Definition
Bias i AI refererer til systematiske fejl i AI-output forårsaget af skæve data, mangelfuldt design eller samfundsmæssig ulighed, der afspejles i datasæt. Det kan føre til urimelige eller diskriminerende resultater.
Formål
Formålet med at studere bias er at identificere og afbøde urimelighed i AI-systemer. Organisationer sigter mod at opbygge mere retfærdige modeller ved at adressere disse problemer.
Vigtighed
- Fører til diskrimination i forbindelse med ansættelse, udlån eller sundhedspleje, hvis det ikke tages hånd om.
- Underminerer tilliden til AI-systemer.
- Kræver overholdelse af lovgivningen i følsomme brancher.
- Relateret til retfærdighed og ansvarlige AI-praksisser.
Hvordan det virker
- Identificer potentielle kilder til bias (dataindsamling, mærkning, modellering).
- Analysér datasæt for ubalance.
- Anvend retfærdighedsbevidste træningsmetoder.
- Test output med retfærdighedsmålinger.
- Justér designet og omskol om nødvendigt.
Eksempler (den virkelige verden)
- COMPAS risikovurderingsværktøj: kritiseret for racemæssig bias.
- Amazons ansættelsesalgoritme: forkastet på grund af kønsbias.
- Ansigtsgenkendelse: kendt for at fejlklassificere visse demografiske grupper.
Referencer / Yderligere læsning
- AI-bias — NIST.
- Retfærdighed og maskinlæring — Barocas, Hardt og Narayanan (bog).
- Algoritmisk bias — ACM FAccT-konferenceprotokollen.
- Diverse AI-træningsdata: Nøglen til at eliminere bias