Administrerende direktør og medstifter af Shaip, Vatsal Ghiya har 20 års erfaring i sundhedspleje AI-software og -tjenester og muliggør on-demand-skalering af forretningsprocesser med maskinlæring og AI-initiativer. Denne gæstefunktion, Vatsal Ghiya, har delt nøgleindsigt i, hvordan man kan eliminere bias i Conversational AI.
Nøglen til at tage med fra artiklen er-
- Som det fremgår af statik, er nøjagtigheden af at hente resultater gennem stemmesøgning på amerikanske mænd 92 %, men dette går ned til 79 % og 69 % for hvide amerikanske kvinder og blandede amerikanske kvinder. Dette er et klassisk eksempel på Bias AI.
- Nogle eksempler fra den virkelige verden på bias AI inkluderer Amazon og Facebook, hvor mænd blev begunstiget mere under rekruttering i Amazon, og Facebook målretter kunden efter deres køn, farve og religion. Denne skævhed i AI er forårsaget af tre årsager, og disse er data, mennesker og teknologi.
- For at eliminere skævheden ved AI fra enhver applikation og ethvert system kan organisationer følge foranstaltningerne som at certificere datakilderne og kvaliteten, overvåge modellen i realtid og analysere mangfoldigheden af data, før de bruger AI i deres operationer.
Læs hele artiklen her: