Definition
Ansvarlig AI refererer til design, udvikling og implementering af AI-systemer, der er etiske, transparente, retfærdige og ansvarlige. Det lægger vægt på at minimere risici og maksimere samfundsmæssige fordele.
Formål
Formålet er at sikre, at AI er i overensstemmelse med menneskerettigheder, sikkerhed og retfærdighed. Ansvarlige AI-praksisser vejleder organisationer i at implementere pålidelig AI.
Vigtighed
- Opbygger tillid til AI-adoption.
- Forebygger skadelige eller diskriminerende virkninger.
- Sikrer overholdelse af reglerne.
- Fremmer gennemsigtighed og ansvarlighed.
Hvordan det virker
- Definer etiske principper og retningslinjer.
- Vurder risici på tværs af AI-livscyklussen.
- Anvend sikkerhedsforanstaltninger som fairness test og bias audits.
- Overvåg løbende implementerede systemer.
- Dokumentere og kommunikere praksis til interessenter.
Eksempler (den virkelige verden)
- Microsofts standard for ansvarlig AI.
- Google AI-principper.
- OECD's AI-principper er vedtaget af regeringer verden over.
Referencer / Yderligere læsning
- OECD's principper for kunstig intelligens.
- NIST AI-risikostyringsramme.
- Jobin, A. et al. “Det globale landskab af etiske retningslinjer for AI.” Nature.
- Hvad er ansvarlig AI?