Det menneskelige sind er forblevet uforklarligt og mystisk i lang, lang tid. Og det ser ud til, at videnskabsmænd har anerkendt en ny kandidat til denne liste - kunstig intelligens (AI). I starten lyder det temmelig oxymoronisk at forstå en AIs sind. Men efterhånden som AI gradvist bliver mere sansende og udvikler sig tættere på at efterligne mennesker og deres følelser, er vi vidne til fænomener, der er medfødte for mennesker og dyr – hallucinationer.
Ja, det ser ud til, at selve den tur, som sindet begiver sig ud i, når det bliver forladt i en ørken, kastet væk på en ø eller låst inde alene i et rum uden vinduer og døre, opleves også af maskiner. AI hallucination er ægte, og tekniske eksperter og entusiaster har registreret flere observationer og slutninger.
I dagens artikel vil vi udforske dette mystiske, men alligevel spændende aspekt af Store sprogmodeller (LLM'er) og lær finurlige fakta om AI-hallucinationer.
Hvad er AI Hallucination?
I AI-verdenen refererer hallucinationer ikke vagt til mønstre, farver, former eller mennesker, som sindet klart kan visualisere. I stedet refererer hallucination til ukorrekte, upassende eller endda vildledende fakta og svar Generative AI-værktøjer komme med opfordringer.
Forestil dig for eksempel at spørge en AI-model, hvad et Hubble-rumteleskop er, og det begynder at svare med et svar som: "IMAX-kamera er en specialiseret film i høj opløsning...."
Dette svar er irrelevant. Men endnu vigtigere, hvorfor genererede modellen en respons, der er tangentielt forskellig fra den fremlagte prompt? Eksperter mener, at hallucinationer kan stamme fra flere faktorer, såsom:
- Dårlig kvalitet af AI-træningsdata
- Overmodige AI-modeller
- Kompleksiteten af Natural Language Processing (NLP) programmer
- Kodnings- og afkodningsfejl
- Modstridende angreb eller hacks af AI-modeller
- Kilde-reference divergens
- Input bias eller input tvetydighed og mere
AI hallucination er ekstremt farlig, og dens intensitet øges kun med øget specifikation af dens anvendelse.
For eksempel kan et hallucinerende GenAI-værktøj forårsage tab af omdømme for en virksomhed, der implementerer det. Men når en lignende AI-model anvendes i en sektor som sundhedsvæsenet, ændrer det ligningen mellem liv og død. Visualiser dette, hvis en AI-model hallucinerer og genererer et svar på dataanalysen af en patients medicinske billeddannelsesrapporter, kan den utilsigtet rapportere en godartet tumor som ondartet, hvilket resulterer i en forløbsafvigelse af individets diagnose og behandling.
Forståelse af AI-hallucinationseksempler
AI hallucinationer er af forskellige typer. Lad os forstå nogle af de mest fremtrædende.
Faktisk forkert svar af oplysninger
- Falske positive svar såsom markering af korrekt grammatik i tekst som forkert
- Falske negative reaktioner såsom at overse indlysende fejl og angive dem som ægte
- Opfindelse af ikke-eksisterende fakta
- Forkert indkøb eller manipulation af citater
- Overmod til at svare med forkerte svar. Eksempel: Hvem sang Here Comes Sun? Metallica.
- Sammenblanding af begreber, navne, steder eller hændelser
- Mærkelige eller skræmmende svar såsom Alexas populære dæmoniske autonome grin og mere
Forebyggelse af AI-hallucinationer
AI-genereret misinformation af enhver type kan detekteres og rettes. Det er specialiteten ved at arbejde med AI. Vi har opfundet dette, og vi kan ordne det. Her er nogle måder, vi kan gøre dette på.
Begrænsende svar
De siger, at det er ligegyldigt, hvor mange sprog vi taler. Vi skal vide, hvornår vi skal stoppe med at tale i dem alle. Dette gælder også for AI-modeller og deres svar. I denne sammenhæng kan vi begrænse en models evne til at generere svar til en specifik volumen og mindske chancerne for, at den kommer med bizarre resultater. Dette kaldes Regularisering, og det involverer også at straffe AI-modeller for at lave ekstreme og strakte resultater til prompter.
Relevante og lufttætte kilder til at citere og uddrage svar
Når vi træner en AI-model, kan vi også begrænse de kilder, en model kan henvise til og udtrække information fra til kun legitime og troværdige. For eksempel kan AI-modeller i sundhedssektoren som det ene eksempel, vi diskuterede tidligere, kun referere til kilder, der er troværdige i information fyldt med medicinske billeder og billedteknologier. Dette forhindrer maskiner i at finde og co-relatere mønstre fra bipolære kilder og generere en respons.
Definition af en AI-models formål
AI-modeller lærer hurtigt, og de skal bare fortælles præcist, hvad de skal gøre. Ved præcist at definere formålet med modeller, kan vi træne modeller til at forstå deres egne muligheder og begrænsninger. Dette vil give dem mulighed for selvstændigt at validere deres svar ved at tilpasse genererede svar til brugerprompts og deres formål med at levere rene resultater.
Menneskelig tilsyn med kunstig intelligens
Træning af AI-systemer er lige så kritiske som at lære et barn at svømme eller cykle for første gang. Det kræver voksenopsyn, mådehold, indgriben og håndholdt. De fleste AI-hallucinationer opstår på grund af menneskelig uagtsomhed i forskellige stadier af AI-udvikling. Ved at implementere de rigtige eksperter og sikre en menneskelig arbejdsgang til at validere og granske AI-svar, kan kvalitetsresultater opnås. Desuden kan modeller raffineres yderligere for nøjagtighed og præcision.
Shaip og vores rolle i at forhindre AI-hallucinationer
En af de andre største kilder til hallucinationer er dårlige AI-træningsdata. Hvad du fodrer er, hvad du får. Det er derfor, Shaip tager proaktive skridt for at sikre levering af data af højeste kvalitet til din generativ AI-træning har brug for.
Vores strenge kvalitetssikringsprotokoller og etisk fremskaffede datasæt er ideelle til dine AI-visioner med hensyn til at levere rene resultater. Selvom tekniske fejl kan løses, er det afgørende, at bekymringer om træningsdatakvaliteten behandles på græsrodsniveau for at forhindre omarbejdelse af modeludvikling fra bunden. Det er derfor din AI og LLM træningsfasen bør starte med datasæt fra Shaip.