Hoppa till innehåll
Tillbaka till ordlistan

Ordlista

Hallucination (AI)

AI-hallucination är när en AI-modell genererar information som låter trovärdig men är felaktig eller påhittad.

AIriskkvalitet

AI-hallucination är när en AI-modell genererar information som låter trovärdig men som är felaktig eller helt påhittad. Det är ett välkänt problem med LLM:er som ChatGPT, Claude och Gemini.

Varför är hallucinationer viktigt att förstå?

För företag som förlitar sig på AI för innehållsskapande eller kundinteraktion kan hallucinationer leda till felaktig information som skadar trovärdigheten. Tekniker som RAG och faktakontroll hjälper till att minska risken.

Vanliga typer av hallucinationer

  • Fabricerade fakta: AI:n hittar på statistik, citat eller händelser.
  • Felaktiga attribueringar: AI:n tillskriver citat eller åsikter till fel person.
  • Logiska felslut: AI:n drar slutsatser som inte stöds av kontexten.