AI Hallucination gehört in die Kategorien Künstliche Intelligenz und Digitale Transformation.
Mit AI Hallucination wird ein Phänomen beschrieben, das bei der Nutzung von Künstlicher Intelligenz (KI) auftreten kann: Die KI „halluziniert“ und gibt Informationen aus, die gar nicht stimmen – sie erfindet sozusagen Fakten. Das kann besonders dann passieren, wenn eine KI mit wenig oder widersprüchlichen Daten arbeitet. Selbst moderne Sprachmodelle wie ChatGPT sind davon betroffen.
Ein Beispiel: Sie fragen eine KI nach dem Geburtsdatum einer berühmten Person. Statt korrekt zu antworten, nennt die KI ein falsches Datum, das sie „erfunden“ hat, weil sie bestimmte Daten falsch verknüpft oder keine genaue Information dazu gefunden hat. Für den Laien wirkt die Information glaubhaft, ist aber komplett falsch.
Das Risiko von AI Hallucination besteht überall dort, wo KI eingesetzt wird – ob in Geschäftsberichten, beim Erstellen von Zusammenfassungen oder bei der Kundenkommunikation. Deshalb ist es wichtig, KI-Antworten nochmal zu überprüfen und nicht blind darauf zu vertrauen.
Durch das Verständnis des Begriffs AI Hallucination werden Entscheider sensibilisiert, den Umgang mit KI kritisch und verantwortungsvoll zu gestalten und überprüfen Informationen noch einmal.