Explainable AI (XAI) ist ein Begriff aus den Bereichen Künstliche Intelligenz, Big Data und Smart Data sowie Cyberkriminalität und Cybersecurity. Er beschreibt künstliche Intelligenz-Systeme, deren Entscheidungen für Menschen nachvollziehbar sind. Das Ziel von Explainable AI ist es, Transparenz zu schaffen und das Vertrauen der Nutzer zu stärken.
Oft wirken KI-Entscheidungen wie eine „Black Box“ – sie liefern zwar ein Ergebnis, aber niemand versteht, wie es zustande kam. Explainable AI verändert das, indem sie aufzeigt, nach welchen Regeln oder Daten eine KI handelt. Das ist besonders wichtig, wenn Entscheidungen über Menschen getroffen werden, zum Beispiel bei der Kreditvergabe oder der Diagnose von Krankheiten.
Ein anschauliches Beispiel: Eine Bank nutzt KI-Software, um Kreditanträge zu bewerten. Dank Explainable AI kann der Mitarbeiter sehen, welche Faktoren (wie Einkommen, Schufa-Auskunft und Beruf) zur Ablehnung oder Annahme beigetragen haben. So kann die Bank ihre Entscheidung erklären und Bewerber besser beraten.
Explainable AI ist also ein wichtiger Baustein, um künstliche Intelligenz sicher und verantwortungsvoll im Alltag einzusetzen.