Kontrafaktische Erklärbarkeit ist ein Begriff aus den Bereichen Künstliche Intelligenz, Big Data und Smart Data sowie Digitale Transformation. Sie hilft dabei, komplexe Entscheidungen von Computermodellen verständlicher zu machen.
Man stelle sich folgendes vor: Eine KI entscheidet, ob jemand einen Kredit bekommt oder nicht. Für viele Menschen bleibt dabei unklar, warum genau sie abgelehnt wurden. Hier setzt die kontrafaktische Erklärbarkeit an. Sie beantwortet die Frage: „Was hätte ich anders machen müssen, damit das Ergebnis anders ausgefallen wäre?“ Zum Beispiel: „Wenn Ihr Einkommen 500 Euro höher wäre, hätten Sie den Kredit bekommen.“ Dadurch werden die oft als Black Box empfundenen KI-Entscheidungen greifbarer und nachvollziehbarer.
Die kontrafaktische Erklärbarkeit hilft also, kritische Geschäftsentscheidungen transparent zu machen. Sie zeigt konkret und verständlich Alternativen auf. Das ist besonders wichtig, wenn Unternehmen auf KI-Modelle setzen, deren Funktionsweise schwer durchschaubar ist. So können Verantwortliche, Kunden oder Nutzer leichter verstehen, wie sie Ergebnisse beeinflussen können, und Fehlentscheidungen frühzeitig erkennen.