Der Begriff Interpretability ist vor allem in den Bereichen Künstliche Intelligenz, Big Data und Smart Data sowie Digitale Transformation zu Hause. Er beschreibt die Nachvollziehbarkeit und Verständlichkeit von komplexen digitalen Systemen und Algorithmen – also wie gut wir als Menschen deren Entscheidungen und Funktionsweisen verstehen können.
In der Praxis bedeutet Interpretability, dass wir erkennen können, warum eine Software oder eine KI eine bestimmte Entscheidung getroffen hat. Zum Beispiel nutzt eine Bank Künstliche Intelligenz, um Kreditentscheide zu treffen. Wenn diese Software einem Kunden den Kredit verweigert, ist es für die Bank, aber auch für den Kunden wichtig, nachvollziehen zu können, wie das Ergebnis zustande kam. Ist das System interpretierbar, wird zum Beispiel transparent, dass das Einkommen oder die bisherige Zahlungsmoral Gründe waren.
Gute Interpretability hilft dabei, Vertrauen in digitale Systeme zu stärken, Fehler zu finden und faire Entscheidungen zu gewährleisten. Gerade bei sensiblen Geschäftsprozessen spielen nachvollziehbare Entscheidungen eine zentrale Rolle, damit wir Menschen den Ergebnissen von Algorithmen auch wirklich vertrauen können.