Der Begriff Model Drift stammt aus den Bereichen Künstliche Intelligenz und Big Data und beschreibt ein wichtiges Phänomen bei der Nutzung von lernenden Computermodellen. Model Drift passiert, wenn die Qualität von Vorhersagen eines KI-Modells mit der Zeit schlechter wird, weil sich die Daten oder Bedingungen verändern, mit denen das Modell arbeitet.
Ein einfaches Beispiel: Ein Online-Shop verwendet eine künstliche Intelligenz, um vorherzusagen, welche Produkte Kundinnen und Kunden als Nächstes kaufen könnten. Wenn sich das Kaufverhalten aufgrund eines Trends oder einer gesellschaftlichen Veränderung verschiebt, arbeitet das ursprüngliche Modell plötzlich mit „alten“ Annahmen. Die Empfehlungen werden weniger genau – das Modell ist sozusagen „drifted“, also abgewichen.
Model Drift ist deshalb wichtig im Blick zu behalten, weil es Entscheidern zeigt: Künstliche Intelligenz ist kein Selbstläufer. Modelle müssen regelmäßig überprüft und wenn notwendig neu trainiert werden, damit sie weiterhin zuverlässig nutzbare Ergebnisse liefern. So bleibt die Technik ein nützliches Werkzeug im Arbeitsalltag – und unterstützt datenbasierte Entscheidungen effektiv.