Der Begriff Bias-Variance Tradeoff stammt aus den Bereichen Künstliche Intelligenz, Big Data und Digitale Transformation. Er beschreibt das Gleichgewicht zwischen zwei wichtigen Faktoren, die beim Trainieren von Algorithmen eine Rolle spielen: Verzerrung (Bias) und Streuung (Variance).
Konkret bedeutet das: Wenn ein Computerprogramm, zum Beispiel ein System zur Bilderkennung, zu stark vereinfacht wird (hoher Bias), erkennt es vielleicht Äpfel als Tomaten, weil es nicht genug Einzelheiten beachtet. Wenn das Programm hingegen zu kompliziert ist und alle Details aus den Trainingsdaten „auswendig lernt“ (hohe Variance), kann es neue Bilder schlecht einschätzen, weil es zu wenig generalisiert.
Das Bias-Variance Tradeoff ist wie das Finden der richtigen Balance beim Fahrradfahren: Fokussiert man sich zu sehr auf eine Seite, kippt man um. Ein praktisches Beispiel: Ein Online-Shop möchte vorhersagen, welche Produkte ein Kunde kaufen wird. Ein zu einfaches Modell (hoher Bias) trifft oft daneben. Ein zu komplexes Modell (hohe Variance) erkennt zwar Muster im bisherigen Kaufverhalten, kann aber mit neuen Trends schlecht umgehen.
Die Herausforderung beim Bias-Variance Tradeoff ist also, Algorithmen so anzupassen, dass sie robust und verlässlich funktionieren, auch wenn sie auf neue Daten treffen.