Der Begriff „Überparametrisierte Modelle“ stammt aus den Bereichen Künstliche Intelligenz, Industrie und Fabrik 4.0 sowie Big Data und Smart Data. Er bezeichnet mathematische Modelle, zum Beispiel in der KI, die mehr Parameter (also einstellbare Werte) haben, als eigentlich für die Lösung eines bestimmten Problems nötig wären.
Stellen Sie sich vor, Sie haben einen Roboter in einer Fabrik, der lernen soll, verschiedene Teile zu sortieren. Wenn das Modell, das dem Roboter das Lernen ermöglicht, sehr viele Parameter hat, kann dieses „überparametrisierte Modell“ oft viel mehr Muster erkennen, als eigentlich vorhanden sind. Dadurch kann der Roboter nicht nur die echten Merkmale lernen, sondern auch zufällige Details, die für die Aufgabe gar nicht bedeutsam sind.
Man nutzt überparametrisierte Modelle, weil sie eine hohe Flexibilität bieten und oft bessere Ergebnisse auf großen Datenmengen erzielen – vorausgesetzt, es gibt genügend Daten und die Modelle werden richtig gesteuert. Das Ziel ist es, ein Gleichgewicht zu finden: Das Modell soll so komplex sein, dass es schwierige Aufgaben lösen kann, aber nicht so komplex, dass es alles – auch Unwichtiges – lernt.