Der Begriff „Große Kontextfenster für LLMs“ stammt aus dem Bereich der Künstlichen Intelligenz, Digitale Transformation sowie Big Data und Smart Data. Er beschreibt eine wichtige Eigenschaft von großen Sprachmodellen, sogenannten Large Language Models (LLMs) wie ChatGPT oder anderen KI-Anwendungen.
Ein Kontextfenster gibt an, wie viel Text ein KI-Modell auf einmal betrachten und verarbeiten kann, um sinnvolle Antworten zu generieren. Je größer dieses Fenster ist, desto mehr Informationen aus dem bisherigen Gespräch oder Textabschnitt kann die KI aufnehmen – ähnlich wie ein Mensch, der ein ganzes Kapitel und nicht nur einen Absatz liest. Früher konnten LLMs nur ein paar Sätze behalten. Heute sind große Kontextfenster möglich: Die KI kann zum Beispiel ganze E-Mails, Verträge oder mehrere Seiten Text analysieren und darüber sprechen, ohne den Überblick zu verlieren.
Ein Beispiel: Eine Personalabteilung möchte einen langen Bewerber-Chat mit einer KI führen. Dank großer Kontextfenster „weiß“ die KI während des ganzen Gesprächs, was bereits gefragt wurde, und gibt keine doppelte Antwort. So wird Kommunikation intelligenter und effizienter.