Die Einführung von GPT-3 im November 2022 markierte einen Wendepunkt in der Welt der Künstlichen Intelligenz. Was zuvor ein vorwiegend akademisches Forschungsgebiet war, entwickelte sich rasant zu einer neuen Branche, in der OpenAI schnell eine führende Rolle übernahm. Als GPT-4 angekündigt wurde, überschlug sich das Unternehmen in Superlativen – und ähnliche, noch größere Versprechen wurden nun auch für das kommende GPT-5 gemacht. Es soll nicht nur in der Lage sein, komplexe logische Aufgaben zu lösen und mit Videos zu interagieren, sondern auch über ein Niveau von Intelligenz verfügen, das einem promovierten Akademiker gleichkommt. Wie OpenAI diese ehrgeizigen Ziele jedoch konkret messen oder erreichen will, bleibt unklar – ebenso wie bei den Vorgängermodellen.
Die Entwicklung von KI-Systemen wie GPT-5 basiert im Wesentlichen auf drei Säulen: Daten, Algorithmen und Rechenleistung. Daten dienen als Grundlage für das Training des Modells, bei dem durch den Einsatz von Algorithmen die neuronalen Netzwerke optimiert werden. Die verfügbare Rechenleistung entscheidet darüber, wie intensiv und detailliert das Training durchgeführt werden kann, was wiederum die Qualität des fertigen Modells beeinflusst. Diese drei Faktoren – Daten, Algorithmen und Rechenleistung – bestimmen letztlich die Leistungsfähigkeit einer KI.
OpenAI hat prinzipiell die Möglichkeit, an allen drei Stellschrauben anzusetzen, um ihre Modelle weiter zu verbessern. In der Praxis erweist sich jedoch die Optimierung jeder dieser Komponenten als unterschiedlich aufwendig. Aktuelle Forschungsergebnisse deuten darauf hin, dass selbst die gezielte Verbesserung nur einer dieser Komponenten erhebliche Auswirkungen auf die Gesamtleistung eines KI-Modells haben kann. So zeigt sich beispielsweise, dass allein durch den Einsatz von mehr Rechenleistung bei gleichen Daten und Algorithmen die Leistungsfähigkeit signifikant gesteigert werden kann.