Sind Sprachmodelle ein Weg zu genereller künstlicher Intelligenz?
Sprachmodelle großer Anbieter wie OpenAI, Google und Anthropic bewältigen vielfältige Aufgaben immer besser. Sie geben Gesundheitstipps, helfen bei den Mathehausaufgaben und schreiben Code für Computerprogramme. Einige sehen darin den nächsten Schritt in der Entwicklung künstlicher Intelligenz: Artificial General Intelligence (AGI) – also generelle künstliche Intelligenz (KI). Im populärwissenschaftlichen Kontext wird AGI oft als menschenähnliche Intelligenz verstanden: Ein AGI-System soll jede Aufgabe lösen können, die ein Mensch bewältigen kann. Ob es dabei um rein intellektuelle oder auch physische Aufgaben geht, bleibt an vielen Stellen unklar. Auch innerhalb der akademischen Forschung gibt es keine allgemein anerkannte Definition von AGI. Ist eine Intelligenz menschenähnlich, wenn sie alle erdenklichen Aufgaben auf mindestens menschlichem Niveau erfüllen kann? Oder erst, wenn sie außerdem Selbstverständnis und Emotionen hat? Wie kann Selbstverständnis gemessen werden? Was Intelligenz ausmacht, ist nicht nur für Maschinen ungeklärt, sondern auch beim Menschen. Umso schwieriger ist es zu sagen, wann ein System AGI erreicht hat – oder ob es überhaupt dazu in der Lage ist.
Einige prophezeien AGI durch Sprachmodelle. OpenAI-CEO Sam Altman sprach bei der Vorstellung der neuesten GPT-Version GPT-5 von einem signifikanten Schritt in Richtung AGI. Ob Sprachmodelle die Voraussetzungen für generelle künstliche Intelligenz mitbringen, ist aber unklar. Gegenüber den Behauptungen, die Modelle könnten mittlerweile logisch denken, steht die Auffassung, Sprachmodelle seien nur stochastische Papageien ohne tieferes Verständnis.
Auf unserem Youtube-Kanal können Sie das Video in der Sprecheransicht oder Galerieansicht anschauen.
Das Transkript können Sie hier als pdf herunterladen.
„Ich habe keine Interessenkonflikte.“
„Ich habe keine Interessenkonflikte.“
„Nein, keine Interessenkonflikte.“
Weiterführende Recherchequellen
Science Media Center (2023): Ist KI auf dem Weg zur Superintelligenz? Fortschritte bei der Forschung zu AGI und Alignment. Press Briefing. Stand: 01.12.2023.
Science Media Center (2025): GPT-5 veröffentlicht: Wie gut messen Benchmarks Leistung von KI-Modellen? Statements. Stand: 08.08.2025.
Thilo Hagendorff verweist auf eine von ihm erstellte Zusammenfassung zu ethischen Implikationen und Risiken durch generative KI-Modelle auf GitHub:
Hagendorff T. (2024): Mapping the Ethics of Generative AI. GitHub.
Holger Hoos verweist auf eine Prognose des AI Futures Project dazu, wie sich KI bis 2027 weiterentwickeln könnte:
Kokotajlo D et al. (2025): AI 2027. AI Futures Project.
Prof. Dr. Michael Franke
Professor für Sprachwissenschaft, Pragmatik und Informatik, Eberhard Karls Universität Tübingen
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.“
Dr. Thilo Hagendorff
Leiter der Forschungsgruppe Ethik generativer KI-Systeme, Interchange Forum for Reflecting on Intelligent Systems (SRF IRIS), Universität Stuttgart
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.“
Prof. Dr. Holger Hoos
Alexander-von-Humboldt-Professor für Methodik der künstlichen Intelligenz, Rheinisch-Westfälische Technische Hochschule Aachen (RWTH)
Angaben zu möglichen Interessenkonflikten
„Nein, keine Interessenkonflikte.“