ChatGPT und andere Sprachmodelle – zwischen Hype und Kontroverse
Als das KI-Unternehmen OpenAI vor knapp zwei Monaten den Chatbot ChatGPT für die Öffentlichkeit zugänglich machte, wurde schnell klar, welche Bedeutung diese Technologie haben könnte. Das „Vorläufermodell“ GPT-3 hatte schon viel Potenzial erahnen lassen, Googles Sprachmodell Lamda machte ebenfalls viele Schlagzeilen. Aber in beiden Fällen hatten die Entwickler die volle Funktionalität der Programme noch zurückgehalten und nicht zur öffentlichen Nutzung freigegeben. Das änderte sich mit ChatGPT, das nach einer Anmeldung für alle Interessierten frei nutzbar ist. Aufgrund der Leistungsfähigkeit und der leichten Zugänglichkeit setzte schnell ein Hype um den Chatbot ein.
Auf unserem Youtube-Kanal können Sie das Video in der Sprecheransicht oder Galerieansicht anschauen.
Das Transkript können Sie hier als pdf herunterladen.
Das SMC hat die Expertin und Experten am Ende des Press Briefings gefragt, inwiefern Sprachmodelle wie ChatGPT ein großer Durchbruch sind, der zu großen Veränderungen führen wird, oder ob das Thema gerade zu sehr gehypt wird. Die Antworten stellen wir Ihnen nachfolgend als Statements zur Verfügung.
Professor am Robotics and Biology Laboratory und Sprecher des Clusters "Science of Intelligence", Technische Universität Berlin
„Es ist beides. Es ist natürlich ein Hype in dem Sinne, dass ich glaube, dass der Grad der Aufregung durch die Sache nicht gerechtfertigt ist. Aber gleichzeitig passieren ganz viele Nebeneffekte durch diesen Hype, nämlich, dass sehr viel mehr Geld investiert wird, dass sehr viel mehr Aufmerksamkeit auf diesen Bereich der KI-Forschung gelenkt wird, dass wahrscheinlich viele junge Forscherinnen und Forscher sagen, an so etwas möchte ich jetzt forschen. Das heißt, dass da tatsächlich auf breiter Fläche etwas passiert, und das kann man alles voneinander nicht unbedingt ablösen. Es wird abzuwarten sein, was da passiert.“
„Wenn wir uns die Geschichte der künstlichen Intelligenz angucken, dann gab es immer wieder sogenannte KI-Winter (in denen KI-Förderung zurückging, weil vorherige Erwartungen nicht erfüllt werden konnten; Anm. d. Red.). Ich glaube nicht, dass es noch mal einen KI-Winter dieser Dimension wie aus der Vergangenheit geben wird, aber ich glaube schon, dass es Wellen von abflachendem und aufsteigendem Hype geben wird.“
„Insofern, glaube ich, sind wir schon auf einem Weg in eine neue Ära in der künstlichen Intelligenz – und wenn ich künstliche Intelligenz sage, dann meine ich maschinelles Lernen –, die immer schneller vorangeht und immer mehr Bereiche unseres Alltags berühren und dort Relevanz zeigen wird. Ich glaube, dass es wesentlich länger dauern wird, bis diese Entwicklung sich auf die biologische Art von Intelligenz auswirken wird. Da wird es sicherlich Auswirkungen geben. Aber ich glaube, dass da noch viel größere, fundamentalere Probleme auf uns warten, von denen wir noch nicht wissen, was da die Lösung sein könnte.“
Post-Doc am Exzellenzcluster "Machine Learning: New Perspectives for Science", Eberhard Karls Universität Tübingen
„In einer gewissen Hinsicht ist es gar keine große Veränderung. Es gibt seit langem eine Vielzahl an Sprachmodellen, die man auch für Forschung benutzen kann – auch Sprachmodelle, die mit diesem Human Feedback trainiert worden sind, also zum Beispiel GPT-3.5. Allerdings ist das, was jetzt neu ist und was letztendlich passiert ist, dass eine Firma es gewagt hat, so ein Sprachmodell an eine einfache Benutzerschnittstelle anzuschließen. Das ist vorher noch nicht passiert. Es gab Playgrounds, wo man diese Modelle ausprobieren konnte, aber meistens musste man programmieren können und unter Umständen sogar sehr große Rechner und Speicherkapazitäten haben, um sie zu nutzen. Und jetzt gibt es plötzlich für alle zugänglich eine simple Benutzerschnittstelle. Und diese Benutzerschnittstelle ist eigentlich das, was diesen wahnsinnigen Hype ausgelöst hat.“
„Andere Firmen werden nachziehen. Auch sie werden ihre Sprachmodelle der breiten Öffentlichkeit zur Verfügung stellen. Und ich glaube, das kreative Potenzial, das dann freigesetzt wird, der gesellschaftliche Impact, den es haben wird, da machen wir uns überhaupt kein Bild von. Ich halte das für massiv, was dort passiert, wenngleich meine Fantasie, glaube ich, noch nicht zulässt, alles zu sehen, was da in den nächsten zehn bis zwanzig Jahren passieren wird. Ich gebe nur eine Sache zu bedenken: Man überlege sich nur einmal, was passiert, wenn wir jetzt KI-Systeme wie diese mächtigen Sprachmodelle mit anderen KI-Systemen kombinieren. Also wenn wir so ein Sprachmodell in einen Roboter einbauen oder wenn wir sie mit Bildgenerierungs-KIs kombinieren oder Ähnliches. Da wird sich so viel verändern, nicht nur was Medien anbelangt, sondern auch was das menschliche Zusammenleben, was die Wirtschaft angeht, dass dort einiges auf uns zukommt.“
Leiterin der Arbeitsgruppe Kognitive Systeme, Fakultät Wirtschaftsinformatik und Angewandte Informatik, Otto-Friedrich-Universität Bamberg
„Ich würde sagen, es ist eine Evolution und keine Revolution. Es war natürlich schon ein guter Schachzug von OpenAI, ChatGPT öffentlich zur Verfügung zu stellen, weil das natürlich sehr viel Aufmerksamkeit produziert. Vielleicht hat das sogar noch mal einen Hype ausgelöst, wie 2014/2015, als Google Brain erstmals beim End-to-End-Learning direkt ein Bild einer Katze aus einem Bild ohne Verarbeitung erkannt hat, was ja auch ein Riesendurchbruch war. Ich glaube schon, dass es sehr spannend ist, wenn auch nicht ganz neu.“
„Ich glaube aber, es war selten so viel Bewegung in der KI-Forschung wie heute. Man muss interdisziplinär auf die Forschung gucken, das fand ein Teil der KI-Forschenden schon immer. Es gab eine Zeit, wo KI sehr ‚narrow‘ war, sich sehr ausdifferenziert hat. Ein Teil der KI-Forschenden hat sich in Richtung kognitive Systeme entwickelt. Und da gibt es dann auch entsprechende Journals und Konferenzen und in Cognitive Science finden sie sich auch wieder. Diese interdisziplinäre Betrachtung von KI erlebt jetzt einen ganz neuen Aufschwung und bringt noch mal viele wichtige Erkenntnisse.“
„Was ich persönlich sehr spannend finde, ist, dass wir aktuell schon ein ganz neues, großes Interesse an den klassischen wissensbasierten Methoden und Technologien erkennen. Das fällt unter den etwas schöner klingenden Begriff neuro-symbolic AI, neuro-symbolische KI. Es wurde doch erkannt, dass man eigentlich beides braucht. Das, was Menschen schon wissen, lernen sie ja auch nicht dauernd immer wieder. Je mehr ich an Wissen schon nutzen kann, desto weiter kann ich kommen. Das wird zunehmend auch erkannt im Bereich der Machine-Learning-Forschung. Das führt dazu, dass man auf Tagungen wie NeurIPS auf einmal auch Leute aus der Symbolic AI als Keynote Speakers einlädt. Das wäre vor ein paar Jahren undenkbar gewesen und das finde ich ziemlich cool.“
Prof. Dr. Oliver Brock
Professor am Robotics and Biology Laboratory und Sprecher des Clusters "Science of Intelligence", Technische Universität Berlin
Dr. Thilo Hagendorff
Post-Doc am Exzellenzcluster "Machine Learning: New Perspectives for Science", Eberhard Karls Universität Tübingen
Prof. Dr. Ute Schmid
Leiterin der Arbeitsgruppe Kognitive Systeme, Fakultät Wirtschaftsinformatik und Angewandte Informatik, Otto-Friedrich-Universität Bamberg