Zum Hauptinhalt springen
01.12.2023

Ist KI auf dem Weg zur Superintelligenz? Fortschritte bei der Forschung zu AGI und Alignment

Auch wenn noch nicht klar ist, ob OpenAI tatsächlich einen Durchbruch auf dem Weg zu genereller künstlicher Intelligenz erreicht hat: Über Fortschritte und möglicherweise notwendige Schutzmaßnahmen vor „Artificial General Intelligence“ (AGI) und Superintelligenz wird seit dem Rauswurf und der Wiedereinstellung von Sam Altman, dem CEO von OpenAI, heftig spekuliert. Im Zentrum dabei stehen Berichte, wonach ein als „Q*“ bezeichnetes Projekt von OpenAI Fortschritte beim eigenständigen Lösen von mathematischen Problemen erreicht haben soll, was als ein möglicher Schritt auf dem Weg zu einer AGI gilt. Einige Beteiligte seien daraufhin sehr besorgt über den Kurs der Firma gewesen, was zu Forderungen geführt habe, die weitere KI-Entwicklung zu verlangsamen und noch mehr darauf zu setzen, KI an bestimmten menschlichen Intentionen und Wertvorstellungen auszurichten (Alignment).

Was Q* ist, können auch wir bisher nicht beantworten. Aber unabhängig von Spekulationen über den Stand der Entwicklung bei OpenAI wirft das generell rasante Tempo der KI-Entwicklung tatsächlich viele relevante wissenschaftliche Fragen auf. Was ist der Stand der Forschung zu AGI? Welche Schritte sind auf dem Weg dahin nötig? Wie ist AGI überhaupt definiert, wie unterscheidet sie sich von Superintelligenz? Welche Implikationen würden Durchbrüche auf dem Weg dahin haben? Halten Forschende aus dem Bereich die Forschung an AGI für gefährlich? Was sind die ethischen Implikationen? Und wie kann das oft diskutierte Alignment funktionieren?

Diese und weitere Fragen beantworteten Expertinnen und Experten in einem 50-minütigen virtuellen Press Briefing.

Expertinnen und Experten im virtuellen Press Briefing

     

  • PD Dr. Jessica Heesen, Leiterin des Forschungsschwerpunkts Medienethik, Technikphilosophie und KI, Eberhard Karls Universität Tübingen
  •  

  • Prof. Dr. Holger Hoos, Alexander von Humboldt Professor für Methodik der Künstlichen Intelligenz, Rheinisch-Westfälische Technische Hochschule Aachen (RWTH)
  •  

  • Prof. Dr. Kristian Kersting, Leiter des Fachgebiets Maschinelles Lernen, Technische Universität Darmstadt
  •  

  • Prof. Dr. Marcus Liwicki, Vizerektor für künstliche Intelligenz und Leiter der Forschungsgruppe maschinelles Lernen, Luleå University of Technology, Schweden
  •  

Statements aus dem Press Briefing

Das SMC hat die Expertin und die Experten am Ende des Press Briefings gefragt, welche Aspekte sie in der aktuellen Diskussion für die wichtigsten halten:

PD Dr. Jessica Heesen

Leiterin des Forschungsschwerpunkts Medienethik, Technikphilosophie und KI, Eberhard Karls Universität Tübingen

„Was ich eine bemerkenswerte Beobachtung finde, ist, dass alle denken, wenn etwas intelligent ist, ist es so wie der Mensch. Wir sehen, dass wir eigentlich gar nicht so intelligent handeln, sondern es gibt auch viele andere intelligente Wesen außer dem Menschen. Zum Menschsein gehört noch viel mehr dazu. Was uns an AGI so Angst macht, ist auch das Bewusstsein, dass wir eben gerade häufig nicht rational arbeiten. So eine kalte Rationalität, die viel schlauer ist als wir und das konsequent durchzieht, verängstigt uns. Diese Gleichsetzung von Intelligenz mit dem Menschsein, das geht völlig nach hinten los und ist vollkommen unberechtigt.“

Prof. Dr. Marcus Liwicki

Vizerektor für künstliche Intelligenz und Leiter der Forschungsgruppe maschinelles Lernen, Luleå University of Technology, Schweden

„Wir müssen uns auch um den Klimawandel und Energie kümmern. Die KI oder Technik allgemein nimmt schon jetzt circa zehn Prozent des Energiebedarfs der Welt ein. Und das wird viel mehr, vor allen Dingen auch durch KI.“

„Und als zweite Bemerkung: Wir können nicht davon ausgehen, dass irgendeines dieser maschinellen Modelle zu 100 Prozent perfekt ist. Wir müssen immer damit rechnen, dass irgendetwas falsch läuft, dass da irgendetwas von den Ausgaben nicht wirklich verlässlich ist. Also bleibt kritisch, wenn ihr mit der KI redet oder auch wenn ihr Artikel zu dem Thema lest.“ 

Prof. Dr. Holger Hoos

Alexander von Humboldt Professor für Methodik der Künstlichen Intelligenz, Rheinisch-Westfälische Technische Hochschule Aachen (RWTH)

„Ich glaube, wir wollen gar keine KI, die uns in all unseren Schwächen und Stärken reproduzieren kann und gleich ist. Wir wollen KI, die uns hilft, unsere Schwächen zu erkennen und auszugleichen und die uns die Bereiche, in denen wir stark sind, im Wesentlichen weiterhin überlässt. Das ist meine Definition von menschzentrierter KI und die ist kompatibel mit der der Europäischen Union. Das ist eine gute Sache. Deswegen sehe ich die Weiterentwicklung von ChatGPT, was deutlich darauf hinzielt, menschenähnliches Verhalten und Fähigkeiten zu erzeugen, im Grunde genommen als eine Art Sackgasse. Wir sollten uns viel stärker darauf konzentrieren, Systeme zu erzeugen, die uns bei der Bewältigung der Probleme unserer Zeit helfen.“

„Eines dieser Probleme ist natürlich der große Energieverbrauch nicht nur von KI-Systemen, sondern von allen möglichen informationsverarbeitenden Systemen. Da ist die Richtung, die zurzeit verfolgt wird, immer größere Modelle immer aufwendiger zu trainieren, hochgradig problematisch. Ich finde, wir sollten gerade in Europa, aber auch weltweit einen großen Fokus darauf setzen, kleinere Systeme zu bauen, die vielleicht aus kleineren Mengen hochwertigerer Daten bessere Schlüsse ziehen können, aufgrund dieser Daten besser operieren können und uns dabei helfen können, uns den Herausforderungen unserer Zeit zu stellen. Ich würde mir von den Journalistinnen und Journalisten wünschen, dass sie nicht nur die sensationalistischen Meldungen, die aus diesen Großunternehmen kommen, weitertragen und feiern, sondern insbesondere auch Bemühungen, die in diese von mir gerade skizzierte Richtung gehen. Das braucht unsere Gesellschaft und die Menschheit viel dringender.“

Prof. Dr. Kristian Kersting

Leiter des Fachgebiets Maschinelles Lernen, Technische Universität Darmstadt

„Ich glaube, nach der ganz großen Definition werde ich zu Lebenszeiten AGI nicht mehr sehen. Ich glaube, das wird keiner so schnell sehen. Trotzdem glaube ich daran, dass es momentan ganz wichtige Entwicklungen gibt, die uns helfen werden. Diese Entwicklungen lösen die Probleme nicht allein, sie werden uns aber helfen, viele der Probleme angehen zu können. Zum Beispiel glaube ich, dass es beim Klimawandel kaum jemanden gibt, der den Überblick über all die Disziplinen hat, den wir aber vielleicht brauchen, um hoffentlich doch noch eine Lösung zu finden.“

„Wir brauchen auch nicht zwangsläufig die großen Modelle. Ich möchte aber ein Plädoyer dafür halten, dass wir vielleicht an einer Stelle in Europa einen Ort schaffen, an dem offene Modelle, die in der öffentlichen Hand liegen, gebaut werden können. Auch vielleicht größere. Wie wir das hinkriegen, muss dann die Forschung zeigen. Hoffentlich auch mit einem geringeren Energieverbrauch. Aber trotzdem sollten wir diese Modelle haben. Dann können wir aus den offenen Modellen entweder durch Testen verstehen, wie es funktioniert, aber auch besser geschlossene Modelle ableiten. Denn: Wenn alles offen ist, dann wird die Monetarisierung schwierig. Und ich glaube, wir brauchen Monetarisierung in dem aktuellen Wirtschaftssystem. Wir müssen auch den Blick nicht immer in die USA richten, sondern auch nach Deutschland. Wir haben mit CLAIRE und auch mit ELLIS tolle Initiativen in Deutschland, in Europa, die etwas schaffen. Sie können gerne auch bei uns bei hessian.AI einmal schauen. Auch wir bauen solche Modelle auf und trainieren existierende Modelle weiter, sodass man beispielsweise deutsche Sprachmodelle hat. Und ich glaube, das ist wichtig, damit wir mitreden können.“

„Wir müssen nicht alles mitmachen. Wir sind in der Forschung top. Redet also bitte alle auch mehr mit uns und anderen KI-Forschenden in Deutschland.“

Videomitschnitt und Transkript

Das Transkript kann hier als pdf heruntergeladen werden.

Angaben zu möglichen Interessenkonflikten

PD Dr. Jessica Heesen: „Ich habe keine Interessenkonflikte.“

Prof. Dr. Holger Hoos: „Ich habe keine Interessenkonflikte.“

Prof. Dr. Kristian Kersting: „Ich bin Investor bei Aleph Alpha, kann mich zu diesem Thema aber unbefangen äußern.“

Prof. Dr. Marcus Liwicki: „Ich habe zu dem Thema keine Interessenkonflikte.“

Weiterführende Recherchequellen

Science Media Center (2023): Sprachmodelle, Robotik, Mensch-Maschine-Interaktion: What's next? Press Briefing. Stand: 23.03.2023.

Science Media Center (2023): ChatGPT und andere Sprachmodelle – zwischen Hype und Kontroverse. Press Briefing. Stand: 26.01.2023.