Zum Hauptinhalt springen
14.09.2021

Generalisiert anwendbare KI: Hype und Stand der Forschung

Anlass

Generalisiert anwendbare Künstliche Intelligenz (KI) ist ein großes Forschungsziel. In den vergangenen Jahren gab es zwar erhebliche Fortschritte bei KI, die in einzelnen Bereichen und insbesondere Spielen – wie Go, Schach, Poker, aber auch Computerspielen wie Starcraft II oder Dota 2 – mit den besten menschlichen Spielern mithalten und sie sogar zum Teil konstant schlagen kann. Dabei handelte es sich aber immer um eine KI, die für diese eine konkrete Anwendung trainiert worden war und dieses Können nicht auf andere Anwendungen oder Spiele übertragen konnte. Diese Unfähigkeit, zu generalisieren, stellt einen zentralen Unterschied zum Lernen bei Menschen dar.

Aber auch generalisiert anwendbare KI ist in der wissenschaftlichen Forschung ein Thema. Das von OpenAI im Mai 2020 vorgestellte Sprachmodell GPT-3 kann Aufgaben lösen, deren Lösung es so spezifisch nie gelernt hat – auch wenn die Meinungen darüber auseinandergehen, ob GPT-3 wirklich „gelernt“ hat und wie komplex oder primitiv die getätigte Generalisierung nun ist [I]. Und Ende Juli hat DeepMind in einem Blogeintrag [II] und einem Preprint [III] einen Ansatz vorgestellt, mit dem KI-Agenten auch außerhalb eines konkret trainierten Szenarios passable Leistungen bringen können. Sie können das zuvor Gelernte also gewissermaßen generalisieren und in anderen Fällen sinnvoll anwenden.

Insbesondere wenn es um Forschungsfortschritte der großen KI-Schmieden wie DeepMind und OpenAI geht, ist es aber oft schwer, Hype von wahren Durchbrüchen in der Forschung zu unterscheiden. Hinzu kommt, dass im Kontext von generalisiert anwendbarer KI schnell von künstlicher allgemeiner Intelligenz, Artificial General Intelligence (AGI), gesprochen wird. Eine AGI zu erreichen ist auch eines der großen Ziele von DeepMind und OpenAI. Wie lange es bis zum Erreichen dieses ambitionierten Ziels aber noch dauert und ob AGI überhaupt realistisch erreichbar ist, darüber wird in der Wissenschaft noch diskutiert.

Aus diesem Grund möchte das SMC mit diesen Einschätzungen von Expertinnen und Experten einen Eindruck über den Stand der Forschung in diesem komplexen Themenfeld liefern.

Die Redaktion des SMC hat folgende Fragen gestellt:

1. Wie ist der Stand der Forschung bei „generalisiert anwendbarer KI“, was ist gerade möglich? Woran wird zurzeit geforscht?

2. Was denken Sie sind in diesem Forschungsbereich die nächsten erkennbaren Meilensteine?

3. In welchen Bereichen könnte eine solche Generalisierung gut funktionieren, in welchen Bereichen sind hohe Erwartungen unrealistisch? Was sind mögliche Anwendungsfälle?

4. Welche Fallstricke gibt es bei der Berichterstattung über dieses Thema? Wie können Journalistinnen und Journalisten Hype von echten Durchbrüchen unterscheiden?

5. Läuft die Forschung an generalisiert anwendbarer KI auf Artificial General Intelligence (AGI) zu? Inwiefern ist AGI ein Hype-Begriff und inwiefern ist es ein seriöses Ziel der KI-Forschung?

Übersicht

     

  • Prof. Dr. Marcus Liwicki, Chair of the Machine Learning Group, Luleå University of Technology, Schweden
  •  

  • Prof. Dr. Ute Schmid, Leiterin der Arbeitsgruppe Kognitive Systeme, Fakultät Wirtschaftsinformatik und Angewandte Informatik, Otto-Friedrich-Universität Bamberg, und Gruppenleiterin Comprehensible Artificial Intelligence (CAI), Fraunhofer-Institut für Integrierte Schaltungen IIS, Erlangen
  •  

  • Prof. Dr. Kristian Kersting, Leiter des Fachgebiets Maschinelles Lernen, Technische Universität Darmstadt
  •  

Statements der Expertin und der Experten zu den Fragen

1. Wie ist der Stand der Forschung bei „generalisiert anwendbarer KI“, was ist gerade möglich? Woran wird zurzeit geforscht?


Prof. Dr. Marcus Liwicki

„Prinzipiell hat sich im Bereich generalisiert anwendbarer KI fundamental nicht viel verändert. Wir sind immer noch dabei, in kontrollierten (und limitierten) Umgebungen selbst-lernende Algorithmen zu erforschen. Die Praxistauglichkeit in realen Umgebungen und bei der Vielzahl möglicher Tasks ist immer noch fraglich.“

Prof. Dr. Ute Schmid

„Menschliche Intelligenz zeichnet sich durch ihre Generalität aus: Ist jemand in der Lage, Verkehrsschilder zu unterscheiden, können wir davon ausgehen, dass diese Person auch Texte lesen und zusammenfassen kann oder ein neues Brettspiel lernen kann. In der Intelligenzforschung wird hier überwiegend angenommen, dass eine allgemeine Fähigkeit zur induktiven Generalisierung dieser Flexibilität zugrunde liegt [1].“

„In der KI-Forschung ist das Thema einer generalisiert anwendbaren KI aus zwei Gründen von großem Interesse: Erstens, um KI-Systeme menschenähnlicher zu machen und dadurch auch besser zu verstehen, welche Mechanismen menschlicher Intelligenz zugrunde liegen – was die KI-Forschung unter der Bezeichnung Cognitive Systems oder Cognitive AI adressiert (siehe etwa die Tagung Advances in Cognitive Systems und die Zeitschrift Cognitive Systems Research). Und zweitens, um die sehr datenintensiven und damit rechenaufwendigen Methoden des Deep Learning effizienter zu machen, indem bereits gelernte Strukturen auf andere Bereiche übertragen werden können. Hier spricht man von Transfer-Learning.“

„In der Forschung zu maschinellem Lernen wird seit mehr als 20 Jahren insbesondere im Bereich induktive Programmierung an allgemeinen Mechanismen zur induktiven Generalisierung geforscht, die unabhängig von einem konkreten Anwendungsbereich erlauben, über Strukturen zu generalisieren. So zeigen zum Beispiel Emanuel Kitzelmann und ich [2], wie mit dem System Igor das Lernen so verschiedener Strategien wie Bauen eines Turms aus nach Größe sortierten Blöcken, Lösen von Turm von Hanoi Problemen, oder Erkennen bestimmter Satzstrukturen möglich ist.“

„Dagegen basieren andere Arbeiten, wie etwa die des Open-Ended Learning Teams von DeepMind London insbesondere auf Versuchs-und-Irrtums-Lernen, das menschlichem Lernen wenig ähnlich ist: Auch wenn Kinder, etwa beim Spielen mit Bauklötzen, durchaus Verhalten zeigen, das auf Versuch-und-Irrtum basiert, hat menschliches Lernen doch immer auch systematische Anteile. Insbesondere werden Regularitäten aus der Umgebung extrahiert und dann systematisch genutzt. Hat ein Kind nach mehreren Versuchen einmal gelernt, dass wenn man einen Block auf eine Pyramide setzt, dieser runterfällt, wird es dies nicht mehr probieren. Diese Fähigkeit zur Regelextraktion wird auch beim Lernen der Muttersprache deutlich. So gibt es eine Phase im Spracherwerb, wenn Kinder Regularitäten übergeneralisieren – beispielsweise ‚gegangt‘ sagen und die übliche Form der Vergangenheitsbildung nutzen. Diese Fähigkeit der induktiven Generalisierung ist auch zentraler Bestandteil von Intelligenztests, etwa Aufgaben, die das Fortsetzen von Zahlenreihen abfragen. Die Fähigkeit zur Extraktion von komplexen Regularitäten zeigt sich bei Menschen in vielen Bereichen nicht nur in einer nachfolgend überwiegend korrekten Anwendung des Gelernten, sondern auch in der Fähigkeit, das gelernte sprachlich zu formulieren und an Andere weiterzugeben: ‚Du kannst keinen Block auf so einen Stein setzen, dann fällt er runter.‘, ‚Bei der Reihe 2, 4, 3, 6, 5, 10, 9 kommt als nächstes 18, weil ich erkannt habe, dass immer erst verdoppelt und dann eins abgezogen wird.‘“

Prof. Dr. Kristian Kersting

„Auf dem Gebiet der künstlichen Intelligenz sind wir von einer ‚generalisiert anwendbaren KI‘ noch weit entfernt – und es gibt keinen Grund, über die bloße Hoffnung hinaus zu glauben, dass der aktuelle von DeepMind vorgestellte Ansatz das aktuell leisten könnte.“
„DeepMind hat einen riesigen, bunten, virtuellen Spielplatz entwickelt, auf dem ein KI-System allgemeine Fähigkeiten erlernen soll, indem sie die der KI gestellten Aufgaben immer wieder ändern. Die Idee ist also, nicht nur die die Fähigkeiten zu entwickeln, die für die Lösung einer bestimmten Aufgabe erforderlich sind, sondern auch zu lernen, zu experimentieren und zu erforschen. Dabei sollen allgemeine Fähigkeiten erlernt werden, die zum Lösen von Aufgaben hilfreich sind, die das System noch nie gesehen hat.“

„Das ist sicherlich ein sehr interessanter Fortschritt für die KI-Forschung – auch in Richtung allgemeine Intelligenz. Bisherige KI-Systeme wie AlphaZero (auch von DeepMind) oder CrazyAra haben die weltbesten menschlichen Spieler beim Schach und Go geschlagen. Aber sie können immer nur ein Spiel auf einmal lernen. Sie zeigen Inselbegabungen. Mit dem neuen Ansatz versucht DeepMind nun, KI-Systeme zu entwickeln, die mehrere Aufgaben auf einmal lernen können und dabei allgemeinere Fähigkeiten erlernen, um die Anpassung an neue Aufgaben zu erleichtern.“

„Aber es ist auch nur ein sehr kleiner Schritt, und noch viele weitere müssen folgen bis wir eine wirklich ‚generalisiert anwendbare KI‘ haben.“

2. Was denken Sie sind in diesem Forschungsbereich die nächsten erkennbaren Meilensteine?


Prof. Dr. Marcus Liwicki

„Ein Meilenstein wäre es, wenn Agenten in einer völlig neuen Umgebung mit nur sehr wenig Beispielen lernen, Aufgaben optimal zu erledigen. Bei dem XLand environment space (die von DeepMind im Kontext des Papers verwendete Umgebung; Anm. d. Red.) ist das nicht gegeben. Die KI hat das Spiel ‚capture the flag‘ zwar nie vorher gespielt, aber zahlreiche sehr ähnliche Spiele aus der Menge von tausenden Spielen. Wenn die KI nun mit nur ein bis zwei Beispiel-Spielen und einer kurzen Erklärung das Spiel ‚Monopoly‘ spielen könnte, dann wäre schon einmal ein großer Schritt getan. Ein Meilenstein wäre es dann, dieser KI (und damit meine ich wirklich diese und nicht eine anders spezialisierte) einfach zu ‚erklären‘, wie man in der realen Welt Auto fährt – und sie es schafft zu lernen, ohne jemals einen Unfall zu bauen.“

Prof. Dr. Ute Schmid

„Meilensteine in der KI-Forschung sind typischerweise Anwendungen, die zeigen, dass bestimmte Methoden bei relevanten oder gut greifbaren Problemen funktionieren. Häufig war dies im Bereich von Spielen der Fall, wie bei den intelligenten Suchstrategien beim Schachcomputer Deep Blue, dem Sprachverstehen des Systems Watson beim Quiz Jeopardy, oder dem Deep Reinforcement Learning von DeepMinds AlphaGo. Für generalisierbare KI könnte ein solcher Meilenstein im Bereich des sogenannten General Game Playing sein. Die Forschung in diesem Bereich versucht, Ansätze zu entwickeln, mit denen nicht nur ein Spiel (nur Schach, nur Dame, nur Backgammon), sondern mehrere erfolgreich gespielt werden können.“

„Daran forscht unter anderem das Open-Ended Learning Team von DeepMind: Es werden künstliche intelligente Agenten trainiert, die für noch nicht gesehene – aber sehr ähnliche – Spiele Transferleistung zeigen. Dabei werden die Agenten in einer simulierten Umgebung mit Aktionsspielen mit einfachen Regeln, wie sie typischerweise Kinder im Freien spielen (Verstecken, Fangen), konfrontiert. Die künstlichen Agenten wenden Handlungswissen, das sie bei einem Spiel erworben haben, auf ein anderes an. Genutzt wird ein Ansatz des maschinellen Lernens, der bereits seit den 1990ern erfolgreich für Optimierungsprobleme eingesetzt wird – sogenannte genetische oder evolutionäre Algorithmen. Hier agieren Mengen von Agenten mit Versuch-und-Irrtum und die erfolgreichsten werden weiterentwickelt. Solche Ansätze sind sehr mächtig, haben aber auch sehr hohen Rechenaufwand und haben eher Bezug zur Evolution als zum intelligenten Verhalten eines einzelnen Menschen. Die Flexibilität des menschlichen Lernens ist hier bei Weitem nicht erreicht. ‚General AI‘ würde bedeuten, dass ein KI-System, das lernen kann, Verstecken zu spielen, auch in der Lage ist, einfache Textaufgaben aus der Grundschule zu bearbeiten, Texte zusammenzufassen, Tierarten zu unterscheiden und vieles mehr.“

Prof. Dr. Kristian Kersting

„Eine ‚generalisiert anwendbare KI‘ sollte zum Beispiel in der Lage sein, neue Informationen aufzunehmen und diese Informationen zuverlässig zu nutzen. Sie sollte in der Lage sein, zuverlässig von Punkt A nach Punkt B zu denken. Wenn sie mit Menschen interagiert, sollte sie in der Lage sein, die menschliche Kommunikation zu interpretieren. Wenn sie einen Text erhält, sollte sie in der Lage sein, die Bedeutung dieses Textes zu erfassen und seine Gültigkeit zu beurteilen. Wenn sie sich ein Video ansieht, sollte sie in der Lage sein, zu erklären, was vor sich geht.“

„Der von DeepMind vorgestellte Ansatz ‚generalisiert anwendbarer KI‘ kann nichts von alledem wirklich leisten; in dem Bericht geht es um die Möglichkeiten, die sich ergeben, wenn man einem KI-System erlaubt, sich selbstständig weitere Ziele und Aufgaben in einer bekannten und klar umrissenen Umgebung zu stecken.“

„Dazu wird ‚Deep Reinforcement Learning‘, also auf Deutsch ‚verstärkendes Lernen mittels tiefer neuronaler Netze‘, eingesetzt. Was ist verstärkendes Lernen? Seit zehntausenden Jahren ist der Hund der beste Freund des Menschen. Hunde entwickeln sich zum wohlerzogenen Begleiter, indem Frauchen oder Herrchen auf Belohnung und Bestrafung zurückgreift. Belohnungen in Form von Leckerli verstärken positives Verhalten. Ausbleibende Belohnungen oder Schimpfen bestrafen hingegen negatives Verhalten. So lernt der Hund mit der Zeit das Verhalten, das zur größtmöglichen Belohnung und geringstmöglichen Bestrafung führt. Diesen Prozess des Lernens, der auf die Arbeiten der US-amerikanischen Psychologen Thorndike und Skinner aus der ersten Hälfte des letzten Jahrhunderts zurückgeht, kann man auch in Algorithmen fassen.“

„Diese Art des maschinellen Lernens zusammen mit der beschriebenen Umgebung und sich dynamisch ändernden Aufgaben als ‚generalisiert anwendbare KI‘ zu bezeichnen, ist ein guter PR-Gag. Er setzt den Ansatz als unvermeidlich für jede Zukunft der KI voraus. Das mag so sein, aber das macht die aktuell trainierten KI-Systeme nicht zu solchen.“

„Das Umbenennen von Deep Reinforcement Learning mit vielen, sich ändernden Aufgaben in ‚generalisiert anwendbare KI‘ ist schon etwas irreführend. ‚Generalisiert anwendbare KI‘ klingt sicherlich cooler. Aber nur weil es cooler klingt, bedeutet es nicht, dass wir damit eine starke KI bekommen. Das ist noch ein sehr weiter Weg.“

3. In welchen Bereichen könnte eine solche Generalisierung gut funktionieren, in welchen Bereichen sind hohe Erwartungen unrealistisch? Was sind mögliche Anwendungsfälle?


Prof. Dr. Marcus Liwicki

„In kontrollierten Umgebungen mit recht einfacher Physik oder wenigen Regeln funktioniert die Generalisierung sehr gut – man beachte jedoch, dass immer noch Millionen von Beispielen gebraucht wurden. Wenn man jedoch einen ‚domain shift‘ hat, also die Systemumgebung und Aufgaben komplett ändert, dann wird die Generalisierung in absehbarer Zeit noch nicht funktionieren.“

„Anwendungsfälle des DeepMind-Papieres sind recht eingeschränkt. Eigentlich kommen da vor allem kontrollierten Umgebungen infrage, in denen die KI nur wenige Aktionsmöglichkeiten hat und auch ein recht einfaches Regelsystem – hier zum Beispiel einfache logische Verknüpfungen von 212 Grundzielen (Tabelle 2).“

„Die Autoren schreiben auch: ‚We define a universe of tasks within an environment domain and demonstrate the ability to train agents that are generally capable across this vast space and beyond.‘ Die Agenten sind zwar ‚capable across the space‘ – jedoch gibt das Papier keine Indizien für ‚beyond‘, vor allem, wenn man unter ‚beyond‘ versteht, dass sie wirklich etwas leisten, was außerhalb der 212 Grundregeln liegt – oder Objekte anderer Farben, Größen und so weiter behandeln kann.“

Prof. Dr. Ute Schmid

„Transferlernen kann gut funktionieren, wenn es um Wahrnehmungsaufgaben geht. So zeigt sich bei tiefen Netzen zur Klassifikation von Bildern, dass mit einer Art von Daten vortrainierte Netze den Lernaufwand für andere Datensätze deutlich reduzieren können. Dass ein KI-System die Vielfalt von Aufgaben eines menschlichen Intelligenztests lösen kann, ohne dass für jeden Problembereich ganz spezielle Algorithmen eingesetzt werden, ist dagegen eher unrealistisch.“

Prof. Dr. Kristian Kersting

„In klar abgesteckten, nicht zu komplexen Umgebungen wird ‚generalisiert anwendbare KI‘ und speziell der Ansatz von DeepMind gut funktionieren, und ich finde den Ansatz wirklich interessant und berechtigt. Aber offene Umgebungen wie unsere Welt erfordern doch einiges mehr: Allgemeinwissen, menschenähnliches Schlussfolgern und Kommunikation sowie das Erkennen und geschickte Umgehen mit unbekannten Situationen.“

4. Welche Fallstricke gibt es bei der Berichterstattung über dieses Thema? Wie können Journalistinnen und Journalisten Hype von echten Durchbrüchen unterscheiden?


Prof. Dr. Marcus Liwicki

„Dieses Papier ist ein sehr gutes Beispiel für den Versuch, einen Hype zu generieren. Wir haben es in unserer Forschungsgruppe diskutiert und es gibt grundlegend keine neuen Methoden. Der wesentliche Beitrag (und dieser ist wirklich gut) ist eine enorme Ingenieursleistung. Ein so breit skaliertes Experiment mit so vielen Spielen – und einer Kombination von so vielen Methoden – war vor einigen Jahren noch nicht möglich. Die Ideen waren schon da. Ähnliche, kleiner skalierte Experimente wurden schon seit Jahrzehnten durchgeführt. Die Masse an Daten ist jedoch enorm. Die Erkenntnisse sind hilfreich und man kann viel mehr ausprobieren.“

„In vielen Papieren, wo neue Hypes – ohne neue fundamentale wissenschaftliche Beiträge oder Durchbrüche – generiert werden, werden sehr gerne neue Begriffe eingeführt. In dem aktuellen Papier wird zum Beispiel das neue Open-Ended Learning Team vorgestellt – und es spricht von ‚Generally Capable Agents‘ – was man sehr leicht mit Artificial General Intelligence (AGI) verwechseln kann. Man kann also leicht erkennen: Wenn zu viele unbekannte Begriffe eingeführt werden und keine Referenzexperimente durchgeführt wurden, sollte man noch einmal ein kritisches Auge darauf werden. Auch gibt es recht schnell Diskussionen auf Reddit. Die sind zwar nicht immer super verlässlich – man kann mit diesen einen guten Überblick gewinnen, was andere denken.“

Prof. Dr. Ute Schmid

„Generell ist bei der Berichterstattung zu KI das Problem, dass Begriffe wie Wahrnehmen, Verstehen, Lernen unmittelbar mit den entsprechenden menschlichen Leistungen gleichgesetzt werden. So wird zum Beispiel bei ‚maschinellem Lernen‘ meist direkt angenommen, dass entsprechende Systeme fortlaufend lernen und Fehler selbständig erkennen und korrigieren. Dabei lernen die meisten Ansätze ‚überwacht‘, indem ein Modell einmalig aus einer großen Menge vorklassifizierter Daten aufgebaut wird. Danach wendet das Modell stur das Gelernte an, es kann relevante Änderungen in der Umwelt nicht erkennen und seine Entscheidungen nicht korrigieren. Spricht man von Transferlernen, suggeriert das ebenfalls die entsprechende menschliche Leistung: Wer etwa schon Doppelkopf spielen kann, tut sich leichter Skat zu lernen, als jemand, der bisher nur das Kartenspiel Mau-Mau kennt.“

5. Läuft die Forschung an generalisiert anwendbarer KI auf Artificial General Intelligence (AGI) zu? Inwiefern ist AGI ein Hype-Begriff und inwiefern ist es ein seriöses Ziel der KI-Forschung?


Prof. Dr. Marcus Liwicki

„AGI ist durchaus erreichbar, jedoch wird es noch lange dauern und es ist nicht unbedingt das beste Ziel, was man erreichen will (siehe auch die kürzlich veröffentlichten Regeln der Europäischen Kommission [4]).“
„Die meisten Forschungsarbeiten beschäftigen sich jedoch mit ‚weak AI‘, also KIs, die in bestimmten Umgebungen besser werden – und eventuell wirklich einmal über verschiedene Tasks hinweg sehr gut funktionieren und generalisieren können. Man wird eventuell irgendwann einmal eine AGI erreichen, aber es ist besser, diese kontrolliert zu entwickeln.“

Prof. Dr. Ute Schmid

„Unter der Bezeichnung ‚Artificial General Intelligence‘ gibt es seit 2008 eine jährliche Tagung [3]. Hier findet sich eine ungewöhnliche Mischung von seriösen Forschenden aus dem Bereich KI, deren Namen man auch in Publikationen renommierter Tagungen und Zeitschriften findet, zusammen mit wenig bekannten Personen mit teilweise wenig Hintergrund im Bereich KI, die über Möglichkeiten und Risiken von AGI spekulieren. Bei Begründung der KI-Forschung und deren Namensgebung als Artificial Intelligence durch John McCarthy 1956 war das Anliegen den Zielen der AGI-Forschenden ähnlicher als den – nach dem auf den Lighthill-Report folgenden ersten KI-Winter – neuen, meist sehr eng gesteckten Forschungsthemen. KI wurde begründet von dem Anliegen, möglichst alle Aspekte menschlicher Intelligenz so gut zu verstehen, dass sie formalisiert und auf Computern simuliert werden können. Die allgemeinen Ziele der AGI sollte man in der KI-Forschung durchaus verfolgen. Die Gefahr ist, dass kleinere Erfolge überinterpretiert werden.“

Prof. Dr. Kristian Kersting

„Der Begriff der ‚generalisiert anwendbaren KI‘ ist zwar neu, aber die Vision ist es nicht. Eine ‚starke KI‘ (strong AI), auch bekannt als ‚allgemeine künstliche Intelligenz‘, ist ein KI-System mit verallgemeinerten menschlichen kognitiven Fähigkeiten, sodass es, wenn es mit einer unbekannten Aufgabe konfrontiert wird, über genügend Intelligenz verfügt, um eine Lösung zu finden. Denn die Prämisse aller KI-Forschung ist: Jede Eigenschaft von Intelligenz, nicht nur die Lernfähigkeit, kann so genau beschrieben werden, dass ein Computer sie simulieren kann.“

Angaben zu möglichen Interessenkonflikten

Alle: Keine Angaben erhalten.

Literaturstellen, die von der Expertin und den Experten zitiert wurden

[1] Hernández-Orallo J et al. (2016): Computer models solving intelligence test problems: Progress and implications. Artificial Intelligence; 230: 74-107. DOI: 10.1016/j.artint.2015.09.011.

[2] Schmid U et al. (2011): Inductive rule learning on the knowledge level. Cognitive Systems Research; 12 (3-4): 237-248. DOI: 10.1016/j.cogsys.2010.12.002.

[3] Conference Series On Artificial General Intelligence. Website.

[4] Europäische Kommission (21.04.2021): Artificial Intelligence Act.

Literaturstellen, die vom SMC zitiert wurden

[I] Science Media Center (2020): Der Textgenerator GPT-3 von OpenAI – Hype oder Paradigmenwechsel? Press Briefing. Stand: 12.10.2020.

[II] DeepMind Open-Ended Learning Team (27.07.2021): Generally capable agents emerge from open-ended play. Blogeintrag.

[III] DeepMind Open-Ended Learning Team (2021): Open-Ended Learning Leads to Generally Capable Agents. arXiv.
Hinweis der Redaktion: Es handelt sich hierbei um eine Vorabpublikation, die noch keinem Peer-Review-Verfahren unterzogen und damit noch nicht von unabhängigen Experten und Expertinnen begutachtet wurde.

Weitere Recherchequellen

Prof. Dr. Ute Schmid gibt folgende weitere Recherchequellen an:

Besold T et al. (2016). Why generality is key to human-level artificial intelligence. Advances in Cognitive Systems; 4: 13-24.

Schmid U et al. (2015): Can machine intelligence be measured in the same way as human intelligence? KI-Künstliche Intelligenz; 29: 291-297. DOI: 10.1007/s13218-015-0361-4.