Zum Hauptinhalt springen
07.06.2023

Regulierung von KI – was ist geplant, was ist nötig, was ist machbar?

Seit ChatGPT und andere generative KI-Modelle gezeigt haben, welches Potenzial sie aufweisen, hat auch die Debatte um die Regulierung solcher KI an Dringlichkeit gewonnen. Neben den unzähligen Nutzungsmöglichkeiten dieser Modelle geht es in der gesellschaftlichen Debatte oft auch um Missbrauchspotenzial und Risiken. Fast wöchentlich tauchen neue offene Briefe und öffentlichkeitswirksame Warnungen vor Gefahren durch KI auf.

Die erste Reaktion ist dabei häufig der Ruf nach Regulierung. Mit dem AI Act wird in der EU zurzeit über das in den nächsten Jahren wohl wichtigste KI-Gesetz verhandelt. Wenn es schnell geht, könnte es noch Ende dieses Jahres beschlossen werden und dann nach einer zweijährigen Übergangsfrist gelten. Doch auch wenn das Grundgerüst des AI Acts mehr oder weniger bekannt ist, ist noch unklar, wie das fertige Gesetz am Ende aussehen wird. Gerade die Frage, ob generative KI grundsätzlich als Hochrisiko-Technologie gewertet und somit strenger oder je nach konkretem Anwendungsszenario reguliert wird, wird noch diskutiert.

Auch die CEOs großer Firmen wie Sundar Pichai von Google und Sam Altman von OpenAI nutzen momentan fast jede Gelegenheit, um für die Regulierung von KI zu plädieren. Der EU-Kommissar Thierry Breton hat im Dialog mit Sundar Pichai eine freiwillige Selbstregulierung der Unternehmen ins Gespräch gebracht – bis der AI Act in Kraft tritt. Diese Idee scheint gerade beliebter zu werden, mittlerweile ist auch ein von der EU und den USA entworfener Verhaltenskodex im Gespräch. An konkreten Vorschlägen haben gerade die großen Firmen trotzdem oft etwas auszusetzen. Diskussion um Regulierung, ja bitte – Regulierung selbst allerdings nur in der gewünschten Form. Das scheint momentan die Einstellung der großen KI-Anbieter zu sein.

In einem 50-minütigen Press Briefing widmeten wir uns Fragen zur Regulierung von KI. Wo steht der AI Act gerade, was sind die wichtigsten Aspekte? Welche anderen Regulierungsansätze gibt es? Wie wirkungsvoll kann Selbstregulierung sein? Welche Arten von Regulierung halten Forschende aus dem KI-Bereich für wichtig, welche für zu restriktiv? Und inwiefern sollten auch Unternehmen verantwortlich sein, wenn mithilfe von ihrer KI Straftaten verübt werden?

Expertinnen und Experten im virtuellen Press Briefing

     

  • Prof. Dr. Matthias Kettemann
    Professor für Innovationsrecht, Universität Innsbruck, Österreich, und Programmleiter Forschungsprogramm „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), Hamburg
  •  

  • Prof. Dr. Ulrike Luxburg
    Professorin für die Theorie des maschinellen Lernens, Eberhard Karls Universität Tübingen
  •  

  • Prof. Dr. Sandra Wachter
    Professorin für Technologie und Regulierung, Oxford Internet Institute, University of Oxford, Vereinigtes Königreich
  •  

Abschluss-Statements aus dem Press Briefing

Das SMC hat die Expertinnen und den Experten am Ende des Press Briefings um ein kurzes Statement gebeten, was sie sich vom AI Act wünschen: Die Aussagen möchten wir Ihnen nachfolgend zur Verfügung stellen.

Prof. Dr. Matthias Kettemann

Professor für Innovationsrecht, Universität Innsbruck, Österreich, und Programmleiter Forschungsprogramm „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), Hamburg

„Ich würde mir wünschen, dass die Diskussionen bald abgeschlossen werden. Natürlich kann man immer noch warten, aber es ist jetzt ein guter Zeitpunkt, zu regulieren. Es gibt auf der Ebene der UNO und der transatlantischen Zusammenarbeit ein klares Bekenntnis zur Regulierung von KI-Anwendungen. Europa hat die vergangenen Jahre gut vorgearbeitet, jetzt muss der KI-Rechtsakt kommen. Ich bin sehr positiv gestimmt, dass wir unter Berücksichtigung aller Vor- und Nachteile hier eine schöne Balance bekommen.“

Prof. Dr. Ulrike Luxburg

Professorin für die Theorie des maschinellen Lernens, Eberhard Karls Universität Tübingen

„Vieles an dem AI Act ist schon sehr gut gelungen. Es ist wichtig, die Frage in den Prozess mit einzubeziehen: Was sind die technischen Beschränkungen von dem, was man sich eigentlich durch den AI Act erhofft? Welche Formen von zum Beispiel Transparenz sind prinzipiell herstellbar und wie geht man damit um, wenn sie nicht herstellbar sind? Meine großen Wünsche richten sich eigentlich an das Spektrum jenseits des AI Acts, also eher an die Politik. Wie wollen wir mit dem AI Act umgehen, wenn er denn da ist? Wie sollen Kontrollen stattfinden? Brauchen wir vielleicht eine Behörde, ein Bundesamt für digitales Wesen oder für KI, das die Kompetenz hat, diese ganzen Techniken überhaupt zu beurteilen? Im Moment gibt es so etwas schlichtweg nicht.“

„Und es gibt ganz viele Fragen, glaube ich, die jetzt durch Sprachmodelle und viele andere Techniken aufgeworfen werden, die in dem AI Act gar nicht behandelt werden. So etwas wie: Wollen wir, dass große Firmen die Kontrolle über solche Systeme haben? Brauchen wir staatliche Systeme? Wie sollen wir sicherstellen, dass die Öffentlichkeit Zugang zu Sprachmodellen hat, wenn auf einmal eine große Firma den Zugang beschränken will? Das sind wichtige Fragen, die jenseits dessen sind, was im Moment im AI Act behandelt wird, aber die ganz dringend diskutiert werden müssen.“

Prof. Dr. Sandra Wachter

Professorin für Technologie und Regulierung, Oxford Internet Institute, University of Oxford, Vereinigtes Königreich

„Auf der Wunschliste ganz oben steht für mich, dass der Individualrechtsschutz, der jetzt vorgesehen wird, auch erhalten bleibt. Ganz wichtig ist, ein Gegengewicht für den Bürger einzubringen, dass der sein Recht auch selbst durchsetzen kann und nicht nur darauf hoffen muss, dass Selbstzertifizierung durchgeführt wird. Es ist sehr wichtig, dass dieser Aspekt im Vorschlag drinbleibt, aber meine große Sorge ist, dass es vielleicht am Ende als Kompromiss noch herausgenommen wird.“

„Das zweite hat damit zu tun, dass man die Haftungsketten schließt und sich die Supply Chain als Ganzes anschaut. Beim zuvor genannten Beispiel des Tonverkäufers, des Vasenherstellers und desjenigen, der das Ding jemandem an den Kopf schmeißt: Alle drei müssen in die Haftung genommen werden. Der AI Act schaut sich mehr den Tonverkäufer an und die anderen beiden werden im Moment noch relativ außen vor gelassen. Das kann man auch noch anpassen, das wäre toll.“

„Und das Dritte hat damit zu tun, dass ich mir wünschen, dass es ein flexibleres System geben würde, die Hochrisikogruppen regelmäßig zu reviewen würde – das könnte man auch noch einfach einbauen. Es ist jetzt zum ersten Mal auch die Frage nach dem Impact von Social Media Impact auf demokratische Prozesse aufgenommen worden, was ganz fantastisch ist. Es wäre wichtig, um wieder mithalten zu können mit der Technik und dem Fortschritt, dass es ein einfaches, agiles System gibt, neuartige Technologien als Hochrisikobereiche zu klassifizieren. Oder auch das Umgekehrte: Wenn man beispielsweise im Bereich KI und Bildung alle Probleme gelöst hat, diesen Bereich wieder aus der Regulierung rauszunehmen. Ein besseres, agiles System, damit wir mit der Technik Schritt halten können, wäre sehr wichtig.“

Video-Mitschnitt & Transkript

Auf unserem YouTube-Kanal können Sie das Video auch in Sprecheransicht oder Galerieansicht sehen.

Das Transkript kann hier als pdf heruntergeladen werden.

Angaben zu möglichen Interessenkonflikten

Prof. Dr. Matthias Kettemann: „Keine.“

Prof. Dr. Ulrike Luxburg: „Ich habe keine Interessenkonflikte.“

Prof. Dr. Sandra Wachter: „Es gibt bei mir zu diesem Thema keine Interessenkonflikte.“

Weitere Recherchequellen

Science Media Center (2023): Risiken aktueller KI-Forschung. Rapid Reaction. Stand: 03.04.2023.

Science Media Center (2023): Sprachmodelle, Robotik, Mensch-Maschine-Interaktion: What's next? Press Briefing. Stand: 23.03.2023.

Science Media Center (2023): ChatGPT und andere Sprachmodelle – zwischen Hype und Kontroverse. Press Briefing. Stand: 26.01.2023.