Regulierung von KI – was ist geplant, was ist nötig, was ist machbar?
Seit ChatGPT und andere generative KI-Modelle gezeigt haben, welches Potenzial sie aufweisen, hat auch die Debatte um die Regulierung solcher KI an Dringlichkeit gewonnen. Neben den unzähligen Nutzungsmöglichkeiten dieser Modelle geht es in der gesellschaftlichen Debatte oft auch um Missbrauchspotenzial und Risiken. Fast wöchentlich tauchen neue offene Briefe und öffentlichkeitswirksame Warnungen vor Gefahren durch KI auf.
Auf unserem Youtube-Kanal können Sie das Video in der Sprecheransicht oder Galerieansicht anschauen.
Das Transkript können Sie hier als pdf herunterladen.
Das SMC hat die Expertinnen und den Experten am Ende des Press Briefings um ein kurzes Statement gebeten, was sie sich vom AI Act wünschen: Die Aussagen möchten wir Ihnen nachfolgend zur Verfügung stellen.
Professor für Innovationsrecht, Universität Innsbruck, Österreich, und Programmleiter Forschungsprogramm „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), Hamburg, Österreich
„Ich würde mir wünschen, dass die Diskussionen bald abgeschlossen werden. Natürlich kann man immer noch warten, aber es ist jetzt ein guter Zeitpunkt, zu regulieren. Es gibt auf der Ebene der UNO und der transatlantischen Zusammenarbeit ein klares Bekenntnis zur Regulierung von KI-Anwendungen. Europa hat die vergangenen Jahre gut vorgearbeitet, jetzt muss der KI-Rechtsakt kommen. Ich bin sehr positiv gestimmt, dass wir unter Berücksichtigung aller Vor- und Nachteile hier eine schöne Balance bekommen.“
Professorin für die Theorie des maschinellen Lernens, Eberhard Karls Universität Tübingen
„Vieles an dem AI Act ist schon sehr gut gelungen. Es ist wichtig, die Frage in den Prozess mit einzubeziehen: Was sind die technischen Beschränkungen von dem, was man sich eigentlich durch den AI Act erhofft? Welche Formen von zum Beispiel Transparenz sind prinzipiell herstellbar und wie geht man damit um, wenn sie nicht herstellbar sind? Meine großen Wünsche richten sich eigentlich an das Spektrum jenseits des AI Acts, also eher an die Politik. Wie wollen wir mit dem AI Act umgehen, wenn er denn da ist? Wie sollen Kontrollen stattfinden? Brauchen wir vielleicht eine Behörde, ein Bundesamt für digitales Wesen oder für KI, das die Kompetenz hat, diese ganzen Techniken überhaupt zu beurteilen? Im Moment gibt es so etwas schlichtweg nicht.“
„Und es gibt ganz viele Fragen, glaube ich, die jetzt durch Sprachmodelle und viele andere Techniken aufgeworfen werden, die in dem AI Act gar nicht behandelt werden. So etwas wie: Wollen wir, dass große Firmen die Kontrolle über solche Systeme haben? Brauchen wir staatliche Systeme? Wie sollen wir sicherstellen, dass die Öffentlichkeit Zugang zu Sprachmodellen hat, wenn auf einmal eine große Firma den Zugang beschränken will? Das sind wichtige Fragen, die jenseits dessen sind, was im Moment im AI Act behandelt wird, aber die ganz dringend diskutiert werden müssen.“
Professorin für Technologie und Regulierung, Oxford Internet Institute, University of Oxford, Vereinigtes Königreich
„Auf der Wunschliste ganz oben steht für mich, dass der Individualrechtsschutz, der jetzt vorgesehen wird, auch erhalten bleibt. Ganz wichtig ist, ein Gegengewicht für den Bürger einzubringen, dass der sein Recht auch selbst durchsetzen kann und nicht nur darauf hoffen muss, dass Selbstzertifizierung durchgeführt wird. Es ist sehr wichtig, dass dieser Aspekt im Vorschlag drinbleibt, aber meine große Sorge ist, dass es vielleicht am Ende als Kompromiss noch herausgenommen wird.“
„Das zweite hat damit zu tun, dass man die Haftungsketten schließt und sich die Supply Chain als Ganzes anschaut. Beim zuvor genannten Beispiel des Tonverkäufers, des Vasenherstellers und desjenigen, der das Ding jemandem an den Kopf schmeißt: Alle drei müssen in die Haftung genommen werden. Der AI Act schaut sich mehr den Tonverkäufer an und die anderen beiden werden im Moment noch relativ außen vor gelassen. Das kann man auch noch anpassen, das wäre toll.“
„Und das Dritte hat damit zu tun, dass ich mir wünschen, dass es ein flexibleres System geben würde, die Hochrisikogruppen regelmäßig zu reviewen würde – das könnte man auch noch einfach einbauen. Es ist jetzt zum ersten Mal auch die Frage nach dem Impact von Social Media Impact auf demokratische Prozesse aufgenommen worden, was ganz fantastisch ist. Es wäre wichtig, um wieder mithalten zu können mit der Technik und dem Fortschritt, dass es ein einfaches, agiles System gibt, neuartige Technologien als Hochrisikobereiche zu klassifizieren. Oder auch das Umgekehrte: Wenn man beispielsweise im Bereich KI und Bildung alle Probleme gelöst hat, diesen Bereich wieder aus der Regulierung rauszunehmen. Ein besseres, agiles System, damit wir mit der Technik Schritt halten können, wäre sehr wichtig.“
„Keine.“
„Ich habe keine Interessenkonflikte.“
„Es gibt bei mir zu diesem Thema keine Interessenkonflikte.“
Weiterführende Recherchequellen
Science Media Center (2023): Risiken aktueller KI-Forschung. Rapid Reaction. Stand: 03.04.2023.
Science Media Center (2023): Sprachmodelle, Robotik, Mensch-Maschine-Interaktion: What's next? Press Briefing. Stand: 23.03.2023.
Science Media Center (2023): ChatGPT und andere Sprachmodelle – zwischen Hype und Kontroverse. Press Briefing. Stand: 26.01.2023.
Prof. Dr. Matthias Kettemann
Professor für Innovationsrecht, Universität Innsbruck, Österreich, und Programmleiter Forschungsprogramm „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), Hamburg, Österreich
Prof. Dr. Ulrike Luxburg
Professorin für die Theorie des maschinellen Lernens, Eberhard Karls Universität Tübingen
Prof. Dr. Sandra Wachter
Professorin für Technologie und Regulierung, Oxford Internet Institute, University of Oxford, Vereinigtes Königreich