Zum Hauptinhalt springen
25.01.2024

Endspurt beim AI Act

Die EU hat sich auf den finalen Text des AI Acts geeinigt. Am Montag wurde dieser Text an die Mitgliedsstaaten verschickt. Dabei wurde der Text auch geleakt.

Der AI Act soll das weltweit erste große Gesetz zur Regulierung von künstlicher Intelligenz werden. Im April 2021 hatte die EU-Kommission erstmals einen Vorschlag veröffentlicht. Seitdem wurde über die künftigen Regeln in der EU verhandelt. Grundsätzlich soll der AI Act einen risikobasierten Regulierungsansatz verfolgen. Bestimmte Hochrisiko-Anwendungen von KI sollen demnach ganz verboten werden; je unbedenklicher ein KI-System wird, desto weniger streng soll es künftig reguliert werden.

Nachdem sich die verhandelnden Parteien Anfang Dezember eigentlich auf eine gemeinsame Position geeinigt hatten, gab es in den Nachverhandlungen doch noch einige Änderungen. Gerade beim Einsatz von KI zur Gesichtserkennung wurden die erst verkündeten Beschränkungen zum Teil noch aufgeweicht. Ursprünglich sollte Gesichtserkennung nur bei schweren Straftaten zum Einsatz kommen dürfen.

Um einen Eindruck zu bekommen, was der AI Act jetzt beinhaltet, wie Fachleute das Gesetz einschätzen und was sich auf den letzten Metern noch geändert hat, bieten wir zu dem Gesetz ein weiteres Press Briefing an, nachdem wir am 07. Dezember schon über den damaligen Stand des Gesetzes gesprochen haben [I].

Der finale Text des AI Acts muss noch formal bestätigt werden. Ersten Berichten zufolge soll das Anfang Februar geschehen, doch es soll noch einige Länder geben – insbesondere Frankreich –, die das verhindern oder zumindest noch letzte Änderungen in den Text einbringen möchten. Ob dieser „finale Text“ des AI Acts also final bleibt, wird sich noch zeigen.

Experten im virtuellen Press Briefing

     

  • Prof. Dr. Philipp Hacker, Professor für Recht und Ethik der digitalen Gesellschaft, Europa-Universität Viadrina Frankfurt (Oder)
  •  

  • Prof. Dr. Björn Ommer, Leiter der Computer Vision & Learning Group, Ludwig-Maximilians-Universität München (LMU)
  •  

Abschluss-Statements aus dem Press Briefing

Das SMC hat die Experten am Ende des Press Briefings gefragt, welche Aspekte sie im AI Act und in der aktuellen Diskussion für die wichtigsten halten:

Prof. Dr. Philipp Hacker

Professor für Recht und Ethik der digitalen Gesellschaft, Europa-Universität Viadrina Frankfurt (Oder)

„Für mich wäre das Wichtigste, dass wir versuchen, uns auf die wenigen Aspekte zu konzentrieren, bei denen KI wirklich kritisch und schädlich sein kann. Das sind wenige Einsatzbereiche, wie Bioterrorismus, Chemieterrorismus und auch Cybersecurity. Gerade Cybersecurity ist ein sehr relevanter Bereich, der völlig unterbelichtet ist. Und wir wissen aus dem Internet-of-Things-Bereich, dass es in dem Bereich häufig Schwachstellen gibt, die dann ausgenutzt werden können von bösartigen staatlichen wie auch nichtstaatlichen Akteuren. Diesen Cybersecurity-Aspekt müsste man noch schärfen. Gerade bei den Foundation Models kann beispielsweise eine Backdoor sehr problematisch sein. Die kann sich durch das ganze Ökosystem nach unten verteilen.“

„Darüber hinaus wäre es mir lieb, wenn man viel mehr auf die Endregulierung schaut, die wir schon haben – Nichtdiskriminierungsrecht, Haftungsrecht und so weiter – und etwas zurückhaltender dabei ist, Entwicklern von KI wirklich jeden einzelnen Schritt vorzugeben. Man kann ein bisschen mehr darauf vertrauen, dass in dem Bereich auch gute Industriepraktiken bestehen, die am Ende des Tages aus marktwirtschaftlichen Gesichtspunkten ohnehin viele Anbieter einhalten müssen.“

„Das Ganze sollte man paaren mit einer massiven Investmentoffensive. Wir brauchen Milliarden, die wirklich in den KI-Bereich hineingehen, um mithalten zu können mit den USA, mit China, letztlich auch mit UK. Und selbst Norwegen hat gerade 1 Milliarde Kronen dafür locker gemacht. Da müssen wir mithalten, um unsere Zukunft sowohl in ökonomischer wie in sozialer Hinsicht sicherzustellen.“

Prof. Dr. Björn Ommer

Leiter der Computer Vision & Learning Group, Ludwig-Maximilians-Universität München (LMU)

„Ich begrüße es, dass wir uns auf europäischer Ebene um Transparenz bemühen. Dass wir dafür sorgen, dass diese Technologie, die für alles fundamental werden wird, was wir wirtschaftlich und forschungsgesellschaftlich hier bei uns machen, mit den Menschen und für die Menschen entwickelt werden kann. Ich wünsche mir, dass wir dabei mit maximaler Trennschärfe operieren, damit alle Akteure am Ende wissen, wo sie stehen. Das muss jetzt in den Ausführungsbestimmungen geklärt werden, weil vieles im Vertraglichen nicht erfüllt ist.“

„Und ich hätte Sorge, dass wir uns hier und da zu viele Graubereiche leisten. Vielleicht ist das [gewollt], um einfach überall Felder auch politisch besetzen zu können. Das sorgt dann leider wieder dafür, dass auf europäischer Ebene Technologie, die für die Zukunft enorm wichtig ist, mit sehr großen Hürden entwickelt werden muss. Diese Hürden können aber nicht zwangsläufig negative Effekte, die wir leider haben, verhindern, weil diese Technologie weltweit entwickelt wird. Und davor dürfen wir uns auch nicht verschließen. Es wäre mir sehr daran gelegen, dass alle Akteure genau wissen, woran sie sind, was erlaubt ist und was nicht. Dass wir mehr Klarheit haben und nicht zu große Graubereiche, sodass nachher das Ganze nicht wieder nur vor Gerichten entschieden werden kann.“

Videomitschnitt und Transkript

Ein Transkript kann hier als pdf heruntergeladen werden.

Angaben zu möglichen Interessenkonflikten

Prof. Dr. Philipp Hacker: „Ich berate das EU-Parlament und die Bundesregierung zu KI-Regulierung, kann mich aber unbefangen zu dem Thema äußern.“

Alle anderen: Keine Angaben erhalten.

Literaturstellen, die vom SMC zitiert wurden

[I] Science Media Center (2023): AI Act – aktueller Stand und Ausblick. Press Briefing. Stand: 07.12.2023.