Zum Hauptinhalt springen
26.02.2018

Künstliche Intelligenz - Wie können wir uns vor Missbrauch schützen?

Während im Zusammenhang mit Künstlicher Intelligenz (KI) oft von der Vision einer übermächtigen und unkontrollierbaren Superintelligenz die Rede ist, warnen Forscher jüngst vor Gefahren, die bereits heute beziehungsweise in den kommenden Jahren Realität werden könnten: Hocheffiziente Cyber-Attacken und Angriffe mit autonomen Systemen, wie zum Beispiel Drohnen. In einem aktuellen Bericht (siehe Primärquelle) beschreiben Autoren aus Forschung, Industrie und zivilgesellschaftlichen Organisationen diese und weitere mögliche Szenarien, wie Künstliche Intelligenz schon heute für zerstörerische Zwecke missbraucht werden kann. Gleichzeitig fordern sie, diesen Entwicklungen entgegenzuwirken. Dazu gehöre unter anderem mehr politisches Engagement in diesem Bereich aber auch ein kritisches Hinterfragen der Veröffentlichungsmechanismen wissenschaftlicher Ergebnisse. KI-Forscher müssten sich der besonderen Verantwortung ihrer Position bewusst sein.

 

Übersicht

  • Prof. Dr. Silja Vöneky, Professorin für Öffentliches Recht, Völkerrecht, Rechtsvergleichung und Rechtsethik und (Mit-)Direktorin des Instituts für Öffentliches Recht und Völkerrecht, Universität Freiburg
  • Prof. Dr. Sebastian Stiller, Institut für Mathematische Optimierung, Technische Universität Carolo-Wilhelmina zu Braunschweig

Statements

Prof. Dr. Silja Vöneky

Professorin für Öffentliches Recht, Völkerrecht, Rechtsvergleichung und Rechtsethik und (Mit-)Direktorin des Instituts für Öffentliches Recht und Völkerrecht, Universität Freiburg

„Zunächst ist festzuhalten, dass der Bericht eine wertvolle, vielfältige Zusammenstellung der KI-Sicherheits(Security)-Probleme enthält. Er ist auf der Grundlage eines Workshops 2017 unter Federführung hochrangiger Institute der Universitäten Oxford und Cambridge (Future of Humanity Institute, Centre for the Study of Existential Risk) geschrieben worden, unter Beteiligung zentraler Unternehmen – DeepMind, Microsoft, Google – und wichtiger US-Forscherinnen und Forscher – unter anderem aus Yale und Berkeley.“

„Untersucht werden Szenarien, die nicht Unfälle mit oder unbeabsichtigte Folgen von KI beschreiben, sondern deren absichtlich böswillige Verwendung – es geht also um Sicherheitsfragen als Security-Fragen, nicht Safety-Fragen. Vor uns liegt damit eine zentrale umfassende, wissenschaftliche Analyse dieser Sicherheitsfragen.“

„Gut zeigt der Bericht die Dual-Use-Gefahren der KI-Technologien auf, die besonders für Missbrauch anfällig sind, da diese Technologien unter anderem effizient und skalierbar sind, übermenschliche Fähigkeiten schon heute in bestimmten Bereichen besitzen können, sich schnell verbreiten lässt und ungelöste Schwachpunkte aufweisen.“

„Die aufgezeigten Bedrohungen sind vollkommen realistisch: Diese umfassen das unter anderem automatisierte Hacken von Informationen, aber auch die Nutzung von Drohnen für Anschläge oder automatisierte Desinformationskampagnen.“

„Die Empfehlungen sind grundsätzlich sinnvoll und wichtig und umsetzbar; das gilt beispielsweise für:

Empfehlung #1: enge Kooperation zwischen politischen Entscheidungsträgern und Wissenschaftlern in Bezug auf Dual-Use-Fragen, damit wisschaftlicher Sachverstand die politischen Entscheidungen prägt.Empfehlung #2: dass Forschende und Entwickler die Dual-Use-Natur ihrer Arbeit ernst nehmen müssen und bei vorhersehbaren schädlichen Anwendungsfeldern proaktiv relevante Akteure einbeziehen sollten.Empfehlung #3: dass ‚best practices‘ in KI-Forschungsgebieten identifiziert werden sollen.“„Manche Vorschläge werden von den Autorinnen und Autoren selbst noch nicht empfohlen, sondern erst zur Diskussion gestellt, wie beispielsweise eine Risikoanalyse vor der Publikation, wenn es sich um technische Bereiche mit besonderer Besorgnis handelt [S. 55].“

„Ich halte eine Risiko-Nutzen-Analyse und Abwägung, die zunächst vom Forschenden vorgenommen werden sollte, für unbedingt erforderlich auch – und gerade – in diesem Bereich der Forschung.“

„In Deutschland ist dies grundsätzlich für alle Forschungsbereiche bereits durch Kodizes der Max-Planck-Gesellschaft (von 2010) und der Deutschen Forschungsgemeinschaft und der Leopoldina (von 2014) für die Max-Planck-Institute und viele Universitäten als eine Selbstverpflichtung und damit jedenfalls als eine Art ‚soft law‘ normiert. Wichtig ist nur, dass dies auch umgesetzt wird und den Forschenden bekannt ist; zentral ist zudem und im Bereich KI besonders wichtig, dass auch die Forschenden in Unternehmen daran gebunden werden.“

„Entscheidend ist, aber das ist hier gegeben, dass natürlich die Anforderungen an die Forschenden dabei verhältnismäßig bleiben müssen, da gerade in Deutschland die Forschungsfreiheit durch das Grundgesetz vorbehaltlos geschützt wird und damit auch weitergehend geschützt ist als nach den internationalen Menschenrechtsverträgen, die beispielsweise die USA, UK, China und Indien binden.“

„Wichtig und richtig ist zudem, dass der Bericht die Notwendigkeit ethischer Standards betont [S. 56]. Auch in Deutschland sollte und müsste dies noch mehr in die KI-Entwicklungs-Diskussion eingebracht werden, da nur ethisch ‚abgesicherte‘ KI-Entwicklung vertretbar und dann letztlich auch ohne Probleme, legitimiert einsetzbar ist. Hier sollte – dies betont der Bericht nicht hinreichend – darauf geachtet werden, dass es auch um rechtsethische Standards geht, also ethische Standards, die insbesondere mit den Grund- und Menschenrechten konform sind.“

„Gerade weil dies so wichtig ist, wundere ich mich sehr, dass die wichtige und spannende Cyber Valley Initiative mit zentralen Akteuren im Bereich KI aus Wissenschaft und Wirtschaft in Baden-Württemberg nur technisch ausgerichtet ist und ohne ethische und rechtsethische Forschung auskommen will, obwohl wir gerade darin in Deutschland und auch Baden-Württemberg besonders gut und führend sind.“

„Ethikkommissionen werden schon in vielen Forschungsbereichen seit vielen Jahren eingesetzt und wir haben hinreichend Erfahrung, um sagen zu können, dass diese den Forschenden wertvolle Leitlinien in schwierigen Abwägungsfragen aufzeigen können, ohne die Forschungsfreiheit zu sehr zu beschränken. Ich halte diese daher für eine sinnvolle und letztlich notwendige Ergänzung der Normen der Selbstregulierung; wichtig ist, dass das vorbeugende oder präventive Verfahren sind, die nicht erst eingreifen, wenn das Kind in den Brunnen gefallen ist – das heißt, wenn die Forschung schon durchgeführt wurde und angewendet werden soll. Diese Kommissionen können ganz unterschiedlich und auch niederschwellig – also mit wenig Belastung für die Forschenden – ausgestaltet sein: Möglich ist beispielsweise, dass Forschende selbst Projekte vorlegen können, die ihnen (zu) risikoreich vorkommen und die Ethikkommission dann eine Empfehlung bezüglich des Projektes abgibt. Bekommt er von der Kommission ein OK sichert dies den Forschenden ab, der dann sicher weiß, dass seine KI-Forschung nicht unethisch ist; hat die Kommission Bedenken, wird die Gesellschaft – und damit wir alle – vor unethischer Forschung geschützt und Forschungsgelder und Forschungszeit werden nicht sinnlos verbraucht.“

„Kritisch sehe ich dagegen Einschränkungen der Veröffentlichungsmöglichkeiten, da Transparenz grundsätzlich wichtig ist, um die Chancen und Risiken einer neuen Technologie zu diskutieren. Vermeiden sollten wir auch jede Art der Vor-Zensur von Veröffentlichungen; manche meiner rechtswissenschaftlichen Kollegen halten jede Vor-Zensur auch von wissenschaftlichen Veröffentlichungen in Deutschland zudem schon für unvereinbar mit dem Verbot der Vor-Zensur, wie es im Grundgesetz für die Pressefreiheit verankert worden ist.“

Anmerkung der Redaktion: Prof. Dr. Silja Vöneky ist Mitglied im Fachbeirat des Science Media Center Germany.

Prof. Dr. Sebastian Stiller

Institut für Mathematische Optimierung, Technische Universität Carolo-Wilhelmina zu Braunschweig

„Der erste Schritt, um Risiken und Chancen von Technologien zu beurteilen, ist sie beim Namen zu nennen. ‚Künstliche Intelligenz‘ ist ein schlechter Name, weil er Technologien mit ganz unterschiedlichen Risiken subsummiert und abwegige Assoziationen zum Guten wie zum Schlechten weckt.“

Mögliche Interessenkonflikte

Prof. Dr. Silja Vöneky: „Ich selbst bin unter anderem ehrenamtliches Mitglied des MPG Ethikrates und der Kommission Wissenschaftsethik der Leopoldina, bin aber nicht befangen.“

Alle anderen: Keine angegeben.

Primärquelle

Brundage M et al. (2018): The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation.