Zum Hauptinhalt springen
17.05.2019

EU-Wahl: Gehen Facebook, Google und Twitter ausreichend gegen Desinformation vor?

Anlass

Die Europäische Kommission hat am 17.05. die neuesten Transparenzberichte zu den Maßnahmen von Facebook, Google und Twitter gegen Desinformation vor den Europawahlen veröffentlicht. Die Pressemitteilung der Europäischen Kommission ist hier zu finden, die Berichte sind hier verlinkt. Die Kommission erkennt die Fortschritte der Plattformen im Kampf gegen Desinformation an und lobt die zunehmende Bereitstellung wichtiger Daten. Allerdings kritisiert sie, dass die Daten nicht detailliert genug seien und die Plattformen vor allem in Bezug auf politische Werbung mehr tun müssen, um die Integrität ihrer Angebote zu gewährleisten.

Im Zuge des „Code of Practice on Disinformation“ haben sich Facebook, Google und Twitter dazu verpflichtet, vor den Europawahlen monatlich Transparenzberichte zu veröffentlichen, die den Fortschritt beim Kampf gegen Desinformation auf den drei Plattformen abbilden. Die vorherigen Reports wurden am 23. April veröffentlicht. Die Europäische Kommission zog in ihrer dazugehörigen Pressemitteilung und ihrem Bericht ein eher positives Fazit zu den Bemühungen der drei Unternehmen.

Zurzeit steht vor allem Twitter stark in der Kritik, vor der Wahl zu viel und offenbar oft ohne legitimen Grund Accounts zu sperren. Davon betroffen waren neben Politikern auch die Twitter-Accounts der „Jüdischen Allgemeinen“ und mehrerer Rechtsanwälte.

Gleichzeitig scheint es in der Bevölkerung vermehrt die Befürchtung zu geben, Fake News könnten die Europawahlen beeinflussen. In einer Umfrage der Unternehmensberatungs- und Wirtschaftsprüfungsgesellschaft PricewaterhouseCoopers schätzen 71% der 1.000 befragten Deutschen die Gefahr von Fake News vor der Europawahlen als sehr hoch oder eher hoch ein.

 

Übersicht

  • Prof. Dr. Tobias Keber, Professor für Medienrecht und Medienpolitik in der digitalen Gesellschaft, Hochschule der Medien Stuttgart
  • Dr. Matthias Kettemann, Forschungsprogrammleiter „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung │Hans-Bredow-Institut (HBI), Hamburg
  • Dr. Lena Frischlich, Kommunikations- und Medienpsychologin, Institut für Kommunikationswissenschaft, Westfälische Wilhelms-Universität Münster
  • Prof. Dr. Oliver Zöllner, Professor für Medienforschung und Digitale Ethik, Hochschule der Medien Stuttgart

Statements

Prof. Dr. Tobias Keber

Professor für Medienrecht und Medienpolitik in der digitalen Gesellschaft, Hochschule der Medien Stuttgart

„In der Sache geht es im operativen Kern des ‚Code of Practice against disinformation‘ nur um eine Dokumentations- beziehungsweise Berichtspflicht. Solche Reports haben die Unternehmen vorgelegt. Darin legen sie unter anderem dar, gegen ‚Dark Ads‘ vorgehen zu wollen. Das bedeutet aber keineswegs, dass wir hier von einem insgesamt wirksamen Mechanismus im Kampf gegen Fake News und Wahlmanipulation über meinungsbildungsrelevante Intermediäre sprechen können. Die Selbstverpflichtungserklärung ist vor allem in ihrem entscheidenden Teil III (‚Measuring + Monitoring‘) derart schwachbrüstig konturiert, dass sie letztlich wirkungslos bleiben muss. Hart messbare Kriterien, wie man diese evaluiert und was passiert, wenn dies nicht hinreichend erfolgt, sind dem Code of Practice nicht wirklich zu entnehmen. Es fehlt also jegliche Form ernsthaft dokumentierten Durchsetzungswillens. Das kann und muss man besser machen. Positivere Beispiele der Selbstregulierung gibt es durchaus, etwa den Pressekodex mit dem Deutschen Presserat, der gegenüber seinen Mitgliedern mehr oder weniger empfindliche Sanktionen (Missbilligung, Rüge) aussprechen kann.“

Zur Frage, ob die Plattformen Strafen von der EU befürchten müssen:
„Noch nicht. Die Europäische Kommission hat aber in ihrer Pressemitteilung heute ausgesprochen deutlich gemacht, dass sie sich die Vorgänge nach der Wahl noch einmal sehr genau ansehen wird. Sollte eine Auswertung ergeben, dass der Selbstregulierungsansatz mit dem Code of Practice nicht das beabsichtigte Ziel erreicht hat, hat die Kommission den Erlass verbindlicher Maßnahmen (Gesetzesinitiative) in Aussicht gestellt. Zukünftige legislative Maßnahmen wären meiner Ansicht nach auch zu begrüßen. Es ist doch hochproblematisch, dass die Definition zentraler Begriffe wie ‚Fake News‘ ‚Desinformation‘ oder ‚Misrepresenting Information‘ nicht in der Hand eines demokratisch legitimierten Organs (Parlament) liegen, sondern der Kommission als Exekutivorgan oder privaten Unternehmen überlassen bleibt. Wirksame, das heißt durchsetzbare Regeln für relevante soziale Netzwerke brauchen wir jedenfalls, denn hier geht es um den Prozess öffentlicher Meinungsbildung und damit einen elementaren Faktor unserer Demokratie.“

Zur Frage, inwiefern auch ‚Overblocking‘ zu Strafen für die Plattformen führen könnte:
„Klare Regeln auf europäischer Ebene wären hier wünschenswert. In Deutschland hatten wir jüngst eine Reihe von Gerichtsverfahren, in denen zentrale Frage war, wie weit Social-Media Anbieter die freie Meinungsäußerung durch ihre Allgemeinen Geschäftsbedingungen einschränken dürfen. Höchstrichterlich ist das noch nicht abschließend geklärt. Im Netz wird ‚Overblocking‘ gewöhnlich unter dem Begriff der Zensur geführt, was zumindest (formal-)juristisch nicht stimmt, da Twitter kein staatlicher Akteur ist. Bei Netzwerken mit (quasi-)monopolartiger Stellung muss man aber schon fragen, ob man hier nicht doch von Zensur sprechen kann, weil sie eine dem Staat vergleichbare (mächtige) Position haben. Nimmt man das an, können die Social-Media-Plattformen sich eben nicht unbeschränkt auf ihre Privatautonomie und die Vertragsfreiheit berufen. Damit sind dann auch konkrete Rechtsfolgen gegen die Portale bei unberechtigten Sperren möglich.“

Dr. Matthias Kettemann

Forschungsprogrammleiter „Regelungsstrukturen und Regelbildung in digitalen Kommunikationsräumen“, Leibniz-Institut für Medienforschung │Hans-Bredow-Institut (HBI), Hamburg

Zur Frage, ob die Unternehmen ihre Selbstverpflichtung erfüllt haben:
„Der US-Höchstrichter Louis Brandeis wird mit dem Satz zitiert: ‚Sonnenlicht desinfiziert und Licht ist der beste Polizist‘. Das stimmt auch hier. Schon der Verhaltenskodex zur Bekämpfung von Desinformation war ein bedeutender Schritt zu mehr Offenheit und Transparenz der Unternehmen. Vergleicht man diese EU-Wahlen mit den letzten US-Wahlen, dann kann man schnell sehen, wie wirksam Transparenzpflichten sind. Google, Facebook und Twitter haben Maßnahmen zur Überprüfung von Anzeigenplatzierung umgesetzt sowie Archive für politische Werbung aufgebaut. Die gesetzten Maßnahmen sind durchweg sehr positiv zu beurteilen. Generell sind die Zahlen gesperrter Accounts und gelöschter Werbungen nicht hoch. Das mag auch daran liegen, dass das Problem der Desinformationen mit EU-Wahlbezug geringer ist als erwartet. Europa ist den Wahlverfälschern wohl nicht wichtig genug. Auch Europas geteilte Öffentlichkeiten, die noch sehr stark national strukturiert sind, verbieten effektiv skalierbare Desinformationskampagnen. Fake News in 24 Sprachen zu produzieren, macht Arbeit.“

„Immer noch krankt der Verhaltenskodex daran, dass große Werbeunternehmen nicht mitmachen. Erste Zugriffsmöglichkeiten auf Daten zum Zwecke der Erforschung von Desinformation und des Einsatzes von Algorithmen sind nun möglich, aber die Kooperation zwischen Unternehmen und Forschung muss noch verbessert werden. Problematisch ist auch, dass etwa Twitter bei der Einführung einer neuen Meldefunktion gegen Wahlfehlinformation nicht bedacht hat, dass diese gezielt als Mittel gegen Andersdenkende eingesetzt werden kann. Satire und Humor sind nach dem Verhaltenskodex keine Desinformation, dennoch löschen Twitter-Moderatoren viele Tweets, die nicht wahlverfälschend sind.“

Zur Frage, ob die Plattformen Strafen von der EU befürchten müssen:
„Nein, die EU kann hier keinesfalls Strafen verhängen. Es handelt sich ja um einen Verhaltenskodex, der freiwilliger Natur ist. Zwar hat sich die Kommission auch Maßnahmen rechtlicher Natur vorbehalten, wenn die Umsetzung der Selbstverpflichtung nicht klappen würde, aber deren Erfolg ist sogar als gut zu beurteilen. Freiwillige Selbstverpflichtung gekoppelt mit großem sozialen Druck wirkt. Sanktionen sind zur Zeit nur via eines Ansehensverlusts – naming and shaming – möglich, aber angesichts gewachsener Sensibilität der Bevölkerung ist das auch ein wichtiger Faktor. Anders stellt sich die Situation nach dem NetzDG dar, das ja – mit einem Fokus auf Löschung rechtswidriger Inhalte – ein Sanktionsmodell aufstellt. Hier stellt sich aber das Problem, dass allgemeine Falschnachrichten ohne Bezug zu bestimmten Personen fast nie strafbar sind (eine Ausnahme ist die Holocaustleugnung). Nur Desinformationen, die Menschen beleidigen oder verleumden, könnten nach dem NetzDG – wenn sie von sozialen Netzwerken systematisch nicht gelöscht werden – zu Strafen führen.“

Zur Frage, inwiefern auch ‚Overblocking‘ zu Strafen für die Plattformen führen könnte:
„Nach dem Netzwerkdurchsetzungsgesetz kann das Bundesamt für Justiz Strafen verhängen, wenn soziale Netzwerke rechtswidrige Inhalte in großem Umfang nicht löschen. Strafen für zu großzügiges Löschen sind derzeit nicht vorgesehen. Es besteht im Gesetz auch kein Wiederherstellungsrecht für gelöschte Inhalte, die von der Meinungsäußerungsfreiheit gedeckt sind. Dieses strukturelle Ungleichgewicht zulasten der Meinungsäußerungsfreiheit ist hochproblematisch; dies zeigt auch #twittersperrt. Daher sollte bei der Novellierung des NetzDG ein Wiederherstellungsrecht für fälschlich gelöschte Inhalte eingeführt werden, das Overblocking mildert oder sogar sanktioniert.“

„Wenn der Inhalt eines Nutzers gelöscht wird, ist dieser aber nicht ganz ohne Schutz: In letzter Zeit haben einzelne Gerichte, auch Oberlandesgerichte, geurteilt, dass soziale Netzwerke verpflichtet sind, rechtmäßige Kommunikation nicht willkürlich zu beeinträchtigen, und rechtmäßige Inhalte nicht einfach so löschen dürfen: Sie müssen sich an die Grundrechte halten. So eine ‚Präsenzpflicht‘ für rechtmäßige Meinungen wird dann durch ein Gerichtsurteil in die Praxis umgesetzt. Es gab auch schon einen Fall, in dem Facebook mit einer einstweiligen Verfügung verpflichtet wurde, eine Nutzersperrung wieder rückgängig zu machen. Das Gericht verhängte Ordnungsmittel, als Facebook der Verfügung nicht Folge leistete. ‚Strafen‘ wegen Löschung kann es nach derzeitigem Stand des Rechts aber nicht geben.“

„Falschinformationen zu Wahlen müssen gelöscht werden; diese sind auch durch deutsches Gesetz verboten. Neu ist nur die Meldefunktion, was zu einer wahrnehmbaren Kampagne geführt hat. Zurzeit löscht Twitter sehr erratisch, also nicht stringent und nachvollziehbar, was auch zu der Anhörung im Digitalausschuss des Bundestags geführt hat. Twitter hat bekanntgegeben, dass die Löschungen nicht automatisch erfolgten, sondern von menschlichen Moderatoren. Das ist nicht besser. Von einem Unternehmen mit der Marktmacht und Öffentlichkeitsrelevanz wie Twitter ist zu fordern, dass derart erratische Löschpraktiken nicht vorkommen.“

Dr. Lena Frischlich

Kommunikations- und Medienpsychologin, Institut für Kommunikationswissenschaft, Westfälische Wilhelms-Universität Münster

„Die gestiegenen Bemühungen der großen Plattformbetreiber um Transparenz, insbesondere im Hinblick auf politische Werbeanzeigen, sind insgesamt positiv zu bewerten, auch wenn noch immer viele Fragen offen bleiben. So sind die Angaben konkreter Zahlen ist an sich lobenswert, allerdings ist es ohne detailliertere Angaben zu den jeweiligen Entscheidungsgrundlagen schwierig, die Zahlen zu interpretieren. Unklar bleibt etwa, wie viele Personen die einzelnen Anzeigen prüfen, wie groß die Übereinstimmung zwischen verschiedenen Prüfern ist (auch Fakt-Checker sind sich nicht immer einig [1]), wie viele Anzeigen insgesamt geprüft wurden und so weiter. Dadurch ist es schwer zu bestimmen, ob mehr Fake Accounts entfernt wurden, weil es mehr Accounts gab, oder weil mehr Anstrengungen unternommen wurden. Auch wird – zum Beispiel bei Twitter – nicht ganz klar, wer die Inhalte überprüft (Facebook macht ja zum Beispiel Angaben zu den Muttersprachler*innen in der Überprüfung). Auch fehlen Angaben zur Fehlerquote der Blockierung: Wie groß ist der Anteil, der im Anschluss wieder freigeschaltet wurde?“

„Die aktuellen Angaben ermöglichen noch keine detaillierten Einblicke in die Verbreitung verschmutzter Informationen auf verschiedenen Plattformen (etwa bei Youtube, WhatsApp, Instagram). Entsprechende Informationen könnten aber helfen, gezieltere Interventionen zur Förderung kritischer Medienkompetenz zu entwickeln.“

„Im Hinblick auf das Empowerment von Bürgerinnen und Bürgern ist insbesondere die Möglichkeit, mehr über die finanziellen Hintergründe und die Quelle von Werbeanzeigen zu erfahren ein wichtiger Schritt. Es wäre wünschenswert, wenn entsprechende Hintergrundinformationen auch für Nachrichten abrufbar wären: So zeigen Ergebnisse des Centers for Media Engagement in den USA, dass Mediennutzende journalistische Inhalte als vertrauenswürdiger wahrnehmen, wenn Hintergrundinformationen zur Recherche zur Verfügung stehen [2]. Allerdings werden technische Lösungen insgesamt alleine nicht reichen – Mediennutzende müssen auch motiviert sein, Inhalte zu hinterfragen. Hier sind gesamtgesellschaftliche Ansätze notwendig, die psychologische und soziale Aspekte ebenfalls berücksichtigen.“

„Die Unternehmen alleine werden das Problem verschmutzter Informationen nicht lösen. Insbesondere dann, wenn es um moralisches Verhalten geht, wenn Meinungen und Wahrnehmungen oder auch persönliche Geschichten im Fokus stehen, ist die Frage danach, was ‚falsch‘ ist, nicht ganz so einfach zu beantworten, wie etwa bei medizinischen Evidenzen. Eine rein technische Lösung ist entsprechend unwahrscheinlich und mit dem Risiko der Zensur behaftet. Die Anstrengungen der Unternehmen, Verantwortung für die digitale Infrastruktur zu übernehmen, sind daher nur ein (wenn auch wichtiger) Baustein einer digitalen europäischen Gesellschaft.“

„Aktuell ist anhand der Berichte unklar, warum ein Beitrag oder eine Anzeige als Verstoß gekennzeichnet wird. Das macht die unabhängige Überprüfung schwierig und erschwert die gemeinsame gesellschaftliche Diskussion über zivile Normen. Auch wenn die Veröffentlichung konkreter Kriterien immer das Risiko birgt, dass manipulative Akteure die Spielregeln ‚lernen‘, wäre es wünschenswert, wenn hier ein konstruktiver Austausch befördert würde.“

Prof. Dr. Oliver Zöllner

Professor für Medienforschung und Digitale Ethik, Hochschule der Medien Stuttgart

„Die Tech-Unternehmen versuchen, das Problem möglicher Manipulationen und gezielter Desinformation auf ihren Plattformen letztlich innerhalb der Logik ihres Geschäftsmodells zu lösen. Dieses Geschäftsmodell basiert auf dem Sammeln, der Verarbeitung und dem Verkauf von bestmöglich angereicherten Datensätzen – das heißt es ist ein wesentliches Element des Überwachungskapitalismus. Wie genau die Daten innerhalb der Plattformen verarbeitet werden, also mit welchen Algorithmen, bleibt eine ‚black box‘, also unbekannt und ein Geschäftsgeheimnis. Insofern sind die getroffenen Maßnahmen weitgehend intransparent, kaum einschätzbar oder öffentlich kontrollierbar – und dienen lediglich der Optimierung des eigenen Geschäftsmodells. Dass die Firmen nun zumindest etwas gegen die seit Jahren bekannten Probleme unternehmen, ist natürlich begrüßenswert, aber sie machen dies nicht freiwillig und primär sicher nicht zum Wohle der Gesellschaft.“

„Ich weiß, wie utopisch diese Forderung wohl ist, aber letztlich müssten die Tech-Unternehmen eingedenk ihres großen Einflusses ihre Algorithmen transparent, also öffentlich einsehbar machen. Das werden sie natürlich nicht tun, weil die Algorithmen ihr Tafelsilber beziehungsweise ihr Hauptproduktionsmittel sind. Aber wenn wir von Verantwortung der Tech-Unternehmen reden, ist das unser eigentliches Thema. Wenn ich eine Analogie aus der Medizin bilden darf: Eine Blutvergiftung heilt man auch nicht mit einem Hautpflaster.“

Angaben zu möglichen Interessenkonflikten

Prof. Dr. Tobias Keber: „Hinweis zu Interessenkonflikten: meines Erachtens keine.“

Dr. Lena Frischlich: „Meine Arbeitsgruppe hat im Rahmen von Facebooks Transparenz Initiative Crowdtangle Access, im Rahmen eines vorherigen Projektes durften wir mit akademischem Twitter Zugang arbeiten.“

Prof. Dr. Oliver Zöllner: „Es bestehen keine Interessenskonflikte.“

Alle anderen: Keine Angaben erhalten.

Literaturstellen, die von den Experten zitiert wurden

[1] Lim C (2018): Checking how fact-checkers check. Research and Politics. 

[2] Chen G et al. (2019): Building Trust: What Works for News Organizations. Center for Media Engagement, The University of Texas at Austin.