Desinformation vor der Europawahl
Wochen vor den Europawahlen beschäftigen sich verschiedene Gremien zunehmend mit der Wahl und der Gefahr durch mögliche Desinformation. Am Dienstag, 16. April 2019, gab etwa Bundeswahlleiter Georg Thiel eine Pressekonferenz zur Europawahl, am Donnerstag, 18. April, findet die letzte Plenarsitzung des Europaparlaments vor den Wahlen statt.
Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre, Queensland University of Technology, Australien
„Wird es zur Europawahl Desinformationskampagnen geben? Ja, mit Sicherheit! Der Verdacht fällt in letzter Zeit ganz besonders auf Russland und russische Akteure. Das ist auch gerechtfertigt, doch mit Sicherheit werden auch andere Akteure daran teilnehmen. Die Frage ist wie? Teilweise natürlich über Social Bots, teilweise auch über Werbekampagnen auf sozialen Medienplattformen, teilweise auch über menschlich gesteuerte Accounts, über andere Gruppen von Nutzern, die sich besonders für verschiedene Themen einsetzen.“
„Es geht aber nicht nur um Russland. Andere Akteure haben auch von den Methoden, die schon aufgedeckt worden sind, gelernt und werden direkt und indirekt unterstützt von verschiedenen Teilnehmern an solchen Agitationsversuchen. Die wichtigsten Zielstaaten für diese Art von Agitation und Propaganda werden mit Sicherheit die europäischen Leitstaaten sein wie Frankreich, Deutschland und andere große europäische Länder, aber auch einige der besonders kritischen Länder, die baltischen Republiken, auch Staaten wie Ungarn und die Tschechei. Hier wird es mit Sicherheit einiges an Versuchen geben. Es ist ein paneuropäisches Problem und nicht nur etwas, was sich jetzt in Deutschland oder anderen Staaten auswirken wird.“
„Die Auswirkungen von Desinformationskampagnen hängen ganz davon ab, welche Reichweite die Informationen haben. Die ist sehr schwer zu erfassen, weil man vielleicht zählen kann, wie oft diese Informationen verbreitet werden, doch wer sie am Ende sieht, ist die wichtigere Frage für die Wissenschaft. Wir wissen von einigen neuen Studien, dass der Großteil von Fake News meist nur von hochaktiven Randgruppen weitergeleitet wird, dass also die Weiterleitung selbst eher ein Nischenphänomen ist. Diese Randgruppen sind zwar von Interesse, aber die breite Masse leitet eher ganz gewöhnliche Nachrichten weiter und vielleicht auch die Korrekturen zu Fake News. Die Desinformationen, die von Randgruppen weitergeleitet werden, werden für den Mainstream der Gesellschaft sichtbar werden über die Vernetzungen in den Social Media. In dem Fall werden sie dann besonders effektiv, weil sie durch persönliche Verbindungen weitergeleitet werden und eben nicht nur durch unbekannten Medien. Das ist letztlich das Ziel dieser Propaganda, die gesellschaftliche Mitte von den Rändern her langfristig zu infiltrieren und Menschen für diese Art von Desinformation empfänglich zu machen.“
„Die Plattformen – und ganz besonders Facebook – machen sehr viel Pressewirksames, doch wenn irgendwelche Probleme aufkommen, ziehen sie nicht unbedingt auch wirklich alles bis zum Ende durch oder machen wirklich das, was für die Wissenschaft nützlich ist. Wir haben das gesehen etwa mit der Facebook Ad Library, die dafür gedacht ist zu sehen, welche Facebook-Werbung wie geschaltet wird, von welchen Facebookteilnehmern, auf welchen Pages und so weiter. Sie ist manuell durchsuchbar, aber für die Wissenschaft nicht sonderlich nützlich, weil man eben nicht in großem Stil erfassen kann, welche Werbung geschaltet wird. Und weil sie auch ganz besonders nicht anzeigen – das wäre ganz wichtig – welche speziellen Nutzergruppen damit angegriffen werden, also welche demografischen Faktoren etwa eingestellt werden bei der Schaltung dieser Werbung. Es wäre ganz wichtig, das noch sehr viel mehr auszuweiten. Facebook hat das zwar in großem Stil angekündigt, auch sehr viel Presse dafür bekommen, aber es hat für die Wissenschaft – bislang – noch praktisch keinen wirklichen Effekt. Das alles ist unnütz im Augenblick.
Es gibt immer wieder große Ankündigungen. Auch dass Millionen oder Milliarden von Bots gelöscht werden. Das heißt aber im Prinzip nichts, denn wir wissen trotzdem nicht, wie sie erkannt worden sind, über welche Ansätze, und vielleicht auch wie wahrscheinlich es ist, dass immer noch sehr viele von den eher weiterentwickelten Bots übersehen werden, weil sie nicht bot-artig aussehen.
Was also wirklich wichtig wäre, ist, dass Facebook und die anderen Plattformen sehr viel mehr Zugang für Forscher auf ihre Daten gewähren.“
„Eine wichtige Forderung ist schon mehrfach gestellt worden, dass es zum Beispiel unterschiedliche API, also Zugangsschnittstellen gibt auf die Daten für Forscher gegenüber kommerziellen Nutzern. Auch hier ist es wieder so, dass Facebook und andere Plattformen ihre eigenen Zugangswege aufgebaut haben. Facebook hat in letzter Zeit zusammengearbeitet mit einer Gruppe namens Social Science One, die in den USA aufgebaut worden ist. Da ist ganz unklar, wie die Forscher ausgewählt werden, die Daten bekommen. Das ist sehr intransparent, am Ende von Facebook kontrolliert. Für einen Forscher, der von vornherein kritisch eingestellt ist gegenüber der Plattform, ist es vermutlich unwahrscheinlich, Zugang zu bekommen. Das muss alles sehr viel transparenter und sehr viel unabhängiger von den Plattformen gemacht werden.“
Professor für Medienforschung und Digitale Ethik, Hochschule der Medien Stuttgart
„Falsch- und Desinformationen begleiten sehr viele Menschen quasi permanent durch ihren Alltag und sind von wahrheitsorientierter Information kaum noch unterscheidbar.
Die algorithmische Struktur der Distribution von Meldungen ist zudem in den Netzwerken weitgehend intransparent. Wir wissen nicht, wie der Algorithmus wirklich programmiert ist. Das ist das Geschäftsgeheimnis der Technologie-Unternehmen. Die Weiterleitung von Meldungen ist damit der gesellschaftlichen und politischen Kontrolle weitgehend entzogen.
Den Betreibern der Social-Media-Plattformen sind die Inhalte, die verbreitet werden, wenn man es auf den Punkt bringen will, relativ egal. Ihnen geht es in erster Linie darum, dass User möglichst viel interagieren und dadurch sehr viele Datenspuren produzieren. Diese Datenspuren sind letztlich das Grundkapital dieser Tech-Unternehmen. Je mehr, je reichhaltigerere Datensätze produziert werden, umso besser läuft das Geschäftsmodell dieser Firmen. Die Plattformbetreiber haben also überhaupt kein Interesse daran, daran etwas zu ändern. Ganz im Gegenteil: Am besten ist, es finden noch mehr Interaktionen, mehr Postings mehr Likes, Dislikes statt. Sie wehren sich natürlich gegen Regulierungsversuche. Hier sind die Firmen stärker in die Verantwortung zu nehmen.
Ich würde in einer größeren, gesellschaftlich-kulturellen Perspektive aber auch die Nutzer, also uns, kritisch betrachten.“
„Verantwortung für die eigenen Haltungen und Handlungen, für sein Wissen und seine Meinungen, der Wille, sich anzustrengen, sich mit seinen eigenen Haltungen auseinanderzusetzen, Dinge zu recherchieren, den Wahrheitsgehalt zu überprüfen, diese Verantwortung und dieser Wille geht vielen Menschen zunehmend verloren – vor allen Dingen die Bereitschaft, sich mit Dingen auseinanderzusetzen, die nicht dem eigenen Weltbild entsprechen. Vor dem Hintergrund der zunehmenden Spaltungen in vielen westlichen Gesellschaften sind weiterführende Debatten über zukünftige Werthaltungen in der Gesellschaft zu führen.“
„Es braucht eine gesellschaftliche Debatte über die Verantwortung von Firmen wie Facebook und Google und wie sie alle heißen. Sie haben inzwischen sehr große Verantwortung für den öffentlichen Diskurs und damit natürlich auch für Wahlen – zumindest indirekt. Es wäre zu viel gesagt, dass die Social Media Debatten Wahlausgänge maßgeblich und vollständig beeinflussen. Dennoch haben Facebook, und in einigen Ländern auch Twitter und sogar die Suchergebnisse auf Google oder das, was man bei YouTube sieht, das zum Google Konzern Alphabet gehört, einen wichtigen Einfluss auf das Denken, Meinen und möglicherweise auch Handeln von Menschen. Und darüber müssen wir uns als Gesellschaft stärker im Klaren sein. Diese Debatte ist noch nicht bei allen Menschen angekommen, und wir müssen diese Firmen stärker in die Pflicht nehmen.“
„Umsetzung und Durchsetzung sind ist das große Problem. Denn was könnte etwa die Europäische Union an Regulierungen vornehmen für einen Konzern, der sich letztlich darauf zurückzieht, dass er in den USA angesiedelt ist? Mit einem ganz anderen Rechtssystem. Und über EU-Tochterfirmen-Konstruktionen ist die Möglichkeit der EU, wirklich zu sanktionieren, doch sehr beschränkt.
Firmen wie Facebook agieren im PR-Sinne sehr geschickt. Mark Zuckerberg ist sehr geschickt darin, wenn Skandale auftreten, sehr zerknirscht vor die Weltpresse zu treten und zu sagen "I am sorry this happened." Aber es passiert dann danach sehr, sehr wenig.
Eine Mediengesellschaft hat die Aufgabe, den Dingen nachzugehen und zu fragen: Was passiert wirklich bei Facebook? Oder inwieweit sind Google Holding und andere wirklich an Aufklärung und Transparenz interessiert? Setzen sie durch, etwas zu ändern an missbräuchlichen Verhaltensweisen bestimmter Gruppen, bestimmter Bots und so weiter?“
„Kodizes wie die Codes of Conduct und Practice sind immer schön. Man muss sich nur daran halten und dann dieses Sich-daran-Halten oder Nicht-daran-Halten auch sanktionieren, also durchsetzbar machen.
Daneben ist gerade die Rolle von Ethikern bei Programmentwicklungen stärker als vielleicht noch vor zwei, drei Jahren geworden. Ingenieure denken oft inzwischen schon von vornherein an die Implementierung von ethischen Standards – zunehmend – aber auch nicht überall. Man muss dafür sorgen, dass auch diese Kodizes nicht nur schön auf dem Papier stehen, sondern auch wirklich genutzt werden.
Privacy by Design, Ethics by Design: Das sind wichtige Schlagworte, aber bisher sind sie – wenn man ehrlich ist – mehr so ein Feigenblättchen, das man noch im Nachhinein sich irgendwie anpappt. Das sollte sich ändern.“
Institut für Wirtschaftsinformatik, Westfälische Wilhelms-Universität Münster
„Es ist schwer abzuschätzen, welche Manipulationsversuche in welchem Umfang vor der Wahl auftauchen. Es ist vorstellbar, dass wir ähnliche Manipulationsversuche, die wir vor den Wahlen in Ländern wie zum Beispiel den USA, Großbritannien und in sehr geringem Maße auch in Deutschland gesehen haben, beobachten werden – auch den Einsatz von Automation oder von Trolls, also Menschen, die agieren. Eine viel größere Gefahr könnte im direkten Vorfeld der Wahlen durch das sogenannte ‚Leaken‘ von brisanten oder gegebenenfalls falschen oder auch gestohlenen Informationen ausgehen. Die zentrale Frage nach der davon ausgehenden Gefahr und die Frage der Wirkung ist nicht hinreichend geklärt. Insbesondere glaube ich, dass der Einfluss von Social Bots in der öffentlichen Diskussion überschätzt wird.“
„Die Forderung nach Schutz vor Desinformation und Manipulation durch Dritte und zugleich die Forderung nach maximalem Datenschutz gegenüber Behörden und Institutionen, von denen wir dann in aller Regel diesen Schutz erwarten, schließt sich logisch aus. Hier ist ein gesellschaftlicher Diskurs über den Wert von Datenschutz, die Eingriffsberechtigung des Staates und das Vertrauen gegenüber sozialen Medien und Wirtschaft, und natürlich damit auch wirtschaftlich arbeitenden Konzernen wichtig. Das kulminiert zuletzt in der Frage: Ist es besser, wirtschaftlich arbeitenden Unternehmen mehr als dem Staat zu vertrauen? Oder vertrauen wir besser keinem, wenn es um unsere Daten geht? Doch von wem können wir dann Schutz erwarten? Oder vertrauen wir anderen Akteuren, etwa Journalisten zum Beispiel als Gatekeeper und müssten die im ‚Neuland Social Media‘ noch ihren Platz finden?“
„In Deutschland sind Facebook, was die Gesamtbevölkerung angeht, und Twitter, was Journalisten und Politiker angeht, die wichtigsten Plattformen. Es gibt aber noch andere Randnetzwerke, die einen Einfluss haben, wo sich ganz spezielle Gruppen wie etwa rechte Meinungen sammeln.
Ein Beispiel ist das Netzwerk Gab, wo antisemitische Inhalte, also oft strafbare Inhalte, verbreitet werden, auch anti-islamistische Inhalte. Gab ist ein klassisches Ausweichnetzwerk, um eine sehr radikale Meinung zu äußern. Wenn man es in etwas abgeschwächter und schönerer Form macht, dann auf Twitter, sodass es strafrechtlich nicht relevant ist. Gab wird daher weitgehend nicht wahrgenommen. Es führt aber dazu, dass sich eine radikale Gruppe bildet in diesen Netzwerken. Wir dürfen uns also nicht zu sehr auf die Mainstreamplattformen beschränken in unserem Blick, sondern wir müssen den Blick weiten auf alle anderen möglichen Kanäle.“
„Der indirekte Effekt der permanenten Desinformationskampagnen, der gefühlten Wehrlosigkeit unserer Gesellschaft, der Politik, des Journalismus gegen diese Desinformationskampagnen, weil sie unglaublich schnell funktionieren, weil sie unglaublich effektiv funktionieren, sich unglaublich gut verbreiten lassen, wird auf lange Sicht dazu führen, dass wir einen Vertrauensverlust in all diese Institutionen haben.
Dieser Vertrauensverlust ist eine viel größere Gefahr, als eine einzelne Desinformationskampagne. Die Gatekeeper-Funktion von Journalisten geht langsam verloren. Es gibt auch keine richtigen gesellschaftlichen Lösungen bis jetzt. Das führt zu einem Zersetzungsprozess, was das Vertrauen angeht, und das ist die viel größere Gefahr.“
Alle: Keine Angaben erhalten.
Weiterführende Recherchequellen
Science Media Center Germany (2019): Desinformation vor der Europawahl – Wie groß ist die Gefahr? Press Briefing vom 12.04.2019
Prof. Dr. Axel Bruns
Professor für Medien- und Kommunikationsforschung, Digital Media Research Centre, Queensland University of Technology, Australien
Prof. Dr. Oliver Zöllner
Professor für Medienforschung und Digitale Ethik, Hochschule der Medien Stuttgart
Dr. Christian Grimme
Institut für Wirtschaftsinformatik, Westfälische Wilhelms-Universität Münster