Zum Hauptinhalt springen
20.11.2018

Social Bots verbreiten zu viel Desinformation

Anlass

Gesicherte Nachrichten, Falschmeldungen oder Propaganda – sie alle werden über Social Bots auf Twitter verbreitet. Doch nicht alle gleichgewichtig: Bei der Verbreitung von Falschmeldungen spielen Social Bots eine überproportional große Rolle. Das schreiben Forscher aus den USA und China im Fachjournal Nature Communciations (Primärquelle). Das Team stützt sich auf eine Analyse von 14 Millionen Tweets, die 400.000 Artikel binnen 10 Monaten zwischen 2016 und 2017 verbreitet hatten. Ihre Analyse zeige weiter, dass Bots eine entscheidende Rolle bei der Verbreitung von ungesicherten Nachrichten spielen, bevor diese viral werden – und dass sie auf User mit vielen Followern zielen, deren Reichweite sie durch Retweets noch vergrößern.

Die Wissenschaftler teilen die Einschätzung, dass Verbreiten von Fehlinformationen eine Gefahr für die Demokratie darstellt. Die Wirkung von Social Bots sollte ihrer Überzeugung nach eingedämmt werden, unter Umständen durch den Einsatz von CAPTCHAs.

Zum Thema Social Bots hat das SMC auch ein Factsheet veröffentlicht.

Übersicht

  • Dr. Christian Grimme, Institut für Wirtschaftsinformatik, Westfälische Wilhelms-Universität Münster
  • Lisa-Maria Nicola Neudert, Oxford Internet Institute, University of Oxford

Statements

Dr. Christian Grimme

Institut für Wirtschaftsinformatik, Westfälische Wilhelms-Universität Münster

„Die vorliegende Studie verbindet die Erkennung von Social Bots und die Analyse der Verbreitung von Informationen niedriger Qualität (information of low quality sources) zur quantitativen Bestimmung der Effektivität der Verbreitung von Desinformation durch Social Bots. Die Autoren sind in der Community durch Ihre Arbeiten zu Botometer (früher BotOrNot)(1) und Hoaxy (2) etabliert. Aus dieser Tatsache ergibt sich auch der Fokus auf die Nutzung dieser Methoden als Grundlage für die Datenbewertung (zum Beispiel Social Bots oder Menschen, die posten). Die Ergebnisse der Autoren sind unter den getroffenen Annahmen weitgehend nachvollziehbar und methodisch sehr umfangreich beschrieben. Alle präsentierten Ansätze tragen zur Annäherung an eine quantitative Bewertung von Aktivitäten oder Strategien methodisch bei.“

„Allerdings sollten aus meiner Sicht die Voraussetzungen der Studie kritisch hinterfragt werden: Die Autoren gehen davon aus, dass mit der angewendeten Methodik Social Bots und Menschen unterschieden werden können. Dazu werden Accounts, die zufällige Inhalte verbreiten, mit solchen verglichen, die Informationen (explizit) aus Quellen niedriger Qualität verbreiten. Dabei wird ein großer Unterschied in der Anzahl ‚verdächtiger‘ (Botometer Score > 0.5) Accounts festgestellt. Es ist nicht klar, inwieweit diese Accounts tatsächlich vergleichbar sind. Zudem spielen – laut vorherigen Arbeiten der Autoren – auch inhaltliche Aspekte der Posts eines Accounts in der Bewertung durch Botometer eine Rolle. Somit ist die Wirkrichtung hier nicht ganz klar – mehr Bots die Desinformation verbreiten oder mehr Accounts, die aufgrund des Inhalts als Bots identifiziert werden.“

„Die von den Autoren vorgenommene Bewertung der Bedeutung von Social Bots kann durchaus diskutiert werden. Die in der Arbeit dargestellte Strategie von Social Bots beziehnungsweise Automatisierung kann in gleicher Weise auch von menschlichen Akteuren – Trollen – durchgeführt werden. Verschiedene Arbeiten anderer Autoren berichten darüber. Eine Beschränkung auf Social Bots erscheint daher nicht zwingend. Die Autoren weisen selbst auf die Möglichkeiten – und Gefahren – von Fehlklassifizierungen hin. Sicher ist: Social Bots stellen durch die ihnen eigene Automatisierung eine komfortable Möglichkeit der Multiplikation von Inhalten dar. Sie sind aus meiner Sicht aber nicht als alleiniger Faktor im Rahmen einer Manipulationsstrategie zu betrachten. Vielmehr ist davon auszugehen, dass Manipulation über Desinformation viele Aspekte enthält, von denen nur ein Teil auf Social Bots beruht.“

„Aus meiner Sicht ist die Beschränkung von Bots nur schwer umzusetzen, ohne zugleich den Zugang zu sozialen Netzwerken für ‚normale‘ Nutzer erheblich zu erschweren – zu einer solchen Erschwerung gehören auch CATPCHAs. Bisherige Einschränkungen von Programmierschnittstellen der Plattformen sind sicherlich wirkungsvoll, wenn auch nicht ausreichend, um Bots zu bekämpfen. Über Social Bots hinaus sollten jedoch vor allem Manipulations- und Desinformationsstrategien oder -kampagnen mehr Beachtung finden. Identifiziert man Strategien, identifiziert man zugleich die Akteure – inklusive möglicher Social Bots oder Trolle.“

Lisa-Maria Nicola Neudert

Oxford Internet Institute, University of Oxford, UK

„Botometer ist mittlerweile ein anerkanntes Tool zur Bot-Erkennung. Zwar hat das Tool einige bekannte Probleme, aber es wird in der Forschung dennoch recht erfolgreich genutzt. Low quality information auf Ebene der Quelle zu bewerten, halte ich für sinnvoll. Auch unsere Methode zur Klassifizierung von ‚junk news‘ arbeitet auf der Ebene der Quelle, da viele Missinformations-Seiten gezielt glaubwürdige Information mit Verschwörungstheorie und ‚Fake News‘ mischen, um Nutzer zu verwirren.“

„Die Studie schließt direkt an Vosoughi. et al. (2018) [1] an. Im Unterschied zu diesem Paper, in dem Bots nur eine eingeschränkte Rolle für die Verbreitung von Missinformation zugewiesen werden konnte, ist hier die Definition von Missinformation breiter und es werden auch Reshares von Content berücksichtigt, die zuerst durch menschliche Nutzer geteilt wurden. Interessant finde ich, dass Bots einflussreiche User in ihren Tweets markieren. Das belegt auch nochmal deutlich, dass Bots für die erfolgreiche Amplifikation von Nachrichten Algorithmen, aber auch Menschen nutzen.“

Auf die Frage: Wie ließe sich die Wirkung von Social Bots bei der Verbreitung von Falschmeldungen oder Propaganda mit dem Ziel der Destabilisierung von Demokratien eindämmen?

„Ein Ansatz ist das Löschen von Bot-Accounts. Allein dieses Jahr hat Twitter bereits Millionen solcher Accounts gelöscht. Außerdem filtert Twitter auch Tweets, um deren Sichtbarkeit einzuschränken, wobei hier nicht genau klar ist, wie Twitter vorgeht. Das Spannende daran: Die API (Application Programming Interface, Schnittstelle, die externen Programmen Zugriff auf Daten ermöglicht, Anm. d. Red.), die für Forschung wie diese hier verwendet wird, zeigt die ungefilterten Tweets. Es ist also möglich, dass im Nachhinein die Sichtbarkeit von Tweets, die anfangs durch Bots amplifiziert wurden, eingeschränkt wurde.“

Angaben zu möglichen Interessenkonflikten

Dr. Christian Grimme: „Es ist darauf hinzuweisen, dass das Projekt und die Arbeitsgruppe, in denen ich arbeite, bei der Bekämpfung von Desinformation und Manipulation einer starken Fokussierung auf die Identifikation von Social Bots skeptisch gegenübersteht und die Methoden der Autoren schon mehrfach kritisch untersucht hat.“

Alle anderen: Keine angegeben.

Primärquelle

Chengcheng S et al. (2018): The spread of low-credibility content by social bots. Nature Communications; 9:4787. DOI: 10.1038/s41467-018-06930-7.

Literaturstellen, die von den Experten zitiert wurden

[1] Vosoughi. et al. (2018): The spread of true and false news online. Science; 359:6380, 1146-1151. DOI:10.1126/science.aap9559

Weitere Recherchequellen

(1) Botometer (früher BotOrNot): Untersucht einen Twitter-Account und ermittelt, wie wahrscheinlich es sich um einen Bot handelt.

(2) Hoaxy: Tool zur Recherche von Twitter-Nachrichten und Fakt-Checking.

Science Media Center Germany (2017): Wahlkampf der Bots – wie sehr beeinflussen Propaganda-Maschinen die Meinungsbildung? Stand: 28.04.2017.