Zum Hauptinhalt springen
28.04.2017

Wahlkampf der Bots – wie sehr beeinflussen Propaganda-Maschinen die Meinungsbildung?

Anlass

Social Bots haben in der Vergangenheit vor allem bei drei überregional relevanten, politischen Ereignissen eine Rolle gespielt: dem Ukrainekonflikt, dem Brexit und der amerikanischen Präsidentschaftswahl. Sie wurden eingesetzt, um das öffentliche Meinungsbild zu verzerren. So wurden zum Beispiel fast 19 Prozent der Tweets im Kontext der amerikanischen Wahlen von Bots gesendet [1].

Die Meinungen über die Wirkung von Social Bots gehen weit auseinander. Manche Politiker und Experten befürchten, dass Social Bots auch in Deutschland Einfluss auf die Meinungsbildung nehmen und den Ausgang der kommenden Wahlen beeinflussen könnten, während andere die Wirkung dieser Bots für noch vergleichsweise geringhalten. Einen guten Überblick über die verschiedenen Positionen bietet das Video der Anhörung zum Thema Social Bots im Bundestag [2].

Dieses Fact Sheet des Science Media Center Germany enthält grundsätzliche Informationen über Social Bots, eine Zusammenfassung gängiger Theorien zu deren Wirkung sowie weiterführende Hinweise auf Studien und Recherchequellen.

Übersicht

  • Was ist ein Social Bot?
  • Was tun Social Bots und wozu?
  • Wo werden Social Bots eingesetzt?
  • Was ist über die Wirkung von Social Bots bekannt?
  • Wer setzt Social Bots ein?
  • Mögliche „Gegenmaßnahmen“
  • Welche Studien oder Projekte laufen zurzeit zu Social Bots?
  • Literaturstellen, die zitiert wurden
  • Weitere Recherchequellen

Was ist ein Social Bot?

  • Social Bot (Bot = Kurzform von Roboter) bezeichnet ein Computerprogramm, das einen oder mehrere Accounts in sozialen Medien halb- oder vollautomatisch steuert.
  • Diese Programme folgen einer vom Besitzer gesetzten Agenda, ohne von diesem aktiv bedient oder kontrolliert werden zu müssen.
  • Die dazugehörigen Accounts können Programmierer oder deren Auftraggeber entweder selbst erstellen oder in großer Zahl online kaufen.
  • Nicht zu verwechseln mit den „klassischen“ Bots, meist ohne Einverständnis und Wissen des Besitzers gekaperte Rechner, die – zusammengeschlossen mit weiteren, ebenfalls gekaperten Rechnern – als Netzwerke, sogenannte Botnets agieren können, zum Beispiel zur Versendung von Spam oder DDoS (Distributed Denial of Service)-Attacken.

Was tun Social Bots und wozu?

Die Komplexität der Bots und damit auch die Schwierigkeit, sie als Bots zu erkennen, variiert zum Teil stark. Generell haben Social Bots diese Eigenschaften:

  • Social Bots nehmen an Diskussionen in sozialen Medien teil.

  • Social Bots vernetzen sich untereinander und mit „biologischen“ Usern.

  • Im aktuellen Diskurs ist vor allem die Einflussnahme von Social Bots auf politische Diskussionen wichtig. Sie werden in diesen eingesetzt, um:

    • Lügen oder explizite Propaganda zu verbreiten
    • Fakten einseitig darzustellen oder umzudeuten
    • Zweifel zu sähen, z. B. an Positionen oder an Medien
    • „alternative“ Lesarten anzubieten
    • Positionen/Hashtags zu verstärken, z. B. durch Retweets
    • gegnerische Hashtags zu diskreditieren (Hashtag Spamming)
    • Schwächen des Gegners ins öffentliche Bewusstsein zu bringen bzw. dort zu halten
    • zu skandalisieren.
  • Allerdings gibt es auch Bot-Netzwerke in anderen Kontexten: Bekannt ist zum Beispiel ein Netzwerk aus über 350.000 Bots auf Twitter, das zum Großteil zufällige Stellen aus Star-Wars Romanen zitiert [3].

  • Social Bots imitieren oft das Verhalten menschlicher Nutzer, um zu verbergen, dass es sich bei ihnen nicht um Menschen handelt. Die Effektivität dieser Imitation hängt stark von der Qualität des Bots ab.

  • Zum Beispiel verfasste ein im Zuge der Ukrainekrise auf Twitter aktives Bot-Netzwerk bis zu 80 Prozent unbedenkliche und nicht von einer politischen Agenda motivierte Nachrichten, um die wahre Intention des Netzwerks zu verbergen und Inhalte zu generieren, die für menschliche Nutzer interessant sein könnten [4].

Wo werden Social Bots eingesetzt?

Unter den sozialen Medien ist derzeit Twitter das beliebteste Einsatzfeld für Social Bots. Eine Studie schätzt, dass zwischen 9 und 15 Prozent der Twitter-Nutzer Bots sind [5]. Die Gründe:

  • Im Gegensatz zu beispielsweise Facebook kann jeder dem Großteil der Twitter Accounts folgen, deren Aussagen retweeten und so eine größere Öffentlichkeit leichter erreichen.
  • Durch eine häufige Verwendung von Hashtags kann leichter der Eindruck eines relevanten oder laufenden Themas erweckt werden, da oft verwendete Hashtags als „trending“ angezeigt werden.
  • Die Programmierschnittstelle (API), zu der man bei der Benutzung eines Social Bots Zugang braucht, ist bei Twitter benutzerfreundlicher als bei den meisten anderen sozialen Medien.

Was ist über die Wirkung von Social Bots bekannt?

In einigen Studien merken Forscher an, dass die tatsächliche Wirkung von Social Bots noch kaum erforscht oder empirisch bewiesen ist [6,7]. Dennoch stellen sie folgende Punkte zur Wirkung heraus:

  • Grundsätzlich sollen Social Bots die Meinung der Öffentlichkeit oder bestimmter Zielgruppen beeinflussen.
  • Dabei können sie die Wichtigkeit oder Akzeptanz von Personen und Meinungen höher darstellen als sie tatsächlich ist, Diskussionen inhaltlich verzerren, Personen beleidigen und Meinungen diskreditieren.
  • Das theoretische Beeinflussungspotenzial bezeichnen Forscher dabei meist als sehr groß.
  • Durch die zunehmende Analyse von Trends in sozialen Medien durch Politik und Wirtschaft, aber auch durch Medien, können von Social Bots künstlich generierte Trends Einfluss auf Berichterstattung sowie gesellschaftliche Themen und Diskurse nehmen.
  • Auf Twitter reagieren Bots meist auf bestimmte, vorprogrammierte Wörter und Hashtags – entweder durch Retweeten der Nachricht oder Absenden einer eigenen.
  • Die wahrscheinlich größte Relevanz erreichen sie bei der Beeinflussung und Verstärkung von Meinungen durch ihre schiere Anzahl. So können Bots koordiniert ein Hashtag häufig verwenden, um die Relevanz oder breite Akzeptanz dieses Hashtags vorzutäuschen.
  • Ähnlich kann es sich mit einem Tweet verhalten, bei dem durch das Retweeten oder Favorisieren durch Bots eine größere Anzahl Personen, die mit dem Tweet übereinstimmen, vorgetäuscht wird.
  • Auch Follower-Zahlen können durch Bots künstlich erhöht werden.
  • Bei Facebook können durch das massenhafte Teilen oder Liken von Meldungen ähnliche Effekte hervorgerufen werden.
  • Grundsätzlich vermuten Forscher, dass die von den Bots meist radikal und unnachgiebig vertretenen, politischen Positionen zu einem aufgeheizten Diskussionsklima, einer Verhärtung der Fronten zwischen den Diskutierenden und einer Polarisierung führen können.
  • Langfristig könnte dies zu einem Vertrauensverlust in die Demokratie führen und die Geschäftsmodelle sozialer Medien bedrohen [6].
  • Simon Hegelich, momentan als einer der führenden deutschen Forscher in diesem Bereich angesehen, befürchtet, dass Social Bots in Zukunft kurzfristig sehr wirkmächtig werden können, wenn die Aktivitäten der Bots quantitativ plötzlich ansteigen oder es einen neuen Qualitätssprung bei der Bot-Technik gibt [7]. Allerdings ist das zu diesem Zeitpunkt noch eine Vermutung.
  • Hegelich merkt in diesem Zusammenhang an, dass die im Kontext des Brexits zum Einsatz gekommenen Social Bots keinen spürbaren Effekt auf das Abstimmungsverhalten hatten. Zum Beispiel nutzen in Großbritannien gerade junge, gebildete Menschen Twitter. Genau diese Gruppe stimmte jedoch in ihrer Mehrheit gegen den Brexit. Zudem verbreiteten viele Bots Hashtags beider Richtungen, weil es sich bei ihnen wahrscheinlich um Werbe-Bots handelte. Massenhafte Beeinflussung von Trends auch nicht mit erfolgreicher Manipulation gleichzusetzen [7].
  • Forscher, die sich mit der Reaktion der Nutzer sozialer Medien auf Social Bots beschäftigen, merken an, dass Bots das Potenzial haben, auf Diskussionen und Verbindungen in sozialen Medien Einfluss zu nehmen, aber auch, dass externe Faktoren eine wichtige Rolle spielen [8].
  • Weitere Forschung beschäftigt sich mit den verschiedenen Reaktionen von Menschen auf sich identisch verhaltende Bots, wenn sich diese als Menschen ausgeben oder wenn sie sich offen als Bot darstellen [9] und wann und unter welchen Faktoren Menschen automatisch generierten Text für von Menschen verfasst halten [10].

Wer setzt Social Bots ein?

In einigen Fällen – wie zum Beispiel dem US-Wahlkampf oder dem Brexit, wo die zum Einsatz gekommenen Bots klar Partei bezogen haben, – ist die Agenda oder der Nutznießer der Bots leicht zu erkennen. Allerdings ist es auch in diesen Situationen meist unmöglich, genau zu bestimmen, wer explizit für den Einsatz der Bots oder den Auftrag dazu verantwortlich ist – wer also der sogenannte Botmaster ist.

  • Aufgrund von möglichen technischen Schutzvorkehrungen der Botbetreiber ist es auch Behörden oft nicht möglich, die Botmaster zu identifizieren.
  • Die Programmierung der simpleren Varianten von Social Bots ist für geübte Programmierer vergleichsweise einfach.
  • Hinzu kommt, dass man sowohl die Programme zur Steuerung der Bots als auch die nötigen Accounts käuflich erwerben kann.
  • Der Einsatz von Social Bots ist daher nicht auf Hacker oder erfahrene Programmierer beschränkt.
  • Sofern der Social Bot eine erkennbare Agenda verfolgt, können aus ihr eventuell Rückschlüsse auf den Nutzer oder Nutznießer der Bots gezogen werden.

Mögliche „Gegenmaßnahmen“

Erster Ansatz: Erhöhung der Medienkompetenz

  • Einerseits sollten Nutzer zukünftig mehr über Social Bots wissen, andererseits sollten aber auch Medien, Politik und Unternehmen ihren Umgang mit Trends aus dem Internet durch Schulungen verändern.
  • Ein Problem bei diesem Ansatz ist die Tatsache, dass es schwierig ist, Nutzer aller Altersgruppen zu erreichen, um deren Medienkompetenz zu verbessern.
  • Hinzu kommt, dass dieser Ansatz erst langfristig Resultate aufweisen wird.
  • Andere Experten argumentieren, dass in Deutschland wegen der besonderen Sensibilisierung der Öffentlichkeit das Risiko der Beeinflussung durch Bots gering ist.
  • In diesem Zusammenhang vermuten einige Experten jedoch, dass die mediale Beachtung, die Online-Trends zuteilwird, den Bots erst den Großteil ihres potenziellen Effekts gibt.

Zweiter Ansatz: Verzicht auf den Einsatz von Social Bots

  • Die großen Parteien in Deutschland haben bereits verkündet, dass sie keine Social Bots im Wahlkampf einsetzen wollen – wohl aber erwägen einzelne Parteien den Einsatz von Chatbots.
  • Allerdings ist das aufgrund der Anonymität der Botmaster schwer zu überprüfen. Parteien können auch unwissentlich und gegen ihren Willen vom Einsatz von Social Bots profitieren.

Dritter Ansatz: Verbot von Social Bots

  • Die Nutzung von Bots an sich verstößt gegen kein deutsches Gesetz, wohl aber gegen die AGBs von sozialen Medien. Im Einzelfall können allerdings Social Bots gegen Gesetze verstoßen, beispielsweise durch Beleidigungen oder Propaganda (wie z. B. Holocaust-Leugnung oder Volksverhetzung).
  • Die Anonymität der Botmaster macht es allerdings schwierig, jemanden für eventuelle Gesetzesverstöße zu belangen.

Vierter Ansatz: Kennzeichnungsplicht von maschinell betriebenen Accounts

  • Diese Maßnahme wird oft vorgeschlagen.
  • Die Kennzeichnung könnte für eine breitere öffentliche Wahrnehmung des Phänomens Social Bots sorgen und deren „Mystifizierung“ entgegenwirken.
  • Es stellt sich jedoch die Frage danach, welche Accounts als Bots definiert würden, da auch viele von Menschen betriebene Accounts (halb-)automatische Elemente besitzen.
  • Ein zusätzliches Problem ist, dass vor allem komplexere Social Bots oft nicht als solche zu erkennen sind, da sie sich bewusst menschlich „verhalten“.
  • Daher ist fraglich, ob eine Kennzeichnungspflicht durchsetzbar wäre.
  • Da die Möglichkeiten der Enttarnung der Bots, die aufgrund deren großer Anzahl und einfacher Einrichtung automatisch erfolgen müsste, momentan noch der Entwicklung hinterherhinken, adressieren einige der aktuell laufenden Projekte dieses Problem.

Welche Studien oder Projekte laufen zurzeit zu Social Bots?

  • PropStop

  • Social Media Forensics

    • Projekt, das Risiken der digitalen Arbeitswelt erkennen und beheben soll. Im Vordergrund stehen dabei die Auswertung, kommerzielle Nutzung und potenzielle Manipulation von Daten, die durch die Auswertung von sozialen Medien entstehen.
    • Ziel: 1. Kategorisierung der verschiedenen Manipulationen, 2. Identifikation der potenziellen Schadenshöhe und Zusammenführung zu einem Risikomodell, 3. Nutzerspezifische Handlungsempfehlungen
    • Projektleiter: Prof. Dr. Simon Hegelich
    • Im Internet: www.wiwi.uni-siegen.de/is/forschung/laufendeprojekte/somefo.html
  • TA-Vorstudie Social Bots

    • Untersuchung, die einen Überblick über das tatsächliche Ausmaß des Einsatzes von Social Bots sowie ihrer Wirkungskraft erarbeiten soll. Vor allem geht es darum, ob Manipulationen durch Social Bots das Potenzial haben, politische Diskussionen zu verzerren und gesellschaftliche Konflikte zu verschärfen.
    • Ziel: Mögliche Handlungsfelder für Politik ableiten
    • Projektleiterin: Dr. Sonja Kind, Büro für Technikfolgenabschätzung
    • Im Internet: www.tab-beim-bundestag.de/de/untersuchungen/uV005.html
  • Botswatch

    • Netzinitiative zur Erkennung von Social Bots und Analyse deren Aktivität bei Twitter.
    • Leitung: Tabea Wilke
    • Im Internet: botswatch.de

Literaturstellen, die zitiert wurden

[1] Ferrara, B (2016): Social bots distort the 2016 U.S. Presidential election online discussion.

[2] Mediathek des Deutschen Bundestages (26.01.2017): Wirkung von „Social Bots“ ist unter Sachverständigen strittig.

[3] Echevería, Z (2017): The `Star Wars' botnet with >350k Twitter bots.

[4] Janetzko, D et al. (2016): Are Social Bots on Twitter Political Actors? Empirical Evidence from a Ukrainian Social Botnet.

[5] Ferrara, V et. al. (2017): Online Human-Bot Interactions: Detection, Estimation, and Characterization.

[6] Kind, S et. al. (2017): Thesenpapier zum öffentlichen Fachgespräch „Social Bots – Diskussion und Validierung von Zwischenergebnissen“.

[7] Hegelich, S (2016): Invasion der Meinungs-Roboter. S. 5f.

[8] Mitter, S (2014): Understanding The Impact Of Socialbot Attacks In Online Social Networks.

[9] Murgia, A (2016): Among the Machines: Human-Bot Interaction on Social Q&A Websites.

[10] Everett, RM (2016): The Anatomy of Online Deception: What Makes Automated Text Convincing?

Weitere Recherchequellen

Studien:

Echevería, Z (2017): The 'Star Wars' botnet with >350k Twitter bots.

Everett, RM (2016): The Anatomy of Online Deception: What Makes Automated Text Convincing?

Ferrara, E et al. (2014): The Rise of Social Bots. (Update 2017)

Mitter, S (2014): Understanding The Impact Of Socialbot Attacks In Online Social Networks.

Murgia, A (2016): Among the Machines: Human-Bot Interaction on Social Q&A Websites.

Weiterführende Links: 

Mugerwa, S. (2016): Rise of the Bots: How software robots and AI are redefining how we live and communicate.

Mediathek des Deutschen Bundestages (2017): Wirkung von „Social Bots“ ist unter Sachverständigen strittig. Anhörung im Bundestag.

Vortrag von Joachim Scharloth (09.01.2015): Mein Bot, der Kombattant.

BotOrNot: Tool zur Überprüfung von Twitter-Accounts darauf, ob sie Bots sein könnten.