Moderator [00:00:00] Hallo liebe Journalistinnen und Journalisten, herzlich willkommen zu unserem virtuellen Press Briefing zum Thema "Desinformation vor der Europawahl". Ich bin Bastian Zimmermann, ich bin Redakteur hier beim Science Media Center und ich freue mich, heute mit mir hier Frau Schmitt, Herrn Müller und Herrn Jungherr zu haben als Expertin und Experten. Herzlich willkommen, schön, dass Sie da sind. Ich stelle Sie gleich noch im Detail vor. Die EU-Wahl steht da jetzt (vor der Tür). Am 6. Juni beginnen die Wahlen in einigen Ländern Europas, in Deutschland und Österreich sind sie am 9. Juni und es gibt wie bei vielen Wahlen in der Vergangenheit auch hier wieder die Befürchtung, dass Desinformationen die Wahl beeinflussen könnten. Die Befürchtungen werden jetzt auch genährt durch die KI-Fortschritte in den letzten Jahren, also Sprachmodelle könnten jetzt bei der automatisierten Generierung von manipulativen Texten oder auch direkt falschen Texten helfen. Deepfakes bieten auch offensichtliche Möglichkeiten zur Wahlmanipulation. Man hat zum Beispiel gehört, dass das in Indien vor der Wahl viel eingesetzt wurde, die Frage nach der Wirkung ist dann noch mal eine andere. Heute wollen wir besprechen, was sich aus der Forschungsperspektive zu Desinformation sagen lässt und worauf gerade bei dieser Wahl zu achten ist. Bevor ich zum Vorstellen komme, noch mal der Hinweis an Sie, die Journalistinnen und Journalisten. Das Frage & Antwort Modul von Zoom kennen Sie ja bereits. Da bitte die Fragen stellen und nicht über den Chat. Dann sehen auch mit allen Einstellungen alle Kolleginnen und Kollegen die Fragen und es gibt weniger Dopplungen. Genau, also bitte die F&A-Funktion unten nutzen. Dann zu unserern Expertin und den beiden Experten. Ich stelle sie in alphabetischer Reihenfolge vor. Wir haben hier zuerst Professor Dr. Andreas Jungherr. Er ist Inhaber des Lehrstuhls für Politikwissenschaft, insbesondere Digitale Transformation an der Otto-Friedrich-Universität in Bamberg. Dr. Philipp Müller ist Vertretungsprofessor am Institut für Medien- und Kommunikationswissenschaft an der Universität Mannheim und Dr. Josephine Schmitt ist wissenschaftliche Koordinatorin am Center for Advanced Internet Studies in Bochum. Die Expertisen überschneiden sich zum Teil, aber alle forschen zu Desinformation aus unterschiedlichen Perspektiven. Frau Schmitt kommt eher aus der Medienpsychologie, befasst sich auch mit Themen wie Propaganda und Hassrede. Herr Müller kommt aus der Kommunikationswissenschaft, der politischen Kommunikation, befasst sich mit der politischen Kommunikation und der Mediennutzung. Herr Jungherr kommt aus der politischen Soziologie, befasst sich mit Themen wie Politik und Wahlen und eben auch Digitalisierung und alle natürlich auch mit dem Desinformationssthema. Dazu habe ich an jede Person eine kurze Eingangsfrage, in der sie den Stand darlegen können. Und wir fangen an mit Ihnen, Herr Müller, und der Frage: Was ist denn der aktuelle Stand der Forschung zur Auswirkung von Desinformation auf Wahlen, was kann man dazu sagen?
Philipp Müller [00:02:55] Das ist direkt die Gretchenfrage, würde ich sagen, die gar nicht so leicht zu beantworten ist, zumal aus der wissenschaftlichen Perspektive. Was ganz gut dokumentierbar ist, ist, wie viel Desinformation finden wir auf Social-Media-Plattformen und wie sind da unterschiedliche Accounts und Akteure miteinander vernetzt, die Desinformation verbreiten. Das kann man zusammenfassen: Da ist schon relativ viel und es gibt auch Einzelstudien, die Hinweise darauf geben, dass es zu Wahlkampfzeiten natürlich immer ein bisschen mehr wird, aber grundsätzlich ist da ein Grundrauschen vorhanden, was auch in Nicht-Wahlkampfzeiten da ist. Dann können wir gut und da kann sicher Frau Schmitt mehr zu sagen, mit medienpsychologischen Experimenten gucken, was passiert, wenn wir Leute zwingen, solche Informationen anzuschauen, also die psychologischen Mechanismen, die Verarbeitung und so weiter, die dann losgeht. Wozu wir relativ schwer nur Auskunft geben können, ist, wie viel Personen im echten Leben, in welcher Frequenz, wirklich Desinformation in ihre Social-Media-Feeds beispielsweise gespült bekommen. Das ist einfach etwas, wo der Datenzugang fehlt, weil die Daten bei den großen Social-Media-Plattformen liegen. Es wäre sehr relevant, diese Frage zu beantworten, um letztlich den Einfluss auf Wahlen abschätzen zu können. Man kann schon Schätzungen abgeben, dass Kampagnen während Wahlen in allen westlichen Demokratien stattfinden, ist unstrittig. Inwiefern die dann ein, zwei Prozentpunkte der späteren Wahlergebnisse verschieben können, das lässt sich spekulieren, aber nicht mit letzter Sicherheit sagen, würde ich behaupten.
Moderator [00:04:48] Ja, vielen Dank. Frau Schmitt, Herr Müller hat zu der Unsicherheit schon was gesagt. Die Frage an Sie: Warum ist es denn eigentlich so schwierig, die Wirkung von Desinformation zu messen und wie könnte das besser gelingen?
Josephine Schmitt [00:05:03] Es gibt diverse Aspekte, die dazu beitragen, dass die genaue Wirkung von Desinformation schwer erfassbar ist. Es ist einerseits die Vielfalt der Informationskanäle, also Desinformation kann sich über ganz unterschiedliche Plattformen und Medien verbreiten. Das macht natürlich die Nachverfolgunganalyse schwer. Noch dazu unterscheiden sich die Plattformen hinsichtlich der Funktionsweise und Architekturen, also beispielsweise der Funktionsweise der zugrunde liegenden Empfehlungssysteme oder auch der Art und Weise, wie Menschen auf diesen Plattformen miteinander interagieren. Diese Faktoren können dann auch ganz unterschiedliche Effekte bei den Nutzenden hervorrufen. Noch dazu können Nutzende nicht nur lesen und kommentieren, sondern stoßen auch mehr oder weniger zufällig auf Informationen, je nachdem, in welchem Netzwerk sie sich bewegen und können auch selber zu Kreator:innen von Informationen werden. Dann werden Desinformationen auch ganz unterschiedlich rezipiert und interpretiert, je nachdem, welche persönlichen Voraussetzungen die Menschen mit sich bringen, welche politischen Einstellungen sie haben, ob sie ein sogenanntes Conspiracy Mindset mitbringen, reagieren sie ganz unterschiedlich auf die Informationen, was natürlich auch wieder die (Messung der) genauen Wirkung von Desinformation schwierig macht. Viele Studien zeigen, dass es eben nicht nur die Desinformationen an sich sind oder der Kanal, über den sie verbreitet werden, sondern welche Eigenschaften auf Seiten der Lesenden, der Rezipierenden mitgebracht werden. Dann sind die Effekte natürlich auch sehr komplex. Manchmal lässt sich die Wirkung gar nicht so genau erfassen, weil sich auch Verhaltensänderungen niederschlagen können in Meinungen oder auch Vertrauen in Institutionen und manches davon ist gar nicht so direkt und gar nicht mit den Mitteln, die einem als Forschende, wenn man alle ethischen Rahmenbedingungen mitbedenkt, zur Verfügung stehen, messbar. Und es gibt sehr große Schwierigkeiten bei der Kausalität. Es ist sehr schwierig, direkt zu beweisen, dass eine bestimmte Desinformation eine spezifische Wirkung verursacht hat. Und das zusammengenommen mit den individuellen Voraussetzungen auf der Nutzendenseite macht es extrem komplex. Es gibt trotzdem viele Studien, die sich darüber Gedanken machen, wie man die Wirkungen von Desinformation sinnvoll erfassen kann. Das passiert zum Beispiel in Experimenten, wo man sehr kontrolliert Menschen Informationen aussetzt und guckt, welche Wirkung das haben kann und dann werden die Reaktionen dieser Menschen in den verschiedenen Gruppen miteinander verglichen. Da stellen sich auch immer viele ethische Fragen: Inwiefern darf man Menschen einer bestimmten Desinformation zu Studienzwecken aussetzen, das ist das eine. Und auf der anderen Seite sind es teilweise sehr artifizielle Situationen. In meiner normalen Mediennutzung wirken noch viele andere Einflüsse auf mich, als wenn ich mich zum Beispiel in einem Labor mit einer bestimmten Nachricht auseinandersetze. Das ist eine Möglichkeit, die ihre Vorteile, aber auch Nachteile mitbringt. Dann wird viel mit Umfragen und Interviews gearbeitet. Da sind langfristige Studien diejenigen, die einem die Möglichkeit eröffnen, auch Wirkung von Desinformation rauszufinden und sich anzuschauen. Letztlich sind auch diese Methoden wieder mit Vor- und Nachteilen behaftet. An sich ist keine Methode für sich allein die beste, um die Wirkung von Desinformation zu messen, sondern im Idealfall kann man verschiedene Methoden miteinander kombinieren. Beispielsweise auch eine Netzwerkanalyse [durchzuführen] oder auch zu schauen, wie sich Informationen in sozialen Netzwerken verbreiten, in welche Ecken der sozialen Netzwerke sie reinkommen, wer sie rezipiert und dann wiederum die Reaktion der Menschen aufgreifen. Es gibt keine keine eindeutigen und keine einfachen Antworten auf diese Frage.
Moderator [00:09:04] Vielen Dank erst mal für die Annäherung. Herr Jungherr, dann zu Ihnen noch die Frage: Wie unterscheidet sich die EU-Wahl von anderen Wahlen und macht sie das dann mehr oder weniger anfällig für Desinformation?
Andreas Jungherr [00:09:20] Die EU-Wahlen sind hauptsächlich für die Betroffenen und für in der Kommunikation arbeitende Wissenschaftlerinnen und Wissenschaftler interessant, nicht so richtig für die Gesamtbevölkerung. Was wir generell sehen ist, dass das EU- Wahlen immer mit Schwierigkeiten verbunden sind, generell gesellschaftlich zu mobilisieren, was dann auch ganz unterschiedliche Gründe hat: dass wir unter Umständen in den Medien auch nicht ausreichend darüber kommunizieren, welche Rolle Europa tatsächlich in unserem Leben spielt, wie stark die Regulierungsaktivität oder der Regulierungseinfluss von Europa auf die nationale Politik ist und dass man unter Umständen auch als Politikerin oder Politiker ganz zufrieden ist, dass man nicht ganz so eng gebunden an die öffentliche Meinung ist, wie das jetzt nationalen Politikern passiert. Wir haben es mit den Europawahlen mit an sich sehr wichtigen Wahlen zu tun, die langfristige Konsequenzen haben, die aber gleichzeitig im Vergleich zu ihrer Bedeutung nicht die Aufmerksamkeit bekommen, die man erwarten sollte, was sich dann auch in vergleichsweise niedrigen Wahlbeteiligungsraten abbildet und dann kleineren politischen Akteuren, für die Europa ein asymmetrisch wichtiges Thema ist, proportional gesprochen große Chancen bietet. Wenn sie Anhängerin und Anhänger der CDU oder SPD sind, werden sie wahrscheinlich zur Europawahl nicht ganz so mobilisiert werden oder ganz so aufgerufen werden, wie es als Anhängerin und Anhänger der AfD passiert. Das heißt, dass wir eine asymmetrische Mobilisierung an den Rändern haben, die häufig unzufrieden mit Europa sind, wie das abläuft und dass diejenigen, die an sich am stärksten von Europa profitieren, unverhältnismäßig selten zur Wahl gehen, was dann dazu führt, dass unter Umständen europakritische Kräfte einen relativ gesprochen höheren Einfluss bekommen, als das die reinen Zahlen an Unterstützern tatsächlich rechtfertigen würden.
Moderator [00:11:27] Wir haben direkt schon eine Nachfrage zu einem politischen Thema, die ich direkt an Sie stellen würde, Herr Jungherr. Können Sie einzelne Politikfelder identifizieren, in denen größere Robustheit gegenüber Desinformation und Polarisierung vorhanden ist als andere und welche Faktoren tragen gegebenenfalls zu so einer Robustheit bei?
Andreas Jungherr [00:11:50] Die Robustheit gegenüber gezielter Desinformation, also dem Willen von entweder inländischen oder ausländischen Akteuren, Politik zu beeinflussen, hängt davon ab, ob politische Parteien, politische Eliten und Medien sich etwas von der Desinformation versprechen oder nicht. Wenn wir uns die USA anschauen, die USA ist das Feld, wo es am stärksten dokumentiert ist. Da sehen wir unter Republikanern schon seit 10, 20 Jahren eine hohe Bereitschaft, sich von dem, was wir jetzt als faktenbasierten Diskurs verstehen würden, loszulösen und auch politische Eliten bewusst oder unbewusst mit Missinformationen spielen, diese verstärken und denen folgen. Das tun sie nicht, weil sie davon letztlich alle überzeugt sind, sondern das tun sie, weil sie sich davon einen taktischen Vorteil erwarten. Das heißt also, wenn wir über Wirkungen von Desinformation sprechen oder der Anfälligkeit von einem System, hängt es immer damit zusammen, wie diszipliniert die wichtigen politischen Akteure, die wichtigen Eliten, der Journalismus ist, diese Information abzubremsen oder wie hoch die Bereitwilligkeit ist, diese zu verstärken. Bei Desinformation passiert das häufig im Journalismus, gerade in sehr kommerziell geprägten Mediensystemen. Dass sich Desinformation ganz hervorragend dafür eignet, Klicks zu generieren und sich selbst damit zu finanzieren, Sichtbarkeit zu bekommen, hat dazu geführt, dass wir zum Beispiel im amerikanischen Mediensystem eine höhere Bereitschaft haben, "big if true"-Nachrichten aufzugreifen und noch mal zu verstärken. Insofern würde ich dann sagen, wenn wir über diese Effekte reden: Es kommt immer darauf an, welche politischen Akteure ein Interesse daran haben und den Freiraum verspüren, sich darauf einzulassen und das zu verstärken.
Moderator [00:14:05] Das führt mich auch direkt zu einer Nachfolgefrage an Herrn Müller. Wir hatten vor einiger Zeit auch ein paar Aussendungen zu dem Thema ausgesandt. Und da kam immer wieder der Punkt auf, der die Rolle des Journalismus noch mal vorgestellt hat, dass bei aller Info über Desinformation, die man liest, dass die Verbreitung über traditionelle Quellen immer noch eine viel größere Reichweite hat. Kann man sagen, was im Mittel so die Reichweite und Relevanz von Social-Media- Posts oder Anzeigen auf sozialen Medien im Vergleich zur journalistischen Weiterverbreitung ist? Und welche Rolle würde daraus auch für den Journalismus folgen?
Philipp Müller [00:14:47] Tatsächlich ist es sehr schwer, etwas dazu zu sagen, was die Reichweite von Desinformation [ist], sei es, dass sie über Anzeigen in Social-Media-Plattformen verbreitet wird oder einfach nur gepostet wird und darauf gesetzt wird, dass Nutzer:innen diesen Accounts selbst folgen. Es gibt sogenannte Tracking-Studien, die üblicherweise den Browserverlauf dokumentieren von Menschen. Da kann man gucken, wer geht dann tatsächlich auf Webseiten, auf denen Desinformation verbreitet wird. Und da zeigt sich gerade für Deutschland eigentlich in allen Studien, die mir bekannt sind, dass nur ein sehr geringer Prozentsatz der Personen, die daran teilnehmen, also unter zehn Prozent der Leute in einem Untersuchungzeitraum von vielleicht 30 Tagen, dann tatsächlich überhaupt auch nur einmal auf so einer Desinformationswebseite ankommen. Jetzt ist es aber eben sehr, sehr schwer und mir sind keine Studien dazu bekannt -- für den Facebook-Konzern wäre es wahrscheinlich nicht sehr schwer, aber die rücken diese Daten natürlich nicht raus -- wirklich zu sagen, wie viele Personen in der Bevölkerung sehen eigentlich regelmäßig, wenn sie durch ihren Feed scrollen, auf einer Plattform tatsächlich Desinformationsinhalte. Das lässt sich sehr, sehr schwer beziffern. Ich würde der Vermutung, die ein bisschen in Ihrer Frage gesteckt hat, durchaus zustimmen, dass natürlich Desinformationsinhalte, die vom professionellen Journalismus aufgegriffen werden, immer noch eine erheblich hohe Reichweite einfahren dürften und dass deswegen dem Journalismus eine besondere Verantwortung zukommt. Gleichzeitig ist es schwierig, überhaupt nachzuvollziehen, welche Inhalte werden gelöscht und wieviel Desinformation wird verbreitet. Das gilt für Social-Media-Plattformen, die sich nicht so stark der EU-Regulierung unterziehen wie es der Facebook-Konzern mit seinen Plattformen beispielsweise oder vielleicht auch Google mit YouTube macht. Also so etwas wie Twitter, wo Elon Musk die Regulierungsvorschriften einfach ignoriert nachdem was man weiß oder vielleicht auch Messengerdienste wie Telegram, wo es auch sehr schwierig ist, überhaupt nachzuvollziehen, welche Inhalte dort gelöscht werden. Es fällt mir schwer zu sagen, das ist jetzt weniger wichtig oder führt zu einer geringeren Verbreitung als der Journalismus. Also da kenne ich einfach tatsächlich keine belastbaren Zahlen zu, wie viele Personen beispielsweise der Bevölkerung jetzt über bestimmte Social-Media-Kanäle Desinformation erhalten. Es gibt Befragungsstudien, wo die Leute gefragt werden: Was glauben Sie, wie viel Desinformation sehen Sie? Aber das erscheint mir nicht besonders valide.
Moderator [00:17:38] Herr Jungherr vielleicht.
Andreas Jungherr [00:17:42] Ergänzend dazu. Ich glaube, was Herr Müller sagt, stimmt natürlich. Wenn wir jetzt in die USA schauen, da gibt es sehr spannende Studien von Watts und Kollegen, wo sie jetzt zum Beispiel für eine veröffentlichte Studie Zugang zu Facebook-Informationen hatten und sich angeschaut haben, welche Informationen sich wie auf Facebook zum Thema Impfung verbreitet haben. Da sehen sie, wo sie dann tatsächlich Quellen von Falschnachrichten in ihrer Reichweite neben normalen Artikeln aus normalen Medien legen und ganz deutlich zeigen, dass die Impfskepsis, die im normalen Journalismus gekommen ist, dass die mit einem wirklich sehr, sehr hohen Faktor eine höhere Sichtbarkeit erreicht hat auf Facebook als andere Studien. Und ich glaube, bei aller wissenschaftlichen Vorsicht was die Effekte und was die Reichweiteneinschätzung betrifft, sollten wir doch auch auf die Studien schauen, die es gibt, um mal eine grobe Einschätzung zu treffen. Und auch eine frühere Studie von Allen und Watts hat tatsächlich auch anhand von Trackingdaten gezeigt, dass nur 14 Prozent der "Media Diet" [des Medienkonsums] vom durchschnittlichen Amerikaner durch Nachrichten geprägt ist und nur ein Prozent dann tatsächlich von diesen Falschinformationen. Was die Größenordnung betrifft, man kann es bedauern, dass Nachrichten oder politische Informationen als solche eine sehr geringe Reichweite haben unter Menschen, die damit nicht beruflich beschäftigt sind, und davon ist dann diese Falschinformation nur noch ein ganz kleiner Teil. Bei aller Vorsicht, die vollkommen angemessen ist und und bei aller Schwierigkeit, die in den Designs ist, sollte man darüber nachdenken, ob es eine generelle Tendenz gibt. Und ich glaube, die generelle Tendenz deutet eher auf diese geringere und sehr spezifische Reichweite von Desinformationen.
Moderator [00:19:48] Danke schön. Wir haben eine Frage an Sie, Frau Schmitt. Was zeigen denn die von Ihnen erwähnten Studien, wie Desinformation wirkt? Platt gefragt: Kann Desinformation jemanden dazu bringen, bei der Wahl das Kreuz an einer ganz bestimmten Stelle zu machen? Ich würde noch gern hinzufügen: Was für Effekte kann man denn erwarten von Desinformation, also wirklich Leute umstimmen oder eher vom Wählen abhalten, generelle Skepsis und Politikverdrossenheit. Was sind da die Wirkungen?
Josephine Schmitt [00:20:17] Ganz grundsätzlich kann man erstmal sagen, dass Desinformationen tendenziell ihre Wirkung in Zeiten von politischer Unsicherheit und gesellschaftlicher Unsicherheit eher entfalten, weil einfach Menschen das Bedürfnis nach sehr klaren Weltbildern haben. Idealerweise gibt es eine ganz genaue Einteilung in Gut und Böse. Es ist diese große Herausforderung, eine Ambiguitätstoleranz mitzubringen, dass manche Dinge nicht einfach erklärbar sind. Und gerade Personen, die sich durch eine geringere Offenheit und geringeres Bildungsniveau auszeichnen oder auch Personen mit bestimmten politischen Einstellungen zeigen eine höhere Anfälligkeit für Desinformation und die Konsequenzen, die Desinformation haben. Sie wirken nicht grundsätzlich bei allen und nicht bei allen gleich, sondern das ist, was ich eingangs auch gesagt habe, eben abhängig davon, was ich als Voraussetzung mitbringe. Sie können aber dazu beitragen, wenn ich ein bestimmtes Mindset habe und bestimmte Voraussetzungen mitbringe, dass ich noch zusätzlich verunsichert werde, dass mein Misstrauen gegenüber traditionellen Nachrichtenmedien oder politischen Institutionen gestärkt wird, indem ich eben diese Desinformation akzeptiere und möglicherweise auch über soziale Medien weiter verbreite. Im Schnitt kann man sagen, dass bestimmte Voreinstellungen verstärkt werden und ich, wenn ich sonst keine AfD wähle oder denen irgendwie zugeneigt bin und eine Desinformation von denen lese, jetzt bei der nächsten Wahl AfD ankreuze, das ist relativ unwahrscheinlich.
Moderator [00:22:07] Gut. Danke schön. Vielleicht noch eine grundlegende Frage, die wir direkt mal an Herrn Müller [geben]. Ein Journalist hatte gefragt, was genau im wissenschaftlichen Sinne überhaupt Desinformation ist, was die wichtigen Merkmale sind. Vielleicht können Sie ja mal kurz in ein, zwei Minuten die Standarddefinition geben.
Philipp Müller [00:22:26] Es gibt zwei Faktoren, die besonders entscheidende Kriterien sind. Das eine ist die Falschheit der Auskunft oder der Information. Das ist etwas, wo man schon stark sortieren kann, weil viele Dinge, die so herumschwirren, vielleicht auch auf Alternativmedien-Webseiten oder in rechtspopulistischen Winkeln der Social-Media-Plattformen, die würde man vielleicht eher als Verschwörungsnarrative oder als Gerüchte, vielleicht üble Nachrede oder so etwas definieren. Aber nachweislich falsch im Sinne von: Man könnte den Gegenbeweis antreten zu einer Aussage, das wäre ein entscheidendes Kritierum, um solche [Aussagen] Desinformation nennen zu können. Wenn man genauer hinschaut, dann sind tatsächlich viele Aussagen, wenn Sie jetzt auf eine Alternativmedien-Webseite beispielsweise gehen, eigentlich gar nicht so leicht nachweislich mit Fakten zu entkräften. Also das ist das Eine. Desinformation im Gegensatz zum Missinformation würde dann nur noch eine Intentionalität bedeuten. Es gibt den breiteren Begriff Missinformation. Unter dem werden alle nachweislich falschen Informationen subsumiert und Desinformation als zusätzliche Engführung würde bedeuten, dass man davon ausgehen muss, dass der Account oder die Quelle, die die Information streut, um die Falschheit weiß und das mit Absicht tut, was natürlich auch schwer nachzuweisen ist.
Moderator [00:24:02] Wir sehen einige Probleme schon bei der Definition, was man da überhaupt darunterfassen kann und wie man das überhaupt nachweist, ist natürlich auch noch eine große Frage, die ja auch bei den Kampagnen selbst immer interessant ist. Aber das sehr aktuelle Thema ist jetzt eine Frage für Sie, Herr Jungherr. Der Einfluss von generativer KI. Da hatten wir jetzt die Frage, wie Sie grundsätzlich den Einfluss auf Desinformation einschätzen.
Andreas Jungherr [00:24:31] Ganz grundsätzlich führt generative KI dazu, dass es günstiger wird, Inhalte zu produzieren. Und da generative KI eben probabilistisch arbeitet und nicht deterministisch und nicht wahrheitsorientiert, sondern eher wahrscheinlichkeitsorientiert, haben sie da ohnehin schon eine Fehlerquelle, die potenziell reinkommt. Ich glaube, das Risiko bei generativer KI kann man auf zwei Ebenen setzen. Auf der einen Seite haben jetzt unter Umständen Akteure, die davor nicht die finanziellen Ressourcen oder das Skillset gehabt haben, um Bilder zu fälschen oder Bilder zu manipulieren, die Möglichkeit über generative KI attraktiv ausschauende Inhalte zu schaffen, die sie in ihren Netzwerken teilen können. Ob die dann immer überzeugend sind oder ob sie im Wesentlichen dafür geeignet sind -- genau wie Herr Müller es eben beschrieben hat -- dieses Geraune oder oder "wir alle wissen doch, wie die Welt läuft" und das illustriert, wie wir uns die Welt vorstellen, ob dann die Menschen tatsächlich sagen: "Ja, genau das ist passiert oder ja, das könnte passiert sein, das klingt für mich plausibel", das ist dann schwierig in der Wirkungsforschung wieder auseinanderzuziehen. Aber das, was auf alle Fälle passieren kann, ist, dass Akteure, die davor nicht in der Lage waren, eben in der Lage sind, engagierendes, interessanteres, kontroverseres, stimulierendes Material zu schaffen und in den Gruppen zu teilen. Das kann dann eine gesamtgesellschaftliche Sichtbarkeit bekommen, wenn das Ganze viral geht und aus diesen Gruppen sichtbar wird. Aber es reicht allein ja schon, wenn dieses Material innerhalb der Gruppen einen mobilisierende Faktor hat. Da würde ich aber auch sagen, das hängt jetzt nicht mit der Wahrhaftigkeit des Materials zusammen, sondern es geht einfach darum, dass generative KI hier vielen Menschen Dinge an die Hand gibt, die sie vorher selber nicht machen konnten oder die Kosten senkt. Der andere Faktor, wovor auch gewarnt wird, ist, dass generative KI Akteuren, die ein Interesse daran haben, einen Kommunikationsraum zu stören -- denken Sie an eine Situation, die sich entfaltet, wo unklar ist, was genau passiert ist; denken Sie an ein Attentat; denken Sie an einen möglichen Unfall. Da haben sie dann natürlich die Möglichkeit, mit generativer KI potenziell sehr viel Material zu schaffen, was dann gerade für Suchmaschinen hoch relevant erscheint und dann in einem bestimmten Zeitfenster eine Sichtbarkeit bekommt. Die Kollegin Danah Boyd aus den USA hat so etwas Data Voids genannt, also dass in Situationen, wo wenig Information vorliegt, aber hohes Interesse da ist, es für Manipulatoren oder an zielgerichteter Kommunikation interessierten Akteuren möglich ist, Sichtbarkeit zu bekommen, die sie alleine so nicht bekämen und generative KI kann dabei unterstützen. Ob das dann aber tatsächlich dazu führt, dass diese Informationen auch nachgefragt werden oder ob diese Informationen dann auch tatsächlich überzeugend wirken und diese Informationen auch nicht durch den etablierten Journalismus oder ein etabliertes Mediensystem einordnenbar sind, da habe ich dann auch wiederum meine Zweifel. Ich glaube nicht, dass wir es mit der generativen KI in diesem Fall mit einem Game Changer zu tun haben, sondern wir es generell mit einem Werkzeug zu tun haben, was in Kommunikation als solcher stattfinden wird.
Moderator [00:28:12] Herr Müller noch dazu und vielleicht für Sie auch die Follow-up-Frage, dass es ja jüngst diesen OpenAI-Bericht gab, der sich das angeguckt hat mit fünf Operationen, die quasi generative KI von OpenAI verwendet haben für Desinformationskampagnen. Und OpenAI hat gesagt, diese Kampagne hatte nur eine winzige Reichweite. Welche Schlüsse ziehen Sie daraus? Vielleicht können Sie da in Ihrer Ergänzung noch drauf eingehen.
Philipp Müller [00:28:39] Also vielleicht erst eine ganz kurze Ergänzung zu dem, was Herr Jungherr gesagt hat. Eine Befürchtung, die ja immer so im Raum steht bei diesen Bildfälschungen und diesen sogenannten Deepfake-Videos, ist, dass generative KI dazu beitragen kann, dass Desinformation glaubwürdiger und suggestiver wird. Dazu gibt es jetzt wiederum ein paar erste Experimentalstudien. Man hat Leute mit Desinformation konfrontiert, gezwungenermaßen sozusagen, sie zum Betrachten sozusagen genötigt und das verglichen mit rein textbasierter Desinformation. Und diese ersten Studien deuten eher darauf hin, dass der Unterschied in der Wirkung jetzt eigentlich nicht besonders groß ist -- ob ich jetzt Leuten ein Deepfake-Video zeige oder eine textliche Desinformation, die den gleichen Inhalt hat. Also auch da muss man, glaube ich, dieser Befürchtung -- es gab ja auch viel journalistischen Aufruhr, sagen wir mal, im Jahr 2023 zum Ende der Wahrheit durch generative KI -- so ein bisschen den Wind aus den Segeln nehmen. Was natürlich wiederum nicht heißt, dass jetzt sozusagen in der freien Wildbahn ein Depfake Video dann nicht vielleicht doch mehr Aufmerksamkeit generiert als eine rein textbasierte Desinformationsmeldung. Also in der Hinsicht könnte ich mir schon vorstellen, dass es die Wirksamkeit von Desinformation leicht erhöhen kann, wenn man eben auch Bild- und Videomaterial generieren kann; weil das natürlich beim Scrollen durch Newsfeeds mehr Aufmerksamkeit erzeugt als reiner Text. Zur Kommunikation von OpenAI muss man natürlich sagen, dass das grundsätzlich eine interessengeleitete Kommunikation ist. Und dass die auch schon in der Vergangenheit sehr elaboriert kommuniziert haben und sehr genau wissen, was sie tun, und durchaus ja auch eine Tendenz dazu haben, strategisch die Bedeutung von generativer KI starkzureden. Also viele Äußerungen oder Wortmeldungen auch von Sam Altman, dem CEO, in der Vergangenheit gingen eher in die Richtung, zu unterstreichen, wie groß die Gefahren sind, die mit generativer KI einhergehen. Auch so ein bisschen als Marketingtool, glaube ich, um zu zeigen, wie wichtig doch das eigene Produkt ist und wie wirkmächtig. Und ich denke, wenn man vor diesem Hintergrund diese aktuelle Expertise zu generativer KI und Desinformation betrachtet, würde ich die jetzt als gar nicht so falsch einschätzen. Also mir kommt das schon relativ plausibel vor. Man kann natürlich immer sagen, die arbeiten da mit Beispielfällen in dieser Aussendung. Haben Sie die richtigen Beispielfälle herausgesucht, gäbe es auch andere? Das lässt sich natürlich für mich auf die Schnelle auch nicht überprüfen. Aber es kommt mir jetzt nicht völlig unplausibel vor. Herr Jungherr hat ja vorhin auch schon drauf hingewiesen, dass es auch andere Studienergebnisse gibt, die eher darauf hindeuten, dass die Social-Media-Plattformen jetzt nicht komplett von Desinformation durchseucht sind. Warum sollte das jetzt bei KI-generierter Desinformation anders sein? Also das würde ich jetzt nicht als völlig unglaubwürdig einschätzen.
Moderator [00:31:56] Ja, danke erst mal für die Einschätzungen. Also ich glaube, Deepfakes, generative KI ist natürlich super spannend. Ich habe jetzt hier allerdings noch ein paar andere Fragen, die auch gestellt wurden. Deswegen würde ich erst mal zum nächsten Thema weitergehen. An Sie, Frau Schmitt: Lassen sich bestimmte Akteure identifizieren, die besonders intensiv mit Desinformationen arbeiten? Und wenn ja, mit welcher Intention?
Josephine Schmitt [00:32:19] Also bei den Intentionen geht es ja darum, einen bestimmten Diskurs zu manipulieren, Zweifel zu streuen an Dingen, die in der Welt passieren. Das kann man, glaube ich, so als allgemeine Intention festhalten. Und was wir ja sehen können, es gibt ganz unterschiedliche Akteure. Aber ich glaube, der am stärksten sichtbare -- dazu wissen vielleicht Herr Jungherr und Herr Müller noch mal mehr ist -- ist im Moment die AfD, die da viel unterwegs ist. Denn die gehört auch mit zu den Akteuren, die generative KI als neue Toolbox besonders exzessiv nutzen und zeigen, was da alles möglich ist. Nicht nur im Hinblick auf visuelle und audiovisuelle Inhalte, sondern vor allen Dingen auch auf Audioinhalte. Das wird ja auch verwendet. Und das sind, glaube ich, die, die sichtbar sind und auch durch unsere Medienberichterstattung besonders hervorgehoben werden oder immer mal wieder auffallen. Das hat jetzt mit der EU-Wahl nichts zu tun. Aber der jüngste Coup von Alice Weidel, eine gefakte Pressemitteilung von Nancy Faeser zu verbreiten, da geht es ja auch darum, Zweifel an der Kompetenz zu säen und die politischen Akteure ins schlechte Licht zu ziehen und zu sagen, die können gar nichts, warum machen die eigentlich diesen Job noch?
Moderator [00:33:52] Ja, da haben Sie auch schon ein paar interessante Aspekte genannt, die, glaube ich, eine Antwort auf die nächste Frage sein könnten. Die würde ich an Sie stellen, Herr Müller. Gibt es denn überhaupt die Gefahr, dass Desinformation Auswirkungen hat auf das Ergebnis der Europawahl? Und falls das nicht so ist, warum treiben Russland, China und so weiter da offensichtlich so einen großen Aufwand?
Philipp Müller [00:34:13] Also ich denke, was man auf jeden Fall an der Stelle berücksichtigen muss, ist, dass es kumulative Effekte gibt über einen längeren Zeitraum. Und wenn dieses permanente Grundrauschen von Desinformationsinhalten existiert, von dem ich vorhin gesprochen habe, dann verschiebt das Diskurse und Diskursgrenzen innerhalb von Gesellschaften. Und ich glaube, dass diese Strategie auch von Russland, die inzwischen ja doch relativ gut dokumentiert ist und zutage liegt, auch über finanzielle Verstrickungen mit dem Rechtspopulismus -- es ist ja nicht nur eine Einflussnahme über russische Accounts oder Trollfarmen selbst, sondern auch auf dem Weg der Förderung der innergesellschaftlichen, wenn man so will, demokratiefeindlichen Opposition -- wenn man all das zusammen zieht, dann, würde ich behaupten, ist die Hauptstrategie, langfristig Zweifel an der Demokratie zu säen, langfristig von innen heraus die Demokratie so ein bisschen zur Erosion zu bringen. Und diese langfristigen Effekte erzeugt man, indem man permanent Inhalte bereitstellt, immer wieder einspeist in ein Öffentlichkeitssystem. Und das über Jahre hinweg. Inzwischen ist es ja fast ein Jahrzehnt. Ich glaube, das jetzt mit einem Zahlenwert zu beziffern: Wenn es keine solchen Kampagnen in den letzten zehn Jahren gegeben hätte, wo stünde beispielsweise die AfD jetzt in Wahlumfragen? Das lässt sich seriös nicht machen. Aber meiner persönlichen Einschätzung nach würde sie wahrscheinlich ein paar Prozentpunkte niedriger stehen.
Moderator [00:36:16] Okay, es ist also weniger die konkrete Auswirkung auf eine Wahl als ein längerer Prozess, der vielleicht auch so ein bisschen das Vertrauen erodiert. Herr Jungherr, Sie hatten eine Ergänzung.
Andreas Jungherr [00:36:26] Ja, also ich glaube, es ist ganz wichtig, zu sehen, dass Staaten wie Russland und China ja nicht mit der Beeinflussung politischer Systeme im digitalen Raum angefangen haben. Und dass wir natürlich auch nicht den Rahmen der tatsächlichen Auswertung oder der Budgets sehen, wo da der Schwerpunkt der Einflussnahme ist. Was wir von China wissen, ist, dass China eine enorm hohe Präsenz auch von Human Intelligence zum Beispiel in Ländern wie Taiwan hat und da halt auch eben Einflussnahme stattfindet. Wir wissen aus Österreich, dass die persönlichen Verstrickungen von Parlamentariern mit Russland und die Investitionsinteressen sehr hoch sind. In Deutschland beginnt der Journalismus, in diese Richtung zu recherchieren, zeigt aber noch eine gewisse Zurückhaltung erstaunlicherweise. Also ich würde hier generell sagen, dass die Einflussnahme dieser Länder auf unsere Systeme klar gegeben ist, dass es da halt auch eine hohe Naivität, also teilweise auch eine bewusste Naivität in den letzten 20, 30 Jahren gegeben hat. Aber dass das, was wir digital sehen, eben davon nur einen Bruchteil darstellt. Wenn wir über die Einflussnahme und über die tatsächliche Wirkung dieser Maßnahmen reden wollen, müssen wir diese traditionellen Arten der Einflussnahme sehr viel bewusster in den Blick nehmen. Was es jetzt aber auch mit dem Interesse zu tun hat, tatsächlich diese Desinformationskampagnen zu steuern, da würde ich auch wieder mal sagen: Wenn wir uns die Wirkung, die direkte Wirkung dieser einzelnen Aktivitäten anschauen, dann mag die gering sein. Aber das, was eine hohe Wirkung hat, ist die ständige Berichterstattung darüber. Also denken Sie an die Berichterstattung über diese 50.000 prorussischen Accounts, die da mit unglaublicher Data-Science-Kapazität identifiziert worden sind. In der Berichterstattung dazu ging es immer nur darüber, wie viele Accounts sind das und wie viele Nachrichten haben die gepostet? Wie clever waren unsere Spürhunde, die das dann rausgefunden haben? Wir haben aber in der Berichterstattung, soweit ich weiß, nicht den Versuch gehabt, zu sagen, okay, wie viele Leute hat es tatsächlich erreicht, welche Leute hat es erreicht, wer hat das Ganze geteilt? Hat es die Agenda online beeinflusst? Hat es die Medienagenda unter Umständen beeinflusst? Wir haben nicht versucht, die tatsächliche Reichweite oder Wirkung dieser Aktivitäten einzuschätzen, sondern wir haben nur gesagt: Oh, schau mal, der geschickte Russe, wie dem hier wieder gelungen ist, unsere Systeme zu beeinflussen. Und da würde ich eben auch sagen, dass die tatsächliche Wirkung von Desinformation zur Systemdestabilisierung wahrscheinlich gar nicht in der Überzeugung der einzelnen Objekte liegt oder der einzelnen Akteure, sondern darin, dass die Medienberichterstattung und der Regulator darauf so einsteigen und dann halt eben sagen: Ah, schaut mal, wir haben hier wieder was gefunden, das ist total skandalös. Die sind alle wieder falsch informiert, wir müssen da unbedingt was tun. Der Russe hat unsere Wahl gestohlen, der Russe hat den Brexit produziert. Das führt dann natürlich dazu, dass diese Systemunsicherheitsnarrative massiv bestätigt werden. Ich glaube, dessen müssen wir uns sehr, sehr bewusst sein. Da muss sich auch der Journalismus sehr viel bewusster darüber sein, was sind denn tatsächlich begründete Risiken oder begründete Ängste, gegen die wir vorgehen müssen? Und was ist reiner Alarmismus? In einer Experimentalstudie in den USA haben der Kollege Adrian Rauchfleisch und ich gezeigt, dass alarmistische Warnungen vor Desinformation -- also die Warnung, nicht die Desinformation selber -- einen negativen Effekt auf Demokratiezufriedenheit und einen positiven Effekt auf die Unterstützung von restriktiver Regulierung gehabt haben. Das heißt also, dass die Warnungen und die stetige Berichterstattung, die rein alarmistisch ist und die Gefahren und die Kompetenzen betont, eben tatsächlich diese demokratieschädigende Wirkung haben, die wir den Desinformationen selber zuschreiben. Erfreulicher wäre eine Berichterstattung, was wir dann auch experimentell gezeigt haben, die kontextualisiert, die also sagt: Ja, wir haben Gefahren von Desinformation, aber diese Gefahren sind begrenzt, begrenzte Reichweite, begrenzte Wirkung. Also wir können über Desinformation reden, ohne die Demokratie zu gefährden. Denn wenn wir nur über Desinformation als eine Riesengefahr reden, die unsere Demokratie zerstört, dann leisten wir selber die Arbeit der Desinformatoren und erreichen eine sehr, sehr viel höhere Reichweite. Also denken Sie darüber nach, was die Tagesschau-Berichterstattung über diese 50.000 russischen Accounts oder prorussischen Accounts bewirkt hat, welche Reichweite die gehabt hat, welche Wirkung die gehabt hat, unvergleichbar größer als die Wirkung dieser Accounts selber. Und dann haben Sie die Erklärung, warum Russland und China in so etwas investieren. Weil sie darauf setzen, dass wir selber, dass unsere Systeme selber diese Aktivitäten verstärken und damit das Vertrauen in unsere Systeme unterhöhlen.
Moderator [00:41:06] Ja, das ist auch ein sehr wichtiger Punkt, vielen Dank. Eine Frage noch an Sie, Frau Schmitt, die so ein bisschen auch ein Follow-up zu dieser aktuellen Diskussion über die Messung und Wirkung von Desinformation ist. Wenn Desinformation so schwer zu messen und nachzuweisen ist, wird der Begriff teilweise auch als Kampfbegriff gegen politische Gegner gebraucht?
Josephine Schmitt [00:41:27] Ja, weil der jetzt anlässlich der EU-Wahlen auch viel verwendet wird und ihm medial auch viel Bedeutung beigemessen wird, ist das auch wieder ein Kampfbegriff, um den Gegner zu diskreditieren. Dem würde ich an der Stelle schon zustimmen, dass das so ist. Und dass es schwer zu messen und nachzuweisen ist, das ist ja gar nicht Gegenstand unserer Berichterstattung. Oft wird ja suggeriert, es hat eine große Auswirkung, es hat eine Konsequenz, es wird groß gemacht, die russischen Bots und so weiter und so fort. Dieser kritische einschränkende Tonus findet ja nicht statt. Wie Herr Jungherr ja eben gesagt hat, man kann darüber berichten, ohne dass das Ganze zu einer riesengroßen Geschichte und Welle wird. Und das ist eben die Verantwortung des Journalismus, das eben auch entsprechend einzuordnen und das auch deutlich zu machen. Aber auch das adressiert ja wieder diese Ambiguitätstoleranz. Man muss es aushalten, dass es eben nicht klar ist, dass es eben nicht einfach ist, dass man nicht genau sagen kann, es hat diese Wirkung. Und man muss trotzdem vorsichtig sein. Und so ist letztlich der Journalismus. Wenn es um Klicks geht, muss es manchmal ja auch einfacher sein. Da zu sagen, dass es das eine und das andere gibt, das ist natürlich die große Herausforderung. Und die Zusammenhänge, die komplexen Zusammenhänge auch genau in dieser Komplexität darzustellen, das ist in dem Zusammenhang dann natürlich auch notwendig.
Moderator [00:43:15] Eine weitere Frage, die ich auch noch direkt an Sie stellen möchte, Sie müssen ja pünktlich um eins los. Bei den anderen hoffe ich, dass wir noch ein, zwei Minuten überziehen können. Sie hatten das eben schon angedeutet mit der Nancy-Faeser-Geschichte, mit der Fake-Pressemitteilung. Gibt es da aktuelle Desinformationskampagnen zur Europawahl, die Sie beobachten? Und gibt es eigentlich auch innerhalb der EU Unterschiede im Level der Verbreitung von Desinformation? Also findet das in manchen Ländern mehr oder eher weniger statt?
Josephine Schmitt [00:43:46] Ob es in manchen Ländern mehr oder weniger stattfindet, dazu kann ich nichts sagen. Vielleicht können die anderen beiden mehr zu der Verbreitung sagen. Damit sich Botschaften verbreiten und auch Anklang finden bei Menschen, müssen die für die Person relevant sein. Und insofern sind Desinformationskampagnen schon auch sehr konkret auf einen bestimmten Länderzusammenhang gerichtet. Also wir werden keine Desinformationskampagnen über andere europäische Länder erleben oder sie sind für uns nicht von Bedeutung. Denn letztlich geht es eben darum, den eigenen Kontext in den Fokus zu rücken, damit es Bedeutung hat für die Menschen. Ich bin in den letzten Tagen sehr viel über das mecklenburg-vorpommersche Dorf gefahren und hab da viele, viele Wahlplakate gesehen. Ich weiß nicht, ob man es so gut als Desinformation einordnen kann. Aber es adressiert auch so ein bisschen die Frage nach nicht digitaler Desinformation, dass da ja auch viele Aspekte aufgegriffen werden. Mir ist da auch wieder nur die AfD und gestern in Thüringen auch die "Heimat" aufgefallen, die dafür geworben hat, mehr Wohnraum zu schaffen durch Remigration. Und ich finde, in Thüringen, einem Land, was jetzt nicht überbevölkert ist und wo es wahrscheinlich auch nicht viele Menschen gibt, die dort unter den Gedanken der Remigration fallen, fand ich das auch ein interessantes Beispiel dafür, eben mit solchen Bildern zu arbeiten, die wieder Unsicherheit bei den Menschen hervorrufen, Bedeutung für sie haben, weil das nämlich genau ihren Lebenskontext und ihre Lebenswelt adressiert, aber doch relativ weit weg ist von der Wahrheit und den tatsächlichen Lebensumständen der Menschen in den Ländern.
Moderator [00:45:49] Ja, da haben Sie ja direkt noch eine weitere Frage aufgegriffen. Das ist ja perfekt. Herr Jungherr, Herr Müller fallen Ihnen noch irgendwelche aktuellen Kampagnen ein, auf die man jetzt gerade achten sollte? Da ist auch viel die Rede von dieser Doppelgängerkampagne, die zur Wahl wieder aufgekommen ist. Wirkt jetzt nicht so ... Dann würde ich mit der nächsten Frage weitermachen. Die geht jetzt auch erst mal an Herrn Müller. Falls die Antwort länger dauert, erst noch mal vielen Dank, Frau Schmitt, falls Sie gleich direkt los müssen. Danke, dass Sie da waren. Dann zu Herrn Müller. Wie würden Sie denn den Unterschied in der Relevanz von Desinformation aus Deutschland gegenüber internationaler Desinformation sehen? Was spielt da vor allem in Bezug auf Wahlen in Deutschland die größere Rolle?
Philipp Müller [00:46:41] Also ich glaube, vor dem Hintergrund ist es ein wichtiger Hinweis von Frau Schmitt vorhin gewesen, dass natürlich jedes politische System Spezifika hat in den vielleicht auch traditionellen Themen, die innerhalb des Diskurses besonders stark aufgeladen sind, die die Bevölkerung wachrütteln können, und dass deswegen Desinformation, die national zugeschnitten ist, erst einmal erfolgsversprechender scheint. Gleichzeitig gibt es aber auch Hinweise aus Studien aus der vergangenen Europawahl, dass teilweise Desinformationsbotschaften, die dann auch auf russische Akteure zurückgeführt wurden, in verschiedenen Sprachen eingesetzt wurden und tatsächlich auch, einfach eins zu eins übersetzt, in verschiedenen nationalen europäischen Kontexten gelaufen sind. Also dieses Muster scheint es schon zu geben, darauf gibt es Hinweise in den Daten. Ich denke aber auch, dass natürlich auch internationale oder unterhalb der staatlichen Oberfläche arbeitende ausländische Einflussversuche natürlich versuchen, eine Regionalisierung der Botschaften zu erreichen. Indem man die tatsächlich vor Ort produzieren lässt von regional arbeitenden Influencern beispielsweise, die man da finanziell unterstützt. Oder indem man sie selbst produzieren lässt in irgendwelchen Contentfabriken und sie dann auf den jeweiligen Länderkontext zuschneidet. Und auch da fällt es dann oft bei der Untersuchung solcher Inhalte nicht so ganz leicht, die zu attribuieren und genau zu sagen, dieser Desinformationsinhalt kommt jetzt daher, das ist jetzt ein russischer und das ist jetzt ein deutscher Desinformationsinhalt gewesen; eben weil es auf verschiedenen Ebenen diese Verstrickungen gibt, beispielsweise auch alleine im Bereich der Finanzierung.
Moderator [00:48:52] Genau. Perfekt. So, Frau Schmitt ist schon raus. Danke schön. Herr Jungherr, ich habe an Sie noch eine Frage. Die Forschung zeigt ja, das hatten Sie ja eben auch schon angesprochen, dass die Posts auf sozialen Medien weniger verfangen als zum Beispiel Berichterstattung von traditionellen Medien. Journalistische Medien müssen natürlich auch über Themen von gesellschaftlichem Interesse berichten. Das führt dann ja auch oft dazu, dass zum Beispiel suggestive, aber nicht faktisch falsche Aussagen von Politikern verbreitet werden, die dann am Ende trotzdem eine "desinformierende" Wirkung entfalten. Wie kann man dem denn überhaupt beikommen? Also das Interesse an einer sinnvollen Desinformationsberichterstattung gegenüber dem Bedarf an Information, wie kann man das abwägen?
Andreas Jungherr [00:49:55] Also ich glaube, wenn wir über Desinformation als ein kommunikatives Werkzeug reden oder ein gesellschaftliches Phänomen, dann kann man in der Berichterstattung klar darauf hinweisen: Ja, wir sehen diese Kampagnen, ja, wir sehen Akteure in diesen Kampagnen. Es gibt gesellschaftliche Akteure, die versuchen, das aufzuarbeiten. Aber gleichzeitig gibt es eben Fragen. Und gleichzeitig gibt es Anzeigen, dass die Wirkung vielleicht nicht ganz so ist, wie man sie dann erwartet. Also ich glaube, die wissenschaftliche Lage oder die Befundlage ist ja vorhanden. Also da gibt es eine ganze Menge, was dazu publiziert ist, nicht notwendigerweise nur auf Deutsch. Also da ist es der Berichterstattung sehr wohl möglich, auf das Phänomen hinzuweisen und eben auch die Wirkung des Phänomens einzuordnen. Nur weil was ist, heißt es noch nicht, dass es eine Wirkung hat. Und ich glaube, darüber kann man reden und das kann man einordnen. Wenn es jetzt um die Rolle von Politikerinnen und Politikern geht, ich glaube, das ist eine sehr wichtige Frage, gerade im Umgang mit Donald Trump, die sich dort die US-Medien gestellt haben. Ich glaube, auch da gibt es wahrscheinlich graduelle Arten damit umzugehen. Es ist ja sehr wohl möglich, eben dann eine Politikerin oder einen Politiker zu Wort kommen zu lassen, wenn das eben ihrer Funktion als solcher entspricht, und dann andere Politikerinnen und Politiker zu Wort kommen zu lassen, die das Ganze einordnen oder kontextualisieren oder die diese Information dann auf ihren faktischen Bezug in den Kontext setzen. Und da muss man auch sagen, wenn wir über Donald Trump nachdenken, gerade in der frühen Berichterstattung über Donald Trump in der Primary Kampagne haben die Medien sich bewusst entschieden, Donald Trump als einen relevanten Kandidaten zu behandeln. Was dann letztlich ja dazu geführt hat, dass der Vorwahlkampf sehr stark beeinflusst worden ist. Da wären durchaus Möglichkeiten gewesen, Trump anders zu kontextualisieren. Aber dadurch, dass man permanent auf dieses Thema aufgesprungen ist, weil er auch Quoten und Klicks gebracht hat, hat man da dann eben unter Umständen diese Selektionsmöglichkeiten, die einem gegeben worden sind, nicht genutzt. Später, während der Präsidentschaft, ist dann natürlich der Freiraum deutlich kleiner, weil dann natürlich jedes Mal ein Nachrichtenwert mit einer kontroversen Aussage verbunden ist. Aber auch da würde ich sagen, wir sind aktuell in so einer Phase -- was auch meine Sorge ist, wenn wir permanent über Desinformation reden -- wo wir Bürgerinnen und Bürgern immer weniger zutrauen. Also wir sprechen letztlich darüber, dass die Bürgerinnen und Bürger nicht in der Lage sind, aus einer Informationen was rauszulesen, die einzuordnen. Sondern dass sie so einfach zu manipulieren sind, so einfach zu verführen sind. Ich glaube, was die Kollegen aus der Klimakommunikation Ihnen mitteilen werden, die seit 30 Jahren versuchen, auf die Gefahren des Klimawandels hinzuweisen, ist, dass die Bürgerinnen und Bürger relativ informationsresilient sind, also dass die Wirkung von Informationen eben doch nicht ganz so einfach ist, wie wir es häufig vermuten. Ich glaube, das Kernproblem ist, dass wir es eben mit Interessenlagen in der Gesellschaft, mit Konflikten in der Gesellschaft und mit einen zunehmenden Druck auf die Gesellschaft zu tun haben, was dann dazu führt, dass eben diese Fragmentierung in der Gesellschaft oder der Konflikt deutlicher wird, dass Menschen dafür anfälliger werden und dann eben auch Narrative wiederholen, die da reinspielen. Aber dann liegt die Ursache für unsere Probleme nicht notwendigerweise in der Information, sondern die Information ist ein Symptom, das zeigt uns letztlich, dass hier etwas auseinandergegangen ist, dass wir gesellschaftlich hier eingreifen müssen oder dass wir gesellschaftlich adaptieren müssen. Und das Problem ist dann nicht, dass diese Information plötzlich zugänglich war und dann eine Meinung geändert hätte.
Moderator [00:53:55] Ja, vielen Dank. Eine Frage hätte ich noch, und dann ist im Chat auch gerade eine gute Abschlussfrage gekommen. Herr Müller, worauf sollte man sich bei der Berichterstattung denn jetzt eigentlich fokussieren? Was sind zum Beispiel wichtige Faktoren, wenn die Wirkung so schwer nachzuweisen ist? Man liest ja oft Angaben, wie: "Diese Anzeigen wurden auf Facebook 200 Millionen Mal gezeigt." Das ist erst mal eine sehr hohe Zahl, dann vermutet man automatisch auch irgendwie eine hohe Wirkung, die aber vielleicht nicht immer gegeben ist. Denn es geht ja auch darum, wie oft wird es gesehen, wie wirkt es dann wirklich. Und nicht nur, wie oft wurde es irgendwo im Facebook Feed angezeigt. Was würden Sie sagen, worauf sollte man sich da fokussieren?
Philipp Müller [00:54:34] Ich denke, es ist wichtig, und das wurde jetzt schon mehrfach gesagt, diesen Alarmismus nicht in den Vordergrund zu rücken. Also wenn man über das Phänomen auf einer übergeordneten Metaebene berichten will, dann ist es natürlich verlockend, solche Zahlen zu erwähnen. Gleichzeitig sollte man dann aber vielleicht auch die Studien zur Kenntnis nehmen, die methodisch vielleicht ein bisschen anders vorgehen und nicht gucken, wie viele Posts finde ich denn, wenn ich auf eine Social-Media-Plattform gehe, die jetzt vielleicht falsch informiert, sondern, ich hab's jetzt auch selbst schon mehrfach gesagt: schwierige Datenlage, aber doch, da hat Herr Jungherr ja durchaus recht, es gibt schon empirische Hinweise darauf, wie viel Desinformation kommt tatsächlich bei Menschen an und bei wie vielen Menschen. Dann ist das Problem jetzt doch nicht so frappierend. Und das sollte man, glaube ich, dann durchaus abwägen, gegeneinander in Opposition stellen. Eine andere Frage ist vielleicht, wann sollten Journalistinnen und Journalisten einzelne Falschmeldungen sozusagen debunken, nachrecherchieren? Da hat natürlich die Forschung der letzten Jahre gezeigt, dass die Effekte von Debunking jetzt nicht allzu groß sind, die man sich erhoffen darf; im Sinne von, dass da wirklich Leute, die einer Falschinformation Glauben schenken aufgrund ihrer persönlichen politischen Voreinstellungen oder ihrer grundsätzlichen Empfänglichkeit, dass die jetzt komplett wieder überzeugt werden können. Dennoch würde ich sagen, wenn Falschmeldungen im Raum stehen, von denen man durchaus den Eindruck hat, dass die viel Aufmerksamkeit erhalten, dann kann so eine Debunking-Berichterstattung jetzt auch nicht so sehr schaden. Es gab mal irgendwie diesen Backfire-Effekt in der Forschungsliteratur als Vermutung. Also je häufiger ein Debunking irgendwo platziert wird, um so stärker ist dann eigentlich der schädliche Effekt der Desinformation, über die da aufgeklärt werden soll. Das hat sich jetzt in den letzten Jahren in den Studien relativiert. Also so viel Schaden kann man mit Debunking nicht anrichten. Und ich würde denken, dass Debunking, Aufklärung einfach auch ein bisschen dazu beiträgt, dass die Mehrheitsgesellschaft, die ja immer noch den meisten Desinformationsinhalten negativ gegenübersteht, trotzdem weiterhin ihre Diskurshoheit behält, also sozusagen auch als Rückbestätigung derjenigen, die eben Desinformationen nicht glauben. Schon allein dafür hat das einen demokratischen Wert, dass Debunking betrieben wird.
Moderator [00:57:24] Ja, Sie hatten eben eine gute Überleitung geliefert. Sie hatten gesagt, das Problem ist nicht so frappierend. Das führt jetzt ganz gut zur letzten Frage, die ich gerne an Sie beide stellen würde, beginnend mit Herrn Jungherr. Kann man also unterm Strich sagen, Desinformation wird die Europawahl nicht beeinflussen?
Andreas Jungherr [00:57:41] Ich würde sagen, digitale Desinformation wird die Europawahl nicht beeinflussen. Inwieweit jetzt die vermuteten oder nachgewiesenen Verstrickungen von Russland mit dem europäischen Rechtspopulismus dann Einfluss darauf haben, da wäre ich jetzt nicht ganz so gelassen.
Moderator [00:58:00] Herr Müller?
Philipp Müller [00:58:01] Ich würde mich dem anschließen, will aber trotzdem noch mal den Gedanken repetieren, dass natürlich digitale Desinformation jetzt seit Jahren in unsere öffentliche Arena eingespeist wird und dass es sehr, sehr schwer ist, jetzt den Nachweis zu führen, dass diese jahrelange Beeinflussung am Ende dieses Wahlergebnis nicht doch in einer gewissen Weise beeinflusst. Dafür müsste man ein Experimenten in kontrolliertem Setting haben, wo man die letzten zehn Jahre einmal komplett ohne digitale Desinformation durchlaufen lassen könnte. Das ist natürlich völlig unrealistisch. Aber ich stimme zu, ich erwarte auch keine kurzfristigen massiven Kampagnen, die jetzt komplett die aktuelle Umfragesituation noch mal massiv in irgendwelche anderen Richtungen drehen würden. Das halte ich für unrealistisch.
Moderator [00:58:54] Ja, vielen Dank. Dann ist die Zeit auch vorbei. Wir haben ein bisschen überzogen. Danke, dass das geklappt hat. Erst mal vielen Dank an Sie beide und an Frau Schmitt natürlich auch, dass Sie heute dabei waren. Vielen Dank auch an die Journalistinnen und Journalisten für die vielen Fragen. Heute werden wir die Aufzeichnung so schnell wie möglich auf unsere Homepage stellen. Voraussichtlich morgen gibt es da dann auch das Transkript. Falls Sie die Audioaufzeichnung, die Videodatei oder heute schon das maschinell erstellte Transkript haben wollen, dann findet sich in der Reminder-Mail, die Sie heute Morgen bekommen haben, ein Link. Darüber können Sie darauf zugreifen. Dann noch vielen Dank für Ihre Zeit. Ich wünsche Ihnen noch einen schönen Tag und auf Wiedersehen.

