Wirkung von Desinformation in Kriegen
künstliche Intelligenz vereinfacht Erstellen und Verbreiten von Desinformationen – das zeigt sich auch in aktuellen Konflikten und Kriegen
Berichterstattung wird zur Herausforderung, weil Informationen nicht vorhanden oder schwierig zu überprüfen sind
Expertinnen: Kriegsparteien wiederholen und dekontextualisieren Informationen, etwa um zu verunsichern – journalistische Medien sind als Gegenstimme wichtig; soziale Medien und KI vereinfachen Verbreitung von Desinformation
Kriege werden nicht nur auf dem Schlachtfeld geführt, sondern auch medial: Verschiedene Akteure verbreiten gezielt Desinformationen – in Form von unwahren Aussagen oder manipulierten Bildern und Videos. Es scheint, als hätten diese Informationskriege mit dem Voranschreiten künstlicher Intelligenz (KI) eine neue Stufe erreicht: Generative KI-Modelle ermöglichen es, Inhalte fernab der Realität niedrigschwellig und kostengünstig zu erstellen und zu verbreiten.
Journalistische Nachrichtenmedien haben mittlerweile Strategien zum Umgang mit Desinformationen entwickelt. In Kriegen ist die Informationsverfügbarkeit allerdings begrenzt. Die Unterscheidung zwischen Fakten und Falschbehauptungen kann hier auch für professionelle Redaktionen schwierig sein. Zuletzt waren unechte, manipulierte Bilder auch in deutsche Medien gelangt, aber nach Bekanntwerden der Manipulation umgehend entfernt worden. Zu sehen waren zum Beispiel ein virtuell bearbeiteter Flugzeugträger und eine vermutlich KI-generierte iranische Straße nach einem Raketeneinschlag [I] [II].
Professorin für Digitalisierung und Öffentlichkeit, Institut für Kommunikationswissenschaft, Friedrich-Schiller-Universität Jena
„Für aktuelle Konflikte wie den Ukrainekrieg zeigt die Forschung recht klar, dass vor allem staatliche und staatsnahe Akteure zentrale Treiber sind. Studien zu russischen Medien und Social Media belegen, dass Narrative strategisch in mehreren Sprachen verbreitet und an unterschiedliche Zielregionen angepasst werden [1] [2]. Inhaltlich reicht das von klassischen Falschbehauptungen bis zu visuell aufbereiteten Inhalten.“
„Wichtig ist: Viel Desinformation basiert nicht auf komplett neuen Inhalten, sondern auf der Umdeutung, Auswahl oder Kontextverschiebung vorhandenen Materials. Das gilt gerade für Bilder und Videos [3]. Für neuere Konflikte wie den im Kontext des Iran gibt es bislang noch wenig systematische Forschung. Erste Beobachtungen deuten aber auf ähnliche Muster hin.“
„Zum Thema Dekontextualisierung von Bild- und Videomaterial gibt es zahlreiche Beispiele auf den Webseiten von Faktencheckern, unter anderem aus dem Gaza-Krieg, der Ukraine oder dem Iran.“
„Ziel von Desinformation ist in der Regel weniger, Menschen kurzfristig zu überzeugen. Es geht eher darum, Unsicherheit zu erzeugen und bestehende Einstellungen zu verstärken. Die Forschung zeigt, dass Desinformation vor allem indirekt wirkt. Beispiele hierfür sind Wiederholungen, emotionale Narrative oder die Erosion von Vertrauen in Institutionen [4].“
„Gleichzeitig zeigen vergleichende Umfragedaten aus dem Kontext des Ukrainekriegs, dass viele Menschen durchaus in der Lage sind, falsche von zutreffenden Informationen zu unterscheiden. Die Wirkung von Desinformation ist also stark kontextabhängig und hängt unter anderem von (Medien-)Vertrauen und Ideologie ab.“
„Was sich durch künstliche Intelligenz (KI) verändert hat, ist vor allem die Geschwindigkeit und Reichweite der Verbreitung der Desinformationen. KI spielt etwa bei der Produktion synthetischer Inhalte oder bei der Anpassung von Botschaften an verschiedene Zielgruppen eine Rolle [5].“
„Die New York Times hat kürzlich eine Recherche zum Einsatz von KI-generierten Inhalten im Irankrieg veröffentlicht [6]. Die aktuelle Forschung zeigt aber auch, dass spektakuläre Deepfakes bislang nicht der dominante Faktor sind. Häufiger sind einfachere Formen visueller Desinformation, die sich gut in bestehende Narrative einfügen. Dazu zählen etwa dekontextualisierte oder neu gerahmte Bilder und Videos [3].“
„Journalistische Medien sind zentral für die Einordnung und Korrektur von Desinformation, gerade über längere Zeiträume. Gleichzeitig zeigt die Forschung, dass Desinformation meist nicht über einzelne Inhalte wirkt, sondern eher schleichend: durch Wiederholung und durch Anschluss an bestehende Überzeugungen [4]. Studien aus dem Kontext des Ukrainekriegs zeigen zudem, dass visuelle Desinformation für Journalist:innen eine besondere Herausforderung darstellt. Denn sie ist oft schwer zu verifizieren und zirkuliert schnell. Hinzu kommt: Maßnahmen gegen Desinformation können zwar falsche Überzeugungen reduzieren, gleichzeitig aber auch zu mehr genereller Skepsis gegenüber Informationen führen [7].“
Wissenschaftliche Koordinatorin, Center for Advanced Internet Studies (CAIS), Bochum
„Desinformation kann Teil hybrider Kriegsführung sein. Mit Blick auf Russland sind es vor allem staatliche und staatsnahe Netzwerke, die gezielt Desinformation im In- und Ausland streuen. Zu diesen Netzwerken zählen auch staatlich kontrollierte Medien sowie weitere ad hoc agierende Akteure. Teilweise werden sie durch automatisierte Bots gestützt.“
„Desinformation wird heute in sehr unterschiedlichen Formen verbreitet. Überwiegend findet die Verbreitung in sozialen Medien oder (teil-)privaten Messenger-Gruppen wie auf Telegram statt. Dabei spielen zunehmend auch von künstlicher Intelligenz (KI) generierte Inhalte eine wichtige Rolle. Sie enthalten unwahre Behauptungen, verzerrte Darstellungen oder emotionalisierte Kriegsbilder.“
„Darüber hinaus geht es darum, seriöse Inhalte zu diskreditieren und Fakten durch alternative Wahrheiten zu ersetzen. Die Zielgruppen sind dabei vielfältig. So steht die Manipulation der eigenen Bevölkerung ebenso im Zentrum wie die der anderen Konfliktpartei und deren Unterstützern oder Akteuren wie der Europäischen Union (EU) oder der NATO.“
„Ein besonders bekanntes Beispiel für eine koordinierte Aktion im Ausland ist die Doppelgänger-Affäre. In deren Rahmen wurden über gefälschte deutsche Nachrichtenportale prorussische Narrative in der deutschen Bevölkerung verbreitet. Dabei geht es längst nicht mehr nur um einzelne Falschmeldungen, sondern um ganze, konzertierte Angriffe auf die öffentliche Meinungsbildung.“
„Besonders wirkmächtig können Desinformation dann werden, wenn der Zugang zu verifizierten Informationen oder seriösen Nachrichten eingeschränkt ist. Das ist in vielen autoritär regierten Ländern wie Russland oder dem Iran der Fall.“
„Es gibt keine vollständige, belastbare Auswertung aller Kampagnen und sonstiger Varianten von Desinformationen. Klar ist nur die Richtung: Desinformation ist heute stärker vernetzt, visueller, schneller skalierbar und durch generative KI billiger und massenhafter produzierbar als noch vor wenigen Jahren.“
„Ziel solcher Kampagnen ist es, Narrative zu setzen, abzulenken und Unsicherheiten zu erzeugen. Sie sollen politische Debatten beeinflussen. Beispielsweise sollen sie im Fall des Russland-Ukraine-Kriegs die Unterstützung für die Ukraine schwächen, demokratische Institutionen unter Druck setzen und letztlich auch dem eigenen Machterhalt und -ausbau dienen. Darüber hinaus dient diese Desinformation dazu, politische und gesellschaftliche Spaltung innerhalb westlicher Gesellschaften und zwischen westlichen Staaten voranzutreiben.“
„Ob diese Ziele tatsächlich so konkret erreicht werden, lässt sich allerdings nur eingeschränkt beantworten. Es gibt bislang keine systematischen Studien, die die konkreten Wirkungen solcher Desinformationskampagnen in Kriegszeiten eindeutig messen. Deshalb können wir eher von plausiblen Wirkmechanismen sprechen als von klaren Erfolgsnachweisen.“
„Wir wissen aus der Forschung, dass sich falsche Informationen in sozialen Medien besonders gut verbreiten, wenn sie starke Emotionen auslösen. Das sind etwa Angst, Wut, Erstaunen oder Trauer. Gerade negative und polarisierende Inhalte werden häufiger geteilt oder kommentiert. Hinzu kommt, dass Menschen Falschinformationen eher weiterleiten, wenn diese zu den eigenen Überzeugungen passen oder in Gruppen kursieren, mit denen sie sich identifizieren.“
„Desinformation wirkt also nicht unbedingt dadurch, dass alle Menschen ihr glauben. Oft reicht es, Zweifel zu säen. Es lässt sich beobachten, dass in Deutschland die Unterstützung für polarisierende und teils prorussische Parteien wie die AfD gestiegen ist. Ob und in welchem Ausmaß das direkt auf russische Desinformationskampagnen in sozialen Medien zurückzuführen ist, lässt sich jedoch nicht eindeutig belegen.“
„Desinformation hat sich in den vergangenen Jahren deutlich verändert – sowohl in ihrer Form als auch in ihrer Verbreitung. Eine zentrale Rolle spielt dabei künstliche Intelligenz. Heute werden deutlich mehr Inhalte KI-generiert erstellt. Das sind insbesondere Bilder und Videos, die oft täuschend echt wirken und sich sehr schnell verbreiten.“
„Aus psychologischer Perspektive ist der Erfolg solcher Inhalte eng mit der Wirkungsweise visueller und emotionalisierter Kommunikation verbunden. Bilder und Videos erzeugen durch ihre Anschaulichkeit und narrative Verdichtung ein hohes Maß an Aufmerksamkeit, subjektiver Plausibilität und emotionaler Beteiligung. Gerade die Vermischung moralisch stark aufgeladener Fakten mit emotionalisierter Fiktion und hohem Realismus begünstigt oft intuitive, affektgeleitete Verarbeitungsprozesse.“
„Hinzu kommt, dass Plattformalgorithmen die Reichweite solcher Inhalte oft zusätzlich verstärken. Das liegt daran, dass sie emotional aufgeladene und interaktionsstarke Beiträge bevorzugt ausspielen. Wiederholter Kontakt mit Desinformation in sozialen Medien kann zudem das Gefühl von Vertrautheit und Glaubwürdigkeit erhöhen – unabhängig davon, ob die Inhalte tatsächlich authentisch sind.“
„Desinformation ist nicht nur leichter und schneller produzierbar geworden. Sie ist auch anschlussfähiger an digitale Aufmerksamkeitslogiken. Verzerrte Darstellungen können so nicht nur Aufmerksamkeit erzeugen, sondern Wahrnehmungen, Erinnerungen und gesellschaftliche Deutungsrahmen nachhaltig beeinflussen.“
„Seriöse Nachrichtenberichterstattung spielt eine zentrale Rolle. Denn sie ordnet Informationen ein, überprüft sie und macht Unsicherheiten transparent. Gerade darin liegt ihr Unterschied zur Desinformation: Professioneller Journalismus markiert idealerweise offene Fragen als offen, anstatt die Lücke mit scheinbarer Gewissheit zu füllen.“
„Problematisch wird es, wenn in einer Kriegssituation keine gesicherten Informationen vorliegen. Dann entsteht ein Informationsvakuum, das durch Inhalte aus sozialen Medien gefüllt werden kann – und damit potenziell auch durch Desinformation.“
„Wenn belastbare Quellen fehlen, gewinnen gerade (audio-)visuelle Inhalte an Macht, weil sie einen starken Eindruck von Unmittelbarkeit und Authentizität erzeugen. Das gilt in besonderem Maße für KI-generierte Videos oder Bilder. Sie können in solchen Situationen Wirkung entfalten, weil sie wie die einzig verfügbare Evidenz erscheinen.“
„Gleichzeitig kann die seriöse Nachrichtenberichterstattung auch unbewusst die Verbreitung von gezielt gestreuten Falschinformationen unterstützen. Das geschieht einerseits insbesondere dann, wenn sie Nachrichten nicht ausreichend überprüft. Andererseits wenn sie sensationelle und emotionalisierende Inhalte bevorzugt, um die Aufmerksamkeit des Publikums zu gewinnen. Manche Akteure veröffentlichen auch gezielt Desinformation, um die öffentliche Meinung in ihrem Sinn zu beeinflussen.“
außerordentliche Professorin am Digital Democracy Centre, Süddänische Universität, Odense, Dänemark
„Sowohl absichtliche Desinformationen als auch unabsichtliche Fehlinformationen gehören zu Kriegs- und Krisenzeiten. Bereits in einem der ersten zentralen Texte zum Krieg, der ‚Kunst des Krieges‘, beschreibt der chinesische Militärstratege Sun Tzu jede Kriegsführung im Kern als Täuschung. Desinformation ist dabei vielfältig. Das geht bei im Kern gelogenen Behauptungen oder gefälschten Bildern und Audiodaten los. Weiter geht es mit irreführenden Meta-Informationen – zum Beispiel indem Politiker*innen bestimmte Zitate zugeschrieben werden, die sie so nie gesagt haben. Und es endet mit Informationen, die wichtigen Kontext weglassen oder gezielt nur einen Teil der Ereignisse darstellen und darüber in die Irre führen.“
„Für die kriegsführenden Parteien kann es darum gehen, den Feind zu demoralisieren oder die Moral der eigenen Leute zu stärken. Es kann aber auch darum gehen, das Wohl anderer Parteien – quasi der Weltgemeinschaft – zu bewahren oder deren Wohlwollen zu erhalten. Bei den aktuellen Kriegen kommen verschiedenste geopolitische Konfliktlinien und Interessenlagen hinzu – militärische, wirtschaftliche, aber auch ideologische.“
„Die Wirkung von Desinformationen hängt von einem komplexen Zusammenspiel von Faktoren auf verschiedenen Ebenen ab: etwa von wem der Inhalt kommt und wer ihn wann konsumiert. Aber auch davon, in welchen Gruppen diese Person sich bewegt, welche Medien genutzt werden und wie die politische und soziokulturelle Situation ist. Also beispielsweise, ob es Bürger*innen in autoritären Staaten gewohnt sind, von ihrer Regierung angelogen zu werden und daher von vornherein misstrauisch sind. Die Wirkung hängt auch davon ab, ob es zuverlässige Informationen aus unabhängigen Medien gibt [8].“
„Oft ist es nicht der größte Teil der Bevölkerung, der überhaupt Desinformationen sieht, geschweige denn glaubt [9]. Aber das heißt nicht, dass man das Ausmaß unterschätzen sollte. Zum Beispiel zeigen Studien, dass politische Verschwörungstheorien das Vertrauen in politische Institutionen erschüttern [10]. Im schlimmsten Fall geht man dann nicht mehr wählen, fühlt sich noch machtloser und wird noch anfälliger für Fehlwahrnehmungen [11].“
„Digitale Medien haben es viel leichter gemacht, die digitale und globale Öffentlichkeit sowie einzelne Personen zu erreichen. Neben staatlichen Akteuren können auch kleinere, möglicherweise extremistische Gruppen oder Firmen, Influencer*innen und weniger reichweitenstarke Accounts Menschen erreichen.“
„Themen wie Kriegs- und Krisenmeldungen erreichen besonders viele Nutzende. Akteure können sich diese Reichweite für eigene Ziele zunutze machen. Sie ‚reiten‘ quasi auf dem Thema ‚mit‘. Das nennt man ‚piggybagging‘. Oder sie kapern bestimmte Hashtags und nutzen sie für eigene Zwecke.“
„In Zeiten von künstlicher Intelligenz (KI) sehen wir auch zunehmend gefälschte Bilder und Audiodateien. Aber es braucht keine KI: Ooft werden Inhalte einfach aus dem Kontext gerissen oder Jahre später recyelt und als ‚neue Beweise‘ dargestellt.“
„Man muss ganz klar sagen: Auch demokratische Parteien nutzen KI. Das haben wir gerade im dänischen Wahlkampf viel gesehen, etwas bei KI-generierten Bildern auf Wahlplakaten. KI oder nicht ist also an sich erst mal nicht die entscheidende Frage.“
„Hinzu kommen mehr oder weniger automatisierte oder gekaufte Social-Media-Accounts, die diesen Inhalten scheinbar Popularität verleihen. Außerdem gibt es AI-Slopes, also schlecht gemachte, KI-generierte Inhalte, die das Netz fluten und damit auf KI selbst abzielen. ChatGPT, Claude oder auch Googles Gemini sind am Ende nur statistische Modelle, die auf Wahrscheinlichkeiten basieren. Wenn ich es da schaffe, dass ein substanzieller Teil aller Inhalte im Internet meine (Kriegs-)Propaganda verbreitet, verzerrt das deren Schätzung. Das passiert auch dann, wenn Menschen diese schlecht gemachten Videos direkt als unglaubwürdig abtun.“
„Seriöse Nachrichten sind zentral. Vor allem in Krisenzeiten haben sie eine wichtige Informations- und Orientierungsfunktion. Das stellt sie natürlich vor Herausforderungen. Denn Informationen zu verifizieren, dauert länger als einfach etwas zu behaupten. In einer gerade abgeschlossenen und noch nicht begutachteten Studie, die wir in Österreich durchgeführt haben, sehen wir: Die Bevölkerung wünscht sich eine unabhängige und gute Berichterstattung durch den Journalismus – auch in Kriegs- und Krisenzeiten.“
„Es bestehen keine Interessenkonflikte.“
„Ich habe keine Interessenkonflikte.“
„Keine Interessenkonflikte zu vermelden.“
Weiterführende Recherchequellen
Science Media Center (2024): Welche Maßnahmen gegen Desinformation helfen. Statements. Stand: 01.06.2024.
Science Media Center (2024): Die Wirkung von Desinformation. Statements. Stand: 16.05.2024.
Science Media Center (2024): Die Verbreitung von Desinformation. Statements. Stand: 15.05.2024.
Literaturstellen, die von den Expert:innen zitiert wurden
[1] Bradshaw S et al. (2024): Strategic Storytelling: Russian State-Backed Media Coverage of the Ukraine War. International Journal of Public Opinion Research. DOI: 10.1093/ijpor/edae028.
[2] Lai C et al. (2024): A multilingual analysis of pro Russian misinformation on Twitter during the Russian invasion of Ukraine. Nature Scientific Reports. DOI: 10.1038/s41598-024-60653-y.
[3] Hameleers M et al. (2025): The visual nature of information warfare: the construction of partisan claims on truth and evidence in the context of wars in Ukraine and Israel/Palestine. Journal of Communication. DOI: 10.1093/joc/jqae045.
[4] Broda E et al. (2024): Misinformation, Disinformation, and Fake News: Lessons from an Interdisciplinary, Systematic Literature Review. Annals of the International Communication Association. DOI: 10.1080/23808985.2024.2323736.
[5] Kuźnicka-Błaszkowska D et al. (2025): Emerging need to regulate deepfakes in international law: the Russo–Ukrainian war as an example. Journal of Cybersecurity. DOI: 10.1093/cybsec/tyaf008.
[6] Thompson SA et al. (13.03.2026): Cascade of A.I. Fakes About War With Iran Causes Chaos Online. Artikel. New York Times. Stand: 25.03.2026.
[7] Hoes E et al. (2024): Prominent misinformation interventions reduce misperceptions but increase scepticism. Nature Human Behaviour. DOI: 10.1038/s41562-024-01884-x.
[8] Frischlich L et al. (2025): The complexity of misinformation extends beyond virus and warfare analogies. Npj Complexity. DOI: 10.1038/s44260-025-00053-z.
[9] Guess AM et al. (2018): Selective exposure to misinformation: Evidence from the consumption of fake news during the 2016 U.S. presidential campaign. European Research Council.
[10] Pummerer, L et al. (2022): Conspiracy theories and their societal effects during the COVID-19 pandemic. Social Psychological and Personality Science. DOI: 10.1177/19485506211000217
[11] Frischlich L et al. (2021): Trust, democratic resilience, and the infodemic. Israel Public Policy Institute. Policy Paper.
Literaturstellen, die vom SMC zitiert wurden
[I] Spiegel-Redaktion (11.03.2026): Manipulierte Fotos in Berichten zu Iran entdeckt. Artikel. Der Spiegel online. Stand: 25.03.2026.
[II] Baig R et al. (22.03.2026): Faktencheck: Getäuscht durch gefälschte Bilder aus dem Iran. Artikel. Deutsche Welle. Stand: 25.03.2026.
Prof. Dr. Edda Humprecht
Professorin für Digitalisierung und Öffentlichkeit, Institut für Kommunikationswissenschaft, Friedrich-Schiller-Universität Jena
Angaben zu möglichen Interessenkonflikten
„Es bestehen keine Interessenkonflikte.“
Dr. Josephine Schmitt
Wissenschaftliche Koordinatorin, Center for Advanced Internet Studies (CAIS), Bochum
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.“
Prof. Dr. Lena Frischlich
außerordentliche Professorin am Digital Democracy Centre, Süddänische Universität, Odense, Dänemark
Angaben zu möglichen Interessenkonflikten
„Keine Interessenkonflikte zu vermelden.“