Code des Algorithmus von X veröffentlicht
Teile des Codes veröffentlicht, der auf X für die Anzeige des „For You“ Feeds verantwortlich ist
Veröffentlichung ist wichtig für Transparenz, kann die Fragen nach der Funktionsweise des Algorithmus aber nur teilweise beantworten
Experten: Code liefert höchstens Ansätze für tiefergehendes Verständnis des Empfehlungsalgorithmus
Einige Tage nach dem angekündigten Zeitpunkt [I] hat X (ehemals Twitter) Teile des Algorithmus offengelegt [II], der bestimmt, was Nutzerinnen und Nutzern im „For You“ Feed sehen.
Im „For You“ – oder „Für dich“-Feed – werden Nutzerinnen und Nutzern nicht nur Posts der Accounts angezeigt, denen sie folgen, sondern auch Posts anderer Accounts. Dieser Feed ist die der Standard-Einstellung beim Öffnen der Plattform, man kann manuell auf den „Following“ Feed wechseln, in dem nur Posts von Accounts angezeigt werden, denen man folgt. Wie die Posts des „For You“ Feeds ausgewählt werden, ist im Detail nicht klar. Außerdem ist die Rolle der Größe der postenden Accounts, der Zahl der Likes und Reposts oder der Ähnlichkeit zu anderen Accounts, denen man folgt, unklar. Daher kam es immer wieder zu Vorwürfen gegen die Plattform. Zum Beispiel wurde kritisiert, Elon Musk würde seine persönliche Reichweite erhöhen – und auch die von Accounts, die ihm oder seinen Einstellungen nahestehen. Andersherum gab es auch Kritik, die Reichweite von Accounts, die konträre Meinungen vertreten, werde eingeschränkt.
Forschungsprofessor und Leiter des Forschungsprogramms Design vertrauenswürdiger Künstlicher Intelligenz, Center for Advanced Internet Studies (CAIS), Bochum
Prof. Dr. Breuer und Prof. Dr. Heuer haben sich gemeinsam geäußert, aber zu unterschiedlichen Aspekten.
„Twitter hat schon vor drei Jahren einen Algorithmus unter dem Titel ‚the-algorithm‘ veröffentlicht [1]. Der wissenschaftliche Erkenntnisgewinn hielt sich damals in Grenzen. Das liegt daran, dass der Algorithmus Teil eines komplexen soziotechnischen Systems ist und eine Betrachtung des Algorithmus ohne Zugriff auf die Daten und alle anderen Services um den Algorithmus herum kein volles Bild liefern kann. Meine Einschätzung ist, dass auch diese Veröffentlichung einen sehr eingeschränkten Erkenntnisgewinn liefern wird. Es gibt meiner Ansicht nach keine Garantie, dass dieser Code wirklich auf den Servern läuft. Dies ist insbesondere deshalb wichtig, weil Elon Musk in der Vergangenheit vorgeworfen wurde Änderungen am Algorithmus vorzunehmen, um seine eigenen Beiträge zu pushen – insbesondere nachdem sein Super-Bowl-Tweet schlechter als erwartet performte.“
Professor für Digitale Sozialwissenschaften, Universität Duisburg-Essen, und Leiter des Teams „Research Data & Methods“, Center for Advanced Internet Studies (CAIS), Bochum
Prof. Dr. Breuer und Prof. Dr. Heuer haben sich gemeinsam geäußert, aber zu unterschiedlichen Aspekten.
Was veröffentlicht wurde
„Veröffentlicht wurde der Code für das Empfehlungssystem (Recommendation System) hinter dem ‚For You‘ Feed auf X. Dieser basiert auf einer algorithmischen Kuratierung von Inhalten. Zur Veröffentlichung genutzt wurde die bei Enwickler:innen populäre Plattform GitHub. Neben dem Code enthält das Repository auf GitHub auch ein längeres Readme (darin erklären die Autorinnen und Autoren ihren Code auf GitHub; Anm. d. Red.), in dem Struktur und grundlegende Funktionsweise des Systems erklärt werden. Das Readme ermöglicht zumindest schon einmal eine grundlegende Orientierung. Die einzelnen Skripte sind teilweise kommentiert, aber dies scheint nicht überall der Fall zu sein. Insgesamt könnte die Dokumentation etwas umfangreicher sein. Bei Python-Bibliotheken ist es zum Beispiel üblich, eigene Webseiten mit einer ausführlichen Dokumentation und Beispielen zu erstellen. Um den Code und das System also verstehen zu können, braucht es schon tiefergreifende informatische Expertise und auch Zeit. Die Frage, wie vollständig er ist, ist schwierig zu beantworten. Selbst wenn er vollständig wäre: Was fehlt, sind Daten, um das System zu testen. Das kann man ein wenig analog zu großen Sprachmodellen (LLMs) sehen, die als ‚offen‘ bezeichnet werden. Da sind in aller Regel auch nur die Gewichte offengelegt (sogenannte ‚open-weights models‘), nicht aber die Trainingsdaten. Um wirklich empirisch Fragen zum ‚For You‘ Feed auf X zu klären, bräuchte es auch Zugang zu den Daten. Und da gab es ja unter Elon Musk einen gegenteiligen Trend: Vormals offene APIs (auch Programmierschnittstelle genannt, ermöglicht Nutzenden die Einbindung von Sprachmodellen in eigene Anwendungen; Anm. d. Red.) für die Forschung wurden geschlossen.“
Zur Funktionsweise des Rankings der Posts im „For You“ Feed
„Allein durch die Durchsicht des Codes lassen sich konkrete Fragen nach dem Ranking von Posts wahrscheinlich nur in sehr begrenztem Umfang beantworten. Einerseits braucht es dazu Zugang zu den Daten. Andererseits wird der Algorithmus sicherlich regelmäßig aktualisiert beziehungsweise verändert. Wann, wie und warum das passiert, wird auch durch die Offenlegung des Quellcodes nicht nachvollziehbar.“
Aspekte, die man erst nach tieferer Analyse des Codes beurteilen kann
„Das Empfehlungssystem hat natürlich eine gewisse Komplexität – auch wenn Elon Musk es in seinem Post auf X als ‚dumb‘ bezeichnet – und die Dokumentation ist nicht so ausführlich wie sie sein sollte, um Analysen möglichst einfach zu ermöglichen. Ich würde schätzen, dass es für eine tiefergehende Analyse schon ein paar Arbeitstage von erfahrenen Entwickler:innen oder Informatiker:innen braucht. Allerdings könnten hier sicher unterstützend auch LLM-basierte Tools wie Claude oder GitHub Copilot zur Analyse eingesetzt werden. Eine zentrale Frage ist jedoch auch, wie lohnenswert eine solche Analyse ist, wenn der Zugang zu Daten fehlt und der Algorithmus regelmäßig angepasst wird.“
Einschätzung des Veröffentlichungsprozesses insgesamt
„Ich würde die Veröffentlichung insgesamt eher als ‚PR-Stunt‘ beurteilen. Vor alle, wenn man sich den Post von Elon Musk dazu anschaut. Transparenz klingt immer gut im Sinne von ‚wir haben nichts zu verstecken‘. Analog zur bekannten Strategie des Greenwashing kann man in solchen Fällen auch von ‚Open-Washing‘ sprechen. Natürlich ist Musk mit dieser Entscheidung in gewisser Weise vorgeprescht und legt etwas offen, was zum Beispiel Facebook nicht offenlegt. Aber bei wirklich offenen Plattformen wie Mastodon und Bluesky liegt nicht nur der Code offen. Sondern die Struktur der Netzwerke sowie ihre Governance sind vollkommen anders und tatsächlich auch offen – beziehungsweise zumindest deutlich offener. Wichtigere Fragen als diejenige nach dem Code für einen Empfehlungsalgorithmus für einen bestimmten Feed sind zum Beispiel solche nach dem Umgang mit Nutzendendaten oder der Bekämpfung von Misinformation und Hate Speech. Von solchen Fragen kann eine ostentativ zur Schau gestellte Offenheit beim Empfehlungsalgorithmus zumindest eine Weile ablenken – ebenso von Themen wie den finanziellen und politischen Verflechtungen von X und Elon Musk.“
Professor für Data Science, Universität Mannheim
Was veröffentlicht wurde
„Bei dem veröffentlichten Code handelt es sich um ein klassisches Empfehlungssystem. Es führt anhand von bisherigen Nutzer*innen-Interaktionen für eine große Menge von Postings ein sogenanntes ‚Scoring‘ durch. Das bedeutet, es wählt diejenigen Postings aus, die ein*e Nutzer*in zu sehen bekommt. Laut dem Unternehmen ist dies der Code, der auch produktiv auf der Plattform X eingesetzt wird. Problematisch ist, dass zwar der Code veröffentlicht wurde, nicht aber alle Parameter, die im Produktionssystem gesetzt sind. Auch werden für einige zentrale Funktionalitäten sogenannte ‚externe Dienste‘ verwendet, die nicht mit veröffentlicht wurden. Damit ist die Veröffentlichung für die Frage, warum bestimmte Postings im ‚For-You‘ Feed ausgespielt werden, nur bedingt aussagekräftig.“
Zur Funktionsweise des Rankings der Posts im „For You“ Feed
„Die genauen Formeln, die dem Scoring zugrunde liegen, sind in der Veröffentlichung nicht enthalten. Der Code enthält mehrere Stellen, an denen gesagt wird, dass Teile ‚aus Sicherheitsgründen‘ nicht veröffentlicht wurden. Es gibt allerdings Anzeichen dafür, welche Merkmale von Postings im Code extrahiert werden – zum Beispiel ob ein Posting von einem bezahlten Account stammt. Es ist daher plausibel anzunehmen, dass diese Merkmale auch in die Auswahl der Postings eingehen, die letztlich im ‚For You‘ Feed angezeigt werden. Das würde demnach bedeuten, dass Postings von bezahlten Accounts mehr Reichweite erhalten. Auffällig ist, dass der vor gut drei Jahren eingeführte ‚Community Notes‘ Mechanismus offenbar keinen Eingang in das Scoring findet. Mit ihm können Nutzer*innen fehlerhafte und irreführende Inhalte markieren und mit Kontextinformationen versehen. Das heißt, dass eine solche Markierung gerade nicht dazu führt, dass die Inhalte seltener ausgespielt werden. Dafür, dass seitens X eine gezielte Auswahl von beispielsweise politisch erwünschten und unerwünschten Inhalten erfolgt, lassen sich anhand des publizierten Codes jedoch keine Hinweise entdecken.“
Aspekte, die man erst nach tieferer Analyse des Codes beurteilen kann
„An vielen zentralen Stellen – zum Beispiel bei der Berechnung der Wahrscheinlichkeit, mit der Beiträge im ‚For You‘ Feed erscheinen – wird ein KI-Modell der X-eigenen KI Grok verwendet (ein Sprachmodell ähnlich wie ChatGPT). Die Entscheidungen dieser KI sind nicht transparent. Man müsste tiefergehende kontrollierte Experimente mit dieser KI durchführen, um zu verstehen, welche Faktoren die Entscheidungen der KI beeinflussen. Solche Experimente wären relativ zeitaufwändig durchzuführen. Allerdings stellt X mit dem publizierten Code nur eine ältere Version von Grok bereit. Das ist nicht diejenige, die produktiv im Einsatz ist, sodass solche Experimente auch nur bedingt Rückschlüsse auf die tatsächliche Wirkweise der Plattform X zulassen würden.“
Einschätzung des Veröffentlichungsprozesses insgesamt
„Insgesamt findet sich im veröffentlichen Code wenig Überraschendes. Letztlich ist der ‚For You‘ Feed ein klassisches Empfehlungssystem, und die prinzipielle Funktionsweise solcher Systeme ist hinlänglich bekannt. Essenzielle Bestandteile sind explizit nicht Teil des publizierten Codes. Das sind zum Beispiel die Extraktion von Informationen über die Ersteller*innen von Postings oder das Filtern von unerwünschtem Content . Sondern diese Informationen sind in ‚externe Dienste‘ ausgelagert. Da auch die eingesetzte Version des an vielen zentralen Stellen verwendeten KI-Modells Grok nicht öffentlich verfügbar ist, ist der Zugewinn an Transparenz durch die Code-Veröffentlichung insgesamt bestenfalls überschaubar.“
Senior Researcher Computational Social Sciences, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), Hamburg
„Der aktuell veröffentlichte Quellcode zum Empfehlungsalgorithmus von X ist ein weniger transparenter Schritt, als man zunächst vermuten könnte. In früher veröffentlichten Versionen waren Bevorzugungen der Posts von Elon Musk und Messungen zu eher republikanischen gegenüber demokratischen Posts mit potenziellem Einfluss auf die Zusammenstellung der personalisierten ‚For You‘ Feeds der Nutzer*innen direkt ersichtlich [2] [3] [4]. In der jetzt einsehbaren Version steuert ein Transformer-basiertes Ranking-Modell auf Basis von Grok die Auswahl. Verzerrungen und Bevorzugungen für rechtsextreme Inhalte und Verschwörungstheorien sind nun nicht mehr direkt im Quellcode verankert, sondern in das Maschinen-Modell eingebaut. Dieses hat in seinem Training gelernt: Was viel Aufmerksamkeit in Form von Likes, Antworten oder Retweets erzeugt, ist potenziell interessant für Andere. Populistische und rechte Akteure erreichen einen überproportionalen Anteil solcher Interaktionen durch emotionalisierende Inhalte, Pöbeleien, toxische Sprache und Desinformation. Diese verleiten uns schnell zu Reaktionen von Zustimmung bis Empörung. Um seiner Plattform den Rechtsdrall zu verleihen, den X aktuell jeder Person offen zeigt, die sich neu anmeldet, muss Elon Musk seine Programmierer*innen gar nicht mehr anweisen, seine Weltsicht direkt in den Algorithmus zu übersetzen. Es reicht, dass seine KI gelernt hat: Was Ärger auslöst, hält die Leute auf der Plattform. Ein ausgeglichener, vielfältiger und sachlicher Diskurs, in dem Nutzer*innen demokratisch für beste Lösungen streiten, wird so nicht ermöglicht.“
Professor für Kulturen der Digitalität, Universität Paderborn
Was veröffentlicht wurde
„X hat den Quellcode der Software veröffentlicht, die Posts für den Feed eines Nutzers auswählt und bewertet. Es gibt keine Garantie, dass der veröffentlichte Code derjenige ist, der tatsächlich bei X zum Einsatz kommt. Der veröffentlichte Code wirkt aber plausibel. Der Code ist sehr gut dokumentiert. Aus dem Code ist abzuleiten, dass der ‚For You‘ Feed maßgeblich durch künstliche Intelligenz bestückt wird. Daher ist der Code nur sehr eingeschränkt geeignet, relevante Fragen zu klären, weil die KI-Modelle, die X benutzt, nicht öffentlich sind.“
Zur Funktionsweise des Rankings der Posts im „For You“ Feed
„Die zentrale Einsicht aus dem Code ist, dass der Feed maßgeblich durch sogenannte künstliche Intelligenz bestückt wird. X nennt dieses System ‚Phoenix‘. Es kommt an zwei Stellen zum Einsatz. Erstens werden damit diejenigen Posts ausgewählt, die einen Nutzer überhaupt interessieren könnten. Zweitens werden diese Posts dann mittels künstlicher Intelligenz bewertet und sortiert. Sowohl die Auswahl als auch die Bewertung von Posts geschieht also nur basierend auf Modellen, die aus Trainingsdaten erstellt wurden. Weder die trainierten Modelle noch die Trainingsdaten sind aber öffentlich zugänglich. Es ist lediglich bekannt, dass Modelle genutzt werden, die auch im KI-Chatbot ‚Grok‘ von Elon Musks Firma xAI zum Einsatz kommen.“
„Das zeigt deutlich die Grenzen von Transparenz im Zeitalter von künstlicher Intelligenz. Es ist oft gezeigt worden, dass KI-Modelle Vorurteile, Parteilichkeiten, Verzerrungen und Auslassungen aus den Trainingsdaten übernehmen oder sogar verstärken können. Das kann sowohl beabsichtigt durch gezielte Auswahl der Trainingsdaten erfolgen als auch versehentlich. Zudem sind solche Modelle dafür bekannt, immer wieder unerwartete und unkontrollierbare Ergebnisse zu liefern. Das wurde auch schon bei ‚Grok‘ beobachtet. All das ist folglich auch im Fall des ‚For You‘ Feeds denkbar, aber ohne weitere Informationen zu Modell und Trainingsdaten kann dazu eben nicht mehr gesagt werden. Es wird aber deutlich, dass X die Auswahl weitgehend unkontrolliert einer KI überlässt, deren Anfälligkeit für Vorurteile, Verzerrungen und auch für die Entwickler unkontrollierbare Ausgaben bekannt ist.“
„Es kann aus dem Quellcode entnommen werden, was die KI versucht, vorherzusagen. Das sind erwartbarerweise zum Beispiel die Wahrscheinlichkeiten, dass auf den Post geantwortet wird, er weitergeleitet wird oder dem Autor gefolgt wird. Aber auch, dass er gemeldet oder blockiert wird. Es wird aber nicht erkenntlich, aus welchen Eigenschaften diese Wahrscheinlichkeiten abgeleitet werden und auch nicht, wie relevant diese unterschiedlichen Merkmale sind.“
Aspekte, die man erst nach tieferer Analyse des Codes beurteilen kann
„Der Code ist sehr gut strukturiert und dokumentiert. Eigentlich sind also aus einer längeren Analyse keine neuen Erkenntnisse zu erwarten.“
Einschätzung des Veröffentlichungsprozesses insgesamt
„X steht unter öffentlichem Druck – insbesondere in der EU. Die hatte erst im November 2025 eine Strafe von 120 Millionen Euro verhängt, weil die Transparenzauflagen des Digital Services Act nicht erfüllt wurden. Weitere Untersuchungen laufen. Zudem wird X vorgeworfen, eine Plattform für den Rechtsruck in den USA zu sein. Die Veröffentlichung ist sicher vor diesem Hintergrund zu sehen.“
„Bei einem System, das maßgeblich auf künstlicher Intelligenz beruht, schafft die Veröffentlichung des Quellcodes aber nur wenig Transparenz, weil die Eigenschaften von trainierten Modellen und Trainingsdaten bestimmt werden. Die Eigenschaften von KI-Modellen können nicht durch das Lesen von Code abgeleitet werden, sondern sollten am besten im Einsatz des Modells beobachtet werden. Wirkliche Transparenz würde also zum Beispiel bedeuten, Wissenschaftlern und Aufsichtsbehörden umfassenden Zugang zur Plattform zu bieten, damit diese den ‚For You‘ Algorithmus im Einsatz beobachten können. Solche Zugänge über sogenannte APIs (auch Programmierschnittstelle genannt, ermöglicht Nutzenden die Einbindung von Sprachmodellen in eigene Anwendungen; Anm. d. Red.) gab es zu Zeiten von Twitter, sie wurden aber nach der Übernahme durch Elon Musk stark eingeschränkt.“
Leiter der Nachwuchsforschungsgruppe Computational Social Science, Fachbereich Synergy of Systems, Center for Interdisciplinary Digital Sciences, Technische Universität Dresden
„Der veröffentlichte Code bezieht sich tatsächlich auf den relevanten Teil, also die Auswahl der Posts und dann das Ranking für den ‚For You‘ Feed. Die generelle Struktur deckt sich auch mit dem, was man vermutet.“
Zur Funktionsweise des Rankings der Posts im „For You“ Feed
„Erst werden Posts in-network und out-of-network ausgewählt. Wobei letzteres das Interessante für den ‚For you‘ Feed ist: Hier werden Inhalte außerhalb des eigenen Netzwerks gesucht, die einem gefallen könnten. Dabei spielt die vorangegangene Historie des eigenen Verhaltens eine Rolle: Was hat man etwa angesehen oder geliked. Der Kern steckt in der Auswahl (das Erstellen von Embeddings) für UserInnen und Inhalte, welche auf dem Machine Learning Transformer ‚Phoenix‘ basieren. Der soll wiederum auf der Grok-1-Architektur basieren. Die Erstellung und Pflege des zugrunde liegenden Inhaltskorpus, aus dem Beiträge außerhalb des Netzwerks stammen, wird jedoch nicht beschrieben und scheint von einem separaten System übernommen zu werden.“
„Im zweiten Schritt, also nach der Auswahl der ‚Candidate‘-Posts, folgt ein Ranking und dann eine Auswahl der Top-Posts, die schlussendlich angezeigt werden. Für jeden Candidate-Beitrag werden 19 verschiedene Vorhersagen generiert, die die Wahrscheinlichkeiten verschiedener Interaktionssignale schätzen. Signale können Likes, Verweildauer oder ob ein Beitrag gemeldet oder stummgeschaltet wird sein. Diese vorhergesagten Signale werden dann zu einer endgültigen, gewichteten Punktzahl zusammengefasst. Die Beiträge mit den höchsten Punktzahlen werden den Nutzenden angezeigt. Entscheidend ist, dass die Gewichtung der Interaktionssignale in der Ranking-Phase ausdrücklich ausgeschlossen wird. So ist es unmöglich zu beurteilen, wie Sichtbarkeit und Viralität tatsächlich bestimmt werden.“
„Zusammenfassend kann man sagen, dass der veröffentlichte Code das Skelett des Algorithmus zeigt, aber entscheidende Details fehlen, um Inhaltliche Schlüsse über den ‚For You‘ Feed ziehen zu können. Vor Allem fehlen meiner Ansicht nach der Prozess zur Berechnung des Korpus und dessen Embedding für die initiale out-of-network Auswahl von Posts. Die passiert wahrscheinlich mit einem anderen System. Ebenso fehlen die Gewichtungen für das Ranking, die explizit aus Sicherheitsgründen ausgeschlossen sind. Und es fehlen die Trainingsdaten von Phoenix, welche das Nutzungsverhalten beinhalten müssten, sowie das Machine-Learning-System, das die meiste ‚Arbeit‘ leistet. Der veröffentlichte Code legt zwar das Grundgerüst des Algorithmus offen, aber wichtige Details fehlen, um Rückschlüsse auf den Inhalt des ‚For You‘ Feeds ziehen zu können. Er verdeutlicht zwar, wie das System aufgebaut ist, lässt aber offen, wie die Darstellung von Inhalten in der Praxis beeinflusst wird.“
Aspekte, die man erst nach tieferer Analyse des Codes beurteilen kann
„Mit mehr Zeit könnte man natürlich einige Details genauer beleuchten, aber da wichtige Elemente fehlen, wird auch das schwierig. Man könnte eventuell Nutzungsdaten hypothetisch simulieren und versuchen, das Verhalten von Phoenix besser zu verstehen. Das würde aber immer noch nicht den fehlenden Korpus und die Gewichtungen auflösen.“
„Mit der Veröffentlichung ist X einen kleinen Schritt in Richtung Transparenz gegangen, aber für die wichtigen gesellschaftlichen Fragen ist es leider nicht brauchbar. Man könnte jetzt mit Hilfe des Digital Services Act (DSA) versuchen, die fehlenden Elemente für die Forschung abzufragen und so weiterzukommen. Das wäre tatsächlich ein wichtiger Schritt, um endlich besser zu verstehen, nach welchen Kriterien Inhalte ausgewählt werden und wie der Algorithmus mit dem Nutzungsverhalten interagiert.“
Dieses Statement wurde in Zusammenarbeit mit Dr. Bao Truong und Norman Zidlicky erstellt, die beide mit Dr. Philipp Lorenz-Spreen am Center Synergy of Systems zusammenarbeiten.
Doktorandin im Fachbereich Informatik, Interdisciplinary Institute for Societal Computing (I2SC), Universität des Saarlandes
Was veröffentlicht wurde
„Das veröffentlichte GitHub Repository enthält den Code für den Empfehlungsalgorithmus von X für den ‚For You‘ Feed. Es dokumentiert den Weg (Pipeline), wie der Feed mit Inhalten gefüllt wird und wie die Beiträge bewertet werden. Eine vorherige Veröffentlichung verwendete fest programmierte Funktionen [1]. Im Gegensatz dazu speist die aktuelle Pipeline alle verfügbaren Beiträge und Benutzer-Metadaten in ein Grok-basiertes Transformer-Modell ein. Das sind etwa Kerndaten des Beitrags, Autoreninformationen, Videolänge oder Abonnementstatus. Das Modell sagt dann Wahrscheinlichkeit von Nutzeraktionen voraus. Die Interaktionen können Likes, Antworten, aber auch das Melden oder Blockieren von Beiträgen sein. Diese werden anschließend gewichtet, um die Beiträge zu bewerten, die dann gefiltert werden.“
„Der Code gibt jedoch keine Auskunft über die Gewichtungen (‚weights‘) des Transformer-Modells, oder die Gewichtungen, die verwendet werden, um die oben genannten Aktionswahrscheinlichkeiten zu kombinieren und eine Endpunktzahl zu erhalten, die bestimmt, was im Feed angezeigt wird. Der Code zeigt, dass Sicherheitsverstöße zum Filtern der angezeigten Beiträge verwendet werden. Aber es werden keine Informationen darüber gegeben, wie oder warum ein Beitrag so markiert wird.“
„Doch auch wenn die Gewichtungen des Modells veröffentlicht worden wären, hätte das nicht klarstellen können, ob der Algorithmus nicht ‚unbeabsichtigt‘ im Durchschnitt eine politische Partei gegenüber der anderen bevorzugt. Es könnte zum Beispiel der Fall sein, dass Anhänger einer Partei mehr bezahlte Accounts auf X haben, was mit erhöhter Reichweite verbunden ist. Oder dass Unterstützer einer Partei weniger Accounts folgen, was es wahrscheinlicher machen würde, dass diese Accounts auch im Verhältnis häufiger im ‚For You‘ Feed angezeigt werden.“
Zur Funktionsweise des Rankings der Posts im „For You“ Feed
„Wir können ableiten, welche Engagement-Metriken bei der Rangfolge der Beiträge berücksichtigt werden und welche Metadaten und Filter in diesem Prozess eine Rolle spielen. Aber wir kennen deren genaue Auswirkungen nicht. Das System berücksichtigt beispielsweise die Videolänge als Merkmal, sodass wir wissen, dass sie die Rangfolge beeinflusst. Aber das Ausmaß oder die Richtung sind nicht bekannt, da die Gewichtung nicht öffentlich ist.“
Aspekte, die man erst nach tieferer Analyse des Codes beurteilen kann
„Alle oben genannten Aussagen basieren auf einer vorläufigen Lektüre des Repositorys und seiner Dokumentation. Eine eingehendere Analyse würde wahrscheinlich mehrere Tage in Anspruch nehmen und dazu beitragen, Details der Umsetzung zu klären. Dennoch würde sie aufgrund fehlender Komponenten keine Antwort auf die zentrale Frage der Transparenz geben, warum bestimmte Beiträge in der Praxis hervorgehoben werden.“
Einschätzung des Veröffentlichungsprozesses insgesamt
„Die Veröffentlichung ist ein Schritt in Richtung Transparenz. Sie zeigt die Systemarchitektur und die vorhandenen Komponenten. Viele wichtige Elemente bleiben jedoch weiterhin unbekannt, darunter die trainierten Modellparameter oder Checkpoints, die genauen Bewertungsgewichtungen und die Art und Weise, wie Sicherheits- und Qualitätskennzeichnungen erstellt werden. Ohne diese können wir keine aussagekräftigen Erkenntnisse gewinnen.“
Dieses Statement entstand in Zusammenarbeit mit Prof. Dr. Ingmar Weber, Alexander von Humboldt Professor für Informatik, Interdisciplinary Institute for Societal Computing (I2SC), Universität des Saarlandes.
„Ich habe keine Interessenkonflikte.“
„Ich habe keine Interessenkonflikte.“
„Ein Interessenkonflikt besteht nicht.“
„Ich habe zu dem Thema keine Interessenkonflikte.“
„Interessenkonflikte gibt es keine.“
„Ich habe keinen Interessenkonflikt.“
„Ich habe bei diesem Thema keine Interessenkonflikte.“
Literaturstellen, die von den Expert:innen zitiert wurden
[1] Twitter (2023): X's Recommendation Algorithm. GitHub repository. Stand: 20.01.2026.
[2] Ye J et al. (2024): Auditing Political Exposure Bias: Algorithmic Amplification on Twitter/X During the 2024 U.S. Presidential Election. Arxiv. DOI: 10.48550/arXiv.2411.01852.
Hinweis der Redaktion: Es handelt sich hierbei um eine Vorabpublikation, die noch keinem Peer-Review-Verfahren unterzogen und damit noch nicht von unabhängigen Expertinnen und Experten begutachtet wurde.
[3] Center for Social Media and Politics (23.04.2023): What Can We Learn From Twitter's Open Source Algorithm? Commentary.
[4] Wong JM (31.03.2023): Twitter’s algorithm specifically labels […]. Twitter-Post.
Literaturstellen, die vom SMC zitiert wurden
[I] Musk E (10.01.2026): We will make the new 𝕏 algorithm […]. Post auf X.
[II] xAI (2026): X For You Feed Algorithm. GitHub repository. Stand: 20.01.2026.
Prof. Dr. Hendrik Heuer
Forschungsprofessor und Leiter des Forschungsprogramms Design vertrauenswürdiger Künstlicher Intelligenz, Center for Advanced Internet Studies (CAIS), Bochum
Information on possible conflicts of interest
„Ich habe keine Interessenkonflikte.“
Prof. Dr. Johannes Breuer
Professor für Digitale Sozialwissenschaften, Universität Duisburg-Essen, und Leiter des Teams „Research Data & Methods“, Center for Advanced Internet Studies (CAIS), Bochum
Information on possible conflicts of interest
„Ich habe keine Interessenkonflikte.“
Prof. Dr. Heiko Paulheim
Professor für Data Science, Universität Mannheim
Information on possible conflicts of interest
„Ein Interessenkonflikt besteht nicht.“
Dr. Gregor Wiedemann
Senior Researcher Computational Social Sciences, Leibniz-Institut für Medienforschung | Hans-Bredow-Institut (HBI), Hamburg
Information on possible conflicts of interest
„Ich habe zu dem Thema keine Interessenkonflikte.“
Prof. Dr. Tobias Matzner
Professor für Kulturen der Digitalität, Universität Paderborn
Information on possible conflicts of interest
„Interessenkonflikte gibt es keine.“
Dr. Philipp Lorenz-Spreen
Leiter der Nachwuchsforschungsgruppe Computational Social Science, Fachbereich Synergy of Systems, Center for Interdisciplinary Digital Sciences, Technische Universität Dresden
Information on possible conflicts of interest
„Ich habe keinen Interessenkonflikt.“
Brahmani Nutakki
Doktorandin im Fachbereich Informatik, Interdisciplinary Institute for Societal Computing (I2SC), Universität des Saarlandes
Information on possible conflicts of interest
„Ich habe bei diesem Thema keine Interessenkonflikte.“