Retraction von Veröffentlichungen viel zitierter Forschender
bei drei bis vier Prozent der meist-zitierten Forschenden wurde mindestens eine ihrer Veröffentlichungen aufgrund von Fehlern zurückgezogen
Retraction gilt als gängige Praktik in der Forschung, einen Überblick über die relevanten Fälle will die aktuelle Studie bieten
laut unabhängiger Forscher sei das berichtete Ausmaß an Retractions weder besorgniserregend noch sehr aussagekräftig; sie plädieren allgemein für eine stärkere Qualitätskontrolle von Veröffentlichungen
Von den top zwei Prozent der meist-zitierten Forschenden unterschiedlicher Fachgebiete wurde bei drei bis vier Prozent mindestens eine fehlerhafte Veröffentlichung registriert, die nachträglich zurückgezogen wurde. Um ein systematisches Bild davon zu bekommen, welche Forschenden, Fachdisziplinen und Länder besonders von einer solchen Retraction betroffen sind, analysierte ein Forschungsteam um Stanford Professor John Ioannidis Daten der Plattform Retraction Watch database (RWDB). Die Ergebnisse sind im Fachjournal „Plos Biology“ erschienen (siehe Primärquelle).
Assistant Professor, Institute for Science in Society, Radboud Universität, Nijmegen, Niederlande
Einordnung der Ergebnisse
„Die Ergebnisse stimmen mit den Schätzungen früherer Studien überein und entsprechen somit dem, was man hätte erwarten können. Die Retraction-Quote von 3,3 Prozent scheint nicht besonders hoch zu sein, zumal sie sich auf den Anteil der am häufigsten zitierten Autoren bezieht, die mindestens eine Retraction haben, was bedeutet, dass fast 97 Prozent der am häufigsten zitierten Autoren keine Retraction haben. Wenn man bedenkt, dass diese Autoren in der Regel 139 bis 270 Artikel veröffentlicht haben und bei der überwiegenden Mehrheit der Autoren nur eine Arbeit zurückgezogen wurde, sind das insgesamt nur sehr wenige Arbeiten.“
„Dies ist natürlich ein Artefakt der sehr geringen Anzahl von Artikeln, die zurückgezogen werden. Mehrere Wissenschaftler haben für die Notwendigkeit plädiert, die Literatur genauer zu prüfen und die Bereitschaft der Zeitschriften/Herausgeber zu erhöhen, die als problematisch angesehene Arbeiten zurückzuziehen. Die geringe Zahl der Retractions und die daraus resultierende bescheidene Retraction-Quote, die in dieser Studie festgestellt wurde, sind daher nicht unbedingt ein Hinweis auf ernsthafte Probleme in der Wissenschaft, aber auch kein Zeichen für das Gegenteil.“
Beurteilung der Methode
„Was die Methodik betrifft, so haben die Autoren meiner Meinung nach mehrere legitime Entscheidungen getroffen. Sowohl die Verwendung der top zwei Prozent der am meist-zitierten Forscher als auch insbesondere die Verwendung der Retraction Watch-Datenbank sind Standardverfahren. Die Identifizierung von Rücknahmen, die möglicherweise auf ein Fehlverhalten oder einen Fehler des Autors zurückzuführen sind, ist weder standardisiert noch sehr feinkörnig und enthält daher wahrscheinlich mehrere falsch positive Ergebnisse. Das heißt, die Stichprobe enthält wahrscheinlich Retractions, die nicht auf einen Fehler oder ein Fehlverhalten der Autoren zurückzuführen sind. Diese Limitationen werden auch im Manuskript erwähnt wird.“
Auf die Frage, warum vor allem neue Publikationen, bei denen die Autor:innen häufiger ihre eigenen Paper zitieren und insgesamt viel publizieren, am stärksten von Retraction betroffen sind:
„Wir sollten bedenken, dass die Studie den Anteil der Forscher ermittelt, die mindestens eine Retraction zu verzeichnen haben. Aus offensichtlichen Gründen ist es so, dass je mehr man veröffentlicht, desto wahrscheinlicher ist es, dass eine dieser Veröffentlichungen einen fatalen Fehler enthält, der eine Retraction rechtfertigt. Wie die Autoren anmerken, sind viele Retractions auf ehrliche Fehler zurückzuführen, nicht auf irgendeine Art von Fehlverhalten. Außerdem scheint die Studie nicht darauf hinzudeuten, dass neue Veröffentlichungen besonders häufig zurückgezogen werden, sondern dass Autoren mit mindestens einer Retraction im Durchschnitt ein etwas niedrigeres akademisches Alter haben.“
Unterschiede zwischen den Fachrichtungen
„Es ist ein bekanntes Muster, dass Retractions in einigen Bereichen häufiger vorkommen als in anderen, wobei die Zahl der Retractions in den Lebenswissenschaften und einigen Natur- und Ingenieurwissenschaften höher ist. Dies spiegelt sich auch in den Ergebnissen der vorliegenden Studie wider. Es kann mehrere Gründe für die höhere Zahl von Retractions in diesen Disziplinen geben, darunter eine stärkere Überprüfung, eine höhere Bereitschaft der Akteure, sich auf Retractions einzulassen, und eine Gemeinschaftsnorm, in der Retractions als angemessene Maßnahme gegen problematische Forschung angesehen werden – anstatt andere Maßnahmen zu ergreifen, wie zum Beispiel einen Leserbrief zu schreiben oder anderweitig Bedenken gegen eine Arbeit zu äußern.“
Auf die Frage, inwiefern das Wissenschaftssystem dazu beitragen könnte, dass die Qualität von wissenschaftlichen Publikationen steigt:
„Meines Erachtens sollte betont werden, dass sich die Ergebnisse dieser Studie auf relativ wenige problematische Arbeiten beziehen, bei denen es sich in der Regel um einzelne fehlerhafte Arbeiten handelt. Dies ist an sich kein Hinweis auf weit verbreitete Bedenken hinsichtlich der Forschungsqualität. Allerdings wächst die Besorgnis über groß und koordiniert angelegte Versuche böswilliger Akteure – wie ,Paper Mills‘ (Unternehmen, die gegen Geld gefälschte wissenschaftliche Artikel erstellen und diese in wissenschaftlichen Fachzeitschriften publizieren, Anm. d. Red.) oder ,Predatory Journals‘(Unternehmen, die vorgeben, seriöse wissenschaftliche Zeitschriften herauszubringen, aber ihre Veröffentlichungspraktiken falsch darstellen., Anm. d. Red.) –, die Qualität der Forschungsliteratur zu untergraben. Forscher, ,akademische Detektive‘, Zeitschriftenredakteure und Verleger entwickeln derzeit Möglichkeiten, solche Versuche besser zu erkennen und zu unterbinden.“
Direktor QUEST Center for Responsible Research, Berlin Institute of Health, Charité – Universitätsmedizin Berlin
„Wichtig ist zu verstehen, wie Retractions entstehen. Entweder beantragen die Autoren sie selbst – meist führt das schnell zur Retraction durch den Verlag – oder Zweifel und Manipulationshinweise häufen sich durch post-publication Review, zum Beispiel in PubPeer (US-amerikanische Website, über die Nutzende, wissenschaftliche Publikationen im Sinne eines post-publication peer-review Verfahrens diskutieren können; Anm. d. Red.). Ob und wann dann eine Retraction folgt, ist ungewiss. Oft bleibt sie trotz klarer Manipulation aus, da Autoren sich weigern, Institutionen nicht ermitteln und Verlage untätig bleiben. Die niedrigen Retraction-Raten bei Top-Wissenschaftlern sind daher nur die Spitze eines weitaus größeren, unbekannten Eisbergs.“
„Wichtig ist, dass Retractions nicht pauschal stigmatisiert oder kriminalisiert werden. Eine Retraction nach ehrlichem Fehler – ob selbst erkannt oder von anderen entdeckt – zeugt von guter wissenschaftlicher Praxis. Fehler sind unvermeidlich, ihre Korrektur erfordert Mut, besonders wenn Retractions mit Fehlverhalten gleichgesetzt werden.“
„Das akademische ,Publish or Perish‘-System hat eine Flut minderwertiger Publikationen erzeugt, das dadurch überlastete Peer-Review-System versagt. In dieser ‚Reputations-Ökonomie‘ sind Publikationen die wichtigste Währung, das führt zu einer Flut fragwürdiger Publikationen. Manche davon werden zurückgezogen. Eigentlich müsste das bei viel mehr Publikationen erfolgen. Wissenschaft muss nach Qualität statt Quantität bewertet werden. Eine Reform der Forschungsbewertung ist überfällig. Die COARA-Initiative (Coalition for Advancing Research Assessment) setzt sich dafür international ein.“
Auf die Frage, wie inwiefern ist eine Retraction-Rate von 3,3 Prozent (beziehungsweise 2,9 Prozent in Deutschland) viel sei:
„Die Zahl an sich sagt nicht viel, wir wissen nicht wie viele Paper eigentlich zurückgezogen werden müssten.“
Beurteilung der Studienmethodik
„Insgesamt ist die Methodik robust. Die Schwächen sind nicht methodisch bedingt, sondern durch den Ansatz (nur ‚highly cited authors‘) und systemisch (wir wissen nicht wieviel eigentlich zurückgezogen gehört). Die ‚highly cited scientists‘ sind sicher nicht repräsentativ für alle Wissenschaftler. Aber ‚highly cited‘ gilt – meiner Ansicht nach nicht zurecht – als eines der wesentlichen Qualitätsmerkmale für einen Wissenschaftler. Ich denke die Argumentation ist hier die des ‚best case‘, das heißt, wenn schon highly cited researchers x Prozent Retractions haben, werden es beim wissenschaftlichen ‚Fußvolk‘ eher mehr sein. Aber auch dies ist in Frage zu stellen. Insofern lässt die Arbeit halt wirklich nur Schlussfolgerungen für diese selektive Gruppe zu.“
Auf die Frage, warum vor allem neue Publikationen, bei denen die Forschenden häufiger ihre eigenen Paper zitieren und insgesamt viel publizieren, am stärksten von Retraction betroffen sind:
„Da kann man nur spekulieren. Eine Theorie wäre, dass sich stark selbst zitierende Autoren eine weniger ausgeprägte wissenschaftliche Ethik in ihrer Forschung und beim Publizieren haben.“
Auf die Frage, inwiefern sich Fachgebiete unterscheiden und wie sich erklären lässt, dass vor allem in Lebenswissenschaften Retractions vorkommen:
„EEECS (Electronics, Electrical Engineering and Computer Science) ist ja noch deutlich stärker betroffen. Ich denke es liegt daran, dass – wie von den Autoren auch spekuliert – es in Feldern, in denen es ‚wirklich drauf ankommt‘, also die Publikation von fehlerhaften oder manipulierten Daten schwerwiegende Konsequenzen haben (insbesondere auf die Gesundheit), von der wissenschaftlichen Community genauer hingeschaut wird. Es handelt sich also um einen ‚Detektionsbias‘.“
Beitrag des Wissenschaftssystems
„Das Karrieresystem in der Wissenschaft (‚publish or perish‘) hat zu einer Hyperinflation von wissenschaftlichen Publikationen minderen Wertes geführt. Das Peer-Review-System, das eigentlich die Qualitätskontrolle darstellen sollte, ist überfordert, funktioniert schlicht nicht mehr. Das Problem muss an der Wurzel gelöst werden. Wissenschaft darf nicht nach der Anzahl von Publikationen oder dem Renommee der Journale beurteilt werden, sondern nach dem Inhalt und der Qualität der Forschung. Eine Reform des akademischen Forschungsbewertungssystems ist überfällig. Mit COARA (Coalition for Advancing Research Assessment) haben wir nun eine internationale Initiative von Universitäten und forschenden Akademischen Institutionen, welche sich dies zum Ziel gesetzt hat.“
Auf die Frage, was man von Ländern wie Israel, Belgien und Finnland lernen kann, in denen weniger Retractions registriert werden:
„Diesen Vergleich halte ich nicht für aussagekräftig. Das kann ein Detektionsbias sein, oder auf tatsächliche kulturelle Unterschiede im Wissenschaftssystem hinweisen. Das halte ich aber, in Kenntnis der Systeme dort, für nicht wahrscheinlich.“
Lehrstuhl Wissenschaftsjournalismus & Ombudsperson für gute wissenschaftliche Praxis, TU Dortmund
Einordnung der Ergebnisse
„Die Ergebnisse bestätigen zum Teil Resultate aus älteren und weniger ausgefeilten Erhebungen, bei denen aber weniger Unterschiede zwischen Autorinnen/Autoren und Ländern, sondern zwischen verschiedenen Fachjournalen im Vordergrund standen. In einer früheren Arbeit zeigte sich zum Beispiel, dass viel beachtete Fachjournale mit hohem Impact Factor – also hoher durchschnittlicher Zitierhäufigkeit – tendenziell häufiger mit Retractions konfrontiert sind; die Autoren haben damals sogar eine Art ,Retraction Index’ für Fachzeitschriften vorgeschlagen [I], der sich erwartungsgemäß aber nicht durchgesetzt hat.“
„Für einige Länder in der vorliegenden Studie sind die Retraction-Raten schon bedenklich, wenn fast jedes zehnte oder zwölfte Paper zurückgezogen wurde. Man muss sich aber auch von einem im Journalismus verbreiteten Irrtum lösen: Natürlich bietet die Veröffentlichung einer Studie in einer begutachteten (Peer Review)-Fachzeitschrift erst einmal eine gewisse Sicherheit gegenüber völlig ungeprüften Studien, die ohne externe Qualitätskontrolle präsentiert werden – wie das zum Beispiel Beratungsfirmen oder Verbände gerne tun. Im Kern bedeutet aber auch die Veröffentlichung in einer Peer Review-Fachzeitschrift erst einmal nur, dass die Arbeit als gut genug angesehen wird, um in der Fachöffentlichkeit diskutiert und weiter geprüft zu werden. Vieles muss später immer noch korrigiert, durch neue und bessere Studienresultate ersetzt und im Extremfall eben sogar zurückgezogen werden. Das ist ein wenig so wie bei der Arzneimittelzulassung: Oft werden Nebenwirkungen erst erkannt, wenn ein Medikament bereits auf den Markt gekommen ist – und es muss dann wieder zurückgenommen werden. Wenn es also gar keine, sprich null Prozent Retractions gäbe, würde das bedeuten, dass das Prüfsystem in der wissenschaftlichen Community nach einer Veröffentlichung gar nicht funktioniert. Das bedeutet aber nicht, dass nicht auch in Deutschland noch Luft bei der Qualitätssicherung ist, wenn tatsächlich – wie es die Daten andeuten – jede 30ste bis 50ste Veröffentlichung zurückgezogen werden muss.“
Auf die Frage, warum vor allem neue Publikationen, bei denen die Forschenden häufiger ihre eigenen Paper zitieren und insgesamt viel publizieren, am stärksten von Retraction betroffen sind:
„Dass viel beachtete Journale und Autoren häufiger Arbeiten zurückziehen müssen, mag auch daran liegen, dass fehlerhafte oder fragwürdige Inhalte dort eher auffallen. Fehler von Autoren oder in Fachjournalen, die kaum jemand liest, werden in der Community natürlich seltener bemerkt. Und wer ,cutting edge research‘ betreibt, macht leichter Fehler als bei einer weiteren ,more of the same‘-Studie. Insgesamt sind in jüngerer Zeit auch die Dokumentationspflichten und die Methoden der Fachzeitschriften, um zum Beispiel Daten oder Abbildungen zu überprüfen, besser geworden – was ebenfalls zu mehr Retractions führen könnte. Über andere Gründe kann man nur spekulieren, aber natürlich liegt bei der Publikationsfrequenz einzelner Lehrstühle schon die Frage nahe, ob manche Vielpublizierer ihren extremen Veröffentlichungs-Output zum Teil nicht auch mit mangelnder Qualitätssicherung oder anderen fragwürdigen Praktiken erkaufen. Hierzu passt zumindest, dass in der Studie übermäßige Selbstzitierer auffallen.“
Unterschiede zwischen den Fachrichtungen
„Dass die medizinische und biomedizinische Forschung besonders anfällig ist für Retractions, darunter auch für viele Fälle von echten Verstößen gegen Standards der guten wissenschaftlichen Praxis, zeichnet sich bereits seit langem ab. Eine Erklärungsmöglichkeit lautet, dass hier mehr Wettbewerb herrscht und es häufiger um viel Geld oder Patente geht als etwa in Disziplinen wie Geschichtswissenschaft, Philosophie oder Theologie am anderen Ende der Skala. Allerdings spielen auch verschiedene Fachkulturen eine Rolle, etwa wie hierarchisch der Forschungsprozess organisiert ist oder wie man mit Retractions generell umgeht. Zu guter Letzt macht es auch einen Unterschied, was ich in der Forschung konkret messe oder untersuche – da spielen bei lebenden Objekten natürlich oft mehr Faktoren eine Rolle als in anderen Forschungsgebieten, was die Reproduzierbarkeit von Ergebnissen erschwert.“
Beitrag des Wissenschaftssystems
„Der immer weiter wachsende Wettbewerb und Publikationsdruck in der Forschung trägt sicher auch zur seit Jahren beobachteten Tendenz von mehr Retractions und zu mehr irrelevanter oder inhaltsarmer Forschung bei. Einer der Autoren der vorliegenden Studien ist vor Jahren schon einmal durch die provokante These bekannt geworden, dass sogar die Mehrzahl aller veröffentlichten Forschungsergebnisse falsch sein könnte [II] – insbesondere wenn Studien zu klein oder der Versuch von Einflussnahmen und ähnliche Faktoren zu groß sind.“
„Wenn die Bewilligung einer neuen Projektfinanzierung oder die Verlängerung einer befristeten Stelle ansteht, so hängt dies nicht selten an wenigen oder gar einer einzigen hochrangigen Veröffentlichung. Versuche, wieder mehr Qualität als Quantität zu fördern gibt es – etwa indem man zum Beispiel in Anträgen an Forschungsförderer wie die Deutsche Forschungsgemeinschaft (DFG) nicht mehr lange Publikationslisten, sondern nur seine ausgewählten fünf oder zehn besten Publikationen einreichen muss. Vor allem aber bräuchte es mehr langfristige Grundfinanzierungen, die den Druck vor allem auf junge Forschende reduzieren würde, bis zum Ende einer oftmals viel zu kurzen Projektlaufzeit etwas ,hochrangiges‘ publiziert haben zu müssen. Und schließlich müssten die Standards ,Guter wissenschaftlicher Praxis‘ noch viel konsequenter in den Curricula aller Studiengänge verankert werden.“
Leiter wissenschaftliches Publishing, EMBO – European Molecular Biology Organization, Heidelberg
„Die Arbeit verbindet Retractions von wissenschaftlichen Arbeiten (gefiltert für knapp 40.000 ,retractions based on research issues‘) mit hochzitierten Autoren und präsentiert eine Datenbank, in der nach Disziplin oder Geografie gefiltert werden kann. Es wird versucht, einen Zusammenhang zwischen hoher Zitationsrate und der ,Integrität‘ oder besser der ,Reliabilität‘ der publizierten Arbeiten herzustellen. Dieser Zusammenhang ist keinesfalls bewiesen und kann irreführend sein.“
Einordnung der Ergebnisse
„Die Rate an Retractions ist natürlich höher als man hofft, aber Retractions repräsentieren nur die Spitze des Eisbergs. Forschung basiert auf den Prinzipien der Reproduzierbarkeit sowie der Selbstkorrektur. Retractions können auf Selbstkorrektur basieren, wenn zum Beispiel ein Fehler später selber von Kollegen entdeckt wird – das ist ein durchaus positiver Prozess (was nur ganz kurz in dem Paper beschrieben wird), oder sie können auf Inkompetenz oder gar böswilliger Fälschung beruhen. Das heißt, Retractions beinhalten eine Anzahl ganz verschiedener Ursachen, die nicht alle auf schlechte oder gar korrupte Forschungsaktivitäten verweisen.“
„Weiterhin, ist ganz wichtig, dass Felder mit größerer Leserschaft und prominenteren Forschern mehr Augen auf sich ziehen, was wiederum zu höheren Zitationsraten führt. Es ist daher auch gegeben, dass Fehler deutlich häufiger entdeckt werden.“
„Zuletzt verbirgt die Rate viel mehr unzuverlässige Forschung, aber gleichzeitig ist die Zahl überhaupt kein Index dafür, ob Forschung in Deutschland besser oder schlechter als anderswo ist.“
„Eine Reihe von verschiedenen Studien zeigt, dass nur um die Hälfte der Forschungsarbeiten in den Biowissenschaften nicht einfach bis hin zu gar nicht reproduzierbar sind.“
Beurteilung der Methodik
„Die Autoren machen einen ,spot check’ der höchst zitierten Autoren. Eine Korrelation von Retractions und ,Selbst-Zitierungen‘ wäre natürlich überzeugender, aber immer noch nicht sehr aussagekräftig, da die zwei gemessenen Parameter – Zitationen und Retractions – beide durchaus komplexe Variablen darstellen. Es gibt daher weitreichende confounding factors (Störfaktoren) welche ein aussagekräftiges Ergebnis erschweren.“
„Die Auswahl der 39.468 geeigneten Retractions aus den anfänglichen 55.237 ist akzeptabel, aber es ist zu beachten, dass Retractions auf der einen Seite vielschichtige Ursachen haben, zum Beispiel Fehler, überholte Forschungsansätze oder manchmal auch Forschungsintegrität, und auf der anderen Seite nicht repräsentativ für die gesamten Probleme und die Reproduzierbarkeit von Forschungsarbeiten sind (Spitze des Eisbergs).“
„Es gab vor einigen Jahren eine vielzitierte Studie [I], die eine lineare Korrelation zwischen Retractions in dem Impact Factor von Fachjournalen dokumentierte. Die Autoren und viele Leser verfielen der ,lazy interpretation', dass das ein Beweis sei, dass ,high impact' Journale – die auch noch oft die teuersten sind – die niedrigsten Forschungsqualität publizieren. Diese Interpretation ist einfach falsch: Es kann genauso gut sein, dass es viel wahrscheinlicher ist, in Arbeiten in ,high impact factor‘ Journalen Fehler zu entdecken, da sie einfach von viel mehr Menschen und viel kritischer gelesen werden, und sogar die Reproduzierbarkeit getestet wird – was leider sicher nicht der Fall ist für die allermeisten der Arbeiten in den Biowissenschaften.“
„Wir sollten vorsichtig sein, nicht den gleichen Fehler bei der hier vorgestellten neuen Arbeit zu machen.“
Auf die Frage, warum vor allem neue Publikationen, bei denen die Forschende häufiger ihre eigenen Paper zitieren und insgesamt viel publizieren, am stärksten von Retraction betroffen sind:
„All dies können Signale für Fehlverhalten darstellen, sind es aber nicht zwangsläufig. Zum Beispiel ist exzessive Selbstzitation durchaus mit einer ,gaming‘-Einstellung verbunden, das heißt dem Versuch, die eigene Arbeit wichtiger als die der Kollegen darzustellen. Es gibt sogar Beispiele für weitreichende ,citation rings‘, wo Individuen sich gegenseitig selektiv zitieren oder – noch dramatischer – fiktive Arbeiten publiziert werden, nur um einen Forscher zu zitieren und so dessen H-index hochzusetzen. Weiterhin kann viel oder schnelle Publikation auf minderwertige Detailtreue, Qualitätssicherung oder auch verminderte Aufsicht durch die hochzitierten Forscher hindeuten, wodurch sich Fehler akkumulieren, die sich dann möglicherweise in höheren Rectraction-Zahlen niederschlagen.“
Auf die Frage, inwiefern sich Fachgebiete unterscheiden und wie sich erklären lässt, dass vor allem in Lebenswissenschaften Retractions vorkommen:
„Das korreliert auch mit Korrekturen in Papern. Die Daten in den Lebenswissenschaften sind oft komplex und schwierig zu interpretieren. In komplexen Systemen, die wir noch schlecht verstehen, können sich leichter ungesehene Fehler einschleichen, die dann zu Retractions führen können. Auf der anderen Seite ist der Publikationsdruck und auch der Konkurrenzkampf in den Lebenswissenschaften gegebenenfalls höher als in anderen Fächern, in denen zum Beispiel das prominente Konzept in den Lebenswissenschaften des ,scooping‘ (Forschungsergebnisse oder Ideen werden von einem Forschungsteam veröffentlicht, bevor ein konkurrierendes Team ihre Ergebnisse zum gleichen Thema veröffentlichen kann; Anm. d. Red.) nicht so bekannt ist.“
Beitrag des Wissenschaftssystems
„Die Qualitätssicherung ist ein maßgeblicher Teil der Forschungslandschaft. Die fängt schon beim Training an, geht über die Speicherung der Rohdaten und Experimentalprotokolle bis hin zur Aufsicht und internen Tests zur Reproduzierbarkeit und endet mit der wichtigen Rolle der Journale in der Qualitätssicherung sowie der Peer Review, sowie dann auch der post-Publikations-Kommentare. Viele dieser Schritte werden nicht richtig finanziell gefördert und auch nicht systemisch und kulturell wertgeschätzt, da das System hauptsächlich Fortschritt belohnt. Eine Neudefinition von ,Einfluss‘ (impact) und ,Exzellenz‘ sind unerlässlich.“
Auf die Frage, was man von Ländern wie Israel, Belgien und Finnland lernen kann, in denen weniger Retractions registriert werden:
„Nicht sehr viel, da wie gesagt, die Effekte komplex sind und das Paper nicht sehr aufschlussfähig ist. Es wäre durchaus interessant, wenn es systemische Unterschiede gäbe. Zum Beispiel mag ein Land ,self retraction‘ als ein Teil der akademischen ,self correction‘ belohnen – das heißt eine hohe Retraction-Rate wäre hier sogar ein Qualitätszeichen –, wogegen ein anderes Land stärker in Prävention investieren mag. Leider kenne ich keinerlei kausale Ursachen für die unterschiedlichen Zahlen dieser Länder – wie gesagt sind diese Zahlen mit großer Vorsicht zu interpretieren und meiner Meinung nach nicht sehr aussagekräftig.“
Chefredakteur von The Transmitter und Distinguished Journalist in Residence am Carter Journalism Institute der New York University, und Mitbegründer von Retraction Watch, und geschäftsführender Direktor des Center for Scientific Integrity, der gemeinnützigen Mutterorganisation von Retraction Watch, Vereinigte Staaten
„Diese Studie wurde sorgfältig durchgeführt, und die Tatsache, dass die Rückzugsraten unter hoch zitierten Forschern viel höher sind als in der allgemeinen Forscherpopulation – wo etwa eine von 500 Arbeiten zurückgezogen wird – ist keineswegs überraschend. Die ,Stanford top scientists list‘, wie sie von vielen Universitäten genannt wird, wenn sie feiern, wie viele ihrer Forscher darauf zu finden sind, ist ein weiterer Anreiz für Akademiker, alles zu tun, um häufiger zitiert zu werden. Und für viele Forscher bedeutet das, das System auszunutzen, sei es durch Zitierkartelle, Paper Mills oder andere Mittel. Veröffentlichungen, die solche Praktiken involvieren, sollten zurückgezogen werden. Wenn es also einen Silberstreif am Horizont gibt, dann den, dass die jüngste Untersuchung zu einer gewissen Säuberung der Literatur geführt hat. Die Ergebnisse der Studie sind ein starkes Argument für die Abschaffung von Rankingsystemen, die sich stark auf Zitate stützen.“
„Ich habe keine Interessenkonflikte.“
„Ich habe keine Interessenkonflikte.”
„Es besteht im Zusammenhang mit dieser Veröffentlichung kein Interessenkonflikt.“
„Ich habe keine Interessenkonflikte. Ich kenne den Co-Autor John Ioannidis persönlich, aber ohne formelle Kooperation. Ich leite die fünf wissenschaftlichen Journale von EMBO press, das aktiv auf dem Gebiet der Wissenschaftsintegrität ist und wissenschaftliche Journale publiziert.“
„In der Würdigung (acknowledgement) des vorliegenden Papers wird mir für konstruktive Kommentare gedankt."
Primärquelle
Ioannidis JPA et al. (2025): Linking citation and retraction data reveals the demographics of scientific retractions among highly cited authors. Plos Biology. DOI: 10.1371/journal.pbio.3002999.
Literaturstellen, die von den Expert:innen zitiert wurden
[I] Fang FC et al. (2011): Retracted Science and the Retraction Index. Infection and Immunity. DOI: 10.1128/IAI.05661-11.
[II] Ioannidis JPA (2022): Why Most Published Research Findings Are False. PLOS Medicine. DOI: 10.1371/journal.pmed.0020124.
Dr. Serge Horbach
Assistant Professor, Institute for Science in Society, Radboud Universität, Nijmegen, Niederlande
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.“
Prof. Dr. Ulrich Dirnagl
Direktor QUEST Center for Responsible Research, Berlin Institute of Health, Charité – Universitätsmedizin Berlin
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte.”
Prof. Dr. Holger Wormer
Lehrstuhl Wissenschaftsjournalismus & Ombudsperson für gute wissenschaftliche Praxis, TU Dortmund
Angaben zu möglichen Interessenkonflikten
„Es besteht im Zusammenhang mit dieser Veröffentlichung kein Interessenkonflikt.“
Dr. Bernd Pulverer
Leiter wissenschaftliches Publishing, EMBO – European Molecular Biology Organization, Heidelberg
Angaben zu möglichen Interessenkonflikten
„Ich habe keine Interessenkonflikte. Ich kenne den Co-Autor John Ioannidis persönlich, aber ohne formelle Kooperation. Ich leite die fünf wissenschaftlichen Journale von EMBO press, das aktiv auf dem Gebiet der Wissenschaftsintegrität ist und wissenschaftliche Journale publiziert.“
Dr. Ivan Oransky
Chefredakteur von The Transmitter und Distinguished Journalist in Residence am Carter Journalism Institute der New York University, und Mitbegründer von Retraction Watch, und geschäftsführender Direktor des Center for Scientific Integrity, der gemeinnützigen Mutterorganisation von Retraction Watch, Vereinigte Staaten
Angaben zu möglichen Interessenkonflikten
„In der Würdigung (acknowledgement) des vorliegenden Papers wird mir für konstruktive Kommentare gedankt."