Wissenschaftliche Journals haben zunehmend ein Problem: Artikel mit halluzinierten Quellen. Referenzen, die schlicht nicht existieren – falsche Titel, falsche Journals, falsche Autoren. Als ich auf LinkedIn vorschlug, solche Artikel ohne Begutachtung abzulehnen und die Autoren für ein Jahr zu sperren, war die Zustimmung überwältigend. Aber in den Kommentaren zeigte sich auch Widerspruch – und der war erhellend.
Nicht weil er meine Position erschüttert hätte. Sondern weil die Argumente eine Dynamik offenlegen, die weit über halluzinierte Referenzen hinausgeht: Wie wir über KI reden und was wir dabei über uns selbst verraten.
Ich bin „recovering academic“, seit gut 10 Jahren raus aus der Wissenschaft. Davor habe ich das System von innen erlebt: ich habe publiziert, reviewt, und den ganzen Druck gespürt. Es gibt gute Gründe, warum ich ausgestiegen bin.
Aber diese Diskussion hat mich daran erinnert, wie schön es ist, nicht mehr in diesem System zu stecken und trotzdem sagen zu können: Das System ist nicht an allem schuld.
Was folgt, sind fünf Argumente aus dieser Debatte. Ich spitze sie bewusst zu – sie zeigen keine Einzelpersonen, sondern problematische Muster: Defensive Abwehr, TINA-Rhetorik, Resignation, Opferhaltung, Nihilismus.
Argument 1: Das Problem ist nicht KI, sondern der Mensch
Das Auffälligste in der Diskussion: Leute verteidigten KI vehement – und das obwohl ich KI gar nicht angegriffen hatte. Ich kritisierte Menschen, die halluzinierte Quellen einreichen. Aber mehrere Kommentatoren beeilten sich zu betonen: „Das Problem ist nicht KI, sondern der Mensch.“
Dieser Reflex ist nicht neu. Ich beobachte ihn immer wieder: Sobald jemand irgendwas im Kontext von KI kritisiert – selbst wenn die Kritik explizit menschliches Verhalten betrifft – fühlen sich manche persönlich angegriffen.
Ein klassisches Zeichen von Hype. Viele haben massiv in KI investiert – Geld, Zeit, Emotionen. Für sie wird Kritik wird zur existenziellen Bedrohung: „Wenn KI nicht liefert, verliere ich mein Geld und mein Gesicht“.
Und diese Verteidigungen gehen fast immer Hand in Hand mit einer Abwertung des Menschen: „Das eigentliche Problem ist nicht die KI – es ist die menschliche Intelligenz, die nichts überprüft.“
Um KI aufzuwerten, muss der Mensch klein gemacht werden. Das ist Misanthropie in tech-freundlichem Gewand. Smart, aber durchschaubar.
Argument 2: Wir haben keine Alternative
Diese KI-Verteidigung basiert auf einer Weltanschauung, die in zwei Varianten kommt.
Variante 1: Tech-Solutionismus. Behauptet, jedes Problem hat eine technische Lösung, wir müssen nur warten. In der Diskussion klingt das so: Halluzinierte Referenzen sind ein „interaction design failure, dafür gibt es bald einen Fix“. Dass es hier um Integrität, Verantwortung, Vertrauen geht – also um dezidiert nicht-technische Werte – wird ausgeblendet. Moralische Fragen werden zu technischen Problemen umgedeutet.
Variante 2: Tech-Determinismus. Sieht die KI-Revolution als unvermeidlich, sagt, wir müssen sie einfach akzeptieren. Prophezeit: „Wir treten in das Zeitalter der KI-zentrierten Wissensgenerierung ein.“ Das ist Resignation mit philosophischem Anstrich.
Beide nutzen dieselbe Rhetorik: „There Is No Alternative“ (TINA). Kennen wir vom Markt: „Der Markt zwingt uns.“ Nun wird der Markt durch KI ersetzt: „Die KI zwingt uns.“ In beiden Fällen werden menschliche Entscheidungen als Naturgesetze verkauft.
Das Ergebnis? Der Solutionist sagt „wir müssen nichts tun“, die Deterministin sagt „wir können nichts tun.“ In beiden Fällen verschwindet die Verantwortung.
Argument 3: Betrug gab es immer schon
Ein beliebtes Argument lautet auch: „Das ist nichts Neues. Es gab schon immer falsche Quellen in wissenschaftlichen Artikeln.“
Stimmt. Es gab schon immer Betrug in der Wissenschaft. Halluzinierte Quellen sind nur eine neue Variante eines alten Problems.
Rege ich mich also zu Unrecht auf?
Nein. Denn „war immer schon so“ taugt niemals als moralische Rechtfertigung. Mit dieser Logik hätten wir nie Sklaverei abgeschafft, nie Kinderarbeit verboten, nie irgendwas verbessert.
Der Umstand, dass es immer schon wissenschaftliches Fehlverhalten gab, bedeutet nicht, dass es akzeptabel ist oder bleibt. Das ist der klassische naturalistische Fehlschluss: Vom Sein aufs Sollen schliessen.
Dahinter steckt Defätismus: ‚Wir konnten es nie verhindern, also können wir es jetzt auch nicht.‘ Standards werden hier der Bequemlichkeit geopfert.
Argument 4: Das System ist schuld
Ein weiteres Argument besagt: Das akademische Publikationssystem ist kaputt – Publish-or-perish-Druck, Peer Review am Limit, profitorientierte Journals. Forschende sind Opfer dieses Systems.
Als ehemalige Wissenschaftlerin verstehe ich diese Kritik. Ich kenne den Druck, die Überlastung, die perversen Anreize. Es gibt gute Gründe, warum ich ausgestiegen bin.
Aber ehrlich? Diese Haltung nervt. Sie basiert wieder auf Sachzwangdenken: ‚Wir sind Opfer‘ – als wären Forschende passive Objekte ohne Handlungsspielraum
Schauen wir uns das an: Das System erzeugt Druck? Ja. Das System setzt falsche Anreize? Ja. Aber niemand – wirklich niemand – wird von diesem System dazu gezwungen, inexistente Quellen einzureichen. Das ist absurd.
Wer halluzinierte Quellen einreicht, täuscht eine wissenschaftliche Fundierung vor, die nicht existiert. Das führt Reviewer und Leserinnen in die Irre und untergräbt das Vertrauen in Wissenschaft. Das ist eine individuelle Entscheidung, für die Individuen verantwortlich sind. Struktur mag einiges erklären, aber sie entlastet nicht. Die individuelle Verantwortung bleibt. Von dieser Opferhaltung ist es nur ein kleiner Schritt zum kompletten moralischen Kollaps: Wenn das System schuld ist, warum sollten wir dann überhaupt noch an Standards festhalten?
Argument 5: Wissen muss nicht wahr sein
Und hier kommt mein persönlicher Endgegner ins Spiel: der Nihilismus. Seine Vertreter sagen Dinge wie: „Vielleicht muss Wissen nicht wahr sein, sondern nur plausibel, um neue und innovative Gedanken anzuregen.“
Oder: „Vielleicht befinden wir uns bereits seit einiger Zeit in einer ‚Post-Aufklärung‘, können dies aber einfach noch nicht akzeptieren.“
Das klingt intellektuell raffiniert: ‚Post-Aufklärung‘ als philosophische Position. Aber das ist – zumindest in den Untiefen der sozialen Medien – nichts weiter als intellektuelles Posieren.
Denn wenn Wissen nicht wahr sein muss – warum sollten wir uns dann um halluzinierte Quellen kümmern? Wenn es keine Wahrheit gibt – warum sollte es dann Standards geben? Diese Perspektive löst jede Grundlage für gemeinsame Bedeutung auf.
Man muss nicht an absolute Wahrheit glauben, um zu wissen: Eine Quelle, die nicht existiert, kann nicht zitiert werden. Das ist keine philosophische Debatte, sondern ein „No-Brainer“: Entweder das Paper wurde publiziert oder nicht.
Und Wissenschaft setzt voraus, dass Aussagen überprüfbar sind. Halluzinierte Quellen machen Überprüfung unmöglich.
Vielleicht erklärt das auch die merkwürdige Affinität zwischen philosophischem Nihilismus und KI-Enthusiasmus: Wenn Wahrheit ohnehin irrelevant ist, dann sind LLMs – die im Wesentlichen plausible Aussagen ohne Bezug zu Wahrheit produzieren (böse Zungen reden von Bullshit) – keine Bedrohung, sondern Bestätigung.
Dieser Nihilismus ist die logische Endstation der Flucht vor der Verantwortung. „Das System ist schuld“ (Argument 4) behauptet wenigstens noch, Standards seien wichtig – nur leider nicht einhaltbar. Der Nihilismus gibt auch das auf: Standards sind sowieso irrelevant.
Meine Einschätzung? Wer keinen Unterschied zwischen realen und erfundenen Quellen sieht, untergräbt das Fundament wissenschaftlicher Arbeit.
Was bleibt
Diese Diskussion war erhellend – nicht weil sie meine Position verändert hätte, sondern weil sie grundlegende Muster in der KI-Debatte offenlegt. Defensive Abwehr, TINA-Rhetorik, Resignation getarnt als Realismus, Opferhaltung, Nihilismus getarnt als Philosophie. Das sind keine Randphänomene, sondern genau diejenigen Argumente, mit denen wir uns auseinandersetzen müssen, und zwar immer wieder, wenn wir über KI reden.
Nach allem bleibe ich bei meinem Vorschlag: Wer halluzinierte Quellen einreicht, gehört sanktioniert. Desk Reject und einjährige Sperre.
Den Tech-Solutionisten sei gesagt: Wenn eure Prognosen stimmen, wird bald eine technische Lösung auftauchen. Bis dahin: Verantwortung übernehmen, anstatt diejenigen anzugreifen, die auf Probleme hinweisen.
An diejenigen mit der Opferhaltung: Ja, das System ist kaputt. Aber Struktur entlastet nicht von individueller Verantwortung.
Und diejenigen, die nie an Wahrheit geglaubt haben? Die haben in der Wissenschaft nichts verloren.
Aber vielleicht sollten wir sowieso aufhören, nur zu reagieren: Wir können Standards verteidigen und wir können uns selbst zur Verantwortung ziehen. Wir können aufhören, technologische Entwicklung als unvermeidliches Schicksal zu behandeln, und anfangen, sie als gestaltbar zu begreifen.
Die Frage ist letztlich nicht, ob KI die Wissenschaft verändert, sondern ob wir bereit sind das zu verteidigen, was Wissenschaft überhaupt erst ermöglicht: Vertrauen, Integrität, und die Überzeugung, dass Wahrheit zählt.
Photo by Will van Wingerden on Unsplash
/
