Eine Ära, in der KI wissenschaftliche Arbeiten schreibt und begutachtet – Ist dies eine "Evolution" oder ein "Zusammenbruch" der wissenschaftlichen Publikation? Wie wird sich das "Vertrauen in die Wissenschaft" verändern?

Eine Ära, in der KI wissenschaftliche Arbeiten schreibt und begutachtet – Ist dies eine "Evolution" oder ein "Zusammenbruch" der wissenschaftlichen Publikation? Wie wird sich das "Vertrauen in die Wissenschaft" verändern?

1. Der Einstieg von KI in die "Eingangsstufe" der Forschung

Das Thema generative KI zieht oft die Aufmerksamkeit auf die Forschung selbst (Hypothesengenerierung und Versuchsplanung). Tatsächlich jedoch ist der Einfluss von KI auf die "Eingangsstufen", die das Vertrauen in die Wissenschaft stützen – das Verfassen, Begutachten, Bearbeiten und Veröffentlichen von Arbeiten – allmählich spürbarer.


Ein Artikel von Undark beschreibt diesen Wandel sowohl aus der Perspektive des Schreibens als auch der Begutachtung. Mohamad Hosseini, ein Forscher für KI-Ethik, der als Redakteur Manuskripte bearbeitet hat, berichtet, dass er eine beträchtliche Anzahl von offensichtlich KI-generierten, unnatürlichen Manuskripten gesehen hat. Häufiger Gebrauch von Gedankenstrichen, logische Sprünge und inkohärente Texte sind Anzeichen, die es in der Praxis gibt. Doch die Qualität der KI verbessert sich stetig, und irgendwann könnte dieser Instinkt nicht mehr ausreichen – dieses Gefühl der Dringlichkeit ist der Ausgangspunkt des Artikels.


2. Mehr Menschen zum Schreiben befähigen: KI als Unterstützung beim Verfassen

Der erste Bereich, in dem generative KI ihren Wert zeigt, sind "Schreibarbeiten" wie das Zusammenfassen von Literatur, das Erstellen von Entwürfen, Übersetzungen und das Korrekturlesen von englischen Texten. Besonders für Nicht-Muttersprachler kann die Sprachbarriere bei der Veröffentlichung von Forschungsergebnissen ein Nachteil sein. Der Artikel beschreibt, wie KI diese Kluft verringern und mehr Forschern helfen kann, auf der internationalen Bühne zu bestehen.


Tatsächlich zeigt die Nutzung durch Forscher bereits statistische Auswirkungen. Eine Umfrage von Nature unter etwa 5.000 internationalen Forschern ergab, dass ein gewisser Prozentsatz KI für das Erstellen von Entwürfen, Übersetzungen, Zusammenfassungen und Bearbeitungen verwendet. Eine andere umfassende Analyse vermutet, dass bis 2024 eine beträchtliche Anzahl von Abstracts im biomedizinischen Bereich durch sprachmodellierte Formulierungen beeinflusst sein könnte.


Wichtiger als die Tatsache, dass "KI Arbeiten schreibt", ist, dass die "Kosten für Schreibarbeiten" sinken und dadurch die Forschungsleistung steigt. Wenn die Schreibgeschwindigkeit zunimmt, steigen die Einreichungen, und die Redaktionen werden mit Manuskripten überschwemmt. Das Gleichgewicht zwischen Qualität und Quantität wird immer schwieriger.


3. Halluzinationen, Plagiate und Fälschungen: Die Risiken hinter der Bequemlichkeit

Die Schwächen der KI sind bekannt: Halluzinationen (plausible Lügen), falsche Zitate, das Präsentieren nicht existierender Beweise. Der Artikel betont zudem spezifische, schwerwiegende Probleme im Bereich der wissenschaftlichen Publikation – Plagiate und die Förderung von "Papierfabriken". Da KI in der Lage ist, formell gestaltete Texte schnell zu generieren, senkt sie die Hürde für Betrug. Datenfälschung gab es schon vor der KI, aber KI bietet "Massenproduktion" und "Geschwindigkeit".


Besorgniserregend ist, dass Betrug nicht nur aus böser Absicht entsteht. Forscher könnten KI als "praktische Stützräder" nutzen und dabei unabsichtlich Fehlinformationen oder Plagiate einfügen. Je natürlicher der Text wirkt, desto leichter lassen sich sowohl Leser als auch Autoren von der "Plausibilität" leiten.


4. Die Versuchung, KI in die Begutachtung einzubeziehen: Personalmangel und Erwartungen an Fairness

Ein weiteres zentrales Thema der Diskussion ist die Begutachtung. Es gibt Hinweise darauf, dass der Mangel an Gutachtern seit der Pandemie zugenommen hat, und Redakteure haben Schwierigkeiten, da Anfragen abgelehnt oder nicht beantwortet werden. Daher entsteht die Erwartung, dass "KI die Reichweite der Gutachter erweitern könnte". Im Artikel erwähnt Roy Perlis, Chefredakteur von JAMA+AI, dass KI die Belastung der Forscher verringern und mehr Menschen zur Teilnahme an der Begutachtung ermutigen könnte.


Zudem gibt es die Illusion, dass KI-Begutachtung "neutral" sei. Wenn sie sich von bestimmten Schulen, Netzwerken oder Vorurteilen gegenüber Hypothesen distanzieren kann, könnte die Fairness sogar steigen. Doch der Artikel warnt sofort: Da KI auf Basis vergangener Publikationsdaten lernt, könnte sie historische Verzerrungen (Vorteile für bekannte Forscher, renommierte Institutionen, zentrale Länder) reproduzieren. Tatsächlich zeigen mehrere Studien, dass KI dazu neigt, Institutionen mit hohem Status oder bekannten Autoren positiv zu bewerten.


Hier zeigt sich die Tatsache, dass "KI nicht neutral, sondern durchschnittlich vergangen" ist. Wenn die Publikationskultur der Vergangenheit verzerrt war, besteht die Gefahr, dass KI-Begutachtung diese Verzerrung "automatisiert".


5. Regelwerk: Erlaubnis, Verbot und Offenlegung als pragmatischer Ansatz

Wie reagieren Verlage und Fachzeitschriften darauf? Laut dem Artikel bieten viele führende Zeitschriften Leitlinien zur Nutzung generativer KI an, verbieten deren Nutzung für wissenschaftliches Fehlverhalten, erlauben jedoch unter bestimmten Bedingungen Sprachbearbeitung und Analyseunterstützung. PLOS verlangt, dass der Name des verwendeten Tools, die Nutzungsmethode, die Bewertung der Angemessenheit der Ausgabe und der Einflussbereich angegeben werden.


In Bezug auf die Begutachtung ist die Vertraulichkeit das größte Thema. Wenn unveröffentlichte Manuskripte in externe KI-Dienste eingegeben werden, besteht die Gefahr von Informationslecks. Daher fordern einige große Verlage ihre Gutachter auf, keine unveröffentlichten Manuskripte in generative KI hochzuladen, wie der Artikel beschreibt.


Zudem wird die Anerkennung von KI als Mitautor oder die Erlaubnis von KI-generierten Bildern und Bildveränderungen zunehmend abgelehnt. Letztlich wird die Überprüfbarkeit der Wissenschaft erschüttert, wenn die Verantwortung nicht auf den "Menschen" fixiert wird. Der Artikel betont das starke Prinzip, dass "letztendlich der menschliche Autor für jedes Wort und jede Zahl in der Arbeit verantwortlich ist".


6. Erkennung ist nicht allmächtig: Ein Katz-und-Maus-Spiel beginnt

Der Gedanke, "KI-Generierung zu erkennen", ist verlockend, aber der Artikel bleibt nüchtern. Erkennungstools haben ihre Grenzen, und sowohl die Nutzer als auch die Erkannten entwickeln sich weiter. Je mehr der Stil verschwindet, die Logik kohärent wird und die Zitate "plausibel" erscheinen, desto schwieriger wird die Unterscheidung. Zudem könnte übermäßiges Vertrauen in die Erkennung dazu führen, dass Nicht-Muttersprachler, die KI nur zur Überarbeitung nutzen, unter Verdacht geraten und eine andere Art von Ungerechtigkeit entsteht.


Das bedeutet, dass die wissenschaftliche Publikation weder "vollständig verboten" noch "vollständig akzeptiert" werden kann. Die pragmatische Lösung besteht in einem "Betrieb", der (1) Transparenz (Offenlegung), (2) Vertraulichkeit (Eingabebeschränkungen), (3) menschliche Aufsicht (Verantwortungsfixierung) und (4) Maßnahmen gegen Fehlverhalten (Stärkung des Bearbeitungs- und Begutachtungsprozesses) kombiniert.


7. Reaktionen in sozialen Medien: Optimismus und Pessimismus beschleunigen sich gleichzeitig

 

Nicht nur auf den Artikel selbst, sondern auch auf das allgemeine Thema "KI x wissenschaftliche Publikation" gibt es in den sozialen Medien polarisierte Reaktionen.


Die pessimistischen Argumente sind einfach: "Die Publikation ist nicht vorbereitet", "Betrug wird zunehmen", "Vertrauen wird zerstört". In Gemeinschaften, die sich mit Retraction (Rücknahme) und wissenschaftlichem Fehlverhalten befassen, herrscht eine starke Vorsicht gegenüber einer "Flut von Schrottarbeiten" durch KI, und der Ton, dass die Publikationsinfrastruktur nicht mithalten kann, wird wiederholt.


Die optimistischen Argumente sind: "Neue Workflows können entwickelt werden", "Es gibt Raum für eine Neugestaltung der Begutachtung und Veröffentlichung". Zum Beispiel gibt es Äußerungen von arXiv-Vertretern, die darüber sprechen, dass die wissenschaftliche Publikation im Zeitalter der generativen KI neue Werkzeuge und Methoden integrieren könnte, und die Diskussion schreitet auf der Grundlage von Veränderungen voran.


Und als pragmatische Perspektive gibt es viele Diskussionen darüber, "was akzeptabel ist und was offengelegt werden sollte". Ein Beitrag, der eine Umfrage von Nature vorstellt, zeigt die Unterschiede und Bedingungen in der Forscher-Community in Bezug auf die Nutzung von KI auf und deutet darauf hin, dass ein "grauer Betrieb" statt eines Schwarz-Weiß-Ansatzes erforderlich ist.


Die Zusammenfassung der Stimmung in den sozialen Medien lautet:

  • Die Bequemlichkeit wird nicht bestritten (besonders beim Schreiben, Zusammenfassen, Übersetzen)

  • Aber es gibt starke Bedenken hinsichtlich Betrug, Fälschung und der Zunahme von Schrott

  • Die Lösung liegt eher in "Regeln + Aufsicht + Transparenz" als in "Verbot"
    Genau die Punkte, die im Artikel von Undark angesprochen wurden, werden in anderen Worten wiederholt.

8. Der zukünftige Fokus: "Wer trägt Verantwortung für was?"

Dass KI die wissenschaftliche Publikation verändert, ist bereits eine feststehende Annahme. Die Frage ist, "wie" sich diese Veränderung vollzieht.


Wenn KI die Massenproduktion von Arbeiten und den Betrug beschleunigt und die Begutachtung aushöhlt, wird das Vertrauen in die Wissenschaft erodiert. Im Gegensatz dazu, wenn KI die Sprachbarrieren verringert, den Mangel an Gutachtern ausgleicht und den Bearbeitungsprozess effizienter macht, wird die Wissenschaft offener.


Der Wendepunkt liegt nicht in der Technologie, sondern in der Governance. Offenlegung, Vertraulichkeit, Verantwortungsfixierung und menschliches Auge. Wie der Artikel abschließend zeigt, übt KI Druck aus, jeden Schritt des Publikationsprozesses zu überdenken. Deshalb sollten wir nicht darüber diskutieren, ob wir KI "einführen oder nicht", sondern ob das Design so ist, dass "Menschen die Verantwortung übernehmen können".



Quellen-URL