Zum Hauptinhalt springen
ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Logo
  • Alle Artikel
  • 🗒️ Registrieren
  • 🔑 Anmelden
    • 日本語
    • English
    • 中文
    • Español
    • Français
    • 한국어
    • ภาษาไทย
    • हिंदी
cookie_banner_title

cookie_banner_message Datenschutzrichtlinie cookie_banner_and Cookie-Richtlinie cookie_banner_more_info

Cookie-Einstellungen

cookie_settings_description

essential_cookies

essential_cookies_description

analytics_cookies

analytics_cookies_description

marketing_cookies

marketing_cookies_description

functional_cookies

functional_cookies_description

Wie Wikipedia gegen „AI-Schlamm“ kämpft — Die Auswirkungen der „Schnelllöschung“: Neue Regeln zum Schutz der Qualität

Wie Wikipedia gegen „AI-Schlamm“ kämpft — Die Auswirkungen der „Schnelllöschung“: Neue Regeln zum Schutz der Qualität

2025年08月10日 12:10

Einführung: Wie sich Enzyklopädien der "Flut von KI" stellen

Der Aufstieg der generativen KI hat sowohl positive als auch negative Auswirkungen auf die Geschwindigkeit. Die Fähigkeit, in kurzer Zeit große Mengen an Text zu erzeugen, ist für kollaborative Projekte wie Enzyklopädien ein zweischneidiges Schwert. Wikipedia sieht sich derzeit mit einer Flut von minderwertigen Inhalten konfrontiert, die als "AI Slop" bezeichnet werden und durch Fehlinformationen und erfundene Quellen aufgebläht sind. The Verge berichtet, dass die Community begonnen hat, wie ein "Immunsystem" zu funktionieren. Sie erkennt schnell Fremdkörper, eliminiert sie und lernt, wie man damit umgeht — eine solche Metapher wird verwendet.


Inhalt der neuen Regel: G15 "Seiten, die ohne menschliche Überprüfung von LLMs erstellt wurden"

Nach Diskussionen wurde eine Erweiterung der "Speedy Deletion"-Kriterien angenommen. Normalerweise erfolgt die Löschung nach einer siebentägigen öffentlichen Diskussion, aber Seiten, die offensichtlich von KI erstellt wurden und keine menschliche Überprüfung durch den Ersteller haben, können nun nach Ermessen der Administratoren sofort gelöscht werden (Kriterienname "G15"). Es gibt zwei Hauptindikatoren: ① Phrasen wie "Here is your Wikipedia article…" oder "as a large language model…" mit einem "Prompt Response"-Charakter, ② erfundene Zitate wie nicht existierende Artikel, irrelevante Quellen, unlösbare DOIs oder ungültige ISBNs. Wikipedia404 Media


Diese neuen Kriterien gelten nur für Fälle, die "so offensichtlich sind, dass sie eine sofortige Löschung rechtfertigen". Ein bloßer AI-ähnlicher Schreibstil reicht nicht aus. Es ist wichtig, dass dies als "offensichtlicher Verstoß" neben Vandalismus, Werbung, fiktiven Artikeln und Belästigung positioniert wird, die bereits unter die bestehenden Speedy Deletion-Kriterien (wie G10 oder G11) fallen.


Katalog zur Erkennung von "AI-ähnlichem" Inhalt: WikiProject AI Cleanup

Auf der Community-Seite wurde das "WikiProject AI Cleanup" ins Leben gerufen, um eine "Landkarte der Minen" von KI-spezifischen Phrasen und Formaten zu erstellen. Übermäßige Werbung, zu perfekt formulierte Rhetorik, ein übermäßiger Gebrauch von "moreover", gekrümmte Anführungszeichen („ “) und übermäßige Gedankenstriche (—) sind einige der geteilten Indikatoren. Diese sind jedoch nur "Hilfslinien". Der entscheidende Faktor für die Löschentscheidung sind die oben genannten direkten Prompt-Importe und falsche Zitate als "entscheidende Spuren".


404 Media berichtete zuerst, gefolgt von internationalen Medien

404 Media war das erste Medium, das über die Richtlinienänderung berichtete. Danach folgten PCWorld und das deutsche Heise, wodurch die Diskussion global sichtbar wurde. Der Punkt ist, dass in der Wikipedia, die die Diskussionskultur respektiert, die Bedingungen, unter denen "Geschwindigkeit" ausnahmsweise priorisiert werden kann, klar formuliert wurden. 404 MediaPCWorldheise online


Haltung der Stiftung: Stopp der Zusammenfassungs-KI, aber "AI zur Unterstützung von Menschen" geht weiter

Die Wikimedia Foundation, die die Plattform betreibt, ist unabhängig von den Entscheidungen der Community. Im Juni wurde ein Experiment zur Anzeige von KI-Zusammenfassungen am Anfang von Artikeln nach Widerstand der Community gestoppt (in der Vergangenheit gab es starke Stimmen für ein "Nein"), aber die Einführung von "AI zur Unterstützung von Editoren" wie Vandalismus-Erkennung und Übersetzungshilfe wird fortgesetzt. Edit Check warnt vor fehlenden Zitaten und prüft die Neutralität, während Paste Check bei Massenkopien überprüft, ob es sich wirklich um den eigenen Text handelt.


Was sich ändert: Geschwindigkeit, Belastung, Zuverlässigkeit

  • Geschwindigkeit: Offensichtliche AI Slop kann ohne Diskussion sofort behandelt werden. Wenn neu erstellte "Vandalismus-Artikel" oder "erfundene Zitate" schnell entfernt werden können, bleibt mehr Zeit für andere Bearbeitungen. 404 Media

  • Belastungsreduktion: Die Last der "Nachbereitung" von AI-Artikeln ohne Vorabprüfung wird reduziert, und begrenzte Ressourcen für die Überwachung können neu verteilt werden.

  • Zuverlässigkeit: Falsche Zitate und fiktive Literatur erschüttern das Fundament einer Enzyklopädie. Die Standardisierung von leicht erkennbaren "entscheidenden Spuren" ist von großer Bedeutung. PCWorld


Allerdings kein "Allheilmittel"

Auch innerhalb der Community gibt es Stimmen, die dies als "Pflaster" betrachten. Auch bei AI-gestarteten Artikeln kann durch sorgfältige menschliche Überprüfung hohe Qualität erreicht werden, und auch Menschen können schlechte Artikel schreiben. Deshalb zielt G15 auf "offensichtliche Fehler" ab. Langfristig sind unterstützende Tools wie Edit Check, Konsensbildung auf Diskussionsseiten und die Verstärkung des Workflows zur Quellenprüfung unerlässlich. PCWorld


Reaktionen in sozialen Medien: Mehrheitliche Unterstützung, aber auch Bedenken wegen Fehlurteilen und Abschreckung


  • X (ehemals Twitter): Die Beiträge von The Verge und Slashdot wurden weit verbreitet. Die allgemeine Stimmung war "gut gemacht", aber es gab auch Fragen wie "Ist das nicht eine vollständige Ablehnung von KI?". X (ehemals Twitter)

  • Reddit: In r/technology und r/wikipedia war die Unterstützung mit Kommentaren wie "Die Richtung stimmt" und "Ich möchte mehr Spenden" auffällig, aber es gab auch Warnungen vor Beispielen, in denen Diskussionen von KI "verfasst" und eingebracht wurden, sowie Hinweise auf das Risiko von Fehlurteilen. Reddit

  • Hacker News: Langjährige Leser äußerten Bedenken über "zirkuläre Referenzen von AI Slop (AI→Wiki→nächste Generation AI)". Während die Standardisierung begrüßt wird, wird auch das Gleichgewicht mit der Offenheit diskutiert. Hacker News

  • Threads / Bluesky: Die öffentliche Natur von Wikipedia wurde geschätzt, und es gab Stimmen, dass andere Plattformen diesem Beispiel folgen sollten. ThreadsBluesky Social


Wie kann man Fehlurteile verhindern?

"AI-ähnliche" Merkmale sind nur Indizien. Auch in den Wikipedia-Richtlinien wird klargestellt, dass gekrümmte Anführungszeichen oder der häufige Gebrauch von "moreover"allein kein Grund für eine Löschungsind, und die endgültige Entscheidung beruht auf "entscheidenden Beweisen" wie direkten Prompt-Importen oder erfundenen Zitaten. Dies ist auch eine Sicherheitsmaßnahme, um die Abschreckung legitimer Autoren zu vermeiden.


Warum dennoch menschliche "Konsensbildung" erforderlich ist

Das Vertrauen in Enzyklopädien basiert auf der Überprüfbarkeit der Quellen und der Transparenz der Versionsgeschichte. KI kann dabei unterstützen, aber sie kann es nicht ersetzen. Die Metapher des "Immunsystems", die von einem Vertreter der Stiftung verwendet wird, deutet letztlich darauf hin, dassmenschlicher Konsensdie Antikörper bildet. Um die "Vermehrungsgeschwindigkeit von Fehlinformationen" zu übertreffen, muss die Lernfähigkeit der Community gesteigert werden.


Ausblick: Weil es offen ist, wird die Grenzziehung klar formuliert

G15 ist ein "minimaler Geschwindigkeitsverstoß", um die Zuverlässigkeit zu wahren, ohne die Offenheit zu beeinträchtigen. Die Bedeutung, in einer Kultur, die Diskussionen schätzt, eine Schiene für ausnahmsweise schnelle Reaktionen zu legen, ist nicht gering. In Zukunft werden die "Transparenz des Erstellungsprozesses" durch Tools wie Paste Check und die Verbesserung der KI-gestützten Vandalismus-Erkennung entscheidend sein. Wikipedia wird sich nicht gegen KI stellen, sondern in Richtung einer Unterscheidung zwischen "AI, die Menschen hilft" und "AI, die Menschen täuscht" weiterentwickeln.


Quellen

Wie Wikipedia gegen von KI erzeugte minderwertige Inhalte kämpft
Quelle: https://www.theverge.com/report/756810/wikipedia-ai-slop-policies-community-speedy-deletion

Powered by Froala Editor

← Zurück zur Artikelliste

Kontakt |  Nutzungsbedingungen |  Datenschutzrichtlinie |  Cookie-Richtlinie |  Cookie-Einstellungen

© Copyright ukiyo journal - 日本と世界をつなぐ新しいニュースメディア Alle Rechte vorbehalten.