218 / 794

Wikipedia verbietet KI-Inhalte nach gescheiterter Testphase komplett

TL;DR

Die englischsprachige Wikipedia hat KI-generierte Inhalte nach einer langen Testphase offiziell verboten.

Key Points

  • Freiwillige Editoren stellten fest, dass KI-Texte systematisch ungenaue Fakten, schlechte Quellenangaben und einen unbrauchbaren Schreibstil produzierten.
  • Nach mehreren gescheiterten Versuchen, KI-Content zu integrieren und zu verbessern, entschied die Community: komplettes Verbot.
  • Das Verbot gilt für direkt eingefügten KI-generierten Text – nicht für KI-Tools zur Recherche oder Übersetzungshilfe.

Nauti's Take

Das Ergebnis überrascht niemanden, der regelmäßig KI-Outputs prüft – aber es ist trotzdem wichtig, dass Wikipedia es öffentlich und nach echter Erprobung dokumentiert. Die Community hat nicht aus Angst vor KI gehandelt, sondern aus Pragmatismus: schlechte Qualität kostet mehr Aufwand zur Korrektur, als sie an Inhalt einbringt.

Interessant ist die Grenzziehung: KI als Werkzeug für Editoren bleibt erlaubt, KI als Autor nicht. Das ist eine saubere Unterscheidung, die andere Plattformen als Vorlage nehmen könnten.

Wer jetzt argumentiert, bessere Modelle würden das Problem lösen, unterschätzt, wie hoch die Messlatte bei Wikipedia tatsächlich liegt.

Hintergrund

Wikipedia ist das größte von Menschen kuratierte Wissensarchiv der Welt – wenn selbst dort KI-Content nach ausgiebigen Tests als untauglich gilt, ist das ein starkes Signal. Die Entscheidung zeigt, dass das Problem nicht fehlende Prompting-Kompetenz ist, sondern strukturelle Schwächen: KI-Modelle halluzinieren Quellen, verwischen Nuancen und produzieren Text, der auf den ersten Blick plausibel wirkt, beim Fact-Check aber durchfällt. Für Plattformen, die auf Verlässlichkeit angewiesen sind, ist ein Verbot offenbar die praktikablere Lösung als aufwändige Qualitätskontrolle.

Quellen