Community empört über fehlende Mitbestimmung
Wikipedia hat den Testlauf eines neuen Features vorzeitig gestoppt. Dabei ging es um sogenannte “Simple Article Summaries”, also automatisch generierte Zusammenfassungen von Artikeln mithilfe künstlicher Intelligenz. Diese sollten eigentlich nur testweise für zwei Wochen und ausschließlich nach freiwilliger Aktivierung sichtbar sein – versehen mit dem Warnhinweis “unverifiziert”.
Doch der Protest aus der Community war massiv. Viele Nutzer warfen der Wikimedia Foundation vor, das Experiment ohne ausreichende Rücksprache gestartet zu haben. In Diskussionsforen wurde die Maßnahme als „PR-Stunt“ bezeichnet, einige forderten sogar, dass Mitarbeitende mit KI-Bezug ihren Job überdenken sollten.
Technischer Fortschritt oder redaktioneller Rückschritt?
Einige Stimmen sahen in der Idee durchaus Potenzial, allerdings nicht als Ersatz für sorgfältig geschriebene Inhalte. Sie wiesen darauf hin, dass die Lesbarkeit vieler Artikel ohnehin ein Problem sei – KI könne hier lediglich Symptome behandeln, nicht die Ursache.
Ob Wikipedia ausgerechnet auf der eigenen Seite Zusammenfassungen braucht, wenn Chatbots ohnehin auf die Plattform zugreifen, bleibt umstritten. Viele halten es für sinnvoller, wenn freiwillige Autorinnen und Autoren selbst leserfreundliche Zusammenfassungen erstellen.
Wikimedia räumt Fehler ein – Diskussion geht weiter
Die Wikimedia Foundation hat mittlerweile eingeräumt, bei der Kommunikation rund um den Testversuch ungenügend gehandelt zu haben. Man habe versäumt, die Community rechtzeitig einzubeziehen und offen über das Vorhaben zu informieren.
Trotz des Rückziehers bleibt die Frage offen, wie KI in Zukunft bei Wikipedia eingesetzt werden kann – wenn überhaupt. Der Vorfall zeigt einmal mehr, wie sensibel das Gleichgewicht zwischen technologischem Fortschritt und partizipativer Mitbestimmung im Open-Source-Bereich ist.