Veränderung der politischen Ausrichtung bei KI-Modellen
Eine aktuelle Studie der Peking-Universität zeigt, dass ChatGPT, der populäre KI-Chatbot von OpenAI, eine zunehmende Verschiebung nach rechts im politischen Spektrum aufweist. Die Forscher stellten fest, dass die Antworten von ChatGPT-Modellen wie GPT-3.5 und GPT-4 bei wiederholten Tests über einen längeren Zeitraum signifikante Veränderungen zeigten.
Die in der Fachzeitschrift Humanities and Social Science Communications veröffentlichte Studie analysierte 62 Fragen des Political Compass Tests. Diese wurden mehr als 3.000 Mal pro Modell gestellt, um Veränderungen in den Antworten zu dokumentieren. Obwohl ChatGPT weiterhin als “libertär-links” eingestuft wird, zeigt die Untersuchung eine “deutliche Rechtsverschiebung”. Diese Erkenntnisse sind relevant, da große Sprachmodelle wie ChatGPT zunehmend gesellschaftliche Werte beeinflussen können, so die Studienautoren.
Ursachen und mögliche Konsequenzen
Die Studie baut auf früheren Untersuchungen des Massachusetts Institute of Technology (MIT) und des britischen Centre for Policy Studies aus dem Jahr 2024 auf. Während diese Studien auf eine linksgerichtete Tendenz in den Antworten von Sprachmodellen hinwiesen, fokussierten sie nicht darauf, wie sich diese Antworten im Laufe der Zeit verändern.
Die Forscher der Peking-Universität identifizierten drei mögliche Ursachen für den Rechtsruck: Änderungen in den Trainingsdaten, die steigende Anzahl von Nutzerinteraktionen oder systembedingte Updates der Modelle. Da KI-Modelle wie ChatGPT kontinuierlich aus Nutzerfeedback lernen, könnten diese Verschiebungen auch gesellschaftliche Trends widerspiegeln. Ereignisse wie der Russland-Ukraine-Krieg könnten polarisierte Anfragen verstärken und die Antworten entsprechend beeinflussen.
Notwendigkeit von Überwachung und Transparenz
Die Forscher warnen, dass KI-Modelle wie ChatGPT, wenn sie nicht reguliert werden, verzerrte Informationen liefern und gesellschaftliche Polarisierung fördern könnten. Es bestehe die Gefahr, dass sogenannte “Echokammern” entstehen, in denen bestimmte Überzeugungen immer weiter verstärkt werden.
Um solche Risiken zu minimieren, empfehlen die Studienautoren regelmäßige Audits und Transparenzberichte, um die Fairness und Ausgewogenheit der Antworten zu gewährleisten.
„Regelmäßige Überprüfungen und klare Richtlinien sind notwendig, um den verantwortungsvollen Einsatz von KI-Technologien sicherzustellen”, betonen die Forscher. Nur durch solche Maßnahmen könne verhindert werden, dass KI unbeabsichtigt gesellschaftliche Spaltungen verstärkt.