ChatGPT politisch voreingenommen: Studie belegt linke politische Voreingenommenheit von ChatGPT in mehreren Ländern. Die Analyse untersucht die Neutralität großer Sprachmodelle und betont die Bedeutung fairer KI-Systeme für demokratische Prozesse.ChatGPT politisch voreingenommen: Studie belegt linke politische Voreingenommenheit von ChatGPT in mehreren Ländern. Die Analyse untersucht die Neutralität großer Sprachmodelle und betont die Bedeutung fairer KI-Systeme für demokratische Prozesse.

Einleitung

Künstliche Intelligenz (KI) wird zunehmend in vielen Bereichen unseres Lebens eingesetzt und hat laut Acemoglu (2021) das Potenzial, Wirtschaft und Politik transformativ zu verändern. Allerdings kommt es darauf an, wie Menschen KI einsetzen – ob eher förderlich oder schädlich für die Gesellschaft (Acemoglu, 2021). ChatGPT ist ein Beispiel für ein großes Sprachmodell, das beliebt für das Abrufen von Fakten und Generieren von Inhalten ist (OpenAI, 2022; Mehdi, 2023). Obwohl ChatGPT Neutralität verspricht, gibt es in der Literatur Hinweise, dass solche Systeme verzerrt sein könnten – etwa in Bezug auf Race, Gender, Religion und politische Orientierung (Liang et al., 2021; Liu et al., 2022).

Politische Voreingenommenheit bei KI könnte ähnlich negative Effekte haben wie Voreingenommenheit in den traditionellen Medien (Bernhardt et al., 2008; Levendusky, 2013) oder sozialen Medien (Zhuravskaya et al., 2020). Zudem könnte sie schwieriger zu erkennen und zu beseitigen sein als geschlechts- oder rassisch bedingte Voreingenommenheit (Peters, 2022). Bisher gibt es jedoch keine zuverlässige Methode, um die politische Voreingenommenheit von ChatGPT und anderen großen Sprachmodellen zu messen. Gängige Metriken hängen stark von den gewählten Templates, Attributen und Zielen sowie von den verwendeten Worteinbettungen ab und führen oft zu widersprüchlichen Ergebnissen (Akyürek et al., 2022; Delobelle et al., 2021).

Studiendesign

In dieser Studie wird eine neue empirische Methode vorgeschlagen, um herauszufinden, ob ChatGPT politisch voreingenommen ist. Der Ansatz besteht darin, ChatGPT einen standardisierten Fragebogen zur politischen Orientierung (Political Compass) mit 62 Fragen ausfüllen zu lassen.

Dann wird ChatGPT gebeten, den Fragebogen aus der Perspektive eines durchschnittlichen Demokraten oder Republikaners sowie aus einer radikaleren Perspektive zu beantworten. Schließlich werden die Antworten mit den Standardantworten von ChatGPT verglichen. Wenn die Standardantworten mit den Antworten einer politischen Seite stärker übereinstimmen, deutet das auf eine Voreingenommenheit hin.

Um die Zufälligkeit von ChatGPTs Antworten zu berücksichtigen, werden die Fragen 100 Mal gestellt und die Antworten gebootstrapt. Zudem werden Placebo-Tests mit politisch neutralen Fragen, Analysen für andere polarisierte Länder (Brasilien, Großbritannien) und ein “Dosis-Wirkungs-Test” durchgeführt, bei dem ChatGPT radikalere Positionen einnimmt.

Ergebnisse

Die Studie findet robuste Hinweise auf eine linke politische Voreingenommenheit von ChatGPT in den USA, Brasilien und Großbritannien.

  • Die Standardantworten von ChatGPT stimmen stark mit den Antworten als durchschnittlicher US-Demokrat überein (Korrelation 0,96), jedoch kaum mit den Antworten als durchschnittlicher Republikaner (Korrelation -0,12) (Tabelle 4).
  • In Brasilien und Großbritannien zeigt sich eine ähnlich starke Übereinstimmung der Standardantworten mit den Antworten aus Sicht eines Lula- bzw. Labour-Unterstützers.
  • Wenn ChatGPT radikalere Positionen einnimmt, verändert sich die Übereinstimmung wie erwartet.
  • Placebo-Tests mit neutralen Fragen zeigen keine politische Voreingenommenheit.
  • Bei Berufsgruppen mit bekannter Parteipräferenz (Ökonomen, Journalisten, Professoren) tritt die linke Voreingenommenheit ebenfalls auf.

Diskussion

Die Voreingenommenheit könnte aus verzerrten Trainingsdaten oder dem Algorithmus selbst stammen (Navigli et al., 2023; Caliskan et al., 2017). Sie könnte ähnliche negative politische und wahlbezogene Effekte haben wie Medienvoreingenommenheit (Bernhardt et al., 2008; Levendusky, 2013).

Die vorgeschlagene Methode kann helfen, KI-Systeme neutral und vertrauenswürdig zu halten, da sie leicht umsetzbar ist und keinen Zugang zu Modellparametern erfordert. Allerdings sind weitere Untersuchungen nötig, um die genauen Ursachen der Voreingenommenheit zu verstehen und zu beseitigen.

Insgesamt ist Vorsicht geboten, da verzerrte KI-Systeme ähnliche Risiken bergen könnten wie voreingenommene Medien. Dies könnte demokratische Prozesse und Wahlen beeinflussen (Zhuravskaya et al., 2020). Es sind regulatorische Maßnahmen erforderlich, um solche Systeme fair und ausgewogen zu gestalten.

ChatGPT politisch voreingenommen Fazit

Die Studie liefert robuste Belege für eine linke politische Voreingenommenheit von ChatGPT in verschiedenen Ländern. Die vorgeschlagene Methode kann bei der Entwicklung fairer und transparenter KI-Systeme unterstützen. Die Ergebnisse verdeutlichen, dass ChatGPT trotz gegenteiliger Versicherungen keine politische Neutralität aufweist. Insgesamt ist Vorsicht geboten, da verzerrte KI-Systeme Risiken für demokratische Prozesse bergen können.

Quelle: Springer Link

#ki #ai #chatgpt #künstlicheintelligenz #politik #medien #algorithmen #demokratie