KI-Bots wirken zunehmend menschlicher. Zumindest laut einer Studie der University of Notre Dame unter der Leitung von Paul Brenner. Demnach können immer mehr User KI-Chats nicht von menschlichen Konversationen unterscheiden.
In einem Drei-Runden-Experiment ließ das Forscherteam Menschen und KI-Bots über politische Themen diskutieren. Verwendet wurde pro Runde eine jeweils andere Künstliche Intelligenz, die auf einem großen Sprachmodell (LLM) basiert – so wurden GPT-4 von OpenAI, Llama-2-Chat von Meta und Claude 2 von Anthropic mit unterschiedlichsten Meinungen zur Weltpolitik ausgestattet. Im Anschluss an die Diskussion sollten die Studienteilnehmer sich festlegen, welche ihrer Gesprächspartner sie für Bots und welche für Menschen hielten. Erstaunlich: In 58 Prozent der Fälle lagen die Einschätzungen daneben. Welches KI-Modell verwendet wurde, wirkte sich kaum bis gar nicht auf die Ergebnisse aus.
Dieser Umstand könnte gerade bei der Verbreitung von Fake News künftig eine fatale Rolle spielen. Brenner dazu: „Wir wissen, dass Infos, die von einem Menschen stammen, der an einem Gespräch teilnimmt, stärkere Auswirkungen haben als ein maschineller Kommentar oder Verweis. Es ist wahrscheinlich, dass KI-Bots bei der Verbreitung von Fake News erfolgreich sind, weil wir sie nicht erkennen können.“ So könnten etwa Wahlen beeinflusst werden, warnen die Forscher.
PTE/Red.