Skip to content

Verwechslungsgefahr bei KI-Bots

Laut einer neuen Studie fällt es Usern zunehmend schwerer, festzustellen, ob sie mit einem echten Menschen oder einem KI-Bot chatten
© KI generiert mit DALL·E von OpenAI

Sitzt ein Mensch oder eine Maschine am anderen Ende der Leitung?

KI-Bots wirken zunehmend menschlicher. Zumindest laut einer Studie der University of Notre Dame unter der Leitung von Paul Brenner. Demnach können immer mehr User KI-Chats nicht von menschlichen Konversationen unterscheiden.

In einem Drei-Runden-Experiment ließ das Forscherteam Menschen und KI-Bots über politische Themen diskutieren. Verwendet wurde pro Runde eine jeweils andere Künstliche Intelligenz, die auf einem großen Sprachmodell (LLM) basiert – so wurden GPT-4 von OpenAI, Llama-2-Chat von Meta und Claude 2 von Anthropic mit unterschiedlichsten Meinungen zur Weltpolitik ausgestattet. Im Anschluss an die Diskussion sollten die Studienteilnehmer sich festlegen, welche ihrer Gesprächspartner sie für Bots und welche für Menschen hielten. Erstaunlich: In 58 Prozent der Fälle lagen die Einschätzungen daneben. Welches KI-Modell verwendet wurde, wirkte sich kaum bis gar nicht auf die Ergebnisse aus.

Dieser Umstand könnte gerade bei der Verbreitung von Fake News künftig eine fatale Rolle spielen. Brenner dazu: „Wir wissen, dass Infos, die von einem Menschen stammen, der an einem Gespräch teilnimmt, stärkere Auswirkungen haben als ein maschineller Kommentar oder Verweis. Es ist wahrscheinlich, dass KI-Bots bei der Verbreitung von Fake News erfolgreich sind, weil wir sie nicht erkennen können.“ So könnten etwa Wahlen beeinflusst werden, warnen die Forscher.

PTE/Red.

Gefällt Ihnen der Beitrag?
Facebook
Twitter
LinkedIn
Telegram
WhatsApp
Email
Cookie-Einwilligung mit Real Cookie Banner