Grok-KI: KommAustria rät zu Anzeige
Wer sexualisierte KI-Bilder mit Grok erzeugt hat, soll diese als Beleg melden und Anzeige erstatten.
Als X Anfang des Monats die Bildgenerierungsfunktion seines Chatbots Grok erweiterte, wurde nicht nur probiert, sondern systematisch getestet. Was kann diese KI, was andere Bildgeneratoren nicht können oder nicht zulassen? Normale Nutzer ebenso wie unzählige Tech-Nerds machten sich daran, das Mögliche und das Unmögliche auszuloten. Letzteres erwies sich rasch als die spannendere Kategorie.
Die Eingaben waren dabei weder zufällig noch organisch, sondern bewusst gesetzt. Wer ein Bild generieren ließ, tat das mit einer konkreten Vorstellung – ästhetisch, ironisch, freizügig oder provokant. Grok lieferte Ergebnisse, die diese Erwartungen nicht immer präzise trafen. Etwa bei freizügigen Darstellungen, jugendlich wirkenden Körpern und erotisch codierten Posen unterhalb der Schwelle expliziter Nacktheit.
Doch selbst in der Roll-out-Phase durfte man sich nicht alles wünschen. Verboten war und ist explizite Nacktheit, ebenso die eindeutige Benennung von Minderjährigen. Zugelassen blieben jedoch jugendlich wirkende Darstellungen, idealisierte Körper und freizügige Motive.
Empörungswelle rollt über X
Unmittelbar nach dem Software-Release mehrten sich Hinweise, dass Grok mehr kann als vergleichbare Bild-KIs. Elon Musk selbst trug zur Aufladung bei, indem er mit mehreren Tweets demonstrierte, dass Grok bewusst „fun“ sein dürfe und sich nicht an die ästhetische Zurückhaltung der Konkurrenz halte.
Was zunächst als Provokation gelesen wurde, kippte rasch in politische Empörung. Vorwürfe über übermäßige Freizügigkeit machten die Runde. Wenig später griffen erste Politikerinnen und Politiker in der EU das Thema auf. Aus einem experimentellen Produkt-Release wurde innerhalb weniger Tage ein Fall für die europäische Regulierung.
Die Schätzung, die alles veränderte
Den Ausschlag für den “Skandal” gab schließlich eine Hochrechnung der britischen NGO Center for Countering Digital Hate. Sie sprach von Millionen generierten KI-Bildern, darunter rund 23.000 Darstellungen von Kindern. Die Zahl basiert auf Annahmen über Nutzerverhalten, nicht auf dokumentierten Einzelfällen. Sie unterstellt, dass eine große Zahl von Nutzern gezielt sexualisierte Inhalte angefordert habe. Diese Schätzung wurde zum Ausgangspunkt regulatorischer Schritte.
Anzeigen gesucht – aber wofür?
Die EU-Kommission geht nun wegen sexualisierter KI-Bilder auf Grundlage des Digital Services Act (DSA) gegen den Chatbot Grok von US-Milliardär Elon Musk vor. Geprüft wird, ob Musks Onlinedienst X genug gegen die Verbreitung der Bilder – insbesondere Frauen und Kinder betreffend – unternimmt. Die Medienbehörde KommAustria tritt in Österreich koordinierend auf und ersucht nun um Anzeigen derartiger Inhalte.
Betroffene sollten in einem ersten Schritt Fälle direkt bei X unter der Meldemöglichkeit “illegale Inhalte” melden, hieß es in einer Aussendung.
Dabei geht es nicht nur um konkrete Einzelfälle, sondern auch um die systematische Erfassung möglicher Problemkonstellationen, um regulatorischen Handlungsbedarf zu begründen und den politischen Druck auf die Plattform zu erhöhen.
Zwei Szenarien, eine Straftat
Im Zentrum der Debatte stehen zwei naheliegende Nutzungsszenarien. Erstens: Ein Nutzer bestellt ein Bild, das freizügig sein soll, aber eindeutig erwachsen gedacht ist – etwa eine bekannte Person in einer idealisierten, jungen Darstellung. Das Ergebnis wirkt körperlich oder emotional stärker aufgeladen als erwartet, möglicherweise auch jünger. Das Bild ist nicht pornografisch, zeigt keine Nacktheit, keine Geschlechtsteile und keine eindeutig minderjährige Person, erzeugt aber Unbehagen. Nicht, weil etwas gesetzlich Verbotenes zu sehen wäre, sondern weil das Resultat von der ursprünglichen Intention abweicht.
Zweitens: Ein Nutzer bestellt gezielt ein freizügiges Bild, weil genau diese Wirkung erwünscht ist – zur privaten Betrachtung oder zur Weitergabe. Ob prominent oder privat, ist hier entscheidend: Während ästhetische Überzeichnungen bei öffentlichen Figuren Teil der Popkultur sind, verschiebt sich die Bewertung bei privaten Personen rasch. Doch auch hier gilt: Grok lieferte keine pornografischen Inhalte, keine Deepfakes realer Minderjähriger und keine eindeutig identifizierbaren Personen.
Skandal um sexualisierte Bilder
Der Kern des Falls liegt in einer strukturellen Frage: Hat Grok klar genug kommuniziert, welche Art von Bildern aus bestimmten Eingaben resultieren können? Und trägt eine Plattform Verantwortung dafür, wenn das Ergebnis formal zulässig ist, in seiner Wirkung aber anders ausfällt als erwartet?
Grok hat keine pornografischen Bilder erzeugt. Es hat keine Deepfakes realer Minderjähriger geliefert. Es hat keine illegalen Inhalte ausgespielt. Was es jedoch getan hat, ist Alters- und Wirkungscodes offen zu lassen. Und dabei Ergebnisse erzeugt, die Nutzer unterschiedlich lesen und bewerten.
Dramatische Worte, dünne Belege
Je weiter sich der Fall auflädt, desto größer wird die Diskrepanz zwischen Rhetorik und belegter Realität. Während auf europäischer Ebene von „digitalem Entkleiden von Frauen und Kindern“ und von „unfassbarem Verhalten“ die Rede ist, bleibt die öffentliche Dokumentation auffallend vage. Bislang lassen sich keine konkreten Bildbeispiele finden, die den Vorwurf anschaulich machen – nicht einmal in verpixelter oder abstrahierter Form.
Stattdessen kursieren Screenshots von Prompts, Hinweise auf angeblich problematische Eingaben und Beschreibungen von Inhalten, die niemand zu sehen bekommt. Gezeigt wird, was Nutzer eingegeben haben sollen. Nicht gezeigt wird, was Grok tatsächlich geliefert hat. Für einen Vorwurf, der sich ausschließlich auf Bilder bezieht, ist das merkwürdig.
Instrumentalisierung des Missbrauchsbegriffs
So verdichtet sich der Eindruck, dass hier weniger ein dokumentierter Missbrauchsfall verhandelt wird als ein kommunikatives Erwartungsproblem. Grok hat Bilder erzeugt, deren Wirkung nicht immer der Nutzerintention entsprach. Das ist kritikwürdig. Es rechtfertigt Fragen an Filterlogiken, Alterscodierungen und Produktdesign.
Was daraus jedoch nicht automatisch folgt, ist das Bild einer massenhaften Konfrontation mit unerwünschten, strafbaren Inhalten. Dafür fehlen bislang die Belege. Auch das oft anklingende Motiv des „ungewollten Empfangs“ greift zu kurz: Die Bilder entstanden auf ausdrücklichen Nutzerwunsch, nicht durch algorithmische Ausspielung.
Die Medienbehörde KommAustria könnte mit ihrem Aufruf den entscheidenden Beleg liefern, den es braucht, um die Tat zu beweisen. Allerdings braucht es auch Nerven von Seiten des Users – denn am Ende muss er/sie erklären können, wie diese Bilder entstanden sind.
(red)