Deepfakes erkennen
Experten setzen auf geschulten Blick und KI-Analyse.
Die Zahl sogenannter Deepfakes nimmt stark zu – also täuschend echt wirkende, mit KI erzeugte oder manipulierte Bilder, Videos und Audioinhalte. Sie werden nicht nur zur Unterhaltung genutzt, sondern können auch dem Ruf schaden oder politische Prozesse beeinflussen.
Laut Forschern wie Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit lassen sich erste Hinweise oft schon mit bloßem Auge erkennen. Dabei wird etwa geprüft, ob Lichtverhältnisse, Schatten oder Wetterbedingungen zum angeblichen Aufnahmeort passen. Unstimmigkeiten bei Lippenbewegungen, Hauttönen oder Details wie Händen können ebenfalls auf Manipulation hindeuten.
Auch Metadaten liefern Hinweise – sofern sie nicht entfernt wurden. Moderne KI-Programme wie ChatGPT können solche Inhalte erzeugen, hinterlassen dabei aber teils erkennbare Spuren.
Neben manueller Prüfung kommen spezielle KI-Tools zum Einsatz, die Deepfakes anhand von Mustern analysieren und Wahrscheinlichkeiten für Fälschungen berechnen. Dennoch wird es zunehmend schwieriger, echte von gefälschten Inhalten zu unterscheiden, da sich die Technologie rasant weiterentwickelt.
Experten sehen daher die Notwendigkeit neuer Lösungen, etwa digitale Echtheitsnachweise für originale Inhalte. Gleichzeitig bleibt die Herausforderung bestehen, solche Analysen auch vor Gericht nachvollziehbar zu machen, da viele KI-Systeme ihre Entscheidungen nicht transparent erklären können.
APA/Red.