Skip to content

Die Risiken von KI

Sicherheitsexperte Yampolskiy von der University of Louisville warnt vor Unkontrollierbarkeit.
© Pexels

Künstliche Intelligenz (KI) kann eine existenzielle Katastrophe auslösen“, warnt Roman V. Yampolskiy, russischer Computerwissenschaftler und KI-Sicherheitsexperte der University of Louisville. KI sei unzureichend verstanden, unzureichend definiert und unzureichend erforscht. Sie habe das Potenzial, die Gesellschaft dramatisch umzugestalten, “nicht immer zu unserem Vorteil“.

Kontrollierbarkeit unmöglich

Yampolskiy hat die wissenschaftliche KI-Literatur umfassend überprüft – und eigenen Angaben nach keinen Beweis für eine sichere Kontrollierbarkeit von KI gefunden. Und selbst wenn es einige Teilkontrollen gäbe, würden diese nicht ausreichen. “Warum gehen so viele Forscher davon aus, dass das KI-Kontrollproblem lösbar ist?” fragt der Experte und ergänzt: “Nach unserem besten Wissen gibt es dafür keinen Beweis.

Die Entwicklung der KI-Superintelligenz sei ein fast garantiertes Ereignis. Deshalb seien erhebliche Anstrengungen zur KI-Sicherheit nötig. Er argumentiert, dass unsere Fähigkeit, intelligente Software zu produzieren, unsere Fähigkeit, sie zu kontrollieren oder sogar zu überprüfen, bei weitem übersteigt. Fortschrittliche intelligente Systeme könnten niemals vollständig kontrolliert werden und stellten daher unabhängig vom Nutzen, den sie bieten, immer ein gewisses Risiko dar. Yampolskiy glaubt, dass es das Ziel der KI-Community sein sollte, dieses Risiko zu minimieren und gleichzeitig den potenziellen Nutzen zu maximieren.

Es besteht Erklärungsbedarf

Das Hauptproblem sei, dass KI und Superintelligenz sich von anderen Programmen durch ihre Fähigkeit entschieden, neue Verhaltensweisen zu erlernen, ihre Leistung anzupassen und in neuartigen Situationen halbautonom zu handeln. Gleichzeitig, so Yampolskiy, könne KI nicht erklären, was sie entschieden hat, oder Menschen könnten die gegebene Erklärung nicht verstehen. KI-Systeme seien heute schon damit beauftragt, Entscheidungen in den Bereichen Gesundheitswesen, Investitionen, Beschäftigung, Bankwesen und Sicherheit zu treffen. Diese sollten in der Lage sein zu erklären, wie sie zu ihren Entscheidungen gekommen sind.

Wenn wir uns daran gewöhnen, KI-Antworten ohne Erklärung zu akzeptieren und ihnen quasi blind vertrauen können wir nicht erkennen, ob sie anfängt, falsche oder manipulative Antworten zu liefern“, warnt Yampolskiy. Mit zunehmender Leistungsfähigkeit der KI nehme ihre Autonomie zu, aber die Kontrolle über sie nehme ab. Um solche Gefahren abzuwenden, müssten Aufwand und Finanzierung für die KI-Sicherheitsforschung erhöht werden. “Wir werden vielleicht nie eine 100-prozentig sichere KI erreichen, aber wir können die KI sicherer machen, was viel besser ist, als nichts zu tun“, so der Experte.

Pressetext/Red.

Gefällt Ihnen der Beitrag?
Facebook
Twitter
LinkedIn
Telegram
WhatsApp
Email
Cookie-Einwilligung mit Real Cookie Banner