Skip to content

Stichwort AI Act – EU-Rechtsrahmen für Künstliche Intelligenz

Unterschiedliche Risiko-Gruppen von "Minimal" über "Hoch" bis "Inakzeptabel" geplant
©unsplash

Seit gut zwei Jahren arbeitet die Europäische Union an einer Regulierung Künstlicher Intelligenz (KI). Mit der Verabschiedung des “AI Act” im Europäischen Parlament kommt sie diesem Ziel näher. Nun muss das Gesetz noch mit der EU-Kommission und den einzelnen Staaten der Gemeinschaft im sogenannten Trilog abgestimmt werden. Angestrebt wird eine Einigung im laufenden Jahr.

Grundsätzlich sollen KI-Anwendungen unterschiedlichen Risiko-Gruppen von “Minimal” über “Hoch” bis “Inakzeptabel” zugeordnet werden. Je nach Einstufung müssen die Anbieter bestimmte Sicherheits- und Transparenz-Anforderungen erfüllen. Nachfolgend einige weitere Fragen und Antworten zum “AI Act”:

AUF WELCHE BEREICHE ERSTRECKT SICH DAS GESETZ?

Das Gesetz ist weitreichend und gilt für alle, die ein Produkt oder eine Dienstleistung auf KI-Basis anbieten. Es deckt Anwendungen ab, die Inhalte, Vorhersagen und Empfehlungen liefern oder die Entscheidungsfindung der Nutzer beeinflussen. Dabei stehen nicht nur kommerzielle Angebote, sondern auch die Nutzung von KI im öffentlichen Sektor wie zum Beispiel bei der Strafverfolgung im Fokus. Der “AI Act” soll die Datenschutz-Grundverordnung (DSGVO) ergänzen.

WAS GILT ALS HOCHRISIKO-ANWENDUNG?

Vor allem KI-Programme, die bei kritischer Infrastruktur, der Strafverfolgung oder in der Bildung zum Einsatz kommen, gelten als hoch riskant. Anders als “inakzeptable” Programme werden sie nicht verboten. Sie müssen aber hohe Auflagen erfüllen. In diese Gruppe fällt beispielsweise Software, die zur Überwachung eingesetzt wird oder Fotos und Videos täuschend echt manipulieren (“Deep Fake”) kann. Anbieter werden daher voraussichtlich sämtliche Aktivitäten ihrer KI protokollieren und diese Daten den Behörden zur Prüfung zu Verfügung stellen müssen. Das ist mit hohen Kosten verbunden.

WAS IST “GPAIS”?

GPAIS steht für General Purpose AI Systems. Diese Gesetzes-Kategorie wurde für die recht neue Generative KI geschaffen. Programme wie ChatGPT können unter anderem anhand weniger Stichworte komplette Texte oder Bilder erstellen und in unterschiedlichen Anwendungsbereichen eingesetzt werden. Derzeit diskutiert die Politik noch darüber, ob GPAIS als hoch riskant gewertet werden sollen und welche Konsequenzen dies für die Entwicklung von Produkten auf Basis dieser Technologie bedeuten würde. Der bisherige Gesetzentwurf liefert keine Richtlinien für Anforderungen, die Entwickler dieser Art von KI erfüllen müssen.

WELCHE STRAFEN SIEHT DER “AI ACT” VOR?

Bei einem Gesetzesverstoß drohen Strafen von bis zu 30 Millionen Euro oder sechs Prozent des weltweiten Gewinns – je nachdem, welcher Betrag höher ist. Im Falle des Softwarekonzerns Microsoft, dessen Beteiligung OpenAI ChatGPT entwickelt hat, könnte sich dies auf mehr als zehn Milliarden Dollar summieren.

WANN TRITT DAS GESETZ IN KRAFT?

Sollte wie geplant bis zum Jahresende eine Einigung im Trilog erzielt werden, bleibt den betroffenen Firmen eine Frist von etwa zwei Jahren, um sich an die neuen Rahmenbedingungen anzupassen. Um diese Lücke zu überbrücken, will die EU große Technologiekonzerne und maßgebliche KI-Entwickler zu einer freiwilligen Selbstkontrolle verpflichten.

APA/Red.

Gefällt Ihnen der Beitrag?
Facebook
Twitter
LinkedIn
Telegram
WhatsApp
Email
Cookie-Einwilligung mit Real Cookie Banner