KI-Gesetz der EU: Vor Inkrafttreten herrscht Unsicherheit über Verbote
Interessensvertreter stehen kurz vor Inkrafttreten des KI-Gesetzes der EU vor Herausforderungen, da ihnen klare Leitlinien der EU-Kommission fehlen. Die Verzögerung gefährdet eine fundierte Umsetzung und lässt wichtige Fragen offen.
Interessensvertreter stehen kurz vor Inkrafttreten des KI-Gesetzes der EU vor Herausforderungen, da ihnen klare Leitlinien der EU-Kommission fehlen. Die Verzögerung gefährdet eine fundierte Umsetzung und lässt wichtige Fragen offen.
Das KI-Gesetz der EU verbietet ab dem 2. Februar künstliche Intelligenz mit „inakzeptablem Risiko“, darunter Emotionserkennung, Echtzeit-Biometrie und soziale Bewertungssysteme, im Europäischen Wirtschaftsraum (EWR).
Der Gesetzestext lässt viele Fragen offen, weshalb die Kommission plant, Leitlinien zu veröffentlichen, um die Bestimmungen verständlicher zu machen. Dazu wurde am vergangenen Mittwoch (13. November) eine Konsultation gestartet.
Interessensvertreter können bis zum 11. Dezember Rückmeldung geben, sodass der Kommission weniger als zwei Monate bleiben, um die Leitlinien zu entwerfen und zu genehmigen.
„[Die Konsultation] hätte viel früher stattfinden müssen“, sagte Daniel Leufer, Senior Policy Advisor bei AccessNow, gegenüber Euractiv.
Letzte Woche erklärte die Kommission, „die Leitlinien werden nationalen Behörden sowie Anbietern und Nutzern vor dem 2. Februar helfen“.
Am Mittwoch sagte Kommissionssprecher Thomas Regnier gegenüber Euractiv, die Leitlinien würden „idealerweise“ vor dem 2. Februar fertiggestellt. Ein ausführlicher Entwurf der Leitlinien zu Verboten kursiert innerhalb der Kommission, wurde jedoch nicht öffentlich gemacht, heißt es aus informierten Kreisen.
In der Konsultation forderte die Kommission Interessensvertreter auf, Beispiele für Systeme zu nennen, die verboten werden sollten oder nicht.
„Ich habe noch nie eine Konsultation mit so wenig Details zu bevorstehenden Leitlinien gesehen“, sagte Laura Lázaro Cabrera, Programmleiterin für Gleichheit und Daten beim Centre for Democracy and Technology, gegenüber Euractiv.
Dies schränkt die Fähigkeit ein, gezieltes Feedback zu geben.
„Je detaillierter die Leitlinien sind, desto hilfreicher können wir bei der Rückmeldung sein, da wir die Bereiche eingrenzen können, die uns am meisten Sorgen bereiten“, erklärte Cabrera.
„Die Frist nähert sich und der Prozess muss eine sinnvolle Berücksichtigung von Beiträgen ermöglichen“, sagte der italienische Europaabgeordnete Brando Benifei (S&D) am Montag (18. November) vor IMCO-Ausschussmitgliedern im Namen der KI-Überwachungsgruppe des Parlaments.
„Die Konsultation wird ein entscheidender Schritt im Prozess sein“, fügte er hinzu.
Cabrera äußerte Bedenken, dass die Verbote innerhalb und außerhalb der Kommission zugunsten des Verhaltenskodexes (CoP) für generelle KI-Anwendungen vernachlässigt werden könnten, der möglicherweise den globalen Standard für KI-Systeme wie ChatGPT setzen wird.
„[Der CoP] steht weltweit im Fokus, da wir die Ersten sind, die Regeln für die mächtigsten [GPAI]-Modelle festlegen“, sagte Benifei.
Während der Verhaltenskodex eine der komplexesten Teile der KI-Gesetz-Umsetzung ist, benötigen auch die Verbote umfangreiche Arbeit, um verständlich zu werden.
„Die Kommission ist frei in der Wahl der Konsultationsmethoden“ und „die rechtlichen Konzepte wurden bereits von den Mitgesetzgebern im KI-Gesetz klar definiert“, sagte Regnier.
Lücken und Unklarheiten
Im KI-Gesetz sind die Verbote definiert als: KI, die „subliminale Techniken“ nutzt, prädiktive Polizeiarbeit, „soziale Bewertung“, die Ausnutzung von Schwachstellen bestimmter Gruppen, Gesichtsbilder-Scraping, Emotionserkennung, biometrische Kategorisierung oder Echtzeit-Biometrie.
Jedoch führte der „alles andere als ideale Trilogprozess“ zu „absurden Kompromissen von Menschen, die seit 36 Stunden nicht geschlafen haben“, sagte Leufer.
„Die Verbote sind voller Lücken, unklarer Sprache und problematischer Ausnahmen“, sagte er.
Zum Beispiel gilt das Verbot der Emotionserkennung nur am Arbeitsplatz und in Bildungseinrichtungen, da Strafverfolgungs- und Migrationsbehörden während der Verhandlungen von der Einhaltung dieser Bestimmung ausgenommen wurden.
Die Emotionserkennung hat auch eine „völlig absurde“ Ausnahme für medizinische oder sicherheitsbezogene Anwendungen, vermutlich aufgrund eines Missverständnisses, so Leufer. Zurückzuführen ist dies auf die Müdigkeitserkennung, welche der Medizin erhalten bleiben soll, dieser Bereich wird an anderer Stelle jedoch ausdrücklich von der Kategorie Emotionserkennung ausgeschlossen, womit ein Ausschluss der Emotionserkennung in der Medizin unbegründet ist. Daher fallen nur wenige Systeme legitimerweise unter die Ausnahme.
Ähnliche Probleme treten auch bei anderen Verboten auf. Die kommenden Leitlinien könnten entweder Lücken schließen und Klarheit schaffen oder die Verbote noch unklarer und leichter ausnutzbar machen, so Leufer.
„Wir wünschen uns Klarheit zur Interpretation der Verbote sowie einen gezielten Ansatz, der nicht versehentlich nützliche KI-Anwendungen umfasst“, sagte Marco Leto Barone, Senior Policy Manager beim Information Technology Industry Council (ITI), gegenüber Euractiv.
Die Zivilgesellschaft befürchtet, dass eine Abschwächung der Verbote die Umsetzung des restlichen KI-Gesetzes beeinträchtigen könnte, da sie die gesamte Risikoskala der Gesetzgebung verzerren würde.
Während des Umsetzungsprozesses könnten die Verbote „viel schlechter werden oder sich nur geringfügig verbessern“, sagte Leufer und fügte hinzu: „Es steht viel auf dem Spiel, und es gibt viele interessierte Akteure, die hart daran arbeiten werden, einen bereits fehlerhaften Text durch den Prozess zu schwächen.“
[Bearbeitet von Eliza Gkritsi/Owen Morgan/Kjeld Neubert]