Deutschland geht KI-Gesetz nicht weit genug
Verhandlungen zwischen dem EU-Parlament und den Mitgliedsstaaten über das KI-Gesetz (AI-Act) werden noch in diesem Jahr erwartet. Während der EU-Rat sich bereits auf eine Position festgelegt hat, hat Deutschland in einigen Punkten Vorbehalte angemeldet.
Verhandlungen zwischen dem EU-Parlament und den Mitgliedsstaaten über das KI-Gesetz (AI-Act) werden noch in diesem Jahr erwartet. Während der EU-Rat sich bereits auf eine Position festgelegt hat, hat Deutschland in einigen Punkten Vorbehalte angemeldet. Damit liegt Deutschland näher an der Position des Europäischen Parlaments als den restlichen Mitgliedsstaaten.
Am 6. Dezember bestätigten die im EU-Telekommunikationsrat versammelten Minister:innen ihre Unterstützung für die allgemeine Ausrichtung des KI-Gesetzes, einer bahnbrechenden Gesetzgebung, die künstliche Intelligenz auf der Grundlage ihres Schadenspotenzials regulieren soll.
Der deutsche Bundesminister für Digitales, Volker Wissing, begrüßte zwar den Kompromiss, merkte jedoch an, dass es „noch Raum für Verbesserungen“ gebe. Er wünsche sich, dass die Bedenken Deutschlands bei den Verhandlungen mit dem Europäischen Parlament und der Kommission, der sogenannten Trilog-Phase, berücksichtigt würden, hieß es von Seiten Wissings.
Welche Punkte Berlin in den Triloggesprächen weiter vorantreiben wird, könnte ein entscheidender Faktor während der Verhandlungen werden, da Europas größtes Land den Abgeordneten helfen könnte, das Gleichgewicht innerhalb des Rates zu verschieben.
Biometrische Erkennung
Deutschland spricht sich für ein vollständiges Verbot der biometrischen Erkennungstechnologie aus, wie bereits im Koalitionsvertrag der drei Regierungsparteien für 2021 festgehalten. Dies ist auch für die Mitberichterstatter:innen des Parlaments ein wesentlicher Punkt.
Laut einer schriftlichen Stellungnahme vom Oktober, die EURACTIV vorliegt, ist Berlin jedoch nur für ein Verbot der biometrischen Echtzeit-Identifizierung im öffentlichen Raum, während eine nachträgliche Identifizierung erlaubt werden soll.
Gleichzeitig behielten sich die Deutschen das Recht vor, zu einem späteren Zeitpunkt, wenn sich die Diskussion weiterentwickelt, ausführlichere Kommentare zu diesem Thema abzugeben.
Außerdem wollte Deutschland einen Querverweis auf die Definition biometrischer Daten in der Allgemeinen Datenschutzverordnung der EU vornehmen, um terminologische Abweichungen zu vermeiden und biometrische Kategorisierungssysteme als hochriskant einzustufen.
Neue Bundesregierung will Gesichtserkennung und Massenüberwachung verbieten
Die Ampelkoalition will die biometrische Gesichtserkennung verbieten und den Einsatz von Massenüberwachungsinstrumenten einschränken, was eine…
3 Minuten
Prädiktive Polizeiarbeit und Emotionserkennung
Ein weiteres kontroverses Thema ist die Anwendung von KI-Systemen in Strafverfahren. Im selben Kommentarstapel drängte Berlin darauf, jegliche KI-Anwendung zu verbieten, die menschliche Richter:innen bei der Bewertung des Risikos einer Person, eine Straftat zu begehen oder zu wiederholen, ersetzt.
Diese KI-Anwendungen wurden in der endgültigen Einigung des Rates lediglich in die Hochrisikokategorien aufgenommen, während es im Europäischen Parlament offenbar eine starke Unterstützung für ein vollständiges Verbot dieser Praktiken gibt.
In ähnlicher Weise wollten die Deutschen die Liste der verbotenen Praktiken um KI-Systeme erweitern, die von öffentlichen Behörden als Lügendetektoren oder andere Instrumente zur Emotionserkennung eingesetzt werden. Sie forderten auch, alle anderen Systeme zur Erkennung von Emotionen als hochriskant einzustufen.
EU-Abgeordnete beschließen Berichtsentwurf zu künstlicher Intelligenz
Die beiden Ko-Berichterstatter des Europäischen Parlaments haben am Montag (11. April) den Entwurf des Berichts…
5 Minuten
Rechtsdurchsetzung
Der Text des EU-Rates enthält mehrere wichtige Ausnahmeregelungen für die Strafverfolgung. Der deutsche Ansatz bestand darin, den Einsatz von KI durch Strafverfolgungsbehörden generell strenger zu kontrollieren.
Berlin sprach sich jedoch auch dafür aus, diese Anwendungen vom Vier-Augen-Prinzip auszunehmen, das die menschliche Aufsicht durch mindestens zwei Personen verlangt. Deutschland argumentiert hierbei, dass in vielen bestehenden Fällen nur ein Beamter die Entscheidung treffen muss.
Diese Unstimmigkeit rührt wahrscheinlich daher, dass die Liste der Stellungnahmen aus verschiedenen Ministerien stammt, die von unterschiedlichen Koalitionsmitgliedern geführt werden. Es ist nicht immer offensichtlich, welches Ministerium sich bei einem bestimmten Thema durchgesetzt hat, so dass die deutsche Position für die politischen Entscheidungsträger:innen der EU schwer zu interpretieren ist.
Während der gesamten Verhandlungen hat die deutsche Regierung darum gebeten, die KI-Bestimmungen in Bezug auf Sicherheit und Migration in einem separaten Vorschlag zu verpacken. Bisher gab es wenig Appetit für einen solchen Ansatz, der einen separaten Allzweckgesetzgebungsvorschlag erfordern würde.
Kommission will weltweiten Standard für künstliche Intelligenz setzen
Die Europäische Kommission meint, ihr vorgeschlagenes Gesetz über künstliche Intelligenz sollte zum weltweiten Standard werden,…
4 Minuten
KI am Arbeitsplatz
Die deutsche Regierung setzte sich auch dafür ein, KI-Systeme zu verbieten, die dazu dienen, die Leistung und das Verhalten von Mitarbeiter:innen systematisch und ohne konkreten Anlass zu überwachen, was zu psychologischem Druck führt, der sie daran hindert, sich frei zu verhalten.
„Diese KI-Systeme können die Leistung und das Verhalten von Mitarbeiter:innen genau verfolgen, Bewertungen der Kündigungswahrscheinlichkeit oder der Produktivität eines Mitarbeiters erstellen, anzeigen, welche Mitarbeiter:innen möglicherweise negative Stimmung verbreiten, und schließlich umfassende Profile von ihnen erstellen“, heißt es in der Stellungnahme.
Deutschland hat in der allgemeinen Ausrichtung einen Hinweis darauf erhalten, dass es den Mitgliedstaaten freisteht, auf nationaler Ebene Maßnahmen zu ergreifen, um spezifischere Regeln für KI am Arbeitsplatz aufzustellen. Eine ähnliche Formulierung wurde für den Jugendschutz eingeführt.
Einstufung als hohes Risiko
Der tschechischen Ratspräsidentschaft gelang es, die Einstufung als hohes Risiko zu erweitern, so dass KI nicht nur aufgrund ihres Anwendungsbereichs als erhebliches Risiko eingestuft wird, sondern auch, wenn sie dazu beiträgt, den Entscheidungsprozess zu beeinflussen.
Deutschland sprach sich gegen diesen Ansatz aus und betonte, dass KI-Anbieter nicht in der Lage wären, die Anwendungsfälle vorherzusehen. Sie weisen auch auf die fehlende Verpflichtung für Anbieter von Systemen ohne hohes Risiko hin, zu erklären, wie sie zu einer solchen Einstufung gekommen sind.
Berlin hat weitere Vorschläge zu KI-Anwendungen gemacht, die als hochriskant eingestuft werden sollen, nämlich emissionsintensive Industrien, Abwasserentsorgung, Sicherheitskomponenten für kritische digitale Infrastrukturen und öffentliche Warnsysteme für extreme Wetterereignisse.
Zu den weiteren Vorschlägen für die Hochrisikoliste gehören KI-Systeme, die für die Zuweisung von Sozialwohnungen, den Einzug von Schulden und die personalisierte Preisgestaltung eingesetzt werden, da all diese Anwendungen schutzbedürftige Kategorien benachteiligen könnten.