Künstliche Intelligenz – ein Fall für das Völkerrecht

Der Gedanke, Roboter für uns arbeiten zu lassen, ist verlockend. Doch was, wenn die Maschinen irgendwann intelligenter und effektiver sind als die Menschen? Künstliche Intelligenz muss reguliert werden.

Euractiv.de
shutterstock_680929729
Die Bundesregierung will bei der KI eine Führungsrolle einnehmen. [<a href="https://www.shutterstock.com/es/g/phonlamaiphoto" target="_blank" rel="noopener">shutterstock/Phonlamai Photo</a>]

Der Gedanke, verstärkt Roboter für uns arbeiten zu lassen, ist verlockend. Doch was, wenn die Maschinen irgendwann intelligenter und effektiver sind als die Menschen und sich anschicken, die Vorherrschaft zu übernehmen? Künstliche Intelligenz muss reguliert werden.

Systeme Künstlicher Intelligenz (KI) erfreuen sich sowohl bei privaten Unternehmen wie auch bei staatlichen Einrichtungen steigender Beliebtheit. Selbstlernende Maschinen können gigantische Datenmengen in atemberaubender Geschwindigkeit verarbeiten und auf dieser Basis zwischen mehreren Alternativen die beste auswählen. Hat die Maschine genügend qualitativ hochwertige Daten, kann sie beispielsweise helfen, medizinische Diagnosen zu verbessern, zwischen Investitionsoptionen zu unterscheiden oder Forschungsergebnisse miteinander zu verknüpfen.

Doch je weiter die Entwicklung der KI fortschreitet, desto mehr betrifft sie auch sensible Bereiche. Schon heute können KI-Systeme entwickelt werden, die beispielsweise Satellitenbilder analysieren und im Falle eines Militäreinsatzes die „optimalen Angriffsziele“ auswählen. Man könnte es so weit treiben, dass diese Ziele dann automatisch attackiert werden. Viele Militärstrategen wünschen sich derartige Lösungen, denn sie nehmen die Last der Entscheidung über Leben und Tod vom Menschen und machen den Einsatz dadurch wesentlich einfacher. Doch dürfen Roboter über Leben und Tod von Menschen entscheiden? Ist das nicht ein moralisches Problem, selbst wenn der Roboter mit einer gewissen Wahrscheinlichkeit sogar eine bessere Entscheidung trifft als jeder Kommandeur das könnte und so letztlich die Erreichung des militärischen Ziels insgesamt weniger zivile Opfer kostet?

Das Beispiel soll zeigen, dass KI viel mehr als nur eine Frage des technischen Fortschritts ist. Allerdings hat sich der technische Fortschritt in den letzten Jahren derart beschleunigt, dass es höchste Zeit wird, einen regulatorischen Rahmen zu entwickeln. Seit den frühen 2010er Jahren gibt es in der KI-Forschung eine enorme Dynamik, weil die Aktivitäten von Facebook, Google und Co. enorme Mengen strukturierter Daten liefern, mit denen KI-Systeme gefüttert werden können. Wohin diese Entwicklung ohne entsprechende Regulierung führen kann, deutet das Beispiel des Militäreinsatzes an.

Unter dem Titel „Das globale Ringen um die Zukunft der künstlichen Intelligenz“ haben jüngst Wissenschaftler der Berliner Stiftung Wissenschaft und Politik (SWP) eine Analyse herausgegeben, die sich mit genau dieser Frage befasst: Wie muss KI reguliert werden, damit die Maschine am Ende dem Menschen dient und nicht umgekehrt. Darin verdeutlichen die Autoren zunächst, dass ein globaler Regulierungsrahmen ideal wäre. Schließlich handelt es sich bei KI um eine globale Entwicklung: China hat bereits massive Investitionen angekündigt, um den Vorsprung der USA aufzuholen. Auch in Russland steht die Entwicklung der KI hoch auf der Agenda. Am Mittwoch zog die EU-Kommission nach und regte umfassende Investitionen an, die jene der Mitgliedsstaaten ergänzen sollen. Vor allem Frankreich und Deutschland haben bereits ambitionierte eigene Pläne am Start.

Als Anknüpfungspunkt für einen internationalen Regulierungsrahmen bringen die SWP-Wissenschaftler Marcel Dickow und Daniel Jacob die verschiedenen Normenordnungen des Völkerrechts ins Spiel. Schließlich seien verschiedene völkerrechtliche Normenordnungen unmittelbar berührt. Einige Beispiele:

Schon heute setzen die USA und Großbritannien KI-Systeme polizeilich ein. Sie erstellen auf Basis von Datenanalysen Prognosen, wann wo und von wem mit besonders hoher Wahrscheinlichkeit Verbrechen begangen werden. In den USA helfen die Systeme sogar bei Gericht das Strafmaß zu optimieren. In China wird an einem Ratingsystem gearbeitet, das das Verhalten der Bürger analysiert, auswertet und gegebenenfalls Sanktionen verhängt. Diese Entwicklungen berühren das Recht auf Gleichbehandlung und einen ordentlichen Gerichtsprozess – und damit universell verbriefte Menschenrechte.

Zudem ist das humanitäre Völkerrecht berührt, denn das Eingangsbeispiel ist keineswegs so fiktiv, wie es möglicherweise erscheint. Viele Staaten investieren massiv in die Entwicklung (teil-)automatischer Waffen. Die USA stehen bereits heute regelmäßig wegen tödlicher Drohnenangriffe in der Kritik. Das betrifft auch Deutschland, da viele tödliche US-Drohneneinsätze über die Relaisstation der Airbase im rheinland-pfälzischen Ramstein gesteuert. Im Rahmen der EU-Verteidigungsunion wird die Anschaffung einer so genannten Euro-Drohne vorbereitet.

Dass Maschinen über das Leben von Menschen entscheiden ist also weit mehr als Science Fiction. Doch schon die partielle Übertragung von Entscheidungen über Gewaltanwendung an Maschinen würde, so die SWP-Autoren, „in grundlegender Weise die Schutzmechanismen des humanitären Völkerrechts“ infrage stellen.

Ein drittes Beispiel ist die Macht der Unternehmen. Facebook, Amazon und andere Internetkonzerne nutzen KI, um umfassende Profile ihrer (potenziellen) Nutzer zu erstellen. Banken nutzen KI um die Kreditwürdigkeit ihrer Kunden zu beurteilen. Damit berührt KI auch den völkerrechtlich garantierten Schutz der Privatsphäre und das Diskriminierungsverbot. Im nationalstaatlichen Rahmen lässt sich das nicht regulatorisch einfangen, denn die meisten hier relevanten Unternehmen agieren transnational.

Folgt man der Argumentation von Dickow und Jacob, ergeben sich vor allem drei Regulierungsziele: Erstens braucht es Transparenz darüber, wer wie und zu welchem Zweck KI einsetzt. Zweitens muss sichergestellt werden, dass KI in sensiblen Bereichen menschlicher Kontrolle unterworfen bleibt. Und drittens müssen die Verantwortlichkeiten eindeutig geklärt werden – zwischen Mensch und Maschine sowie zwischen Hersteller und Anwender.

Alles in allem birgt KI neben allen Chancen also auch enorme Risiken. Die gute Nachricht: Es ist noch nicht zu spät für politische Reaktionen. Der vor wenigen Wochen verstorbene Starphysiker Steven Hawking sagte einmal, dass KI das Beste oder das Schlimmste sein kann, was die Menschheit jemals erfunden hat. Es kommt darauf an, was man daraus macht.

In den letzten Monaten hat sich der Diskurs deutlich „ent-technologisiert“. So rückte beispielsweise der Europäische Wirtschafts- und Sozialausschuss (EWSA) in seiner Stellungnahme Sicherheit, Privatsphäre, Gleichheit, Wohlstand und ethische Fragen in den Mittelpunkt. Gewerkschaften befassen sich mit den Veränderungen der Arbeitswelt und den Folgen für die Arbeitnehmer. Die Vereinten Nationen verhandeln im Rahmen der „Convention on Certain Conventional Weapons“ über den Umgang mit autonomen Waffensystemen.

Auch der aktuelle Vorschlag der EU-Kommission geht über simple Technologieinvestitionen hinaus. Brüssel plant, bis Ende dieses Jahres Leitlinien zur Haftung und Transparenz der Algorithmen sowie zu anderen ethischen Problemen zu veröffentlichen. Die EU-Strategie betont ihren „mensch-zentrierten“ Ansatz bei der KI und stellt den Fokus auf „Ethik als Verkaufsargument“ in den Vordergrund. Das entspricht auch dem Anliegen der SWP-Wissenschaftler. Sie fordern insbesondere die deutsche Außenpolitik auf, international Einfluss auf die Ausgestaltung des reulatorischen Rahmens für KI zu nehmen.