Vortrag zu (letalen) autonomen Waffensystemen beim CISG an der Universität Bonn

Weitgehend unbemerkt von der breiten Öffentlichkeit vollzieht sich ein revolutionärer Wandel in der Kriegsführung. (Letale) autonome Waffensysteme, kurz „(L)AWS“, erobern mehr und mehr die Gefechtsfelder aktueller Konflikte. So wie das Maschinengewehr den Ersten und der Kampfpanzer den Zweiten Weltkrieg prägten und diese globalen Konflikte nachhaltig beeinflussten, so werden Drohnen und Kampfroboter mit Hilfe künstlicher Intelligenz („KI“) die Art und Weise ändern, wie in Zukunft Kriege geführt werden. Die Bundeswehr hat sich jüngst in einem eigenen Thesenpapier „Wie kämpfen Landstreitkräfte künftig“ mit diesem Thema intensiv auseinandergesetzt.

In den letzten fünfzehn Jahren ist die Zahl der AWS rasant gestiegen. Nun werden diese zunehmend mit immer mehr autonomen Funktionen und künstlicher Intelligenz ausgestattet, um noch mehr Waffensysteme mit immer weniger Soldaten bedienen zu können. Die Kritiker fordern ein sofortiges Verbot von „Killerrobotern“, die Befürworter sprechen von „hochpräzisen, chirurgischen Waffen“. Die UN berät in Genf, wie ein globales Wettrüsten bei LAWS verhindert und der Einsatz selbst begrenzt werden kann. Die Staatengemeinschaft konnte sich aber bislang in fünf Verhandlungsrunden nicht auf allgemein gültige Regelungen einigen. Sollten LAWS grundsätzlich verboten werden und ist ein solches Verbot überhaupt noch durchsetzbar?

Bislang trifft die Entscheidung über Leben und Tod immer noch der Mensch, nicht die Maschine, aber wie lange wird das noch so sein? Die Befürworter sehen kein Problem darin, wenn „intelligente“ Maschinen demnächst letale Entscheidungen fällen sollen. Ihre Präzision könnte sogar unerwünschte Kollateralschäden in Zukunft verringern bzw. verhindern. Fast 4.000 Wissenschaftler und Manager von Software- und Internetunternehmen haben demgegenüber auf die Gefahren autonomer Waffen mit künstlicher Intelligenz hingewiesen und angekündigt, sich zukünftig nicht mehr an der weiteren Entwicklung zu beteiligen. Maschinen dürften aus ethischen und moralischen Gründen keine Entscheidung über Krieg oder Frieden bzw. Leben oder Tod treffen.

Doch wo stehen wir wirklich bei der Entwicklung von LAWS? Und wo führen Fortschritte der künstlichen Intelligenz bei der Waffenentwicklung hin? Muss das Völkerrecht tatsächlich im Bereich der UN Konvention über bestimmte konventionelle Waffen von 1980 erweitert werden oder reichen die bislang bestehenden Regeln in den Genfer Konventionen von 1949 nebst Zusatzprotokollen?

Auf Einladung des Center for International Security and Governance (CISG) der Universität Bonn habe ich dort am 11.10.2018 im Festsaal zu diesem Thema einen Vortrag gehalten. Den Bericht zu der Veranstaltung möchte ich mit freundlicher Genehmigung des CISG hier im Original wiedergeben.

Bericht zur Veranstaltung

CISGBONN NEUIGKEITEN, VERANSTALTUNGEN 2018

Am 11.10.2018 veranstalteten das Center for Global Studies (CGS) und das Center for International Security and Governance (CISG) der Universität Bonn im Festsaal der Bonner Universität eine Veranstaltung zum Thema Künstliche Intelligenz und Zukunft der Kriegsführung. Zur Begrüßung der zahlreich erschienenen Zuhörer führte Philip Ackermann vom CISG in den ebenso komplexen wie streitbaren Themenbereich ein, indem er feststellte, dass wir uns weit intensiver mit dem Thema KI auseinandersetzen müssen, deren Entwicklung immer schneller voranschreitet und uns die Erfassung aller mit ihr einhergehenden Implikationen zunehmend erschwert. Zur Annäherung an diese Problematik bot der Berliner Rechtsanwalt und freie Journalist Roger Näbig einen Überblick über den aktuellen technischen Entwicklungsstand von automatischen und autonomen Waffensystemen und ging der Frage nach, wo die Fortschritte der KI in der Waffenentwicklung möglicherweise hinführen könnten.

KI, konstatierte Näbig, ist ähnlich wie die Elektrizität oder die Erfindung der Dampfmaschine kein Teilaspekt technischer Entwicklung, sondern eine Erfindung, die alle anderen Bereiche grundlegend transformiert. Die rasante Verbreitung von automatischen Waffensystemen (AWS) ist bereits jetzt beachtlich: Verfügte etwa die U.S. Army um die Jahrtausendwende noch über nur etwa 50 Drohnen, lag die Zahl militärisch genutzter Drohnen und Landroboter alleine in den USA 2014 schon bei 23.000 und steigt seitdem immer weiter an. Das militärische Potential und Einsatzgebiete dieser Technik sind schon jetzt enorm. So ermöglichen sie die Überwindung sogenannter A2AD (Anti-Access Area Denial)-Zonen, also solche Zonen, die mit herkömmlichen militärischen Mitteln nicht besetzt oder durchquert werden können. Weiterhin betonen Befürworter die größere Präzision, Geschwindigkeit, Mobilität, Ausdauer und Reichweite automatischer Waffensysteme. Gerade auch durch die Eliminierung des menschlichen Faktors und die Gefahren durch Ermüdung, Angst oder Hass bei Soldaten würden außerdem menschliche „Kollateralschäden“ verringert, wobei Näbig diese Annahme mit Blick auf Afghanistan freilich mit einem gewissen Zweifel betrachtete.

Vollautonome letale Waffensysteme mit sogenannten Out-of-the-Loop-Systemen, bei denen Menschen keinerlei Eingriffsmöglichkeiten mehr haben und die aus völkerrechtlicher und ethischer Sicht enorme Probleme aufwerfen, gibt es Näbig zufolge derzeit noch nicht. Problematisch ist hierbei nicht jede autonome Funktion an sich, sondern primär die Erfassung, Verfolgung, Auswahl und Bekämpfung von Zielen, was landläufig als „aim and shoot“-Funkttionen bezeichnet wird – also letztlich die Frage, ob Maschinen autonom über Leben und Tod entscheiden können. Vollautomatische Systeme wie der festinstallierte Kampfroboter SGR-A1 mit Maschinenkanone von Samsung, der Menschen auf eine Distanz von bis zu 3 Kilometern bekämpfen kann und bei dem zumindest dem Hersteller zufolge eine manuelle Intervention noch möglich ist, sind hingegen bereits im Einsatz. Dennoch scheint die Grenze hier fließend zu verlaufen – die für das israelische Militär entwickelte Kamikazedrohne IAI Harop verfügt über einen autonomen Modus, in dem sie eigenständig andere Waffensysteme als Ziele identifiziert und zerstört. Ein Großteil der derzeit in Benutzung befindlichen Drohnen ist in Teilbereichen wie Start und Landung vollautomatisiert, jedoch nicht vollständig autonom.

Der Entwicklungsstand in der militärischen Nutzung weist derzeit international recht große Unterschiede auf, was zukünftig Probleme bei gemeinsamen Einsätzen ungleich stark entwickelter Alliierter zur Folge haben dürfte. Die USA sehen AWS etwa als kriegsentscheidend für zukünftige Konflikte an, während die Bundesrepublik sich im Bereich der AWS- und KI-Entwicklung sehr zurückhaltend verhält. Russlands Präsident Putin ließ derweil verlauten, dass, wer auch immer KI beherrscht, damit die Welt beherrsche. China will laut einer Bekanntmachung von 2017 bis 2030 im KI-Bereich führend sein.

Resümierend ließ sich aus Näbigs Präsentation schließen, dass der technische Stand der automatisierten Waffenentwicklung bereits sehr weit fortgeschritten ist. Gerade in Kombination mit Elementen künstlicher Intelligenz, durch die etwa hochgradig komplexe Drohnenschwarmangriffe koordiniert werden können, wird sie bis dato kaum absehbare Implikationen für die Zukunft der Kriegsführung haben und das Schicksal von Staaten entscheidend mit prägen.

Abgesehen von der Vielzahl der von Näbig aufgeführten Nachteile und Probleme beim Einsatz von AWS, bei denen es sich in erster Linie um technische Herausforderungen wie die Einsatzfähigkeit bei suboptimalen Witterungsbedingungen handelt, stellt sich beim Einsatz von autonomen Waffensystemen besonders ein Problem als zentral heraus: nämlich das der Verantwortung und Abwägung bei der Entscheidung über Leben und Tod. Im Kriegsfall gelten die völkerrechtlichen Grundsätze der Verhältnismäßigkeit, der Vorsicht und Vorsorge sowie der Unterscheidung zwischen zivilen und militärischen Zielen. Eine Abwägung ist hier schon für den Menschen von Situation zu Situation eine Herausforderung, woraus sich die Frage ergibt, wie sich diese Art der Abwägungsfähigkeit programmieren lassen soll. SIPRI konkludierte 2017, dass volle Autonomie nicht das Ziel ist und auch nicht sein kann. Während der Westen hier übergreifend recht zurückhaltend ist, scheinen Russland und China dies jedoch etwas anders zu sehen. Mit einem kritischen Blick auf vollautonome Waffensysteme konkludierte Roger Näbig seinen Vortrag mit der Feststellung, dass Leben, Tod, Mensch und Krieg nicht auf bloße Nullen und Einsen reduziert werden dürfen.

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden /  Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden /  Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden /  Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden /  Ändern )

Verbinde mit %s

This site uses Akismet to reduce spam. Learn how your comment data is processed.