Künstliche Intelligenz (KI) ist längst im Alltag angekommen. Vom Smartphone, über autonome Staubsauger bis hin zum selbstfahrenden Auto: In den unterschiedlichsten Bereichen vereinfachen uns Roboter und Algorithmen das Leben. Sie assistieren uns bei Aufgaben, die einst die älteren Generationen mit simplen mechanischen Werkzeugen ausübten.

Doch künstliche Intelligenz wird nicht nur zivil genutzt, sondern auch für militärische Zwecke. Beispielsweise tötete das US-Militär den iranischen Generals Qasem Soleimani im Irak am 3. Januar 2020 per Drohne, die dank KI zielsicher gesteuert wurde. Aktivist*innen, Interessensverbände, Politiker*innen und Philosoph*innen, die sich als Gegner*innen dieser Technologien äußern, kritisieren sie aus verschiedenen Gründen als unmoralisch. Von Marschflugkörpern zu Drohnen, von in-the-loop zu out-of-the-loop, Militärs investieren weltweit zunehmend in Forschung im Bereich der KI, von der sie sich erhebliche strategische Vorteile versprechen.

Ob nun sogenannte „smarte Waffen“ wie der von der US Air Force eingesetzte Marschflugkörper SLAMER, der sowohl mithilfe von GPS Daten und Infrarot Sensoren sein Ziel autonom verfolgen, als auch im Flug von Pilot*innen gesteuert werden kann, der stationäre vollautomatische Kampfroboter SGR-1 von Samsung-Techwin, der Ziele innerhalb seines 4km Radius erkennt, warnt und notfalls auch neutralisiert oder die MQ-9 Reaper Drohne, die sowohl per Menschenhand gesteuert werden, als auch in einem vollautomatischen Modus eingesetzt werden kann und mit der das US-Militär General Soleimani ausschaltete – all diese Waffensysteme basieren auf KI.

Das moralische Problem bei „Killer Robotern“

Derartige Waffen lassen sich in In-the-Loop- („in-der-Schleife“), On-the-Loop- („auf-der-Schleife“) und Out-of-the-Loop-Systeme („aus-der-Schleife“) unterscheiden, abhängig davon, wie stark Menschen sie kontrollieren: Während erstere von einem Menschen gesteuert werden, können On-the- Loop-Systeme alle notwendigen Entscheidungen selbstständig fällen. Sie werden jedoch von einem Menschen überwacht, der jederzeit die Kontrolle übernehmen kann. Diese Überwachung fällt bei Out-of-the-Loop-Systemen hingegen weg. Der Einsatz derartiger Systeme ist bisher nicht bekannt. Argumente gegen den Einsatz autonomer Waffensysteme lassen sich grob in sogenannte kontingente und intrinsische Argumente kategorisieren.

Erstere beruhen auf der Skepsis, inwiefern es möglich sein wird, Militärroboter so zu gestalten, dass sie völkerrechtlich konform sind, da diese Argumente nicht mehr greifen, wenn entsprechende technologische Fortschritte erzielt würden. Daher konzentrieren sich die Kritiker*innen in der Debatte hauptsächlich auf intrinsische Argumente. Diese äußern fundamentale moralische Einwände gegen die Verwendung von „Killer Robotern“, die ihre Geltung auch dann nicht verlieren, wenn sie hundertprozentig konform mit dem Kriegsvölkerrecht funktionierten.

In dem 2007 erschienenen Artikel „Killer Robots“ erklärt der Philosoph Robert Sparrow, dass für die mangelnde Vorhersehbarkeit und Kontrolle der Roboter weder die leitenden Generäle, noch die Programmier*innen der Waffensysteme verantwortlich gemacht werden könnten und somit niemand vor Gericht haltbar wäre.Der Physiker Alex Leveringhaus hingegen vertritt die Ansicht, dass diejenigen, die „Killer Roboter“ einsetzen, auch die Konsequenzen tragen müssten. Er sieht es stattdessen als problematisch an, menschliche Handlungsfreiheit – und somit auch die Möglichkeit, sich gegen das Töten eines Menschen zu entscheiden – aus Kriegssituationen zu tilgen. Dadurch würden grundlegende menschliche Empfindungen wie Mitleid und Barmherzigkeit aus dem Krieg verschwinden.

Die Maschinenethikerin Catrin Misselhorn gründet ihre Kritik auf den kantschen kategorischen Imperativ, demzufolge man Menschen niemals bloß als Mittel zum Zweck benutzen darf. Dies geschehe aber, wenn man das Töten von Menschen automatisiere. Abgesehen von den moralphilosophischen Argumenten befürchten Gegner*innen autonomer Waffensysteme ebenso, dass ohne ein Einsatzverbot solcher Waffen ein neues Wettrüsten bevorsteht, welches schlimmstenfalls in globale Konflikte ausarten könnte.

Befürworter*innen wollen Regulierung statt Verbote

Neben dem Militär, welches diese Technologien befürwortet, da es sich durch sie strategische Vorteile erhofft, gibt es ebenso Informatiker *innen und Politikwissenschaftler*innen, die ein Verbot dieser Waffen nicht zielführend finden. Der amerikanische Robotiker Ronald Arkin arbeitet an einem ethischen Kampfroboter, der mit dem Kriegsvölkerrecht konform gehen soll. Das In-the-Loop-System soll einen restriktiven Ansatz verfolgen: Sein Algorithmus soll mehrere Variablen wie beispielsweise in der Nähe befindliche geschützte Ziele, die Schussrichtung und die zuvor seitens des einsatzleitenden Generals bestimmten Einsatzziele berücksichtigen.

Die zur Berechnung notwendigen Daten soll das Waffensystem aus zuvor geleisteter Aufklärungsarbeit und möglicherweise dem Global Information Grid bekommen – ein vom Pentagon geplantes, globales Breitband-Informationsnetzwerk. Erst nach Prüfung all dieser Faktoren soll der Roboter entscheiden können, ob ein Abschuss geboten – und nicht bloß gestattet – ist. Gleichzeitig wird das System stets von einem Operator überwacht, der zuvor gemeinsam mit dem General die aktuellen Einstellungen des Roboters einsieht und bestätigt, dass er die Verantwortung für die Maschine übernimmt. Der Operator kann jederzeit die Kontrolle übernehmen und die Entscheidungen des Systems beeinflussen.

Arkin denkt, dass mit ethischen Kampfrobotern die Anzahl an Kriegstoten und -verbrechen verringert werden könne: Denn Emotionalität bringt nicht nur Barmherzigkeit und Mitleid mit sich, sondern eben auch Rachegelüste und Blutrausch. Befürworter*innen zweifeln auch daran, dass ein weltweites Verbot umsetzbar wäre. Die Absage seitens westlicher Staaten, diese Waffen einzusetzen, könnte womöglich dazu

führen, dass andere Staaten, die dem Kriegsvölkerrecht weniger Beachtung schenken, autonome Waffensysteme entwickeln, die weniger vorsichtig bei der Auswahl ihrer Ziele vorgingen. Gleichzeitig könnte man sich dann gegen entsprechende Armeen nicht mehr verteidigen, ohne selbst solche Waffensysteme zu nutzen. Laut aktueller demographischer Prognosen scheint der Einsatz dieser Systeme langfristig gesehen unausweichlich: Die schwindenden Geburtenraten industrialisierter Nationen wirken sich auch auf die Rekrutierungszahlen der Armeen aus. Um wehrhaft bleiben zu können, müssten Armeen trotz weniger Personal Missionen erfolgreich abschließen können.

Aus diesen Gründen plädieren die Befürworter*innen autonomer Waffensysteme für internationale Regulierungsmaßnahmen anstelle von Verboten. Die Technologienationen sollten sich früh an den entsprechenden Debatten beteiligen, um klare Regeln zu den Funktionsweisen und Einsatzmöglichkeiten dieser neuartigen Waffen zu formulieren. Dadurch würden sie ihrer Vorbildfunktion gerecht werden, ohne Verbote zu fordern, die in der Realität nicht umgesetzt werden können.


Illustration: Julia Rhein (Anm. d. Red.)