Startseite > Blog > Letale Autonome Waffensysteme und KI: Entwicklungen und Widerstände in 2018
Feature autonomous weapon systems Autonome Waffensysteme

Letale Autonome Waffensysteme und KI: Entwicklungen und Widerstände in 2018

Einleitung

Selbständig und ohne menschliche Kontrolle agierende Drohnen und Roboter sind feste Bestandteile dystopischer Science Fiction. Neben ihrem ikonischen Auftreten in den vielbeachteten und rege zitierten Filmklassikern der “Terminator”-Reihe, lassen sie sich auch in einer Vielzahl anderer Werke wie z.B. “Blade Runner”, der Takeshi Kovacs Trilogie und ihrem Serien-Spin-Off “Altered Carbon“, der “Deus Ex“-Reihe sowie in zahlreichen anderen fiktionalen Welten beobachten. Schnell fallen beim Thema autonome Waffensysteme emotional geladene Begriffe wie “Tötungsmaschinen” oder gar “Killerroboter”. Die Betrachtung und Einordnung dieser Systeme und ihrer Entwicklung fokussieren sich dann sogleich primär auf die Risiken und damit einhergehende Unwägbarkeiten.

Dieser Artikel enthält meinerseits keine ethischen Bewertungen von autonomen Waffensystemen. Es gibt bereits mehr als genug mediale Marktschreier, die den Teufel an die Wand malen und sich umfassend wie lautstark diversen technologischen Horror-Szenarien widmen, in denen sich Maschinen gegen ihre Schöpfer auflehnen. Stattdessen wird an dieser Stelle der nüchterne Versuch unternommen, eine Übersicht über das Thema autonome Waffensysteme zu bieten. Von der Definition und den historischen Entwicklungen, hin zu – bislang der Öffentlichkeit bekannten – Projekten und Systemen.

Zugleich werden anschließend die Aktivitäten von unterschiedlichen Gegnern dieser Entwicklungen beleuchtet. Diese versuchen, auf ethische / moralische Diskrepanzen des Einsatzes dieser Systeme hinzuweisen und Einfluss auf die zusammenhängenden rechtlichen und technologischen Entwicklungen zu nehmen.

In Folge neuer Entwicklungen wird dieser Artikel künftig weiter ausgebaut und auf den neuesten Stand gebracht. Entsprechende Updates werde ich gegebenenfalls, wie gewohnt, als Update-Hinweise am Ende des Artikels kennzeichnen.

 

BAE Systems Autonomous Drone "Taranis" / "Raptor"
BAE Systems Autonomous Drone “Taranis”, © BAE Systems / Defense Advanced Research Projects Agency

 

Was sind letale autonome Waffensysteme?

Letale Autonome Waffensysteme (engl. “Lethal Autonomous Weapon Systems”, kurz “LAWS”) können Ziele ohne menschliches Zutun identifizieren, auswählen, angreifen und eliminieren. Sie können jegliche Sensordaten selbstständig analysieren und einordnen, unabhängig in ihrem jeweiligen Einsatzgebiet navigieren und diverse Waffen wie Maschinengewehre, Kanonen oder (Lenk-)Raketen steuern. Sie können sich mobil auf Rädern, Ketten oder künstlichen Beinen fortbewegen. Je nach Einsatzzweck ist auch die Fixierung an Orten, z.B. auf Marine-Schiffen oder an Grenzverläufen eine Option.

Um ihre hohen Grade an Autonomie zu ermöglichen, waren und sind die immensen Fortschritte auf dem Gebiet der künstlichen Intelligenz (KI) fundamental. Ebenso sind die erheblichen Weiterentwicklungen von Videotechnik, Sensorik, Datenübertragung/-verarbeitung und -analyse sowie zahlreicher weiterer technologischer Bereiche elementar. All diese Faktoren bilden in ihrer Kombination die Basis für die Entwicklung letaler autonomer Waffensysteme – von fiktionalen Akteuren, hin zu realen einsatzfähigen militärischen Anwendungen und Produkten.

 

Autonomiegrade letaler autonomer Waffensysteme (HITL vs. HOTL vs. HOOTL)

Die Abstufungen und Unterscheidungen zwischen autonomen und semi-autonomen Waffensystemen stellen ebenfalls wichtige Komponente bei der Klassifizierung dieser letalen Systeme dar. Hierbei spielt insbesondere der (teils fließende) Übergang zwischen “human in the loop” (HITL), “human on the loop” (HOTL) und “human out of the loop” (HOOTL) Systemen eine tragende Rolle1. Diese System-Arten beeinflussen den Grad der Autonomie in dessen Rahmen Entscheidungen und Befehlsketten erfolgen:

  • HITL: Das Waffensystem erwartet Befehle für das weitere Vorgehen von einem menschlichen User, nachdem es selbstständig mögliche Ziele identifiziert hat.
  • HOTL: Die Ausführung von Handlungen erfolgt autonom. Das Waffensystem kann Ziele selbstständig und ohne menschliches Zutun erkennen, einordnen und sodann angreifen – menschliche Eingriffe in diese Handlungen sind dennoch zu jedem Zeitpunkt möglich.
  • HOOTL: Systeme agieren innerhalb der jeweiligen Gefechts- und Einsatzsituation vollständig autonom. Von der Zielerfassung bis zur Angriffshandlung sind keine Eingaben, Freigaben oder Entscheidungen durch Menschen mehr notwendig.

 

Was erwarten sich Staaten vom Einsatz letaler autonomer Waffensysteme?

Viele Staaten, die den Einsatz dieser Systeme fördern und in ihren Armeen forcieren, erwarten sich neben den Fortschritten in Waffentechnologien vor allem Einsparungspotentiale hinsichtlich der Kosten. Herstellung und Betrieb unbemannter Systeme ist in der Regel langfristig weit kostengünstiger als klassische bemannte Systeme. Lange Ausbildungszeiten können im Falle von semi-autonomen Waffensystemen verkürzt und bei autonomen Systemen gar komplett umgangen werden. Hinzu kommt, dass Verbesserungen von Kampffertigkeiten/-fähigkeiten im Idealfall einfach via Software-Update eingespielt werden können.2

Zudem bildet die einhergehende Reduktion von menschlichen Verlusten für die eigene Seite eine nicht zu unterschätzende Motivationsgrundlage für die Einführung autonomer Waffensysteme. Die Ausbildung von menschlichen Soldaten verschlingt Zeit und viele Ressourcen. Fast jeder moderne Konflikt wird zugleich auch auf medialer Ebene ausgetragen und kaum etwas wirkt ähnlich demoralisierend auf kriegsführende Populationen wie der Anblick von im Sarg heimkehrenden Soldaten. Mediale Auswirkungen von Konflikten lassen sich dementsprechend mithilfe (semi-)autonomer Aufklärungs- und Kampfsysteme wesentlich einfacher abfedern – Fehlentscheidungen haben weniger drastische Konsequenzen für Leib und Leben der eigenen Truppen. In Verlustfällen können Kampfeinheiten schnell und einfach nachproduziert und wieder in den Einsatz gebracht werden.3

Ebenfalls von Vorteil erscheint das Fehlen von menschlichen Emotionen und mentalen Unwägbarkeiten: Ein autonomer Roboter wird z.B. weder Rachegelüsten frönen, noch zu unverhältnismäßigen Handlungen neigen, an psychologische Folgen von Kriegshandlungen leiden oder folgenreiche Fehlentscheidungen aufgrund von mentaler und / oder physischer Erschöpfung treffen.4 Kritiker werden an dieser Stelle anmerken, dass dies jedoch auch für positive menschliche Reaktionen wie Mitgefühl gilt – dazu folgt später mehr.

 

Kurzüberblick der historischen Entwicklung (semi-)autonomer Waffensysteme

Die Entwicklung autonomer Waffensysteme ist geprägt von der Verschränkung der Entwicklung von einerseits ferngelenkter Munition und andererseits unbemannten Fahrzeugen im Allgemeinen. Um dies besser zu verstehen und einordnen zu können lohnt es sich, einen kurzen Blick auf die historische Entwicklung dieser Bereiche zu werfen.

Bereits 1898 präsentierte der – stets für die eine oder andere technologische Überraschung gute – Erfinder und Wissenschaftler Nikola Tesla ein ferngesteuertes Schiff bzw. ferngelenkten Torpedo.5 Richtig in Fahrt kamen diese Entwicklungen jedoch erst im Rahmen des 2. Weltkriegs: So ist das frühe deutsche Raketenprogramm (Vergeltungswaffe 1 / Fieseler Fi 103 & Vergeltungswaffe 2 / Aggregat 4) nicht nur Vorläufer von Raumfahrtprogrammen in Ost und West sondern auch Großvater verschiedener Raketenprojekte des Kalten Kriegs.6 Sich selbst ins Ziel führende Marschflugkörper (auch “Cruise Missiles” genannt) sind langfristige Ergebnisse dieser komplexen Entwicklungsprozesse.

 

 

Auch am Boden betraten in der Weltkriegs-Ära ferngesteuerte Fahrzeuge das Schlachtfeld: Während auf deutscher Seite mit den Sprengpanzern “Goliath” (Sd.Kfz. 302/303a /303b), “Springer” (Sd.Kfz. 304) und “Borgward B IV” (Sd.Kfz. 301) experimentiert wurde, testeten die Sowjets unbemannte Fahrzeugtypen im Kampfeinsatz mit den sogenannten “Teletanks” (“Телетанк”). Auch wenn all diese Panzer-Projekte selbst von semi-autonomen Funktionen noch sehr weit entfernt waren und von Effektivität sowie vom Kosten/Nutzen her gesehen als eher fragwürdig einzuordnen sind, so kann man sie durchaus als geistige und technologische Vorläufer heutiger unbemannter Bodenfahrzeuge sehen.7

 

 

Abgesehen von den eingangs erwähnten Raketenprojekten gab es in der Luft weitere Fortschritte für unbemannte Systeme: So wurde seitens der Briten u.a. das “Fairey IIIF Floatplane” und seine Derivate für Luftabwehr-Trainings eingesetzt.8. Dies galt ebenso für das das in Massen produzierte us-amerikanische “Radioplane OQ-2”.9

Im Laufe der 1950er Jahre wurden diese frühen ferngelenkten Flugzeuge als Täuschungsziele bei Bombardements eingesetzt, um Feindbeschuss von den eigenen bemannten Bombern abzulenken.10 Während des Vietnamkriegs verlagerte sich der Einsatz der Nachfolger-Modelle hin zu fliegenden Plattformen für risikolose Aufklärungsflüge und für Spionagemissionen – eine Funktion, die auch heutige unbemannte Systeme weiterhin als wichtige Aufgabe ausführen.11

Die Nutzung unbemannter Fahrzeuge als semi-autonome Waffensysteme hat zwar bereits in den 1970ern in Form erfolgreicher Testläufe stattgefunden12, es sollte jedoch bis Oktober 2001 dauern, bis es zum ersten tatsächlichen Kampfeinsatz einer Drohne kam: Ein von der CIA ausgeführter Luftangriff mit einer Predator-Drohne gegen einen Taliban-Anführer im Afghanistan-Krieg.13

 

Brimstone Missile fired by Reaper Drone
Effects of Brimstone Missile fired by Reaper Drone, © MBDA Systems

 

Moderne Systematik (semi-)autonomer Waffensysteme & aktuelle Beispiele

In den annähernd zwei Dekaden seit Durchführung dieses ersten offiziellen Drohnen-Einsatzes hat sich enorm viel getan: Bis dato gibt es eine Vielzahl an unterschiedlichen Waffensystemen mit unterschiedlichen Autonomiegraden und verschiedensten Einsatzgebieten und -bereichen. Zugleich wächst die Anzahl an Ländern und internationalen Konzernen, welche in der Lage sind, eigene Programme zum Bau und Betrieb solcher Systeme durchzuführen.

Unabhängig davon, wird die Einteilung unbemannter Waffensysteme gegenwärtig vor allem anhand Ihrer Einsatzbereiche bzw. dem Medium Ihrer jeweiligen Anwendungsumgebungen vorgenommen. So wird dementsprechend u.a. zwischen unbemannten Luft-, Boden- und Unterwasserfahrzeugen unterschieden. In diesem Abschnitt des Artikels werden diese unterschiedlichen Bereiche betrachtet und jeweils mit einigen konkreten Beispielen angereichert.

Der Schwerpunkt dieses Artikelabschnitts liegt auf einigen ausgewählten bewaffneten Systemen. Die schiere Menge an Systemen, die primär für Aufklärungs- oder andere Zwecke eingesetzt werden, ist sogar noch umfangreicher als die bereits breite Auswahl an (semi-)autonomen Waffensystemen. Dementsprechend erhebt die folgende Liste keinen Anspruch auf Vollständigkeit (sie ist sogar weit davon entfernt). Der Fokus liegt eher auf einem ersten Eindruck über die aktuellen Möglichkeiten und Gegebenheiten.

 

Unbemannte Luftfahrzeuge

Bedingt durch die historischen Entwicklungen und dem Medium ihrer Einsätze sind unbemannte Luftfahrzeuge (engl. “Unmanned Aerial Vehicles” / UAV) das bislang am stärksten ausgeprägte Gebiet (semi-)autonomer Waffensysteme.

Geradezu ikonisch sind hierbei die beiden Referenz-Drohnen von General Atomics: MQ-1A/B “Predator”sowie MQ-9 “Reaper”. Sie sind die Vorreiter aller modernen Drohnen des frühen 21. Jahrhunderts. Weiterentwicklungen gibt es bspw. in Form der X47-B Drohne von Northrop Grumman und des von BAE Systems in Kooperation mit der DARPA14 entwickelten “Taranis”-Systems.

Auf dem Design und den Flugeigenschaften klassischer Hubschrauber basiert wiederum z.B. die von Northrop Grumman gebaute MQ-8 “Fire Scout” Drohne.

 

 

Unbemannte Bodenfahrzeuge

Im Bereich der unbemannten Bodenfahrzeuge (engl. “Unmanned Ground Vehicles” / UGV) orientieren sich die Systeme vorwiegend an klassischen Ketten- und Radfahrzeugen.

Die britischen “TALON SWORDS” & “MAARS” Systeme von Foster-Miller / QinetiQ fallen ebenso in diese Kategorie wie Milrems “THeMIS”. Auch Russland entwickelt solche autonomen Kettenfahrzeuge, die “Platforma-M” Drohne ist dafür ein bekanntes Projektbeispiel.

Erwähnenswert ist auch das israelische “Guardium” System. Entwickelt von G-NIUS, einer Kooperation von Israel Aerospace Industries und Elbit Systems, ist es bereits seit einigen Jahren im Einsatz der israelischen Armee. Eingesetzt wird es vor allem zur Grenzsicherung. Es bietet sowohl semi- als auch voll-autonome Betriebsmodi.15

 

 

Unbemannte Wasserfahrzeuge

Unbemannte Wasserfahrzeuge (engl. “Unmanned Surface Vehicles” / USV) bilden noch ein überschaubares Bild an im Einsatz befindlichen Systemen. Dennoch haben sich auch in diesem Bereich die Entwicklungen beschleunigt.

Eines der bislang gängigsten Modelle ist das israelische “Protector USV” von Rafael Advanced Defense Systems, welches es bereits in zahlreichen Modellen mit unterschiedlichen Anwendungsgebieten gibt. Es wird derzeit auch u.a. in Erwägung gezogen, kleine, auf Küstensicherung spezialisierte, Drohnenboot unter Zuhilfenahme größerer bemannter “Mutterschiffe” in Schwärmen einzusetzen16

Zu den neuesten Entwicklungen gehört das von Vigor Industrial in Kooperation mit der DARPA entwickelte und sich in Testläufen befindliche “Sea Hunter” Wasserfahrzeug. Durch das Trimaran-Design werden dabei neue Konzepte der Wassergängikeit erprobt und die Einsatzgebiete erstrecken sich von Minenräumung bis hin zur aktiven Jagd auf U-Boote.17

 

 

Weitere Typen & neue Gattungen

In Zukunft sind auch im Bereich des Weltraums autonome Systeme zu erwarten, die sich höchstwahrscheinlich für Kampfeinsätze aufrüsten lassen. Einen ersten Vorgeschmack darauf bilden die bisherigen Testflüge der Weltraumdrohne X-37B von Boing Defense. Mit ihren mehreren absolvierten und teils jahrelangen, unterbrechungsfreien Einsätzen im Orbit sowie streng geheimen Frachtladungen hat sie im Laufe der Jahre international sowohl Faszination als auch Skepsis ausgelöst.18

 

X-37B Boing Space Drone
X-37B back on earth after 20 months in space, © Boing Defense / U.S. Air Force / DoD

 

Abgesehen von den eher klassischen Fahrzeug-Varianten und Einsatzmodellen gibt es jedoch auch Projekte in denen neuartige Konzepte von Drohnen und Robotern ausprobiert werden. Die, uns durchaus gewohnt erscheinende, Fortbewegung auf zwei oder mehr Beinen zum Beispiel. Boston Dynamics “Big Dog” hat vor mehreren Jahren für viel Erstaunen in der Welt mit seinen natürlich wirkenden Bewegungen – auch unter widrigen Bedingungen wie Glatteis – gesorgt. Inzwischen hat Boston Dynamics mit dem “SpotMini”-System eine neue und deutlich weiter entwickelte Generation an Vierbeinern geschaffen. Zugleich steht mit dem “Atlas”-System auch ein humanoider Ansatz in den Startlöchern.19

 

 

Davon abgesehen werden in Forschung und Entwicklung mittlerweile auch spinnenartige Roboter, die sich auf mehreren Beinen bewegen, in Betracht gezogen.20 Auch die Fortbewegungsarten von Schlangen21 und Würmern22 erscheinen für manche Einsatzszenarien sinnvoll.

Ähnlich wie die Erscheinungsbilder und Bewegungsapparate von Meeresbewohnern und Vögeln die Menschen in der Vergangenheit dazu inspirierten, die Ozeane und die Lüfte zu erobern, können wir bewährte Konzepte aus der Natur nun auch auf neuartige Maschinen-Designs übertragen – Fortschritten in Materialwissenschaften und Robotik sei Dank.

 

 

Widerstände gegen KI-gestützte autonome Waffensysteme

Die Gegner der militärischen Nutzung von autonomen Waffensystemen sind so vielschichtig wie zumeist auch ihre Argumente. Neben einigen NGOs sowie staatlichen Akteuren haben sich in letzter Zeit auch Widerstände in Wissenschaft und Forschung sowie innerhalb der globalen Konzernwelt formiert.

Die Argumente dieser Fraktionen gegen die Entwicklung und den Einsatz von autonomen Waffensystemen sind u.a.:

  • Ethische Bedenken: Es komme in der Kriegsführung zu einem ungleichen und als unmoralisch zu bewertenden Kampf zwischen Maschinen gegen menschliche Kontrahenten, da vollständig autonome Waffensysteme künftig keine Eingaben von Menschen mehr benötigen. Technologische Disparitäten zwischen Konfliktparteien seien hierdurch zugleich noch gravierender als in der gegenwärtigen Situation.
  • Steigerung von Konfliktpotentialen: Durch die Übertragung des Risikos von menschlichen Soldaten auf leichter ersetzbare Maschinen werde die gesellschaftliche Hemmschwelle, bewaffnete Konflikte zu führen, deutlich gesenkt. Hierdurch komme es zu vermehrten und schnelleren militärischen Einsätzen durch Staaten, die entsprechende Systeme einsetzen, da die Kriegsmüdigkeit ihrer Bevölkerung länger niedrig zu halten sei.
  • Ungenaue Zuweisung von Verantwortung &  Rechenschaft: Durch unterschiedliche Autonomiegrade der Systeme werde es zunehmend schwieriger, klare Verantwortlichkeiten bei Einsatz-Szenarien zuzuweisen, in denen bspw. die Zivilbevölkerung zu Schaden komme oder in denen internationales Recht verletzt werde – etwaige Kriegsverbrechen seien somit schwerer verfolgbar.
  • Kontrollverlust: Befürchtungen, dass vollständig autonome oder KI-verstärkte Waffen dazu neigen könnten, unkontrollierbar zu werden. Dies bedeutet auch, aber nicht nur, “Terminator”-artige Szenarien, in denen “Killerroboter” versuchen, die Kontrolle zu übernehmen. Die Kritiker verweisen auch auf die Möglichkeiten, dass beispielsweise Despoten, Kontrahenten oder nicht autorisierte Dritte den Zugang zu den Systemen und / oder die Programmierung dieser manipulieren und anschließend massiven Schaden anrichten können.

 

Forderungen nach internationalen Reglementierungen

Seit 2014 haben auch die Vereinten Nationen das Thema letale autonome Waffensysteme auf der Agenda. So befassen sich Experten im Rahmen des “UN Institute for Disarmament Research” (UNIDIR) alljährlich mit dem Thema, analysieren Entwicklungen und versuchen, international gültige Rahmenbedingungen zu schaffen. Eine neue Dynamik hat nun jedoch China Mitte April 2018 auf einem der UN-Treffen in Genf zum Thema LAWS ins Spiel gebracht: China fordert in einem Aufruf an alle Nationen dazu auf ein international verbindliches “Protokoll auszuhandeln und abzuschließen, um den Gebrauch von voll-autonomen Waffensystemen zu verbieten”23

Weitere 22 Länder wie u.a. Österreich haben sich diesem Verbots-Aufruf kurzfristig angeschlossen und drängen auf ein Abkommen bis Ende 2019. Andere große Länder wie Deutschland und Frankreich äußern ebenfalls ihre Bedenken, setzen sich jedoch vorerst für unverbindliche Richtlinien als Übergangslösungen ein.24

Eine spannende und für UN-Verhältnisse ungewohnt zügige Wende von Positionen. Speziell wenn man bedenkt, dass noch vor 4 Jahren lediglich 5 Staaten (Kuba, Ecuador, Ägypten, der Vatikanstaat und Pakistan) sich explizit für ein solches Verbot ausgesprochen haben und unter den einflussreichsten Staaten lediglich vorsichtige Skepsis herrschte.25

 

KI-Forscher boykottieren Forschungseinrichtung

Auch die internationale Forschungsgemeinde wurde in letzter Zeit von Zweifeln geplagt: So hat sich z.B. die südkoreanische Universität KAIST derzeit mit einer Boykottbewegung von Wissenschaftlern auseinanderzusetzen. Mehr als 50 Forscher aus dem Bereich der KI-Wissenschaft verweigern der Institution seit Anfang April 2018 die Zusammenarbeit. Der Grund dafür liegt in der langjährigen und intensiven Kooperation mit dem Rüstungskonzern Hanwha Techwin (vormals Samsung Techwin).26 Die Nutzung und Anwendung von KI-Forschung in dieser Kooperation verursacht nun Unbehagen unter den Wissenschaftlern, da sie voll-autonome tödliche Waffensysteme ohne menschliche Benutzer oder Überwachung als einen Fehler betrachten.27

 

Offener Brief der globalen Robotik- & KI-Szene

Gemeinsam mit mehr als hundert anderen CEOs von Robotik- und KI-Unternehmen, vor allem aus den USA und Großbritannien, veröffentlichte der HighTech-Entrepreneur Elon Musk einen offenen Brief, der vor einem globalen Wettrüsten mit autonomen Waffensystemen warnt. Veröffentlicht wurde der Brief zum Beginn der “International Joint Conference on Artificial Intelligence” (IJCAI) in Melbourne.28

Die Unterzeichner beschweren sich über fehlende internationale Regelungen und fühlen sich besonders verantwortlich, weil globale Konzerne Gefahr laufen, selbst autonome Waffen zu entwickeln, um technologisch wettbewerbsfähig zu bleiben. Gleichzeitig sehen sie – neben Risiken des Missbrauchs durch Hacker und Despoten zugleich – die Gefahr, dass sich die Kriegsführung in Ausmaß und Geschwindigkeit in einer Form verändere, die für die Menschen künftig kaum noch nachvollziehbar sei.29

 

Google-interne Kritik an Rüstungskooperation “Project Maven”

Auch innerhalb der Konzernwelt formiert sich Kritik, wie das Beispiel Google zeigt: Mehrere tausend Angestellte unterschiedlicher Ebenen haben im April 2018 einen offenen Protest-Brief an ihren CEO Sundar Pichai unterzeichnet. Sie verkünden darin ihren Unmut gegen die Kooperation des Konzerns mit dem US-Verteidigungsministerium im Rahmen des sogenannten “Project Maven”.30

“Lieber Sundar, wir denken, dass Google nicht im Geschäft des Krieges tätig sein sollte”, heißt es zu Beginn des Schreibens der Angestellten. “Deshalb verlangen wir, dass ‘Project Maven‘ eingestellt wird und Google klare Richtlinien erarbeitet, veröffentlicht und durchsetzt, in denen festgehalten wird, dass weder Google noch seine Auftragnehmer jemals Rüstungstechnologien entwickeln werden.”

Pikante Sache dabei: Googles Muttergesellschaft Alphabet ist schon länger Teil des “Defense Innovation Boards” (“Gremium für Verteidigungs-Innovation”) des US-Militärs, in dem auch Milo Medin, einer der Vizepräsidenten von Google, beratend tätig ist.31 Daher sollten die pazifistischen Unterzeichner des Briefes nicht ganz so überrascht sein und das Projekt, das sie jetzt kritisieren, wird sicherlich nicht das erste oder das letzte seiner Art bei Google sein, das KI und autonome Waffensysteme verbindet.

 

Microsofts ethisches KI-Komitee

Im Gegensatz zum offenen Brief der Google-Angestellten scheint man bei Microsoft eher einen Top-Down-Ansatz zu verfolgen: Auf einer Konferenz am 9. April 2018 zu Ethik und künstlicher Intelligenz in Pittsburgh erklärte nämlich Eric Horvitz, der Leiter von Microsoft Research, dass man sicherstellen wolle, dass eigene technologische Entwicklungen im Bereich KI nur auf “ethische Weise” und nicht für kriegerische Zwecke oder anderweitig “unethisch” verwendet würden.32

Zu diesem Zweck habe man eine Reihe von Richtlinien formuliert, die von einem speziellen Komitee namens “Aether” (“AI and Ethics in Engineering and Research”) überwacht werden. Dieser Ausschuss untersucht, wie Kunden die Technologien des Unternehmens nutzen und ob und mit wem man generell in Geschäftsbeziehungen bleiben sollte. Horvitz zufolge hat Microsoft auf diese Weise bereits “signifikante Geschäfte” abgelehnt und entsprechende Beschränkungen in anderen Geschäftsbeziehungen etabliert. Dies betraf beispielsweise den Einsatz verschiedener Entwicklungen im Bereich der Gesichtserkennungstechnologie. Microsoft bietet z.B. Cloud-basierte “kognitive Dienste” an, die verschiedene Algorithmen zur Erkennung von Gesichtern und sogar Emotionen beinhalten – Funktionen, die auch im Zusammenhang mit der Zielerfassung von autonomen Waffensysteme eine bedeutende Rolle spielen.33

 

Someone walking over the wing of an X-47B autonomous drone at dusk
X-47B at dusk, © Joe McNally / National Geographic

 

Kommentar & Fazit

Im Hinblick auf tödliche autonome Waffensysteme brodelt es derzeit auf internationaler Ebene. Die aktuelle Skepsis scheint sowohl in unterschiedlichen Staaten, im internationalen Bildungs- und Forschungssektor als auch in der globalen Unternehmenswelt zuzunehmen. Der Widerstand gegen militärische und sicherheitstechnische Anwendungen von letalen autonomen Waffensystemen in Kombination mit KI scheinen in einem ebenso beachtlichen Tempo zuzunehmen, wie die Entwicklung der Systeme selbst erstaunliche Fortschritte erzielt.

Wenn selbst politisch träge und ansonsten eher langfristig denkende Staaten wie China so rasant ihre Meinung ändern, sollte man die Augen offen halten. Wenn ein Unternehmen wie Microsoft es zudem für notwendig hält, ein eigenes Komitee für dieses Thema zu gründen und in Folge auf ein paar saftige Deals verzichtet und sogar führende KI-Forscher sich dazu gedrängt fühlen, ihre vormals gut zahlenden Institutionen zu boykottieren, dann sehen wir deutliche Anzeichen für einen großen Wandel.

Es liegt auf der Hand, dass das Thema aufgrund der rasanten technologischen Entwicklungen sowie aufgrund des Drucks ganzer Industrien relevanter denn je ist. Bedenken hinsichtlich der vielfältigen Unsicherheiten und Risiken, die mit der Verwendung von solchen Waffensystemen verbunden sind, scheinen die treibenden Kräfte der meisten beteiligten Parteien zu sein – nicht nur aus rein humanitär-pazifistischen Gründen sondern auch aus Angst, von Wettbewerbern technologisch abgeschüttelt zu werden.

Inwieweit diese Widerstände zu praktikablen, signifikanten und international verbindlichen Maßnahmen führen können, ist jedoch fraglich. Wie bei so vielen neuen Technologien ist die Katze schon länger aus dem Sack. Was technisch möglich ist und was den Spielern im globalen Wettbewerb um technologische Hegemonie und Macht Vorteile bringt, wird auch – früher oder später – Realität. Mehr Transparenz in der Frage, wie diese Waffensysteme genutzt werden, könnte definitiv dazu beitragen, Missbrauch zu vermeiden oder zumindest der internationalen Gemeinschaft ermöglichen, schneller auf so manche Schweinereien zu reagieren.

Während zusätzliche internationale Maßnahmen und Regelungen dazu beitragen könnten, globale Anliegen in diesem Bereich besser überwachen, kanalisieren und mildern zu können, wäre es naiv, sich voll und ganz auf die Verbindlichkeit internationaler Vereinbarungen zu verlassen. Die Schwerter der Vereinten Nationen sind größtenteils stumpf, wie man an den vielen globalen Brandherden der Vergangenheit und Gegenwart und am Umgang von Staaten mit verschiedenen UN-Resolutionen erkennen kann.

Es stellt sich somit eher die Frage, auf welchen aktuellen und zukünftigen Schlachtfeldern und in welchen Formen wir intensivere Anwendungen letaler autonomer Waffensysteme sehen werden: Ob in den komplexen Wirren des syrischen Krieges, an den stets spannungsgeladenen Grenzen Koreas oder in alten wie neuen (Bürger-)Kriegsszenarien rund um den Globus. Es bleibt abzuwarten, ob und auf welche Art und Weise AI-verstärkte autonome Waffen Realität und wir in Folge unsere ganz eigene dystopische Cyberpunk-Welt betreten werden.

JHS

 

Du möchtest deine Meinung & Gedanken zum Thema äußern?
Du hast Ideen, wie dieser Artikel noch besser werden könnte?
Kommentiere & diskutiere den Artikel weiter unten.

 

  1. Bonnie Docherty: “Losing Humanity” Cambridge, MA: HRW, November 2012.
  2. David Francis: How a New Army of Robots Can Cut the Defense Budget. Fiscal Times, 2013
  3. Gary E. Marchant et al.: “International Governance of Autonomous Military Robots”. Columbia Science & Technology Law Review 12, Juni 2011, S. 275f.
  4. Ronald C. Arkin: “The Case for Ethical Autonomy in Unmanned Systems”. Journal of Military Ethics 9, Nr. 4, 2010, S. 332-341.
  5. Jon Turi: “Tesla’s toy boat: A drone before its time”. Artikel auf Engadget, 2014
  6. John M. Logsdon et al.: “Space Exploration”. Artikel auf Britannica, März 2018, S. 3.
  7. Jeffrey L. Caton: “Autonomous Weapon Systems: A Brief Survey of Developmental, Operational, Legal, and Ethical Issues”. U.S. Army War College Press, Strategic Studies Institute, Carlisle, PA, Dezember 2015, S. 5f.
  8. Ron Bartsch, James Coyne, Katherine Gray: “Drones in Society: Exploring the Strange New World of Unmanned Aircraft”. Routledge, New York, 2017. S. 25.
  9. “Radioplane RP-5A Target Drone”. Seite des Western Museum of Flight, 2010.
  10. “1950s & 1960s” Artikel auf UAV Universe, 2017.
  11. “1960s & 1970s” Artikel auf UAV Universe, 2017.
  12. Thomas P. Ehrhard: “Air Force UAVs – The Secret History”. Mitchell Institute for Airpower Studies, Arlington, VA, July 2010, S. 12ff.
  13. Chris Woods: “The Story of America’s Very First Drone Strike”. Artikel auf TheAtlantic, Mai 2015.
  14. Defense Advanced Research Projects Agency (frei übersetzt: Agentur für Forschungsprojekte der Verteidigung), kurz DARPA, siehe Artikel auf Wikipedia
  15. “Enguard! Introducing the Guardium UGV”. Artikel auf Defense-Update.com
  16. Artikel auf Naval Drones, Oktober 2012
  17. Katherine Owens: “Navy anti-submarine drone-ship conducts minehunting testing” Artikel auf DefenseSystems, Mai 2017.
  18. Kiona Smith-Strickland: “Now We Know at Least Two Payloads on the X-37B”. Artikel auf Smithsonian Air & Space, Mai 2015.
  19. Übersicht über die unterschiedlichen Projekte von Boston Dynamics, 2018.
  20. Dani Deahl: “This bionic spider can curl up and do somersaults”. Artikel auf TheVerge, März 2018.
  21. Modular Snake Robots, Biorobotics Lab Carnegie Mellon University, 2010.
  22. Softworm, Case Western Reserve University Center for Biologically Inspired Robotics Research, 2013.
  23. Sean Welsh: “China’s shock call for ban on lethal autonomous weapon systems”. Artikel auf IHS Jane’s Defence Weekly, April 2018.
  24. Bonnie Docherty: “We’re running out of time to stop killer robot weapons”. Artikel auf TheGuardian, April 2018
  25. Adrianne Jeffries: “Only five countries actually want to ban killer robots”. Artikel auf TheVerge, Mai 2014.
  26. Die autonome Sentry-Gun “Samsung SGR-A1” wurde z.B. gemeinsam von KAIST & Techwin entwickelt und ist bereits seit Jahren an der Grenze zu Nordkorea im Einsatz.
  27. Matthew Hutson: “South Korean university’s AI work for defense contractor draws boycott”. Artikel auf ScienceMag, April 2018.
  28. Presse-Veröffentlichung des Future of Life Institute.
  29. James Vincent: “Elon Musk and AI leaders call for a ban on killer robots”. Artikel auf TheVerge, 2018.
  30. Google und das Pentagon versuchen mit “Project Maven” die Auswertung von Videos durch den Einsatz von KIs zu verbessern, um u.a. die Zielgenauigkeit autonomer Waffensysteme zu verbessern. Siehe Presse-Ankündigung des US Verteidigungsministeriums von Juli 2017.
  31. Milo Medins Bio auf Defense Innovation Board, 2018.
  32. Matt Weinberger: “Microsoft has given up ‘significant sales’ over concerns that the customer will use AI for evil, says a top scientist”. Artikel auf BusinessInsider, April 2018.
  33. Alan Boyle: “Microsoft is turning down some sales over AI ethics, top researcher Eric Horvitz says”. Artikel auf Geekwire, April 2018.

Check Also

Feature image Brazil 1985

Brazil (1985): Terry Gilliams Vision einer bürokratischen Dystopie

Handlung, Settings und visuelle Elemente des dystopischen Filmklassikers sowie ihre Relationen zu anderen medialen Werken. Eine Betrachtung der dargestellten Wechselwirkungen von Architektur, Gesellschaft und Folgen von ausufernder Bürokratisierung.

Kommentar verfassen