Baden-Württemberg: Künstliche Intelligenz in der Rüstungskontrolle
Datum: | Donnerstag, 23. Mai 2019 |
---|
In: Mitteilungen 238 (1/2019), S. 16 – 17
Jurist*innen haben im Rahmen der Tacheles-Reihe einen Vortrag zum Thema „Künstliche Intelligenz in der Rüstungskontrolle – Gefahr oder Chance für die internationale Stabilität?“ gehalten. Der Referent Nico Lück, Preisträger des Weizenbaum-Studienpreises 2018, legte zunächst die Funktionsweise des maschinellen Lernens sowie die Ziele und Mechanismen klassischer Rüstungskontrolle dar.
Anschließend erläuterte er, wie Künstliche Intelligenz in Waffensystem eingesetzt werden kann und bereits eingesetzt wird, zum Beispiel in autonomen Drohnen oder Geschütztürmen sowie bei der Koordination und Planung von militärischen Einsätzen. Die dahinterstehenden Systeme stellten Herausforderungen für die Rüstungskontrolle dar, da die herkömmlichen Ansatzpunkte – Äußerlichkeit, innere Funktionsweise, sichtbare Fähigkeiten und die Äußerlichkeit des Trägersystems – nicht auf sie übertragbar seien. Mögliche Lösungsansätze seien die Regulierung der Entwicklung solcher Systeme oder die Überprüfung ihres Einsatzes durch verifizierbare Protokollierung.
Ein weiterer Aspekt von autonomen Waffensystemen sei die Kriseninstabilität: Die Rüstungskontrolle setze auf die Langsamkeit des Menschen, die Zeit für deeskalierende Handlungen gebe. Bei vollautonomen Systemen falle dieser menschliche Faktor, der eine Eskalationsspirale verhindern könne, weg.
Positiv zu sehen sei, dass Künstliche Intelligenz auch in Verifikationsmaßnahmen zum Zweck der Rüstungskontrolle eingesetzt werden könne, die Vertrauen zwischen den beteiligten Staaten schaffen sollen. Zum Beispiel könnten Luftbilder automatisch ausgewertet werden, um die Aktivität von Kernkraftwerken zu überwachen und mögliche Verstöße gegen den Atomwaffensperrvertrag aufzudecken. Ob diese Möglichkeiten genutzt werden, sei letztlich eine politische Entscheidung. Im Open-Skies-Vertrag beispielsweise, in dem sich NATO- und ehemalige Warschauer-Pakt-Staaten gegenseitig Überflug- und Aufnahmerechte gewähren, sei die Auflösung der Aufnahmen künstlich begrenzt, da Staaten mit einem technologischen Vorteil möglichst wenig Informationen preisgeben wollten.
Bei solchen Vorhaben müsse auch immer berücksichtigt werden, dass die KI-Systeme ihre Entscheidungen auch begründen müssten, dass eine Korrelation keine Kausalität impliziere und dass solche Systeme auch manipuliert und getäuscht werden könnten.
Abschließend beantwortete Lück die im Vortragstitel gestellte Frage „Gefahr oder Chance für die internationale Stabilität?“: Kurzfristig sehe er die Künstliche Intelligenz als Chance, da Systeme für Verifikationsmaßnahmen einfacher implementiert werden könnten als autonome Waffensysteme, auch wenn die genannten Probleme noch zu lösen seien. Langfristig stelle sie jedoch eine große Gefahr dar, da autonome Waffensysteme aktuell nicht kontrollierbar seien.
Eine Aufzeichnung des Vortags ist auf YouTube verfügbar: https://youtu.be/fO0gmcDwYs8