Publikationen / vorgänge / vorgänge Nr. 242: Künstliche Intelligenz und Menschenrechte

Editorial

Künstliche Intelligenz (KI) gibt dem gesellschaftlichen Prozess der Digitalisierung einen neuen Schub. Im Grunde ist das kein neues Thema, haben doch Fortschritte in der Methodik und vor allem in der Hardware-Technologie Verfahren nutzbar gemacht, die in den 1950er-Jahren, als der Begriff geprägt wurde, noch nicht möglich waren. Damit ergeben sich aus dem „technischen“ Thema Künstliche Intelligenz gesellschaftspolitische und juristische Fragestellungen, mit denen sich die Humanistische Union und die vorgänge auseinandersetzen müssen.

Ziel der Künstlichen Intelligenz ist die technische Nachbildung menschlicher Denkfähigkeiten. Dabei unterscheiden wir zwischen starker Künstlicher Intelligenz, der umfassenden Nachbildung des menschlichen Gehirns bis hin zu maschinellem (Selbst-)Bewusstsein und maschineller Ethik, die den Menschen langfristig ablösen und im Sinne einer überlegenen Superintelligenz ersetzen kann – dies ist nach heutigem Erkenntnisstand immer noch Science Fiction –, und schwacher Künstlicher Intelligenz, die als fortgeschrittene Methode der Informatik, in der Regel in Form des maschinellen Lernens, kognitive und generative Leistungen erbringt, die über die zuvor bekannten rein algorithmischen Systeme weit hinausgehen. Dabei werden besonders Verfahren der Logik sowie der Statistik und Wahrscheinlichkeitstheorie genutzt.

Dass wir uns mit KI-gestützten Systemen wie Alexa oder Siri „unterhalten“ oder mit Chatbots wie ChatGPT interagieren, wird fast schon zur Selbstverständlichkeit, war aber noch vor wenigen Jahren unvorstellbar. War es um die Jahrtausendwende noch eine Sensation, als der IBM-Computer Deep Blue den damals amtierenden Schachweltmeister Garri Kasparow besiegte, so ist es heute mit Methoden des maschinellen Lernens möglich, in dem viel komplexeren Spiel Go auf Weltklasseniveau zu spielen. Dabei entwickelte der Rechner Spielzüge und Strategien, die menschliche Spieler*innen bis dahin nicht erkannt hatten. KI-Systeme sind auch im Alltag inzwischen zu kognitiven und generativen Leistungen fähig, die bisher dem Menschen vorbehalten waren, wie Bilderkennung und -generierung, Spracherkennung sowie Sprachgenerierung sowie strategische Planung. Roboter sind in der Lage, in natürlichen Umgebungen autonom zu navigieren, und Kraftfahrzeuge werden entwickelt, die sich autonom im Straßenverkehr bewegen können. Dies sind nur einzelne Beispiele aus einer Fülle von Möglichkeiten.

Diese hohe Leistungsfähigkeit führt in der Anwendung zu einer Reihe von Fragestellungen ethischer, juristischer und politischer Art, auf die die Gesellschaft eine Antwort finden muss – besonders, da sich die Entwicklung noch zu beschleunigen scheint. Der Schwerpunkt dieser Ausgabe der vorgänge will einen Beitrag zur Debatte leisten.

Den Anfang macht Stefan Hügel. In einer kurzen Einführung in das Thema geht er auf die Risiken ein, die mit Künstlicher Intelligenz verbunden sind. Namhafte Wissenschaftler*innen sehen die Gefahr, dass eine sich selbst immer schneller weiterentwickelnde Künstliche Intelligenz langfristig den Menschen verdrängen könnte. In öffentlichen Appellen weisen sie auf die Risiken hin und schlagen ein Moratorium für die Weiterentwicklung vor. Sie warnen davor, dass Kipppunkte in der Entwicklung zunächst unbemerkt überschritten werden könnten. Danach werden in dem Beitrag konkrete Risiken skizziert. Diese reichen von fortgeschrittenen Möglichkeiten der Überwachung, politischer Beeinflussung durch Falschinformationen und Deep Fakes, Nutzung der KI für Microtargeting und Nudging, mangelnde Transparenz und Erklärbarkeit der technischen Verarbeitung, Bias und Vorurteile in den zugrundeliegenden Daten, Fragestellungen des „geistigen Eigentums“, Auswirkungen auf die Arbeitswelt und militärische Nutzung. Regulierungsbestrebungen gibt es insbesondere auf Ebene der Europäischen Union in Form des AI Act, der sich vor allem auf Hochrisikosysteme konzentriert.

Nach dieser Einführung beschäftigen sich die nächsten vier Beiträge mit dem allgemeinen Zusammenhang von Recht und Ethik in Bezug auf KI, bevor weitere Artikel sich einzelnen Anwendungsfunktionen von KI widmen. Dabei ist es im Rahmen eines Heftes nicht möglich, jedes gesellschaftliche Feld, in dem KI als gesamtgesellschaftliches Phänomen eine Rolle spielt, zu behandeln.

Auf Bias in den Daten, auf denen Systeme wie ChatGPT fußen und die überwiegend von gebildeten weißen Männern stammen, weist Roberto Simanowski hin und sieht die Gefahr eines algorithmischen Kolonialismus. Antworten einer Künstlichen Intelligenz hängen stets von ihren Trainingsdaten ab. Wenn ein Eingriff einer mit Daten trainierten KI, die eine einseitige, „weiße“, „männliche“ Sicht wiedergeben, in gesellschaftliche Prozesse schon nicht verhindert werden könne, so der Autor, müssen die Menschen zu einem kritischen Umgang mit der KI befähigt werden. Er wünscht sich eine Diskussion über Werte und Perspektiven beim Denken, Sprechen und Schreiben.

Mit der Frage der Fairness, Transparenz und Erklärbarkeit als Voraussetzung für Vertrauen in KI-Anwendungen setzen sich Steven Kleemann, Simon Hirsbrunner und Hartmut Aden in ihrem Beitrag auseinander. Anknüpfend an die aktuellen Regulierungsbestrebungen auf europäischer Ebene fragen sie nach den Zusammenhängen zwischen Fairness, Transparenz und Erklärbarkeit als ethisch-normative Bewertungskriterien. Anschließend entwickeln sie diese Kriterien anhand der Anforderungen an vertrauenswürdige KI im sicherheitsbehördlichen Kontext. Neben der Transparenz als notwendige Voraussetzung für eine erklärbare KI fordern sie die angemessene Ausgestaltung der verwendeten Systeme, damit sie rechtmäßiges Handeln nicht nur unterstützen, sondern technisch erzwingen – um Diskriminierung zu verhindern, Entscheidungen akzeptierbar und nachvollziehbar zu machen und dabei auch Besonderheiten des jeweiligen Einzelfalls zu berücksichtigen.

Die folgenden beiden Artikel analysieren die jüngsten Bemühungen der Europäischen Union, mit dem AI Act verbindliche Regelungen für KI-Systeme zu schaffen, um Persönlichkeitsrechte und das Diskriminierungsverbot zu sichern. Rolf Schwartmann und Moritz Köhler gehen einigen der strittigen Details auf den Grund. Dabei betonen Sie, dass der Mensch (und nicht die Maschine) im Mittelpunkt der Betrachtung stehen müssen. Daher ist es auch nötig, dass Nutzer*innen die Wirkungsweise einer KI nachvollziehen können. Der Beitrag von Hartmut Aden bewertet zentrale Elemente der Verordnung aus menschen- und bürger*innenrechtlicher Perspektive.

Neue technische Entwicklungen werden (allzu) häufig sehr schnell für militärische Anwendungen genutzt oder gehen originär aus militärischer Forschung hervor. Hans-Jörg Kreowski und Aaron Lye zeichnen die Geschichte der KI-Forschung nach, die mit ziviler Ausrichtung begann, aber schnell das Interesse der Militärbehörden weckte. So wurde in den 1980er-Jahren die Strategic Computing Initiative (SCI) in den USA gestartet, die als militärisches Forschungsprojekt die Schwerpunkte Bildverstehen, Spracherkennen und -verstehen und Expertensysteme setzte. Ausgehend von diesen historischen Betrachtungen gehen sie auf die aktuellen Entwicklungen ein. Militärische Drohnen dienten zunächst der Aufklärung, wurden aber schnell mit Raketen ausgestattet und werden zunehmend eingesetzt, wie der Ukraine-Krieg beispielhaft zeigt. Werden Drohnen bisher meist durch Menschen ferngesteuert, sind autonome Drohnen der nächste Entwicklungsschritt, der auch die automatisierte Entscheidung über den Waffeneinsatz und damit verbunden die Tötung von Menschen einschließt. Damit geht allgemein die Automatisierung des Luftkampfs einher, für den entsprechende Assistenzsysteme ständig weiterentwickelt werden. Zur übergreifenden Steuerung von militärischen Auseinandersetzungen werden Schlachtenmanagementsysteme entwickelt, die die Lage analysieren, militärische Handlungsoptionen simulieren und nach vorgegebenen Strategien Operationspläne entwickeln. Dies schließt Vernetzung und Koordination der Soldat*innen und Waffensysteme ein, die auf Sensordaten basieren und in Informationsverbünden zusammengeführt werden. Viele Länder planen, künftig fortgeschrittene KI-Fähigkeiten zu erarbeiten und haben dafür mittlerweile KI-Strategien veröffentlicht, wie sie Künstliche Intelligenz militärisch nutzen wollen. Die Auswirkung aktueller Entwicklungen wie generativer Sprachmodelle sind dabei noch nicht abzusehen.

Kapitalismuskritische Ideen zur Freiheit von Arbeit zeichnet Philip Dingeldey in seinem Beitrag nach, um zu zeigen, inwiefern diese losgelöst von oder verbunden mit einer KI oder anderen technologischen Entwicklungen sind. Während in der Antike die Arbeit als unfreiheitlich angesehen wird, gilt später das Recht auf Arbeit als Errungenschaft der Emanzipation. Auch Karl Marx kritisiert die Natur der Arbeit als Tauschwert in der Produktion. Tatsächlich nährt Künstliche Intelligenz die Erwartung, dass Menschen von sinnloser und lästiger Arbeit befreit werden können. Generative KI aber stärke den arbeits- und profitbasierten Kapitalismus. Menschen im Kapitalismus ohne Arbeit sind nicht plötzlich frei für Kunst, Philosophie, Politik oder Faulheit, sondern im Gegenteil ist ihre ökonomische Absicherung bedroht. Zudem stellt sich bei generativer KI die Frage nach dem Urheberrecht bei der Nutzung von Daten zum Training. Mächtige Digitalfirmen nutzen urheberrechtlich geschütztes Material um auf dieser Basis neue Ergebnisse zu erzeugen. Dazu komme die die Gefahr Wegnahme der Arbeitsplätze und in der Folge Arbeitslosigkeit mit ihren sozialen Folgen. Es existierten inzwischen verschiedene Modelle verschiedener Reichweite oder Radikalität, wie mit einer Automatisierung, die zahlreiche Jobs überflüssig macht, umzugehen sei: vom bedingungslosen Grundeinkommen über einen Postkapitalismus bis zum Sozialismus.

Visionen einer Kollaboration zwischen Mensch und Roboter nimmt Annabell Lamberth in ihrem Beitrag in den Blick. Waren es zunächst Großindustrieroboter, die in der Automatisierung der Arbeit die Szene dominierten, sind es heute verstärkt kleine Roboter, die kollaborativ eingesetzt werden können und von denen erwartet wird, dass sie Fachkräftemangel reduzieren, den Menschen von unangenehmen Arbeiten entlasten und insgesamt seinen Arbeitsumfang reduzieren könnten. Sie analysiert den soziotechnischen Diskurs, der sich zwischen der Ersetzung menschlicher Arbeit im Produktionsprozess durch intelligente Roboter und der Kollaboration zwischen beiden bewegt und nimmt damit eine differenzierte Perspektive auf vorwiegend technik-optimistische Erwartungen in den Einsatz dieser Roboter und ihre Effekte auf die Arbeitswelt ein. Sie setzt das in den Kontext der Debatte um „Industrie 4.0“ und beleuchtet die Rolle der Arbeitnehmer*innenvertretungen in diesem Diskurs.

Doch welche Antworten gibt die Künstliche Intelligenz selbst auf gesellschaftspolitische und menschenrechtliche Fragen? Werner Koep-Kerstin und Philip Dingeldey unterziehen sich im letzten Beitrag des Schwerpunkts einem Experiment, indem sie ein „Interview“ mit ChatGPT führen, in dem diese Fragen thematisiert werden. ChatGPT antwortete dabei auf Fragen zum Urheberrecht an den generierten Antworten und an den diesen zugrundeliegenden Trainingsdaten, die Verantwortung für durch ChatGPT generierte Fehlinformationen und zum Regelungsbedarf für Künstliche Intelligenz. Deutlich wird dabei, dass ChatGPT häufig sehr allgemein und ausweichend antwortet – was letztlich nur bestätigt, dass Chatbots und die ihnen zugrundeliegenden Large Language Models (LLM) – zumindest heute – lediglich in der Lage sind, allgemeine Informationen aufzubereiten und wiederzugeben, und keine eigenen substanziellen Aussagen zu generieren. Damit treffen sie auch keine Unterscheidung zwischen akzeptablem und menschenverachtendem Material – dies muss ihnen vorab beim initialen Training „beigebracht“ werden.

Daneben bietet die vorliegende vorgänge-Ausgabe auch wieder Hintergrundbeiträge zu aktuellen und bürgerrechtlich relevanten Themen. Beispielsweise fragt Bernd Kasparek, wie viel Europa überhaupt noch im neuen Gemeinsamen Europäischen Asylsystem (GEAS) steckt. Ihm zufolge befördert dieses System einen nationalistischen Umbau der Europäischen Union. Darüber hinaus beschäftigt sich Veit Friemert in einer kritischen Würdigung mit Herfried Münklers Vorträgen zum Ukraine-Krieg. Zuletzt dokumentieren wir im vorliegenden Heft auch die Verleihung des Fritz-Bauer-Preises 2023. Dieser wurde am 14. Oktober im Residenzschloss Rastatt an die Beschwerdeführer*innen der Verfassungsklagen gegen das Klimaschutzgesetz verliehen. Hier veröffentlichen wir die Begrüßungsrede von Stefan Hügel, die Laudatio von Gerd Winter und einige kurze Dankesreden der Preisträger*innen. Wir wünschen Ihnen eine anregende Lektüre.

Stefan Hügel und Philip Dingeldey

nach oben