Sie befinden sich hier: Start |Publikationen |vorgänge |Online-Artikel |

vorgänge: Artikel - 16.07.19

Künstliche Intelligenz und Politik*

Stefan Hügel

Algorithmen, Data Science, Microtargeting - und ihre Auswirkung auf politische Entscheidungen. In: vorgänge Nr. 225/226 (1-2/2019), S. 25-42

Während in der Wissenschaft die Erwartungen an eine Künstliche Intelligenz (KI) zuletzt deutlich herunter geschraubt wurden, wird die Technologie in der politischen Öffentlichkeit in den letzten Jahren deutlich aufmerksamer - und zum Teil kritischer - verfolgt. Stefan Hügel sortiert diese Debatte, indem er zunächst einmal die verschiedenen Begriffe von starker und schwacher KI, computergestützter Algorithmen, Lern- und Entscheidungssystemen voneinander abgrenzt. Im zweiten Teil seines Beitrags geht er ausführlich auf die verschiedenen Gefährdungspotenziale der KI auf Demokratie und Öffentlichkeit ein, bevor er abschließend mögliche Schutzkonzepte vorstellt.

 

Ich bin der Ansicht, dass ein in jeder Beziehung zu vereinfachter Begriff von Intelligenz sowohl das wissenschaftliche wie das außerwissenschaftliche Denken beherrscht hat, und dass dieser Begriff zum Teil dafür verantwortlich ist, dass es der perversen, grandiosen Phantasie der künstlichen Intelligenz ermöglicht wurde, sich derart zu entfalten.

Joseph Weizenbaum[1]


Der Computer Nr. 3 / sucht für mich den richtigen Boy,und die Liebe ist garantiert / für beide dabei.Der Computer weiß genau / für jeden Mann die richtige Frau,und das Glück fällt im Augenblick / aus seiner Kartei.

France Gall[2]

 

Nach einer wechselvollen Geschichte seit den hohen Erwartungen der 1950er und 1960er Jahre nimmt das Interesse an Künstlicher Intelligenz wieder deutlich zu. Maschinelles Lernen und algorithmische Entscheidungsfindung stellen die Automatisierung auf eine neue Stufe.[3] Der KI-Experte Wolfgang Wahlster übersetzt KI inzwischen mit „Künftige Informatik“.[4] Es ist zu erwarten, dass Anwendungen der Künstlichen Intelligenz zunehmend unser Leben bestimmen und prägen.

Gleichzeitig verlagert sich die Kommunikation im Internet seit Jahren zunehmend auf Soziale Netzwerke, die von globalen Wirtschaftsunternehmen wie Facebook oder Twitter betrieben werden. Diese Unternehmen stellen einen großen Teil ihrer Dienste für die Nutzerinnen und Nutzer kostenlos zur Verfügung - ihr Geschäftsmodell besteht darin, die bei der Nutzung anfallenden Daten auszuwerten und Erkenntnisse daraus insbesondere der Werbewirtschaft kostenpflichtig anzubieten. Den Unternehmen, die diese Dienste nutzen, bietet sich damit die Möglichkeit, potenzielle KundInnen gezielt anzusprechen, Streuverluste zu vermeiden und Botschaften zielgruppengerecht zuzuschneiden, beispielsweise an finanzkräftige weiße Männer mittleren Alters oder aber an Jugendliche mit wenig Selbstvertrauen und emotionalen Problemen.[5] Dies wird als Microtargeting bezeichnet und nutzt ebenfalls Techniken der Künst­lichen Intelligenz.
Angesichts einer öffentlichen politischen Debatte, die zunehmend den Regeln der Werbewirtschaft folgt, ist die Ausdehnung von Methoden des Microtargeting und der Künstlichen Intelligenz auf den Wahlkampf nicht überraschend. Die Begriffe Algorithmus und Künstliche Intelligenz werden dabei in der öffentlichen Diskussion häufig undifferenziert verwendet. Dieser Beitrag will zunächst die Begriffe aus technischer Sicht erläutern und eingrenzen. Danach werden die Risiken für die politische Kommunikation beschrieben. Zuletzt gehe ich auf Lösungsmöglichkeiten ein - diese bestehen vor allem in einem konsequent zu Ende gedachten und wohlverstandenen Datenschutz.


Algorithmen

Ein in der aktuellen Debatte häufig verwendeter Begriff ist der des Algorithmus[6]. Viele Eigenschaften einer autonomen, automatisierten Datenverarbeitung werden heute Algorithmen zugeschrieben. Ein „Algorithmen-TÜV“ wird gefordert, um die Risiken algorithmischer Entscheidungsfindung in den Griff zu bekommen.

Was ist ein Algorithmus? Entgegen dem in der öffentlichen Debatte häufig suggerierten, inhärenten Bezug zur Künstlichen Intelligenz verstehen wir darunter einfach eine eindeutige Handlungsvorschrift, um ein Problem oder eine Klasse von Problemen unter variablen Bedingungen zu lösen. Ein Algorithmus setzt sich aus endlich vielen[7], wohldefinierten Einzelschritten zusammen. Algorithmen können i. d. R. zur Ausführung in einem Computerprogramm implementiert werden, aber auch eine natürlichsprachliche Handlungsanweisung, die von Menschen ausgeführt werden kann, ist ein Algorithmus.[8]

Freilich werden auch in der Künstlichen Intelligenz Algorithmen verwendet. Darüber hinaus findet aber heute in der öffentlichen Diskussion eine Bedeutungsverschiebung statt: Entscheidungssysteme, Lernprogramme und sonstige Programme der Künstlichen Intelligenz werden zunehmend exklusiv als „Algorithmen“ bezeichnet.[9] Dies ist kein angemessener Begriff eines Algorithmus. Im strengen Sinn des mathematischen Konstrukts sind es keine Algorithmen mehr, sondern der zugrundeliegende (Lern-)Algorithmus ist durch das in der Lernphase gebildete Modell mit seinen Parametern „verschmutzt“.[10) Hier sollte besser von Software gesprochen werden.

Lev Manovich hält die Bezeichnung von Konzepten der automatisierten Entscheidungsfindung als Algorithmen für irreführend, da sie meistens auf maschinellem Lernen (s. u.) beruhen. Im Gegensatz zu Algorithmen sind die Schritte des maschinellen Lernens hin zum letztlich erreichten Ergebnis häufig nicht nachvollziehbar. Faktisch stehe man bei solchen Systemen oft vor einer Black Box, die zwar praktische Ergebnisse liefere, aber nicht interpretierbar sei. Manovich bevorzugt ebenfalls den allgemeineren Begriff Software.[11]


Künstliche Intelligenz

Der Begriff Künstliche Intelligenz ist schwierig abzugrenzen, da es bisher noch nicht einmal eine allgemein akzeptierte Definition von Intelligenz gibt. Auch der gängige Definitionsversuch:

„Ziel der KI ist es, Maschinen zu entwickeln, die sich verhalten, als verfügten sie über Intelligenz.“[12]

bleibt letztlich unbefriedigend. Er knüpft an ein klassisches Gedankenexperiment an, mit dem überprüft werden soll, ob eine Maschine Intelligenz besitzt. Bei dem 1950 von Alan Turing vorgeschlagenen Turing-Test[13] stellt ein Mensch Fragen und soll anhand der Antworten herausfinden, ob ihm gerade ein Mensch oder eine Maschine antwortet. (Die Fragen werden schriftlich beantwortet, um die Erkennung anhand von hier nicht relevanten Eigenschaften, z. B. der Stimme, auszuschließen.) Die Maschine hat den Test bestanden, wenn sie anhand der Antworten nicht vom Menschen unterschieden werden kann.
Gemeinhin unterscheiden wir zwischen starker und schwacher KI:[14]

  • Von starker KI sprechen wir bei einer Maschine, die über eine dem Menschen analoge Intelligenz verfügt, d. h. die in der Lage ist, das menschliche Denken zu mechanisieren. Dies kann eine Form des „maschinellen Bewusstseins“ einschließen. Die Auseinandersetzung darüber, ob eine starke KI möglich ist, wurde mit Searle's Chinesischem Zimmer[15] angestoßen. Bei diesem Gedankenexperiment sitzt ein Mensch, der kein Wort chinesisch versteht, in einem Zimmer, in das ihm auf chinesisch formulierte Fragen gestellt werden. Er hat lediglich syntaktische Regeln, mit deren Hilfe er die Fragen beantworten kann - auch ohne ihren Inhalt zu verstehen. Das entspricht der Arbeitsweise eines Computers, der „Verständnis“ lediglich simuliert. Dieses Experiment wirft die Frage auf, ob formal-syntaktische Übersetzungen auf dem Wege eines Sprungs von Quantität zu Qualität auch Bedeutung transportieren können.[16] Die Forschung ist heute weit davon entfernt, starke KI zu realisieren; ihre prinzipielle Umsetzbarkeit ist ein philosophisch umstrittenes Problem.
  • Unter schwacher KI werden Techniken verstanden, die einzelne kognitive Fähigkeiten - i. d. R. innerhalb eines engen Aufgabenbereichs - in einem Computersystem nachbilden. Diese Fähigkeiten stehen in keiner Beziehung zu anderen Fähigkeiten - im Gegensatz zum Menschen, bei dem sie im Zusammenhang stehen. (Ein Computer, der programmiert wurde, Hunde und Katzen zu klassifizieren, ist deswegen weder in der Lage, einen Hund oder eine Katze zu füttern noch kann er Automobile von Fahrrädern unterscheiden.) Solche Systeme sind in der Lage unterschiedliche, aber jeweils sehr spezifische Aufgaben auszuführen.

In der informationstechnischen Praxis und der politischen Debatte sind Verfahren der schwachen KI relevant. Es werden Techniken eingesetzt, durch die abgegrenzte Aufgaben mit Hilfe von Computersystemen gelöst werden können. Die Wahrnehmung, wann es sich bei einem Computersystem um Künstliche Intelligenz handelt, verändert sich dabei mit der Zeit. Beispielsweise werden Schachprogramme - die auf der heutigen Entwicklungsstufe menschlichen SchachspielerInnen überlegen sind - durch ihre „Normalität“ heute im Gegensatz zu früher im Alltagsverständnis häufig nicht mehr als Künstliche Intelligenz angesehen.[17] Auch die eingangs zitierte Unterstützung bei der Partnersuche würde man im Zeitalter von Dating-Apps wie Tinder wohl nicht mehr als Künstliche Intelligenz bezeichnen. Häufig werden in der Alltagssprache verwendete Begriffe wie „Lernen“, „Erkennen“, „Verstehen“ unreflektiert verwendet und dadurch Erwartungen an Systeme der Künstlichen Intelligenz genährt, die sie nicht erfüllen können.[18] Dazu stoßen solche Systeme - wie jedes Computersystem - an Grenzen der Komplexität und der Berechenbarkeit.[19]

Zu den in der Praxis gebräuchlichen KI-Verfahren gehören Verfahren des sogenannten Maschinellen Lernens. Maschinelles Lernen verwendet oft große Datenmengen („Big Data“), was ein neues wissenschaftliches Gebiet, Data Science, hervorgebracht hat. Die Leistungsfähigkeit solcher Systeme ergibt sich aus der Leistungsexplosion der Rechnersysteme in den letzten Jahren. Sie macht es heute möglich, umfangreiche Datenmengen in kürzester Zeit zu durchsuchen und zu analysieren.

Im Grundsatz geht es beim maschinellen Lernen darum, bereitgestellte Daten - oft auch in einem kontinuierlichen Strom - aufgrund ihrer Eigenschaften in unterschiedliche Klassen einzuordnen, zu annotieren und dabei gleichzeitig die Klassen so anzupassen, dass eine geeignete Klassifizierung für das zu lösende Problem oder die Anfrage entsteht.[20] Man spricht auch von algorithmischer Entscheidungsfindung (Algorithmic Decision Making, ADM).[21]

Ein einfaches Beispiel wäre ein Klassifikator, der Bilder von Hunden und Katzen unterscheidet. Dazu würde man Eigenschaften suchen, die bei Hunden und Katzen unterschiedlich sind, eine Klassifizierung anhand dieser Eigenschaften vornehmen und die beiden Klassen mit den Namen „Hund“ und „Katze“ etikettieren. Da diese Eigenschaften nicht immer eindeutig zu bestimmen sind, werden sich dabei Fehler ergeben. Um diese Fehler zu beheben, passt man die Schwellwerte der Unterscheidung in mehreren Durchläufen immer wieder an, so dass sich bei jeder Iteration eine bessere Klasifizierung ergibt. Ziel ist, dass das System am Ende die Unterscheidung mit hinreichender Genauigkeit vornehmen kann: Es hat „gelernt“.

Analog würde man z. B. vorgehen, wenn man Menschen nach Parteipräferenz klassifizieren möchte: Auch hier legt man Eigenschaften fest, die für Anhänger*innen einer bestimmten Partei typisch sind. Nach mehreren Iterationen wird man dann Einzelpersonen mit hoher Wahrscheinlichkeit einer Partei zuordnen können.

Der eigentliche Algorithmus ist dabei die Berechnungsvorschrift, die das Lernen steuert. Dieser wird i. d. R. vom Anwendungsbereich unabhängig sein. Er „lernt“ aus den vorhandenen Daten und - und das ist Teil des Problems - reproduziert dabei die Strukturen, d. h. die Einschätzungen und Vorurteile, die in diesen Daten enthalten sind.[22]
Grundsätzlich können drei Arten von Lernverfahren unterschieden werden:[23]


1

2

3

4

5

Vor