Publikationen / vorgänge / vorgänge Nr. 242: Künstliche Intelligenz und Menschenrechte

Fairness, Erklär­bar­keit und Transparenz bei KI-An­wen­dungen im Sicher­heits­be­reich – ein unmögliches Unter­fan­gen?

In der ethischen, rechtswissenschaftlichen und politischen Diskussion über Anforderungen an KI-Anwendungen spielen Fairness, Erklärbarkeit und Transparenz als Konzepte und Postulate eine zentrale Rolle. Die Erfüllung dieser Postulate wird zumeist als Voraussetzung für Vertrauen in KI-Anwendungen angesehen. Dieser Beitrag diskutiert die Zusammenhänge, Unterschiede und Abhängigkeiten zwischen diesen Konzepten aus einer interdisziplinären rechts- und politikwissenschaftlichen sowie ethischen Perspektive. Im Beitrag wird argumentiert, dass KI-Fairness nicht ausschließlich als statistisches Unterfangen verhandelt werden sollte, anhand dessen Verzerrungen (z.B. gender bias, racial bias) in Modellen evaluiert, verringert oder aufgelöst werden können. Vielmehr steht und fällt die Fairness von KI mit der Güte der Transparenz- und Kommunikationsstrategien, welche die gewählten Fairness-Verfahren verständlich und rechenschaftsfähig machen.

 

1. Einleitung: ethische und rechtliche Anfor­de­rungen an Anwendungen Künstlicher Intelligenz

Anknüpfungspunkte dieses Beitrags über Fairness, Erklärbarkeit und Transparenz als Anforderungen an Anwendungen Künstlicher Intelligenz (KI) bilden die derzeitigen Bestrebungen zur Schaffung eines Rechtsrahmens für die KI-Entwicklung und -Nutzung, insbesondere durch den 2021 veröffentlichten Vorschlag für eine KI-Verordnung der Europäischen Union (Europäische Kommission 2021; im Folgenden: KI-VO-E), deren Aushandlung im Dezember 2023 abgeschlossen werden konnte. Die hier untersuchten normativen Anforderungskategorien an KI-Anwendungen werden damit von einem ethischen (Soft-law-)Rahmen in einen rechtsverbindlichen Hard-law-Rahmen überführt. Empirisch basiert der Beitrag auf Forschungen zu KI-Anwendungen für die Nutzung durch Sicherheitsbehörden, insbesondere durch die Polizei. Vor diesem Hintergrund geht dieser Beitrag zwei zentralen Fragen nach:

(1) Welche Zusammenhänge und Abhängigkeiten bestehen zwischen Fairness, Transparenz und Erklärbarkeit als normative Kategorien zur Bewertung von KI-Anwendungen?

(2) Wie stellen sich diese Abhängigkeiten im Hinblick auf KI-basierte Technologien im Sicherheitsbereich dar?

 

Steven Kleemann ist Jurist, wissenschaftlicher Mitarbeiter am Forschungsinstitut für Öffentliche und Private Sicherheit (FÖPS Berlin) der Hochschule für Wirtschaft und Recht Berlin (HWR) und Doktorand an der Universität Potsdam.

Dr. Simon David Hirsbrunner leitet am Institut für Ethik in den Wissenschaften (IZEW) der Universität Tübingen Projekte zu den Themen KI-Ethik, Datenethik sowie algorithmische Polizeiarbeit. Er ist Sozial- und Medienwissenschaftler und forschte bisher im Bereich Human-Centered Computing an der Freien Universität Berlin, sowie bei der Wikimedia, am Potsdam Institut für Klimafolgenforschung, der Universität Potsdam und der Universität Siegen.

Prof. Dr. Hartmut Aden ist Jurist und Politikwissenschaftler. Er ist Professor für Öffentliches Recht, Europarecht, Politik- und Verwaltungswissenschaft an der Hochschule für Wirtschaft und Recht Berlin (HWR), zugleich Vizepräsident für Forschung (seit 2020) und Mitglied des Forschungsinstituts für Öffentliche und Private Sicherheit (FÖPS Berlin). Zudem ist er Mitglied der Redaktion der vorgänge. Website: www.hwr-berlin.de/prof/hartmut-aden.

 

Leider steht dieser Artikel nur in der Kaufversion der Zeitschrift vorgänge zur Verfügung. Sie können das Heft hier im Online-Shop der Humanistischen Union erwerben: die Druckausgabe für 14.- € zzgl. Versand, die PDF-/Online-Version für 5.- €.

 

nach oben