Themen / Innere Sicherheit

Predictive Policing: Die Algorith­mi­sie­rung der Polizei als Risiko für die Bürger­rechte?

26. November 2019

In: vorgänge Nr. 227 (3/2019), S. 71-84

Der Trend zur Ausweitung der polizeilichen Gefahrenabwehr scheint ungebrochen: immer früher soll die Polizei auf mögliche Gefahren reagieren und mögliche Schäden abwehren können. Neben den dafür nötigen gesetzlichen Befugnissen bedarf es dafür auch geeigneter technischer und informationeller Hilfsmittel. Neue Analyse- und Prognoseprogramme, die unter dem Begriff des Predictive Policing zusammengefasst werden, versprechen hier nicht weniger als eine Zäsur in der klassischen Polizeiarbeit, weil sie Voraussagen bieten sollen, wann und wo die nächsten Straftaten zu erwarten sind. Was diese Programme wirklich leisten, welche Chancen dies für die Polizeiarbeit bietet, aber auch welche rechtspolitischen und freiheitlichen Risiken damit verbunden sind, schildert der folgende Aufsatz.

Einleitung

Prävention, auch prognosebasierte, ist kein neues Aufgabenfeld der Polizei. Die in den jeweiligen Landespolizeigesetzen normierte Gefahrenabwehr ist, neben der reaktiven repressiven Strafverfolgung, ihr genuines Tätigkeitsfeld. Jedoch mehren sich in den letzten Jahren, mit nochmals stärkerer Tendenz seit 9/11, die verschiedenen Anstrengungen der Sicherheitsinstitutionen, ‚vor die Lage‘ zu kommen: Sie versuchen nicht erst dann aktiv zu werden, wenn der Eintritt einer Gefahr unmittelbar oder in absehbarer Zeit bevorsteht, sondern schon (deutlich) vorher, also proaktiv, präventiv zu intervenieren (vgl. Frankenberg 2010, insb. 119ff.; Albrecht 2010). Das spezifische Novum beim Predictive Policing besteht dabei in der Automatisierung der Datenverarbeitung. In Bezug auf die Prognoseerstellung bedeutet dies, dass eine rein algorithmisch generierte raumbezogene Risikoproduktion und -konstruktion stattfindet. Ebenfalls neu ist, dass die Prognoseberechnung und die dafür notwendige Analyse von (Kriminalitäts-)Daten kontinuierlich stattfindet und mithin grundsätzlich anlasslos ist (Singelnstein 2018a: 5). Das prognostische Wissen über solcherlei Risiken ist notwendigerweise probabilistisch, beinhaltet also stets interpretativen Spielraum und deshalb auch Fehlerpotenziale. In der Folge gewinnen (Prognose-)Technologien an Relevanz, die eine Objektivierung dieses prospektiven Wissens versprechen (Ferguson 2017: 28f.). Predictive Policing ist nicht zuletzt deshalb als genuine soziotechnische Interaktion, als Ensemble von Mensch und Maschine, zu verstehen (Paul/Egbert 2017: 95f.). Damit geht u. a. einher, dass die datenverarbeitenden Algorithmen der Prognosesoftware in die polizeilichen Entscheidungsprozesse nachhaltig eingreifen und einen wesentlichen Anteil des bereitgestellten präventiven Wissens generieren.

Grundsätzlich lassen sich im Rahmen der prognosebasierten Polizeiarbeit zwei Anwendungsformen unterscheiden: Zum einen die raumbezogenen Verfahren, die zum Ziel haben, mögliche Risikoräume zu identifizieren und diese verstärkt mit polizeilichen Interventionen – vor allem durch intensivierte Patrouillenfahrten – zu bedienen (Pett/Gluba 2017). Zum anderen die personenbezogenen Anwendungen, auch unter dem Oberbegriff „predictive profiling“ (Sommerer 2017: 149) subsumiert, die auf mögliche Täter_innen und Opfer zukünftiger Kriminalität fokussieren und neben sozialwissenschaftlichen Netzwerkkonzepten [1] auch psychologisch-psychiatrische Diagnosen nutzbar machen. Letzteres ist etwa bei der „regelbasierte(n) Analyse potentiell destruktiver Täter zur Einschätzung des akuten Risikos – islamistischer Terrorismus“ (RADAR-iTE) des BKA der Fall, bei der das Gewaltrisiko von relevanten Personen und Gefährdern „anhand eines wissenschaftlich geprüften Verrechnungsmodells“ (BT-Drucksache 18/13422) individuell konkretisiert und polizeiliche Kontrollmaßnahmen entsprechend priorisiert werden sollen (BKA 2015; BT-Drucksache 19/1558).

Vor diesem Hintergrund werden wir im Folgenden beleuchten, welche bürgerrechtlichen Risiken aus dieser neuartigen Polizeipraxis erwachsen. Obgleich die bereits bekannten personengebundenen Verfahren ebenfalls relevante bürgerrechtliche Spannungen implizieren, da sie z. B. kritische strafprozessuale Fragen aufwerfen (wie z. B. die Frage nach Kontrollierbarkeit und Accountability) (Gless 2016; Singelnstein 2018b), wollen wir vorliegend von raumbezogenen Verfahren des Predictive Policing ausgehen, um (mögliche) bürgerrechtliche Risiken von prognosebasierter Polizeiarbeit zu illustrieren. Im Zuge dessen werden die rechtlichen Grundlagen des Predictive Policing unter Einschluss bereits bestehender Regelungen zu relevanten Praktiken – beispielsweise zu gefährlichen Orten – thematisiert und mögliche zukünftige Entwicklungen in diesem Bereich angesprochen.

Die raumbezogenen Verfahren des Predictive Policing sind derzeit im deutschsprachigen Raum mit Abstand am weitesten verbreitet. Aus bürgerrechtlicher Perspektive sind sie keineswegs so unproblematisch, wie von Befürworter_innen entsprechender Technologien sowie von Datenschutzbeauftragten – u. a. mit pauschalem Verweis auf die Nicht-Nutzung von personenbezogenen Daten bei der Prognoseerstellung – gemeinhin proklamiert wird (z. B. Schweer 2015: 16; Petri 2015). Im Fokus unserer Überlegungen steht dabei die polizeiliche Verdachtsgewinnung im prognostizierten Risikoraum und somit diejenige Konstellation, in der die raumbezogene, algorithmisch produzierte Prognose von Polizist_innen auf Personen angewendet werden muss. Auf diese Weise berührt Predictive Policing, so unsere Überzeugung, in der Tat bürgerrechtliche Fragen.

Wir werden dabei wie folgt vorgehen: Zunächst präsentieren wir die definitorischen und technischen Grundlagen von Predictive Policing und skizzieren die Verbreitung von prognosebasierter Polizeiarbeit in Deutschland. Dann thematisieren wir den Nexus von Predictive Policing und Bürgerrechten. Im Zuge dessen beschreiben wir die rechtlichen Grundlagen von Predictive Policing, gehen auf die rechtlichen Anforderungen an die polizeiliche Eingriffsschwelle, die anschließenden Folgemaßnahmen sowie die Rolle der Prognosen in diesem Ablauf ein.

Predictive Policing: Technische Grundlagen und Verbreitung

Predictive Policing, übersetzbar als prognosebasierte Polizeiarbeit, kann begrifflich bestimmt werden als die polizeiliche Anwendung von datenanalytischen Verfahren, um operative Prognosen in Bezug auf wahrscheinliche Täter_innen oder Opfer bzw. Zeiten und Orte zukünftiger Kriminalität zu generieren und umzusetzen (Egbert/ Krasmann i. E.: 11f.; vgl. a. Perry 2013: 1f.). Auf Grund der Potenz moderner Verfahren der Datenanalyse in puncto Geschwindigkeit und Datendurchfluss sowie deren mittlerweile relativ geringen Nutzungskosten können damit mittlerweile (operative) Prognosen generiert werden, aufgrund derer die Polizei unmittelbar agieren kann (Gluba 2014: 347). Die algorithmische Verarbeitung der Datenbestände macht es dabei prinzipiell möglich, aktuelle, buchstäblich gegenwartsnahe Lagebilder zu erstellen.

Die derzeit im deutschsprachigen Raum genutzten Verfahren operieren aber weder in Echtzeit noch sind sie in den meisten Fällen treffend als Big Data-Anwendungen zu beschreiben, sofern sie allein auf polizeieigene Daten zur registrierten Kriminalität – mit all den damit verbundenen Restriktionen und Selektivitäten – zurückgreifen und oft nur einmal täglich aktualisiert werden. Der durch die algorithmische Unterstützung errungene Zeitgewinn für die polizeiliche Praxis ist nichtsdestotrotz sehr wichtig, da hierzulande das hauptsächlich prognostizierte Delikt der Wohnungseinbruchdiebstahl darstellt, für den ein Near-Repeat Muster unterstellt wird. Dieses Muster folgt der rational choice-inspirierten Hypothese, dass professionelle Serieneinbrecher_ innen nach einer erfolgreichen Tat dazu neigten, kurz danach in der Nähe des ersten Tatorts erneut zuzuschlagen, z. B. weil Kosten und Nutzen besser abgeschätzt werden könnten (Schweer/Schweer 2015; Gluba 2017: 370). Obgleich auch Prognoseverfahren existieren (wie z. B. bei SKALA | MAP des LKA NRW), die weitere Datenquellen – z. B. aus Marktforschungen – einschließen, operieren derzeitige Prognosesoftwares weithin musterbezogen und maximal vergangenheitsorientiert. Sie stellen mithin eine Form der „prospective retrodiction“ (Aradau/Blanke 2017: 378) dar und tendieren deshalb sowie auf Grund des engen Bezugs zu den polizeieigenen Kriminalitätsdaten dazu, die von der Polizei dokumentierte Kriminalitätswirklichkeit schlicht in die Zukunft zu projizieren. [2]

Im deutschsprachigen Raum dominieren derzeit also polizeiliche Prognoseverfahren, die auf Basis des Near Repeat-Musters aus polizeilichen Kriminalitätsdaten zum Wohnungseinbruchdiebstahl zukünftige Risikoräume antizipieren sollen. Im Zuge dessen wird in Bayern, Sachsen und Baden-Württemberg sowie in den schweizerischen Kantonen Zürich, Basel-Landschaft, Zug und Aargau die deutsche Prognosesoftware PRECOBS angewendet, die vom Institut für musterbasierte Prognosetechnik (IfmPt) entwickelt wurde (Schweer 2015; Balogh 2016). Andere Landeskriminalämter bevorzugen dagegen Inhouse-Lösungen, wie im Falle von SKALA | MAP in Nordrhein-Westfalen (LKA NRW 2018), PreMAP in Niedersachsen, KLB-operativ in Hessen und KrimPro in Berlin (Egbert/Krasmann 2019b: 27ff.). Dies gilt auch für das Bundeskriminalamt in Österreich, das seit 2015 eine Eigenentwicklung (ebenfalls auf Basis des Near Repeat-Ansatzes) anwendet (ebd.: 40f.).

Predictive Policing und Bürger­rechte

Den Befürworter_innen des Predictive Policing sowie den Datenschutzbeauftragten kann zunächst zugestimmt werden, dass dieses im Vergleich zu bislang üblichen polizeilichen Methoden der Beurteilung des Risikopotentials öffentlicher Räume – nämlich über subjektives Erfahrungswissen der jeweiligen Beamt_innen oder den Einsatz von Videokameras – grundrechtsschonender wirkt, solange personenbezogene Daten nicht oder nur unter engen Voraussetzungen erhoben und weiterverarbeitet werden (Singelnstein 2018a: 6). Dies kann etwa durch eine Selektivität des Vergessens gewährleistet werden, bei welcher bestimmte Merkmale (eines Delikts, der Täter_in oder von weiteren Personen) bewusst gelöscht werden, aber auch durch eine höhere Transparenz der Algorithmen im Vergleich mit den subjektiven Selektionen der Beamt_innen. Dazu trägt weiterhin der Umstand bei, dass die Software die Daten ohne Eigeninteresse, also immer und für alle gleich, verarbeitet – wovon freilich unberührt ist, dass in die algorithmischen Modelle durchaus spezifische Interessen eingeschrieben sein können (Kitchin 2017: 17f.).

Problematisch scheinen uns demgegenüber bei den raumbezogene Verfahren der prognosebasierten Polizeiarbeit weniger die Eingriffe selbst, die durch die (gegenwärtigen) Technologien der jeweiligen Prognosesoftware vollzogen werden, als deren potenziell legitimatorische Funktion für darauf aufbauende Maßnahmen, z. B. in Form einer intensiveren Bestreifung oder niedrigschwelligeren Kontrolle in den als (zukünftig) riskant geltenden Gebieten – analog zu den sog. ‚Gefahrengebieten‘ (vgl. Belina/Wehrheim 2011; Ullrich/Tullney 2012). Für die sich in den Risikoräumen aufhaltenden Personen können daraus Einschränkungen ihrer Freizügigkeit, Eingriffe in ihre informationelle Selbstbestimmung bis hin zum Eindringen in ihren Wohnraum [3] folgen. Zwar ist es der Polizei bereits jetzt in den meisten Bundesländern erlaubt, beispielsweise über die Ausweisung und Festlegung von Gefahrengebieten, Personen ohne konkreten Anlass zu kontrollieren bzw. zu durchsuchen. Doch sehen wir bei Predictive Policing das Potenzial gegeben, dass künftig auch weiterführende Maßnahmen wie beispielsweise Platzverweise oder eben die Durchsuchung von Personen an raumbezogene Prognosen anschließen könnten. Diese zeichnen sich zwar durch eine geringe Eingriffsintensität aus, fokussieren jedoch häufig auf Personengruppen mit geringer Beschwerdemacht und werden in der Praxis (über die Konstruktion ‚gefährlicher Orte‘) häufig bereits vor Eintritt einer konkreten Gefahr im polizeirechtlichen Sinne angewandt (Thurn 2019).

Rechts­grund­lage des Predictive Policing

Für den Einsatz von Predictive Policing liefert das Gefahrenabwehrrecht den rechtlichen Rahmen. Predictive Policing ist, wie Rademacher (2017: 392) feststellt, im Bereich der „Gefahrerkennung“  zu verorten: Ähnlich dem professionellen Blick der Beamt_ innen soll die Prädiktionssoftware risikoträchtige Situationen, Verhaltensweisen und Objekte identifizieren und damit Hinweise auf mögliche Bedrohungen geben. Für die Gefahrerkennung besteht jedoch keine eigenständige Dogmatik (ebd.: 402), weswegen verschiedentlich an den Einsatz von Predictive Policing die Schwelle einer konkreten Gefahr – also einer Sachlage, bei der im einzelnen Fall die hinreichende Wahrscheinlichkeit besteht, dass in absehbarer Zeit bei ungehindertem Fortgang ein Schaden für ein Rechtsgut eintreten wird – angelegt wird. Wir folgen zwar einerseits Rademacher, der diese Schwelle als für zu hoch angelegt hält (Rademacher 2017: 393f.), halten den Einsatz entsprechender Software indes aus anderen als den von ihm genannten Gründen für bedenklich. Entscheidend ist für uns nämlich nicht der rechtliche Rahmen, innerhalb dessen Predictive Policing stattfindet, sondern die an eine Prognose anschließende a) Konstruktion eines Eingriffsgrundes sowie b) die Wahl der darauffolgenden Maßnahme (Streife, Identitätsfeststellung, Durchsuchung etc.) und der zu adressierenden Personengruppe.

Vom Verdacht zur Folge­maß­nahme
a) Konstruk­tion einer Gefahr

Raumbezogene Verfahren des Predictive Policing liefern keine genaue Vorhersage über das Eintreten einer bevorstehen Gefahr, sondern, wie alle Prognosen, lediglich Wahrscheinlichkeiten darüber, ob innerhalb eines bestimmten Gebiets in der nächsten Zeit ein solches Delikt eintreten könnte (Perry et al 2013: 8). Allerdings indiziere laut Rademacher (2017: 383; 392) eine qua polizeilicher Prognosesoftware generierte Gefahrenprognose gerade keine konkrete Gefahr, da nie alle (Begleit-)Umstände einer etwaigen Gefahr prozessiert und dargestellt werden können. Im Anschluss an eine Alarmmeldung der Software könnten daher nur Gefahrerforschungseingriffe in Betracht kommen, um den Verdacht weiter zu erhärten (ebd.: 386). Über das Bestehen einer konkreten Gefahr müsse außerdem, aufgrund ihres normativen Gehalts, die Entscheidung von einem dafür verantwortlichen Beamten getroffen werden (ebd.: 384) – wobei hier das Problem der Accountability, also der Zurechenbarkeit von Bewertungs- bzw. Entscheidungsverantwortlichkeit, nicht gelöst als vielmehr verschoben bzw. durch die prinzipielle algorithmische Opazität gar vergrößert wird (Bennett Moses/ Chan 2018: 817f.). Die Zurechnung von softwarebasierten Entscheidungen zu je einzelnen Beamt_innen erweist sich in diesem Fall daher faktisch als juristische Verlegenheitslösung.

Demgegenüber gibt es vereinzelte Stimmen, die eine positive Prognose mit dem Vorliegen einer konkreten Gefahr gleichzusetzen scheinen. So thematisieren bereits vereinzelt Anwender_innen von polizeilicher Prognosesoftware, ob und inwieweit eine vorliegende, softwareinduzierte Prognose bereits obligatorisches polizeiliches Eingreifen induzieren könne (Egbert 2018b: 261). Damit würden durch Predictive Policing Maßnahmen wie Platzverweise oder die Durchsuchung von Personen – Maßnahmen also, die nicht mehr lediglich das Recht auf informationelle Selbstbestimmung, sondern auch die Bewegungsfreiheit des Einzelnen einschränken – auf Grundlage einer raumbezogenen Risikoprognose rechtlich ermöglicht (vgl. auch Ferguson 2012). Sollte sich diese Interpretation durchsetzen, würden sich in Zukunft die durch Predictive Policing entstehenden (bürger-)rechtlichen Problemfelder multiplizieren: Während der prognostische Fokus aktuell noch auf Wohnungseinbruchsdiebstählen liegt, loten Anbieter_innen wie Anwender_innen derzeit die möglichen weiteren Applikationsbereiche von Predictive Policing aus. Diese reichen von häuslicher Gewalt, Raub, über Graffiti bis hin zu Autoauf-/ einbruch bzw. -diebstahl und Sexualdelikten – wobei auch Deliktfelder wie Betäubungsmittelkriminalität oder selbst Ordnungswidrigkeiten  zumindest prinzipiell denkbar sind. Dabei handelt es sich bisweilen um Deliktfelder, die, wie wir im Folgenden darstellen werden, ihrerseits stark mit bestimmten Personengruppen identifiziert werden. Wenn es zutrifft, dass durch die Einführung der „drohenden Gefahr“ in die Generalklausel des bayerischen Polizeiaufgabengesetzes die Anforderungen an den Kausalverlauf abgesenkt sind und zudem aktionelle Maßnahmen unter Voraussetzungen möglich sind, unter welchen bislang nur Gefahrerforschungseingriffe zulässig waren (Wegner/Hunold 2017; Shirvani 2018; Löffelmann 2018a, 2018b), könnte dies den Gesetzgeber vor weitere Probleme bei der Entwicklung von Maßstäben stellen, unter welchen Voraussetzungen die Einbeziehung von Predictive Policing in die Konstruktion der Gefahrenerwartung zulässig ist.

b) Vom Verdacht zum Verdäch­ti­gen: Maßnahmen

Die Prognosen im raumbezogenen Predictive Policing richten sich generell nicht auf bestimmte, d.h. identifizierbare Personen(-gruppen), sondern auf Räume innerhalb derer sich unbestimmte Menschen(-gruppen) aufhalten. Insofern kann von der (prospektiven) Tat nicht auf bestimmte Täter_innen geschlossen werden. Stattdessen passiert, was Aldo Legnaro (2018: 124) „projektive(s) Profiling“ nennt: Stereotypisierte Bilder von Gefährder_innen und/oder Störer_innen und deren Lebensstilen werden zum Maß und Modell, anhand derer zwischen Verdächtigen und Unverdächtigen (hier: innerhalb eines als risikobehaftet identifizierten Raumes) unterschieden wird. Je nach Form und Inhalt des Delikts können so verschiedene Stereotypisierungen wirkmächtig werden und den Blick der Polizist_innen lenken (Egbert 2018a). Einige Beispiele sind etwa die Verbindungen zwischen sog. ‚Stammsteher_innen‘ – also Alkoholkonsumierenden, die sich regelmäßig an einem bestimmten Ort treffen – und Rohheitsdelikten (Thurn 2019), zwischen Taschendiebstählen oder Einbrüchen und sog. ‚Personen mit häufig wechselndem Aufenthaltsort‘ – einem Code für Sinti und Roma (End 2014) –, zwischen Betäubungsmitteldelikten und sog. ‚Junkies‘ oder (vermeintlichen) Migranten (Krasmann/de Marinis 1997: 176ff.; Keller 2018: 21ff.), zwischen ’szenetypischer Kleidung‘ und Graffiti [6], und so weiter.
In den meisten Bundesländern ist es der Polizei möglich, an sog. gefährlichen Orten Identitätsfeststellungen unabhängig von einem konkreten Anlass vorzunehmen. Die rechtliche Konstruktion des ‚gefährlichen Ortes‘ ist in der Regel in den Paragrafen des Polizeirechts der Länder spezifiziert, welche die Praxis der Identitätsfeststellung normieren. Die Polizei ist damit in der Lage, innerhalb bestimmter Räume ohne Anlass und Unterschied die Identität der Personen festzustellen, die sich dort aufhalten. Die Bestimmung eines gefährlichen Ortes, eines Kontrollbereichs o.ä. erfolgt dabei durch die Polizei selbst. Sie stützt sich auf „polizeiliches Erfahrungswissen“ (Assall/Gericke 2016: 67f.). Dieses schlägt sich etwa in der Polizeilichen Kriminalstatistik (PKS) nieder, die immer wieder die legitimatorische Grundlage für fortgesetzte polizeiliche Maßnahmen an bestimmten Orten darstellt. Prognosen des Predictive Policing ergänzen die PKS in dieser Funktion, indem sie anzeigen, in welchen Gebieten mit bestimmten Straftaten zu rechnen sei. Dabei wird nur selten beachtet, dass die Polizei selbst diese Daten generiert und etwa durch eine erhöhte Kontrollintensität zu einer gestiegenen Zahl der Registrierungen von Straftaten [7] beiträgt (z. B. Kunz/Singelnstein 2016: 200). Zudem geht aus der PKS nichts über die Umstände der Delikte hervor; etwa wer Täter_in und wer Opfer einer Straftat ist: So sind die Geschädigten der am Münchner Hauptbahnhof – einem gefährlichen Ort [8], der in der jüngsten Zeit Gegenstand einer Reihe von ordnungspolitischen Maßnahmen war – begangenen Rohheitsdelikte nach aller Wahrscheinlichkeit selbst angehörige der sog. Trinkerszene, sodass diese von polizeilichen Maßnahmen ebenso betroffen wären wie die prospektiven Täter (vgl. Thurn 2019). Ähnliche Resultate könnte eine verstärkte Bestreifung von algorithmisch prognostizierten Risikoräumen zur Folge haben – insbesondere, wenn auch aktionelle Maßnahmen hieran anschließen könnten.

Das Hamburger OVG [9] rügte die Ausrufung von Gefahrengebieten bereits im Jahr 2015, weil die Polizei damit selbst festlege, wann die Voraussetzungen eines Eingriffs erfüllt seien, und weil sich das polizeiliche Erfahrungswissen gegenüber einer juristischen Kontrolle sperre (vgl. auch Assall/Gericke 2016; Belina 2018: 125ff.). Entgegen der Auffassung des Hamburger OVG erklärte das Bundesverfassungsgericht [10] in seiner Entscheidung zur automatischen Kennzeichenerfassung diese Standardmaßnahme für verfassungskonform – ohne dass dies der eigentliche Gegenstand der Entscheidung gewesen wäre. Wie Rusteberg (2019) kritisch bemerkte, wurde die Deklaration gefährlicher Orte zwar „von Anfang an wegen der Reichweite und Unbestimmtheit der einzelnen Tatbestandsalternativen, die zu keiner relevanten Eingrenzung der entsprechenden Befugnisse führen und eine effektive gerichtliche Kontrolle des polizeilichen Handelns nahezu unmöglich machen [kritisiert]. Diese Tatbestandsvoraussetzungen hat das BVerfG aber nun – en passant – nahezu vollumfänglich mit der Weihe der Verfassungsmäßigkeit versehen„. Zwar steht nicht zu befürchten, dass eine positive Prognose allein hinreichend wäre, einen ‚gefährlichen Ort‘ als solchen auszuweisen. Aber die Gefahr, dass sich mit Einsatz der Software der feedback input (wie eben bei sog. Kontrolldelikten) erhöhen könnte, scheint uns auch ohne klare rechtliche Regelung und institutionelle Kontrolle evident.

Mit dem Einsatz von Predictive Policing wird das polizeiliche Wissen unter bestimmten Voraussetzungen zudem im Gegenteil nicht transparenter, sondern droht (noch stärker) in einer Black Box zu verschwinden (Straube/Belina 2018: 230f.): Dies gilt im Besonderen für privatwirtschaftlich vertriebene Software wie PRECOBS, deren Algorithmen proprietär sind und als Betriebsgeheimnisse behandelt werden und mithin selbst für die polizeilichen Anwender_innen opak bleiben. Aber selbst polizeiliche Inhouse-Lösungen könnten sich als problematisch erweisen: Zwar sind deren Algorithmen weitgehend transparent, zumindest den polizeiinternen IT-Expert_innen, doch bedürften sie einer entsprechenden Expertise und Perspektive aufseiten derer, die die Polizei – wie die Datenschutzbeauftragten der Länder oder die jeweiligen Gerichte – und deren Wissenspraktiken kontrollieren. Sonst entfalten die Prognosen eine Dialektik, wie dies bereits bei der PKS der Fall ist: den Zahlen wird Objektivität zugesprochen, was durch die visuelle Darstellung in Form einer Kartierung noch potenziert wird (Belina/Germes 2016: 34). Das polizeiliche Wissen, auf Grundlage dessen entweder ‚gefährliche Orte‘ deklariert oder bestimmte Personen mit Maßnahmen adressiert werden, da die Beamt_innen sie als einer verdächtigen Gruppe zugehörig identifizieren, würde damit also an Legitimität gewinnen, ohne dass es jedoch transparenter und damit einer parlamentarischen oder juristischen Kontrolle zugänglicher würde.

Es ist freilich richtig, dass für einen erfolgreichen Einsatz von Predictive Policing die Erhebung personenbezogener Daten nicht notwendig, folglich also im Vergleich zum Blick der Beamt_innen oder einer regulären Videokamera grundrechtsschonender ist. Dies gilt allerdings nur, solange ein Raum noch nicht als ein (nicht nur im polizeirechtlichen Sinn) gefährlicher deklariert ist. In der Folge können an ein solches Labeling weitere Maßnahmen anschließen, die tendenziell nicht nur personenbezogene Daten erheben, sondern auch die körperliche Bewegungsfreiheit zu beschränken im Stande sind. Neben den weniger eingriffsintensiven [11] Identitätsfeststellungen kommen hier die Durchsuchung von Kleidung, mitgeführten Sachen oder gar des Körpers in Betracht.

Fazit und Ausblick

Wie in den vorangegangen Ausführungen deutlich geworden ist, bietet Predictive Policing durchaus das Potenzial, bekannte Polizeistrategien, z.B. das eingriffsintensive, stigmatisierende und zugleich wenig effiziente Hot Spot-Policing, in einem bürgerrechtlich positiven Sinn korrigieren zu können. So könnten kontraintuitive Prognosen zu unerwarteten Ermittlungserfolgen führen, indem sie den Beamt_innen helfen, ihre eigenen Erwartungen an etwaige oder vermeintliche Störer_innen zu reflektieren. Auch kann ein ’selektives Vergessen‘ der Algorithmen bzw. ein non-discrimination by design dazu beitragen, bestimmte Merkmale wie des Geschlechts oder der Hautfarbe bewusst aus der Verarbeitung auszuschließen.

Zugleich besteht jedoch die Gefahr einer Reproduktion des (eingriffsintensiven) Hot Spot Policings sowie der polizeilicher Registrierungstätigkeit immanenten Verzerrungen. Dies wäre selbst dann der Fall, wenn eine doppelte Positivliste [12] vorläge, wodurch die Vorzüge des Predictive Policing im Grunde unterminiert würden (Rademacher 2017: 408). So kommen bei Delikten wie Taschendiebstählen auch Faktoren wie die Anzeigebereitschaft der Betroffenen sowie die ermittelnde und kontrollierende Polizei hinzu. Selbst bei den datengestützten und algorithmusvermittelten Ansätzen ist eine Reproduktion der Hotspots – und dem in diesen Gebieten bisherigen polizeilichen Verhalten – daher wahrscheinlich. Zumal sich bereits zeigt, dass in den prognostizierten Risikogebieten mit höherer Sensibilität seitens der Polizei agiert wird, was ein Sinken der Verdachtsschwelle und entsprechende Verstärkereffekte zur Folge haben kann (Egbert 2018a).

Um einer solchen Entwicklung entgegenzuwirken, wäre es notwendig, Transparenz aufseiten der Behörden herzustellen sowie ihnen den unmittelbaren und unkontrollierten Zugriff auf die Datensätze zu erschweren: Die Einrichtung einer zentralen Datenprüfstelle, wie dies in Bayern geplant ist, wäre hierzu ein erster Schritt. Deren Ausgestaltung ist jedoch noch nicht geklärt, zumal sie lediglich „möglichst“ ohne vorherige Kenntnisnahme der Polizei Daten sichten soll (Art. 41 Abs. 5 S. 1 BayPAG). Das Problem liegt damit weniger in der Technik als in der institutionellen Ausgestaltung der Polizei: Solange sich der sozialwissenschaftliche Feldzugang bei dieser als schwierig erweist (Ullrich 2018), die Polizei bzw. die Politik Maßnahmen zur Herstellung von Transparenz systematisch hintertreibt (wie etwa hinsichtlich der Abschaffung der Kennzeichnungspflicht in Nordrhein-Westfalen im Oktober 2017), dafür aber als politischer Akteur etwa bei der Erstellung und Verteidigung von Gesetzesvorhaben (§§ 113, 114 StGB; oder verschiedenen öffentlichen Diskussions- und Informationsveranstaltungen zu den Novellierungen des BayPAG) auftritt, bleiben Zweifel bestehen. Diese sind umso ernster zu nehmen, als sich bereits eine datafizierte Polizeiarbeit andeutet, die verstärkt und breitflächig Daten generiert und mit diesen analytisch arbeitet. Dies zeigt sich auch an der zunehmenden Zahl polizeilicher Analyseplattformen (Egbert 2019; Egbert/Krasmann 2019a: 7ff.). Diese Polizeiarbeit operiert nicht nur im Bereich der Prädiktion mit modernen Datenanalyseverfahren und komplexen Algorithmen, sondern setzt auf breiter Ebene auf technisch unterstützte Entscheidungs- und Bewertungsprozesse. Dies lässt die oben präsentieren bürgerrechtlichen Risiken umso virulenter werden.

ROMAN THURN M.A., Stipendiat der Rosa-Luxemburg-Stiftung; promoviert derzeit zur Produktion ‚gefährlicher Orte‘ am Institut für Soziologie der Ludwig-Maximilians-Universität München.

SIMON EGBERT Dr. phil., Wissenschaftlicher Mitarbeiter am Institut für Soziologie der Technischen Universität Berlin; arbeitet aktuell an einem Habilitationsprojekt zum Thema Predictive Policing als soziotechnische Innovation.

Quellen

(Int_RA1): Expert_innen-Interview Rechtsanwalt_anwältin, erhoben im Rahmen des Promotionsprojekts von Roman Thurn.

Literatur

Albrecht, Peter-Alexis (2010): Der Weg in die Sicherheitsgesellschaft, Berlin.

Assall, Moritz; Gericke, Carsten (2016): Zur Einhegung der Polizei. Rechtliche Interventionen gegen entgrenzte Kontrollpraktiken im öffentlichen Raum am Beispiel der Hamburger Gefahrengebiete. In: KJ 49 (1), S. 61–71.

Balogh, Dominik A. (2016): Near Repeat-Prediction mit PRECOBS bei der Stadtpolizei Zürich. In: Kriminalistik 70 (5), S. 335-341.

Belina, Bernd; Germes, Mélina (2016): Kriminalitätskartierung als Methode der Kritischen Kriminologie? In: Kriminologisches Journal 48 (1), S. 24-46.

Belina, Bernd; Wehrheim, Jan (2011): „Gefahrengebiete“. Durch die Abstraktion vom Sozialen zur Reproduktion gesellschaftlicher Strukturen. In: Soziale Probleme 22 (2), S. 207–230.

Bennett Moses, Lyria; Chan, Janet (2018): Algorithmic prediction in policing: assump-tions, evaluation, and accountability. In: Policing and Society 28 (7), S. 806-822.

BKA (Bundeskriminalamt) (2015): Presseinformation: Neues Instrument zur Risikobewertung von potentiellen Gewaltstraftätern. URL: https://www.bka.de/DE/Presse/ Listenseite_Pressemitteilungen/2017/Presse2017/170202_Radar.html (aufgerufen am 29.03.2019).

Egbert, Simon (2018a): Predictive Policing und die soziotechnische Konstruktion ethnisch codierter Verdächtigkeit. In: Pfadenhauer, Michaela; Poferl, Angelika (Hrsg.): Wissensrelationen. Beiträge und Debatten zum 2. Sektionskongress der Wissenssoziologie. Weinheim, Basel: Beltz Juventa, 653-663.

Egbert, Simon (2018b): Predictive Policing in Deutschland. Grundlagen, Risiken, (mögliche) Zukunft. In: Strafverteidigervereinigungen (Hrsg.).: Räume der Unfreiheit. Texte und Ergebnisse des 42. Strafverteidigertages Münster, 2.-4.3.2018. Berlin: Organisationsbüro der Strafverteidigervereinigungen, S. 241-265.

Egbert, Simon (2019): Predictive Policing and the Platformization of Police Work. In: Surveillance & Society 17 (1/2), S. 83-88.

Egbert, Simon; Krasmann, Susanne (2019a): Predictive Policing: not yet, but soon preemptive? In: Policing & Society. Online first 02. Mai 2019. DOI: 10.1080/10439463.2019.1611821

Egbert, Simon; Krasmann, Susanne (2019b): Predictive Policing. Eine ethnographische Studie neuer Technologien zur Vorhersage von Straftaten und ihre Folgen für die polizeiliche Praxis. Projektabschlussbericht Hamburg: Universität Hamburg, 30.04.2019.

End, Markus (2014): Antiziganismus in der deutschen Öffentlichkeit. Strategien und Mechanismen medialer Kommunikation. Heidelberg, Neckar: Dokumentations- und Kulturzentrum Deutscher Sinti und Roma.

Ferguson, Andrew Guthrie (2012): Predictive Policing and Reasonable Suspicion. In: Emory Law Journal 62 (2), S. 259-325.

Ferguson, Andrew Guthrie (2017): The Rise of Big Data Policing. New York.

Frankenberg, Günter (2010): Staatstechnik: Perspektiven auf Rechtsstaat und Ausnahmezustand, Frankfurt a. M.

Gless, Sabine (2016): Predictive Policing und operative Verbrechensbekämpfung. In: Herzog, Felix; Schlothauer; Reinhold;

Wohlers, Wolfgang (Hrsg.): Rechtsstaatlicher Strafprozess und Bürgerrechte. Berlin, S. 165-180.

Gluba, Alexander (2014): Predictive Policing – eine Bestandsaufnahme. In: Kriminalistik 68 (6), S. 347-352.

Gluba, Alexander (2017): Der Modus Operandi bei Fällen der Near Repeat-Victimisation. In: Kriminalistik 71 (6), S. 369-375.

Keller, Nora (2018): „Kriminalitätsbelastete Orte“: Wer hat Angst vorm Kottbusser Tor? In: CILIP (115), S. 18–24.

Kelling, George L.; Wilson, James Q. (1982): Broken Windows. The police and neigh-borhood safety. The Atlantic. Online verfügbar unter https://www.theatlantic.com/magazine/archive/1982/03/broken-windows/304465/, zuletzt geprüft am 01.04.2019.

Kitchin, Rob (2017): Thinking critically about and researching algorithms. In: Information, Communication & Society 20 (1), S. 14-29.

Krasmann, Susanne; de Marinis, Pablo (1997): Machtintervention im urbanen Raum. In: Kriminologisches Journal 29 (3), S. 162-185.

Kunz, Karl-Ludwig; Singelnstein, Tobias (2016): Kriminologie. 7. Auflage. Bern.

Lefèbvre, Henri (1991): The Production of Space. Oxford, OX, UK, Cambridge, Massa-chusetts, USA: Blackwell.

Legnaro, Aldo (2018): Kennzeichen des Gefährdens. Skizzen einer Ethnomethodologie des Sich-verdächtig-Machens. In: Kriminologisches Journal 50 (2), S. 123–138.

LKA NRW (2018): Projekt SKALA. Abschlussbericht. URL: https://polizei.nrw/sites/
default/files/2018-07/180628_Abschlussbericht_SKALA.PDF (abgerufen am 06.11.2019).

Löffelmann, Markus (2018a): Das neue bayerische Polizeirecht. In: KJ 51 (3), S. 355–359.

Löffelmann, Markus (2018b): Stellungnahme zum Gesetzentwurf der Staatsregierung für ein Gesetz zur Neuordnung des bayerischen Polizeirechts (PAG-Neuordnungsgesetz) vom 30. Januar 2018. Bayerischer Landtag Drucksache 17/20425.

McCue, Colleen (2007): Data Mining and Predictive Analysis. Intelligence Gathering and Crime Analysis. Burlington, Oxford.

Nissen, Sylke (2008): Hybridräume. In: Eur J Soc 49 (02), S. 277-306.

Papachristos, Andrew V.; Braga, Anthony A.; Hureau, David M. (2012): Social net-works and the risk of gunshot injury. In: Journal of Urban Health 89 (6), 992-1003.

Paul, Bettina; Egbert, Simon (2017): Zur Einführung in das Themenheft: Über den Mehrwert soziotechnischer Perspektiven für die Kriminologie. In: Kriminologisches Journal 49 (2), S. 87-102.

Perry, Walter L. et al. (2013): Predictive Policing. The Role of Crime Forecasting in Law Enforcement Operations. Santa Monica et al.

Petri, Thomas (2015): Verwendung der Prognosesoftware „Precobs“ durch die Bayerische Polizei. Pressemitteilung des Bayerischen Landesbeauftragten für den Datenschutz, 11.02.2015. URL: https://www.datenschutz-bayern.de/presse/20150211_
Precops.html (aufgerufen am 06.11.2019).

Pett, Alexander; Gluba Alexander (2017): Das Potenzial von Polizeipräsenz für Maßnahmen im Sinne des Predictive Policing. In: Die Polizei 108 (11), S. 323-330.

Rusteberg, Benjamin (2019): Zwischen modernem Sicherheitsrecht und klassischem Polizeirecht – Die Entscheidungen zur automatisierten Kennzeichenkontrolle. URL:
https://verfassungsblog.de/zwischen-modernem-sicherheitsrecht-und-klassischem-polizeirecht-die-entscheidungen-zur-automatisierten-kennzeichenkontrolle/ (aufgerufen am 06.11.2019).

Saunders, Jessica, Hunt, Priscillia, and Hollywood, John S. (2016): Predictions put into practice: a quasi-experimental evaluation of Chicago’s predictive policing pilot. In: Journal of Experimental Criminology 12 (3): 347-371.

Schweer, Michael; Schweer, Thomas (2015): Musterbasierte Prognosetechnik bei der Kriminalitätsbekämpfung – Die Methodik der Near Repeat Prediction. In: Polizeispiegel 49 (5), S. 22-24.

Schweer, Thomas (2015): „Vor dem Täter am Tatort“ – Musterbasierte Tatortvorhersagen am Beispiel des Wohnungseinbruchs. In: Die Kriminalpolizei 32 (1), S. 13-16.

Shirvani, Foroud (2018): Paradigmenwechsel im Polizeirecht? Die neue Rechtsfigur der »drohenden Gefahr«. In: DVBl (21), S. 1393–1398.

Singelnstein, Tobias (2018a): Predictive Policing: Algorithmenbasierte Straftatprognosen zur vorausschauenden Kriminalintervention. In: Neue Zeitschrift für Strafrecht 1/2018, S. 1-9.

Singelnstein, Tobias (2018b): Big Data und Strafverfolgung. In: Hoffmann-Riem, Wolfgang (Hrsg.): Big Data – Regulative Herausforderungen. Baden-Baden, S. 179-185.

Sommerer, Lucia (2017): Geospatial Predictive Policing – Research Outlook & A Call For Legal Debate. In: Neue Kriminalpolitik 29 (2), S. 147-164.

Straube, Till; Belina, Bernd (2018): Policing the Smart City. Eine Taxonomie polizeilicher Prognoseprogramme. In: Bauriedl, Sybille;

Strüver, Anke (Hrsg.): Smart City: Kritische Perspektiven auf die Digitalisierung in Städten. Bielefeld, S. 223-235.

Thurn, Roman (in Vorb.): „… wollen nicht verstehen, was der Bürger als normal ansieht“. Das Policing von Armut durch Alkohol- und Bettelverbote am Münchner Hauptbahnhof (Arbeitstitel).

Ullrich, Peter (2018): Researching Police in/under Protest. Police Research as a Journey of Discovery with Obstacles. In: ipb working paper series (1). Online verfügbar unter https://protestinstitut.eu/wp-content/uploads/2018/03/Researching-Police_ipb-working-paper_1-18.pdf, zuletzt geprüft am 01.04.2019.

Ullrich, Peter; Tullney, Marco (2012): Die Konstruktion ‚gefährlicher Orte‘. Eine Problematisierung mit Beispielen aus Berlin und Leipzig. In: Sozialraum.de 4 (2). Online verfügbar unter https://www.sozialraum.de/die-konstruktion-gefaehrlicher-orte.php, zuletzt geprüft am 31.03.2019

Wegner, Maren; Hunold, Daniela (2017): Die Transformation der Sicherheitsarchitektur – die Gefährdergesetze im Lichte des Vorsorge-Paradigmas. In: Kriminalpolitische Zeitschrift 2 (6), S. 367–375.

Anmerkungen

1 Z. B. die Strategic Subject List der Polizei Chicago, die Gangkriminalität anvisiert und dabei auf Arbeiten von Papachristos (u.a. Papachristos et al. 2011) zurückgreift (Saunders/Hunt/Hollywood 2016).

2 Obgleich es prinzipiell völlig richtig ist, dass alle Formen der Prognoseerstellung auf vergangenheitsbezogene Informationen bzw. Daten zurückgreifen, um Aussagen über die Zukunft zu treffen, sind doch qualitative Unterschiede festzustellen, wie stark dieser Rückgriff und wie groß umgekehrt der genuin prognostische Charakter der Vorhersagen ist. Letzterer wiederum verhält sich gleichsam antiproportional zur Stärke des Theoriebezugs und zur Anzahl der im Prognoseprozess verarbeiteten Daten. Verfahren des data mining, auch als Techniken der knowledge discovery bezeichnet, die sehr viel stärker auf Daten denn auf Theorien zurückgreifen und deshalb in deutlich stärkerem Maße eigenständiges, minimal retrospektives Prognosewissen generieren (McCue 2007: 25), sind in diesem Sinne weniger vergangenheitsbezogen als z. B. Near Repeat-fundierte Verfahren. Diese greifen nämlich nur auf wenige Datenpunkte zurück und suchen ein Verhaltensmuster zu identifizieren und in die Zukunft fortzuschreiben, das eng an die Near Repeat-Hypothese gekoppelt ist, die wiederum als vergangenheitsbezogener Erfahrungssatz qualifizierbar ist.

3 Dies könnte vor allem dann der Fall sein, wenn neben Wohnungseinbruchsdiebstählen etwa auch häusliche Gewalt als Deliktfeld in den Fokus von Predictive Policing rückt, wie dies etwa Álvaro Ortigosa von der Freien Universität Madrid auf dem Europäischen Polizeikongress 2019 vorgeschlagen hat (vgl. Schmidt/Thurn 2019).

4 Rademacher (2017: 392) differenziert zwischen der Gefahrerkennung und dem gebräuchlicheren Begriff der „Gefahraufklärung“: Letzterer zeichne sich dadurch aus, „dass bereits erste Erkenntnisse über eventuell gefahrenträchtige Umstände vorliegen„, wohingegen Predictive Policing diese Erkenntnisse erst hervorbringe bzw. hervorbringen soll.

5 Die Broken Windows-These stellt beispielsweise einen expliziten Zusammenhang zwischen der Verwahrlosung bestimmter Räume unterhalb der Illegalitätsgrenze und dem vermehrten Auftreten von Kriminalität her (Kelling/Wilson 1982).

6 Ohne diese näher zu bestimmen, verweist die Bundespolizei in einer Pressemitteilung auf den Fund „szenetypische(r) Kleidung“ bei einer Hausdurchsuchung im Zusammenhang mit Graffiti; siehe: https://www.presseportal.de/blaulicht/pm/70388/3913569 (zuletzt aufgerufen am 01.04. 2019).

7 Dies ist insbesondere bei sog. Kontrolldelikten, bzw. der ‚Holkriminalität‘, der Fall, wie etwa bei Verstößen gegen das Betäubungsmittelgesetz, die i.d.R. nur durch Eigenaktivität polizeilich registriert werden (vgl. Kunz/Singelnstein 2016: 218ff., 223).

8 Siehe Bayerischer VGH, Beschluss vom 08.03.2012 – 10 C 12.141, Rn. 9. Dort heißt es allerdings, dass der bloße Aufenthalt an einem gefährlichen Ort keine Durchsuchung der mitgeführten Sachen oder der Kleidung ermögliche, womit das Gericht von der gängigen Rechtsprechung wie auch Praxis erheblich abweicht (vgl. dggü. bspw. VGH München, Beschluss v. 18.11.2014 – 10 C 14.2284, Rn. 19). 

9 OVG Hamburg, Urteil vom 13.5.2015 – 4 Bf 226/12.

10 BVerfG, Beschluss des Ersten Senats vom 18. Dezember 2018 – 1 BvR 142/15 – Rn. 120f.

11 Diese sind keineswegs so wenig eingriffsintensiv, wie dies verschiedentlich von Gerichten festgestellt worden ist: „Das findet man nur banal, wenn man selbst nicht betroffen ist. Also wenn man gerade auf dem Weg in die Oper ist und irgendwie dann von fünf schwer ausgerüsteten Polizeibeamten umringt wird und dann doch mal bitte bei der Ehefrau in die Handtasche reingeguckt werden soll um mal zu gucken, was man da findet und so weiter und so fort. Und wenn das den Leuten häufiger passieren würde, die über diese Verfahren entscheiden, dann glaube ich hätten wir eine andere Rechtsprechung“ (INT_RA1); vgl. auch Tomerius (2017).

12 Eine doppelte Positivliste meint, dass sowohl aufseiten der gefahrindizierenden Handlungen (x) als auch aufseiten der erwarteten Gefahren (y) Merkmale im Vorfeld hinreichend bestimmt werden.

Dateien

nach oben