Donnerstag, 4. Oktober 2018

Für eine sachgerechte Algorithmen-Kritik

Die Rosa-Luxemburg-Stiftung hat meinen Überblick über Tendenzen bei der polizeilichen Internetauswertung veröffentlicht. Darin geht es insbesondere um SOCMINT – Social Media Intelligence, vulgo: Facebook, Twitter oder Whatsapp. Die kürzlich festgenommenen Rechtsterroristen aus der Region Chemnitz wurden übrigens in erster Linie wegen ihrer Telegram-Kommunikation überführt - dies nur als Beleg, dasss SOCMINT mittlerweile praxisrelevant ist!

Massendaten aus dem Internet werden für die Polizei und die Nachrichtendienste immer wichtiger. Mithilfe von Software wie Palantir verbinden die Behörden sie mit eigenen und externen Datenbanken. Big Data Überwachung nennt das treffend die Soziologin Sarah Brayne.

In dem Text für die Rosa-Luxemburg-Stiftung konnte ich auf viele Aspekte nicht eingehen. Einer von ihnen ist die sogenannte algorithmische Diskriminierung. Ich möchte das an dieser Stelle nachholen, weil sich um die Bedeutung der Algorithmen und ihre "Fairness" oder "Ungerechtigkeit" alle möglichen Mystifikationen und Missverständnisse ranken – und andererseits die Digitalisierung der Polizeiarbeit in Wirklichkeit durchaus Chancen für mehr Bürgerrechte und eine demokratisch kontrollierte Polizei bietet, die aber wegen des pauschalen Algorithmen-Bashings überhaupt nicht sichtbar werden.

Genug Daten sind niemals genug
Wohlgemerkt, der zunehmende Einsatz von Informationstechnik zur Internetauswertung (mitsamt den statistischen Risikokalkülen, die dafür eingesetzt werden), ist fragwürdig. Zum Beispiel, weil die Polizei niemals genug Daten haben wird, ganz gleich, wie viele Datenquellen sie bereits anzapft.

Dies gilt zwar nicht für alle Programme, die in Deutschland weit verbreitete Software Precobs beispielsweise bereitet schlicht die eingegangenen Anzeigen auf und errechnet Prognosen für bestimmte Stadträume. In Nordrhein-Westfalen dagegen nutzt die Polizei SKALA ("System zur Kriminalitäts-Analyse und Lage-Antizipation“), eine IBM-Software, die beliebige Daten verarbeitet, um Kriminalitätsschwerpunkte zu prognostizieren. Bisher füttern die Beamten und Angestellten sie mit Infrastruktur- und sozioökonomischen Daten (Kaufkraft, Autobahnen in der Nähe, Anbindung an den öffentlichen Nahverkehr, Bebauung, Sackgassen, Hauptverkehrsstraßen, Verkehrsaufkommen) und natürlich auch mit der eigenen Statistik über Einbrüche und Autodiebstahl.

Die Versuchung ist groß, solche Systeme mit immer mehr Daten auszustatten, falls sie sich in der Praxis bewähren. Irgendwann könnten dann personenbezogene Daten eingehen, bis hin zu Informationen aus der Telekommunikationsüberwachung und der Auswertung des offenen Internets. Palantir, das der hessische Staatsschutz einsetzt, bietet solche Möglichkeiten. Je weniger Ermittler die Polizei zur Verfügung hat, umso stärker wird die Verlockung, denn die automatische Prädiktion verspricht schließlich, "mit weniger Mitteln mehr zu erreichen".

Damit verschiebt sich das Kräftegleichgewicht zwischen Bevölkerung und Polizei. Die polizeiliche IT wird zu einer Sammelstelle, in der diverse Datenströme zusammenlaufen. So kann der einzelne Bürger in all seinen Lebensäußerungen erfasst und verfolgt werden. Die Daten aus dem "Smart Home" und dem "Internet der Dinge" "wecken bereits Begehrlichkeiten" bei der Kriminalpolizei, wie es so unschön heißt.

(Left-wing) Captain Obvious macht eine Entdeckung
Immer wieder ist zu lesen, die automatisierten entscheidungsunterstützenden Systeme von Justiz und Polizei seien "nicht fair". Solche Software errechnet beispielsweise personenbezogene Risikowerte für eine Straftat oder einen Rückfall nach der Entlassung aus dem Knast. In Deutschland kommt sie bei Gefangenen in der Sicherungsverwahrung und im Maßregelvollzug zum Einsatz.

Im selben Tenor wird auch das Predictive Policing kritisiert, das in Deutschland bisher nur ortsbezogen eingesetzt wird. Weil die Systeme die Polizisten auf eine erhöhte Bedrohung hinweisen, seien diese sozusagen innerlich alarmiert und schritten schon bei kleinen Verdachtsmomenten ein. So drohe eine übermäßige Polizeipräsenz in bestimmten Gebieten und eine sich selbst verstärkende Diskriminierung, geadelt durch die scheinbare Objektivität der automatisch erzeugten Risiko-Scores.

Dass Polizisten auf Streife ihre Vorurteile bestätigt sehen, ist nun wirklich nicht neu. Die Bedeutung von teilautomatisierten Systemen für die "Verdachtsgewinnung" wird völlig überschätzt. Zwar wirken sie (beispielsweise bei der Internetauswertung) wie ein vorgeschalteter Filter, der bestimmte Treffer hervorhebt und andere verschwinden lässt. Aber die Polizei verlässt sich keineswegs blind auf solche automatisch erzeugte Hinweise. Diese fügen (bisher) auch keine Verdachtsmomente hinzu, die vorher unbekannt gewesen wären.

Aber die errechneten Risikowerte und Kennzahlen bieten (oder böten wenigstens) die Möglichkeit, die eigenen Vorurteile zu überprüfen. So beschreiben es viele Anwender übrigens auch selbst – als Möglichkeit zur Selbstüberprüfung und zur Objektivierung. Dazu nötig sind allerdings geeignete organisatorische Routinen und eine gewisse Fähigkeit zur Selbstkritik, die bekanntlich nicht flächendeckend vorhanden ist.

Die Kritik, die Systeme diskriminierten und seien nur scheinbar objektiv, wird auch in Bezug auf die Software geäußert, die das Rückfallrisiko von Straftätern errechnet. Eine aufwändige Studie von Propublica ermittelte vor zwei Jahren beispielsweise, dass die in den USA weitverbreitete Software COMPAS bei schwarzen Verbrecher deutlich häufiger als bei weißen Verbrecher fälschlicherweise einen Rückfall prognostizierte. Die Hautfarbe ist natürlich kein Parameter, den die Software verarbeitet. Die Journalisten suchten vielmehr Straftäter, die mit COMPAS klassifiziert worden waren, und schufen sich so eine eigene Datenbasis, um die COMPAS-Ergebnisse zu überprüfen.

Diese bemerkenswerte und wertvolle Untersuchung von Propublica wird seitdem immer dann angeführt, wenn es gilt, den sogenannten "algorithmischen Bias" zu geißeln. Abgesehen von der letztlich unklaren Datenlage sollte allerdings erwähnt werden – was bei diesem Rekurs aber fast nie geschieht -, dass die höhere Rate an falsch-positiven Treffern bei Schwarzen nicht bedeutet, dass Schwarze und Weiße unterschiedlich häufig richtig-positiv eingestuft würden (also nach ihrer Gefängnisentlassung erneut eine Straftat begehen). Die Software leistet insofern genau das, was sie leisten soll: verhindern, dass jemand entlassen wird und dann straffällig wird.

Wie passt das zusammen? Dass Schwarze häufiger ungerechtfertigt als gefährlich eingestuft werden, liegt daran, dass sie überdurchschnittlich häufig Risikofaktoren aufweisen wie beispielsweise vorherige Gefängnisstrafen oder längere Gefängnisaufenthalte. Die Datenbasis spiegelt die rassistische Praxis, dass Schwarze häufiger verdächtigt und verurteilt und härter verurteilt werden. Umgekehrt ist die Entdeckungswahrscheinlichkeit von Weißen geringer und damit auch die Rate von falsch-negativen Prognosen höher, die naturgemäß nicht in die Datenbasis eingehen. "Der Unterschied (in den prognostizierten Rückfallraten; M.B.) ist eine direkte Folge der rassistischen Ungleichheit der Welt, in der wir leben", erklärt der Wissenschaftsjournalist Eric Siegel. In einer Welt, in der Schwarze anders handeln und behandelt werden als Weiße, werden auch die Algorithmen sie anderes behandeln.

Unbequeme Fragen statt bequeme Unterstellungen
Kann eine Prognose-Software fair sein? Verlange ich von meinem Kühlschrank, dass er mich beim Abnehmen berät? Sich nach Mitternacht nicht mehr öffnet? Spass beiseite: Was bedeutet "Fairness" überhaupt – konkret: was anfangen mit den Daten? Soll bei Entscheidungen über Bewährung ein Sozialarbeiter hinzugezogen werden, der den Leuten tief in die Augen blickt und sich dann von seinem Herz leiten lässt? Das kann nicht die Lösung sein.

An dieser Stelle müsste eigentlich eine Debatte darüber einsetzen, wie rassistische Diskriminierung durch Polizei und Justiz zu bekämpfen wäre und davon abgesehen, wie Rückfälle sich vorhersehen und verhindern lassen. In einer solchen Debatte spielten die Algorithmen als solche durchaus nur eine Nebenrolle. Schließlich ginge es darum, die gesamte Praxis der Strafverfolgung in den Blick zu nehmen.

Einer Kritik, die hinter die Fassade der Algorithmen schaut, stellen sich dagegen schwierige und möglicherweise unangenehme Fragen. Sollen Linke für eine bessere Polizei streiten? Für mehr Personal und eine bessere Ausbildung? Wie soll Polizei organisiert sein und was soll sie leisten?

Ein erster Schritt hin zu einer Demokratisierung der Polizei wäre Transparenz. Nicht unbedingt die Veröffentlichung der Ermittlungspraxis, weil sich darüber nur die bösen Jungs freuen würden sondern Transparenz der organisatorischen und strategischen Entscheidungen.

Heute schaffen sich die Staatsapparate der Strafverfolgung und Justiz ihre eigene Realität. In doppelter Hinsicht: einerseits "schaffen sie Fakten", wenn sie die Staatsgewalt ausüben, andererseits kontrollieren sie weitgehend, was die übrige Gesellschaft über ihre Tätigkeit erfährt. Natürlich, die Polizei kann nicht einfach schalten und walten, wie es ihr gefällt. Dennoch bestimmt sie, welches Bild sich die Gesellschaft vom Verbrechen und seiner Bekämpfung macht. Wenn beispielsweise die Polizei nach Korruption nicht sucht, wird sie keine finden. Die Straftat wird in der Kriminalstatistik nicht auftauchen. Bei dem Beispiel Korruption begünstigen sich Straftäter gegenseitig. Niemand wird unmittelbar geschädigt und aus diesem Grund eine Anzeige erstatten (außer vielleicht ein ausgebooteter Konkurrent, der von der Bestechung erfährt). Die Kriminologen sprechen von "Kontroll-" und "Ermittlungsdelikten" – wer sucht, der findet, aber eben nur da, wo er sucht.

Die Polizei entscheidet nicht nur, wofür sie ihre Ressourcen einsetzt (beziehungsweise wogegen), sondern sie kontrolliert auch die Datenerhebung und Veröffentlichung. Wenn Polizisten den Opfern von Fahrraddiebstählen ausreden eine Anzeige zu erstatten, kann das durchaus daran liegen, dass sie sich ihre Aufklärungsquote nicht verderben lassen wollen. Sind Ausländer krimineller als Deutsche? Arme mehr als Reiche? Was gilt als gesellschaftliches Problem, was nicht? Müssen wir uns Sorgen um Messer auf Schulhöfen machen oder doch eher um Kraftfahrzeuge mit gefälschter Abgasuntersuchung?

An diese Macht hat sich die Polizei gewöhnt und übt sie recht unbekümmert aus. Sie kann das, weil sie als bloß ausführendes Organ auftritt – „Die Rechtsetzung findet ganz woanders statt!“ – als Befehlsempfänger der Politik. Das Innen- und Eigenleben solcher Apparate lässt sich von außen nicht nachvollziehen, zum Teil nicht einmal von den Innenpolitikern, denen sie formal untergeordnet sind. Trotz vereinzelter Informationsfreiheits- und Transparenzgesetzen ist die Polizei nach wie vor eine black box, eine Behörde, deren interne taktische und strategische Entscheidungen sorgfältig nach außen abgeschottet werden. Hier ergäben sich einmal tatsächlich progressive Möglichkeiten durch die Digitalisierung, im Sinne einer wirksamen öffentlichen Kontrolle der Staatsgewalt.