In die automatischen Verbrechensprognosen fliessen grosse Datenmengen ein. Hunderte von Terabytes, das Fassungsvermögen Tausender handelsüblicher Festplatten, können in wenigen Minuten verarbeitet werden – Big Data für die Polizei. Der eigentliche Clou beim Predictive Policing ist aber nicht die riesige Datenmenge, die ohne technische Hilfsmittel niemals zu durchdringen wäre. Entscheidend ist, dass die Software gerade nicht nach einer fertigen Formel rechnet, sondern diese Formel selbst entwickelt.Ich habe mich bemüht, allgemeinverständlich zu erklären, wie Maschinenlernen funktioniert. Es ist nämlich überhaupt nicht hilfreich (für die Bürgerrechte), wenn über das Thema "automatisierte" "digitale" "Überwachung" ahnungslos schwadroniert wird (die Anführungszeichen sollen ausdrücken, dass all diese Begriffe eigentlich genauer bestimmt werden müssten und zu Mißverständnissen einladen). So wie einst Frank Schirrmachers "Algorithmen des Grauens" steht heute die Feuilleton-Metapher Big Data für Ängste und Wünsche, die gleichermaßen unerfüllt bleiben werden.
Die Maschinen lernen und gewichten anhand von Daten aus der Vergangenheit, wie wichtig die verschiedenen Variablen sind, also beispielsweise welchen Einfluss Arbeitslosigkeit auf die Zahl von Körperverletzungen in einem Stadtgebiet hat. In einer Trainingsphase entwickelt das Programm ein Kriminalitätsmodell. Dann erhält es aktuelle Daten, wendet das Modell an und malt schliesslich rote und gelbe Vierecke auf einen Stadtplan auf dem Bildschirm – Orte, an denen es wahrscheinlich zu Straftaten kommen wird.
Das wirkt wie Zauberei, aber es handelt sich lediglich um Statistik. Zum Einsatz kommen Verfahren wie Regressionsanalysen, Kerndichteschätzungen oder Künstliche Neuronale Netze (KNN). Oft nutzen die Systeme gleich mehrere Methoden und bilden aus abweichenden Ergebnissen die Mittelwerte. Banken arbeiten schon lange mit solchen Verfahren, die einschätzen, wie wahrscheinlich es ist, dass ein Kreditnehmer in Zukunft seine Raten bezahlen wird.
Automatische Modellbildung wirkt ebenso faszinierend wie unheimlich, vor allem, weil sich die einzelnen Rechenschritte nicht nachvollziehen lassen. Die Metapher vom Data Mining trifft die Sache aber eigentlich ganz gut: So wie ein Goldschürfer mit einem Sieb in einem Fluss nach glänzenden Nuggets sucht, so suchen die Programme nach Personen oder Orten, die einem Raster entsprechen, die also bestimmte Merkmale aufweisen. Auch ein Goldsucher kann mit seinem Werkzeug nur solche Klumpen aus dem Fluss ziehen, die nicht durch die Löcher des Siebs passen.Datenschürfern stehen heute fast unbegrenzt Rechenkapazität und Speicherplatz zur Verfügung. Deshalb können sie sogar noch einen Schritt weiter gehen: Sie befehlen ihren Programmen sozusagen, den ganzen Flusslauf abzusuchen und alle vorhandenen Steine, Kiesel und Goldklumpen in Gruppen einzuteilen – die Programme ordnen unstrukturierte Daten, suchen nach Ähnlichkeiten und Häufungen. Genau dazu soll nun die Software in der Lage sein, die das Landeskriminalamt Nordrhein-Westfalen anschaffen will - wozu eigentlich? Einbrecher fangen lässt sich mit dieser Art von Data Mining nicht; wofür also braucht die Polizei überhaupt solche technischen Möglichkeiten?
Das Computerprogramm tut im Prinzip das Gleiche, wenn es Daten durchsucht – mit zwei wichtigen Unterschieden: Erstens begutachtet das Programm die Fälle nicht nur anhand eines Kriteriums (Grösse des Goldnuggets), sondern anhand beliebig vieler Kriterien (Grösse, Farbe, Form, Gewicht …). Zweitens kann der Computer sozusagen die Maschenweite seines Siebes eigenständig anpassen, wenn ihm gesagt wird, wonach er suchen soll.
Das wären doch einmal Fragen, die zu beantworten sich lohnen würde.