Donnerstag, 19. April 2012

Automatisierte Körperanalyse zur Verbrechensbekämpfung?

Der Trend in der Überwachungstechnik geht zur Automatisierung, und weil die Rechner bekanntlich immer schneller werden, trauen die Informationstechniker ihnen einiges zu. Zum Beispiel mit Sensoren Daten über Körperbewegungen und -zustände erheben, um so auf bösartige, sprich "verbrecherische" Absichten zu schließen. Ich habe vor kurzem über solche Forschungsprojekte in Deutschland und den USA berichtet.

In The Atlantic, einem traditionsreichen und durchaus staatstragenden Magazin aus den USA, wird nun das Projekt FAST einer gründlichen Kritik unterzogen. Das Fazit lautet, kurz gesagt: Das wird niemals funktionieren! Das liegt daran, meint der Autor Alexander Furnas, dass die Grundgesamtheit der Überwachten zu groß ist, um aus ihr die echten Verbrecher rauszufischen. Das wiederum bedeutet in vielen, vielen Fällen Fehlalarm. Andererseits gibt es gar kein Analysematerial, um abzuleiten, welche Verhaltensweisen denn tatsächlich gute Vorhersage-Faktoren sind.
Thinking statistically tells us that any project like FAST is unlikely to overcome the false-positive paradox. Thinking scientifically tells us that it is nearly impossible to get a real, meaningful sample for testing or validating such a screening program (...) Predictive software of this kind is undermined by a simple statistical problem known as the false-positive paradox. Any system designed to spot terrorists before they commit an act of terrorism is, necessarily, looking for a needle in a haystack. As the adage would suggest, it turns out that this is an incredibly difficult thing to do. Here is why: let's assume for a moment that 1 in 1,000,000 people is a terrorist about to commit a crime. Terrorists are actually probably much much more rare, or we would have a whole lot more acts of terrorism, given the daily throughput of the global transportation system. Now lets imagine the FAST algorithm correctly classifies 99.99 percent of observations - an incredibly high rate of accuracy for any big data-based predictive model. Even with this unbelievable level of accuracy, the system would still falsely accuse 99 people of being terrorists for every one terrorist it finds. Given that none of these people would have actually committed a terrorist act yet distinguishing the innocent false positives from the guilty might be a non-trivial, and invasive task.
Nun sucht ADIS, ein deutsches Pendant zu FAST, in den Videoaufnahmen nicht nach "Absicht, eine terroristische Aktion durchzuführen", sondern nach "Absicht, körperliche Gewalt auszuüben", was häufiger vorkommt. Aber auch in diesem Fall werden angeblich nicht authentische Aufahmen von Gewaltverbrechen benutzt, um das Computermodell zu entwickeln, sondern - ja, was eigentlich?

 Ich persönlich vermute ja, dass die Sache mit der "intelligenten Video- beziehunsgweise Sensorüberwachung" ganz anders ausgehen wird, als Datenschützern wie Sicherheitstechnokraten gleichermaßen vermuten. Sie wird zwar gegenwärtig als Mittel dargestellt, individuelle Handlungen vorherzusehen, aber, falls sie überhaupt funktioniert, wird die Technik wesentlich plumper eingesetzt werden: etwa um festzustellen, ob Personen in einer Einkaufspassage sitzen oder liegen - steht für "Obdachloser / Schlaganfall" - oder für Personengruppen, die sich etwa bei öffentlichen Versammlungen gemeinsam in eine bestimmte Richtungen bewegen - steht für "Störenfriede / Friedensstörer".