In einem
neuen Artikel bei
Telepolis beschreibe ich ein Forschungsprojekt, das im Rahmen der
deutschen sogenannten Sicherheitsforschung gefördert wird - um den Ausdruck der offiziellen Propaganda mal zu verwenden - und die origenelle Idee verfolgt, in Videoaufnahmen maschinell aggressive Absichten zu detektieren.
Sobald die "intelligenten Kameras" Muster entdecken, die auf gewalttätige Motive hinweisen, werden die Sicherheitskräfte benachrichtigt. Zu diesem Zweck könnten die entsprechenden Aufnahmen auf den Bildschirmen in den Leitstellen akustisch und visuell hervorgehoben werden. Durch "Intentionsdiagnostik" anhand von Mimik, Gestik und Körperhaltungen der Täter und der Opfer sollen automatisch Prognosen generiert werden.
Was ich davon halte?
Es gehört weder viel Phantasie noch böser Wille dazu, um sich auszurechnen, wozu die "intelligente Videoüberwachung" beispielsweise in einer chinesischen Fabrik oder einem öffentlichen Platz in Saudi-Arabien eingesetzt werden könnte - und dass es Menschen bald schwerer haben werden, die im öffentlichen Raum liegen oder sitzen, anstatt sich wie vorgesehen von Schaufenster zu Schaufenster zu bewegen.
Dieses repressive Potential der Mustererkennung führt in unbequeme gesellschaftspolitische Fragen, zu deren Beantwortung der Datenschutz allerdings nichts beitragen kann. Zum Beispiel diese: Wie weit soll soziale Kontrolle überhaupt technisiert, professionalisiert und arbeitsteilig ausgeübt werden? Für welche Zwecke sind solche Anlagen angemessen? Ob die entsprechende Forschung und Entwicklung mit Steuergeldern unterstützt werden sollte, ist da noch vergleichsweise leicht zu beantworten.