Die Projekte der sogenannten Sicherheitsforschung ("Forschung für die zivile Sicherheit") haben bisher recht wenig öffenliche Aufmerksamkeit gefunden - erstaunlich, finde ich! Und: beunruhigend, finde ich. Denn die Versuche der automatisierten Radikalisierungsdetektion sind bürgerrechtlich hochgefährlich. "Radikalität" – hier verstanden als die Wahrscheinlichkeit, ein politisch motiviertes Verbrechen zu begehen – soll anhand sprachlicher Äußerungen gemessen werden. Aber - darauf muss scheinbar heutzutage wieder hingewiesen werden - weder Hass, noch radikale Ansichten sind verboten. Solche Systeme würden politische Haltungen identifizieren, möglicherweise sogar Persönlichkeitsmerkmal wie Aggressivität oder Ängstlichkeit. Es entstünden sozusagen Big Data-Stimmungsbilder, die gleichwohl wie mit einem Zoom auf einzelne Bürger vergrößert werden könnten.
Dies zunächst natürlich nur im Sinne technischer Kapazitäten. Ob die Polizei diese ausschöpfen darf, ist eine rechtliche Frage. Ein wichtiger Hinweis in diesem Zusammenhang: dass den Ermittlungsbehörden etwas verboten ist, heißt natürlich nicht, dass sie es nicht tun (gerade in einem Bereich, wo alle Fälle "irgendwie Grenzfälle" sind). Bürgerrechtliche und Datenschutz-Vorgaben müssen wirksam durchgesetzt werden, das ist heute keineswegs der Fall.
Dass Social Media Intelligence und die entsprechende Forschung eine zunehmend wichtige Rolle spielen, liegt nicht am technischen Fortschritt ("KI! BIG DATA!"). Dafür gibt es politische Gründe, nämlich ein zunehmend "nachrichtendienstliches Vorgehen" der Polizei. Sie soll bereits bei drohenden Gefahren einschreiten, sich dabei auf Prognosen stützen und Prävention leisten – und das funktioniert eben ohne vorbeugende Überwachung nicht.