Minority Report
Forschungsprogramme arbeiten daran, die Videoüberwachung mit Hilfe von Algorithmen zu perfektionieren, um unerwünschtes Verhalten vorherzusagen. Die notwendigen Daten zur Personenidentifizierung stammen aus dem Internt. von Benjamin Kees
Wenn Informatiker versuchen Systeme zu bauen, die Politiker in Science-Fiction-Filmen toll fanden, so schafft den Sprung vom Film in die Realität meist nur die Technik-Idee - die Technik-Kritik bleibt meist unberücksichtigt.
So geschehen mit Steven Spielbergs Science-Fiction-Thriller Minority Report. In einer Welt, in der modernste lebenserleichternden Geräten aber auch Überwachungs-Infrastruktur allgegenwärtig sind, besitzt die Polizeibehörde Precrime das Mittel zur ultimativen Sicherheit. Verbrechen werden vorhergesehen und zukünftige StraftäterInnen ohne weiteren Prozess aus dem Verkehr gezogen. Systematisch wird jedoch der Bevölkerung und sogar den Agenten verheimlicht, dass es zu Fehlern kommt, dass Unschuldige verhaftet werden und Schuldige davonkommen.
Im Film kommen die Vorhersagen von drei hellsehenden, unter Drogen stehenden Kindern, deren Visionen direkt aus den Gehirnen auf Bildschirme übertragen werden. Da diese Art der Lösung nicht zur Auswahl steht, wird in der echten Welt daran geforscht, wie in Zukunft Computer die Voraussagen tätigen können. Dazu werden Daten benötigt – viele Daten.
Wie mancher Mensch ahnte und alle anderen nun besser wissen, beschafft sich die NSA diese Daten wo immer es geht. Doch nicht nur Geheimdienste sammeln und analysieren Informationen, auch die Europäische Union und die BRD finanzieren Projekte zur Sammlung und Auswertung von Informationen mit dem Ziel mehr Sicherheit zu erlangen. Eines von vielen IT-Projekten zu unserer Sicherheit ist das Forschungsprojekt INDECT, das seit Projektbeginn im Jahr 2009 mit fast 11 Millionen Euro von der EU finanziert wurde. Ziel von INDECT ist es, ein System für Sicherheits- und Polizeibehörden zu schaffen, das Informationen aus verschiedensten Informationsquellen zusammenführt. Diese sind neben Überwachungskameras z.B. auch Gesichtsdatenbanken und Kommunikationsdaten, wie sie bei Vorratsdatenspeicherung erhoben werden. Außerdem sollen Informationen aus dem Internet ausgewertet werden. Dazu gehört das Interpretieren sozialer Beziehungen und Profile in Diensten wie Facebook und Twitter und auch die Suche nach verdächtigen Inhalten in Foren, Blogs, auf Dateiservern, im Usenet und auf persönlichen Computern. Einerseits sollen diese Datensammlungen als Informationsquelle für Polizeibeamte dienen, andererseits sollen sie von Computern automatisiert und in Echtzeit nach möglichen Gefahren und Auffälligkeiten durchsucht werden und Warnungen generieren.
Man könnte erwarten, dass ein so heikles Forschungsprogramm, das von der EU finanziert wird, Ergebnisse produzieren sollte, die tatsächlich angewendet werden können – unter anderem also mit den Grundrechten vereinbar sind. Um solchen Fragen und der Kritik am Projekt zu begegnen, hat INDECT eine sogenannte Ethik-Kommission ins Leben gerufen. Man muss jedoch feststellen, dass diese Kommission lediglich die Rechtmäßigkeit und Ethik der Forschungsarbeit im Blick hat. Verletzungen der Grundrechte und Auswirkungen auf die Gesellschaft, die beim Einsatz der Forschungsergebnisse zu erwarten sind, werden rhetorisch umschifft oder ignoriert. In einer Stellungnahme der Europäischen Kommission heißt es kurz: »Für die genaue Ausgestaltung und den rechtmäßigen Einsatz sind die Benutzer verantwortlich.« Der Berliner Datenschutzbeauftragte Alexander Dix meint, derartige Projekte »drohen im Grunde Geld zu verschwenden, wenn die Ergebnisse hinterher nicht rechtskonform angewendet werden können.«
Ob solche Überwachungsmaßnahmen zum Einsatz kommen können, hängt unter anderem davon ab, ob sie verhältnismäßig sind: Ob und wie gut sie funktionieren, muss abgewogen werden mit den Nachteilen für Betroffene.
Die Effektivität von Videoüberwachung zur Verhinderung von Straftaten und Vandalismus konnte bisher nicht mit Studien nachgewiesen werden. Dass Tausende von Kameras, wie z.B. in London, nicht die erhoffte Sicherheit gebracht haben, liegt meist nicht an der Qualität der Bilder oder fehlenden Aufnahmeperspektiven, sondern am Umgang der Überwachten mit den Kameras: Kriminelle planen die Kameras ein, bei Gewalt im Affekt werden Kameras oft einfach ignoriert; daran kann kein hochauflösendes Objektiv und keine zusätzlich aufgehängte Kamera etwas ändern. Dass der Ausbau von Videoüberwachung trotzdem weltweit vorangetrieben wird, kann nur auf einen starken, kaum zu begründenden Glauben an das Konzept Videoüberwachung zurückgeführt werden. Mit Scheuklappen für die grundsätzlichen konzeptuellen Mankos verbleiben nur zwei Dinge im Problembewusstsein der Befürworter: (1.) Die Bilderflut, die wegen Personalmangel nicht ausreichend ausgewertet werden kann und (2.) die Unzulänglichkeiten menschlicher Operateure bei der Bildauswertung.
Noch stärker als der Glaube an das Konzept Videoüberwachung scheint der Glaube an Technik sein, denn als Lösung der beiden Probleme gilt das von Entscheidern oft unverstandene und überschätze Wundermittel: der Computer. Er soll in den Videobildern nicht nur unerwünschtes Verhalten von Personen erkennen, sondern es auch vorhersagen.
Die Informatik versucht diese Aufgabe so zu lösen: Aus einer Folge von Pixeln (den Videoaufnahmen) soll eine Interpretation und Bewertung der Geschehnisse und letztlich ein Alarm errechnet werden. Dazu werden die bewegten Pixel zu Objekten zusammengefasst und durch Vergleich mit Modellen in Gegenstände und Personen eingeteilt. Bewegungen einzelner Körperteile werden verfolgt, zusammengesetzt und typisiert: Rennen, Werfen, Lächeln. Für komplexere Bewegungen und Interaktionen mit anderen Personen und Gegenständen müssen komplexere Modelle gefunden werden.
Um Vorhersagen zu treffen, kann entweder die Abweichung von vorher definierter »Normalität«, oder die Übereinstimmung mit Modellen unerwünschter oder verdächtiger Geschehnisse gemessen werden. Ein paar Beispiele: Person A hat eine zu 78 % aggressive Körperhaltung, Person B weicht beständig dem Sicherheitspersonal aus, Person D weicht vom üblichen Weg vom Check-In zum Gate 24 ab, Person E entfernt sich mehr als 3 Meter von Kinderwagen X, Person F verweilt auf dem Bahnsteig, obwohl bereits alle Linien ein Mal eingefahren sind, Transporter F, der sonst nie in der Gegen gesichtet wird sondern nur in fragwürdigen Randbezirken, hält direkt vor der Botschaft.
Solche Modelle manuell zu erstellen, ist zeitaufwendig und teuer, daher wird auch die Automatisierung automatisiert. Computern wird beigebracht, selbstständig Modelle zu erstellen. In der Praxis geschieht das so: Ein Algorithmus wird mit Videodaten gefüttert und dieser macht sich dann selbst einen Reim auf die Pixel. Präsentiert man ihm 40 Stunden Videomaterial von »normalen« Parkplatz-Geschehnissen, so soll eine Person, die in Stunde 41 von Auto zu Auto schlendert, dem Algorithmus als abweichend auffallen, ohne dass ein Mensch je darüber nachdenken musste, was genau an den vorherigen 40 Stunden »normal« war. Nach diesem Verfahren, so wünscht man sich, sollen für beliebig komplexe Zusammenhänge und Geschehnisse Muster und Modelle erstellt werden.
Wird eine Person als auffällig eingestuft, wird die Überwachung intensiviert. Hochauflösende Bilder werden angefertigt, ein 3D-Modell der Person erstellt, eine Verfolgungs-Drohne gestartet, das Gesicht mit einer Datenbank abgeglichen, das Facebookprofil überprüft. Wenn z. B. Rebecca Schneider, 187 cm groß, aus dem »Problembezirk Marzahn« hektisch im Flughafengebäude umherrennt, außerdem Mitglied der Facebookgruppe des als »gewaltbereit« geltenden 1. FC Union Berlin ist und in einem Internet-Forum Kraftausdrücke benutzt hat, so muss sie mit Unannehmlichkeiten rechnen oder damit, in einer Datenbank als auffällig markiert zu werden.
Da beobachtbares Verhalten nicht eindeutig interpretierbar ist und kriminelle Geschehnisse nicht unbedingt beobachtbar sind, kommt es zwangsläufig zu Fehlalarmen und nicht gegebenen Alarmen. Um die Genauigkeit der Alarme zu erhöhen, werden daher eher mehr als weniger Daten erhoben und genutzt. Dieses Datensammeln nach dem Prinzip »Man-Weiß-Ja-Nie« widerspricht den Datenschutzgrundsätzen der Datensparsamkeit und der Zweckbindung. Doch wie das Beispiel Rebecca Schneider aus Marzahn weiter veranschaulicht, ist nicht nur das Recht auf informationelle Selbstbestimmung gefährdet, sondern findet auch Diskriminierung statt: Rebecca wird nicht nach ihrem tatsächlichen Verhalten beurteilt, sondern sieht sich auf Grund von Kategorisierung, allein schon durch die intensivere Überwachung einer anderen Behandlung ausgesetzt als etwa Sophia Weidenbaum, 157 cm groß, aus Wilmersdorf, die einen Blog über ihre Bastelarbeiten schreibt; die jedoch ebenfalls durch den Flughafen rennt. Weiß Rebecca über die Überwachung Bescheid, wird sie ihr Verhalten bewusst oder unbewusst an die vermeintliche Norm anpassen. Sie kann nicht prüfen, wie die erhobenen Daten verarbeitet werden, wie lange sie wo gespeichert werden und ob vielleicht auch an Orten überwacht wird, wo dies nicht ersichtlich ist.
Die vermutlich geringe Effektivität steht also einer durch Automatisierung stark gesteigerten Einschränkung der Betroffenen gegenüber.
Damit die Investitionen in INDECT nicht umsonst waren, müssten die Ergebnisse daher entweder als Stoff für ein neues Drehbbuch an Steven Spielberg verkauft oder in Länder exportiert werden, in denen innovationshemmende Bürgerrechte nicht so genau genommen werden.
Diplominformatiker Benjamin Kees hat an der Humboldt-Universität zu Berlin Informatik und Ingenieurpsychologie studiert. Er denkt über die Verantwortung und das Selbstverständnis der Informatik nach und hat geforscht, welche gesellschaftlichen Probleme eine Automatisierung von Videoüberwachung nach sich zieht. Die Website www.algoropticon.de über dieses Thema befindet sich im Aufbau.