Mit der "Mustererkennung" sollen Überwachungssysteme schlauer werden und selbständig auffälliges Verhalten erkennen. Die EU will damit illegale Einwanderer an der Grenze stoppen. Bislang produzierten die Forschungsvorhaben aber meist teure Fehlschläge
Die US-Firma BRS Labs ist ein Senkrechtstarter, den allerdings fast kein Mensch kenn. Und das soll am besten auch so bleiben. Der Umsatz des Unternehmens hat sich auf 200 Millionen Dollar innerhalb eines Jahres verzehnfacht. Neue Büros wurden eröffnet in Houston, Sao Paolo und London. Die Technik wird exportiert bis nach Dubai und Neuseeland. Grund für den Erfolg von BRS, eine Abkürzung für Behavioural Recognition Systems, zu deutsch Verhaltens-Erkennungssysteme, ist die Überwachungs-Software AiSight. Sie revolutioniert zurzeit die Überwachung an Flughäfen und Bahnhöfen weltweit. AiSight macht die Kameras schlau. Damit ausgestattet erkennen sie künftig selbstständig auffälliges Verhalten. Egal ob jemand seinen Koffer dort abstellt, wo er nicht sollte, aus dem Auto aussteigt, wo er nicht dürfte oder über Zäune klettert - sofort schlägt der Computer Alarm, ein Mensch ist nicht mehr dafür nötig. Ein Traum für Sicherheitsbehörden.
Alleine in der Berliner U-Bahn gibt es 1500 Kameras.
Ein Traum, den auch das deutsche Bundesforschungsministerium geträumt hat. In neun Einzelprojekten wollte man die Mustererkennung erforschen lassen - auch bei diesen "intelligenten Überwachungssystemen" soll ein Computer Gesichter oder auffällige Bewegungen aus Videobildern herausfiltern und melden. Doch die Euphorie ist bei vielen Beteiligten trotz 15 Millionen Euro Fördergeld und drei Jahren Arbeit verflogen. Ein Verbund aus Firmen und Universitäten wollte etwa im Verbundprojekt "Adis" erforschen, wie gut ein Algorithmus Gefahrensituationen in U-Bahnhöfen erkennen kann, etwa eine "liegende Person", Menschenansammlungen, "Aggression" oder allgemein "auffälliges Verhalten". "Ursprünglich wollten wir das System im öffentlichen Nahverkehr testen", sagt Oliver Röbke von der Münchner Indanet AG, die federführend an "Adis" arbeitet. Der Verkehrsbetrieb einer großen Stadt wollte mitmachen. Wegen ungeklärter ethischer und datenschutzrechtlicher Fragen betrachteten viele das Projekt aber von Anfang an kritisch, die vielen Nachfragen erschwerten die Arbeit. Die Folge: Der Betreiber wollte plötzlich anonym bleiben, getestet wurde nur noch hinter verschlossener Tür. Auch den angedachten Demonstrator gibt es zwei Monate vor Ablauf des Projekts noch nicht. Wie gut das System funktioniert, ist damit unklar, Hinweise gibt nur eine Studie des Instituts für Rechts- und Kriminalsoziologie in Wien: Die Verlässlichkeit sei bei präventiven Überwachungstechniken "fragwürdig", Umwelteinflüsse könnten die Ergebnisse stark verfälschen. Dazu entstünden bislang "unakzeptabel viele falsche Treffer", was wieder Kosten bei der Korrektur verursache. Ähnliche Erfahrungen hatte 2007 das BKA gemacht, das am Mainzer Hauptbahnhof Technik installiert hatte, um Gesichter automatisch zu erkennen. Der Feldversuch schlug fehl - es war meist schlicht zu dunkel, um Personen zu identifizieren. Röbke glaubt dennoch, dass ein großer Bedarf für "intelligente Systeme" besteht: Allein in der Berliner U-Bahn gebe es rund 1500 Kameras. "Diese Datenflut können die wenigen Sicherheitsleute kaum noch bewältigen", die Aufnahmen würden erst viel später analysiert, wenn überhaupt.
Besonders wegen eines Ziels musste "Adis" Kritik einstecken: Das System sollte ähnlich wie das EU-Projekt Indect "abnormales" Verhalten erkennen können. "Es ist doch absurd, einem Computer beizubringen, was als normal gilt und was nicht", sagt der Bundestagsabgeordnete Herbert Behrens von der Linkspartei. "Was, wenn das abweichende Verhalten nicht kriminell ist? Da läuft sofort eine Stigmatisierung der Betroffenen." Der Politiker aus Niedersachsen kritisiert vor allem die Vielzahl der Projekte zur Mustererkennung. So analysiert man bei "Caminsens" die Laufrichtung und Schrittgeschwindigkeit in Flughäfen, bei "GES-3D" erstellt man mit biometrischer Gesichtserkennung 3D-Modelle von verdächtigen Personen. "Jedes einzelne Projekt kommt recht unverdächtig daher", sagt der Linke-Politiker, "aber bei einer Verschaltung der Technologien untereinander bekommen wir große Probleme".
Der Datenschutzbeauftrage Schleswig-Holsteins Thilo Weichert sieht es ähnlich: "Mustererkennung ist hochsensibel und heikel, weil der analoge Bereich mit dem digitalen verheiratet wird", sagt Weichert. Am Ende dürfe nicht eine Maschine über eine Situation entscheiden, sondern nur ein Mensch. Auch der "Beifang" bei der Mustererkennung - also unbeteiligte Dritte - müsse wieder aus den Datenbanken gelöscht werden. "Bei vielen Sicherheitsforschungsprojekten besteht diese Sensibilität aber nicht", sagt Weichert.
Damit spielt der Experte vor allem auf die Sicherheitsforschung der EU-Kommission an, gegen die sich die deutschen Ansätze recht possierlich ausnehmen. Allein 170 Millionen Euro flossen in den vergangenen Jahren in Forschungsprojekte zur Überwachung der EU-Außengrenzen, mindestens 60 Millionen Euro davon in "intelligente", also automatisierte, Grenz-Überwachung unter dem Stichwort "Smart Borders". So denkt die Kommission an den Aufbau einer autonomen Drohnen-Flotte für den Grenzschutz nach (Oparus und Wimaas), während Roboter entlang der Landgrenzen patrouillieren und Eindringlinge entdecken sollen (Talos). Selbst die Gerüche mutmaßlich illegaler Einwanderer könnten spezielle Sensoren (Sniffer, Doggies) automatisiert aufspüren.
Bislang produzierte das Programm vor allem teure Fehlschläge und wenig Konkretes. So gab die Kommission 3,5 Millionen Euro im Verbundprojekt "Amass" für intelligente Bojen aus. Diese sollten vor der Küste Europas mit allerlei Sensoren bestückt selbständig "nicht-kooperative Ziele" - also Fischerboote mit illegalen Einwanderern - entdecken können. "Ein wesentlicher Teil der Technik wurde zerstört", sagt ein Verantwortlicher, der anonym bleiben möchte. "Die Boje ist vor den Kanaren aufgrund der Wetterbedingungen gesunken." Auf der Webseite heißt es dagegen nur, das Programm sei planmäßig beendet worden. Auch beim abgeschlossenen Drohnen-Projekt Wimaas - Gesamtkosten 2,7 Millionen Euro - sind öffentlich keinerlei Ergebnisse vermerkt. Auf Nachfrage heißt es, es habe im Wesentlichen zwei Testflüge mit Drohnen vor der Küste Spaniens und Griechenlands gegeben, außerdem seien einige technische Publikationen entstanden. Bei Talos hingegen entwickelte man zwei funktionstüchtige Prototypen - die traktorgroßen Roboter können selbständig Grenzen patrouillieren und mit Radar Personen aufspüren. Jedoch ist das 20 Millionen Euro schwere Programm seit einem Jahr beendet, die Ungetüme stehen seitdem ungenutzt in Polen herum.
Die EU-Kommission betont, alle diese Ideen seien bislang reine Forschungsprojekte. Doch Experten stellen der Kommission bereits dafür ein schlechtes Zeugnis aus. "Das Vertrauen auf neue Überwachungstechnologien basiert auf ungenügenden Kenntnissen ihrer wahren sozialen und ökonomischen Kosten", schreiben etwa Forscher um den Münchner Soziologen Reinhard Kreissl in der ebenfalls von der EU geförderten "IRISS"-Studie. Bei der Aufrüstung der Grenzen sehen sie "grundlegende Menschenrechtsbedenken" beim Asylrecht, der Privatsphäre und im Datenschutz. "Auffällig ist, dass es überhaupt keine Förderung für Projekte gibt, die sich mit der Rettung auf hoher See beschäftigen, um etwa das Leben von Einwanderern zu retten." Stattdessen werde der Prävention von illegaler Einwanderung Vorrang eingeräumt. Grund zur Sorge sehen die Experten in der "möglichen Bevorzugung" der Rüstungs- und Sicherheitsindustrie bei der Vergabe von Geldmitteln. Diese enge Verbindung sei systemisch geworden und beeinflusse die Ziele der Forschung wesentlich.
Die Wissenschaftler prangern auch einen "hemmenden Effekt" durch intelligente Überwachung an: Dieser könne "unser Verhalten weniger spontan machen und uns unterbewusst darin einschränken, wo wir hingehen und was wir tun". Deshalb könne verstärkte Überwachung auf lange Sicht soziale und demokratische Aktivitäten untergraben.
Einige haben die sozialen Implikationen erkannt. "Wir sind zwar sicher, dass unsere Fahrzeuge einen Nutzen an der Grenze haben können", sagt etwa Agnieszka Spro?ska, Sprecherin von Talos. "Aber wir können nicht losgelöst von den rechtlichen und ethischen Aspekten arbeiten. Die Technologie kann nicht vor allem anderen kommen."
Die US-Firma BRS Labs ist ein Senkrechtstarter, den allerdings fast kein Mensch kenn. Und das soll am besten auch so bleiben. Der Umsatz des Unternehmens hat sich auf 200 Millionen Dollar innerhalb eines Jahres verzehnfacht. Neue Büros wurden eröffnet in Houston, Sao Paolo und London. Die Technik wird exportiert bis nach Dubai und Neuseeland. Grund für den Erfolg von BRS, eine Abkürzung für Behavioural Recognition Systems, zu deutsch Verhaltens-Erkennungssysteme, ist die Überwachungs-Software AiSight. Sie revolutioniert zurzeit die Überwachung an Flughäfen und Bahnhöfen weltweit. AiSight macht die Kameras schlau. Damit ausgestattet erkennen sie künftig selbstständig auffälliges Verhalten. Egal ob jemand seinen Koffer dort abstellt, wo er nicht sollte, aus dem Auto aussteigt, wo er nicht dürfte oder über Zäune klettert - sofort schlägt der Computer Alarm, ein Mensch ist nicht mehr dafür nötig. Ein Traum für Sicherheitsbehörden.
Alleine in der Berliner U-Bahn gibt es 1500 Kameras.
Ein Traum, den auch das deutsche Bundesforschungsministerium geträumt hat. In neun Einzelprojekten wollte man die Mustererkennung erforschen lassen - auch bei diesen "intelligenten Überwachungssystemen" soll ein Computer Gesichter oder auffällige Bewegungen aus Videobildern herausfiltern und melden. Doch die Euphorie ist bei vielen Beteiligten trotz 15 Millionen Euro Fördergeld und drei Jahren Arbeit verflogen. Ein Verbund aus Firmen und Universitäten wollte etwa im Verbundprojekt "Adis" erforschen, wie gut ein Algorithmus Gefahrensituationen in U-Bahnhöfen erkennen kann, etwa eine "liegende Person", Menschenansammlungen, "Aggression" oder allgemein "auffälliges Verhalten". "Ursprünglich wollten wir das System im öffentlichen Nahverkehr testen", sagt Oliver Röbke von der Münchner Indanet AG, die federführend an "Adis" arbeitet. Der Verkehrsbetrieb einer großen Stadt wollte mitmachen. Wegen ungeklärter ethischer und datenschutzrechtlicher Fragen betrachteten viele das Projekt aber von Anfang an kritisch, die vielen Nachfragen erschwerten die Arbeit. Die Folge: Der Betreiber wollte plötzlich anonym bleiben, getestet wurde nur noch hinter verschlossener Tür. Auch den angedachten Demonstrator gibt es zwei Monate vor Ablauf des Projekts noch nicht. Wie gut das System funktioniert, ist damit unklar, Hinweise gibt nur eine Studie des Instituts für Rechts- und Kriminalsoziologie in Wien: Die Verlässlichkeit sei bei präventiven Überwachungstechniken "fragwürdig", Umwelteinflüsse könnten die Ergebnisse stark verfälschen. Dazu entstünden bislang "unakzeptabel viele falsche Treffer", was wieder Kosten bei der Korrektur verursache. Ähnliche Erfahrungen hatte 2007 das BKA gemacht, das am Mainzer Hauptbahnhof Technik installiert hatte, um Gesichter automatisch zu erkennen. Der Feldversuch schlug fehl - es war meist schlicht zu dunkel, um Personen zu identifizieren. Röbke glaubt dennoch, dass ein großer Bedarf für "intelligente Systeme" besteht: Allein in der Berliner U-Bahn gebe es rund 1500 Kameras. "Diese Datenflut können die wenigen Sicherheitsleute kaum noch bewältigen", die Aufnahmen würden erst viel später analysiert, wenn überhaupt.
Besonders wegen eines Ziels musste "Adis" Kritik einstecken: Das System sollte ähnlich wie das EU-Projekt Indect "abnormales" Verhalten erkennen können. "Es ist doch absurd, einem Computer beizubringen, was als normal gilt und was nicht", sagt der Bundestagsabgeordnete Herbert Behrens von der Linkspartei. "Was, wenn das abweichende Verhalten nicht kriminell ist? Da läuft sofort eine Stigmatisierung der Betroffenen." Der Politiker aus Niedersachsen kritisiert vor allem die Vielzahl der Projekte zur Mustererkennung. So analysiert man bei "Caminsens" die Laufrichtung und Schrittgeschwindigkeit in Flughäfen, bei "GES-3D" erstellt man mit biometrischer Gesichtserkennung 3D-Modelle von verdächtigen Personen. "Jedes einzelne Projekt kommt recht unverdächtig daher", sagt der Linke-Politiker, "aber bei einer Verschaltung der Technologien untereinander bekommen wir große Probleme".
Der Datenschutzbeauftrage Schleswig-Holsteins Thilo Weichert sieht es ähnlich: "Mustererkennung ist hochsensibel und heikel, weil der analoge Bereich mit dem digitalen verheiratet wird", sagt Weichert. Am Ende dürfe nicht eine Maschine über eine Situation entscheiden, sondern nur ein Mensch. Auch der "Beifang" bei der Mustererkennung - also unbeteiligte Dritte - müsse wieder aus den Datenbanken gelöscht werden. "Bei vielen Sicherheitsforschungsprojekten besteht diese Sensibilität aber nicht", sagt Weichert.
Damit spielt der Experte vor allem auf die Sicherheitsforschung der EU-Kommission an, gegen die sich die deutschen Ansätze recht possierlich ausnehmen. Allein 170 Millionen Euro flossen in den vergangenen Jahren in Forschungsprojekte zur Überwachung der EU-Außengrenzen, mindestens 60 Millionen Euro davon in "intelligente", also automatisierte, Grenz-Überwachung unter dem Stichwort "Smart Borders". So denkt die Kommission an den Aufbau einer autonomen Drohnen-Flotte für den Grenzschutz nach (Oparus und Wimaas), während Roboter entlang der Landgrenzen patrouillieren und Eindringlinge entdecken sollen (Talos). Selbst die Gerüche mutmaßlich illegaler Einwanderer könnten spezielle Sensoren (Sniffer, Doggies) automatisiert aufspüren.
Bislang produzierte das Programm vor allem teure Fehlschläge und wenig Konkretes. So gab die Kommission 3,5 Millionen Euro im Verbundprojekt "Amass" für intelligente Bojen aus. Diese sollten vor der Küste Europas mit allerlei Sensoren bestückt selbständig "nicht-kooperative Ziele" - also Fischerboote mit illegalen Einwanderern - entdecken können. "Ein wesentlicher Teil der Technik wurde zerstört", sagt ein Verantwortlicher, der anonym bleiben möchte. "Die Boje ist vor den Kanaren aufgrund der Wetterbedingungen gesunken." Auf der Webseite heißt es dagegen nur, das Programm sei planmäßig beendet worden. Auch beim abgeschlossenen Drohnen-Projekt Wimaas - Gesamtkosten 2,7 Millionen Euro - sind öffentlich keinerlei Ergebnisse vermerkt. Auf Nachfrage heißt es, es habe im Wesentlichen zwei Testflüge mit Drohnen vor der Küste Spaniens und Griechenlands gegeben, außerdem seien einige technische Publikationen entstanden. Bei Talos hingegen entwickelte man zwei funktionstüchtige Prototypen - die traktorgroßen Roboter können selbständig Grenzen patrouillieren und mit Radar Personen aufspüren. Jedoch ist das 20 Millionen Euro schwere Programm seit einem Jahr beendet, die Ungetüme stehen seitdem ungenutzt in Polen herum.
Die EU-Kommission betont, alle diese Ideen seien bislang reine Forschungsprojekte. Doch Experten stellen der Kommission bereits dafür ein schlechtes Zeugnis aus. "Das Vertrauen auf neue Überwachungstechnologien basiert auf ungenügenden Kenntnissen ihrer wahren sozialen und ökonomischen Kosten", schreiben etwa Forscher um den Münchner Soziologen Reinhard Kreissl in der ebenfalls von der EU geförderten "IRISS"-Studie. Bei der Aufrüstung der Grenzen sehen sie "grundlegende Menschenrechtsbedenken" beim Asylrecht, der Privatsphäre und im Datenschutz. "Auffällig ist, dass es überhaupt keine Förderung für Projekte gibt, die sich mit der Rettung auf hoher See beschäftigen, um etwa das Leben von Einwanderern zu retten." Stattdessen werde der Prävention von illegaler Einwanderung Vorrang eingeräumt. Grund zur Sorge sehen die Experten in der "möglichen Bevorzugung" der Rüstungs- und Sicherheitsindustrie bei der Vergabe von Geldmitteln. Diese enge Verbindung sei systemisch geworden und beeinflusse die Ziele der Forschung wesentlich.
Die Wissenschaftler prangern auch einen "hemmenden Effekt" durch intelligente Überwachung an: Dieser könne "unser Verhalten weniger spontan machen und uns unterbewusst darin einschränken, wo wir hingehen und was wir tun". Deshalb könne verstärkte Überwachung auf lange Sicht soziale und demokratische Aktivitäten untergraben.
Einige haben die sozialen Implikationen erkannt. "Wir sind zwar sicher, dass unsere Fahrzeuge einen Nutzen an der Grenze haben können", sagt etwa Agnieszka Spro?ska, Sprecherin von Talos. "Aber wir können nicht losgelöst von den rechtlichen und ethischen Aspekten arbeiten. Die Technologie kann nicht vor allem anderen kommen."