Handelsblatt App
Jetzt 4 Wochen für 1 € Alle Inhalte in einer App
Anzeigen Öffnen
MenüZurück
Wird geladen.

25.06.2019

18:22

Digitale Revolution

Gesichtserkennung – warum der Widerstand gegen das digitale Auge wächst

Von: Christof Kerkmann, Axel Postinett, Stephan Scheuer

Gesichtserkennung soll unseren Alltag einfach und sicherer machen. Doch die Technik birgt Gefahren. San Francisco schränkt als erste Stadt in den USA die Nutzung massiv ein.

Die Gesichtserkennung ist nicht neu, aber mit der Einführung der Cloud-Technologie nimmt ihre Nutzung rapide zu. imago/Jochen Tack

Gesichtserkennung

Die Gesichtserkennung ist nicht neu, aber mit der Einführung der Cloud-Technologie nimmt ihre Nutzung rapide zu.

Düsseldorf, San Francisco San Francisco hat den Anfang gemacht. Im Epizentrum der digitalen Revolution ist seit Mai 2019 allen städtischen Behörden die Nutzung, der Betrieb oder der Besitz von Gesichtserkennungstechnologie untersagt. Das gilt für Verkehrsbetriebe, die Kameras in Bussen oder U-Bahnen betreiben ebenso wie für Polizei oder Justizbehörden. Die Nachbarstadt Oakland könnte schon bald mit einem solchen Bann folgen, und an der Ostküste steht Somerville, Massachusetts, dem ebenfalls offen gegenüber.

Der Streit geht quer durch die Gesellschaft und die Technologieindustrie: Während Microsoft und Google nach starken Protesten, teilweise der eigenen Mitarbeiter, den Verkauf ihrer Gesichtserkennungssoftware an Regierungs- oder Kommunalbehörden eingestellt haben, verteidigt Amazon weiterhin den Verkauf an öffentliche Dienststellen.

Die Aktionäre des Weltmarktführers beim Cloud-Computing – größter Aktionär ist mit 16 Prozent der Anteile Firmengründer Jeff Bezos – schmetterten auf der Hauptversammlung einen Antrag auf einen Verkaufsstopp mit großer Mehrheit ab.

Vor rund zwei Wochen löschte Microsoft die bis dahin größte offen verfügbare Gesichtsdatenbank der Welt mit über zehn Millionen Einträgen von seiner Cloud-Plattform Azure. Sie wurde überwiegend von Unternehmen oder Behörden genutzt, um selbst entwickelte Gesichtserkennungsalgorithmen auf Genauigkeit zu überprüfen.

Laut „Financial Times“ wurde die Microsoft-Datenbank auch von zwei chinesischen Unternehmen genutzt, die Anlagen an offizielle Stellen in China liefern, um die Minderheit der Uiguren systematisch zu überwachen.

Einsatz auch in Deutschland

Die Gesichtserkennung ist nicht neu, aber mit der Einführung der Cloud-Technologie nimmt ihre Nutzung rapide zu. Cloud-Computing mit seinem riesigen Potenzial an Speicherplatz und Rechenleistung ist die ideale Basis, um Gesichtserkennung und damit Personenidentifizierung in Echtzeit durchzuführen.

Die private Nutzung ist weiterhin fast überall erlaubt, auch in San Francisco. So soll die Künstlerin Taylor Swift bei ihren Konzerten laut „Rolling Stone“ die Einlasskontrolle mit Gesichtserkennung ausgestattet haben, um sogenannte Stalker zu identifizieren, die der Künstlerin nachstellten. Auch der Flughafen von San Francisco kann weiter Gesichtserkennung einsetzen – er steht unter staatlicher Aufsicht.

Das Thema Gesichtserkennung steht für eine grundsätzliche Auseinandersetzung mit Zukunftstechnologien. Der Ansatz verspricht mehr Sicherheit, Effizienz und das Potenzial für neue Produkte. Gleichzeitig kann der Einsatz der Technik einen massiven Eingriff in die persönlichen Freiheiten bedeuten.

Die Entscheidung von San Francisco heizt die Debatte um den richtigen Umgang mit der Zukunftstechnik neu an. Dabei ist die Debatte lange nicht nur auf die USA beschränkt. Auch in Deutschland wird Gesichtserkennung eingesetzt – und ruft entschiedene Kritik hervor.

So nutzte die Polizei 2017 nach dem G20-Gipfel in Hamburg, bei dem es zu massiven Ausschreitungen gekommen war, eine Software, um auf Fotos und in Videos Personen zu identifizieren, die Straftaten begangen hatten. Der Hamburger Datenschutzbeauftragte Johannes Caspar kritisierte das Vorgehen: Die Technologie eröffne „eine neue Dimension staatlicher Ermittlungs- und Kontrolloptionen“, es könne „zu einer umfassenden Profilbildung von Menschen kommen“.

Die Bundespolizei und die Deutsche Bahn testen seit dem Sommer 2017 am Berliner Südkreuz eine Gesichtserkennungssoftware, die Personen auf einer Rolltreppe, in der Bahnhofshalle und am Eingang identifizieren soll – Ziel ist es, die Suche nach Straftätern und Terroristen zu erleichtern. Inzwischen wird überprüft, ob die Systeme auffälliges Verhalten entdecken können, etwa wenn jemand den Betrieb stören will oder einen Koffer abstellt und geht.

Die Erkennungsquote lag nach Angabe des Bundesinnenministeriums bei 80 Prozent, in 0,1 Prozent der Fälle wurden Passanten fälschlicherweise identifiziert. Die Behörde hofft in Zukunft auf „einen wesentlichen Mehrwert für die polizeiliche Arbeit“, zumal weitere Verbesserungen möglich seien.

Dagegen moniert der Bundesdatenschutzbeauftragte Ulrich Kelber, dass wegen der Fehlerquote Menschen zu Unrecht unter Verdacht geraten: „Wir drohen die Balance zwischen Sicherheit und Freiheit zu verlieren“, sagte er im Januar der Funke-Mediengruppe.

Der Netzaktivist Markus Beckedahl verweist zudem auf die Einschränkung der Bürgerrechte: „Ich will mich im analogen Raum frei und unbeobachtet bewegen können, deswegen sollen nicht überall Kameras mit biometrischer Gesichtserkennung hängen“, sagte der Gründer des Blogs Netzpolitik.org und der Konferenz Re:publica dem Handelsblatt. Sei die Einführung einmal beschlossen, sei permanent mit Forderungen nach weiteren Maßnahmen zu rechnen. „Ich halte es für sehr gefährlich, wenn wir als Gesellschaft akzeptieren, dass Sensoren und Kameras uns überall identifizieren können.“

Für die Gesichtserkennung nutzen Technologieunternehmen das maschinelle Lernen, eine Spezialdisziplin der Künstlichen Intelligenz (KI). Dabei speisen sie große Mengen Daten in einen Algorithmus ein, der mithilfe statistischer Verfahren Muster erkennen kann. Anders gesagt: Er lernt.

Handelsblatt Live

Künstliche Intelligenz – wie gefährlich ist sie wirklich?

Handelsblatt Live: Künstliche Intelligenz – wie gefährlich ist sie wirklich?

Ihr Browser unterstützt leider die Anzeige dieses Videos nicht.

Die Statistik ist allerdings nur so gut wie die Daten, die sie auswertet. In den Fotos und Videos, die Unternehmen für die Erkennung von Personen nutzen, sind bestimmte Bevölkerungsgruppen indes unterrepräsentiert, zum Beispiel Dunkelhäutige.

Das führt immer wieder zu krassen Ausfällen. Etwa im Sommer 2018, als die US-amerikanische Bürgerrechtsorganisation American Civil Liberties Union (ACLU) die Gesichtserkennung „Rekognition“ von Amazon testete. Sie glich dafür die Porträts aller Kongressabgeordneten mit einer Datenbank öffentlich verfügbarer Fahndungsfotos ab. 28 Treffer gab das System aus, darunter überproportional viele Politiker mit dunkler Haut.

Dabei waren alle Abgeordneten unbescholten: Das Programm hatte sie verwechselt. In der IT-Branche wächst das Bewusstsein für das Problem. So stellte IBM Anfang des Jahres eine frei zugängliche Datenbank zusammen, in der Menschen mit unterschiedlichen Hintergründen gleichermaßen repräsentiert sind.

Und in den Prinzipien für den Einsatz von KI verspricht Microsoft, sich um die Zusammenstellung einer unverzerrten Datenbasis zu bemühen. Im Geschäftsbericht verweist der Konzern auf das Risiko, durch den falschen Einsatz einen Imageschaden zu erleiden.

Die Probleme sind vielschichtig. Das liegt zum einen an der notorischen Unzuverlässigkeit der Systeme, die vor allem bei dunkelhäutigen Menschen, Asiaten und Frauen immer wieder falsche Treffer erzeugen. Die Fehlidentifizierung eines angeblich wegen Mordes gesuchten Menschen kann beim Festnahmeversuch des Unschuldigen schnell zu fatalen Folgen führen.

Die Chefin für ethische Standards in der Produktentwicklung bei Google, Jen Gennai, äußerte Verständnis für die Sorgen von Behörden und Bürgern im Umgang mit Gesichtserkennung: „Wir müssen dafür sorgen, dass die Systeme reibungsloser funktionieren.“ Ihr Unternehmen habe in diesem Jahr unter anderem in ethischen Leitlinien festgelegt, dass es nicht bei der Entwicklung automatisierter Waffensysteme mithelfen werde.

Allerdings bezeichnete Gennai die Entscheidung von San Francisco als überzogen. „Ein pauschales Verbot ist der falsche Weg“, sagte Gennai bei der Konferenz „Morals & Machines“ des zur Handelsblatt Media Group gehörenden Magazins Ada. „Gesichtserkennung könnte etwa helfen, vermisste Personen schnell aufzuspüren.“ Sie äußerte daher die Hoffnung, dass andere Städte nicht dem Vorbild von San Francisco folgten.

Microsofts Chefjustiziar Brad Smith räumte ein, man habe einen Auftrag einer kalifornischen Behörde abgelehnt, Gesichtserkennung in ihre Fahrzeuge einzubauen. Jedes Mal, wenn ein Fahrer oder eine Fahrerin zu einer Kontrolle angehalten werde, sollte eine Gesichtserkennung durchgeführt werden. Das, so Smith bei einem Vortrag im kalifornischen Stanford, könnte aber zu überproportionaler Benachteiligung von Frauen und Minderheiten führen. Die Erkennungssoftware wurde überwiegend mit Weißen und Männern trainiert.

China: massive Überwachung

Wohl in keinem Land der Welt wird bereits so entschieden auf Geschichtserkennung gesetzt wie in China. In der Volksrepublik sollen laut Angaben der staatlichen Nachrichtenagentur bereits zum Ende des vergangenen Jahres mehr als 20 Millionen Überwachungskameras in einem landesübergreifenden System zusammengeschlossen worden sein.

Unter dem Namen Tianwang (auf Englisch: Skynet) wollen die Polizeibehörden zudem künftig alle der mehr als 200 Millionen in China installierten Überwachungskameras in ihr System integrieren. Damit will Peking Straftäter schneller aufspüren können.

Der BBC-Chinakorrespondent John Sudworth probierte das System Ende 2017 in einem Experiment aus. Die Pekinger Polizei machte ein Foto von ihm. Er versuchte daraufhin, in der chinesischen Stadt unterzutauchen und nicht von Kameras erkannt zu werden, um zu testen, wie gut das System funktioniert. Es dauerte nur sieben Minuten, bis das Überwachungssystem den Journalisten aufspürte.

In der westchinesischen Provinz Xinjiang soll die chinesische Führung laut einem Bericht der Vereinten Nationen ein weitverzweigtes Überwachungssystem aufgebaut haben, um besonders Mitglieder der Minderheit der muslimischen Uiguren zu überwachen. Dem Bericht zufolge wird dazu neben Gesichtserkennung auch Stimmerkennung eingesetzt.

Zudem sollen laut Berichten der Menschenrechtsorganisation Human Rights Watch in China Polizeibehörden an einer biometrischen Datenbank über möglichst viele Uiguren arbeiten. Rund eine Million der rund zehn Millionen Uiguren sind derzeit in Xinjiang laut UN-Angaben in sogenannten Umerziehungslagern interniert.

US-Städte wie Seattle, Nashville oder Cambridge, Massachusetts, und andere haben Gesetze beschlossen, die einen ausgewogenen Einsatz der Technologie ermöglichen sollen. Dabei sollen die Bedürfnisse des Datenschutzes und der Privatsphäre mit den Erfordernissen der Strafverfolgung in Einklang gebracht werden.

Doch der Weg zu einer allgemeinen Regelung ist noch weit. Microsoft, Bürgerrechtler und viele US-Städte fordern eine allgemeingültige staatliche Regulierung der Gesichtserkennung und damit auch der Künstlichen Intelligenz, die dahintersteht.

Die Kongressabgeordnete Alexandria Ocasio-Cortez geht so weit, dass aus ihrer Sicht mit dem Einzug der massenhaften, anlasslosen und systematischen Gesichtserkennung dem Totalitarismus und Faschismus Vorschub geleistet werden könne. Sie sei „absolut besorgt“ und wolle keinen totalitären Überwachungsstaat, egal ob „von der Regierung oder fünf Unternehmen geführt“. Damit spricht sie Amazon, Microsoft, Google, Facebook oder Apple an, die alle mit Hochdruck an der Technologie arbeiten, teilweise zum internen Gebrauch, teilweise zum Verkauf.

Im US-Bundesstaat Florida hatte es Anfang des Jahres eine Gesetzesinitiative beinahe bis zur Abstimmung gebracht, die vorsah, eine Datenbank von Frauen zu erstellen, die der Prostitution verdächtigt werden. Doch nach heftigen Protesten wurde sie dahingehend abgeändert, dass jetzt eine Gesichtsdatenbank von Männern erstellt werden soll, die käufliche Dienste von Prostituierten in Anspruch nehmen.

Das Interesse an der schnellen Verabschiedung dieses Gesetzes scheint seitdem deutlich gesunken. In Deutschland ist die Diskussion noch nicht so weit. „San Francisco ist ein Leuchtturm“, sagt Netzaktivist Markus Beckedahl aber. „Es ist schon bemerkenswert, dass der Widerstand gerade dort wächst, wo viele Technologieexperten an vergleichbaren Systemen arbeiten.“ Er hofft, dass das Silicon Valley auch bei diesem Thema als Vorbild dienen kann.

Mehr: San Francisco hat städtischen Behörden den Einsatz von Gesichtserkennungssoftware untersagt. Die Deutschen zeigen sich einer Umfrage zufolge offener für die Technologie.

Egal, ob es um Künstliche Intelligenz oder um Blockchain geht – die Geschwindigkeit, mit der neue Schlagwörter aus der digitalen Welt auf uns einprasseln, ist enorm. Doch was davon hat Substanz, was ist nur Hype? In unserer Multimedia-Rubrik „Digitale Revolution“ beleuchten Handelsblatt-Redakteure, wie Digitalisierung unsere Unternehmen, unsere Gesellschaft und unseren Alltag verändert. Jede Woche nehmen sich die Redakteure eines Schwerpunktthemas an. Die unterschiedlichen Aspekte werden in mehreren Beiträgen multimedial aufbereitet. Dabei kommen interaktive Grafiken, Videos oder Bildergalerien zum Einsatz.

Direkt vom Startbildschirm zu Handelsblatt.com

Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.

Auf tippen, dann „Zum Startbildschirm“ hinzufügen.

×