MenüZurück
Wird geladen.

12.05.2018

07:57

Knochenjob mit Silicon-Valley-Flair

Wie Mitarbeiter in Facebooks Löschzentrum nach den Abgründen des Menschlichen suchen

Von: Johannes Steger

In Essen löschen knapp 750 Menschen im Auftrag von Facebook Hass, Pornografie und Gewalt von der Plattform. Ein Ortsbesuch.

Hier müssen Mitarbeiter Inhalte löschen, die Hass, Propaganda und Pornografie enthalten. Facebook

Löschzentrum in Essen

Hier müssen Mitarbeiter Inhalte löschen, die Hass, Propaganda und Pornografie enthalten.

Essen, BerlinManchmal stößt auch die Fähigkeit des Silicon Valley zur trendigen Inszenierung an ihre Grenzen – zum Beispiel an einem Mettbrötchen im Essener Westviertel. Das tiefblaue Facebook-Logo passt nicht so recht zu den drapierten Platten auf Papierspitzendecken, die für den Besuch bereit stehen. Das gleiche gilt für die Raufasertapete in den Fluren, die in schrägem Kontrast zu den hippen Motivationsplakaten an der Wand steht. Und eigentlich passen auch die Inhalte hier nicht zum Image des Silicon Valley, das damit wirbt, die Welt zu einem besseren Ort machen zu wollen.

In Essen geht es nicht um Friede, Freude, Netzwerkknüpfen, sondern um Hass, Gewalt und Pornografie. Seit vergangenem Jahr arbeitet der Dienstleister Competence Call Center (CCC) für das soziale Netzwerk Facebook. Er betreibt mitten im Ruhrgebiet ein sogenanntes „Löschzentrum“, das zweite dieser Art in Deutschland. Auch in Berlin hat Facebook ein Unternehmen beauftragt, das Böse zu eliminieren: die Bertelsmann-Dienstleistungsfirma Arvato.

In Berlin filtern 700, in Essen 750 Menschen die Hassbotschaften heraus. Sie müssen beurteilen, ob Mitteilungen gegen Gesetze verstoßen oder gegen Facebooks Gemeinschaftsstandards.

Facebooks Imageretter

Die Löschzentren sind Teil einer globalen Strategie, mit der Facebook sicherstellen will, dass sich das Netzwerk nicht zum Forum für Hass, Gewalt und Terrorismus entwickelt – und so auch zu einem Ziel staatlicher Regulierungen werden könnte. Der Skandal um den Missbrauch von Nutzerdaten im amerikanischen Wahlkampf hat Mark Zuckerbergs Bedürfnis noch einmal verstärkt, Jagd auf das Böse im Netzwerk zu machen.

Doch nichts sieht nach düsterer Teufelsaustreibung aus im Essener Löschzentrum: An den Fenstern kleben bunte Folien, Hollywood-Schaukeln stehen im Raum verteilt, auch eine Playstation, ein Kicker und eine Tischtennisplatte. Es ist der sogenannte „Funfloor“ – ein Aufenthaltsraum für erwachsene Kinder, wie ein Manager des Facebook-Partners CCC erklärt. Vor Wänden mit bunten Plakaten und dem optimistisch nach oben gereckten Facebook-Daumen sitzen Mitarbeiter und verbannen Hass, Mobbing, Gewalt.

Bis zum Ende des Jahres soll das Essener Löschteam auf 1000 Mitarbeiter anwachsen, zusammen mit Neueinstellungen in Berlin werden dann 2000 Menschen in Deutschland über das Netzwerk wachen. Weltweit steigt nach den Plänen von Mark Zuckerberg die Zahl derer, die sich mit der dunklen Seite des Freundesnetzwerks beschäftigen, auf 20.000.

Datenschutz: Bundesdatenschützerin Voßhoff fürchtet nach Facebook-Datenskandal ähnliche Vorfälle bei anderen Plattformen

Datenschutz

Bundesdatenschützerin Voßhoff fürchtet nach Facebook-Datenskandal ähnliche Vorfälle bei anderen Plattformen

Bundesdatenschützerin Andrea Voßhoff vermutet: Der Facebook-Skandal war der Anfang. Die neue EU-Datenschutzverordnung reiche als Prävention nicht aus.

Was müssen Mitarbeiter mitbringen, die sich täglich mit den Abgründen des Menschlichen beschäftigen?

Akademische Qualifikationen sind nicht erforderlich – psychologische Belastbarkeit und Vorurteilsfreiheit schon. Auch müssen die Mitglieder der Teams mindestens zweisprachig sein, müssen Englisch und eine weitere Sprache beherrschen, etwa deutsch, arabisch und russisch.

Es sei eine Einstellungsvoraussetzung, den jeweiligen Kulturkreises genau zu kennen, heißt es seitens des Managements. Schließlich erfordert die Analyse der Inhalte ein tiefes Verständnis von Wörtern oder Redewendungen, um beispielsweise Hassreden zu erkennen.

CCC-Mitarbeiter sagen, dass sie stolz darauf seien, die Öffentlichkeit vor derartigen Inhalten zu schützen. Zudem unternehme der „Partner“ Facebook viel, damit sie sich alle als Teil des Netzwerks fühlten – der Spirit des Silicon Valleys reicht dann doch bis nach Essen.

Psychologen stehen den Mitarbeitern zur Verfügung

Natürlich komme es vor, dass verstörende Inhalte auch den routiniertesten Hass-Jägern unter die Haut gingen – dann mache man eine kurze Pause, schnappe frische Luft, um das Gesehene zu verarbeiten. Zudem, versichert das Management, gäbe es fünf Psychologen am Standort, die den Mitarbeitern zur Verfügung stünden und schon den Bewerbungsprozess begleiteten. Die Krankenrate liege auch deshalb bei niedrigen drei Prozent, nur wenige verließen das Unternehmen stressbedingt.

Psychologische Betreuung ist dennoch ein Reizthema: Die Zustände beim Partner Arvato in Berlin sorgten 2016 für Schlagzeilen – es wurde nachgebessert.

Kommentar zu Facebook: Facebook-Chef Zuckerberg steckt in der Zwickmühle

Kommentar zu Facebook

Facebook-Chef Zuckerberg steckt in der Zwickmühle

Facebook muss beim Datenaustausch Strenge beweisen, um Politik und Nutzer zu besänftigen – Entwicklern und Kunden wird das nicht besonders gefallen.

Der Job scheint beliebt zu sein: Im Foyer drängen sich Bewerber für ein Assessment Center. Über die Bezahlung wird nicht gesprochen, nur so viel: Es gibt ein nicht näher erläutertes finanzielles Anreizsystem.

Die Mitarbeiter dürfen nicht fotografiert werden, keiner wird namentlich genannt, die Fensterscheiben der Büros sind undurchsichtig. Der Job ist sensibel – nicht nur wegen des Datenschutzes. Im April stiegen Mitglieder der „Identitären Bewegung“ aufs Dach des Gebäudes, in dem der Essener Löschtrupp arbeitet. Die Rechtsextremen zündeten Bengalos und rollten Banner mit der Aufschrift „Zensiert“ an der Fassade aus.

Radikalismus wie dieser findet zunehmend im virtuellen Raum statt – und die Antwort darauf kommt nicht immer aus Essen. Facebook beschäftigt an verschiedenen Standorten spezialisierte Teams, die sich zum Beispiel mit Hassrede, Mobbing oder Terrorismus beschäftigen.

Die Londonerin Erin Saltman ist Chefin von Facebooks Anti-Terror-Einheit für Europa, Afrika und den Nahen Osten. Sie setzt zunehmend auf technologische Lösungen, wie sie im Rahmen der Digitalkonferenz Republica dem Handelsblatt sagte: „Technologie hilft sehr im Einsatz gegen Terrorismus. Wir setzen Machine-Learning-Werkzeuge in Kombination mit menschlicher Expertise ein.“

„Ein Fall für die menschliche Beurteilungskraft“

Um etwa Inhalte des sogenannten Islamischen Staats oder Al-Qaida zu entdecken, nutze Facebook das sogenannte Foto- oder Videomatching: „Wir kreieren einen Hash, also einen digitalen Fingerabdruck. Wenn entsprechende Bilder und Videos hochgeladen werden, sagt uns die Datenbank Bescheid.“

Solche Inhalte werden allerdings auch von seriösen Nachrichtenformaten zitiert oder etwa von Menschenrechtsorganisationen geteilt, erklärt Saltman: „Sobald diese Inhalte mit Kontext gepostet werden, wird dies automatisch ein Fall für die menschliche Beurteilungskraft.“

Rund 200 Menschen weltweit arbeiten in verschiedenen Teams gegen Content aus dem Terrorumfeld. Dazu gehören ehemalige Staatsanwälte, Forensiker, Menschenrechtsanwälte oder Experten aus bestimmten Regionen – in jeder Zeitzone sitze jemand, der sich mit den Beschaffenheiten der Gegend genau auskenne und entsprechend reagieren könne, sagt Saltman.

Jeder internationale Konflikt finde eine Entsprechung in den sozialen Netzwerken, sagt Solana Larsen, Autorin des von der Mozilla Foundation herausgegebenen „Internet Health Report“: „Egal welchen großen Konflikt wir auf der Welt beobachten, Facebook wird oft missbraucht, um diesen zu schüren.“ Larsen ist davon überzeugt, dass Facebook nicht jedem davon dasselbe Maß an Aufmerksamkeit widmen könne: „Wer entscheidet also, welcher Konflikt beachtet wird und welcher nicht?“

Stefan Heumann, Vorstandsmitglied der Stiftung Neue Verantwortung, sieht noch ein weiteres Problem: „Facebooks Geschäftsmodell beruht darauf, dass Nutzer viel Zeit im Netzwerk verbringen“, sagt Heumann. „Gerade hoch emotionale Inhalte fesseln sie – und zu diesen emotionalen Inhalten gehören vor allem auch gefälschte Nachrichten und Hassbotschaften.“ Daher wurden diese von den Algorithmen der Plattform aufgegriffen und ihre Wirkung noch verstärkt, glaubt der Experte.

Zudem ist es ein Rennen gegen die Zeit, wie Facebooks ehemaliger Privatsphäre- und Policy-Berater Dipayan Ghosh vom US-Thinktank New America glaubt: Er zweifelt daran, dass das Silicon Valley seinen Kampf gegen schädliche Inhalte tatsächlich schnell gewinnen kann. „Die Verbreiter von Hassrede, politischer Desinformation und anderer böswilliger digitaler Inhalte passen sich an.“ Viel vom potenziellen Erfolg werde unter anderem von der Entwicklung von starken Algorithmen abhängen, die diese Inhalte aufspüren, glaubt Ghosh.

Bis es soweit ist, halten die Mitarbeiter in Essen die Stellung.

Direkt vom Startbildschirm zu Handelsblatt.com

Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.

Auf tippen, dann „Zum Startbildschirm“ hinzufügen.

×