MenüZurück
Wird geladen.

16.05.2018

02:19

Hassreden, Gewalt, Propaganda

So viele verbotene Inhalte hat Facebook im ersten Quartal 2018 gelöscht

Der Online-Riese bemüht sich um Transparenz: Erstmals veröffentlicht Facebook Zahlen bei der Durchsetzung seiner Nutzungsregeln.

Facebook bemüht sich um mehr Transparenz bei der Durchsetzung der Nutzungsregeln. Reuters

Facebook

Facebook bemüht sich um mehr Transparenz bei der Durchsetzung der Nutzungsregeln.

Menlo Park, New YorkFacebook hat erstmals ausführliche Zahlen zu seinen Bemühungen zur Durchsetzung der Nutzungsregeln veröffentlicht. Der Online-Riese hat im ersten Quartal 2018 bei insgesamt rund 2,2 Milliarden aktiven Nutzern 837 Millionen Spam-Inhalte sowie 583 Millionen gefälschte Profile gelöscht, wie aus einem Transparenzbericht hervorgeht. Mehr als 98 Prozent davon seien entdeckt worden, noch bevor Nutzer sie sehen konnten.

Facebook unterteilt potenziell verbotene Inhalte in sechs Kategorien: grafische Gewalt, Nacktheit und sexuelle Aktivitäten von Erwachsenen, terroristische Propaganda, Hassreden, Spam und falsche Konten.

Dem Bericht nach seien im vergangenen Quartal fast 1,8 Millionen Inhalte gelöscht worden, die als Terrorpropaganda identifiziert wurden. Ein Anstieg gegenüber dem Vierteljahr zuvor, als das Unternehmen noch 1,1 Millionen Inhalte löschte. Laut Facebook sei die höhere Zahl auf die verbesserte Technologie zurückzuführen.

Nach Datenskandal: Facebook verdächtigt bei zahlreichen Apps Missbrauch von Daten

Nach Datenskandal

Facebook verdächtigt bei zahlreichen Apps Missbrauch von Daten

Der Datenskandal beschäftigt Facebook weiterhin. Nach „gründlicher Untersuchung“ werden nun 200 Apps von der Plattform verbannt.

Rund 2,5 Millionen Inhalte wurden gelöscht, die in die Kategorie Hassreden fallen. Facebooks Technologie entdeckte davon allerdings nur 38 Prozent. Im Vierteljahr davor waren es 1,6 Millionen Inhalte, wovon der Konzern knapp 23,6 Prozent erkannte, bevor Nutzer sie melden konnten. Die restlichen Inhalte mit Hassreden mussten von Menschen ausgemacht werden, teilte das Unternehmen mit.

Erfolgreicher war die Technologie in der Kategorie „grafische Gewalt“. Facebook identifizierte 86 Prozent der insgesamt 3,5 Millionen betroffenen Inhalte, die gelöscht wurden. Facebook löschte zudem 21 Millionen Inhalte mit Nacktheit und sexueller Aktivität, 96 Prozent davon wurden aufgrund der verbesserten Technologie erkannt, wie das Netzwerk mitteilte.

Was das Unternehmen als „Inhalt“ versteht, kann variieren. So wird ein Facebook-Eintrag mit einem Text und vier Fotos zunächst einmal als fünf „Inhalte“ gezählt. Wenn zum Beispiel drei der Bilder entfernt werden, sind das drei gelöschte „Inhalte“. Wird aber der Facebook-Eintrag komplett entfernt, taucht er in der Statistik als nur ein gelöschter „Inhalt“ auf.

Kommentare (1)

Selber kommentieren? Hier zur klassischen Webseite wechseln.  Selber kommentieren? Hier zur klassischen Webseite wechseln.

Herr Holger Narrog

16.05.2018, 09:34 Uhr

Interessant ist die Vermischung von politischer Zensur die in Deutschland von > 700 MA einer Bertelsmann Tochter (Linker Verlag) vorgenommen wird, in der Türkei von einer fast gleich grossen Stelle unternommen wird, Terrorismusaffinen Seiten die möglicherweise von Sicherheitsbehörden zensiert werden (schade dass es keine Berichterstattung hierzu gibt) und Algorithmen die Nutzungsregeln überwachen.

Ziel ist anscheinend die politische Zensur harmloser aussehen zu lassen.

Direkt vom Startbildschirm zu Handelsblatt.com

Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.

Auf tippen, dann „Zum Startbildschirm“ hinzufügen.

×