Handelsblatt

MenüZurück
Wird geladen.

27.06.2017

13:44 Uhr

Facebook, Twitter, Youtube

Tech-Konzerne kämpfen gemeinsam gegen Terror

VonJohannes Steger

Facebook, Youtube, Twitter und Microsoft schmieden eine Allianz gegen den Terror. Sie wollen Inhalte voll Hass und Gewalt schneller löschen. Die Konzerne treibt nicht nur die gesellschaftliche Verantwortung an.

Die großen Tech-Konzerne wollen ihre Anstrengungen bündeln, um gegen Terrorinhalte auf ihren Plattformen vorzugehen. AP

Szene aus IS-Propagandavideo

Die großen Tech-Konzerne wollen ihre Anstrengungen bündeln, um gegen Terrorinhalte auf ihren Plattformen vorzugehen.

DüsseldorfHasspropaganda per Posting, Gräueltaten als Schnappschuss und Verabredungen zur Gewalt – die Welt der sozialen Netzwerke ist eben nicht nur der Ort der Katzenvideos, freien Meinungsäußerungen und grenzenloser Kommunikation, wie sie Konzerne wie Facebook und Google darstellen. Denn ihre Reichweite ist verlockend – auch für Terrororganisationen wie den Islamischen Staat (IS).

Facebook, Youtube, Microsoft und Twitter haben das offenbar erkannt: In einer gemeinsamen Erklärung bekunden die Tech-Konzerne die Absicht, ihre Anstrengungen bündeln zu wollen, um gegen Terrorinhalte auf ihren Plattformen vorzugehen. Das „Global Internet Forum to Counter Terrorism“ soll neue Technologien zur Anwendung bringen, kleineren Anbietern dabei helfen und mit Regierungen, supranationalen Organisationen und Nichtregierungsorganisationen zusammenarbeiten. Hinter der Ankündigung steckt jedoch mehr als bloße gesellschaftliche Verantwortung. Den Plattformen geht es um den Profit.

Nach den Terroranschlägen von London hatte die britische Premierministerin Theresa May angekündigt, islamistischen Extremismus härter bekämpfen zu wollen – und rief gemeinsam mit anderen Staaten dazu auf, das Internet stärker zu regulieren, um gegen entsprechende Inhalte vorzugehen. EU-Ratspräsident Donald Tusk sagte gar auf dem Gipfel der EU-Staats- und Regierungschefs: „Wir rufen die sozialen Medien auf, alles Nötige zu unternehmen, um die Verbreitung von terroristischem Material im Internet zu stoppen.“ Die Worte dürften als Donnerhall an der US-Westküste, wo Facebook oder Twitter ihren Sitz haben, wiedergeklungen sein.

Was man zu Hasskommentaren wissen sollte

Was ist „Hate Speech“?

Eine feste Definition des Begriffs „Hate Speech“ gibt es nicht. Gemeint sind allgemein Meinungsäußerungen, die bestimmte Personen oder Personengruppen herabsetzen und verunglimpfen sollen. In der politischen Debatte geht es nur um solche Formen von Hate Speech, die gegen Gesetze verstoßen, insbesondere gegen Paragraphen des Strafgesetzbuchs (StGB). Ein Beispiel ist § 130 des Strafgesetzbuchs (Volksverhetzung). Diese Vorschrift verbietet es, zum Hass gegen eine nationale, rassische, religiöse oder durch ihre ethnische Herkunft bestimmte Gruppe, gegen Teile der Bevölkerung oder gegen einen Einzelnen wegen seiner Zugehörigkeit zu einer solchen Gruppe aufzustacheln oder zu Gewalt gegen sie aufzufordern. Außerdem ist danach unter bestimmten Umständen die Leugnung des Holocaust strafbar.

Quelle: Bundesjustizministerium.

Wer definiert, welche Äußerungen rechtswidrige „Hate Speech“ sind?

Weder das Bundesjustizministerium noch die vom Ministerium eingerichtete Task Force prüfen, ob konkrete Inhalte gegen Gesetze verstoßen und entscheiden daher auch nicht über die Entfernung von rechtswidrigen Inhalten. Diese Prüfung führen die in der Task Force vertretenen Unternehmen vielmehr in eigener Verantwortung und in eigener Zuständigkeit durch. Die Unternehmen haben zugesagt, hasserfüllte Inhalte und Aufstachelung zu Gewalt einerseits auf ihre Gemeinschaftsrichtlinien ("Community Standards") hin und andererseits auf Grundlage des deutschen Rechts zu überprüfen, sobald ihnen konkrete Inhalte dieser Art gemeldet worden sind.

Welche Themen werden betrachtet?

Thema der Task Force ist ganz generell der Umgang mit rechtswidrigen Hassbotschaften im Internet. Die Diskussion ist nicht auf rechtsextremistische Inhalte beschränkt, sondern umfasst rechtswidrige Aufrufe zu Hass und Gewalt unabhängig von ihren Motiven oder den Personen, gegen die sie sich richten. Fragen im Zusammenhang mit der Löschung konkreter Beiträge können nur die Unternehmen beantworten.

Verstößt die Löschung von Hassbotschaften gegen die Meinungsfreiheit?

In Deutschland gilt Meinungs- und Pressefreiheit. Das ist im Grundgesetz verankert. In Absatz 2 des entsprechenden Artikels 5 steht allerdings auch: „Diese Rechte finden ihre Schranken in den Vorschriften der allgemeinen Gesetze, den gesetzlichen Bestimmungen zum Schutze der Jugend und in dem Recht der persönlichen Ehre.“ Das heißt: Niemand darf sein Recht auf Meinungsfreiheit dafür nutzen, die Rechte anderer zu verletzen, zum Beispiel, indem er gegen sie hetzt, zu Gewalt aufruft oder sie verleumdet. Diese Gesetze gelten - sie müssen in sozialen Netzwerken aber konsequenter als bislang zur Anwendung kommen. Und nur darum geht es: Dass Kommentare, die gegen das Strafrecht verstoßen, gelöscht werden.

Wie unterscheidet sich das Löschen von rechtswidriger „Hate Speech“ von der Strafverfolgung?

Die Strafverfolgung dient dazu, den verantwortlichen Autor zur Rechenschaft zu ziehen. Dies ist Sache der zuständigen Strafverfolgungsbehörden. Die Staatsanwaltschaften werden Anzeigen schnell prüfen und zur Anklage bringen, wenn die Voraussetzungen hierfür gegeben sind. Ziel des Löschens von rechtswidrigen Beiträgen ist es, für eine angemessene Kommunikationskultur zu sorgen und die vom Hass betroffenen Gruppen und Personen zu schützen. Die beiden Ziele ergänzen sich.

In welchem Verhältnis steht das Vorgehen der Task Force zum normalen Rechtsweg?

Die Task Force nimmt keine Prüfung von Inhalten vor und entscheidet auch nicht über die Entfernung von strafbaren Inhalten. Die strafrechtliche Verfolgung von Hasskriminalität im Internet obliegt den zuständigen Strafverfolgungsbehörden.

Am Montag gaben die sozialen Netzwerke mit der Videoplattform Youtube und dem Tech-Konzern Microsoft eine gemeinsame Erklärung heraus: Man nehme die Angelegenheit ernst, jedes der Unternehmen hätte entsprechende Richtlinien und Beseitigungsverfahren entwickelt. Diese sollen es möglich machen, mit einer harten Linie gegen extremistische und terroristische Inhalte vorzugehen. Nun will man die Kräfte bündeln und auch mit der Zivilgesellschaft, Forschungseinrichtungen, Regierungen und Institutionen wie der EU und der UN zusammenarbeiten. Dafür sollen unter anderem technologische Anwenderbeispiele untereinander ausgetauscht werden und die Forschung vertieft werden. Zugleich wolle man Wissen mit Organisationen und kleineren Unternehmen teilen. Initiativen der Gegenrede („Counter-Speech“) sollen verstärkt werden.

Der Kampf gegen den Terror ist nicht neu: Facebook hatte zum Beispiel zuletzt angekündigt, in Zukunft auf künstliche Intelligenz setzen zu wollen. Die intelligente Software könne in Zukunft „potentielle terroristische Inhalte und Profile schneller finden, als es Menschen möglich ist“, teilte Firmenchef Mark Zuckerberg auf Facebook mit.

Algorithmen zur Text- und Bildanalyse sollen auf diese Weise erkennen, ob einmal verbannte Inhalte erneut im sozialen Netzwerk hochgeladen werden. Eine Software zur Bild- und Videoerkennung gleicht Aufnahmen mit in Datenbanken hinterlegten Fotos oder Videos bekannter Terroristen ab. Auch Google setzt auf Künstliche Intelligenz: Zuletzt kündigte die Suchmaschine an, mehr Entwickler und selbstlernende Maschinen einsetzen zu wollen. Vor allem auf Youtube sollen Videos mit terroristischem Inhalt aufgespürt werden. Auch die Zahl der Experten, die sich mit solchen Inhalten beschäftigen, soll erhöht werden.

Direkt vom Startbildschirm zu Handelsblatt.com

Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.

Auf tippen, dann „Zum Startbildschirm“ hinzufügen.

×