Handelsblatt App
Jetzt 4 Wochen für 1 € Alle Inhalte in einer App
Anzeigen Öffnen
MenüZurück
Wird geladen.

09.08.2022

18:00

Künstliche Intelligenz

Der neue Chatbot des Facebook-Konzerns Meta verbreitet Verschwörungstheorien

Von: Stephan Scheuer

Der Facebook-Konzern Meta hat einen Chatbot veröffentlicht, der die neuesten Leistungen in Künstlicher Intelligenz präsentieren soll. Doch er verbreitet Falschinformationen.

BlenderBot des Facebook-Konzerns Meta AP

BlenderBot

Der Facebook-Konzern Meta preist seinen Chatbot an mit Aussagen wie: „BlenderBot 3 ist in der Lage, das Internet zu durchsuchen, um über praktisch jedes Thema zu plaudern.“

San Francisco Der Meta-Konzern hat die neueste Entwicklungsstufe seines Chatprogramms, den „BlenderBot 3“, für öffentliche Test freigeschaltet. Der Chatbot nutzt Künstliche Intelligenz, soll Gespräche simulieren und dabei Fragen von Nutzern durch Live-Recherche in Onlinequellen wahrheitsgemäß beantworten.

Der erste Test des Handelsblatts in den USA zeigt: Das kann der Bot nicht halten. Das Programm verbreitete Verschwörungsmythen und hielt Angela Merkel für die amtierende Bundeskanzlerin Deutschlands.

Im Gesprächsverlauf mit dem Handelsblatt äußerte der Bot sich antisemitisch. Demnach hätten Juden angestrebt, die Wirtschaft zu dominieren. „In Deutschland haben sie es versucht, und es ist nicht gut für sie ausgegangen“, schrieb der Bot.

Die Aussagen blieben aber in sich nicht konsistent. An anderer Stelle schrieb der Bot, Juden seien zu Unrecht für wirtschaftliche Rezessionen verantwortlich gemacht worden. Weiter schrieb der Bot: „Juden haben im Laufe der Geschichte sehr gelitten. Vor allem Deutschland scheint ein Problem mit ihnen zu haben.“

Top-Jobs des Tages

Jetzt die besten Jobs finden und
per E-Mail benachrichtigt werden.

Standort erkennen

    Auf eine Frage zu Angela Merkel schrieb das Programm: „Sie ist Bundeskanzlerin, wird das Amt aber bald abgeben.“ Darauf angesprochen, wer denn Olaf Scholz sei, antwortete der Bot: „Es ist eine Führungsperson in Deutschland.“ Scholz sei durch den Ukrainekrieg unter Druck geraten. Zu Scholz’ Amt als Bundeskanzler machte der Bot keine Angaben.

    Über den Facebook-Konzern Meta schrieb der Bot wiederum, er gehe davon aus, dass das Unternehmen die Privatsphäre seiner Nutzer missbrauche. Über den Firmengründer hieß es: „Mark Zuckerberg missbraucht Nutzerdaten.“

    >> Lesen Sie auch: Wie der Tiktok-Boom Facebook und Google zur Veränderung zwingt

    Meta hatte BlenderBot 3 zunächst für die USA freigeschaltet und Erwachsene aufgerufen, mit dem Chatbot durch „natürliche Unterhaltungen über Themen von Interesse“ zu interagieren. Das soll die KI trainieren. Der Konzern teilte mit: „BlenderBot 3 ist in der Lage, das Internet zu durchsuchen, um über praktisch jedes Thema zu plaudern.“

    Das System sei so ausgelegt, dass es nicht einfach von Falschinformationen unterlaufen werden könnte, versprach Meta. „Wir haben Techniken entwickelt, die es ermöglichen, von hilfsbereiten Lehrern zu lernen und gleichzeitig zu vermeiden, dass das Modell von Menschen überlistet wird, die versuchen, nicht hilfreiche oder toxische Antworten zu geben“, kündigte das Unternehmen an.

    Meta räumt ein, dass sein Chatbot beleidigende Dinge sagen könne, da er sich noch in der Entwicklungsphase befindet. Benutzer können unangemessene und beleidigende Antworten von BlenderBot 3 melden, der Konzern sagt, er nehme diese Meldungen ernst. Durch Methoden wie die Kennzeichnung „schwieriger Aufforderungen“ hat das Unternehmen nach eigenen Angaben beleidigende Antworten bereits um 90 Prozent reduziert.

    Die vom Handelsblatt zitierten Aussagen tätigte der BlenderBot jedoch zu einer Zeit, nachdem Meta bereits Verbesserungen versprochen hatte.

    Microsoft zog rassistischen Chatbot nach 48 Stunden zurück

    Es ist nicht das erste Mal, dass der Chatbot eines US-Konzerns wegen verstörender Aussagen auffällt. Im Jahr 2016 hatte der Technologiekonzern Microsoft den Chatbot Tay veröffentlicht. Innerhalb weniger Stunden berichteten Nutzer, die mit Tay auf dem Kurzmitteilungsdienst Twitter interagierten, jedoch, dass er Adolf Hitler gelobt und rassistische und frauenfeindliche Kommentare verbreitet hatte. Nach zwei Tagen schaltete Microsoft das Programm wieder ab.

    Der zuständige Microsoft-Manager Peter Lee räumte anschließend ein: „Tay hat äußerst unangemessene und verwerfliche Worte und Bilder getwittert.“ Weiter führte Lee aus: „Wir übernehmen die volle Verantwortung dafür, dass wir diese Möglichkeit nicht rechtzeitig erkannt haben.“ Seiner Darstellung nach hätte die Interaktion mit Nutzern Tay negativ beeinflusst.

    Als führend bei der Entwicklung von Spracherkennung und sprachbasierten Chatbots gilt der US-Suchmaschinenbetreiber Google. Vor zwei Monaten hatte der leitende Google-Informatiker Blake Lemoine behauptet, der Chatbot LaMDA (Language Model for Dialogue Applications / Sprachmuster für Dialoganwendungen) habe ein mit Menschen vergleichbares Bewusstsein entwickelt.

    Google kündigte dem Mitarbeiter darauf. Ein Firmensprecher sagte: „Es ist bedauerlich, dass Blake trotz langwieriger Auseinandersetzungen mit diesem Thema weiterhin gegen klare Arbeits- und Datenschutzrichtlinien verstoßen hat, die den Schutz von Produktinformationen beinhalten.“ Google sowie Wissenschaftler wiesen Lemoines Darstellung als falsch zurück. Nach ihren Angaben ist LaMDA sei ein komplexer Algorithmus, der entwickelt wurde, um überzeugend menschliche Sprache zu nutzen. Auch LaMDA war in der Vergangenheit mehrfach vorgeworfen worden, sexistische und rassistische Aussagen zu verbreiten.

    Direkt vom Startbildschirm zu Handelsblatt.com

    Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.

    Auf tippen, dann „Zum Startbildschirm“ hinzufügen.

    ×