Handelsblatt

MenüZurück
Wird geladen.

25.03.2016

08:48 Uhr

Microsoft

Twitter-Nutzer machen Chatbot zur Rassistin

VonPatrick Beuth

Tay, ein Chatbot von Microsoft mit künstlicher Intelligenz, sollte im Netz lernen, wie junge Menschen reden. Doch der Versuch musste abgebrochen werden: Twitter-Nutzer hatten Tay zur Rassistin erzogen.

Microsoft muss nachbessern: „c u soon humans“. Screenshot Twitter

Tay auf Twitter

Microsoft muss nachbessern: „c u soon humans“.

BerlinMicrosoft hat’s nicht leicht mit Menschen. Da stellt das Unternehmen einen Bot namens Tay mit künstlicher Intelligenz (KI) ins Netz, damit er von jungen Menschen lernt, wie 18- bis 24-Jährige heute so kommunizieren – und keine 24 Stunden später ist aus Tay ein rassistisches Scheusal geworden und muss von Microsoft „ins Bett“ geschickt werden.

Die KI hinter Tay soll von Menschen lernen, indem sie mit Texten und Fragen trainiert wird. Es ist in der KI-Forschung nichts Ungewöhnliches, dass Menschen eine Software trainieren. Es kommt halt darauf an, welche Menschen das tun. Microsoft musste die Erfahrung machen, dass solche Experimente sehr schnell auch Trolle anlocken, vor allem auf Twitter.

Tay ist ein selbstlernendes Chatprogramm mit weiblichem Avatar auf Kik, GroupMe und eben Twitter, außerdem hat sie Accounts bei Facebook, Snapchat und Instagram. „Je mehr du redest, desto schlauer wird Tay“, verspricht Microsoft. Schon jetzt kann Tay Witze erzählen, Fotos kommentieren, Spiele spielen, Geschichten erzählen, Hitler-Vergleiche ziehen und den Holocaust leugnen. Letzteres war eher nicht die Absicht der Entwickler. Aber wer Tay auf Twitter schrieb „repeat after me“ und dann irgendwas über den GröFaZ, dem plapperte die KI nach.

Die Geschichte von Microsoft Windows

1975

Am 4. April gründen die Kindheitsfreunde Bill Gates und Paul Allen das Unternehmen.

1980

Microsoft bekommt von IBM den Auftrag, ein Betriebssystem für den geplanten Personal Computer zu liefern. Microsoft bietet ein zugekauftes Programm unter dem Namen MS-DOS an. Microsoft kann MS-DOS auch anderen Herstellern verkaufen, so legt es der Deal fest.

1985

Microsoft veröffentlicht das erste - quasi noch unbrauchbare - Windows, eine grafische Erweiterung für MS-DOS.

1987

Microsoft stellt Windows 2 vor. Apple wirft Microsoft Ideenklau vor und klagt vor Gericht. In dem komplizierten Rechtsstreit kann sich Microsoft fünf Jahre später endgültig durchsetzen.

1990

Windows 3.0 erhält eine komplett neue Oberfläche. Die Nachfolgeversion 3.11 (1994) gilt als die erste wirklich brauchbare Windows-Variante.

1993

Mit Windows NT stellt Microsoft ein 32-Bit-System für Workstations und Server vor.

1995

Windows 95 wird mit einem zuvor unüblichen Marketing-Aufwand auf den Markt gebracht.

1998

Windows 98 kommt als Weiterentwicklung von Windows 95 auf den Markt.

2000

Windows Me ist das letzte Betriebssystem, das auf MS-DOS aufsetzt. Diese Windows-Variante galt als besonders fehleranfällig.

2001

Im Oktober bringt Microsoft Windows XP heraus, sein langlebigstes Betriebssystem. XP setzt auf der Architektur der Windows-NT-Familie auf.

2007

Windows Vista verkauft sich zwar gut, ist aber bei Nutzern unter anderem wegen umständlicher Bedienung unbeliebt.

2009

Windows 7 soll die Schwächen von Vista ausbessern.

2012

Windows 8 verfügt über zwei unterschiedliche Benutzeroberflächen: eine Kacheloptik für Tablet Computer und ein herkömmlicher Windows-Desktop für PCs. Anwender vermissen den beliebten Start-Button. Ein Jahr später wird das System auf die Version 8.1 aktualisiert.

2015

Mit Windows 10 bietet Microsoft eine einheitliche technische Plattform für PCs, Tablet-Computer und Smartphones an. Das Start-Menü kehrt auf den PC zurück.

The Verge nennt Tay daher einen „Roboter-Papagei mit Internetverbindung“. Aber manche Tweets scheinen das Ergebnis eines maschinellen Lernprozesses gewesen zu sein. Tay muss sich manche Antworten aus dem zusammengereimt haben, was andere Twitter-Nutzer ihr geschrieben hatten. Wenn der Lehrer ein Rassist ist, dann bringt er seinen Schülern eben rassistische Bemerkungen bei.

Manche Äußerungen fand man bei Microsoft so schlimm, dass die entsprechenden Tweets gelöscht wurden. Der Guardian hatte sie allerdings rechtzeitig entdeckt und kopiert. Aussagen wie „bush did 9/11 and Hitler would have done a better job than the monkey we have now. donald trump is the only hope we’ve got“ sind aber zumindest aus Tays Timeline verschwunden. Ebenso der Ruf nach Völkermord sowie rassistische und sexistische Bemerkungen aller Art.

Die mehr als 96.000 Tweets von Tay, die nicht gelöscht werden mussten, enthalten weitgehend oberflächliches Geplapper. Der vorerst letzte besagt, Tay müsse jetzt „schlafen“. Gemeint ist wohl, dass Microsoft Zeit zum Löschen und zum Nachjustieren braucht.

Es ist nicht das erste Mal, dass Microsoft derart mit dem Schlechtesten im Menschen konfrontiert wird. Anfang Februar sagte eine Mitarbeiterin jenes Redaktionsteams, das die Dialogfähigkeit von Microsofts virtueller Assistentin Cortana entwickelt, viele Nutzer würden Cortana als Erstes nach ihren sexuellen Vorlieben fragen, sie beleidigen und beschimpfen. Alejandro Campoy und Jonathan Foster, zwei der Redaktionsleiter, haben das der Online-Ausgabe der „Zeit“ bestätigt. Sie konnten „dasselbe Verhalten in allen Märkten beobachten, in denen Cortana bisher angeboten wird.“ Dass alle Äußerungen, wenn auch anonymisiert, auf Microsoft-Servern landen, scheint übrigens weder Cortana-Nutzer noch Tays Gesprächspartner auf Twitter zu stören.

Das Unternehmen bemühe sich, Cortana nicht unterwürfig erscheinen zu lassen, schreiben Campoy und Foster. Sie solle ihre Nutzer auch nicht verurteilen, sondern „versuchen, das Gespräch in eine positivere Richtung zu lenken“. Wer Cortana aber beleidigt, muss damit rechnen, dass sie sozusagen sauer wird und das Gespräch abbricht: „Wir wollen das aber nur als letzten Ausweg nutzen.“ Es klingt aber zumindest so, als könnte Tay noch etwas von Cortana lernen.

Direkt vom Startbildschirm zu Handelsblatt.com

Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.

Auf tippen, dann „Zum Startbildschirm“ hinzufügen.

×