Handelsblatt

MenüZurück
Wird geladen.

02.07.2017

14:01 Uhr

Bot-Expertin

„Bumm, dann war der Chatbot tot“

VonJohannes Steger

Justine Cassell ist Professorin an der Carnegie Mellon University und Expertin für Künstliche Intelligenz. Im Interview spricht sie über den Einfluss von Bots, die ethischen Regeln für Maschinen und die Sesamstraße.

Müssen sich Menschen vor den Bots fürchten? obs

Chatbots im E-Commerce

Müssen sich Menschen vor den Bots fürchten?

Justine Cassell ist Professorin an der renommierten Carnegie Mellon University und beschäftigt sich seit Jahren mit Künstlicher Intelligenz und selbstlernenden Maschinen und Chatbots. Letztgenannte sollen schon in naher Zukunft unser Kommunikationsverhalten mit Unternehmen verändern: Die intelligenten Maschinen sollen zum Beispiel im Kundenservice Fragen beantworten und Probleme lösen. Zu ihren Forschungsarbeiten gehören auch Bots, die menschliche Emotionen und Sprache erkennen können. Auf dem Chatbot-Summit in Berlin Anfang der Woche durfte die Technologie-Wissenschaftlerin daher nicht fehlen.

Frau Professor Cassell, es sieht so aus, als gehe gerade jeder davon aus, dass Bots die nächste digitale Revolution bringen werden. Ist das so? Was wird sich durch Bots verändern?
Bei der Sache mit der Revolution muss ich leider sagen: Das ist ehrlicherweise das dritte Mal, dass ich diese Revolution erlebe. Das ist interessant, denn der erste Chatbot wurde bereits Mitte der 1960er-Jahre entwickelt. Ihr Name war Eliza und sie wurde bis Mitte der 1990er-Jahre ignoriert. Dann sprachen plötzlich alle über den „virtuellen Menschen“. Es gab damals einen automatisierten Nachrichtensprecher. Ähnliches passierte im Jahr 2000, ebbte dann aber wieder schnell ab. Ich denke, dass jetzt eine Revolution bevorsteht, aber es sind nicht die Chatbots per se, weil wir die schon vorher gesehen haben. Es liegt an der Tatsache, dass wir Chatbots bauen können, die tatsächlich in der Lage sein können eine echte Unterhaltung mit einem Menschen zu führen.

Wie ist das möglich?
Selbstlernende Maschinen treiben viele Fortschritte an. Früher einmal mussten wir die Regeln für Chatbots in Handarbeit festlegen. Man konnte vielleicht eine kurze Unterhaltung führen, aber wenn der Mensch plötzlich eine unvorhergesehene Frage stellte – bumm, dann war der Chatbot tot. Jetzt sind wir in der Lage, riesige Datensets zu verwenden, davon zu lernen und Chatbots zu bauen, die dadurch flexibler sind.

Die Professorin leitet den Fachbereich Mensch-Computer-Interaktion an der Carnegie Mellon University. Presse

Justine Cassell

Die Professorin leitet den Fachbereich Mensch-Computer-Interaktion an der Carnegie Mellon University.

Was unterscheidet also Chatbots heute von ihrer Ahnin Eliza aus den 1960er-Jahren?
In der Vergangenheit hatten wir Dialogsysteme, mit denen kein Smalltalk möglich war. Sie nutzen Techniken, die so angelegt sind, dass der Mensch mit ihrer Hilfe ein Ziel erreichen kann. Sie müssen lediglich diese Ziele erkennen, um sie umzusetzen. Heute geht es darum, dieses Dialogsystem und einen intelligenten Chatbot zusammenzubringen. Daran arbeite ich mit meinen Studenten.

Was wird das bringen?
Wir sagen immer, dass Unterhaltung zwei Ziele verfolgt. Das erste ist, eine Aufgabe zu erfüllen. Das zweite Ziel ist der zwischenmenschliche Austausch. Das ist der Grund warum wir ein Instrumentarium bauen müssen, dass beide Bedürfnisse erkennt. Ist der Gegenüber zum Beispiel jemand, der Distanz halten möchte? Wird man zu persönlich, wird die gestellte Aufgabe nicht mehr effektiv genug ausgeführt. Oder jemand schätzt es locker, dann muss der Bot über die Zeit hinweg vertrauter in der Ansprache werden. Es ist doch lächerlich: Jedes Mal wenn ich meinen Sprachassistenten auf dem Smartphone öffne, stellt er sich aufs Neue vor. Danke Dir, ich kenne Dich, schließlich nutze ich Dich schon über ein Jahr lang. Das muss sich mit der Zeit verändern.

Aber wie kann eine Maschine jemanden wieder oder etwa die emotionale Verfassung eines Nutzers erkennen?
Um ein funktionierendes soziales Dialogsystem zu bauen, nutzen wir Sprachinhalte, die akustischen Aspekte von Sprache, wie etwa Lautstärke oder Sprachgeschwindigkeit. Und wenn der Bot das Gegenüber sehen kann, ist das Dritte die nonverbale Information. Lächelt das Gegenüber? Wohin schauen die Augen? Das alles macht das System so sozial aufmerksam, dass der Mensch die gleichen Verhaltensweisen im Gespräch an den Tag legen wird, als wäre sein Gegenüber ein anderer Mensch. Er wird also nicht die ganze Zeit darüber nachdenken, wie er einem Computer sein Anliegen verständlich machen kann oder gar selbst wie einer zu sprechen, damit seine Wünsche erfüllt werden.

Wenn Chatbots so mit uns interagieren: Was wird das in unserer Beziehung zu Marken verändern?
Wir wissen, dass diese Art von sozialer Aufmerksamkeit, Vertrauen und Beziehung stärkt. Das bedeutet, dass Du Dein Vertrauen automatisch einer Marke schenkst, weil Du das Gefühl hast, dass sie Dich kennt. Studien zeigen: Verwendest Du Teile von Small-Talk in der Konversation einer Maschine, wird sich der Mensch besser und verstanden fühlen. Wenn eine Marke das schafft, hat sie gewonnen.

Das zeigt aber auch den Aspekt von Beeinflussung von Kunden. Technologie selbst ist neutral, erst ihre Verwendung bestimmt, ob sie gut oder schlecht ist. Was sind also die Gefahren von Bots?
Ich bin es leid, dass Leute Technologie als böse bezeichnen. Sie ist es nicht, aber Sie haben Recht, es gibt Gefahren. Wir können Bots verwenden um Bedürfnisse von Menschen zu erfüllen, aber wir können sie auch nutzen, um ihnen falschen Informationen zu geben und sie zu beeinflussen.

Brauchen wir also eine Art von Regulierung von Bots?
Ich persönlich halte einen Top-Down-Ansatz für den falschen Weg. Wir brauchen eine Erziehung von Computerwissenschaftlern, Unternehmen und der Öffentlichkeit darüber, wie Bots arbeiten und wer sie sind. Aber das ist wirklich kein neues Phänomen.

Warum? Bots, die Einfluss nehmen, sind offenbar ziemlich neu...
Erinnern Sie sich mal an TV-Werbung, die gibt es schon ziemlich lange. In den frühen 1960er-Jahren gab es eine Gruppe von militanten Eltern, die Werbung für zuckerhalte Frühstücksflocken während des Kinderfernsehprogramms verbieten ließen, weil sie ziemlich effektiv war. Am Ende wurden die Kinder älter und kauften sich die süßen Sachen selber, weil es verboten war, als sie Kind waren. Also wäre es nicht besser ein TV-Programm zu schaffen, das über gesunde Ernährung informiert? Am Ende gründeten genau diese militanten Eltern den Childrens Television Workshop – den wir heute als „Sesamstraße“ kennen. Ich denke, dass es mit den Bots genauso ist: Wir brauchen Bildung, die uns beibringt, wie wir mit Künstlicher Intelligenz umgehen müssen.

Lexikon der Künstlichen Intelligenz

Schwer definierbarer Begriff

Die wissenschaftliche Disziplin Künstliche Intelligenz (KI) begründete der Forscher John McCarthy. Er lud 1955 zu einer Konferenz an der Darthmouth-Universität in New Hampshire ein, um über Maschinen zu diskutieren, die „Ziele in der Welt erreichen können“. Die Definition ist allerdings bis heute umstritten – schon weil Intelligenz an sich schwer abgrenzbar ist.

Starke KI

Unser Bild von Künstlicher Intelligenz wird geprägt von Filmen wie „Terminator“ oder „Her“, in denen Elektronenhirne ein Bewusstsein haben und selbständig agieren – Experten sprechen von starker KI. Die Technik ist bislang weit von solchen Visionen entfernt, verbreitet aber Angst und Schrecken. Was, wenn die Maschinen schlauer werden als die Menschen und sich über sie erheben?

Schwache KI

In der Realität zu finden ist derzeit lediglich schwache KI. Dabei handelt es sich um Systeme, die einzelne Fähigkeiten des Menschen abbilden, etwa die Spracherkennung oder Herstellung von inhaltlichen Zusammenhängen. Sie wären jedoch nicht in der Lage, die Ergebnisse zu verstehen oder inhaltlich zu diskutieren.

Maschinelles Lernen

Die derzeit erfolgreichste Spezialdisziplin der KI ist das maschinelle Lernen. Dabei leitet der Computer aus Daten weitgehend selbständig Muster und Erkenntnisse ab. Zum Einsatz kommt die Technologie etwa bei der Sprach- und Objekterkennung – und damit an vielen Stellen, von digitalen Assistenten auf dem Smartphone bis zum autonomen Fahrzeug.

Neuronale Netze

Beim maschinellen Lernen verwenden Forscher und Entwickler häufig künstliche neuronale Netze, die das Gehirn als Vorbild nehmen. Die Methode ist davon inspiriert, dass es im Denkorgan viele Verbindungen und Schichten gibt, die Informationen verarbeiten. Der Computer simuliert diese Struktur. Mit dem menschlichen Denken hat das nur entfernt zu tun: Es handelt sich um komplexe statistische Modelle.

Deep Learning

Als Deep Learning bezeichnen Experten eine Methode des maschinellen Lernens. Dabei kommen neuronale Netze mit vielen Schichten zum Einsatz – so entsteht die namensgebende Tiefe. Die Technologie ist vielversprechend und kommt bereits auf breiter Basis zum Einsatz. Damit sie funktioniert, sind jedoch große Datenmengen nötig, sie dienen als Trainingsmaterial fürs künstliche Gehirn.

Aber welche Regeln gelten für Bots?
Eine ist: Erschaffst Du einen Bot, der unglaublich echt aussieht? Ich tue das nicht. Meine sehen aus wie Cartoons. Oder versuchst Du den Menschen auszutricksen, damit er denkt, dass er mit einem echten Menschen spricht? Bist Du ehrlich, was Dein Bot kann? Meine Bots sagen zum Beispiel immer „Oh, das ist eine exzellente Idee, darüber werde ich mit meinen Entwicklern sprechen“ oder „Es tut mir leid, niemand hat mir einen Code beigebracht, das zu tun.“ Es zeigt sich in Experimenten zu Mensch-Maschine-Interaktion, dass diese Offenheit Vertrauen in das System steigert. Es geht bei allem um Klarheit und Transparenz.

Professor Cassel, vielen Dank für das Interview.

Direkt vom Startbildschirm zu Handelsblatt.com

Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.

Auf tippen, dann „Zum Startbildschirm“ hinzufügen.

×