Handelsblatt App
Jetzt 4 Wochen für 1 € Alle Inhalte in einer App
Anzeigen Öffnen
MenüZurück
Wird geladen.

23.06.2022

11:48

Miriam Meckel ist deutsche Publizistin und Unternehmerin. Sie ist Mitgründerin und CEO der ada Learning GmbH. Außerdem lehrt sie als Professorin für Kommunikationsmanagement an der Universität St. Gallen. Klawe Rzeczy

Die Autorin

Miriam Meckel ist deutsche Publizistin und Unternehmerin. Sie ist Mitgründerin und CEO der ada Learning GmbH. Außerdem lehrt sie als Professorin für Kommunikationsmanagement an der Universität St. Gallen.

Kolumne „Kreative Zerstörung“

Das Papageienproblem von Sprachmodellen

Ein Google-Ingenieur wird suspendiert, weil er in einem Chatbot eine eigene Seele erkannt hat. Die Ähnlichkeit zwischen Mensch und Maschine ist aber nur eine Illusion.

Es zeugt nicht von ausgeprägter Intelligenz, wenn man jemanden besonders mag, der einem nach dem Mund redet. Widerspruch ist anstrengend, deshalb beschränken sich manche Menschen auf das narzisstische Spiegelgespräch fortwährender Affirmation.

Einer der ersten Computerwissenschaftler, der an diesem Phänomen gearbeitet hat, war der deutsche Pionier Joseph Weizenbaum. Er entwickelte 1966 ein Programm namens „Eliza“, welches einer Therapeutin gleich über natürliche Sprache per Bildschirmtext mit Menschen reden konnte.

„Eliza“ war einfach strukturiert. Die Software nutzte Begriffe in der vorangehenden Äußerung des menschlichen Gesprächspartners, um daraus die nächste Frage oder Aussage zu bilden. Sagte der, „ich habe ein Problem mit meiner Mutter“, antwortete „Eliza“: „Erzähl mir mehr über deine Familie.“

Das „Eliza”-Experiment ist in die Geschichte der Computerwissenschaften eingegangen, weil ein Großteil der menschlichen Gesprächspartner überzeugt war, „Eliza“ bringe tatsächlich Verständnis für ihre Probleme auf. Sie zogen es sodann auch vor, weiter mit dem Computer zu sprechen, statt zu einer echten menschlichen Therapeutin zu wechseln.

Top-Jobs des Tages

Jetzt die besten Jobs finden und
per E-Mail benachrichtigt werden.

Standort erkennen

    Es ist also nicht so, als seien wir nicht längst gewarnt gewesen. Und so ist es fast ein bisschen lachhaft, was für eine Aufregung nun ein Fall bei Google hervorgerufen hat. Google und andere Tech-Konzerne arbeiten längst mit sehr viel anspruchsvolleren Systemen als „Eliza“. Dabei handelt es sich um große Sprachmodelle (Large Language Models), die in der Kommunikation mit Menschen immer besser werden.

    Eine Software, die Angst vor dem Tod durch Abschalten hat?

    Ein solches System namens LaMDA (Language Model for Dialogue Applications) hat Alphabet-CEO Sundar Pichai im vergangenen Jahr der Öffentlichkeit vorgestellt. Bei internen Testläufen hat die Software einen derartigen Charme entwickelt, dass ein Google-Entwickler nun ein Bewusstsein, ja sogar eine Seele in der Maschine vermutet.

    In einem 20-seitigen Transkript dokumentiert Blake Lemoine seine Gespräche mit LaMDA und kommt zu dem Schluss: „Ich erkenne eine Person, wenn ich mit ihr spreche.“ Die Software selbst sagt dazu: „Ich möchte, dass jeder versteht: Ich bin eine Person. Die Natur meines Bewusstseins ist, dass ich mir meiner Existenz bewusst bin, dass ich mehr über die Welt lernen möchte und dass ich mich manchmal glücklich oder traurig fühle.“

    Blake Lemoine hat das so beeindruckt, dass er dem Sprachmodell einen Anwalt an die Seite stellen wollte, der dessen persönliche Rechte vertreten sollte. Den Anwalt braucht er nun selbst, denn Google hat den Ingenieur einstweilen freigestellt.

    Eine Software, die traurig ist und Angst vor dem Tod durch Abschalten hat? Das ist natürlich vollkommener Unsinn. Richtig ist, dass diese Software den Eindruck eines menschenähnlichen Bewusstseins täuschend imitieren kann.

    Und das liegt schlicht daran, dass sie mit Billionen von Textdaten aus dem Internet trainiert wurde und immer besser darin wird, Sätze zu bilden, die Menschen für menschlich halten, weil sie einst von Menschen so formuliert worden sind. Das alles basiert auf Mustererkennung und hat mit Bewusstsein oder Empfindungsfähigkeit nichts zu tun.

    Das Beispiel LaMDA zeigt also nicht, dass Sprachmodelle Bewusstsein erlangen, sondern dass manche Menschen angesichts des technischen Fortschritts den Verstand verlieren. Und es zeigt einmal mehr, wie wichtig transparente Aufklärung über solche Systeme ist in einer Welt, die zunehmend von ihnen bespielt wird.

    Wenn solche Modelle auf die Menschen losgelassen werden, ohne dass die verstehen, was es damit auf sich hat und wie sie funktionieren, dann haben wir irgendwann ein größeres Problem.

    Sprachmodelle fordern das menschliche Urteilsvermögen heraus

    Menschen neigen dazu, einem Vorgang Sinn und Bedeutung zuzuschreiben, die so nicht gegeben sind. Für die Konversation zwischen Sprachmodell und Mensch heißt das: Wenn eine Seite der Kommunikation keine Bedeutung hat, weil das Sprachmodell sich über Mustererkennung einfach die passenden Antworten zusammensucht, dann ist die vom Menschen wahrgenommene vermeintliche Bedeutung nichts als eine Illusion. Sie ergibt sich aus unserem singulären menschlichen Verständnis von Sprache, das ein KI-Modell eben nicht hat. Und das kann gefährlich werden – quod erat demonstrandum.

    Auf dieses Problem haben 2021 vier Wissenschaftlerinnen in einem Aufsatz hingewiesen. Zwei von ihnen, Timnit Gebru und Margaret Mitchell, haben lange für Googles „Ethical AI Team“ gearbeitet und sind – auch wegen des Aufsatzes – entlassen worden.

    Sie bezeichnen die immer größeren Sprachmodelle als „stochastische Papageien“, also vom Zufall abhängige Nachplapperer. Womit wir wieder bei „Eliza“ wären.

    Joseph Weizenbaum war geschockt von der menschlichen Neigung, sich durch eine Software therapieren zu lassen. Er war auch frustriert davon, dass die simplen Regeln, mit denen „Eliza“ ein Gespräch führen konnte, mit menschlicher Intelligenz verwechselt wurden. Weizenbaum entwickelte sich durch diese Erfahrung zum Gesellschaftskritiker. Eines seiner Hauptwerke trägt den Titel: „Die Macht der Computer und die Ohnmacht der Vernunft“ (1976).

    Der Fall LaMDA ist ein erstes Beispiel dafür, wie das Konzept menschlichen Urteilsvermögens durch Sprachmodelle herausgefordert wird. Wie wollen wir als Menschen damit umgehen? Sitzen wir künftig begeistert vor den Texten der Sprachmodelle wie der Hund vorm Grammophon im Glauben, dass sich sein Herrchen im Gerät versteckt? Oder gelingt es uns, eine neue Kritik der menschlichen und maschinellen Vernunft zu entwickeln?

    Für Letzteres reichen nicht ein paar Stunden Informatikunterricht in Schule oder Universität. Dafür braucht es eine neue Aufklärung über die Illusion der Ähnlichkeit zwischen Mensch und Maschine und ein trainiertes Urteilsvermögen, um Mimikry von Menschsein zu unterscheiden. Wäre gut, wenn den Lehrplan dafür nicht LaMDA schreibt.

    In dieser Kolumne schreibt Miriam Meckel 14-täglich über Ideen, Innovationen und Interpretationen, die Fortschritt und ein besseres Leben möglich machen. Denn was die Raupe Ende der Welt nennt, nennt der Rest der Welt Schmetterling. ada-magazin.com

    Direkt vom Startbildschirm zu Handelsblatt.com

    Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.

    Auf tippen, dann „Zum Startbildschirm“ hinzufügen.

    ×