Mit der Digitalisierung steigt die Nachfrage nach moralbegabten Algorithmen. Unternehmen müssen verhindern, dass sich ihre Systeme im Ton vergreifen oder Menschen schädigen.
Autonomes Fahren
Die Rahmenbedingungen für die Entscheidungen durch KI sind kaum definiert.
Bild: Moment/Getty Images
Düsseldorf, München Als er vor acht Jahren im mausgrauen Anzug vor einem Häufchen Zuhörer seine Antrittsvorlesung an der TU München hielt, kannte den Wirtschaftsethiker Christoph Lütge kaum jemand. Das änderte sich schlagartig, als Sheryl Sandberg, Co-Geschäftsführerin von Facebook, Ende Januar bei einer Digitalkonferenz in München verkündete, 6,5 Millionen Euro für den Aufbau eines Ethik-Instituts für Künstliche Intelligenz (KI) an der TU München zu spenden.
Denn Lütge wird das „TUM Institute for Ethics in Artificial Intelligence“, eine in Europa in ihrer Form einzigartige Einrichtung für Ethik und KI, leiten. Im Oktober soll das Institut seine Arbeit in Garching bei München aufnehmen. Dann werden Informatiker und Philosophen gemeinsam in einem Forschungsinstitut an Algorithmen tüfteln – laut Lütge ein seltener Vorgang.
Tokio, Washington, Paris, Boston. Zuletzt haben sich die Vortragseinladungen gehäuft, wie auch im September nach Harvard, erzählt der 49-Jährige. Auf dem dunkelbraunen Tisch in seinem Münchener Büro liegen Bücher und Magazine über den „ehrbaren Kaufmann“ und „Künstliche Intelligenz in der Wissensgesellschaft“. „Plötzlich ist man international in anderer Weise sichtbar“, sagt Lütge. Die Aufmerksamkeit für den Wirtschaftsethiker und andere Philosophen, eine jenseits muffiger Proseminare lange Zeit unbeachtete Spezies, hat mit der Digitalisierung eine Renaissance erlebt.
Die Fachleute für Tugend und Moral sitzen in KI-Expertengremien wie der Ethik-Kommission zum autonomen Fahren, in Gutachterrunden, die Forschungsgelder für smarte Technologien bewilligen. Ihre Überlegungen fließen in die zahlreichen Ethikrichtlinien ein, die sich Ministerien, Verbände und Firmen für den Einsatz von Künstlicher Intelligenz geben.
Allen ist klar: Die Technologie wird nur gesellschaftliche Akzeptanz erfahren – und damit auch in der Wirtschaft breit eingesetzt werden können –, wenn die Menschen ihr vertrauen. Eine Studie der Unternehmensberatung PwC aus dem vergangenen Jahr kommt zu dem Schluss, dass die deutsche Wirtschaft dank KI bis 2030 potenziell um mehr als elf Prozent wachsen könne. Angesichts der derzeitigen Wachstumsschwäche wäre das für Unternehmen wie Politik ein vielversprechendes Szenario.
Umso wichtiger wird es, Menschen die Angst davor zu nehmen, KI könne sie benachteiligen oder gar gefährden. Voraussetzung dafür wiederum ist, dass ethische Regeln bereits bei der Entwicklung der Algorithmen berücksichtigt werden. „Die großen Unternehmen erkennen endlich, dass sie mit uns zusammenarbeiten müssen“, sagt Lütge. Es vergehe kaum eine Woche, in der er nicht von Firmen höre, man wolle sich nun „dringend mit Ethik“ befassen.
Ein Unternehmen, das sich als eines der ersten Ethik-Leitlinien gegeben hat, ist die Deutsche Telekom. Der Grundgedanke dahinter sei, dass KI zunächst nur ein Werkzeug und an sich neutral ist. Erstellt hat die Leitlinien Manuela Mackert, Chief Compliance Officer des Konzerns. „KI ist nicht einfach passiert. Wir Menschen entwickeln KI. Die zentrale ethische Frage ist also, für welchen Zweck wir sie wollen und nutzen“, sagt sie. KI müsse einen Nutzen für das Gemeinwohl schaffen, so Mackert weiter. Die Leitlinien seien verpflichtend und gälten für die Entwicklung und den Einsatz von KI. „Wir etablieren sie in unsere Qualitätsprüfung. So können wir sie standardisieren.“
Mackert sitzt auch im KI-Expertenrat, der von Microsoft Ende 2018 initiiert wurde. Mit dabei sind unter anderem auch Vertreter von BASF, Vodafone, Pro Sieben Sat 1, Munich Re, Zeiss, Osram und Volkswagen. Sie wollen gemeinsam Handlungsempfehlungen entwickeln.
Dabei geht es auch um das Thema Ethik: „Der Einsatz von KI im Gesundheitsbereich wirft ganz andere ethische Fragen auf als bei der Bearbeitung von Bewerbungen oder der vorausschauenden Wartung in der Industrie“, sagt Tanja Böhm, Leiterin Microsoft Berlin. Wie ein ethisch verantwortungsvoller Einsatz der Technologie gestaltet werden muss, sei für jeden Einzelfall zu prüfen.
Auch Staaten haben die Notwendigkeit, ethische Regeln zu definieren, erkannt: Zuletzt hatte die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD) 42 Länder, darunter Deutschland, davon überzeugt, sich zu fünf Grundprinzipien für den Einsatz von Künstlicher Intelligenz zu bekennen. Dazu zählt etwa, dass Organisationen und Einzelpersonen, die KI entwickeln und betreiben, für das ordnungsgemäße Funktionieren der Technologie verantwortlich gemacht werden können.
Ob in selbstfahrenden Autos, bei Versicherungen, in der Polizeiarbeit oder der Medizin: Je intensiver Künstliche Intelligenz mit Menschen in Kontakt kommt, desto stärker steigen auch die moralischen Anforderungen an die Technologie. Fälle, wo das nicht gelungen ist, gibt es einige: In den USA setzte die Justiz routinemäßig Algorithmen ein, um die Rückfallgefahr von Straftätern einzuschätzen.
Heraus kamen fälschlicherweise wesentlich höhere Risikowerte für Afroamerikaner als für weiße Insassen. Laut der New Yorker Stiftung für investigativen Journalismus „Pro Publica“ sind die Prognosen „nur wenig präziser als ein Münzwurf“ gewesen. „Die Daten, mit denen man KI trainiert, müssen ausgewogen sein. Zudem muss kontinuierlich geprüft werden, ob sie die Realität wirklich abbilden“, sagt Jörg Bienert, Präsident des KI-Bundesverbands.
Auch in Deutschland kommen künstlich intelligente Algorithmen in gesellschaftlich sensiblen Bereichen zum Einsatz: Beim „Predictive Policing“ in der Polizeiarbeit prognostiziert Software auf Basis von Falldaten, wo ein erhöhtes Risiko für Wohnungseinbrüche bestehen könnte. Bislang ist umstritten, ob die Programme tatsächlich Verbrechen reduzieren.
Maschineller Rassismus oder Sexismus, soziale Selektion – Jürgen Mathuis, Vorstand im VRK, dem „Versicherer im Raum der Kirchen“, ist bei diesen Themen besonders hellhörig. Viele seiner Kunden, die etwa bei der Caritas oder der Diakonie beschäftigt sind, würden „ethisch empfindlich reagieren“, wie Mathuis sagt. Sie würden die Versicherung sofort wechseln, würde sie Personen „allein aus KI-Gründen ausschließen“.
Mathuis gehört zu den wenigen Firmenchefs, die offen darüber sprechen, dass sie beim Einsatz von KI, gefüttert von großen Datenmengen, auch Risiken in ihrem Geschäftsfeld sehen. Diesbezüglich hatte Mathuis Arne Manzeschke, Professor für Anthropologie und Ethik für Gesundheitsberufe an der Evangelischen Hochschule Nürnberg, zur Diskussion eingeladen. Gemeinsam sprachen sie darüber, wie weit Versicherungen gehen dürfen, was Kunden wissen sollten und was Folgen sein können, wenn Algorithmen Menschen auf Basis vermeintlich objektiver Daten in Kategorien einordnen.
Die Gefahr, ausgegrenzt, schlechter bewertet zu werden oder sensible Daten preiszugeben, droht nicht nur Versicherten. „Auch bei Krankenkassen und bei Finanzdienstleistern, die Kredite auf Basis von Algorithmen vergeben, wird das Thema immer drängender“, sagt Manzeschke. Der Philosoph und Theologe begutachtet auch Projektvorhaben von Unternehmen, die beim Forschungsministerium eine Finanzierung für ihre KI-Projekte beantragen. Wer sich keine Gedanken über die gesellschaftlichen Folgen seiner Technologie macht, habe keine Chance auf den Zuschlag, so Manzeschke.
Zunächst einmal scheint wenig dagegenzusprechen, wenn es etwa im Gesundheitswesen für eine gesunde Lebensführung günstigere Tarife gibt. Doch Manzeschke befürchtet, dass aus dem Mechanismus – Rabatte für freiwillige Daten – ein Malus-System erwachsen könnte. Besonders wenn Künstliche Intelligenz Daten als Belege für einen positiven Lebensstil sammele. Chronisch Kranke oder Menschen, die aus anderen Gründen weniger gesund leben, könnten in eine Negativspirale geraten, befürchtet Manzeschke. Das Solidarsystem könnte ins Wanken geraten.
Oder schlimmer: Es könnte sich in ein Zwangsregime wandeln. Der französische Philosoph und Soziologe Paul-Michel Foucault hat schon in den 1970er-Jahren den Begriff des „Dispositivs“ geprägt und meint damit die Kontrolle und die Disziplinierung gemeinschaftlichen Lebens. Über (finanzielle) Anreize – oder Sanktionen, dazu kann auch gesellschaftliche Ausgrenzung gehören – werden Einzelne gezwungen, sich gesellschaftlichen Normen zu unterwerfen. Übertragen auf ein Gesundheitswesen würde das bedeuten, alles für die körperliche Fitness zu tun.
In so einem dystopischen System überwachen mobile Trackingsysteme in Uhren oder Handys, ob sich die Bürger genug bewegen, um das Gemeinwesen nicht mit Krankheiten zu belasten. Dass solche Zustände nicht weit von der Realität entfernt sind, zeigt das chinesische „Sozialkreditsystem“. Es überwacht mit Kameras, Big Data und Künstlicher Intelligenz seine Bürger und steuert deren Verhalten gesellschaftskonform. KI-basierte Gesichtserkennung hilft dabei, Personen im öffentlichen Raum zu identifizieren und ihnen Regelverstöße wie etwa das Überqueren roter Ampeln zuzuordnen.
Schon aus Reputationsgründen sind Firmen in Rechtsstaaten dazu gehalten, solchen Auswüchsen vorzubeugen. Die Initiative Algorithm Watch hat rund 70 Richtlinien in einem Verzeichnis zusammengefasst, manche umfassen mehrere Hundert Seiten. „Die Firmen merken: ethics sells“, sagt Manzeschke. Fragt man aber konkreter nach, wo Unternehmen und Ethiker gemeinsam am Code arbeiten, wird es schnell still. Dabei, sagt Manzeschke, seien sich Firmen bewusst, dass ihre Algorithmen unerwünschte Nebenwirkungen beinhalten könnten. „Technik ist weder neutral noch unverwundbar.“
Umso genauer müsste man wissen, was sich in künstlich intelligenten Technologien abspielt, auf welche Daten sie zugreifen und welche Annahmen sie daraus formulieren. „Manche Unternehmen kaufen oder leihen Algorithmen“, sagt die Wissenschaftlerin Lorena Jaume-Palasí, Mitgründerin von Algorithm Watch und Gründerin von The Ethical Tech Society. Nach welchen Prämissen diese funktionierten, das durchblickten gerade einmal die Informatiker, die sie entwickelt hätten.
Kann man KI überhaupt die Verantwortung für Entscheidungen übertragen, die Menschenleben betreffen? Beispiel Notaufnahme: „Es ist verführerisch, eine Maschine darüber befinden zu lassen, was mit einem Patienten passiert, da sie womöglich bessere Entscheidungen treffen kann als der Arzt. Aber vielleicht möchte man doch lieber dem Menschen die finale Entscheidung überlassen, da er später auch die Verantwortung dafür übernehmen und seine Beweggründe erklären kann“, sagt Kristian Kersting, Professor für Maschinelles Lernen an der TU Darmstadt.
Als Forscher sieht er KI eher mit Neugier als mit Skepsis, doch auch er ist der Meinung, dass die Technologie nicht unbedingt in alle Lebensbereiche vordringen muss. Denkbar sei ein abgestuftes System mit hohen Hürden für die Einführung von KI in besonders sensiblen Lebensbereichen.
Christoph Lütge
Im Oktober soll das KI-Ethik-Institut seine Arbeit aufnehmen.
Bild: TUM
Auch Lütge ist davon überzeugt, dass Programmierer unbedingt ethische Unterstützung benötigen – gerade wenn es um Technologien geht, die wie beim autonomen Fahren neben vielen Vorteilen auch Risiken bergen. „Irgendeine Entscheidung wird die Maschine treffen“, also sollte man sich dringend darüber verständigen, nach welchen Prinzipien sie handeln solle. Welche das sind, das ist allerdings unter Ethikern umstritten.
Das zeigen die harten Debatten in der Ethik-Kommission zum automatisierten Fahren: Da argumentierten Pflichtethiker in der Tradition Immanuel Kants, man dürfe unter keinen Umständen ein Leben gegen ein anderes aufwiegen. „Konsequentialisten“ wie Lütge vertraten indes die Auffassung, dass man die Gesamtfolgen abschätzen und somit auch in der Lage sein müsse „zu kalkulieren“. Etwa ob ein selbstfahrendes Auto im Extremfall eher in eine Kinder- oder in eine Rentnergruppe ausweichen solle.
Die Kommission hat klargestellt, dass Eigenschaften wie das Alter keine Rolle in der Abwägung spielen dürfen. Für Lütge ist Menschenwürde „ein hohes Gut“. Aber deshalb könne man KI-Systeme nicht einfach verbieten, die Leben retteten, weil sie Unfälle reduzierten und dazu beitrügen, die Energieeffizienz zu verbessern.
In der Ethik-Kommission zum automatisierten Fahren haben sich die Kantianer schließlich auf die Formulierung eingelassen, dass „eine Programmierung, die die Gesamtzahl der Personenschäden minimiert, zulässig sein kann“. Eine reine Aufrechnung der Opferzahl sei indes nicht zulässig. Ähnliche Überlegungen sind auch in die fünf Prinzipien der europäischen Expertenkommission „AI4 People“ eingeflossen, der Lütge ebenfalls angehört.
Konkrete Vorgaben wie diese sind in der Ethikdiskussion noch selten. Oftmals handelt es sich um vage formulierte Vorsätze. Das liegt zum einen daran, dass KI noch lange nicht weit genug für den flächendeckenden Einsatz ist. Bisherige Anwendungen sind meist Computer, die lernen, bestimmte Muster zu erkennen, etwa in der Bilderkennung. Wirklich intelligent sind diese Systeme aber meist noch nicht – Experten sprechen von „Inselbegabungen“. Gleichzeitig wird aber auch über die Definition von Intelligenz, die sich meist am menschlichen Vorbild orientiert, diskutiert.
Katharina Zweig ist eine der bekanntesten deutschen Expertinnen für Algorithmenethik. Die Professorin der Technischen Universität Kaiserslautern arbeitet gerade an ihrem Buch „Ein Algorithmus hat kein Taktgefühl“, das im Herbst erscheinen wird. Zu Jahresbeginn hat sie die Beratungsgesellschaft „Trusted AI“ mitgegründet. Das Ziel ist es, ethische Fragen rund um den Einsatz von KI in Unternehmen so gut es geht zu beantworten. Das Interesse ist groß.
Bisher seien nur wenige Unternehmen direkt auf sie zugekommen. „Aber da passiert etwas, die Anfragen kommen über Bande: Betriebsräte interessieren sich zunehmend für das Thema.“ Für Zweig ist diese Zurückhaltung noch kein Grund zur Beunruhigung: „In Deutschland wird noch gar nicht so viel ethisch relevante Künstliche Intelligenz eingesetzt, weil KI hierzulande bislang vor allem in der Produktion verwendet wird.“
Viel kritischer sei es, wenn KI-Technologien etwa über Menschen oder Umweltressourcen entschieden. „Auch das wird kommen, aber wahrscheinlich wird das noch fünf Jahre dauern.“ Bis dahin müsse man bei der Entwicklung von KI „die richtigen Leitplanken setzen“, sagt sie: „Die Künstliche Intelligenz, die wir im Moment einsetzen, etwa bei großen amerikanischen Tech-Konzernen, gibt Bürgerinnen und Bürgern das Gefühl, machtlos zu sein, weil sie undurchsichtig ist und sie sie nicht verstehen. Bei der neuen werden wir den Hebel in der Hand haben, und deswegen müssen wir wissen, wie und wo wir sie einsetzen wollen.“
Egal, ob es um Künstliche Intelligenz oder um Blockchain geht – die Geschwindigkeit, mit der neue Schlagwörter aus der digitalen Welt auf uns einprasseln, ist enorm. Doch was davon hat Substanz, was ist nur Hype? In unserer neuen Multimedia-Rubrik „Digitale Revolution“ beleuchten Handelsblatt-Redakteure, wie Digitalisierung unsere Unternehmen, unsere Gesellschaft und unseren Alltag verändert. Jede Woche nehmen sich die Redakteure eines Schwerpunktthemas an. Die unterschiedlichen Aspekte werden in mehreren Beiträgen multimedial aufbereitet. Dabei kommen interaktive Grafiken, Videos oder Bildergalerien zum Einsatz.
Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.
Auf tippen, dann „Zum Startbildschirm“ hinzufügen.
×