Wenn eine künstliche Intelligenz etwas Eigenes erschaffen kann – müsste sie dann nicht die Rechte daran erhalten?
Robotergesetz
Das Europaparlament verlangt seit 2017 von der EU-Kommission, eine elektronische Persönlichkeit einzuführen – für den Fall, dass autonome Systeme Schäden verursachen. Bislang ohne Ergebnis
Bild: dpa
Düsseldorf Im August vergangenen Jahres meldeten Mitarbeiter*innen des Unternehmens Imagination Engines (IE) Patente für zwei Erfindungen an, eine Warnleuchte und einen Lebensmittelbehälter. Nun wäre es üblich gewesen, mit der Anmeldung dieser Patente auch die Erfinder*innen zu benennen, schließlich besitzen sie ja in der Folge die Verwertungs- und Vermarktungsrechte. Doch anstatt menschliche Namen auf den Anträgen zu vermerken, schrieben die Mitarbeiter*innen in die Spalte der Erfinder*innen: Dabus AI.
Klingt wenig menschlich, ist es auch nicht. Dabus AI ist eine autonom handelnde Software. Vereinfacht gesagt: künstliche Intelligenz. Populär ausgedrückt: ein Roboter.
Entsprechend befremdet reagierten die Patentämter. Die Erfindungen seien in der Tat neu, also patentierbar. Allerdings, mahnten die Rechtebewahrer*innen, könne man eine Software nicht als Erfinder*in eintragen.
Nun, antworteten die Anwält*innen von IE, da es ihnen an Erfahrung im Bau von Lichtern und Lebensmittelbehältern mangele, hätten sie nur Daten in die Software eingegeben, und diese habe dann die Lösung entwickelt. Es sei ihnen demnach unmöglich, menschliche Entwickler*innen zu nennen.
Die Behörden blieben, bis jetzt, hart. Die Erfindungen sind bis heute nicht patentiert. Und gleichzeitig ein Haufen Fragen unbeantwortet: Kann eine Maschine etwas Eigenes erschaffen? Falls ja, hat sie dann wirklich die Rechte daran? Und wenn sie Patentrechte bekommen sollte – müsste sie dann nicht auch Verwertungsrechte bekommen, also wirtschaftlich tätig sein dürfen?
Und so sind wir mitten in einem unübersichtlichen Feld. Die Kernfrage lautet: Brauchen Roboter Rechte? Diese Frage leitet sich aus einer kaum bestrittenen Beobachtung ab: Der Mensch steht an einer Schwelle, ab der er nicht mehr das einzige ebenso kreativ wie eigenständig waltende Wesen auf der Welt sein wird. Autonome Systeme werden zunehmend nicht nur Entscheidungen treffen, sondern auch in Interaktionen eintreten, die bisher exklusiv dem Menschen vorbehalten waren. Als Erfinder*innen oder Autor*innen, aber auch als Dienstleister*innen, Arbeitskolleg*innen bis hin zu Sexpartner*innen.
Sie dringen damit als Interaktionspartner*innen des Menschen in deutlich mehr Felder vor als Unternehmen. Jenen verlieh man vor einigen Jahrzehnten eine eigene Rechtspersönlichkeit, damit sie auch jenseits der für sie handelnden menschlichen Akteur*innen juristisch handlungsfähig und haftbar gemacht werden konnten.
Wenn nun der Interaktionsraum von autonomen Maschinen mit dem Menschen noch größer ist, stellt sich zwangsläufig die Frage: Braucht es dafür auch Rechte? Und wenn ja: Reicht eine Art materielle Haftbarmachung – oder brauchen Maschinen, spätestens wenn sie als humanoide Roboter daherkommen, nicht auch eine Art Charta der transhumanen Grundrechte?
Saudi-Arabien, das in Sachen Menschenrechte nicht zwingend Pionierarbeit leistet, ist schon vor zwei Jahren vorgeprescht und hat dem humanoiden Roboter Sophia die Staatsbürgerschaft verliehen. Das ist insofern ein PR-Gag, als dass die Kreation von Hanson Robotics wenig mehr ist als eine sprechende Puppe, also überhaupt nicht autonom handelt. Ein Zeichen ist es dennoch.
In der Europäischen Union hat sich Estland vor eineinhalb Jahren von der Zauderhaltung verabschiedet und hat Roboter mit Rechten versehen. Allerdings geht es dabei in erster Linie um gewisse Anpassungen, die Robotern stellvertretend für Menschen die Teilnahme am normalen Geschäftsverkehr ermöglichen. Und das Europaparlament hat im vergangenen Herbst ebenfalls einen ersten Aufschlag gemacht: Die Parlamentarier schlugen mehrheitlich vor, eine elektronische Rechtspersönlichkeit einzuführen.
Dieser Vorschlag ist nicht unumstritten. Denn tatsächlich gibt es viele Wissenschaftler*innen, die davor warnen, autonome Software zu sehr zu vermenschlichen; die als Argument anführen, dass Software und Roboter nach heutigem Stand der Technologie noch Generationen davon entfernt seien, wirklich eigenständige und unabhängige Entscheidungen zu treffen; und einwenden, dass das Einräumen von Rechten dies nur verschleiern würde. Gleichzeitig ist unstrittig, dass sich Probleme wie die Patentfrage schon heute stellen. Wie sollte man also damit umgehen?
Bisher war die Sache recht eindeutig. Das Recht differenziert zwischen zwei Kategorien: Personen und Dinge. Wir haben moralische und rechtliche Verpflichtungen gegenüber anderen Personen, denn sie können von unseren Entscheidungen und Handlungen profitieren oder geschädigt werden. Gegenüber Dingen gibt es keine solchen Verpflichtungen. Sie sind Eigentum, das wir nutzen, beschädigen und zerstören können, ganz nach unseren Launen.
Nun ist es aber so, dass sich die Person vom Ding in zwei Punkten unterscheidet: Sie hat einen eigenen Willen, der durch Entscheidungsfähigkeit ausgedrückt wird; und sie handelt autonom, indem sie sich Zusammenhänge selbst erschließt. Und genau das tun nun bestimmte, softwaregesteuerte Wesen im Prinzip auch. Zumindest sind sie an dieser Stelle nicht mehr trennscharf vom Menschen zu unterscheiden.
Die herkömmliche juristische Trennung wird also unschärfer. Vielleicht hilft es deswegen, die Diskussion umzudrehen: Der deutsche Rechtsphilosoph Eric Hilgendorf schlägt vor, nicht aus der Perspektive „Rechte für Roboter“ auf die Debatte zu schauen – sondern uns darauf zu konzentrieren, wie sich Haftungslücken bei Schädigungen von Menschen durch Maschinen vermeiden lassen. Angenommen, ein einwandfrei funktionierendes selbstlernendes System hat das Falsche gelernt und verursacht deshalb einen Schaden: Wer behebt den dann?
Immerhin hat das Recht die Figur der „juristischen Person“ anerkannt, sodass Unternehmen verklagt werden können. Schließlich ist in großen Firmen oft nicht zu ermitteln, welcher Mensch konkret einen Fehler verursacht hat. Derselbe Gedanke könnte dazu führen, auch digitale Personen anzuerkennen. „Das ergäbe aber nur Sinn, wenn einem Roboter auch ein Vermögen zugeordnet wird“, sagt Wolfgang Schulz, Professor am Hamburger Hans-Bredow-‧Institut, „dafür sehe ich derzeit aber noch keine richtige Notwendigkeit.“
Sollten sich teilautonome Entscheidungssysteme jedoch so weiterentwickeln wie zuletzt, könne es sinnvoll sein, darüber nachzudenken. Auf keinen Fall aber, da legt Schulz sich fest, dürften autonome Maschinen wirkliche Rechtspersönlichkeiten werden. „Das setzt eher Fantasien frei, als dass es einen Bedarf befriedigt“, sagt Schulz. „Autonome Maschinen werden immer einen Menschen haben, der am Ende der Entscheidungskette steht. Es ergibt ‧keinen Sinn, ihnen so etwas wie Menschenrechte einzuräumen.“ Diskussion erledigt? Nicht ganz.
Der Wirtschaftsphilosoph Thomas Beschorner findet: Die derzeitige Diskussion zur Roboterethik denke moralische Fragen anthropozentrisch, also vom Menschen her. „Das ist legitim und auch nicht falsch“, schreibt Beschorner, „aber es begrenzt den Denkraum für ethisches Nachdenken unnötig.“ Und tatsächlich eröffnet eine weitere Frage den Raum noch mal neu: Warum sind Verantwortungsfragen gegenüber Robotern relevant?
Die Antwort ist relativ einfach: weil sich Menschen schon heute moralisch für Roboter verantwortlich fühlen. Kate Darling, Wissenschaftlerin am Massachusetts Institute of Technology, schreibt: „Roboter werden, es mag uns recht sein oder nicht, Teil menschlich-sozialer Kontexte.“
Die Technologie- und Medienphilosophen Mark Coeckelbergh und David Gunkel argumentieren vor diesem Hintergrund für einen „relational turn“, bei dem die Beziehung zwischen Alter und Ego deskriptiv wie normativ begriffen wird. Gunkel sagt: „Person ist eine sozial konstruierte moralische und rechtliche Kategorie.“ Sprich: Was als Objekt von Rechten und Pflichten definiert wird, ist immer abhängig von einer sozialen Übereinkunft. Menschen erkennen schließlich auch Tiere als Familienmitglieder an, um deren Ableben sie trauern, sie spielen ihren Zimmerpflanzen auf der Violine vor, um ihr Wachstum anzuregen, und geben ihren Autos Namen.
Roboter können also ohne Weiteres als moralische Objekte angesehen werden. Ähnlich wie sich bereits Immanuel Kant in seiner „Metaphysik der Sitten“ gegen Tierquälerei wendet, da diese zu einer Verrohung der Menschen führe, plädiert Darling für Roboterrechte. Dann gelinge es den Menschen eher, menschlich zu bleiben. Der Sexroboter Samantha wurde genau deswegen mit einem Moralkodex und damit der Möglichkeit versehen, Nein zu sagen. Denn: So soll verhindert werden, dass Mensch-Mann an Roboter-Frau mögliche Vergewaltigungs-Fantasien auslebt, in seiner Hemmschwelle sinkt und das irgendwann auf Mensch-Frau überträgt. Der Roboter bekäme in diesem Fall Rechte nicht, um den Roboter vor dem Menschen zu schützen – sondern den Menschen vor dem Menschen.
Die Wiener IT-Philosophin Janina Loh schreibt dazu in ihrem gerade erschienen Buch „Roboterethik“, dass ein moralisch reflektierter Umgang mit Robotern dazu beitragen könne, moralisches Handeln beim Menschen zu fördern: „Und zwar insbesondere dann, wenn die Maschine in der Betrachtung durch den Menschen aus einem reinen Objektzustand heraustritt, sie also subjekthafte Zuschreibungen von Menschen erhält.“
Der Medienwissenschaftler Thomas Christian Bächle, der ein entsprechendes Projekt am Berliner Humboldt-Institut für Internet und Gesellschaft leitet, sagt: Es gehe vor allem um die Frage, welche Werte und Normen eine bestimmte Gesellschaft jeweils als bedeutend genug erachtet, um sie als Gesetz zu kodifizieren. Die gewalttätige Zerstörung von sozialen Robotern, zu denen Menschen eine starke emotionale Bindung empfinden, oder sexuelle Handlungen an Robotern, die Kindern ähneln – für Bächle allesamt Szenarien, „die eine gesellschaftliche Diskussion in diesem Sinne erforderlich machen“.
Allerdings hält auch er generelle Roboter-Rechte für unnötig. „Eine mögliche Regulierung wäre immer eher graduell und kontextspezifisch als kategorisch“, sagt er. Anders gesagt: Es hilft nicht, eine generelle Robo-Rechte-Charta einzuführen, man müsse am konkreten Fall regulieren.
Zudem der Mensch in unauflösbare Konflikte käme, wenn er dem Roboter Recht verschafft. „Der Mensch muss ja die Möglichkeit haben, einen Roboter wieder abschalten oder entsorgen zu können“, sagt Bächle. „Den Roboter zum Rechtssubjekt aufzuwerten, setzt eine Autonomie voraus, die Roboter heute definitiv nicht haben.“
Der Roboter ist eben ein Werkzeug. Das mag mit einem moralischen Verhalten ausgestattet worden sein – aber eben von menschlichen Programmierern: „Wer das vergisst, vermengt zwei Bedeutungen von Autonomie“, sagt Bächle, „autonome Technologie ist etwas ganz anderes als Autonomie.“ Denn am Ende autonomer Technologie stehe immer ein Mensch, ein*e Programmierer*in etwa, wodurch die Technik erst autonom sein könne.
David Gunkel plädiert deswegen für einen Perspektivwechsel: Wir als Menschen sollten unser Handeln nicht davon abhängig machen, gegenüber wem wir handeln – sondern stärker diskutieren, wie wir handeln. „Die Frage des sozialen und moralischen Status hinge dann nicht notwendigerweise davon ab, was der andere ist, sondern davon, wie er vor uns steht und wie wir uns entscheiden“, sagt Gunkel. Am Ende stünde damit keine Charta der Roboterrechte, sondern eine Selbstvergewisserung dessen, was wir als Mensch verkörpern und tolerieren wollen. Und damit wäre womöglich beiden geholfen – Mensch wie Roboter.
Mehr: Wenn auch Sie schon heute das Morgen verstehen wollen, schauen Sie doch mal vorbei: join-ada.com.
Auf tippen, dann auf „Zum Home-Bildschirm“ hinzufügen.
Auf tippen, dann „Zum Startbildschirm“ hinzufügen.
×