Die Moral in der Maschine

Verfügen intelligente Maschinen über Emotionen, können sie moralisch handeln und haben sie womöglich Rechte?
Teachtoday sprach mit Prof. Dr. Oliver Bendel über die Moral intelligenter Maschinen und das weite Feld der Maschinenethik.
Bild
Herr Bendel, wann haben Sie das letzte Mal etwas aus Ihrer Sicht Unmoralisches getan?
Ich tue oft etwas Unmoralisches, aus der Sicht anderer und aus meiner Sicht. Man muss sein Leben nicht der Moral unterordnen, nicht als Individuum, nicht als Gruppe, nicht als Gesellschaft und auch nicht als Unternehmen. Aber natürlich gibt es Verhaltensweisen, die ich unmoralisch finde und die ich grundsätzlich vermeide. Ein Ethiker muss auch nicht moralisch handeln. Er muss nicht gut sein. Ein Mediziner muss auch nicht gesund sein. Man beschäftigt sich einfach professionell mit einem Thema. Man erforscht einen Gegenstand.
Können Maschinen eine Moral haben?
Ich verwende den Begriff der maschinellen Moral ähnlich wie den der künstlichen Intelligenz. Maschinen haben kein Bewusstsein und keinen Willen. Sie haben ebenso wenig Empathie. Darum wird die menschliche Moral – oder ein Teil davon – in der maschinellen Moral simuliert. Es geht zum Beispiel darum, autonomen Maschinen und KI-Systemen bestimmte Regeln beizubringen, die moralisch begründet sind und an die sie sich halten sollen.
Womit genau beschäftigt sich die Maschinenethik?
Die Maschinenethik untersucht und erzeugt maschinelle Moral. Sie denkt über moralische und unmoralische Maschinen nach und versucht diese zu bauen. Sie erforscht die Wirkung dieser Maschinen und beleuchtet die Chancen und Risiken ihres Einsatzes. Denn die Maschinenethik sagt nicht, dass man alle Maschinen moralisieren sollte. Sie erforscht einfach die Möglichkeiten. Wir bauen seit 2013 Chatbots, die Probleme des Benutzers erkennen und adäquat agieren und reagieren. Wir haben beispielsweise den Goodbot entwickelt, der nach moralischen Prinzipien mit dem Nutzer interagiert und gleich am Anfang eines Dialogs deutlich macht, dass er nur eine Maschine ist.

Demgegenüber haben wir den Liebot, einen Lügenbot, entwickelt, der systematisch Lügen ersinnt. Der Goodbot, könnte man sagen, handelt moralisch gut, der Liebot unmoralisch oder moralisch schlecht. Andauerndes Lügen bei Menschen ist schlecht, da es Vertrauen zerstört, in Beziehungen, Freundschaften, Gruppen und Gesellschaften. Mit dem Liebot konnten wir zeigen, dass systematisches Lügen bei Maschinen ebenso zersetzend sein kann, sei es auf Websites oder bei Servicerobotern.
Was ist der Unterschied zwischen menschlicher Moral und Maschinenmoral?
Roboter haben kein Bewusstsein, keinen Willen, aber sie können sich sehr gut an Regeln halten. Eine Maschine hat keinen Grund, moralisch zu sein, nicht aus sich heraus. Bei Menschen erleichtert Moral zumeist das Zusammenleben.
Wie bringt man einer KI Moral bei?
Man kann autonomen und teilautonomen Systemen maschinelle Moral beibringen. Dazu gehören bestimmte Roboter und KI-Systeme, oder Roboter, die mit KI-Systemen verbunden sind. Man kann ihnen Regeln einpflanzen, die moralisch begründet sind. Dabei kann man zum Beispiel mit annotierten Entscheidungsbäumen arbeiten, wie ich sie vor ein paar Jahren entwickelt habe. Die mit Sensoren ausgerüstete und sich durch die Welt bewegende Maschine arbeitet Frage um Frage ab, etwa wie alt, wie groß oder wie weit entfernt etwas ist. Am Ende trifft sie eine von mehreren vorgesehenen Entscheidungen. Bei einer Frage kann man im Entscheidungsbaum angeben, warum sie wichtig ist oder warum sie gestellt wird. Damit macht man die moralischen Annahmen und Begründungen explizit.
Bestehen für KI-Systeme wie Sprachassistenten nur Pflichten oder haben sie in gewissem Sinn auch Rechte?
Ich bin als Ethiker bei Maschinen vorsichtig mit Begriffen wie „Pflichten“. Lieber spreche ich von „Verpflichtungen“, und selbst das geht vielleicht zu weit. Wobei wir natürlich Metaphern bemühen können, in der Hoffnung, dass wir uns verstehen. Auf jeden Fall müssen Roboter und KI-Systeme das tun, was wir wollen. Als Ethiker sehe ich nicht, dass Roboter und KI-Systeme moralische Rechte haben, weil ihnen Empfindungs- und Leidensfähigkeit, Bewusstsein und Lebenswillen fehlen.
In Medizin, Pflege und Gesundheit wird darüber gesprochen, Roboter zukünftig als Betreuer einzusetzen. In diesen Berufsfeldern geht es aber nicht nur um optimierte Arbeitsabläufe, sondern ebenso um Empathie, Emotionen, Zuwendung. Können Maschinen lernen, auf die Gefühle von Menschen einzugehen?
Das können sie bereits. Es sind Roboter, die emotional reagieren können, auf dem Markt. Roboter wie Pepper können über Gesichts- und Stimmerkennung etwas über den Gefühlszustand von Menschen herausfinden und sich in ihrem Verhalten und in ihren Aussagen darauf einstellen. Von Empathie würde ich jedoch nicht sprechen. In Pflege und Therapie finden sich Roboter, die ihr Verhalten an das der Menschen anpassen. Ein bekanntes Beispiel ist Paro, die Babysattelrobbe, die vor allem Dementen helfen soll.

Wir verfügen also über Roboter, die Emotionen erkennen und zeigen, aber natürlich nicht haben. Roboter und KI-Systeme werden meiner Meinung nach nie Gefühle haben. Für diese braucht es biochemische Grundlagen. Man sollte Roboter darum im Pflege- und Therapiebereich nicht alleine mit Patienten und Betreuten lassen, aus Gründen der Sicherheit und weil die Anwesenheit von Menschen, von fühlenden und mitfühlenden Wesen, gerade in dieser Situation wichtig ist. Meist sind Roboter auch so konzipiert, dass es zusätzlich eine Fachkraft braucht. So arbeitet beispielsweise Robear, ein Prototyp aus Japan, im Tandem.
Können Maschinen mit künstlicher Intelligenz wie Menschen die Folgen ihrer Handlungen abschätzen?
Nein, nicht wie Menschen. Aber es gibt Maschinen, die die Folgen ihrer Aktionen abschätzen können. Sonst könnte es kein automatisiertes Fahren geben. Dabei müssen ständig Folgen vorausgesehen, verglichen und bewertet werden. Für die Maschinenethik ist das ein wichtiges Feld. Man kann Systeme entwickeln, die sich nicht starr an bestimmte Regeln halten, sondern die möglichen Folgen in ihre Entscheidungen einbeziehen.
Wie entscheidet sich ein selbstfahrendes Auto in komplexen Situationen, drastisch gesagt in Situationen, in denen es um Leben und Tod von Menschen geht?
Es sollte sich gar nicht entscheiden. Ich bin dagegen, es mit Blick auf Menschen quantifizieren oder qualifizieren zu lassen, also potenzielle Unfallopfer durchzuzählen oder sie nach Alter, Geschlecht und Gesundheit zu beurteilen. Natürlich sollte eine automatische Vollbremsung vor einem Menschen auf der Fahrbahn erfolgen, und ich bin dafür, Notbremsassistenten in möglichst viele PKW und in alle LKW einzubauen. Aber ansonsten rate ich zu Vorsicht und Zurückhaltung.
Wo ist der Einsatz von selbstfahrenden Autos zukünftig sinnvoll – und wo vielleicht nicht?
Autonome PKW sollten auf Autobahnen fahren. Der Stadtverkehr ist zu schwierig für sie. Dort sind viele Fußgänger und Fahrradfahrer unterwegs, und in jeder Sekunde sind tausende Dinge zu begutachten. Fahren in der Stadt ist Kommunikation, man winkt, man blinzelt, man lächelt.

In Sion in der Schweiz fährt ein autonomes Shuttle. Aber mit geringer Geschwindigkeit und auf virtuellen Gleisen. Das ist nicht auf normale Autos übertragbar. Auf den geraden und übersichtlichen Autobahnen, wo es keine Passanten gibt, kann man mit automatisiertem Fahren zahlreiche Unfälle vermeiden. Maschinen können in manchen Bereichen viel mehr als Menschen. Beispielsweise können sie in der Nacht sehen. Oder um die Ecke, wenn ein übergeordnetes System zur Verfügung steht. Eine große Zukunft könnten autonome LKW haben, zudem autonome Busse und Shuttles.
Zur Person: Dr. Oliver Bendel ist Professor für Wirtschaftsinformatik, Wirtschaftsethik, Informationsethik und Maschinenethik. Er schreibt regelmäßig Artikel für das Magazin Telepolis und Beiträge für das Wirtschaftslexikon von Springer Gabler und die Enzyklopädie für Wirtschaftsinformatik.

Das Interview führte Martin Daßinnies.
Foto: Kai R. Joachim