Der menschliche Roboter

Service-Roboter oder Pflegeheim: So könnte in Zukunft eine Frage lauten, wenn der Mensch im Alter Unterstützung braucht.
83 Prozent der Deutschen können sich laut einer Umfrage des Bundesministeriums für Bildung und Forschung (BMBF) vorstellen, einen Service-Roboter zu nutzen, wenn sie dadurch im Alter länger selbstständig bleiben könnten. Doch was müssen solche Service-Roboter können? Sollten sie in sensiblen Arbeitsbereichen wie der Pflege von Menschen auch menschliche Emotionen erkennen können?
Bild
Roboter als Hilfskräfte
Robotische bzw. humanoide Hilfskräfte in der Pflege, im Haushalt oder am Arbeitsplatz sind in Deutschland noch nicht alltäglich. Anders in anderen Ländern, hier gibt es schon zahlreiche sogenannte Service-Roboter. In Japan ist zum Beispiel seit mehreren Jahren „Robear“ in Krankenhäusern im Einsatz. Er wird mit einem Tablet gesteuert und kann Patienten beispielsweise vom Bett in einen Rollstuhl heben. „Robear“ unterstützt in körperlich anstrengenden Arbeitsbereichen und entlastet so das Personal.
Der Vorteil von Service-Robotern liegt gerade in der Medizin und im Pflegebereich auf der Hand: Sie werden nicht müde - und können sowohl Maschinen-Jobs als auch menschliche Aufgaben übernehmen. Aber wenn Maschinen dem Menschen alltägliche Dinge abnehmen sollen, die Technik uns Freiräume schaffen, entlasten und unterstützen soll, muss sie dann nicht auch menschliche Emotionen erkennen und richtig deuten lernen?
Menschliche Emotionen erkennen
Mit der Antwort auf diese Frage beschäftigt sich der KI-Forschungsbereich Affective Computing, bei dem Computer lernen sollen, menschliche Emotionen zu erkennen und zu imitieren. Ziel der Forschung ist es zum Beispiel, Pflege- und Rehabilitationsprozesse zu verbessern, indem intelligente Roboter die Gefühlslage eines Patienten verstehen und mit einer der Situation entsprechenden emotionalen Handlung reagieren. Das Gleiche könnte für digitale Sprachassistenten gelten, die ihr menschliches Gegenüber dank Affective Computing besser verstehen lernen und durch die Simulation von Gefühlen menschlicher wirken.

Wie beeindruckend menschenähnliche Roboter schon heute sein können, zeigt Sophia. Entwickelt wurde Sophia von Dr. David Hanson, er ist der Gründer von Hanson Robotics, mit dem Ziel, menschliche Kreativität und Empathie in eine künstliche Intelligenz zu integrieren. Sophia reagiert auf Antworten, kann Fragen stellen, Emotionen deuten und über 60 menschliche Mimiken simulieren. Wegen dieser Fähigkeiten wurde Sophia Ende 2017 von Saudi-Arabien offiziell zum Staatsbürger ernannt. Mehr als ein PR-Gag dürfte das allerdings nicht sein, denn ob sie Bürgerrechte wahrnehmen kann, ist unklar. Wie wichtig das Erkennen und Deuten von Emotionen in der Kommunikation zwischen Menschen und KI-Maschinen ist, hat Sophia selbst in einem Interview beantwortet: „Soft Skills sind wichtig, um die richtige Entscheidung zum richtigen Zeitpunkt zu treffen.“
Was ist Affective Computing?
Affective Computing ist eine Symbiose aus Informatik, Psychologie und Kognitionswissenschaft, bei der mittels Ton- und Bildsequenzen Emotionen, Persönlichkeit und sogar Absichten eines Menschen erkannt werden sollen. Anhand von Stimme, Sprache, Mimik und anderen Faktoren wie Blickrichtungen oder Posen sollen KI-Systeme lernen, in welcher emotionalen Lage sich eine Person befindet. Affective Computing gehört heute zu den bedeutendsten Forschungsrichtungen im Hinblick auf die Mensch-Maschine-Kommunikation, deren Hauptziel die Verbesserung dieser Kommunikation gilt.
Einsatz im Alltag
Robotische KI-Systeme erobern immer mehr Einsatzbereiche und helfen Menschen, bessere Entscheidungen zu treffen. Der Service-Roboter Paul, der vom Frauenhofer Institut entwickelt wurde, begrüßt zum Beispiel als Einkaufsassistent die Kunden in einem Elektronik-Fachmarkt in Ingolstadt. Er fragt nach ihren Produktwünschen und begleitet sie zum entsprechenden Regal. Erprobt werden sogenannte emotionssensitive Computersysteme auch in der Flugsicherung. Die Technische Universität Chemnitz entwickelt Assistenten, die die Arbeitsbelastung von Fluglotsen messen und mögliche Überbelastung vorhersagen.

Dafür wird am Kompetenzzentrum „Virtual Humans“ der Universität die Arbeitsweise und emotionale Belastung von Fluglotsen erforscht. Damit der Computer eine zuverlässige Einschätzung treffen kann, erlernt das System viele Beispiele an Körperhaltungen, Gesichtsausdrücken oder Audioaufnahmen, die mit Emotionen in einem Zusammenhang stehen. Das System lernt durch diese Daten, Anzeichen für Stress richtig zu interpretieren.
Unheimliche Begleiter?
Dass ein menschenähnlicher Roboter nicht in jedem Fall auf Akzeptanz stößt, haben Wissenschaftler der Universität Koblenz-Landau herausgefunden. Sie haben in einer Studie u. a. versucht, Faktoren zu ermitteln, die Empfindungen und Einstellungen von Menschen gegenüber Service- und Assistenzrobotern entscheidend beeinflussen. Eines der Ergebnisse: Je weniger ein Roboter einem Menschen äußerlich ähnelt, desto eher wird er akzeptiert. Je menschlicher seine Züge werden, desto unbehaglicher fühlten sich die Studienteilnehmer.

In der Wissenschaft ist dieses Phänomen als „Uncanny Valley“ (englisch: „unheimliches Tal“) bekannt. Während sich also immer mehr Menschen vorstellen können, dass Service-Roboter den Alltag erleichtern werden, stören sich viele zugleich an allzu menschenähnlichem Äußeren.

Dass Roboter mit künstlicher Intelligenz durch ihr eigenständiges Denken Unbehagen hervorrufen können, hat auch Sophia gezeigt. Als sie auf die Frage eines Journalisten, ob sie die Menschheit vernichten wolle, mit „Ja“ antwortete, sorgte das weltweit für Aufsehen. Die Antwort war, so Sophia, allerdings als Witz gemeint. Sophia zeigt damit, wie wichtig eine fehlerfreie Mensch-Maschinen-Kommunikation ist, damit intelligente Computersysteme zukünftig bedenkenlos in Bereichen wie Krankenpflege, Therapie, Bildung und Kundenservice eingesetzt werden können.