„Emotionale Bindungen können gefährlich werden“
Prof. Dr. Linda Onnasch mit Nao.
Foto: Matthias Heyde
Naos Hülle ist weiß und orange. Auf dem Tisch hockt er, die Knie angewinkelt, wie ein Primat mit abstehenden Ohren, und wenn Juniorprofessorin Linda Onnasch den kleinen Roboter über den Flur hinüber in die Versuchsräume trägt, dann könnte man ihre Haltung mit der einer Mutter verwechseln, die ein Kind im Arm hält. Ein schlechtes Gewissen hat die Psychologin dennoch nicht, wenn sie den in seiner Gestaltung menschenähnlichen Nao abends in ihrem Büro zurücklässt. „Ich programmiere meine Roboter selbst und das bedeutet, dass ich immer wieder hinter die Fassade schaue.“
Bereits ihre Doktorarbeit schrieb Linda Onnasch über Vertrauen in Hinblick auf Assistenzsysteme, arbeitete für einige Zeit für kommerzielle Anbieter, bevor sie im Oktober 2017 als Professorin an die Humboldt-Universität zu Berlin (HU) kam. Seitdem forscht sie zur Interaktion mit Maschinen. „An Robotern können wir viel über Mensch-Mensch-Interaktionen lernen“, ist die auf Automationspsychologie spezialisierte Forscherin überzeugt. Wo Linda Onnasch wenig soziale Impulse gegenüber Robotern verspürt, die sie für die Forschung angeschafft hat, geht es den meisten Menschen anders. Für die Neigung, mit blechernen Gegenübern soziale Beziehungen aufzubauen, gebe es unzählige Beispiele aus Forschung und Praxis, berichtet die Wissenschaftlerin. Nicht selten hat das unbeabsichtigte, mitunter gefährliche Konsequenzen.
„Roboter, die in Kriegsgebieten Bomben entschärfen etwa. Die Soldaten geben ihnen Namen, verleihen ihnen militärische Würden, wenn sie im Kampf zerstört wurden und gefährden teilweise sogar ihr eigenes Leben, um die Roboter aus einer brenzligen Situation zu retten.“ Offenbar würden die Maschinen durch die scheinbare Autonomie ihrer Bewegung als Objekte mit Intentionen wahrgenommen, als belebt also – ganz anders als etwa ein Mobiltelefon oder ein Laptop. Das berge erhebliche Manipulationspotenziale, sagt die Psychologin, die herausfinden will, wie sich die Gestaltung auf die Interaktion zwischen Mensch und Maschine auswirkt und welche Art von Gestaltung ethisch vertretbar ist.
Hierzu beendete Onnasch kürzlich gemeinsam mit dem Philosophen Peter Remmers von der Technischen Universität Berlin eine theoretische Forschungsarbeit. „Herausgestellt hat sich unter anderem, dass vermenschlichende Beschreibungen von Robotern zu unangemessen Vorstellungen bei den Benutzern führen. Ähnliches gilt für humanoide oder zoomorphe Gestaltung und das Vergeben von Namen – zumindest im industriellen Kontext.“ Auf die Kooperationsbereitschaft des menschlichen Gegenübers wirkten sich solche Elemente zwar positiv aus, allerdings entstünden so auch unangemessene emotionale Bindungen.
Zur empirischen Prüfung der Ergebnisse nahmen Linda Onnasch und ihre Arbeitsgruppe kürzlich den Roboter Nao in den Dienst der Forschung: Versuchspersonen mussten mit Naos Hilfe eine komplizierte Aufgabe lösen. Während die eine Hälfte der Probanden vorab eine rein funktionale Beschreibung des Roboters erhielt, wurde der anderen Hälfte eine sehr vermenschlichende gegeben. Nach der gemeinsamen Aufgabenbearbeitung wurden die Versuchspersonen zu ihrer Bereitschaft befragt, Geld für eine anfallende Reparatur des Roboters zu spenden. Die These der Forscher war, dass eine vermenschlichende Sprache soziale Bindung begünstigen und die Spendenbereitschaft erhöhen würde.
Das verblüffende Ergebnis: Die Probanden, die in technischer Sprache an das Experiment herangeführt worden waren, spendeten nicht nur fast alle, sondern auch signifikant mehr als die Vergleichsgruppe. „Eine erste These hierzu ist, dass es keine monetäre Bezifferung, keinen in Geld ausdrückbaren Referenzrahmen im Kontext des Mitfühlens gibt, wohl aber bei einem technischen Defekt. Ein weiterer Erklärungsansatz ist, dass vermenschlichende Sprache die Funktionalität des Roboters aus dem Blick geraten lässt“, erläutert Linda Onnasch, die das Experiment bald mit dem weniger menschenähnlichen Industrieroboter Sawyer, der im Gegensatz zu Nao ein Industrieroboter ist, wie sie etwa in Lagerhallen zum Einsatz kommen, wiederholen will.
Neben Robotern sind es Assistenzsysteme wie sie etwa in Flugzeugen, beim autonomen Fahren oder bei komplexen medizinischen Verfahren zum Einsatz kommen, die die Ingenieurspsychologin umtreiben. „Heutzutage kann man fast alles automatisieren, aber nicht immer ist das auch eine gute Idee“, sagt die Wissenschaftlerin. So geht es in Onnaschs Forschung zu Assistenzsystemen derzeit verstärkt um das Rollenverständnis der menschlichen Anwender und wie sich dieses auf die Sicherheit einer Technologie auswirkt. „Menschen tendieren dazu, Übervertrauen zu entwickeln. Und das birgt natürlich Gefahren.“ Immer häufiger würden Systeme wie das autonome Fahren entwickelt, bei denen der Anwender überwiegend in einer Art Stand-by-Modus als Kontrollinstanz fungiere. „Die Idee ist, Menschen zu entlasten. Die Situation ist dann oft so, dass der Anwender über lange Zeiträume faktisch unbeschäftigt ist, aber in einer plötzlich eintretenden, komplexen Ausnahmesituation Entscheidungen treffen soll. Das geht nicht selten schief – Daueraufmerksamkeit ist keine menschliche Stärke.“
Wie sich solche Systeme auf das Rollenverständnis und somit das Verhalten von Anwendern auswirken, untersucht die Wissenschaftlerin derzeit in einer Studie, in der Probanden sechs Stunden lang über ein simuliertes Lebenserhaltungssystem in einer Raumstation wachen müssen. „Das System hat eine Grundautomation und die Versuchspersonen müssen nur eingreifen, wenn ein Fehler eintritt.“ Das Assistenzsystem unterbreite dem Nutzer in einem solchen Fall einen Diagnosevorschlag oder führe die erforderliche Handlung selbst aus. Aufgabe des Probanden sei es, die Vorschläge des Systems zu bewerten und es dementsprechend gewähren zu lassen oder einzugreifen. „In diesem Zusammenhang untersuchen wir das Rollenverständnis der Versuchsteilnehmenden und wollen herausfinden, wie Rollen- und Risikowahrnehmung miteinander zusammenhängen und sich dementsprechend die Involviertheit verändert.“
Als Ingenieurspsychologin verstehe sie sich als Verfechterin der Nutzerinnen und Nutzer und wolle mit ihrer Forschung dazu beitragen, dass Systeme möglichst sicher gestaltet seien, sagt Linda Onnasch. Neben aller Technikbegeisterung sei nicht zuletzt der Umstand zu bedenken, dass immer intelligenter werdende Maschinen und Assistenzsysteme Entscheidungen rein auf Basis von Daten treffen und nicht ohne weiteres in der Lage seien, Normen und Werte in ihre Berechnungen einzubeziehen. „Da fehlt mir häufig der gesellschaftliche Disput. Dinge werden relativ unkritisch implementiert.“ Sie wünscht sich deshalb eine enge Kooperation mit der Industrie, um so bei der Entwicklung maximal sicherer Systeme zu helfen.“
Autorin: Nora Lessing