Der Roboter als Teamkollege - ein psychologischer Ansatz

Martina Mara

Interview mit Medienpsychologien Martina Mara

Die Medienpsychologien Martina Mara forscht am Linz Institut of Technology im Bereich künstliche Intelligenz und Automatisierung unter dem Motto "verantwortungsvolle Technologieentwicklung". Menschen und Roboter werden zukünftig zusammenarbeiten, sei es in der Fabrik oder im Pflegebereich. Aus psychologischer Sicht ergeben sich daraus spannende Forschungsprojekte.

Sie sind kürzlich vom Ars Electronica Futurelab zur Johannes Kepler Universität (JKU) gewechselt. Was erwarten Sie sich von Ihrer Arbeit im gerade neu gegründeten Linz Institute of Technology (LIT)? Inwiefern verändert sich Ihr Forschungsfeld?

Ich habe mich auch im Futurelab schon mit der Psychologie von Mensch-Roboter-Beziehungen beschäftigt. Meine Hauptfrage – wie eine menschenfreundliche Robotik aussehen kann – bleibt auch an der JKU gleich. Mehr als mein Forschungsfeld ändert sich aber mein Forschungsumfeld. Am neuen LIT gibt es großartige Möglichkeiten der interdisziplinären Zusammenarbeit und auch viel Offenheit für praxisnahe Fragestellungen. Ich freue mich darauf, mit den vielen dort tätigen Spitzenforschern im Bereich der künstlichen Intelligenz (KI) und der Automatisierung zusammenzuarbeiten. Unser gemeinsames Motto wird „Responsible Technology“ – verantwortungsvolle Technologieentwicklung – sein.

Menschen haben immer noch gewisse Berührungsängste bzw. verspüren ein unangenehmes Gefühl, wenn sie mit Robotern konfrontiert werden. Bestimmte automatisierte Verfahren, wie etwa die Supermarktkassa, betrifft das jedoch weniger, woran liegt das?

Insgesamt zeigt sich wiederholt in Umfragen, dass viele Menschen Befürchtungen gegenüber autonomen Technologien hegen. Eine Studie aus den USA ergab etwa, dass 29 Prozent der Befragten Angst davor haben, am Arbeitsplatz durch einen Roboter ersetzt zu werden. Das ist vergleichbar mit der Anzahl jener Personen, die das Sprechen vor Publikum ängstigt. Dass die Robo-Kassa im Supermarkt bei derlei Ängsten nur eine untergeordnete Rolle spielt, hängt wohl damit zusammen, dass sie nicht dem stereotypen Bild des Roboters entspricht. Den stellen sich die meisten Menschen nämlich immer noch als eine Art Blechmann mit Kopf, Armen und Beinen vor. Typus C-3PO eben. Ein Roboter, der aussieht wie ein Mensch, legt den Gedanken an das Ersetztwerden natürlich näher als ein abstrakter Apparat – selbst wenn das in der Praxis so nicht stimmt. Ein weiterer Einflussfaktor könnte die relativ geringe Komplexität der Robo-Kassa sein. Manchmal haben Menschen nämlich einfach Angst davor, eine neue Technologie nicht zu verstehen oder nicht zu wissen, wie sie mit ihr interagieren können. Das erübrigt sich bei der Self-Check-out-Kassa, weil sie weitestgehend selbsterklärend ist.

Wie kann man Menschen die Angst vor Robotern nehmen?

Diffuse Ängste hängen ja oft auch mit der öffentlichen Wahrnehmung und dem medialen Diskurs zu einem Thema zusammen. In dieser Hinsicht halte ich zwei Punkte für entscheidend. Der erste heißt Aufklärung. Rund um Robotik und künstliche Intelligenz wabern derzeit so viele mystische Bilder und Begrifflichkeiten herum: lernende Systeme, neuronale Netzwerke, starke und schwache KI – und dazu ständig diese Bilder von hochgradig menschenähnlichen Robotern. Wo die Technik momentan steht, wie sie funktioniert und dass sich nur sehr, sehr wenige Entwickler überhaupt für Humanoide interessieren, wird kaum jemals erklärt. Da braucht es Demystifizierung.

Der zweite Punkt heißt positive Zukunftsszenarien. Es wird viel zu häufig über Dystopien und robotische Overlords diskutiert. Kritische Reflexion des technischen Fortschritts ist natürlich wichtig, aber genauso bräuchten wir positive Zukunftsbilder, auf die wir als Gesellschaft hinarbeiten können. Idealerweise wären das komplementäre Bilder, also solche, in denen intelligente Maschinen uns Menschen ergänzen, uns als Werkzeuge unterstützen, uns vielleicht sogar mehr Zeit und Ressourcen für Tätigkeiten verschaffen, die uns liegen und Spaß machen.

Im industriellen Bereich werden immer mehr Menschen damit konfrontiert, künftig mit Robotern zusammenzuarbeiten. Worauf muss man hier beim Roboterdesign und bei der Kommunikation zwischen Mensch und Maschine achten, um Menschen Sicherheit zu geben?

Es ist auch meine Beobachtung, dass Roboter in Industrie und Fertigung immer öfter aus den Käfigen und hinter den Absperrbändern hervorgeholt werden. Ein Trend geht also sicher zu kollaborativen Robotern, die mitunter auch physisch nahe mit Menschen zusammenarbeiten. Gerade beim Teamwork mit schweren, potenziell gefährlichen Maschinen wird es auf gegenseitiges Verständnis ankommen. Der Roboter muss Intentionen und Zustände seines menschlichen Partners einschätzen können, etwa durch die Analyse von Blickrichtungen oder nonverbalem Verhalten. Gleichzeitig muss die Maschine dem Menschen aber auch erlauben, ihre Intentionen und Zustände lesen zu können, für den Menschen vorhersehbar zu werden. Erste Studien deuten darauf hin, dass das ein zentraler Punkt für das subjektive Sicherheitsgefühl, das Wohlbefinden, aber auch für die Effizienz der Zusammenarbeit zwischen Mensch und Roboter sein wird.

Sie sehen die Entwicklung von menschenähnlichen Robotern eher kritisch. Was bedeutet das beispielsweise für den Pflegesektor – wo gerade in Japan viel passiert –, wo die menschliche Komponente eine besonders große Rolle spielt und der Roboter oft mit weniger technikaffinen Menschen zu tun hat?

Ich halte die Entwicklung hochgradig menschenähnlicher Roboter in den meisten Einsatzbereichen für absurd, weil wir aus der psychologischen Forschung wissen, dass gerade diese Art von Robotern oft furchterregend oder sogar gruselig wirkt. Dort, wo sozial-kommunikative Komponenten eine derartig große Rolle spielen, wie es im Pflegebereich der Fall sein sollte, kann man mit einem Pflegeroboter, der mehr schlecht als recht Mitgefühl simuliert, eigentlich nur falsch liegen. Ich zitiere öfters ein Feldexperiment, in dem Patienten in einem Krankenhaus von einem Roboter am Arm berührt wurden. Der Hälfte der Patienten wurde gesagt, dass der Roboter damit Trost spenden möchte. Der anderen Hälfte wurde gesagt, dass die Berührung eine medizinische Funktion erfülle, etwa weil Daten von der Hautoberfläche abgenommen würden. Die letztere Gruppe akzeptierte die Roboter-Berührung deutlich besser als die erstere. Dass vorgetäuschte Emotion bei Maschinen nicht immer gut ankommt, heißt aber nicht, dass Roboter im Pflegebereich nichts verloren hätten. Im Gegenteil, ich glaube sogar, dass es hier große Potenziale gibt, vom autonomen Bettwäschetransport bis hin zu Exoskeletten, durch die Hebetätigkeiten leichter werden. Auch hier muss es aber um das komplementäre Miteinander gehen.

Bleibt man bei realistischeren Beispielen, wie etwa selbstfahrenden Autos, wo liegen hier aktuell die größten Herausforderungen?

Neben einigen offenen Technikfragen und der ungeklärten Haftungsthematik liegt eine der großen Herausforderungen sicher auch im mangelnden Vertrauen gegenüber autonomen Fahrzeugen. Fragen Sie mal in einer familiären Runde, wer sich spontan von einem Robotertaxi durch die Gegend chauffieren lassen würde. Die Mehrheit fände diesen Gedanken wahrscheinlich gar nicht so attraktiv. Google war diese Problematik natürlich ebenfalls bewusst. Ihr autonomes Google Car haben sie daher möglichst niedlich gestaltet, mit rundlichen Formen und großen Scheinwerferaugen. Das ist ein psychologischer Trick, der funktioniert. Ob es adäquat ist, einem Auto aufgrund seines niedlichen Designs zu vertrauen, da bin ich mir nicht so sicher. Mein Alternativansatz lautet daher Transparenz und Kommunikation. Ein Roboterfahrzeug muss sich Menschen gegenüber erklären, muss einem Fußgänger nach außen signalisieren, wenn es ihn erkannt hat, und muss Insassen nach innen ankündigen können, wenn ein Spurwechsel oder Überholmanöver ansteht. Meine Hypothese ist, dass so Kontrollwahrnehmung und Vertrauen gesteigert werden können.

Am häufigsten diskutiert wird die Frage, ob autonome Fahrzeuge etwa eine Ethik-Software benötigen. Dabei werden medial gerne Szenarien durchgespielt, in denen das Auto entscheiden muss, welche Person zu Schaden kommt. Inwiefern schädigen solche Diskussionen das Sicherheitsgefühl und inwiefern sind sie notwendig?

Diese Dilemma-Diskussionen steigern das Sicherheitsgefühl wohl nicht gerade, und sie sind wahrscheinlich auch überrepräsentiert. Denn ganz ehrlich: Wie oft ist es Ihnen schon passiert, dass von links drei Omas und von rechts ein Kind auf die Straße liefen und es keinerlei Ausweichmöglichkeit gab? Gleichzeitig halte ich den Diskurs aber auch für notwendig. Er bringt zum Ausdruck, dass gerade für solche „rare cases“, also seltene Ereignisse, auf der Straße eindeutige technische Lösungen schwierig sind, und er zeigt auch, dass wir uns parallel zum Fortschritt in KI und Robotik über ethische Fragestellungen Gedanken machen müssen. Denn eines ist klar: Anders als wir Menschen, die in der Chaossituation eines Unfalls kaum Argumente abwägen können, sind intelligente Maschinen dazu theoretisch in der Lage. Ob wir so etwas wollen, müssen wir als Gesellschaft für uns ausverhandeln. Insgesamt liegen im autonomen Transport aber große Potenziale. Im Mittel wird Mobilität sicherer werden.

 

Martina Mara, 37, Medienpsychologin

  • leitete am Ars Electronica Futurelab den Forschungsbereich RoboPsychology

  • übernahm kürzlich am Linz Institute of Technology den Lehrstuhl für Roboterpsychologie

  • Im Rahmen ihrer Tätigkeit untersucht sie, wie Roboter in unterschiedlichen Einsatzgebieten künftig aussehen und kommunizieren sollen.

Mag. Katharina Holzinger

+43 1 588 39 63
+43 664 619 25 09