SXSW 2018: Können autonome Fahrzeuge Freunde werden?

In einer Session erklärt Pamela Pavliscak von Changesciences.com, warum autonome Autos eines Tages auch Emotionen haben können und wie damit umzugehen ist.

Pamela Pavliscak in Action: Die Forscherin erklärt, wie komplex das Thema "Emotion" für die künstliche Intelligenz zu greifen ist.
Pamela Pavliscak in Action: Die Forscherin erklärt, wie komplex das Thema "Emotion" für die künstliche Intelligenz zu greifen ist.
Gregor Soller

Noch immer gehören Fahrzeuge in vielen Fällen zu hochemotionalen Gegenständen unseres Alltags, in denen wir mittlerweile (vor allem in Staus) viel Zeit verbringen. Entsprechend wird in Autos auch gelacht, geweint, gegessen und geshakert – kurzum das ganze Leben bildet sich in ihnen ab. So startet Forscherin Pamela Pavliscak in ihren Vortag zum Thema „Emotionen der autonomen Fahrzeuge“.

Das ist gut für den Absatz, doch zumindest in der westlichen Welt ist der „Peak Car Ownership“ mittlerweile erreicht respektive überschritten und neue Mobilitätsformen machen sich breit, im Idealfall alle sauber und intelligent. So dass man sich fragen muss, welche Rolle die Emotionen im Auto künftig noch spielen werden: Und da wird es laut Pavliscak einen Wandel geben: Das Auto selbst wird weniger emotional gesehen werden, soll aber aufgrund seiner künstlichen Intelligenz mehr Partner sein als je zuvor. „2022 könnten die Maschinen mehr über uns wissen als unsere Freunde und Verwandten“, scherzt Pavliscak und zeigt einen Film des japanischen Roboters „Jibo“, den die Wall Street Journalistin Johanna Stern experimentell einen Monat als Familienmitglied adoptiert hat. Nach einem Monat stellte sie trotz einiger emotionaler Momente fest, dass die künstliche Intelligenz bei weitem noch nicht so fortgeschritten ist, wirkliche Menschen und deren Empathie zu ersetzen. Doch die Fortschritte, die die künstliche Intelligenz machte, sind unübersehbar, zumal es gar nicht so viel benötigt, um beim Menschen Empathie auszulösen, was Pavliscaks nächster Film beweist: Ein Kind erkennt eine Tonne mit einem quadratischen Kopf, der zwei „Augen“ hat, als Lebewesen an. Es genügen Augen, eine Stimme oder Gesten.

Anschließend stellt sie zwei Zahlen aus zwei Umfragen in den Raum: Nach denen wünschen sich 37% der Befragten, das hinter der Stimme in ihrem Auto eine reale Person steht.  Und 27% der befragten 18 bis 24-jährigen könnten sich vorstellen, eine Beziehung mit Robotern einzugehen. Was Toyota auch schon veranlasst hat, Autos „lernen“ zu lassen: Schließlich verbleiben sie über viele Jahre im Haushalt und sollten dann „wissen“, was ihre Nutzer schätzen, im Idealfall geben sie sogar den verständnisvollen „Buddy“ oder die Freundin, der man das Herz ausschütten kann, was die Kunden wiederum an eine Marke binden könnte. Entsprechend folgert Pavliscak: „Wir kommen an einen Punkt, wo emotionale Intelligenz mehr ist als nur eine Zusatzoption.“

Ein neuer Aspekt ist, dass dieses emotionale Intelligenz sich weiterentwickelt, was Pavliscak an verschiedenen Stufen seit der Steinzeit über den Darwinismus bis heute festmacht. Außerdem ändert sich im Laufe eines Lebens auch die Persönlichkeit. Womit Emotion kein reiner Instikt ist, sondern stückweise auch erlernt werden kann. Doch auch das haben die Konzerne teilweise schon auf dem Schirm: So arbeitet Apple beispielsweise schon daran, dass Emotionen erkannt und spezifiziert werden, um dann in unsere operativen Systeme integriert zu werden. Das Hauptproblem daran ist: Emotionen sind es was körperliches und extrem komplex- außerdem werden sie in verschiedenen Kulturen verschieden ausgedrückt. Allein für das Feld Angst gibt es mehrere Unterkategorien, die richtig interpretiert werden wollen. Deshalb warnt Pavliscak auch vor einer zu starken Vereinfachung der Interpretationen. Hier bringt sie wieder einen Film, in dem ein Autofahrer erst ermahnt wird, den Gurt anzulegen, dann auf die Straße zu schauen und dann detektiert das System ob der vielen Belehrungen Ärger und weist den Fahrer abermals darauf hin – genau so sollte sich das intelligente Auto nicht entwickeln. Darum muss die künstliche Intelligenz auch Emotionen erlernen.

Was bedeutet das?

Künstliche Intelligenz kennt (noch) keine Emotionen – und dieses Feld ist deutlich komplexer, als es auf den ersten Blick scheint – trotzdem sind