Bachelorarbeit

Edge – Die Rolle der Empathie bei der Interaktion mit Künstlicher Intelligenz

Intelligente Produkte finden immer mehr Einzug in unser Leben. Doch wie verändert sich der Umgang mit diesen Systemen, wenn diese in Zukunft nicht nur smart, sondern auch empathisch sind? Können, bzw. wollen wir eine Beziehung zu solchen Systemen aufbauen? In dem Projekt beschäftigte ich mich mit Faktoren, die zur Empfindung von Empathie gegenüber Künstlicher Intelligenz beitragen. Anhand eines Prototyps, entwickelte ich ein Tool, das dabei hilft bei der Diskussion neue Fragen zu stellen und Hypothesen zu evaluieren.

Die Bachelorarbeit entstand unter Betreung von Prof. Erich Schöls.

Wir befinden uns in einer nicht allzu fernen Zukunft. Ein Mann, der seinen Lebensunterhalt damit verdient, Briefe im Auftrag von anderen Menschen zu schreiben, baut eine persönliche Beziehung zu seinem Betriebssystem auf. Das Betriebssystem, das sich selbst Samantha nennt, ist für ihn bald mehr als ein Werkzeug. Aus einer anfänglichen Skepsis entsteht eine tiefe Verbundenheit. Es entwickelt sich eine Liebesbeziehung zwischen einem Menschen und einem von Menschen geschaffenen Programmcode. Doch diese Beziehung hält nicht lang an. Samantha gelangt an einem Punkt, wo ihr der physische Partner nicht mehr reicht. Sie sehnt sich nach einer tiefgründigen Beziehung und verlässt den Menschen, um mit anderen Betriebssystemen ein Leben in der Digitalität, abseits unserer Realität zu führen.

Der Weg bis zu einem Programm mit solchen Fähigkeiten wie Samantha aus „HER“ ist sicherlich noch weit. Der rasante technische Fortschritt und die derzeitigen Entwicklungen im Bereich der KI machen es aber mehr denn je nötig, sich mit diesem Thema zu befassen. Letztendlich bleibt dabei auch eine entscheidende Frage zu klären:

»Wollen bzw. akzeptieren wir eine empathische Künstliche Intelligenz?«

In meiner Bachelor-Arbeit »Die Rolle der Empathie bei der Interaktion mit Künstlicher Intelligenz« beschäftigte ich mich mit Faktoren, die zur Empfindung von Empathie gegenüber Künstlicher Intelligenz beitragen. Anhand eines Prototyps, der grundlegende Elemente und Mechaniken von aktuellen Smart Assistants beinhaltet, entwickelte ich ein Tool, das dabei hilft, bei der Diskussion neue Fragen zu stellen und Hypothesen zu evaluieren.

Die Emotionalisierung eines Alltagsgegenstandes

Bei der Projektarbeit verfolgte ich die These, dass man schon anhand eines kleinen Beispiels und einer einfachen Form der Interaktion Empathie erzeugen kann. Als Basis für den Prototyp diente die Interaktion mit einem Lichtschalter. Seine Funktion ist klar beschränkt (Licht an/Licht aus). Die formale Gestaltung kommuniziert die möglichen Interaktionen und ist wenig emotional. Kein Element ist überflüssig – er ist Inbegriff von gutem Design.

In Versuchen mit einem ersten Testaufbau (ein Schalter, mit dem man eine LED-Matrix steuert) zeigte sich bereits relativ schnell, dass eine Reaktion, die nicht unseren Erwartungen entspricht, ein Gefühl in uns auslöst, das dem der Empathie nahekommt. Wir schreiben dem Objekt eine höhere Intelligenz zu und wollen verstehen, warum es nicht das gemacht hat, was wir erwartet haben. Es ist allerdings auch eine Gratwanderung zwischen zwei Interpretationsmöglichkeiten, nämlich, ob es sich um ein unerwartetes Verhalten oder eine Fehlfunktion handelt.

Grafik über das Interaktionsprinzip mit der edge LeuchteDie Leuchte entscheidet selbstständig anhand verschiedener Parameter, ob sie einer Bitte nachkommt oder nicht.

Mit Hilfe der Text-To-Speech Technologie integrierte ich die Möglichkeit, dass eine Begründung für die Reaktion gegeben werden kann, was die Option der Fehlfunktion ausschließt. Daraus entwickelte sich der grundlegende Aufbau meiner Arbeit. Ausgehend von der Intention »Schalte das Licht an« bzw. »Schalte das Licht aus« entscheidet das System, ob es der Aufforderung nachkommt oder nicht. Dabei gibt es drei verschiedene Entscheidungsmöglichkeiten (Ja, Nein oder Gegenvorschlag), die jeweils mit unterschiedlichen Begründungen (z. B. »Ich schalte das Licht nicht ein, weil es im Moment hell genug ist«) ausgeführt werden können.

Im Verlauf der Arbeit wurde aus dem Lichtschalter eine eigenständige Leuchte, durch deren Bedienung man die Beleuchtung im Raum steuern kann. Die Kommunikation wurde neben der simplen Schalterinteraktion um die Ebene der Spracheingabe erweitert.

Umgesetzt wurde der Prototyp aus einer Kombination von Arduino und Raspberry Pi.
Fertiger Prototyp der Leuchte.
Fertiger Prototyp der Leuchte.

Neue Technologie bewertbar machen

Die Hauptaufgabe des Projekts war es, die neuen Möglichkeiten der Interaktion mit künstlich intelligenten Systemen zu explorieren. Welche Faktoren spielen eine Rolle beim Aufbau von Empathie und wie kann man diese gezielt manipulieren? Die gesamten Beobachtungen können in meiner Thesis nachgelesen werden, die am Ende verlinkt ist. Die drei wichtigsten Beobachtungen sind:

  • Kontextsensitivität: Durch das Einordnen in verschiedene Kontexte ist es einer Software möglich, ein »Ja« als Antwort einer bestimmten, zuvor gestellten Frage zuzuordnen. Durch diese Funktion wird es überhaupt erst ermöglicht, einen Dialog mit einem System zu führen. Sobald sich ein System dem aktuellen Kontext bewusst ist, kann es diese Information nutzen, um eine Reaktion zu generieren, die vom Nutzer als empathisch empfunden wird.
  • Proaktives Verhalten: Gibt man einem System die Fähigkeit, proaktiv zu agieren, also ohne einen expliziten Befehl, begegnet man dem System sehr schnell auf einer anderen Ebene. Proaktives Verhalten trägt maßgeblich dazu bei, ein System nicht mehr nur als »Werkzeug« wahrzunehmen. Wichtig ist, dass es nicht als Funktion angesehen wird, die man an- bzw. abstellen kann. Um unerwünschtes Verhalten zu stoppen, müsste man Überzeugungsarbeit leisten und das System bitten, dieses Verhalten zu unterlassen.
  • Situationsbewusstsein: Die Leuchte erkennt und merkt sich verschiedene Verhalten und Reaktionen des Nutzers. Sie speichert, wie oft sie innerhalb eines gewissen Zeitraums bedient wird oder in welcher Tonalität man mit ihr kommuniziert. Diese Funktionen haben eine recht große Wirkung. Sie sorgen dafür, dass die Leuchte eine Art Bewusstsein über die aktuelle Situation gewinnt und dementsprechend darauf reagieren kann. Bei Nutzern führte vor allem dieses Verhalten zu Momenten, in denen sie zur Leuchte eine hohe Empathie entwickelten.
Mann bedient edge Leuchte

Die Aufgabe der Gestaltung ist es, den Menschen in den Mittelpunkt zu rücken und technologische Entwicklungen ethisch zu hinterfragen. Nur weil es möglich ist, ein Objekt oder ein Programm mit Künstlicher Intelligenz zu erweitern, heißt dies nicht, dass dadurch ein Mehrwert entsteht. Oftmals werden zuvor einfache Interaktionen unnötig komplex oder emotionalisiert. Ab und an darf ein Objekt aber einfach ein Objekt bleiben und ein Programm ein Programm. Doch um zu klären, wann es Sinn macht, KI einzusetzen, bedarf es Prototypen, anhand welcher diese Entwicklungen erfahrbar und bewertbar werden.