Die Bachelorarbeit entstand unter Betreung von Prof. Erich Schöls.
Wir befinden uns in einer nicht allzu fernen Zukunft. Ein Mann, der seinen Lebensunterhalt damit verdient, Briefe im Auftrag von anderen Menschen zu schreiben, baut eine persönliche Beziehung zu seinem Betriebssystem auf. Das Betriebssystem, das sich selbst Samantha nennt, ist für ihn bald mehr als ein Werkzeug. Aus einer anfänglichen Skepsis entsteht eine tiefe Verbundenheit. Es entwickelt sich eine Liebesbeziehung zwischen einem Menschen und einem von Menschen geschaffenen Programmcode. Doch diese Beziehung hält nicht lang an. Samantha gelangt an einem Punkt, wo ihr der physische Partner nicht mehr reicht. Sie sehnt sich nach einer tiefgründigen Beziehung und verlässt den Menschen, um mit anderen Betriebssystemen ein Leben in der Digitalität, abseits unserer Realität zu führen.
Der Weg bis zu einem Programm mit solchen Fähigkeiten wie Samantha aus „HER“ ist sicherlich noch weit. Der rasante technische Fortschritt und die derzeitigen Entwicklungen im Bereich der KI machen es aber mehr denn je nötig, sich mit diesem Thema zu befassen. Letztendlich bleibt dabei auch eine entscheidende Frage zu klären:
»Wollen bzw. akzeptieren wir eine empathische Künstliche Intelligenz?«
In meiner Bachelor-Arbeit »Die Rolle der Empathie bei der Interaktion mit Künstlicher Intelligenz« beschäftigte ich mich mit Faktoren, die zur Empfindung von Empathie gegenüber Künstlicher Intelligenz beitragen. Anhand eines Prototyps, der grundlegende Elemente und Mechaniken von aktuellen Smart Assistants beinhaltet, entwickelte ich ein Tool, das dabei hilft, bei der Diskussion neue Fragen zu stellen und Hypothesen zu evaluieren.
Bei der Projektarbeit verfolgte ich die These, dass man schon anhand eines kleinen Beispiels und einer einfachen Form der Interaktion Empathie erzeugen kann. Als Basis für den Prototyp diente die Interaktion mit einem Lichtschalter. Seine Funktion ist klar beschränkt (Licht an/Licht aus). Die formale Gestaltung kommuniziert die möglichen Interaktionen und ist wenig emotional. Kein Element ist überflüssig – er ist Inbegriff von gutem Design.
In Versuchen mit einem ersten Testaufbau (ein Schalter, mit dem man eine LED-Matrix steuert) zeigte sich bereits relativ schnell, dass eine Reaktion, die nicht unseren Erwartungen entspricht, ein Gefühl in uns auslöst, das dem der Empathie nahekommt. Wir schreiben dem Objekt eine höhere Intelligenz zu und wollen verstehen, warum es nicht das gemacht hat, was wir erwartet haben. Es ist allerdings auch eine Gratwanderung zwischen zwei Interpretationsmöglichkeiten, nämlich, ob es sich um ein unerwartetes Verhalten oder eine Fehlfunktion handelt.
Mit Hilfe der Text-To-Speech Technologie integrierte ich die Möglichkeit, dass eine Begründung für die Reaktion gegeben werden kann, was die Option der Fehlfunktion ausschließt. Daraus entwickelte sich der grundlegende Aufbau meiner Arbeit. Ausgehend von der Intention »Schalte das Licht an« bzw. »Schalte das Licht aus« entscheidet das System, ob es der Aufforderung nachkommt oder nicht. Dabei gibt es drei verschiedene Entscheidungsmöglichkeiten (Ja, Nein oder Gegenvorschlag), die jeweils mit unterschiedlichen Begründungen (z. B. »Ich schalte das Licht nicht ein, weil es im Moment hell genug ist«) ausgeführt werden können.
Im Verlauf der Arbeit wurde aus dem Lichtschalter eine eigenständige Leuchte, durch deren Bedienung man die Beleuchtung im Raum steuern kann. Die Kommunikation wurde neben der simplen Schalterinteraktion um die Ebene der Spracheingabe erweitert.
Die Hauptaufgabe des Projekts war es, die neuen Möglichkeiten der Interaktion mit künstlich intelligenten Systemen zu explorieren. Welche Faktoren spielen eine Rolle beim Aufbau von Empathie und wie kann man diese gezielt manipulieren? Die gesamten Beobachtungen können in meiner Thesis nachgelesen werden, die am Ende verlinkt ist. Die drei wichtigsten Beobachtungen sind:
Die Aufgabe der Gestaltung ist es, den Menschen in den Mittelpunkt zu rücken und technologische Entwicklungen ethisch zu hinterfragen. Nur weil es möglich ist, ein Objekt oder ein Programm mit Künstlicher Intelligenz zu erweitern, heißt dies nicht, dass dadurch ein Mehrwert entsteht. Oftmals werden zuvor einfache Interaktionen unnötig komplex oder emotionalisiert. Ab und an darf ein Objekt aber einfach ein Objekt bleiben und ein Programm ein Programm. Doch um zu klären, wann es Sinn macht, KI einzusetzen, bedarf es Prototypen, anhand welcher diese Entwicklungen erfahrbar und bewertbar werden.