Sie sind schon längst nicht mehr nur eine reine Technologie, sondern beinhalten auch psychologische Aspekte. Wenn die Conversational Agents ein Unternehmen repräsentieren bzw. eine Kommunikation mit einem menschlichen Vertreter ersetzen oder ergänzen sollen, spielt die Persönlichkeit und Tonalität des Bots, neben den technischen Merkmalen, eine immer grössere Rolle. Wenn Menschen kommunizieren, lassen sich Emotionen und gewisse Formen von Empathie meist nicht ausschliessen. Gleiches wird auch bei Chatbots immer wichtiger. Dabei wird in der Praxis und auch in der Forschung immer wieder die Frage gestellt, welche und wie viele Emotionen ein Chatbot eigentlich haben darf. 

Partner-Inhalte
 
 
 
 
 
 

Sophie Hundertmark ist Doktorandin an der Universität Fribourg und arbeitet als wissenschaftliche Projektmitarbeiterin am Institut für Finanzdienstleistungen Zug (IFZ) der Hochschule Luzern. Zudem arbeitet sie als selbstständige Chatbot-Beraterin und berät vor allem Banken und Versicherungen aus der gesamten DACH-Region.

Studienleiterin Sophie Hundertmark hat auf Basis einer umfangreichen Literaturrecherche drei Hypothesen aufgestellt und diese in einem Experiment mit Versicherungskunden getestet. Die Ergebnisse sind nahezu, wie in den Hypothesen vorhergesehen:

Beim Abschliessen oder Informieren zu einer Zusatzversicherung kommen Emotionen seitens des Chatbots grundsätzlich sehr gut an und sind auch gewünscht. Ein Chatbot, der im Kontext einer Zusatzversicherung freundliche Emotionen zeigt, wird im Allgemeinen öfter weiterempfohlen, als ein Chatbot der keine Emotionen zeigt. Weiter weckt ein Chatbot ohne jegliche Emotionen schneller den Wunsch nach einem menschlichen Berater.

Wenn es um das Thema «Schaden melden» geht, bevorzugen Nutzer im Allgemeinen eher einen Chatbot ohne Emotionen. Sie wollen lediglich eine schnelle Erledigung ihres Anliegens und zusätzlich eine Bestätigung, dass der Bot ihr Anliegen aufgenommen hat.

Beim «Adresse ändern» konnten kaum grosse Unterschiede zwischen den Beurteilungen der Chatbots festgestellt werden. Grundsätzlich wurden beide Versionen als nützlich und passend empfunden.

Zusammenfassend ergeben sich aus dem Experiment folgende drei Aussagen:

  1. Wenn User in negativer Stimmung sind, wünschen sie keine übertriebenen Emotionen vom Chatbot. Beispiel: Schadensmeldung (Versicherung), Karte verloren (Bank), Reklamation (Retail).
  2. Wenn User in einer positiven Stimmung sind oder sich in einem Beratungsprozess befinden, sind Emotionen vom Chatbot gewünscht. Beispiel: Prämienberatung (Versicherung), Kontoberatung (Bank), Allgemeine Beratung (Retail).
  3. Sobald es sich um rudimentäre Situationen handelt, bei denen der User selbst keine grossen Emotionen verspürt, sondern es eher um die schnelle Erledigung eines Falls geht, spielen die Emotionen des Chatbots kaum eine Rolle. Sie können daher auch weggelassen werden, machen aber auch wenig kaputt, wenn sie doch da sind. Beispiel: Adresse ändern (Versicherung), Kontoauszug anfordern (Bank), Rechnungsbeleg anfordern (Retail).

Diese (neuen) Erkenntnisse geben Sophie H. viel Potential für neue Forschungen. In weiteren Studien soll nun die Beziehungen zwischen Nutzer-Situation und Gefühlslage und Bot-Tonaliät untersucht und spezifiziert werden. Parallel dazu müssen laut Sophie H. Algorithmen entwickelt werden, die es dem Bot möglich machen, selbst herauszufinden in welcher Gefühlslage sich der User gerade befindet, um anschliessend passend darauf reagieren zu können. In der Realität wird es nicht genügen, die Gefühlslage anhand des Usecases einzuordnen, vielmehr muss der individuelle Benutzer, der vielleicht auch eine besondere Vorgeschichte hat, berücksichtigt werden. Es ist zu erwarten, dass die Disziplinen der Fuzzy-Logic und des Computing with words hier angewendet werden. Beide Technologien sind eng miteinander verwandt und machen es möglich, dass ein Software-System auch unscharfe Worte und natürliche Sprache verarbeiten kann.

Die gesamten Ergebnisse des Experiments können hier heruntergeladen werden.