News Release

Chatbots im Kundenkontakt - ein zweischneidiges Schwert

Göttinger Forschungsteam untersucht Wirkung nicht-menschlicher Gesprächspartner

Peer-Reviewed Publication

University of Göttingen

Screen shot: discussion with chatbot

image: In this research study, the test subjects chatted with a chatbot - but only half of them knew that it was a non-human conversation partner. view more 

Credit: Mozafari

Immer mehr Unternehmen setzen Chatbots im Kundenkontakt ein. Aufgrund der Fortschritte im Bereich der künstlichen Intelligenz und der natürlichen Sprachverarbeitung sind Chatbots in der Kommunikation oft nicht mehr von Menschen zu unterscheiden. Doch sollten Unternehmen ihren Kundinnen und Kunden offenlegen, dass sie mit Maschinen und nicht mit Menschen kommunizieren? Das haben Forscherinnen und Forscher der Universität Göttingen untersucht. Demnach reagieren Konsumentinnen und Konsumenten grundsätzlich eher negativ, wenn sie erfahren, dass ihr Gesprächspartner ein Chatbot ist. Macht der Chatbot allerdings Fehler und kann ein Kundenproblem nicht lösen, löst das Offenlegen eine positive Reaktion hervor. Die Ergebnisse der Studie sind in der Fachzeitschrift Journal of Service Management erschienen.

Bisherige Studien haben gezeigt, dass Konsumentinnen und Konsumenten negativ reagieren, wenn sie erfahren, dass sie mit Chatbots kommunizieren - offenbar gibt es eine grundsätzlich ablehnende Haltung dazu. In zwei Experimentalstudien untersuchten das Göttinger Team, ob dies immer der Fall ist. In Studien mit jeweils 200 Teilnehmerinnen und Teilnehmern wurden diese aufgefordert, sich in die Situation hineinzuversetzen, sie würden ihren Energieanbieter über einen Online-Chat kontaktieren, um ihren Stromvertrag aufgrund eines Umzugs auf die neue Adresse umzumelden. Im Chat begegneten sie einem Chatbot - jedoch wurde nur der Hälfte von ihnen die nicht-menschliche Identität des Gesprächspartners offenbart. In der ersten Studie wurde untersucht, wie sich dieses Offenlegen auswirkt, abhängig davon, wie wichtig der Kunde die Klärung seines Serviceanliegens empfindet. In einer zweiten Studie untersuchte das Team, wie sich das Offenlegen auswirkt - differenziert danach, ob der Chatbot in der Lage war, das Serviceanliegen des Kunden zu klären oder nicht. Um die Wirkungen zu untersuchen, wendete das Team statistische Analysen wie Kovarianz- und Mediationsanalyse an.

###

Das Ergebnis: Vor allem bei Serviceanliegen, die als besonders wichtig beziehungsweise kritisch empfunden werden, gibt es eine negative Wirkung, wenn transparent gemacht wird, dass der Gesprächspartner ein Chatbot ist. In diesem Fall wird das Vertrauen der Kundinnen und Kunden geschwächt. Interessanterweise zeigen die Ergebnisse jedoch auch, dass die Offenlegung der Chatbot-Identität in Fällen, in denen der Chatbot das Serviceanliegen des Kunden nicht klären kann, zu positiven Kundenreaktionen führt. „In diesen Fehlersituationen erleichtert die Offenlegung der Chatbot-Identität dem Konsumenten die Suche nach der Ursache für den Fehler", sagt Erstautorin Nika Mozafari von der Universität Göttingen. „Einem Chatbot wird ein Fehler eher verziehen als einem Menschen." In diesem Fall kann somit die Kundenbindung sogar gesteigert werden.

Originalveröffentlichung: Mozafari, Nika, Weiger, Welf H. und Hammerschmidt, Maik (2021), "Trust me, I'm a bot - repercussions of chatbot disclosure in different service frontline settings", Journal of Service Management. https://doi.org/10.1108/JOSM-10-2020-0380

Kontakt:

Nika Mozafari, M. Sc.
Georg-August-Universität Göttingen
Professur für Marketing und Innovationsmanagement
Platz der Göttinger Sieben 3, 37073 Göttingen
E-Mail: nika.mozafari@wiwi.uni-goettingen.de


Disclaimer: AAAS and EurekAlert! are not responsible for the accuracy of news releases posted to EurekAlert! by contributing institutions or for the use of any information through the EurekAlert system.