Gebruikers voelden zich beter als een chatbot bij een klacht opmerkingen maakte als "het spijt me dat te horen" en "dit issue is verontrustend", ook al namen ze het aan voor geprogrammeerde platitudes, zo schrijft Phys.org. De doelgroep waarop werd getest waren studenten van een universiteit en die waren in de regel sceptisch dat een chatbot daadwerkelijk emoties opmerkt en voelt.

Een controlegroep kreeg alleen advies van de bot, twee andere groepen kregen elk verschillende vormen van empathie: de ene begripvolle reacties (cognitief) en eentje die emoties spiegelt (affectief). De groep die reacties kreeg van een fictieve chatbot voor een gezondheidszorgsysteem die sympathie betuigde, waren positief daarover.

De onderzoekers zijn benieuwd wat er gebeurt als je dezelfde tactiek inzet bij doorsnee gebruikers, omdat studenten die wel overtuigd waren van de echte emotie van een machine volgens de onderzoekers negatieve reacties hadden op uitdrukkingen die sympathie en empathie aangeven. Ze willen in een vervolgonderzoek kijken hoe dit werkt bij chatbots over gezondheid en seksualiteit, en hoe gebruikers zich voelen als deze empathie spiegelen.