La ligne d'assistance téléphonique nationale sur les troubles de l'alimentation a remplacé son personnel par un chatbot

  Samara Weaving dans le rôle de Laura Crane au téléphone dans Scream VI

Après que les associés de la ligne d'assistance de la National Eating Disorder Association (NEDA) aient décidé de se syndiquer, la réponse de la NEDA a été de licencier tout son personnel et de le remplacer par un chatbot. La ligne d'assistance de NEDA est en service depuis 20 ans et a connu une explosion du nombre d'appels qu'elle a reçus pendant la pandémie de COVID-19 .

Même après la pandémie de COVID-19, la ligne d'assistance connaît toujours un niveau élevé d'appels, avec environ 70 000 appelants qui ont contacté les lignes d'assistance de la NEDA au cours de la dernière année seulement. La hotline confidentielle fournit une source de soutien entre pairs pour ceux aux prises avec des troubles de l'alimentation . Pendant l'isolement de la pandémie, les lignes d'assistance comme celle-ci étaient le seul type de soutien humain dont disposaient certains appelants.

Contrairement à cette forte demande, la hotline de NEDA dispose d'un personnel très réduit. Outre les bénévoles, la hotline n'emploie que six employés à temps plein et une poignée de superviseurs. La ligne d'assistance ayant connu une augmentation fulgurante de la demande, les membres du personnel ont commencé à se rendre compte que leur système actuel n'était pas viable. Ces membres du personnel étaient souvent chargés de former et de superviser jusqu'à 200 bénévoles à la fois.

Pendant ce temps, non seulement le nombre d'appels a augmenté, mais la gravité a également augmenté. Les employés ont signalé une augmentation de « appels de type crise » et cas de « maltraitance ou négligence envers les enfants ». Étant donné que les personnes qui prennent ces appels ne sont souvent que des bénévoles et non des professionnels, une formation et une supervision continues sont essentielles.

Ainsi, quatre des membres du personnel de la ligne d'assistance ont décidé de se syndiquer pour s'assurer que NEDA leur offrait un environnement de travail plus sûr et plus efficace. La réaction de NEDA à cela? Un chatbot.

Réponse de NEDA à la syndicalisation de la ligne d'assistance

L'un des membres du personnel à l'origine de la syndicalisation était Abbie Harper. Dans un article de blog sur Notes de travail , elle a expliqué les demandes raisonnables des travailleurs de la ligne d'assistance et a expliqué: 'Nous n'avons même pas demandé plus d'argent.' Elle a déclaré que le syndicat demandait simplement de meilleurs programmes de formation, une dotation en personnel appropriée et la possibilité pour les membres du personnel d'avancer dans leur carrière à la NEDA. Quatre jours après que le syndicat a remporté une élection pour la reconnaissance officielle auprès du Conseil national des relations du travail, la NEDA a révélé lors d'une réunion virtuelle du personnel qu'elle mettait fin à la ligne d'assistance. D'ici le 1er juin, tous ses employés seront licenciés. De nombreux volontaires seront également licenciés, tandis que d'autres pourraient être transférés dans d'autres domaines de la NEDA.

À la place de la ligne d'assistance, NEDA introduit un chatbot nommé Tessa. La NEDA a affirmé qu'il ne s'agissait pas d'un 'remplacement' de la ligne d'assistance, mais d'un programme entièrement nouveau. Le chatbot Tessa n'est même pas le même que le ChatGPT plus sophistiqué qui est apparu récemment. Une intelligence artificielle plus sophistiquée, comme ChatGPT, utilise le contexte pour générer des réponses lui permettant de soutenir une conversation de type humain.

Cependant, un chatbot plus ancien comme Tessa ne peut pas générer ces réponses plus spontanées. Au lieu de cela, il a un nombre limité de réponses prédéterminées. Il se décrit immédiatement comme un chatbot et pourrait ensuite « guider un utilisateur à travers une série spécifique de techniques thérapeutiques sur quelque chose comme l'image corporelle ». Il ne s'agit pas d'une « oreille attentive » ni d'un « outil ouvert », et il se peut qu'il n'ait pas de réponse à toutes les questions des appelants.

L'IA peut-elle remplacer la valeur de l'empathie humaine ?

NAGE tu as aurait déjà commencé à tester Tessa . Sur 700 femmes qui ont testé le chatbot, 375 ont attribué au programme une 'note 100% utile'. Les commentaires des 325 autres femmes ne sont cependant pas mentionnés. Pendant ce temps, Harper a des doutes sur la capacité d'un chatbot à effectuer le même travail qu'elle et ses collègues ont fait. Une chose qu'elle et ses collègues ont qu'un chatbot n'a pas, c'est l'expérience. De nombreux membres du personnel et des bénévoles de la ligne d'assistance téléphonique de la NEDA se sont remis de troubles de l'alimentation et disposent de connaissances, d'un soutien et d'une empathie inestimables pour ceux qui vivent les mêmes choses qu'eux.

La vice-présidente de la NEDA, Lauren Smolar, a défendu la décision de remplacer sa ligne d'assistance par un chatbot en raison de la responsabilité légale. Elle a expliqué les risques liés au fait que des bénévoles non professionnels traitent les appels de crise, mais n'a pas abordé les risques accrus liés au fait qu'une machine peut potentiellement prendre des appels de crise. Avec un chatbot, il y a de fortes chances qu'il n'ait pas de réponse pour quelqu'un en crise, tandis qu'avec ChatGPT, il y a une chance qu'il déraille et potentiellement cracher des informations nuisibles . Un chatbot peut être une ressource mineure pour les personnes en liste d'attente pour la ligne d'assistance, mais il ne peut tout simplement pas remplacer les appelants qui cherchent à avoir une conversation entre pairs et qui ont désespérément besoin d'un soutien humain.

L'augmentation de la demande de lignes d'assistance montre clairement la valeur du soutien humain, il semble donc très étrange que NEDA réponde à cela en se débarrassant entièrement de sa ligne d'assistance. C'est pourquoi Harper déclare que la décision visait simplement à « éclater les syndicats » et pas du tout à aider les individus. Les chatbots et l'IA ne peuvent pas ressentir d'émotion, et c'est là qu'intervient leur potentiel de causer du tort. Même lorsque les appelants sont informés qu'ils parlent à une machine, ils peuvent avoir l'impression d'être confrontés à une autre personne qui peut ' t empathie avec leurs luttes.

(image en vedette : Paramount Pictures)