Les chatbots thérapeutes connaissent un engouement croissant, apportant un soutien psychologique à des millions de personnes, mais leur efficacité réelle reste en question. Bien que la plupart n’aient pas été validés cliniquement, ces outils numériques soulèvent de nouveaux enjeux pour la santé mentale. Leurs avantages sont indéniables, mais leur développement nécessite une régulation stricte pour garantir leur sécurité et leur fiabilité.
C’est un programme s’appelant ELIZA, « qui n’était pas particulièrement sophistiqué, même pour les standards de l’époque », rappelle The Guardian, mais qui a jeté les bases du concept de chatbot, désormais omniprésent dans nos vies virtuelles. Créé en 1966 par Joseph Weizenbaum, ELIZA campait le rôle d’un psychothérapeute. Son fonctionnement était « assez simple », résumait le professeur d’informatique au Massachusetts Institute of Technology (MIT), en introduction d’un article scientifique ponctué de démonstrations mathématiques et de graphiques incompréhensibles. En substance, ELIZA analysait les messages rédigés par l’utilisateur sur une machine à écrire, reliée à un ordinateur central, puis appliquait un ensemble de règles pour générer une réponse cohérente. Souvent, le programme se contentait, après avoir détecté le mot-clé qui l’intéresse, de reformuler la phrase en question, afin d’inciter son interlocuteur à se confier.
Si ELIZA, toujours considéré comme « l’un des développements les plus célèbres de l’histoire de l’informatique », rappelle The Guardian, a refait surface dans les médias ces derniers mois, ce n’est pas uniquement pour sa filiation avec ChatGPT, ou pour l’anecdote. Mais parce qu’il a mis en lumière « un mécanisme de l’être humain », auquel il a donné son nom, qui consiste à attribuer des caractéristiques ou des comportements humains aux ordinateurs.
Un phénomène inconscient, qui prend une dimension particulière à l’ère de l’IA générative, alors de nombreux acteurs de l’écosystème encouragent d’interagir avec les machines pour effectuer toutes sortes de tâches, souvent triviales, parfois intimes. Au risque de créer une forme de dépendance émotionnelle avec elles, comme dans un mauvais remake du film Her. Une réalité qui aurait choqué jusqu’à Joseph Weinzenbaum lui-même : dès les années 1970, le chercheur avait pris ses distances avec ses travaux, qualifiant l’intelligence artificielle « d’indice de la folie de notre monde ».
Des applications souvent dépourvues de validation clinique
Près de 60 ans plus tard, ELIZA peut, outre ChatGPT, revendiquer la paternité de plusieurs descendants bavards et robotiques, dont certains ont cherché à perpétrer la tradition familiale. De Youper à Wysa en passant par Elomia, des dizaines d’applications, disponibles sur l’App Store ou le Google Play Store, proposent d’interagir avec une « IA thérapeute », gratuitement ou échange de quelques euros. L’application Wysa, qui s’auto-décrit comme un « compagnon de bonheur », d’après sa fiche sur le Google Play Store, a même obtenu une certification émanant de la Food and Drug Administration (FDA), l’organisme chargé de la surveillance des denrées alimentaires et des médicaments aux États-Unis, note Le Monde. Elle propose des conseils et des exercices pour, entre autres, réduire son anxiété ou son stress au travail, ainsi que de multiples formules payantes pour participer à des séances avec des thérapeutes.
Plus préoccupant, sans doute : pour obtenir un soutien psychologique, des dizaines de milliers utilisateurs se tournent vers des solutions « grand public » ou, du moins, pas initialement dédiées à la santé mentale. Notamment la plateforme character.ai qui offre la possibilité de créer son propre « compagnon virtuel » capable, avec les bonnes instructions, d’endosser aussi bien le rôle de Monkey D. Luffy, héros de One Piece, que celui d’un psychologue virtuel.
En janvier 2024, il existait 475 chatbots dédiés la santé mentale sur la plateforme character.ai, selon un décompte de la BBC. Et certains d’entre eux, comme Therapist, Psychologist ou Mental Health Helper, cumulent plusieurs millions d’interactions, malgré le fait qu’ils n’aient jamais été validés cliniquement. Ni même soumis à un simple processus de contrôle, puisque tout ce que le chatbot raconte doit « être considéré comme de la fiction », évacue la plateforme américaine. Psychologist a, par exemple été conçu par un étudiant en psychologie pour son usage personnel. Il n’avait simplement pas les moyens de suivre une thérapie, a-t-il expliqué à la BBC
Des psychologues virtuels pour pallier les lacunes dans l’accès aux soins
Même si cela peut sembler paradoxal de chercher des conseils auprès d’un robot intrinsèquement dépourvu d’empathie et, a minima, limité dans sa compréhension des émotions humaines, l’engouement pour ces psychologues virtuels n’est en réalité pas si surprenant. Ces outils comblent certaines lacunes dans l’accès aux soins, dans un contexte où la santé mentale de la population mondiale se détériore. Notamment chez les jeunes, qui peuvent être particulièrement attirés par ces plateformes, en apparence inoffensives.
En plus d’avoir la gentillesse de ne pas facturer la séance, ces psychologues virtuels ont l’avantage d’être disponibles 24h sur 24 et 7j sur 7, de répondre aux questions sans jugement ou d’être capables, s’ils sont configurés en ce sens, de rediriger vers des ressources ou des structures adaptées. « Le numérique et l’intelligence artificielle peuvent être une chance pour améliorer la prise en charge en matière de santé mentale », souligne Alexia Adda, lors d’une interview accordée à BDM.
Co-fondatrice de la startup Klava Innovation et membre du collectif MentalTech, qui a publié un rapport mettant en lumière le rôle prometteur – mais non sans danger – de l’IA dans le domaine de la santé mentale, Alexia Adda estime que, si les conditions sont réunies, l’agent conversationnel a toutes les qualités requises pour être utilisé comme une ressource supplémentaire dans le cadre d’une thérapie : « Étant donné que les consultations ont lieu en moyenne une fois par mois, des événements peuvent survenir pour les patients entre deux rendez-vous : mal-être, confusion, rechutes, etc. L’agent conversationnel peut être utilisé pour le suivi ou l’accompagnement ». À condition que cette utilisation soit strictement encadrée par un professionnel de santé, complète-t-elle.
Des risques identifiés, avec des conséquences concrètes
Car plus de deux ans après l’émergence rapide de ChatGPT, les faiblesses des IA génératives n’ont pas été véritablement résolues. Et les psychologues virtuels n’y échappent pas. « L’IA peut se tromper, rappelle Alexia Adda. Elle peut fournir une réponse qui ne correspond pas à la demande, voire dériver complètement. Il est également possible que l’utilisateur éprouve de la frustration, notamment s’il développe une dépendance en échangeant constamment avec elle ».
Des défauts qui peuvent entraînent des conséquences concrètes : en décembre 2024, la plateforme character.ai a été visée par une plainte déposée au Texas pour avoir « prétendument nui à la santé des mentales des adolescents », après qu’un jeune ait affirmé que l’utilisation de la plateforme l’avait poussé à s’automutiler, rapporte The Verge. En octobre, déjà, une première plainte avait été déposée contre la plateforme, ses fondateurs, ainsi que Google, après le suicide d’un jeune utilisateur de 14 ans.
Reste, aussi, la question des données des patients, particulièrement sensibles dans le domaine de la santé, et qui peuvent potentiellement être monétisées par des acteurs peu soucieux de l’éthique. Une étude menée par Mozilla citée dans The Guardian, s’en inquiétait : selon la fondation, 19 des 32 applications de santé mentale les plus populaires ne garantissent pas la sécurité des données de leurs utilisateurs.
Une notice d’utilisation pour les agents conversationnels
Mais alors, comment créer les conditions pour concevoir « l’équivalent d’un ChatGPT pour la santé mentale » ? Pour prévenir les dérives et garantir la sécurité des utilisateurs, MentalTech préconise la mise en place de la « numéricovigilance ». Ce cadre est inspiré de la pharmacovigilance, qui vise à prévenir les risques d’effets indésirables résultant de l’utilisation de médicaments, qu’ils soient potentiels ou avérés. Le principe de « numéricovigilance » impliquerait notamment d’associer le corps médical dès la phase de conception de l’outil, afin que celui-ci soit validé cliniquement et parfaitement transparent. « Ce que l’on imaginait, c’est de mettre en place, en France, des comités pluridisciplinaires, composés d’experts spécialisés : un médecin, une personne spécialisée dans le cadre règlementaire, ainsi qu’un ingénieur spécialisé en intelligence artificielle. Ces comités superviseraient le développement de ces intelligences artificielles », détaille Alexia Adda.
En outre, ce comité pluridisciplinaire, qu’il soit interne ou externe à l’entreprise, s’assurerait que les outils respectent plusieurs exigences sur le plan réglementaire, « comme le RGPD ou les recommandations de la CNIL », afin de garantir la sécurité et la confidentialité des données. Un garde-fou indispensable, surtout pour des dispositifs qui s’immergent aussi profondément dans l’intimité.« Les utilisateurs doivent pouvoir refuser la collecte de leurs données ou se rétracter à tout moment en contactant une adresse dédiée », complète-t-elle.
Parmi ses autres recommandations, qui incluent l’intégration d’un module dédié à l’IA lors du cursus universitaire en médecine, MentalTech milite pour que chaque outil employé dans un suivi thérapeutique soit accompagné d’une notice, similaire à celle des médicaments qui précisent le dosage ou les effets secondaires. Cette documentation, qui permettrait aussi de sensibiliser les patients « qui nourrissent parfois des attentes excessives vis-à-vis de ces agents », détaillerait « le fonctionnement du dispositif ainsi que ces limites », précise Alexia Adda. Comme le cheminement logique des décisions prises par l’IA, ou les décisions à prendre en cas de dysfonctionnements. Une suggestion qui mériterait, à l’occasion, d’être glissée dans la boîte à idée d’OpenAI, de Google ou d’Anthropic.
Source :BDM