Mon psy est une intelligence artificielle, c’est grave docteur?
L’avènement des applications intelligentes comme ChatGPT nous amène à nous poser quelques questions. Peut-on utiliser l’intelligence artificielle dans le domaine de la santé? ChatGPT est-il un bon psychologue?
Une responsable de la firme californienne d’intelligence artificielle OpenAI, à l’origine du chatbot viral, a récemment suggéré que ChatGPT pouvait soigner les maux psychologiques. « Je viens d’avoir une conversation personnelle assez émouvante avec ChatGPT en mode vocal, à propos de stress et d’équilibre travail-vie personnelle », a-t-elle déclaré. « Fait intéressant, je me suis sentie écoutée et réconfortée. Je n’avais jamais tenté de thérapie auparavant mais ça ressemble probablement à ça? », s’est-elle interrogée.
La psychologie « a pour but d’améliorer la santé mentale et c’est un travail difficile », lui a vertement répondu la développeuse et activiste américaine Cher Scarlett. « S’envoyer à soi-même des ondes positives, c’est bien, mais ça n’a rien à voir » avec une thérapie, a-t-elle tancé.
Mais l’interaction avec une IA peut-elle réellement produire l’expérience positive décrite par Lilian Weng? Selon une étude publiée cette semaine dans la revue scientifique Nature Machine Intelligence, ce phénomène pourrait s’expliquer par un effet placebo.
Pour le démontrer, des chercheurs du Massachusetts Institute of Technology (MIT) et de l’université d’Arizona ont interrogé 300 participants, expliquant à certains que le chatbot était doté d’empathie, à d’autres qu’il était manipulateur et à un troisième groupe qu’il avait un comportement équilibré.
Résultat, ceux qui pensaient dialoguer avec un assistant virtuel bienveillant étaient bien plus enclins à considérer l’agent conversationnel comme digne de confiance. « Nous constatons qu’en quelque sorte, l’IA est perçue selon les préconceptions de l’utilisateur, » a déclaré Pat Pataranutaporn, co-auteur de l’étude.
« Stupidité » des robots
Sans s’encombrer de trop de précautions dans un domaine pourtant sensible, de nombreuses start-up se sont lancées dans le développement d’applications censées offrir une forme d’assistance en matière de santé mentale, occasionnant de premières polémiques.
L’ONG américaine Koko, qui a mené en février une expérience avec 4.000 patients en leur proposant des conseils rédigés à l’aide du modèle d’IA GPT-3, a reconnu que les réponses automatisées ne fonctionnaient pas en tant que thérapie. « L’empathie simulée paraît étrange, vide de sens », a écrit le cofondateur de la société, Rob Morris, sur X.
Cette remarque fait écho aux conclusions de la précédente étude sur l’effet placebo, lors de laquelle certains participants ont eu l’impression de « parler à un mur ». Sans rien comprendre réellement des problèmes qui lui étaient racontés, le logiciel semble se contenter de prolonger la discussion avec des questions types enrichies de mots-clés trouvés dans les réponses de ses interlocuteurs.
Lire aussi | Un psy, oui, mais lequel?