Une responsable de la firme californienne d’intelligence artificielle OpenAI a suggéré que ChatGPT pouvait être un bon psychologue. Mais un psy IA serait-il réellement efficace ? Une étude scientifique pencherait plutôt pour un effet placebo que sur une réelle expertise ou efficacité.
Utiliser un psy IA, bonne ou mauvaise idée ?
L’intelligence artificielle a de nombreuses applications à l’heure actuelle. Que cela soit pour le diagnostic médical ou pour concevoir de nouveaux médicaments, cette technologie est partout. Lilian Weng, la chargée des enjeux de sécurité liés à l’intelligence artificielle a même suggéré la possibilité de s’en servir comme d’un psy IA. Dans un post sur X, elle raconte avoir eu une conversation personnelle émouvante avec ChatGPT au sujet du stress et d’équilibre entre travail et vie personnelle. Elle déclare s’être sentie écoutée et réconfortée et s’interroge sur le potentiel d’utilisation de cette technologie pour faire de la thérapie. Ce faisant, elle s’est attiré les foudres de quelques internautes.
La réalisation d’une thérapie avec un robot fait débat
En réalité, le post de Lilian Weng visait surtout à promouvoir la nouvelle fonctionnalité payante de synthèse vocale ChatGPT. Cependant, sa suggestion, selon laquelle elle pourrait servir à faire de la thérapie, n’a pas été du goût de tout le monde. Certains internautes lui ont répondu que la psychologie était un travail difficile dont le but est d’améliorer la santé mentale. D’autres ont également souligné l’incomparabilité d’une thérapie et le fait de s’envoyer à soi-même des ondes positives via cette technologie. Il convient de préciser que la psychologie est un domaine sensible et que l’utilisation d’un robot alimenté par l’intelligence artificielle en tant que thérapeute peut sembler incongrue, voire mal venue pour certains.
Une étude démontre un effet placebo
La question qui se pose quand il s’agit d’utiliser un psy IA, est de savoir si l’expérience positive décrite par les personnes qui l’ont essayé est réelle. Une étude américaine sur le sujet fait état d’un effet placebo. En réalité, les personnes qui pensent avoir affaire à un assistant virtuel bienveillant ont tendance à le considérer comme digne de confiance, car elles se basent sur leurs préconceptions. Une expérience menée auprès de 4 000 patients par une ONG américaine, quant à elle, démontre que les réponses automatisées sous forme de conseils fournies par GPT-3 n’étaient pas efficaces. Ces piètres résultats en psychologie s’expliqueraient par la stupidité des chatbots, ajoute encore un chercheur.
Les dangers potentiels du recours à l’intelligence artificielle comme psychologue
Malgré un éventuel effet placebo, l’utilisation d’un agent conversationnel basé sur l’intelligence artificielle en tant que substitut à un psychologue professionnel peut comporter des dangers potentiels pour la santé mentale. Bien que ces outils technologiques puissent offrir une aide et un soutien immédiats, ils ne peuvent pas remplacer l’expertise et l’expérience humaine offertes par un psychologue. Les principales préoccupations résident dans le fait que ces agents conversationnels ne disposent pas de la capacité d’empathie, de jugement ou de compréhension contextuelle nécessaire pour traiter les problèmes complexes et les émotions humaines de manière adéquate.
L’importance de la psychothérapie pour promouvoir la santé mentale
La psychothérapie joue un rôle crucial dans la promotion de la santé mentale et le bien-être des individus. C’est un processus d’exploration et de traitement des problèmes émotionnels, psychologiques et comportementaux qui peut aider les personnes à mieux comprendre leur propre pensée et leurs émotions, à surmonter des difficultés, etc. Les professionnels de la santé mentale soulignent l’importance de la thérapie pour traiter une variété de troubles mentaux notamment l’anxiété, la dépression, les troubles alimentaires, le stress post-traumatique, et bien d’autres. Pour en profiter, il est essentiel de se tourner vers un professionnel qualifié.
Avec ETX/DailyUp