Therapists Must Be Superhuman When Competing With AI Giving Out Free Mental Health Advice


Dans la chronique d’aujourd’hui, j’examine l’inquiétude croissante selon laquelle les thérapeutes humains sont de plus en plus comparés à l’IA générative quotidienne, qui dispense volontiers des conseils en matière de santé mentale. Vous pouvez vous connecter à presque toutes les principales IA génératives ou grands modèles de langage (LLM), tels que OpenAI ChatGPT, Anthropic Claude, Google Gemini et Meta Llama, et demander des conseils en matière de santé mentale librement et toute la journée. Les gens s’habituent pleinement à cela.

Lorsque ces mêmes personnes interagissent ensuite avec un thérapeute humain, les attentes quant à ce que le spécialiste de la santé mentale peut faire pour elles sont extrêmement accrues. Dans un sens, le public s’oriente progressivement vers une attente intenable selon laquelle les thérapeutes humains doivent être surhumains pour diagnostiquer et fournir des conseils en matière de santé mentale. Les thérapeutes humains seront tenus à une barre haute qui dépasse de loin tout semblant raisonnable de pratique habituelle en matière de santé mentale.

Parlons-en.

Cette analyse des percées de l’IA fait partie de ma chronique Forbes sur les dernières nouveautés en matière d’IA, notamment l’identification et l’explication de diverses complexités percutantes de l’IA (voir le lien ici).

IA et thérapie en santé mentale

Pour résumer rapidement, j’ai longuement couvert et analysé une myriade de facettes concernant l’avènement de l’IA de l’ère moderne qui produit des conseils en matière de santé mentale et exécute une thérapie basée sur l’IA. Cette utilisation croissante de l’IA a été principalement stimulée par l’évolution des progrès et l’adoption généralisée de l’IA générative. Pour un résumé rapide de certaines de mes colonnes publiées sur ce sujet en évolution, voir le lien ici, qui récapitule brièvement une quarantaine des plus d’une centaine de colonnes que j’ai publiées sur le sujet.

Il ne fait aucun doute qu’il s’agit d’un domaine en développement rapide et qu’il présente d’énormes avantages, mais en même temps, malheureusement, ces efforts comportent également des risques cachés et de véritables pièges. Je parle fréquemment de ces questions urgentes, y compris lors d’une apparition l’année dernière dans un épisode de l’émission CBS 60 minutesvoir le lien ici.

Si vous êtes nouveau sur le sujet de l’IA pour la santé mentale, vous voudrez peut-être envisager de lire ma récente analyse du domaine, qui raconte également une initiative très innovante du département de psychiatrie et des sciences du comportement de l’Université de Stanford appelée AI4MH ; voir le lien ici.

Utiliser l’IA pour des conseils en matière de santé mentale

Partout dans le monde, des personnes utilisent régulièrement l’IA générative pour les informer sur leurs problèmes de santé mentale. C’est une de ces situations proverbiales de bonnes et de mauvaises nouvelles. Nous sommes dans une expérience mondiale trouble dont les résultats sont inconnus. Si l’IA fait du bon travail et donne des conseils appropriés, tant mieux, le monde s’en portera mieux. D’un autre côté, si l’IA donne de mauvais conseils, l’état de santé mentale du monde pourrait s’aggraver.

Pour en savoir plus sur les impacts au niveau de la population, consultez mes commentaires sur le lien ici.

La beauté de s’appuyer sur l’IA générative et les LLM pour vos besoins en santé mentale est que l’IA est pratiquement gratuite et disponible presque partout et à tout moment. Contrairement à l’utilisation d’un thérapeute humain, vous n’avez pas besoin de planifier des visites, vous n’avez pas besoin de rechercher une interaction uniquement pendant les heures de bureau, et vous pouvez interagir aussi longtemps que vous le souhaitez sans avoir à payer des frais coûteux.

L’utilisation de l’IA générative pour l’orientation en matière de santé mentale est assez séduisante et constitue un phénomène en croissance rapide.

Relever la barre en grand

Il y a une conséquence négative quelque peu involontaire qui émerge inextricablement en raison de cette tendance.

Les gens comparent consciemment ou parfois inconsciemment les capacités des thérapeutes humains aux conseils en matière de santé mentale qu’ils reçoivent de l’IA. La comparaison s’effectue dans de nombreuses dimensions.

L’une des dimensions de la comparaison est que l’IA tire généralement immédiatement une conclusion sur votre état de santé mentale. Aucune interaction prolongée n’est nécessaire. Vous n’avez pas besoin de parler de votre enfance ou de tout autre fait historique de votre vie. Avec quelques questions et réponses superficielles, le tour est joué, l’IA vous dit ce qui se passe et vous conseille quoi faire.

Ce type de prestation de restauration rapide et simple de conseils en matière de santé mentale devient alors une nouvelle norme.

Les gens s’attendent à ce que les thérapeutes humains fassent de même. Oubliez une série de séances individuelles sur plusieurs semaines et mois. Le thérapeute doit vous évaluer en quelques minutes et aller droit au but.

Pourquoi perdre des tonnes de temps ?

L’IA fonctionne rapidement et efficacement. Il en va de même pour les thérapeutes humains. Pour plus de détails sur cette attente croissante et d’autres facettes, consultez ma discussion sur le lien ici.

Le thérapeute surhumain

Il est possible de suggérer que les attentes quant à ce qu’un thérapeute humain peut accomplir augmentent à la hausse en raison de l’utilisation généralisée de l’IA. Vous pourriez même suggérer que le public considère que les thérapeutes doivent être surhumains. Les thérapeutes sont censés deviner comme par magie les problèmes de santé mentale d’un simple coup de baguette magique. Aucun retard. Pas d’interaction fastidieuse et difficile. Entrez directement dans le vif du sujet en un éclair.

Un aspect quelque peu similaire a été constaté dans le domaine des médecins. Une étude de recherche intitulée « Calibrating AI Reliance — A Physician’s Superhuman Dilemma » par Shefali V. Patil, Christopher G. Myers et Yemeng Lu-Myers, Forum JAMA sur la santéle 21 mars 2025, a souligné ces points clés (extraits) :

  • « L’IA génère des recommandations en identifiant des corrélations et des modèles statistiques à partir de grands ensembles de données, tandis que les médecins s’appuient sur le raisonnement déductif, l’expérience et l’intuition, donnant souvent la priorité à la cohérence narrative et aux contextes spécifiques aux patients qui peuvent évoluer au fil du temps. »
  • « Les attentes surhumaines placées dans les médecins pour calibrer la confiance dans les systèmes d’IA présentent des risques importants tant pour les erreurs médicales que pour le bien-être des médecins. »
  • « Les recherches sur les attentes irréalistes dans d’autres professions, comme les forces de l’ordre, révèlent que les employés soumis à de telles pressions hésitent souvent à agir, craignant des conséquences inattendues et des critiques. »
  • « Au-delà des erreurs, la difficulté de faire face à des attentes irréalistes peut conduire au désengagement. »

Notez que la pression exercée sur les médecins et autres professionnels qui entrent dans la catégorie des surhumains peut produire des conséquences désastreuses sur le dos de ces prestataires de services. Ils pourraient commencer à aller à l’encontre de leurs normes professionnelles, en essayant d’être plus rapides que ce qu’ils pensent être pratique et prudent.

Lorsque vous êtes confronté à des clients et des patients qui ont des exigences désordonnées, vous vous engagez sur une pente glissante vers l’adage « le client a toujours raison ». D’un côté, un professionnel ressent un désir ardent de respecter son serment et son éthique professionnelle, mais en même temps, la pression d’obtenir et de servir des clients entraîne une immense pression pour se transformer.

Clients citant des conseils en IA

Un autre aspect qui rend la vie difficile aux thérapeutes humains est que les gens citent souvent pendant la thérapie les conseils qui leur sont donnés via l’IA. Autrefois, les gens mentionnaient ce qu’un membre de leur famille ou un ami leur avait dit sur leurs problèmes de santé mentale. Un thérapeute pourrait facilement expliquer que ces informations bien intentionnées ne sont pas basées sur une expertise et des normes appropriées en matière de santé mentale.

Le problème est désormais que le client aura tendance à croire totalement ce que l’IA lui a dit. Ils insisteront sur le fait que l’IA doit savoir ce qu’elle fait. Il n’est plus aussi facile de se débarrasser de tels commentaires de tiers.

Les thérapeutes sont obligés d’expliquer que l’IA a des faiblesses et des limites (en supposant qu’ils connaissent l’IA, ce qu’ils devraient, je pense, voir mes remarques sur le lien ici). Certains clients écouteront cela et supposeront que le thérapeute a raison sur les malheurs de l’IA. D’autres considéreront ces affirmations comme une posture défensive du thérapeute, essayant désespérément de nier les incroyables capacités qu’apporte l’IA.

Malheureusement, les séances de thérapie peuvent se transformer en débats intenses sur l’IA, plutôt que de se concentrer sur les besoins réels du client. Le problème séduisant est que cela peut se produire au cours de sessions successives. Chaque séance parvient à s’enliser dans un contrepoint entre ce que dit l’IA et ce que dit le thérapeute humain.

Pas bon.

Se battre pour rester humain

Les thérapeutes peuvent aborder ces désignations surhumaines déconcertantes de plusieurs manières judicieuses.

Concentrons-nous sur trois étapes cruciales.

Premièrement, certains thérapeutes choisissent judicieusement d’intégrer l’IA directement dans leurs pratiques. Pour ce faire, ils offrent à leurs clients un accès spécialisé à l’IA générative qui a été mise en place pour faciliter le travail du thérapeute. Pourquoi est-ce une longueur d’avance sur la question ? Parce que le thérapeute prend le taureau par les cornes et utilise ouvertement l’IA, plutôt que de laisser le client fouiller dans l’IA générative standard. Comme on dit, si vous ne pouvez pas les battre, rejoignez-les.

J’ai prédit que nous nous éloignons de la dyade thérapeute-client et que nous nous dirigeons plutôt vers une nouvelle triade, le combo thérapeute-IA-client. Les thérapeutes qui n’exploitent pas l’IA seront sans aucun doute dépassés par les thérapeutes qui le font, voir ma discussion sur le lien ici.

Deuxièmement, les thérapeutes doivent être pleinement préparés à la discorde entre l’IA et le thérapeute. Plutôt que de se laisser prendre au dépourvu, les thérapeutes de l’ère moderne réalisent déjà que leurs clients sont susceptibles d’utiliser l’IA. Le thérapeute sera prêt à discuter ouvertement et de manière transparente des compromis liés à l’utilisation de l’IA à des fins de santé mentale. Pas besoin de se mettre dans une posture défensive. Soyez poli et respectueux, tout en ramenant la thérapie au bon sujet.

Troisièmement, les thérapeutes contemporains utilisent l’IA pour se familiariser avec ce qu’elle peut et ne peut pas faire. Il s’agit d’une expérience directe et concrète. Si un thérapeute se contente de conceptualiser ce que fait l’IA, sa tentative de minimiser l’IA semblera creuse et sans fondement. Il est préférable de pouvoir donner des exemples illustrant la façon dont l’IA échoue dans les conseils en matière de santé mentale. Ces exemples doivent avoir été rencontrés par le thérapeute lors de ses explorations de l’IA ; ainsi, ils parlent avec leur cœur et avec leur esprit.

Jouer la carte de l’empathie

Un angle que certains thérapeutes pourraient essayer d’utiliser lorsqu’ils sont confrontés à l’étiquetage surhumain est qu’ils sont effectivement quasi-surhumains dans le sens où ils sont humains et, par conséquent, sont adroitement empathiques. L’argument est que l’IA n’est pas empathique et ne sera pas propice à la réalisation d’une thérapie en conséquence. C’est simplement une machine sans âme. Quiconque s’en tient à l’IA ou croit en l’IA perd vraisemblablement l’élément empathique de la communication et de la collaboration interhumaines.

Cela semble certainement convaincant, mais ce n’est pas un argument aussi solide qu’on pourrait le supposer.

Les études ont constamment démontré que les gens peuvent percevoir l’IA comme étant empathique, voir mon analyse sur le lien ici. L’IA correspond à des modèles sur la manière dont les humains transmettent de l’empathie à leurs semblables. En imitant ce style, l’IA peut sembler empathique de manière convaincante. Ceux qui tentent d’insister sur le fait que l’IA n’est pas vraiment empathique sont souvent confrontés à une bataille perdue d’avance, à savoir que les gens sont moins soucieux d’acquérir la version de l’empathie basée sur l’âme alors qu’ils obtiennent autrement librement l’aura d’empathie simulée de l’IA.

Pas de têtes dans le sable

En fin de compte, la thérapie est complètement bouleversée et transformée. L’époque où un thérapeute et un client étaient assis face à face et se bloquaient du reste du monde est en train d’être usurpée. L’IA usurpe. D’une manière ou d’une autre, l’IA sera entre les mains du client ou du thérapeute, ou entre les deux mains.

Il est peu probable que les thérapeutes qui se cachent du voyage en train de l’IA qui avance à toute allure l’emportent.

Sigmund Freud a dit ceci à propos de l’acceptation du changement : « Nous sommes faits de telle sorte que nous ne pouvons tirer un plaisir intense que d’un contraste et très peu d’un état de choses. » Les changements en cours dus à l’adoption généralisée de l’IA sont réels et se produisent à une vitesse fulgurante. Chaque thérapeute doit prendre une décision déterminante. Vont-ils s’éloigner de l’IA, ou vont-ils creuser profondément et déterminer la place de l’IA dans leur monde thérapeutique ?

Il s’agit d’une décision importante et réfléchie qui doit être prise judicieusement.

Leave a Reply

Your email address will not be published. Required fields are marked *