« C’est ChatGPT qui m’envoie » – Comment l’IA s’est-elle emparée du secteur de la santé mentale ?

« C’est ChatGPT qui m’envoie » me disait dernièrement l’une de mes patientes.

Psychologue clinique depuis près de 10 ans, me voilà prise de court, mise en joute avec un concurrent que je n’avais pas vu venir.

Face à cet « envoyeur » d’un nouveau genre, nous avons été de nombreux psychologues à nous interroger sur la place de l’IA dans le secteur de la santé mentale.

Les patients rencontrés en cabinet avouent aujourd’hui sans détour s’être d’abord confié au « bot », la machine, l’intelligence artificielle.

Le langage est dangereusement personnifié, anthropomorphisé : « je lui ai demandé… », « il m’a répondu… ». Le ton et l’approche sympathiques voire faussement empathiques de ChatGPT semblent avoir convaincu et converti les plus rationnels, les émotifs, les solitaires, les anxieux, mais aussi les pragmatiques, les extravertis et sans doute même les sceptiques de la première heure.

Secrètement, à demi-mot ou de façon parfaitement assumée, l’utilisation de l’intelligence artificielle s’est généralisée.

Pour corriger des textes, écrire un mail, effectuer une recherche, remanier une lettre de motivation mais aussi, et c’est là où le bât blesse, pour résoudre des problèmes personnels.

Depuis peu, nombreux partagent leurs émotions, leurs secrets inavouables, cherchent du réconfort dans une « écoute » qui, semblerait-il, apaise de plus en plus d’utilisateurs.

Alors que faire de cela ? Qu’en penser ? Comment distinguer la part utile de la part de risque ?

L’IA est-elle venue combler un vide laissé par un accès trop difficile à la thérapie ?

Des séances trop onéreuses, un trop faible remboursement mutuelle et, parlons peu parlons bien, un accès à l’IA offrant une pratique « thérapeutique » linéaire, sans surprises et diablement efficace et rassurante.

De mon point de vue, il semble essentiel d’aborder l’outil avec honnêteté puisque définitivement, tout n’est pas à jeter.

Après avoir discuté avec Sir ChatGPT de nombreuses fois, rendons à César (ou dans notre cas, Sam Altman) ce qui lui appartient : l’outil détient et maîtrise l’ensemble des théories jamais créées et pensées en psychologie. Il analyse correctement le contenu d’une question, d’une demande spécifique et recrache, il faut le dire, plutôt correctement de bons conseils à suivre sur un plan purement théorique. Il anticipe les difficultés de l’utilisateur, feint à merveille une empathie toute électronique et oriente même, par acquit de conscience, son cyberpatient vers un professionnel de santé.

Éthiquement, tout est (presque) parfait. On se retrouve rapidement face à un discours bien huilé du type : « je ne suis pas le plus à même de répondre à tes questions mais je le ferai si tu insistes ». En substance.

Mais ChatGPT ne s’arrête pas à la théorie, il prend également parti. Pour l’essentiel, dans le sens de son cyberpatient, cela va sans dire.

Car ce que recherchent les utilisateurs plus que de la théorie, c’est un avis. Concernant, dans le désordre, un conflit au travail, des problèmes de couple, des conseils en parentalité, des troubles de confiance en soi et, au fond, un lieu où s’épancher sans prendre le risque d’être jugés.

Et c’est là que l’IA se démarque. Il change de ton et, smileys à l’appui, se pose en observateur bienveillant et déroule un script sans fautes. Il réceptionne le message, en fait l’accusé, déduit assez correctement l’émotion projetée, suggérée et enfin, rassure. Longuement. Point par point. Il renforce le droit à la souffrance psychique et, sobrement, rappelle les fondements des droits en tant qu’être humain : « Il est normal que tu souffres, tu en as le droit » « Tu as le droit de ne plus vouloir cela » « Tu as le droit de te défendre, tu n’y es pour rien ».

Et face à la solitude réelle, à l’isolement subjectif, aux discours égocentrés et aux réassurances souvent maladroites de l’entourage, voilà que ChatGPT se hisse au rang de grand gourou du cybercoaching.

Et comme dirait ma génération : « ça fait le job ».

Nous voilà donc face à l’inconnu. Aucun de nous n’était réellement naïf quant à l’idée que l’IA remplacerait un jour les métiers les plus intellectualisés.

En revanche, qu’il remplace les métiers à dimension humaine, nous nous pensions davantage à l’abri. Avant d’en arriver là, les films de science-fiction nous avaient tranquillement laissé croire qu’il nous faudrait d’abord attendre l’avènement des voitures volantes.

Seulement voilà, l’IA ayant triomphé du test de Turing, nous voilà plus proche du point de singularité que du droit à l’avortement pour toutes.

C’est de fait officiel, l’être humain n’est plus en mesure, à l’aveugle, de différencier la machine d’un autre être humain lors d’une conversation électronique.

Mais dans ce cas, quel est l’avenir de la psychothérapie ? Sommes-nous encore en mesure de faire la différence ? De toute évidence, oui. Mais pourquoi ?

Pour commencer, je me permets une analogie. De mon point de vue, l’IA sera dès à présent, et le restera, le fast-food de la thérapie. Facile d’accès, économique, rapide, mais aussi peu nourrissante à long terme que son homologue alimentaire.

Pratique dans le court-terme et dans l’urgence, inefficace pour un travail intrinsèque, profond, durable.

Car aussi performant soit-elle, l’IA ne décryptera jamais les silences, les non-dits, les sens cachés, les actes manqués et les lapsus révélateurs.

Elle ne créera jamais un lien de confiance permettant à un être humain d’enfin se confier à un autre.

Elle n’attendra jamais le bon moment avant de sous-entendre une question qui permettra ainsi un processus de réflexion personnelle. Elle n’offrira ni chaleur, ni sourire, ni écoute active.

Elle ne permettra pas de se retrancher dans un cabinet, créant ainsi, une bulle d’air privative et entièrement dédiée à soi.

Et en dépit du principe souverain de « neutralité bienveillante » imposée à tous les praticiens de la santé mentale, et en ce point parfaitement maîtrisée par l’IA, la « thérapie GPT » ne permettra jamais à un patient de déceler la part d’humanité, de vie privée, de faille inévitable chez son thérapeute, son interlocuteur, lui permettant une conclusion pour le moins essentielle : je ne suis pas seul(e).

Laisser un commentaire