3 choses à savoir sur l’utilisation de ChatGPT comme thérapeute

Freddie Chipres ne pouvait pas ébranler la mélancolie qui se cachait aux confins de sa vie par ailleurs « bénie ». Il se sentait parfois seul, en particulier lorsqu’il travaillait à domicile. Le courtier en hypothèques marié de 31 ans s’est demandé si quelque chose n’allait pas : Pourrait-il être déprimé ?

Chipres connaissait des amis qui avaient eu des expériences positives en voyant un thérapeute. Il était plus ouvert à l’idée que jamais auparavant, mais cela signifiait aussi trouver quelqu’un et prendre rendez-vous. Vraiment, il voulait juste un petit retour sur sa santé mentale.

C’est alors que Chipres s’est tourné vers ChatGPT(Ouvre dans un nouvel onglet), un chatbot propulsé par l’intelligence artificielle qui répond d’une manière étonnamment conversationnelle. Après la dernière itération du chatbot lancée en décembre, il a regardé quelques vidéos YouTube suggérant que ChatGPT pourrait être utile non seulement pour écrire des lettres professionnelles et rechercher divers sujets, mais aussi pour résoudre des problèmes de santé mentale.

ChatGPT n’a pas été conçu à cette fin, ce qui soulève des questions sur ce qui se passe lorsque les gens le transforment en thérapeute ad hoc. Bien que le chatbot connaisse bien la santé mentale et puisse répondre avec empathie, il ne peut pas diagnostiquer les utilisateurs souffrant d’un problème de santé mentale spécifique, ni fournir de manière fiable et précise des détails sur le traitement. En effet, certains experts en santé mentale craignent que les personnes cherchant de l’aide auprès de ChatGPT ne soient déçues ou induites en erreur, ou ne compromettent leur vie privée en se confiant au chatbot.

VOIR ÉGALEMENT:

6 choses effrayantes pour lesquelles ChatGPT a déjà été utilisé

OpenAI, la société qui héberge ChatGPT, a refusé de répondre aux questions spécifiques de Mashable concernant ces préoccupations. Un porte-parole a noté que ChatGPT a été formé pour refuser les demandes inappropriées et bloquer certains types de contenus dangereux et sensibles.

D’après l’expérience de Chipres, le chatbot n’a jamais offert de réponses inconvenantes à ses messages. Au lieu de cela, il a trouvé que ChatGPT était d’une utilité rafraîchissante. Pour commencer, Chipres a recherché sur Google différents styles de thérapie et a décidé qu’il bénéficierait le plus de la thérapie cognitivo-comportementale.(Ouvre dans un nouvel onglet) (TCC), qui se concentre généralement sur l’identification et le recadrage des schémas de pensée négatifs. Il a incité ChatGPT à répondre à ses questions comme le ferait un thérapeute CBT. Le chatbot a obligé, mais avec un rappel de demander de l’aide professionnelle.

Chipres a été stupéfait par la rapidité avec laquelle le chatbot a offert ce qu’il a décrit comme de bons conseils pratiques, comme faire une promenade pour améliorer son humeur, pratiquer la gratitude, faire une activité qu’il aimait et trouver le calme grâce à la méditation et à une respiration lente et profonde. Les conseils se résumaient à des rappels de choses qu’il avait laissées de côté; ChatGPT a aidé Chipres à redémarrer sa pratique de méditation dormante.

Il a apprécié que ChatGPT ne l’ait pas bombardé de publicités et de liens d’affiliation, comme de nombreuses pages Web sur la santé mentale qu’il a rencontrées. Chipres a également apprécié le fait que c’était pratique et que cela simulait la conversation avec un autre être humain, ce qui le distinguait notamment de parcourir Internet pour obtenir des conseils en matière de santé mentale.

“C’est comme si j’avais une conversation avec quelqu’un. Nous faisons des allers-retours”, dit-il, appelant momentanément et par inadvertance ChatGPT une personne. “Cette chose écoute, prête attention à ce que je dis… et me donne des réponses basées sur ça.”

L’expérience de Chipres peut sembler attrayante pour les personnes qui ne peuvent pas ou ne veulent pas accéder à des conseils ou à une thérapie professionnelle, mais les experts en santé mentale disent qu’ils devraient consulter ChatGPT avec prudence. Voici trois choses que vous devez savoir avant d’essayer d’utiliser le chatbot pour discuter de santé mentale.

1. ChatGPT n’a pas été conçu pour fonctionner comme un thérapeute et ne peut pas vous diagnostiquer.

Bien que ChatGPT puisse produire beaucoup de texte, il ne se rapproche pas encore de l’art de dialoguer avec un thérapeute. Le Dr Adam S. Miner, psychologue clinicien et épidémiologiste qui étudie l’intelligence artificielle conversationnelle, affirme que les thérapeutes peuvent souvent reconnaître qu’ils ne connaissent pas la réponse à la question d’un client, contrairement à un chatbot apparemment omniscient.

Cette pratique thérapeutique vise à aider le client à réfléchir sur sa situation pour développer ses propres idées. Un chatbot qui n’est pas conçu pour la thérapie, cependant, n’aura pas nécessairement cette capacité, explique Miner, professeur adjoint clinique en psychiatrie et sciences du comportement à l’Université de Stanford.

Surtout, Miner note que bien que la loi interdise aux thérapeutes de partager des informations sur les clients, les personnes qui utilisent ChatGPT comme caisse de résonance ne bénéficient pas des mêmes protections en matière de confidentialité.

“Nous devons en quelque sorte être réalistes dans nos attentes, car ce sont des machines linguistiques incroyablement puissantes et impressionnantes, mais ce sont toujours des logiciels imparfaits et formés sur des données qui ne conviendront pas à toutes les situations”, dit-il. . “C’est particulièrement vrai pour les conversations sensibles sur la santé mentale ou les expériences de détresse.”

Le Dr Elena Mikalsen, chef de la psychologie pédiatrique à l’hôpital pour enfants de San Antonio, a récemment essayé d’interroger ChatGPT avec les mêmes questions qu’elle reçoit des patients chaque semaine. Chaque fois que Mikalsen a essayé d’obtenir un diagnostic du chatbot, il l’a repoussé et a recommandé des soins professionnels à la place.

C’est sans doute une bonne nouvelle. Après tout, un diagnostic vient idéalement d’un expert qui peut faire cet appel en fonction des antécédents médicaux et des expériences spécifiques d’une personne. Dans le même temps, Mikalsen dit que les personnes qui espèrent un diagnostic peuvent ne pas se rendre compte que de nombreux outils de dépistage validés cliniquement sont disponibles en ligne.(Ouvre dans un nouvel onglet).

Par exemple, une recherche Google mobile pour “dépression clinique” pointe immédiatement vers un agent de dépistage(Ouvre dans un nouvel onglet) connu sous le nom de PHQ-9, qui peut aider à déterminer le niveau de dépression d’une personne. Un professionnel de la santé peut examiner ces résultats et aider la personne à décider quoi faire ensuite. ChatGPT fournira les coordonnées de la ligne de vie 988 Suicide and Crisis Lifeline(Ouvre dans un nouvel onglet) et ligne de texte de crise(Ouvre dans un nouvel onglet) lorsque la pensée suicidaire est directement référencée, le langage utilisé par le chatbot peut enfreindre sa politique de contenu.

2. ChatGPT peut être bien informé sur la santé mentale, mais ce n’est pas toujours complet ou juste.

Lorsque Mikalsen a utilisé ChatGPT, elle a été frappée par la façon dont le chatbot fournissait parfois des informations inexactes. (D’autres ont critiqué les réponses de ChatGPT comme présentées avec une confiance désarmante.) Il s’est concentré sur les médicaments lorsque Mikalsen a posé des questions sur le traitement du trouble obsessionnel compulsif de l’enfance, mais les directives cliniques indiquent clairement(Ouvre dans un nouvel onglet) qu’un type de thérapie cognitivo-comportementale est l’étalon-or.

Mikalsen a également remarqué qu’une réponse sur la dépression post-partum ne faisait pas référence à des formes plus graves de la maladie, comme l’anxiété et la psychose post-partum. En comparaison, un explicateur MayoClinic sur le sujet a inclus ces informations et a donné des liens vers des lignes d’assistance téléphonique pour la santé mentale.

On ne sait pas si ChatGPT a été formé sur les informations cliniques et les directives de traitement officielles, mais Mikalsen a comparé une grande partie de sa conversation à la navigation sur Wikipedia. Les brefs paragraphes génériques d’informations ont laissé à Mikalsen le sentiment que cela ne devrait pas être une source fiable d’informations sur la santé mentale.

“C’est globalement ma critique”, dit-elle. “Il fournit encore moins d’informations que Google.”

3. Il existe des alternatives à l’utilisation de ChatGPT pour l’aide en santé mentale.

Le Dr Elizabeth A. Carpenter-Song, une anthropologue médicale qui étudie la santé mentale, a déclaré dans un e-mail qu’il était tout à fait compréhensible que les gens se tournent vers une technologie comme ChatGPT. Ses recherches ont révélé que les gens sont particulièrement intéressés par la disponibilité constante d’outils numériques de santé mentale, ce qui, selon eux, s’apparente à avoir un thérapeute dans leur poche.

“La technologie, y compris des choses comme ChatGPT, semble offrir un moyen à faible barrière d’accéder aux réponses et potentiellement à un soutien pour la santé mentale.” a écrit Carpenter-Song, professeur agrégé de recherche au Département d’anthropologie du Dartmouth College. “Mais nous devons rester prudents quant à toute approche de problèmes complexes qui semble être une” solution miracle “.”

“Nous devons rester prudents face à toute approche de problèmes complexes qui semble être une ‘solution miracle'”.

– Dre Elizabeth A. Carpenter-Song, professeure agrégée de recherche, Dartmouth College

Carpenter-Song a noté que la recherche suggère que les outils numériques de santé mentale sont mieux utilisés dans le cadre d’un « éventail de soins ».

Ceux qui recherchent plus de soutien numérique, dans un contexte conversationnel similaire à ChatGPT, pourraient envisager des chatbots conçus spécifiquement pour la santé mentale, comme Woebot(Ouvre dans un nouvel onglet) et Wyssa(Ouvre dans un nouvel onglet)qui proposent une thérapie guidée par l’IA moyennant des frais.

Des services numériques de soutien par les pairs sont également disponibles pour les personnes à la recherche d’encouragements en ligne, les mettant en contact avec des auditeurs qui sont idéalement préparés à offrir cela avec sensibilité et sans jugement. Certains, comme Wisdo(Ouvre dans un nouvel onglet) et cercles(Ouvre dans un nouvel onglet)exigent des frais, tandis que d’autres, comme TalkLife(Ouvre dans un nouvel onglet) et Koko(Ouvre dans un nouvel onglet), sont libres. (Les gens peuvent également accéder gratuitement à Wisdo via un employeur ou un assureur participant.) Cependant, ces applications et plateformes sont très variées et ne sont pas non plus destinées à traiter les problèmes de santé mentale.

En général, Carpenter-Song pense que les outils numériques devraient être associés à d’autres formes de soutien, comme les soins de santé mentale, le logement et l’emploi, “pour garantir que les gens aient des opportunités de rétablissement significatif”.

“Nous devons mieux comprendre comment ces outils peuvent être utiles, dans quelles circonstances, pour qui, et rester vigilants pour faire ressortir leurs limites et leurs dommages potentiels”, a écrit Carpenter-Song.

MISE À JOUR : 30 janvier 2023, 12 h 59 HNP Cette histoire a été mise à jour pour inclure que les gens peuvent accéder gratuitement à Wisdo via un employeur ou un assureur participant.

Si vous vous sentez suicidaire ou si vous vivez une crise de santé mentale, veuillez en parler à quelqu’un. Vous pouvez joindre le 988 Suicide and Crisis Lifeline au 988; la Trans Lifeline au 877-565-8860; ou le projet Trevor au 866-488-7386. Envoyez “START” par SMS à Crisis Text Line au 741-741. Contactez la ligne d’assistance NAMI au 1-800-950-NAMI, du lundi au vendredi de 10h00 à 22h00 HE, ou par e-mail [email protected]. Si vous n’aimez pas le téléphone, pensez à utiliser le 988 Suicide and Crisis Lifeline Chat à crisechat.org(Ouvre dans un nouvel onglet). Voici une liste des ressources internationales(Ouvre dans un nouvel onglet).

Laisser un commentaire