C’est devenu presque banal, un réflexe pour des millions. Déprimer ? On ne décroche plus forcément son téléphone pour appeler un proche ou un professionnel, non. Aujourd’hui, on glisse son angoisse dans la barre de discussion d’un assistant conversationnel — souvent ChatGPT —, en espérant décharger une détresse qui plane. Mais alors que la tentation est grande de confier ses tourments à une intelligence artificielle censée tout savoir, le patron de ChatGPT, Sam Altman, lance une mise en garde cinglante : attention, l’IA n’est pas une thérapie. Qu’est-ce qui se joue réellement lorsque la souffrance et la solitude rencontrent une machine ? Pourquoi s’y fie-t-on ? Où mène cette illusion d’écoute ?
Comprendre pourquoi la tentation du "psy-bot" explose

Accessibilité : la réponse immédiate à la détresse
Personne ne le niera : l’accès aux psychologues et psychiatres reste difficile pour des millions de personnes. Manque de professionnels, coût, rendez-vous à rallonge… L’IA promet, elle, une écoute 24/7, gratuite ou presque, anonyme, « sans jugement ». Le discours publicitaire des start-ups l’affirme : « Parlez, l’IA vous répond ». Sauf que répondre n’est pas écouter, encore moins comprendre.
Confidentialité, un mythe dangereux
Voilà l’un des points-clefs de l’avertissement de Sam Altman : ce que vous confiez à ChatGPT ou à tout chatbot n’est pas couvert par le secret professionnel, aucune confidentialité légale comparable à celle du cabinet du psy. Les propos échangés peuvent être stockés, analysés, utilisés pour l’entraînement de l’algorithme, voire consultés par des ingénieurs — alors même que la détresse vous pousse à la confidence la plus intime. Cette zone grise de la confidentialité expose à des fuites potentielles et pose un dilemme éthique d’une ampleur inédite, dont la plupart des utilisateurs n’a pas conscience.
Le leurre de l’empathie : une imitation sans profondeur
Que fait l’IA lorsqu’elle « écoute » ? Elle analyse des mots, détecte quelques émotions clés par probabilité. Mais elle ne ressent rien. L’absence totale d’émotion et de vécu dans ses réponses crée l’illusion d’une écoute, mais jamais la chaleur, la nuance ou l’ajustement subtil d’un thérapeute réel. Elle simule l’empathie sans l’éprouver, un miroir déformant qui rassure sur le moment mais risque fort de creuser la distance entre soi et l’humain.
C’est là qu’apparaît le danger : ce genre de « conversation » a-t-elle une valeur d’apaisement, ou enferme-t-elle dans un dialogue stérile qui peut prolonger voire amplifier l’isolement ?
Les limites structurelles et techniques de l’IA thérapeutique

Impossible de diagnostiquer, impossible d’intervenir dans l’urgence
L’IA, même la plus avancée, n’a ni diplôme médical ni capacité à identifier une pathologie complexe. Elle ne saura pas évaluer correctement le risque suicidaire, ni repérer les signaux faibles d’une décompensation psychique, encore moins réagir en cas d’urgence. Concrètement, elle ne peut ni déclencher une hospitalisation ni appeler les secours. Les crises graves lui échappent totalement. Or, combien de personnes fragiles risquent de s’en remettre aveuglément à des réponses automatiques, dont la lucidité et la pertinence sont tout sauf garanties ?
Pas de mémoire, pas de réel suivi
Un accompagnement thérapeutique suppose un suivi, une évolution, une capacité de se souvenir des épisodes précédents, de recouper des éléments, de repérer une dynamique qui s’étale dans le temps. L’IA, elle, n’a pas de mémoire à long terme (pour des raisons de sécurité et de confidentialité, justement !), donc impossible d’assurer une progression personnalisée, un projet de soin précis. On se retrouve face à une suite de monologues décousus, sans fil directeur.
Biais, fausses réponses et stéréotypes
L’IA est entraînée sur des masses de textes existants. Cela garantit parfois une base de données impressionnante, mais multiplie les risques de biais. Certaines suggestions peuvent être fantaisistes, d’autres dangereusement à côté de la plaque. La machine peut, à son insu, renforcer des stéréotypes, ignorer la diversité des parcours, ou produire une pseudo-médecine appliquée à la hâte. Un utilisateur fragile, lui, prendra peut-être ces réponses pour argent comptant, avec des conséquences aux antipodes de ce que proposerait un soin humain, nuancé et individualisé.
L’illusion du lien : solitude numérique et nouvelles dépendances

Formation d’attachements toxiques à la machine
C’est l’une des alertes majeures exprimées par des psychologues : la facilité avec laquelle on peut s’habituer à parler à une IA, jusqu’à en faire une sorte d’ami, de confident, voire de substitut exclusif aux relations humaines réelles. Les réseaux sociaux l’ont prouvé : on peut devenir accro aux interactions numériques, et l’arrivée de l’IA ne fait qu’amplifier le risque d’isolement sur le long terme. Un dialogue sans fin avec une entité qui ne connaît pas l’attachement, la compassion ou la vulnérabilité… Ce n’est pas de la relation, c’est une imitation dangereuse. L’illusion fonctionne tant que l’on ne se rend pas compte qu’on tourne en rond, seul face à un écran.
La tentation de la « solution miracle » : et si tout allait plus mal ?
Le discours ambiant sur la thérapie par IA laisse croire qu’il existerait une solution simple à la détresse humaine, accessible sans effort. En réalité, cette illusion peut repousser le moment où une personne osera demander une aide professionnelle. L’usage excessif d’un chatbot risque d’aggraver, par effet de rebond, l’état de santé mentale : culpabilité de ne pas s’en sortir seul, impression que rien ne marche, échec supposé (« même l’IA n’a pas pu m’aider »). On finit parfois plus seul, plus honteux, plus désabusé.
L’éthique et la sécurité, angles morts de l’innovation

Les véritables enjeux de la confidentialité des données
Imaginez que le contenu de vos conversations avec une IA se retrouve accessible à des entreprises, des recruteurs, voire à la justice… Cette perspective n’a rien d’utopique. Les données échangées via des plateformes d’IA sont mal protégées, parfois rassemblées sur des serveurs qu’on localise à peine. Des incidents de fuite d’informations se sont déjà produits ailleurs. Peut-on bâtir une confiance thérapeutique dans de telles conditions ? La réponse paraît évidente, mais la majorité des utilisateurs l’ignore ou préfère ne pas y penser.
La dérive vers l’automédication logicielle
L’attrait pour la gestion de sa propre santé mentale via une intelligence artificielle, c’est séduisant. Mais sans supervision appropriée, on risque la surmédicalisation, la mauvaise évaluation de ses symptômes, le recours aux solutions toutes faites puis à l’échec thérapeutique. Ce cercle vicieux génère des frustrations et, surtout, renforcent la défiance envers le monde médical. Or, c’est justement cette alliance thérapeutique — paradoxalement absente dans la relation homme-IA — qui fonde les chances de réinsertion et de progrès pour le/les plus vulnérables.
Peut-on imaginer une IA utile en santé mentale ? Vers un usage responsable (mais secondaire)

Outils d’accompagnement, pas remplaçants
Néanmoins, difficile de nier que certaines personnes, en particulier dans les zones sous-dotées en psychothérapeutes, peuvent tirer un bénéfice limité d’une première écoute, d’un espace pour « mettre en mots » leur malaise. L’IA peut servir d’outil d’accompagnement, jamais de traitement. Elle peut aider à formuler un questionnement, à préparer une séance, à structurer des pensées. Certains logiciels bien conçus assistent les professionnels pour la gestion administrative ou la détection de signaux faibles. Mais la promesse d’un « thérapeute numérique » s’effrite dès qu’il s’agit de travailler la profondeur, la répétition symbolique, le lien humain.
Vers quelle régulation ? L’urgence d’encadrer pour mieux protéger
Face à la popularité croissante de la thérapie IA, la nécessité d’une régulation efficace devient vitale : transparence sur les conditions d’utilisation, affichage clair des frontières entre robot et humain, protection des données et — pourquoi pas ? — une labellisation stricte pour les solutions les plus fiables, testées et validées par des professionnels de santé. Ce secteur ne peut continuer à s’autoréguler, tant les dangers d’abus, de dépendance ou de non-prise en charge effective sont aujourd’hui massifs.
Entre laisser-faire et refus borné, la voie d’une éthique de l’innovation, pensée collectivement et appliquée fermement, s’impose.
Sortir du mythe : conclusion radicale sur l’IA-thérapie

Pour conclure : s’appuyer sur la technologie, oui, mais sans confondre vitesse et précipitation, confort et efficacité, conversation et soin. Les alertes du patron de ChatGPT ne sont pas des peurs rétrogrades : elles réclament que chacun, utilisateur, professionnel, législateur, prenne la mesure des risques, des défaillances et des horizons — mais aussi des limites définitives — de l’accompagnement par intelligence artificielle. Le recours ponctuel à l’IA peut ouvrir des pistes, briser l’isolement initial, mais il ne doit JAMAIS remplacer un suivi professionnel, ni se substituer à la construction patiente d’une relation de confiance avec un thérapeute humain, portant le poids et le courage de l’écoute réelle. L’enjeu est trop grand pour s’en remettre à l’illusion : la douleur humaine mérite mieux qu’une ligne de code. Pas grave si cela va à rebours de l’air du temps : je signe — et je persiste.