En 2026, l'IA s'invite dans la relation thérapeutique tout en restant tabou. Quand certains y reconnaissent de la prise de hauteur sur leur accompagnement, d'autres y voient un problème déontologique, de la transgression. Le 20 mars, l'Institut de Développement du Thérapeute (IDeT) organisait à Paris une conférence intitulée « Peut-on guérir sans rencontrer personne ? La psychothérapie à l'épreuve de l'IA ». Cette soirée, qui a réuni praticiens et formateurs, éclaire bien l'état d'esprit du moment : un mélange d'embarras et d'enthousiasme. L'IA n'est plus un outil futuriste, elle s'est déjà glissée dans certaines pratiques cliniques et dans certains programmes de formation.
Pour la première fois, des établissements comme le GHU Paris inscrivent explicitement dans leur plan de formation continue 2026 des modules dédiés à « Travailler avec l'intelligence artificielle » et « L'IA en santé : quelles opportunités pour un développement responsable ? ».
L'IA promet des gains concrets : aide à la prise de notes, analyse de séances, structuration de formations, chatbots en complément thérapeutique, détection précoce de signaux de vulnérabilité. Des articles récents, comme celui paru dans Le Journal des psychologues (2026), soulignent son potentiel comme « soutien à la pratique du psychologue », tout en signalant les enjeux éthiques que cela soulève.
Une tendance, confirmée aux US par une étude de American Psychological Association, qui voit la part de praticiens n'ayant jamais utilisé l'IA passer en une année ( 2024 à 2025), de 71% à 44%. Comment former des thérapeutes capables de maîtriser ces outils avec responsabilité et surtout sans perdre ce qui fait la thérapie, à savoir la relation, la présence, le fait qu'un humain face à vous vous écoute vraiment ? Comment intégrer dans les pédagogies, l'éthique, la détection des biais algorithmiques et des hallucinations de l'IA, le respect des données personnelle, la supervision hybride ?
Cet article explore ce que cela demande concrètement aux formateurs : passer d'une formation centrée sur la relation humaine à une formation qui prépare aussi les professionnels à travailler avec des machines qui « font de la statistique et des probabilités ».
L'IA déjà dans les salles de formation
L'intégration de l'IA dans la formation thérapeutique n'est plus une projection : elle s'inscrit petit à petit dans les catalogues officiels. Le plan de formation continue 2026 du GHU Paris propose des modules dédiés à l'IA en santé, dont l'un entièrement consacré à son usage clinique responsable.
Du côté des praticiens en exercice, l'Ordre des psychologues du Québec (OPQ) a publié un dossier thématique sur « La psychologie assistée par l'intelligence artificielle », mené par le Dr Philip Jackson, neuropsychologue et directeur scientifique à l'Obvia (Université Laval), avec un constat sans équivoque : « l'IA représente un changement à apprivoiser, ou minimalement à comprendre, que l'on veuille l'intégrer à sa pratique ou non, étant donné que le gouvernement du Québec avance rapidement dans le suivi des applications numériques pour la santé mentale et que la clientèle y fait de plus en plus appel. »
Un constat réalisé aussi en France par le Gouvernement notamment en lançant le "Grand Defi Numérique" visant à développer la synergie entre dispositifs numériques et santé mentale. Les français sont déjà de grands utilisateurs d'objets connectés soucieux de leur santé et commencent à adopter l'IA au quotidien (51% des 18-24 ans l'utilisent quotidiennement selon le baromètre des usages numériques de l'ARCEP 2026). Autrement dit : ne pas se former, c'est déjà prendre du retard sur les personnes qu'on accompagne.
Concrètement, que peut faire l'IA pour un thérapeute aujourd'hui ?
Nous observons déjà ici et là une liste des applications opérationnelles :
- rédiger les notes et faire des compte-rendus,
- accompagner sur l'administratif,
- produire des sections de rapports dans un style appris,
- coter des épreuves psychométriques,
- Un système d'IA peut même écouter une séance en temps réel et proposer des analyses sur le contenu ou la forme des propos du client.
Toujours au Quebec, en 2024, 53,7 % des psychologues québécois interrogés déclaraient ne pas avoir confiance envers les outils d'IA, et 63,4 % citaient l'opacité de ces systèmes comme frein principal à leur adoption. Ce frein de l'opacité pose la question de la méconnaissance de ces systèmes et de la nécessité de former sur l'IA et son fonctionnement pour mieux savoir comment les données sont produites par celle-ci.
Ce que la formation peut apporter à ses apprenants.
Former à l'IA, c'est d'abord récupérer du temps sur les tâches à faible valeur ajoutée pour en consacrer davantage à ce qui ne se délègue pas : la présence, l'intuition clinique, la co-construction du sens. Le Dr Philip Jackson invite la profession à « plonger dans cette vague d'innovation avec curiosité, rigueur et bienveillance », tout en gardant en tête « notre capacité unique de nous questionner malgré la tentation de déléguer de plus en plus d'étapes de la pensée humaine à des machines ».
Dans la recherche clinique, l'IA ouvre aussi des perspectives : aide à l'écriture scientifique, revues systématiques de la littérature, extraction et analyse de données sur le comportement. Pour les instituts de formation, cela ouvre la possibilité de créer des supports pédagogiques plus riches, des études de cas augmentées, des simulations de séances avec retour analytique immédiat.
L'accessibilité est peut-être le bénéfice le plus structurant à long terme. Les chatbots thérapeutiques et les applications de soutien à la santé mentale atteignent des populations qui n'auraient pas accès à un thérapeute humain, pour des raisons géographiques ou financières. Désormais, les praticiens seront parfois face à des patients qui partagent un quotidien avec l'IA. C'est un patient assisté par IA que le praticien accompagnera. Tout comme les réseaux sociaux et leur impact psychologique, le praticien a tout intérêt à connaitre les mécanismes et fonctionnement de l'IA pour apporter des éclairages sur des utilisations biaisées par les clients (informer sur la flagornerie des IA par exemple). Pour les jeunes générations la prise de contact avec le développement personnel pourrait se faire via le numérique. Il peut être intéressant que ces points d'entrée soient proposés par des praticiens formés et responsables. Le défi pour les centres de formation est alors comment articuler dans leurs formations l'humain et la machine.
Les risques : quand l'outil biaise la rencontre
Derrière cette vision, le besoin de formation est incontournable car le premier risque important est le détournement de la pensée critique et créative que ce soit chez le patient ou le praticien à cause des biais que peuvent avoir les systèmes (biais algorithmiques) et les utilisateurs (biais cognitifs). Un système d'IA entraîné sur des données non représentatives d'une population produira des analyses fausses ou discriminantes, et potentiellement dangereuses si elles influencent une décision clinique. L'OPQ le dit clairement : « les modèles statistiques prédictifs, bien que très performants lorsqu'ils sont appliqués aux données sur lesquelles ils ont été entraînés, sont vulnérables au phénomène de surajustement lorsqu'on leur soumet de nouvelles données indépendantes comme c'est le cas en pratique clinique ». Un modèle peut performer brillamment en laboratoire et être inutile, ou nuisible, face à un patient réel.
Concernant les biais des utilisateurs, il y a deux risques principaux : l'anthropomorphisme (le patient ou le professionnel prête trop d'intentions humaines à la machine pouvant nuire à l'esprit critique) et le biais d'automatisation qui amènent certains à penser que les résultats des machines et de l'IA sont supérieurs à ce que peut produire l'humain (on fait confiance à un résultat algorithmique au détriment du jugement clinique). C'est là que la formation des thérapeutes peut jouer un rôle important.
Repenser les programmes de formation
Si l'IA amène à repenser la pratique, elle amène certainement à repenser la pédagogie. Quelles compétences un thérapeute diplômé en 2027 doit-il avoir que son aîné de 2020 n'avait pas à développer ? Voici quelques questions non exhaustives que tout praticien devrait se poser avant d'utiliser ou proposer un outil d'IA avec ses clients :
- Suis-je compétent pour déterminer quel type de système convient à mon client ?
- Quels critères permettent d'établir un consentement libre et éclairé ?
- Les données personnelles partagées sont-elles protégées ? Comment je permet de garder l'anonymat de mes clients sur les plateformes?
- Sais-je expliquer comment l'IA produit ce résultat ?
- Comment je communique au client mon utilisation de l'IA ?
- Quel est mon degré de confiance envers ce système ?
- Quelles sont les vulnérabilités de mon client face à l'IA (niveau cognitif, maitrise de la langue, réseau de soutien, compétences numériques, stabilité symptomatique, risque dissociatif et suicidaire ) ?
Ces questions sont en partie issue du dossier riche de l'IFEMDR sur le sujet, et de leur article pertinent "EMDR, IA et population vulnérables : adapter le modèle au profil du patient"
Ces quelques questions ne sont pas qu'un garde-fou réglementaire, elles sont la base d'une posture éthique sérieuse. Et nous avons la chance en Europe d'avoir des repères concret grâce à l'IA Act.
Plusieurs modules ou formations semblent dès lors incontournables pour les instituts de formation : éthique de l'IA en thérapie (consentement, confidentialité, transparence algorithmique) ; lecture critique des outils (évaluer la fiabilité d'un système, identifier ses biais, comprendre sur quelles données il a été entraîné) ; supervision hybride (comment intégrer les analyses d'un outil d'IA dans une démarche de supervision sans en faire une vérité) ; préservation de la présence clinique dans un contexte d'outils augmentés ; usage pédagogique de l'IA (cas cliniques simulés, analyse de séances enregistrées, feedback automatisé sur la structure des entretiens).
Nous observons déjà quelques centres qui s'emparent du sujet en proposant des formations ou ateliers destinés à des professionnels de l'accompagnement
- IFOD (Formation au coaching professionnel) - L'Intelligence Artificielle générative au service du coaching
- IFEMDR (Formation EMDR) - L’usage des intelligences artificielles par les patients : enjeux cliniques, éthiques et thérapeutiques
- Ipnosia (Formation Hypnose) - Hypnose et Intelligence Artificielle : un nouvel horizon du soin relationnel
- Démarre ton aventure - Formation IA pour le métier de psychologue
- Université Paris Cité - Diplôme Universitaire « Intelligence artificielle appliquée en santé.
Le thérapeute de demain
Le Dr Jackson conclut son introduction au dossier de l'OPQ par une phrase qui résonne : « Ne perdons pas de vue notre capacité unique de nous questionner malgré la tentation de déléguer de plus en plus d'étapes de la pensée humaine à des machines. » Le défi de 2026 n'est pas technique. Il est humain et éthique.
L'IA n'est ni la menace que certains redoutent ni la solution que d'autres espèrent. Elle pourrait être un outil puissant pour enrichir les pratiques en psychothérapie, à condition qu'elle soit intégrée avec soin, prudence et bon jugement. La formation est l'espace où cette intégration doit être apprise, questionnée et ajustée, pas seulement à travers des modules sur les outils, mais à travers une réflexion sur ce qu'elle peut apporter de richesse à l'accompagnement.
Notice IA : L'IA a été utilisée pour trouver plusieurs sources de cet article et revoir certaines formulations.
A propos de l'auteur
Arnaud HELARD
Responsable éditorial Formationtherapie.com
Arnaud HELARD est coach professionnel certifié formé en 2015 et ex-directeur marketing d'un centre de formation leader en coaching professionnel, spécialisé dans l’accompagnement des thérapeutes et coachs dans le développement de leur activité et l’usage concret de l’IA dans leur pratique.