L’intelligence artificielle en santé : entre promesses et précautions Lire notre article Actualités Maria-Pascale Lukenga octobre 15, 2025 933 mots, 4 min. de lecture L’intelligence artificielle au service de la santé : de quoi parle-t-on ? On distingue trois grandes approches de l’IA en santé : L’IA analytique : comprendre et classer les données L’IA dite analytique repose sur des algorithmes de machine learning capables de repérer des motifs dans des ensembles massifs de données.En santé mentale, ces outils commencent à être utilisés pour analyser le langage, la voix ou le comportement afin de repérer d’éventuels signes de souffrance psychique, ou de rechute¹. Ces approches sont complémentaires à l’évaluation clinique car l’IA peut détecter un signe, mais seul un professionnel peut en interpréter le sens. L’IA prédictive : anticiper les risques et personnaliser le soi Les modèles prédictifs cherchent à anticiper l’évolution d’un trouble ou à adapter le suivi au profil du patient. Dans la santé mentale, ils peuvent, par exemple : Estimer le risque de rechute ; Identifier les moments de vulnérabilité à partir de l’humeur, du sommeil ou de l’activité ; ou ajuster les interventions thérapeutiques selon les besoins individuels. L’IA générative et conversationnelle : communiquer et soutenir Les IA génératives (comme ChatGPT ) peuvent produire du texte, répondre à des questions, ou simuler une conversation empathique. Elles sont utilisées dans plusieurs contextes : Documentation clinique, où elles aident à résumer ou structurer des informations. Accompagnement psychologique via des chatbots de soutien émotionnel, qui offrent un espace d’expression ou de relaxation. Malgré ces usages, il faut faire attention : ChatGPT ou d’autres IA génératives ne sont pas des outils thérapeutiques. Ils ne disposent ni d’une validation clinique, ni d’une capacité d’écoute empathique réelle, ni d’une compréhension du vécu subjectif. Un chatbot peut simuler une conversation bienveillante, mais il ne remplace pas un psychologue ou un psychiatre. Confier une détresse psychologique à un modèle de langage non supervisé comporte des risques de désinformation, de conseils inadaptés et de rupture du lien humain. Ces limites rappellent l’importance d’un encadrement clinique et d’une conception spécifique aux besoins psychologiques. En revanche, des programmes spécifiquement conçus pour la santé mentale comme Wysa ou Woebot ont été évalués scientifiquement et visent à compléter le suivi thérapeutique, sous la supervision de professionnels. Les avantages de ces outils au service du soin Bien encadrée, l’IA peut améliorer plusieurs aspects du parcours de soin : Un diagnostic plus rapide et précis, grâce à l’analyse automatisée d’images, de signaux ou de comportements linguistiques. Un suivi plus continu, avec des outils capables de repérer précocement un changement d’humeur ou de sommeil. Une personnalisation accrue, où les interventions sont adaptées aux besoins, au rythme et aux préférences de chaque patient⁵. Un gain de temps administratif, permettant aux professionnels de se concentrer sur la relation clinique. Ces outils peuvent soutenir la prévention, le repérage précoce et l’éducation thérapeutique, mais leur valeur dépend de leur intégration dans un cadre clinique humain et éthique. Les limites et risques : entre illusions et vigilance Malgré leurs atouts, les IA appliquées à la santé mentale présentent plusieurs limites : Manque de validation scientifique : la majorité des applications ou chatbots ne sont pas validés par des études cliniques rigoureuses. Biais des données : les modèles reflètent les contextes où ils ont été entraînés, ce qui peut fausser les résultats selon les populations. Risques éthiques : confidentialité des données sensibles, consentement, et opacité des algorithmes. Effet de substitution : certaines personnes utilisent des chatbots comme substitut de lien humain, alors qu’ils ne peuvent ni comprendre ni accueillir la souffrance psychique de manière adaptée. Les professionnels de santé mentale insistent : l’IA doit être intégrée au parcours de soin, pas s’y substituer. L’avenir de l’IA en santé mentale repose sur un principe simple : elle doit renforcer, et non remplacer, la relation thérapeutique. À retenir : L’IA en santé mentale repose sur trois approches complémentaires : analytique (détection), prédictive (anticipation), générative (soutien conversationnel). Des outils peuvent accompagner le suivi, mais beaucoup d’entre eux ne sont pas des dispositifs thérapeutiques et ne remplacent pas un professionnel. L’IA offre des bénéfices réels (suivi, prévention, personnalisation), mais doit être encadrée, validée et éthiquement supervisée. Le soin psychique reste avant tout une rencontre humaine, où la technologie doit servir la compréhension, pas la remplacer. Bibliographie : Berardi, V., Carretero-González, R., Klepeis, N. E., Machiani, S. G., Jahangiri, A., Bellettiere, J., & Hovell, M. (2018). Computational model for behavior shaping as an adaptive health intervention strategy. Translational Behavioral Medicine, 8(2), 183–194. APA PsycInfo. https://doi.org/10.1093/tbm/ibx049 Hebbar, S., & Vandana, B. (2023). Artificial Intelligence in Future Telepsychiatry and Psychotherapy for E-Mental Health Revolution. In Computational Intelligence in Medical Decision Making and Diagnosis. CRC Press. Nebeker, C., Torous, J., & Bartlett Ellis, R. J. (2019). Building the case for actionable ethics in digital health research supported by artificial intelligence. BMC Medicine, 17(1), 137. https://doi.org/10.1186/s12916-019-1377-7 Rashidi, H. H., Hu, B., Pantanowitz, J., Tran, N., Liu, S., Chamanzar, A., Gur, M., Chang, C.-C. H., Wang, Y., Tafti, A., Pantanowitz, L., & Hanna, M. G. (2025). Statistics of Generative Artificial Intelligence and Nongenerative Predictive Analytics Machine Learning in Medicine. Modern Pathology, 38(3), 100663. https://doi.org/10.1016/j.modpat.2024.100663 Santé mentale et outils numériques : quand la technologie devient alliée du bien-être octobre 15, 2025 Suivant Pour qui ? Enfants, adolescents, adultes ou parents, Home Stress Home propose des outils ludiques et adaptés à chaque âge pour mieux comprendre et gérer ses émotions. Jeunes enfants De 3 à 7 ans Enfants De 8 à 11 ans Adolescents De 12 à 17 ans Jeunes adultes De 18 à 25 ans Adultes À partir de 26 ans
Santé mentale et outils numériques : quand la technologie devient alliée du bien-être octobre 15, 2025 Suivant