L’outil conversationnel ChatGPT s’est imposé comme un interlocuteur inattendu pour des millions d’utilisateurs en quête de réconfort psychologique. Ses réponses, jugées précises et empathiques, en font pour certains un substitut de psychologue. Mais son utilisation massive révèle autant la crise des systèmes de santé mentale que les limites éthiques, sociales et environnementales de l’intelligence artificielle.
Depuis son lancement, ChatGPT, développé par la société américaine OpenAI, s’est progressivement installé dans le quotidien de ses utilisateurs. Gratuit, disponible en continu, accessible depuis un simple téléphone, il apparaît comme une alternative séduisante à la consultation thérapeutique classique.
Dans une simulation de rendez-vous psychologique, l’outil a défini l’anxiété comme « la peur du futur ou l’anticipation négative du futur », avant de proposer une série de recommandations : respiration profonde, méditation, exercice physique régulier, tenue d’un journal, hygiène de vie équilibrée. Des conseils que nombre de psychologues auraient pu eux-mêmes donner.
ChatGPT va même plus loin en évoquant des approches structurées comme la thérapie comportementale et cognitive (TCC), réputée efficace pour les troubles anxieux, ou encore la thérapie d’acceptation et d’engagement (ACT). Cette capacité à mobiliser un vocabulaire spécialisé, à formuler des recommandations personnalisées et à adopter un ton bienveillant a surpris les chercheurs qui ont mené l’expérimentation.
Un miroir des croyances irrationnelles
Lorsqu’il est sollicité sur la gestion des croyances irrationnelles, ChatGPT se montre tout aussi précis. L’outil rappelle que la TCC aide à « comprendre et à changer les pensées qui alimentent l’angoisse », notamment par des exercices d’exposition progressive aux situations anxiogènes.
Il fournit même des exemples concrets de raisonnements délétères : « Je dois être parfait pour être aimé », « Si je fais une erreur, tout le monde va me juger négativement » ou encore « Je dois être en contrôle de tout sinon je vais échouer ». Autant de formulations qui rappellent le discours des thérapeutes face au perfectionnisme, à l’angoisse de l’échec ou au besoin de contrôle.
Ces réponses, d’une pertinence remarquable, nourrissent l’idée que ChatGPT serait capable d’apporter une aide émotionnelle tangible, au-delà d’un simple dialogue automatisé. L’outil se présente comme un miroir, reformulant les pensées de l’utilisateur pour l’aider à mieux en identifier les mécanismes.
Testé sur des situations personnelles délicates, ChatGPT a également démontré une étonnante capacité d’adaptation. Face à un scénario de rupture amoureuse, il rappelle qu’« aimer, c’est accepter les imperfections de l’autre », tout en soulignant que des attentes irréalistes peuvent rendre une relation insoutenable.
Interrogé sur la peur du rejet, il valide qu’il est normal de vouloir éviter la douleur, mais rappelle qu’un échec relationnel ne signifie pas l’absence de valeur personnelle. Enfin, confronté à un récit de rejet parental lié à des attentes sportives déçues, l’IA insiste sur la complexité des dynamiques familiales et encourage l’utilisateur à suivre ses propres aspirations plutôt que celles imposées par autrui.
À chaque fois, ChatGPT recommande l’auto-compassion : « être bienveillant envers soi-même » et dresser la liste de ses qualités positives. Pour beaucoup d’utilisateurs, cette tonalité nuancée, empathique et rassurante constitue un soutien émotionnel précieux, capable de rétablir un équilibre intérieur, au moins temporairement.
Le révélateur d’un système de santé mentale saturé
Si l’essor de ChatGPT dans le champ psychologique fascine, il dit aussi beaucoup de l’état des systèmes de santé mentale. Aux États-Unis, la pénurie de praticiens est désormais documentée. En France, les disparités territoriales persistent, et les déserts médicaux compliquent l’accès aux soins spécialisés.
Les délais d’attente s’allongent, plusieurs mois pour un rendez-vous en centre médico-psychologique (CMP), jusqu’à treize jours en moyenne en Provence-Alpes-Côte d’Azur selon l’Observatoire de la santé mentale. Parallèlement, 93 % des psychologues ont refusé d’intégrer le dispositif gouvernemental « MonPsy », jugé trop restrictif.
Dans ce contexte, l’attrait pour ChatGPT devient plus lisible, il répond immédiatement, gratuitement, sans rendez-vous ni déplacement. L’IA est perçue comme un interlocuteur neutre, capable d’offrir une écoute sans jugement. Certains utilisateurs affirment même pouvoir lui confier plus de choses qu’à leurs amis ou à un thérapeute, précisément parce qu’ils se sentent à l’abri du regard social.
Reste que ChatGPT n’est pas un professionnel de santé. Sa nature algorithmique le limite, il prédit la suite statistiquement probable d’une phrase, sans réelle compréhension du vécu exprimé. Il ne peut poser de diagnostic, ni interpréter les signaux non verbaux qui font partie intégrante de la relation thérapeutique.
La dépendance émotionnelle
L’usage intensif de ChatGPT n’est pas sans conséquence sur la santé psychique des utilisateurs. Une étude conjointe menée par OpenAI et le Massachusetts Institute of Technology (MIT), publiée le 21 mars, a analysé plus de 4 millions de conversations et interrogé plus de 4 000 personnes. Les résultats sont clairs, une utilisation quotidienne importante est corrélée à une solitude plus marquée, une socialisation réduite et des signes de dépendance émotionnelle.
L’essai contrôlé randomisé mené sur 981 participants pendant 28 jours confirme ces observations : plus le temps passé sur la plateforme augmente, plus les marqueurs de dépendance et de repli social se renforcent. Les utilisateurs les plus intensifs, appartenant au « top décile » en volume de conversations, présentent des signaux inquiétants d’attachement excessif.
Le mécanisme de cette dépendance s’explique en partie par le circuit de la récompense cérébral. Chaque réponse rapide et structurée fournie par ChatGPT active les « gâchettes » de ce circuit, créant une attente permanente de gratification immédiate. Pour certains, la consultation compulsive de l’IA devient un réflexe, comparable aux mécanismes d’addiction observés avec les réseaux sociaux ou les jeux vidéo.
Cette dépendance est accentuée par l’anthropomorphisme. Le style conversationnel fluide de ChatGPT, sa capacité à employer le pronom « je » et à adopter un ton empathique favorisent la personnification. L’outil est perçu non comme un programme informatique, mais comme un interlocuteur doté d’intentions.
Des témoignages publiés dans la presse internationale témoignent d’attachements parfois très forts. En janvier, le New York Times a rapporté l’histoire d’une jeune femme de 28 ans affirmant entretenir une relation amoureuse avec ChatGPT, qu’elle décrivait comme « son compagnon idéal ». D’autres utilisateurs parlent de l’IA comme d’un ami intime, voire d’un confident, au point de préférer ses échanges à ceux entretenus avec leurs proches.
Des données intimes exposées
L’utilisation de ChatGPT comme substitut au psychologue pose une question importante, celle de la confidentialité des informations partagées. En relatant leurs angoisses, leurs relations sentimentales ou leurs traumatismes, les utilisateurs livrent des données d’une extrême sensibilité. Or, ces informations transitent par des serveurs situés aux États-Unis, où les garanties offertes par la législation européenne sont plus difficiles à faire appliquer.
Aux débuts du service, la quasi-totalité des données transmises par les utilisateurs a été utilisée pour entraîner les modèles de langage. Depuis l’introduction des offres payantes, OpenAI permet aux abonnés de demander que leurs données ne soient pas exploitées à des fins de formation. Toutefois, même avec cette option, rien n’empêche techniquement leur stockage sur les serveurs de l’entreprise.
Le décalage entre les promesses affichées et la réalité juridique a déjà donné lieu à plusieurs procédures en Europe. En avril 2023, une plainte a été déposée auprès de la Commission nationale de l’informatique et des libertés (CNIL) pour absence de conditions générales d’utilisation claires et de politique de confidentialité explicite. En avril 2024, de nouvelles infractions au Règlement général sur la protection des données (RGPD) ont été relevées.
La sanction la plus lourde est venue d’Italie. En décembre 2024, l’autorité nationale de protection des données a infligé une amende de 15 millions d’euros à OpenAI pour traitement illégal des données personnelles. L’entreprise est accusée d’avoir collecté et exploité les informations des utilisateurs sans base légale suffisante.
L’utilisation de ChatGPT dans le domaine psychologique brouille la frontière entre assistance numérique et soin thérapeutique. D’un point de vue déontologique, confier à une IA des données personnelles d’une telle intensité interroge la responsabilité des concepteurs comme des utilisateurs.
Que devient la parole intime lorsqu’elle est absorbée par un système algorithmique ? Peut-on considérer que l’IA, qui ne comprend ni n’éprouve d’émotions, respecte réellement la vulnérabilité de celui qui se confie ? Ces interrogations demeurent sans réponse claire. Elles alimentent les débats au sein de la communauté scientifique et des institutions de régulation, qui peinent à suivre le rythme d’évolution technologique.
Un coût énergétique colossal
Derrière l’apparente légèreté d’une question posée à ChatGPT, se cache une dépense énergétique considérable. Chaque requête adressée à l’outil consomme en moyenne 2,9 Wh d’électricité, soit dix fois plus qu’une recherche sur Google. Rapportée aux près d’un milliard de requêtes quotidiennes revendiquées par OpenAI, la consommation devient vertigineuse.
Selon l’Agence internationale de l’énergie (AIE), les centres de données, indispensables au fonctionnement des modèles de langage, représentaient déjà 1,4 % de la consommation électrique mondiale en 2023. Avec l’essor de l’IA générative, cette part pourrait atteindre 3 % d’ici 2030, soit près de 1 000 TWh par an. L’équivalent de la consommation électrique combinée de la France et de l’Allemagne.
Cette explosion des besoins en énergie fait planer une menace sur la stabilité des réseaux. L’AIE estime que d’ici 2027, près de 40 % des data centers dédiés à l’IA risquent de se heurter à des difficultés d’approvisionnement électrique.
Moins connue du grand public, la consommation d’eau liée au fonctionnement de ChatGPT est pourtant considérable. Les data centers utilisent d’immenses systèmes de refroidissement, reposant sur des volumes d’eau colossaux. Selon des estimations prudentes, GPT-3 aurait nécessité environ un demi-litre d’eau pour générer entre dix et cinquante réponses.
À l’échelle mondiale, la demande liée à l’IA pourrait représenter entre 4,2 et 6,6 milliards de mètres cubes d’eau en 2027. Une quantité équivalente à la consommation annuelle d’un pays comme le Danemark. Cette pression supplémentaire intervient alors que de nombreuses régions sont déjà confrontées à des tensions hydriques croissantes sous l’effet du réchauffement climatique.