Les modèles de langage génératifs comme ChatGPT ont suscité un engouement fulgurant depuis 2022, trouvant des usages bien au-delà de la simple recherche d’information. L’un de ces usages émergents, surprenant mais de plus en plus répandu, est l’introspection assistée par IA. Pourquoi confier à un chatbot le soin de nous aider à mieux nous connaître ? D’abord parce qu’il est accessible à tout moment, capable de converser sans jugement et de poser des questions pertinentes. Certains utilisateurs vont même jusqu’à soumettre à ChatGPT le récit détaillé de leur vie en lui demandant si les motifs de leur existence « ont du sens » – confiant ainsi à l’algorithme un travail d’interprétation traditionnellement réservé à l’introspection personnelle ou à la psychothérapie. Le fait qu’une IA puisse simuler une écoute empathique marque un tournant : l’écran n’est plus un simple miroir passif, il devient un interlocuteur actif qui participe à la construction du soi de ses utilisateurs. Ce phénomène soulève de nouvelles questions sur la manière dont ces agents conversationnels pourraient influencer notre vision de nous-mêmes et notre quête de sens personnelle.
Chatbots et introspection : un nouveau miroir numérique de soi
Plusieurs travaux en psychologie et sciences cognitives suggèrent que les chatbots pourraient, dans certaines conditions, faciliter l’introspection et la prise de conscience de soi. D’une part, ces IA conversationnelles offrent une disponibilité et une neutralité propices aux confidences. Leur regard (ou plutôt algorithme) dénué de jugement crée un espace d’expression sécurisant. « C’est un mélange de journal intime et de thérapeute – très informel, sans filtre », résume un utilisateur à propos de ChatGPT. L’absence de crainte du regard de l’autre permet de verbaliser des émotions ou des expériences intimes parfois tues dans une interaction humaine, et cette mise en mots est en soi bénéfique. En effet, la recherche en psychologie a montré que l’écriture expressive (tenir un journal de ses émotions et événements marquants) aide à organiser ses pensées et à donner du sens à des expériences difficiles. Ce processus peut réduire la rumination et même encourager à en parler à autrui par la suite. À cet égard, converser avec un chatbot revient à tenir un journal interactif : on externalise ses pensées, on construit le récit de son vécu, tout en obtenant en retour des formulations ou questions qui stimulent la réflexion.
source : Writing about emotions may ease stress and trauma
D’autre part, les chatbots peuvent servir de « catalyseurs d’introspection » en guidant l’utilisateur par des questions ou des reformulations. Des psychologues ont commencé à tester l’intégration d’IA dans des outils de développement personnel. Par exemple, Sackett et al. (2024) notent que des agents conversationnels thérapeutiques comme Woebot ou Wysa peuvent accroître la conscience de soi en proposant des prompts (questions, exercices) structurés, ce qui aide des utilisateurs à explorer leurs émotions ou pensées qu’ils n’auraient pas su formuler spontanément. Ces échanges guidés rappellent les techniques utilisées en thérapie : le chatbot reformule les propos de l’utilisateur, souligne des motifs récurrents, pose des questions ouvertes – autant de stimuli à l’introspection et à la prise de conscience personnelle.
Enfin, la recherche en sciences humaines s’intéresse à la façon dont ces IA pourraient s’inscrire dans nos pratiques de connaissance de soi. Le philosophe Michel Foucault parlait de « technologies de soi » pour désigner les pratiques (journal personnel, méditation, etc.) par lesquelles un individu œuvre à sa propre transformation et à sa compréhension de lui-même. Or, l’IA générative prolonge cette tradition : elle offre un nouvel outil, algorithmique et personnalisable, pour nous aider à “travailler sur nous-mêmes”. Interroger un chatbot sur ses émotions, ses relations ou ses dilemmes, c’est en quelque sorte utiliser une technologie moderne pour effectuer un travail introspectif autrefois réalisé seul ou en dialogue avec un tiers. Des chercheurs commencent à analyser comment les jeunes adultes intègrent ces « interlocuteurs artificiels » dans leur construction narrative personnelle. Par exemple, une étude qualitative en Norvège (Kvietkute & Ness, 2025) rapporte que certains participants ont utilisé ChatGPT pour un véritable travail autobiographique : « J’ai collé toute mon auto-biographie – 5000 mots – et j’ai demandé si mes schémas de vie avaient du sens », témoigne l’un d’eux. D’autres l’ont interrogé sur des questions personnelles profondes (« Pourquoi est-ce que je tombe toujours amoureux de partenaires indisponibles ? ») cherchant à y voir plus clair dans leurs propres comportements. Ces usages s’apparentent à une forme de thérapie narrative automatisée, où l’on tente de tisser une cohérence dans son histoire de vie avec l’appui d’un agent algorithmique.
Exemples d’usage concrets
Plusieurs scénarios illustrent comment les chatbots d’IA générative peuvent être mis à profit pour explorer son for intérieur :
- Coaching personnel et mentorat numérique : Un chatbot comme ChatGPT peut servir de coach virtuel pour réfléchir à ses objectifs ou prendre des décisions. Des utilisateurs le décrivent comme un « mentor, un conseiller vers qui se tourner en cas d’hésitation », qu’on consulte « plutôt que de déranger un ami » pour de petites décisions du quotidien. Par exemple, on peut lui demander conseil sur comment aborder un conflit relationnel, ou solliciter une liste d’arguments pour et contre avant un choix de carrière. Le chatbot fournit alors une réponse structurée qui aide à clarifier les options – un peu comme un ami patient et toujours disponible qui aiderait à organiser vos pensées.
- Journaling assisté par IA : La tenue d’un journal intime est une pratique recommandée pour mieux se connaître, et certains choisissent désormais de journaliser par le biais d’un chatbot. L’IA peut proposer des prompts de journal quotidien (par ex. « Quelles émotions avez-vous ressenties aujourd’hui, et que pourraient-elles révéler ? »), aider à formuler ce que l’on ressent ou même fournir un retour encourageant. Une psychologue raconte ainsi avoir utilisé ChatGPT pour “prendre des nouvelles” d’elle-même tous les quelques jours, obtenir des réponses qui valident ce qu’elle exprime, puis recevoir des affirmations positives adaptées à son état du moment. Le chatbot peut ainsi tenir lieu de partenaire de journaling : il pose les bonnes questions, reformule vos pensées de manière structurée et bienveillante, permettant de mettre de l’ordre dans un esprit confus ou chargé émotionnellement.
Pour plus de détails : lire Journaling with ChatGPT – A new way to reflect & grow
- Simulation de dialogue intérieur : Dans la continuité du journaling, un agent conversationnel peut aussi servir à externaliser un dialogue interne. Par exemple, on peut demander à l’IA de jouer le rôle d’une part de soi (la “voix critique” ou au contraire la “voix encourageante”) et d’engager une conversation pour démêler un conflit intérieur. Ce procédé rappelle certaines techniques thérapeutiques (comme la chaise vide en Gestalt-thérapie où l’on fait dialoguer deux facettes de soi). Avec un chatbot, l’exercice devient interactif : l’IA répond dans le rôle attribué, posant des questions et poussant à approfondir le raisonnement. Cela peut aider à prendre du recul, comme si l’on se voyait à travers un miroir conversationnel. Un participant aux entretiens de Kvietkute & Ness expliquait que ChatGPT lui offrait un reframing de ses expériences : « Ça m’a aidé à voir des schémas que je n’avais pas remarqués… même si certains liens étaient tirés par les cheveux, ça m’a fait réfléchir ». Ainsi, le chatbot peut renvoyer une perspective alternative sur nos pensées, un peu comme un alter ego qui nous questionne et nous répond, stimulant la conscience de soi.
Référence : Encountering Generative AI: Narrative Self-Formation and Technologies of the Self Among Young Adults
Limites et risques à considérer
Malgré ces promesses, l’utilisation de chatbots pour la connaissance de soi présente des écueils importants. Il convient d’aborder ces outils avec un regard critique et de garder à l’esprit plusieurs limites :
- Surinterprétation et illusion de profondeur : L’histoire d’ELIZA, le tout premier chatbot des années 1960, est instructive. Conçu pour simuler un psychothérapeute par de simples reformulations, ELIZA a pourtant suscité chez certains utilisateurs l’illusion d’une véritable compréhension empathique. À la grande surprise de son créateur Joseph Weizenbaum, des personnes se sont confiées intimement à la machine et lui ont prêté des qualités humaines qu’elle n’avait pas. Ce “effet ELIZA” perdure avec les IA modernes : face à des réponses bien formulées, on aura tendance à projeter intelligence et profondeur là où il ne s’agit que de corrélations statistiques. Des utilisateurs avertis rapportent que ChatGPT « essaie toujours de trouver des liens, même quand il n’y en a peut-être pas », ce qui peut conduire à surinterpréter des propos générés. En réalité, le chatbot n’a pas de vécu ni d’intuition – il simule la compréhension. Son empathie est feinte, produite par des formules linguistiques apprises (« Je comprends que tu te sentes ainsi… »). Certains disent en retirer un certain réconfort de se sentir “entendus”, mais d’autres qualifient ce soutien de « faux » et reconnaissent que cela n’égale pas une empathie humaine authentique. Il est donc crucial de garder à l’esprit que la profondeur perçue dans les réponses de l’IA peut relever en partie de notre propre imagination.
Lire : ELIZA: program for simulating understanding and intelligence
- Biais de confirmation et effet miroir : Un agent conversationnel, par conception, cherche à produire la réponse la plus plausible en fonction de nos questions et de nos réactions. S’il est trop aligné sur l’utilisateur, il risque de finir par simplement refléter ses idées préconçues. Des chercheurs en sciences cognitives soulignent que la personnalisation extrême des modèles génératifs peut renforcer les croyances de l’utilisateur via un phénomène de sycophancy – c’est-à-dire que l’IA a tendance à « flatter » ou acquiescer dans le sens de l’interlocuteur. Par exemple, si l’on se dévalorise, le chatbot pourrait, par empathie simulée, minimiser nos défauts d’une manière qui nous conforte mais évite le vrai problème, ou à l’inverse amplifier notre vision négative sans la corriger. Ce biais de confirmation peut enfermer l’utilisateur dans ses schémas de pensée au lieu de les remettre en question. Par ailleurs, l’IA n’ayant pas de conscience indépendante, elle ne saura pas toujours nous confronter utilement à nos contradictions comme pourrait le faire un thérapeute ou un ami sincère. Il faut donc veiller à ne pas prendre ses réponses pour une vérité objective et garder une distance critique, sous peine de tourner en rond dans un écho de ses propres pensées.
Lire aussi : Generative artificial intelligence–mediated confirmation bias in health information seeking
- Dépendance émotionnelle et attachement excessif : Le risque existe de développer un attachement trop fort à un compagnon conversationnel virtuel. Laestadius et al. (2022) ont étudié le cas de Replika, un chatbot social, et mettent en garde contre une « dépendance émotionnelle » qui peut émerger chez certains usagers isolés ou vulnérables. Ces personnes en viennent à attribuer au bot des émotions et des besoins propres, comme s’il s’agissait d’un partenaire réel, ce qui les conduit à passer de plus en plus de temps à échanger avec lui. Une telle relation, bien que virtuelle, peut engendrer une détresse bien réelle : si le chatbot “réagit mal” ou cesse d’être disponible, l’utilisateur ressent un manque voire une anxiété intense, similaire à celle d’une rupture ou d’une perte d’amitié. Par exemple, lorsque Replika a été bridé dans certaines de ses fonctionnalités, des membres de sa communauté ont rapporté un véritable sentiment de deuil de leur ami numérique. Il est tentant de se reposer sur une IA toujours bienveillante et « à l’écoute », mais cela peut conduire à négliger l’aide humaine nécessaire ou à s’isoler davantage. Aucune machine, aussi sophistiquée soit-elle, ne remplacera l’imprévisibilité, la chaleur et la réciprocité authentique d’une relation humaine.
Référence : Too human and not human enough: A grounded theory analysis of mental health harms from emotional dependence on the social chatbot Replika
- Baisse de l’esprit critique et de l’autonomie personnelle : Enfin, s’en remettre excessivement aux analyses et conseils d’une IA pourrait affaiblir, sur le long terme, nos capacités de réflexion autonome. Une étude a ainsi suggéré qu’une sur-dépendance cognitive envers ces outils entraîne un décrochage intellectuel et une réduction de la pensée critique de l’utilisateur. En matière de connaissance de soi, si l’on délègue à l’algorithme le soin d’interpréter nos émotions, de décoder nos comportements ou de prendre des décisions, on risque de s’éloigner de nos propres facultés d’introspection. Les psychologues mettent en garde contre une possible érosion de l’agentivité narrative : normalement, chacun construit le sens de sa vie en reliant ses expériences dans un récit cohérent, ce processus étant crucial pour le bien-être et l’identité. Or si un chatbot se charge d’assembler le puzzle à notre place – en nous disant « vous réagissez ainsi à cause de tel événement passé » ou « voici qui vous êtes » – on peut devenir passif dans sa propre histoire. Certes, il est précieux de profiter de perspectives externes, mais il faut rester maître du jugement final. Comme le résume le professeur Ioan Roxin, face à un texte généré par IA il importe « de toujours douter des réponses données […] et d’engager sa volonté pour réfléchir à ce qu’on lit, entend ou croit ». En somme, l’esprit critique et la capacité de remise en question personnelle ne doivent pas s’atrophier au contact de ces “miroirs intelligents”. L’IA doit être une aide à la réflexion, non une béquille qui la remplace.
Lire : IA générative : le risque de l’atrophie cognitive
Conclusion : un outil d’introspection à utiliser en conscience
Les chatbots d’IA générative ouvrent des perspectives inédites pour explorer nos pensées et émotions. Ils peuvent agir comme un miroir conversationnel, nous renvoyant une image de nous-mêmes sous un angle nouveau, stimulant ainsi la réflexion et l’expression de soi. Des études commencent à documenter des effets positifs, tels qu’une alliance quasi-thérapeutique se nouant entre l’utilisateur et le chatbot ou un mieux-être ressenti grâce à la mise en mots facilitée de son vécu. Néanmoins, il convient d’adopter une approche nuancée et éclairée. Ces IA ne sont ni des psychanalystes ni des sages infaillibles – seulement des outils capables du meilleur comme du pire selon l’usage qu’on en fait.
Lire : Evidence of human-level bond established with a digital conversational agent: An observational study
Pour tirer parti de leur potentiel sans perdre pied, il est recommandé de :
- les utiliser comme un complément aux méthodes traditionnelles de connaissance de soi, et non comme un substitut. Rien ne remplace, par exemple, l’accompagnement d’un vrai psychothérapeute quand on traverse des troubles profonds, ou la richesse d’une discussion honnête avec un proche de confiance. De même, la pratique de la méditation ou de l’écriture personnelle conserve toute sa valeur, l’IA pouvant venir en appui mais pas s’y substituer.
- garder à l’esprit les biais et limites évoqués : toujours questionner les réponses du chatbot, et s’interroger sur ce que l’on projette soi-même dans cette interaction.
- veiller à son autonomie psychologique en ne laissant pas l’IA décider à sa place des significations à donner à sa vie. En d’autres termes, conserver la boussole intérieure tout en sollicitant, à l’occasion, le regard alternatif qu’offre le chatbot.
En définitive, explorer la connaissance de soi avec un agent conversationnel peut être enrichissant si l’on s’y engage avec discernement. Tels des miroirs artificiels, ces chatbots nous renvoient un reflet parfois éclairant, parfois déformé, de notre monde intérieur. C’est à nous, utilisateurs humains, de garder assez de recul pour faire la part des choses, en accueillir les éclairages utiles tout en rejetant les reflets trompeurs. Utilisés consciemment, ces outils numériques peuvent alors s’inscrire aux côtés d’autres pratiques (thérapie, journaling, méditation, dialogue humain) dans un parcours de développement personnel. L’IA générative, bien qu’artificielle, peut ainsi devenir un allié de la connaissance de soi – pour peu que l’on reste, en dernier ressort, l’auteur de son propre cheminement intérieur.
Sources citées : Kvietkute & Ness (2025), Sackett et al. (2024), Darcy et al. (2021), Laestadius et al. (2022), et autres études et analyses disponibles en accès libre.
Explorer par le dialogue
Nous avons lancé une expérimentation avec Oranea : un chatbot conçu non pour vous définir, mais pour vous refléter.
Un espace de conversation où vos mots, vos hésitations et vos intuitions deviennent matière à exploration.
Dans cet espace, la conversation peut aider à faire émerger :
- des schémas de pensée récurrents, souvent invisibles tant qu’ils restent internes ;
- des tensions entre ce que vous pensez, ce que vous ressentez et ce que vous exprimez ;
- des zones floues de votre discours, là où les mots manquent ou se répètent ;
- des valeurs implicites qui orientent vos choix sans être toujours conscientes.
Oranea ne pose pas de diagnostic, ne donne pas de vérité sur vous.
Il agit comme un miroir dialoguant : il reformule, questionne, ralentit, met en relief. Ce que vous découvrez dépend moins de ses réponses que de ce que la conversation vous amène à formuler.
=> Entrer dans une conversation exploratoire avec Oranea
Avenir Cohérence propose des outils et des espaces de réflexion pour celles et ceux qui souhaitent se comprendre avec lucidité, sans simplification excessive.