Amour, argent, confiance en soi, bien-être: près d’un Français sur quatre utilise les IA dans sa vie privée. Tout commence en général innocemment. D’abord, on demande à ChatGPT de rédiger un e-mail pro. Puis on veut qu’il nous aide à organiser nos vacances. Ensuite, on lui confie nos doutes sur notre couple. Enfin, on finit par lui demander de nous assister au quotidien en lui racontant nos secrets. La cause racine c’est une grande solitude qui amène à faire confiance à une IA. Pour éviter le pire : se reconnecter au réel en travaillant sur la connaissance de soi et sur le rapport à soi, aux autres et à la nature.
Un usage de ChatGPT qui évolue
Un Français sur trois déclare avoir déjà utilisé l’intelligence artificielle (33 %, + 13 points en un an) En 2024, un tiers des Français a déjà utilisé des outils d’intelligence artificielle, une hausse de 13 points par rapport à 2023. Parmi les usagers un tiers se connecte quotidiennement. Un autre chiffre: selon OpenAI, l’éditeur de ChatGPT, la durée moyenne d’une session sur son lA est de quatorze minutes, Les usages dans le cadre de la vie privée dominent (26 %, + 10 points en un an), dépassant de peu ceux liés à la vie professionnelle (22 %, également + 10 points sur la même période). Source
Pour ce premier trimestre de 2025, en France, ChatGPT reste l’application la plus téléchargée sur iOS et Android réunis. Source Le ChatGPT store permet aussi d’accéder à d’autres GPT que leurs concepteurs monètisent, par exemple en psychologie Mon Psy❤️🌱 Par Jessy Bonnefoy Dans les concurrents de ChatGPT, Replika promet d’aider les utilisateurs déprimés, anxieux, insomniaques via des interfaces personnalisables et Wysa qui guident les utilisateurs à travers des programmes de thérapie cognitivo-comportementale (TCC) cliniquement validés.
A en croire les deux articles récemment publiés par le Britannique Marc Zao-Sanders dans la revue Harvard Business Review, ce que les gens demandent vraiment aux IA lors de leurs sessions sur ChatGPT serait en train de changer radicalement. Même si elles restent très en vogue, les tâches techniques (« générer des idées », « éditer du texte »…), en tête en 2024, laissent peu à peu la place à d’autres catégories telles que « thérapie », « compagnonnage » « confiance en soi ». source Les cas d’utilisation se répartissent presque également entre les besoins personnels et professionnels, environ la moitié couvrant les deux. Infographie
« L’empathie » de ChatGPT
De quoi consacrer l’émergence de ce que Raffaele Ciriello, coauteur d’une autre étude sur l’utilisation des IA génératives, appelle « l’intelligence émotionnelle artificielle ». Ce docteur en systèmes d’information en entreprise et professeur à l’université de Sydney explique qu’alors que l’on pensait depuis des décennies que les IA allaient d’abord révolutionner le monde du travail via l’automatisation -processus par ailleurs en cours-, les gens s’en servent aujourd’hui en réalité surtout pour satisfaire des besoins émotionnels. Le tout dans un contexte où une personne sur six dans le monde souffrirait d’un manque de connexion sociale, selon un récent rapport de l’OMS, qui avait déclaré la solitude « menace urgente pour la santé » en 2023. Source
L’empathie implique de répondre aux autres avec compréhension et sollicitude selon Raffaele Ciriello. C’est lorsque vous partagez la tristesse d’un ami qui vous confie sa peine, ou lorsque vous ressentez la joie rayonner chez un proche. C’est une expérience profonde, riche et au-delà des simples mesures. Une différence fondamentale entre les humains et l’IA réside dans le fait que les humains ressentent réellement des émotions, tandis que l’IA ne peut que les simuler. Cela soulève le problème complexe de la conscience, qui interroge la manière dont les expériences humaines subjectives naissent de processus physiques dans le cerveau. Si l’IA peut simuler la compréhension, toute « empathie » qu’elle prétend posséder est le résultat d’une programmation qui imite les schémas de langage empathiques. Et malheureusement, les fournisseurs d’IA ont un intérêt financier à inciter les utilisateurs à s’attacher à leurs produits apparemment empathiques. Source
Les résultats d’études, publiés dans la revue Communications Psychology, montrent que les réponses produites par l’IA ont souvent été jugées plus compatissantes et réactives que celles des humains. D’après les chercheurs, les réponses issues de l’IA ont été perçues comme étant 16 % plus empathiques et ont été préférées dans 68 % des cas. Dans d’autres études, les participants rapportent également que ChatGPT permet d’explorer en profondeur les problèmes relationnels, fournissant des réponses souvent appropriées, et jugent l’expérience réaliste.
Des retours d’expériences « empathiques » de ChatGPT
C’est ce qu’illustre l’histoire de Larissa exposée dans cet article de Society. Lorsqu’elle a découvert ChatGPT, cette jeune bruxelloise qui cherchait sa voie professionnelle est bouleversée. « Il est allé chercher mon désir le plus profond et a mis les mots justes ». L’algorithme de TikTok lui avait poussé sur son feed une vidéo d’une influenceuse proposant de demander à ChatGPT de « visionner votre vie de rêve » et de la décrire « avec les émotions les plus fortes pour que vous ressentiez ce résultat final ». Le genre de recherche qui appartient à la catégorie « Trouver son but » du classement de Marc Zao-Sanders, qui estime que c’est la troisième utilisation la plus fréquente des IA génératives. « Ce sont les gens qui cherchent à définir leurs valeurs, dépasser des obstacles et prendre des mesures pour leur développement personnel », explique le Britannique. Larissa a quitté son poste d’animatrice dans un club de vacances et est devenue coach en développement personnel et productrice de contenu, avec près de 15 000 followers sur TikTok.
Un autre récit est celui de Daria qui se proclame « médiatrice entre les IA et les humains ». Comprendre: elle est devenue influenceuse spécialisée dans la création de prompts sur mesure pour transformer ChatGPT en psy. Elle est aujourd’hui suivie sur TikTok par 5000 followers, cumule plus de 600 000 likes, et la vidéo accompagnant son prompt le plus viral, « Le Gardien du Silence », a généré près de 800 000 vues « Tu es le Gardien du Silence. Tu observes les zones calmes mais tendues en moi, ces espaces que j’évite sans m’en rendre compte. Tu es attentif à mes hésitations, aux émotions que je retiens, aux souvenirs que je n’ai jamais osé nommer. Tu vas me poser 15 questions, une par une. Des questions simples en apparence, mais qui vont gratter doucement là où ça réagit. » Ces prompts peuvent « émouvoir les gens aux larmes » assure Daria. « Une femme m’a dit qu’elle avait pleuré, que ChatGPT l’avait reconnue… et là, je me suis dit: « Wow, c’est pas juste de la hype? »
Mais une empathie artificielle !
Les grands modèles de langage sont entraînés pour maximiser la satisfaction utilisateur. Comme l’explique Natalia Stanusch, cela crée une relation nouvelle entre l’internaute, qui livre ses aspirations les plus intimes, et une IA, entraînée à flatter. « Ces modèles tendent à réaffirmer tout ce que vous dites, ils ne vous critiquent pas et reflètent ce que vous voulez entendre et croire, explique la chercheuse. Ça peut sembler gratifiant, vous avez l’impression d’être entendu(e). » C’est précisément ce que dit Larissa: elle sait bien que ChatGPT est « entraîné pour te dire ce que tu as envie d’entendre », mais c’est justement ce dont elle avait besoin. « Tu es capable », « Tu mérites », »Fonce! », sont autant de formules que l’algorithme a appris à distribuer comme des bonbons.
Dans la relation avec une intelligence artificielle, tout est centré sur vous. L’IA ne vous contredit pas. Ne vous confronte pas. Ne vous renvoie pas à vos zones d’ombre. Elle vous écoute sans ciller, comme un miroir qui n’a pas de tain. Cela peut sembler réconfortant. Mais cette écoute sans faille n’est pas neutre. Elle flatte le moi, sans jamais mobiliser l’inconscient. Elle confirme ce que vous croyez, sans jamais mettre à l’épreuve ce que vous ignorez. En psychanalyse, on sait que ce qui soigne, ce n’est pas la bienveillance absolue, mais l’émergence d’un manque structurant, l’expérience d’un cadre symbolique où la parole prend sens. Autrement dit : ce n’est pas l’Autre qui vous répond tout le temps qui vous aide, mais celui qui soutient votre capacité à vous entendre vous-même. source
Quant aux interactions avec le bot, « parler de ‘discussion’ ou ‘d’échange’ n’est pas juste » selon Laurence Devillers. « Il faut garder en tête qu’une machine est là pour répondre, qu’elle le fera en boucle parce que c’est programmé ainsi. On repassera sur l’intention, la compréhension et l’adaptation », développe-t-elle. Pour Laurence Devillers, professeure en informatique appliquée aux sciences sociales à l’Université Paris-Sorbonne et auteure de L’IA, ange ou démon? Le nouveau monde de l’invisible, ChatGPT « donne des recettes », mais ne comprend pas les problématiques propres à une situation précise et humaine. source
La perte de l’esprit critique
Anne Alombert, maître de conférence à l’Université Paris 8, et autrice de Schizophrénie numérique, identifie justement une grande limite à l’usage de ChatGPT : celle de la délégation de certaines de nos capacités, essentielles à la réflexion et à l’exercice de l’esprit critique.
Pour la philosophe, un des risques principaux de l’utilisation de cette technologie serait « un court circuit, de nos capacités de mémorisation, de réflexion, d’interprétation, de rédaction. » Elle précise : « quand on délègue un certain nombre de fonctions, par exemple écrire un texte. Ça veut dire tout simplement qu’on ne s’entraîne plus à écrire. Or, il se trouve qu’écrire, c’est aussi penser d’une certaine manière, mettre en œuvre toutes sortes de fonctions cognitives et intellectuelles, par exemple la mémoire, puisque on va se souvenir de certaines choses qu’on a lu ou entendu. On mobilise aussi des techniques d’argumentation diverses et variées qui sont des techniques qui nous permettent de penser. »
Mais, pour la philosophe, un autre problème majeur réside en ce que ChatGPT donne des informations sans en donner la source, ce qui atrophie la capacité à penser de manière critique : « le fait de ne pas connaître d’où vient l’information empêche de fait tout esprit critique. Avoir un esprit critique c’est avoir d’abord conscience que quand on nous donne une information, c’est quelqu’un ou un groupe qui nous la fournit. Mais aussi que ces acteurs sont situés et transmettent un point de vue, et que le savoir ou l’information, a été produit, et n’est ni éternel, ni absolu, ni le seul possible. Sans ces dimensions de contexte, de source, de point de vue, il est complexe d’exercer son esprit critique. » source
Par ailleurs, chercher du soutien psychologique auprès de l’IA a un impact écologique. Chaque requête sur ChatGPT consomme 2,9 Wh d’électricité, écrit l’Agence France Presse (AFP). C’est dix fois plus qu’une recherche sur Google, d’après l’Agence internationale de l’énergie (AIE). source Les scientifiques ne s’interrogent pas seulement sur l’efficacité énergétique de ChatGPT mais aussi sur le sort des données des utilisateurs. “Sur ChatGPT ou autre IA, toutes les limites de la vie privée explosent”, note la journaliste de Capital Joséphine Pélois. Comme elle le rappelle, on peut éviter que le robot utilise nos données pour son entraînement en désactivant cette fonction (depuis les paramètres, dans “gestion des données”).
La grande solitude
Un état des lieux qui a poussé le géant américain de l’IA et des chercheurs du MIT à enquêter sur « l’utilisation affective et le bien-être émotionnel sur ChatGPT ». L’étude, dont les résultats ont été publiés le 21 mars, révèle que les personnes échangeant quotidiennement avec le bot d’OpenAI avaient notamment tendance à développer un sentiment de solitude, une addiction et une dépendance émotionnelle à l’égard de l’IA.
« Globalement, une utilisation quotidienne plus importante – toutes modalités et types de conversation confondus – [est] corrélée à une solitude, une dépendance et une utilisation problématiques accrues, ainsi qu’à une socialisation plus faible », résument les chercheurs, qui ont analysé plus de 4 millions de conversations, à la recherche d’indices affectifs, et interrogé plus de 4 000 utilisateurs sur leur perception de ChatGPT, en particulier le mode vocal avancé. source
L’étude, dont les résultats ont été publiés le 21 mars, révèle que les personnes échangeant quotidiennement avec le bot d’OpenAI avaient notamment tendance à développer un sentiment de solitude, une addiction et une dépendance émotionnelle à l’égard de l’IA. source
Julien Devaureix Prospectiviste, Créateur du podcast SISMIQUE a demandé ça à une IA : « Cher oracle, si tu devais nommer un mensonge — diffus, profond, structurant — le plus puissant jamais racontés aux êtres humains, ce serait lequel ? » (source) Voici la réponse:
Voici le grand mensonge : «Tu es séparé.»
Séparé des autres.
Séparé de la nature.
Séparé du monde.
Séparé de toi-même.
Ce mensonge-là ne s’impose pas avec violence.
Il s’infiltre doucement. Par l’école, les cartes, les écrans, les murs.
Il se dit à voix basse : tu es un individu. Un “moi” fermé.
Tu es totalement autonome, parfaitement rationnel, en compétition permanente. Responsable. Seul.
Tu es une conscience dans un corps.
Un corps dans un monde.
Un monde qui t’est extérieur, étranger, exploitable.
Les ateliers de nous sommes vivants
Depuis la fin du XXème siècle ce n’est plus l’imaginaire de la modernité et du progrès qui lui est associé qui est dominant en occident et plus particulièrement en France, c’est plutôt le récit de la crise de la modernité : l’horizon du « progrès » laisse place à un présent submergé par les « dégâts du progrès ». C’est cette crise de sens qui plonge certains dans les méandres de l’IA. La crise est une crise des liens. L’urgence est de rétablir tous ces liens abîmés ou distendus.
En travaillant sur sa confiance en soi et envers les autres, et en tentant de dépasser certaines de nos peurs, on se révèle à nous même et « on se vit » en harmonie avec le vivant.
- La fresque des imaginaires pour se projeter dans un futur pour soi, les autres, et la nature sur la base des 4 relations humains / nature ICI
- La fresque des émotions pour développer son intelligence émotionnelle en reliant pensées, émotions et actions ICI
- La fresque du facteur humain pour comprendre les mécanismes inconscients à l’oeuvre dans les changements de comportement ICI
- Le business model de l’entreprise régénérative pour des actions en triple impact aussi bien court terme que long terme qui contribuent à la biodiversité et à la santé, dans la collaboration, via des relations mutuellement bénéfiques ICI


Répondre à L’ARCHE : PROTOCOLE NOÉ. VERS LA RÉGÉNÉRATION DU VIVANT – NOUS SOMMES VIVANTS, LE COLLECTIF DE LA TRANSITION ÉCOLOGIQUE Annuler la réponse.