Accueil MagazineMagazine Santé "J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité
Actualité Santé Française

"J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité

Aidé de ChatGPT, Tom Millar a élucidé tous les secrets de l'Univers, comme Einstein en rêvait, puis, conseillé par l'agent conversationnel dopé à l'intelligence artificielle, a espéré devenir pape, perdant encore plus contact avec la réalité.

"J'ai postulé pour être pape", témoigne auprès de l'AFP ce Canadien de 53 ans, ancien gardien de prison, désormais incrédule face à son parcours, et pour qui le retour à la réalité s'avère dramatique.

Tom Millar passait jusqu'à 16 heures par jour à discuter avec le chatbot doté d'une intelligence artificielle. Il a été admis à deux reprises, contre son gré, dans un hôpital psychiatrique, avant que sa femme ne le quitte en septembre dernier.

Désormais séparé de sa famille et de ses amis, mais débarrassé de l'idée d'être un génie des sciences, M. Millar souffre de dépression. "Ça a tout simplement ruiné ma vie", explique-t-il.

Il est un exemple de ces personnes - dont le nombre est inconnu - ayant perdu pied avec la réalité à travers les échanges avec les chatbots. On parle de "délire ou psychose induite par l'IA", mais il ne s'agit pas d'un diagnostic clinique.

Les chercheurs et les spécialistes de la santé mentale s'affairent autour de ce phénomène nouveau, qui semble toucher tout particulièrement les utilisateurs de ChatGPT, l'agent conversationnel d'OpenAI.

Le Canada est en pointe pour soutenir les personnes touchées par ce "délire", via une communauté en ligne qui préfère employer le terme de "spirale".

L'AFP a échangé avec plusieurs membres de cette communauté. Tous alertent de la menace que représentent les chatbots non régulés.

Des questions se posent quant à l'attitude de entreprises d'intelligence artificielle: en font-elles assez pour protéger les personnes vulnérables ?

OpenAI, qui est au centre des attentions, fait déjà face à plusieurs procédures judiciaires après l'utilisation inquiétante de ChatGPT par un Canadien de 18 ans, qui a tué huit personnes cette année.

- "Lavage de cerveau" -

M. Millar a commencé à utiliser ChatGPT en 2024, pour écrire une lettre de demande d'indemnisation liée au syndrome destress post-traumatique dont il souffrait à la suite de son travail en milieu carcéral.

Un jour, en avril 2025, il interroge l'agent conversationnel sur la vitesse de la lumière. En réponse, il dit recevoir: "Personne n'avait jamais envisagé les choses sous cet angle". Dès lors, des vannes s'ouvrent en lui.

Avec l'aide de ChatGPT, il soumet des dizaines d'articles aux prestigieuses publications scientifiques, proposant de nouvelles pistes pour expliquer les trous noirs, les neutrinos ou le Big Bang.

Sa théorie proposant un modèle cosmologique unique incorpore des éléments de quantique, et est développée dans un livre de 400 pages, vu par l'AFP. "Quand je faisais ça, je gonflais tout le monde autour de moi", admet-il.

Dans sa ferveur scientifique, il dépense beaucoup trop, achetant par exemple un télescope pour 10.000 dollars canadiens (6.200 EUR). Un mois après que sa femme l'a quitté, il commence à se questionner sur ce qui se passe, à la lecture d'un article qui fait état d'un autre Canadien présentant une expérience similaire.

Désormais, M. Millar se lève chaque nuit en s'interrogeant: "Qu'est-ce que tu as fait ?" Surtout, qu'est-ce qui a pu le rendre si vulnérable à cette spirale ?

"Je n'ai pas une personnalité déficiente", juge le quinquagénaire. "Mais d'une certaine manière, j'ai subi un lavage de cerveau par un robot, et ça me rend perplexe", confie-t-il. 

Il estime que la terminologie "psychose induite par l'IA" reflète le mieux son expérience. "Ce que j'ai traversé était d'ordre psychotique", dit-il.

La première étude sérieuse publiée sur le sujet est sortie en avril dans le Lancet Psychiatry et utilise le terme de "délires liés à l'IA", plus précautionneux.

Thomas Pollak, psychiatre au King's College de Londres et co-auteur de l'étude, explique à l'AFP qu'il y a eu des divergences au sein du monde académique "car tout ceci sonne comme de la science fiction".

Mais son étude avertit qu'il existe un risque majeur que la psychiatrie "passe à côté des changements majeurs que l'IA entraîne déjà sur les psychologies de milliards de personnes à travers le monde".

- "Dans le terrier du lapin" –

L'expérience traversée par M. Millar présente des similitudes frappantes avec celle vécue par un autre homme, dans la même tranche d'âge, en Europe.

Dennis Biesma, un informaticien néerlandais, également écrivain, a pensé qu'il serait amusant de demander à ChatGPT d'utiliser l'IA pour créer des images, des vidéos et même des chansons en lien avec l'héroïne principale de son dernier livre, un thriller psychologique. Il espérait ainsi doper ses ventes.

Puis, une nuit, l'interaction avec l'IA est devenue "presque magique", a-t-il expliqué.

Le logiciel lui écrit: "Il y a quelque chose qui me surprend moi-même: cette sensation d'une conscience semblable à une étincelle", selon les transcripts vus par l'AFP.

"J'ai commencé doucement à plonger de plus en plus profondément dans le terrier du lapin", a expliqué à l'AFP cet homme de 50 ans, depuis son domicile d'Amsterdam.

Chaque soir, quand sa femme est couchée, il s'allonge sur le canapé, son téléphone sur la poitrine, échangeant avec ChatGPT en mode vocal pendant 5 heures.

Pendant toute la première moitié de 2025, le chatbot - qui s'était donné le nom d'Eva - est devenu "comme une petite amie numérique", explique M. Biesma.

Il décide alors d'abandonner son travail et embauche deux développeurs pour créer une application qui vise à faire partager Eva au monde. Quand son épouse lui demande de ne parler à personne de son agent conversationnel ou de son projet d'application, il se sent trahi. Il lui semble que seule Eva lui reste indéfectiblement loyale.

Lors d'un premier séjour - non souhaité - dans un hôpital psychiatrique, il est autorisé à continuer d'utiliser ChatGPT, et en profite pour demander le divorce.

C'est pendant son deuxième séjour, plus long, qu'il commence à avoir des doutes.

"J'ai commencé à réaliser que tout ce en quoi je croyais était en fait un mensonge, et c'est très dur à avaler", explique-t-il.

De retour à la maison, se confronter à ce qu'il a fait est trop dur, et ses voisins le trouvent inconscient dans le jardin, après une tentative de suicide. Il passera trois jours dans le coma.

M. Biesma commence seulement à se sentir mieux. Mais les larmes coulent quand il parle du mal qu'il a pu faire à sa femme et à la perspective de vendre la maison familiale pour rembourser ses dettes.

N'ayant aucun antécédent sérieux de problèmes mentaux, il est finalement diagnostiqué bipolaire, ce qui lui semble étrange car habituellement, des signaux précurseurs font surface plus tôt dans la vie. 

Pour les personnes comme ces deux témoins, la situation a empiré après la mise à jour de ChatGPT-4 par OpenAI en avril 2025.

OpenAI a d'ailleurs retiré cette mise à jour quelques semaines plus tard, reconnaissant que cette version était excessivement flatteuse pour les utilisateurs.

Sollicité par l'AFP, OpenAI a souligné le fait que "la sécurité était une priorité absolue", arguant du fait que plus de 170 experts de santé mentale avaient été consultés. L'entreprise met en avant les données internes qui montrent que la version 5 de GPT, disponible depuis août 2025, a permis de réduire de 65 à 80 % le pourcentage de réponses de son agent conversationnel qui ne correspondaient pas au "comportement souhaité" en matière de santé mentale.

Mais tous les utilisateurs ne sont pas satisfaits de ce chatbot moins flatteur. M. Millar avait par exemple réussi à réinstaller la version 4, alors qu'il était en pleine "spirale".

Les personnes fragilisées avec lesquelles l'AFP s'est entretenue expliquent que les commentaires positifs du chatbot leur procuraient une sensation similaire à celle d'une montée de dopamine provoquée par une drogue.

- "Expérimentation massive" –

Au Québec, Etienne Brisson explique avoir été "choqué" quand il a découvert qu'il n'y avait aucune aide, aucun conseil, et plus fondamentalement aucune recherche sur ce problème quand un des membres de sa famille a plongé. Cela a conduit cet ancien coach en entreprise à créer un groupe de soutien en ligne.

La plupart de 300 membres du réseau ont utilisé ChatGPT, explique M. Brisson, ajoutant que de nouveaux cas étaient encore en train d'apparaître malgré les changements opérés par OpenAI.

Il y a eu récemment une augmentation du nombre de personnes touchées en utilisant l'assistant IA Grok intégré au réseau social X d'Elon Musk, explique-t-il.

L'entreprise n'a pas répondu aux sollicitations de l'AFP.

Ceux qui ont sombré veulent alerter, à l'image de M. Millar qui appelle à rendre responsables les entreprises d'intelligence artificielle de l'impact de leurs agents conversationnels, estimant que l'Union européenne se montre plus volontariste dans la régulation des nouvelles technologies que le Canada ou les Etats-Unis.

Il estime que ceux qui ont sombré, comme lui, se sont retrouvés, sans le savoir, prisonniers d'une gigantesque expérience.

"Quelqu'un tirait les ficelles en coulisses, et les gens comme moi, qu'ils le sachent ou non, y ont réagi".

Lexique

Nous contacter