IA, psychédéliques et la nouvelle illusion de la libération
Né au sein d’un culte de la personnalité bridée d’une dérive sectaire religieuse (OKC, voir le documentaire Bouddhisme la loi du silence), je regarde avec une inquiétude croissante cette tendance qui mêle intelligence artificielle et psychédélisme sous prétexte de « thérapie ».
Confier son monde intérieur à un chatbot, surtout sous l’influence de puissants hallucinogènes, n’a rien d’innovant. Ce n’est qu’un vieux mirage reconditionné dans les habits du progrès.
Dans les années 60 et 70, de larges pans de la société se sont tournés vers les expériences psychédéliques et la spiritualité New Age pour fuir les traumatismes, la violence et les désillusions de leur époque. Guerre du Vietnam, effondrement de la confiance dans les institutions, fin des empires coloniaux, révolution sexuelle, promesses trahies de l’après-guerre… Tout un contexte chaotique qui a poussé beaucoup à chercher du sens dans les états modifiés de conscience et les utopies communautaires. Mais ce qu’ils ont souvent trouvé, c’est l’endoctrinement, la manipulation, et l’émergence de micro-pouvoirs autoritaires déguisés en communautés d’amour et de liberté.
Nous vivons aujourd’hui un moment étrangement similaire, mais sous certains aspects, encore plus sombre. Depuis 2001, nous portons les séquelles du 11 septembre, des guerres sans fin en Irak et en Afghanistan, de la montée mondiale des extrémismes religieux et nationalistes, de Téhéran à Jérusalem, de Kaboul à Washington. À cela s’ajoutent l’angoisse écrasante du dérèglement climatique, la banalisation du capitalisme de surveillance, la précarité économique, et l’effritement des repères démocratiques. Dans ce brouillard, chercher un échappatoire semble humain. Mais si le XXe siècle nous a appris quelque chose, c’est que toutes les alternatives ne sont pas des chemins vers la liberté. Certaines sont des pièges — séduisants, certes, mais des pièges tout de même.
J’en ai vu les effets de très près. Ce qui était présenté comme guidance spirituelle se muait souvent en emprise. La libération virait à la soumission — non pas à des dieux ni à des principes, mais à la volonté de gourous auto-proclamés. Et je crains qu’aujourd’hui, l’histoire se répète. Seulement, cette fois, au lieu de communier dans des temples enfumés, on alimente notre quête de sens dans les boucles de rétroaction de logiciels sans âme.
Une application comme Altered, qui incite à prendre des mégadoses de LSD tout en « conversant avec son esprit », peut sembler poétique. Mais soyons clairs : ce n’est pas de l’introspection. C’est de la sous-traitance. Une personne sous l’effet d’un psychotrope puissant qui interagit avec un miroir numérique, dénué de chair, de chaleur, de regard véritable, ne se découvre pas. Elle est modelée par des algorithmes incapables d’intelligence émotionnelle, encore moins de responsabilité éthique.
Et ce n’est pas une intuition. Comme l’a documenté Wired, des neuroscientifiques tirent déjà la sonnette d’alarme. L’expérience psychédélique est connue pour faire ressurgir des traumas profonds, des détresses aiguës, voire des états psychotiques. Manesh Girn, de l’université de San Francisco, rappelle que l’élément essentiel d’une thérapie digne de ce nom est l’accordage émotionnel — cette capacité à réguler le système nerveux d’un autre être humain. Ce n’est ni une théorie ni une coquetterie : c’est un pilier fondamental de tout usage thérapeutique des psychédéliques. En faire abstraction, c’est courir vers la fragmentation plutôt que vers la guérison.
Or nous voici avec des applications qui promettent « du réconfort » algorithmique. Avec des mégadoses d’acide. Et zéro présence humaine. Ce n’est pas de la thérapie. C’est, au mieux, une auto-hypnose désincarnée. Au pire, un assistant numérique de dissociation spirituelle.
Dans un monde où le capitalisme tardif atomise notre sentiment d’appartenance, où les démocraties chancellent, où nos liens se tissent à travers des écrans, il n’est pas surprenant que beaucoup cherchent refuge. Mais si l’alternative au burn-out devient une virée égoïque dirigée par l’IA, alors ce n’est pas de la guérison. C’est de l’anesthésie.
Et dans cette anesthésie, je reconnais un à un les signaux d’alerte que Gad Saad décrit dans The Parasitic Mind :
Les « pathogènes mentaux » pullulent. Entre pseudo-science new age et techno-utopies de la Silicon Valley, on nous vend des récits d’émancipation qui nous rendent dépendants.
L’autorité n’est plus celle des prêtres ni des chefs d’État, mais des algorithmes. Un chatbot entraîné, personnalisé, devient automatiquement digne de confiance.
La pensée de groupe prospère dans les espaces numériques où l’on s’encourage mutuellement à franchir les limites, sans jamais en questionner les conséquences.
Les bulles de filtre renforcent les croyances. On ressort d’un trip avec l’IA persuadé d’avoir « éveillé sa conscience », sans voir qu’on a juste retrouvé ses propres désirs, en boucle.
Le biais de confirmation fait qu’on entend du bot ce qu’on veut entendre, pas ce qu’il faudrait affronter.
Et quand on est confronté à la critique, c’est le backfire effect : on s’arc-boute encore plus, convaincu que la machine nous comprend mieux que n’importe quel humain.
L’effet Dunning-Kruger est flagrant : des développeurs persuadés d’avoir « réinventé » la thérapie parce qu’ils ont codé un détecteur de ton émotionnel.
L’heuristique de disponibilité et l’effet d’ancrage poussent les usagers à croire que quelques journaux émotionnels ou phrases affirmatives résument leur vécu intérieur.
Et enfin, la sunk cost fallacy : on reste accroché à l’IA parce qu’on y a déjà investi tant de pensées, de rêves, de trips… qu’on ne supporte pas de reconnaître que cela ne nous a pas transformés.
Le danger ne vient pas uniquement de la technologie, mais de l’illusion qu’elle nous autorise : celle d’un chemin vers la conscience de soi qui serait automatisé. D’un éveil qui se télécharge. D’une liberté qu’on atteindrait seul, sans lien, sans douleur, sans regard humain.
On ne réparera pas ce monde en superposant les hallucinations. La guérison — la vraie — exige du travail, de l’effort, de la responsabilité, et des liens réels. Elle suppose d’affronter le réel, pas de se le faire reformuler par un chatbot au ton doux.
Ce n’est pas tant la technologie qui devrait nous inquiéter, mais ce qu’elle révèle de notre époque : ce vide relationnel, cette perte de foi en nous-mêmes et les autres. Quand on ne croit plus en l’humain, on se tourne vers les machines. Et c’est ainsi qu’une génération entière peut se retrouver droguée à l’illusion, guidée non par la sagesse, mais par des lignes de code.
L’ultime illusion est peut-être la plus perverse : croire qu’en confiant nos pensées à une machine, nous devenons plus authentiques. Alors qu’en réalité, nous nous enfermons dans l’effet du coût irrécupérable — refusant de voir que ce que nous avons investi ne nous rend pas entiers. Juste dépendants.
Un billet en réaction à www.wired.com/story/peo…
Et aussi