CLES DE COMPREHENSION
Pour décrypter et approfondir quelques concepts.
Sommaire
- Activité physiologique & Intuition
- Ami de Wigner
- Ces phénomènes sont-ils reproductibles ?
- Chat de Schrödinger
- Corrélats neuraux et états de conscience
- Décohérence, réduction du paquet d’onde
- Des cerveaux connectés
- Dualisme (philosophie)
- Empathie, télépathie et intentions
- Expérience à choix forcé
- Expérience du pressentiment
- Ganzfeld
- Généralisation des concepts quantiques
- GNA
- Hasard et facultés de la conscience
- Intrication quantique
- Intuition et latéralisation du cerveau
- L’intuition, faculté universelle du vivant ?
- Le cerveau : émetteur ou récepteur de conscience ?
- Le concept de hasard en physique
- Les messagers de l’intuition
- Localiser l’intuition dans le cerveau
- Matérialisme (philosophie)
- Mondes de Popper
- Néguentropie (& entropie)
- Problème corps-esprit (Mind-Body Problem)
- Qualia
- Spin
- Superposition
- Symétrie du temps et hasard
- Techniques pour mesurer l’activité cérébrale pendant une tâche intuitive
Activité physiologique & Intuition
Pour mettre en évidence le pressentiment, on peut mesurer diverses formes d’activité physiologique au niveau de différents organes : activité électrodermale (EDA), rythme cardiaque (ECG), volume sanguin, taux d’oxygène du sang, respiration, dilatation de la pupille, mouvement des yeux, électrogastrogramme (ECG), électroencéphalogramme (EEG), IRM-f, électromyographie (EMG)…
Au sein de chaque catégorie, plusieurs métriques sont parfois possibles. Pour l’EDA on peut utiliser la composante phasique ou la composante tonique du signal, ou les deux ; pour l’EEG on peut analyser plusieurs aspects des oscillations : leur phase, leur densité spectrale de puissance, leur intensité dans certaines plages de fréquence spécifiées, ou encore l’allure des ERP (event-related potential). Ces derniers sont des formes d’onde cérébrale assez lentes, pouvant durer plusieurs secondes, associées à des événements psychiques tels que des perceptions de stimuli ou des prises de décision.
Toutes les mesures physiologiques ne sont pas équivalentes. L’EDA, très utilisées dans les études pionnières du pressentiment, est maintenant considérée comme assez peu fiable. Certaines personnes ont très peu de signature électrodermale. Les études du pressentiment récentes utilisent plutôt l’EMG, le rythme cardiaque, ou la dilatation des pupilles. A noter que le pressentiment est idiosyncratique : à stimulus égal, deux personnes peuvent avoir des réponses physiologiques totalement différentes ; ce qui implique, dans certaines expériences exploitant le pressentiment, une courte phase de calibration.
Les études sur le pressentiment appartiennent à une famille d’expériences sur les facultés intuitives plus large, où l’on s’intéresse aux corrélations de ces facultés avec des données physiologiques. Depuis les années 1970 c’est un axe majeur des recherches sur l’intuition, notamment sous l’angle des neurosciences. Cela concerne tous les aspects de l’intuition et toutes ses modalités – intuition temps réel, intuition du futur, intuition entre personnes [cf Aspects neurophysiologiques de l’intuition]. Ces études tendent à montrer que l’intuition, quoi que nous pensions ou fassions, que nous en prenions conscience ou non, se manifeste dans le corps ; dans des expériences comportant des tâches intuitives, certains signatures physiologiques nous indiquent que la cible a été correctement perçue (Warren et al. 1992, Tressoldi et al. 2005, Williams 2015, McDonough et al. 2000). Autrement dit, même lorsqu’on utilise mal son intuition (parce qu’on ne sait pas « l’écouter »), notre corps, lui, semble toujours connecté à l’information correcte et nous indiquer les décisions que nous devrions prendre.
Ami de Wigner
En 1961, le physicien Eugene Wigner a proposé une variante du paradoxe du chat de Schrödinger. Dans son expérience de pensée, il y a un système quantique observable et, cette fois, deux observateurs. Le premier, un ami de Wigner imaginaire, fait une mesure sur le système quantique. Le second, Wigner lui-même, observe la scène, c’est-à-dire son ami en train de faire la mesure. A un instant donné Wigner et son ami rapportent leurs perceptions de la situation : or, selon la description quantique, ces perceptions du réel sont incompatibles !
Cette idée peut paraître choquante tant nous sommes habitués à considérer la réalité comme existant de manière objective, en dehors de nous, que nous soyons là ou non pour l’observer. C’est le principe de réalisme, dont Einstein était un farouche partisan. Croire en l’objectivité du réel est à la base de la physique et de toute science cherchant à modéliser la réalité. Pourtant la physique quantique a amendé ces notions, en insistant sur le fait que nous n’avons pas accès au réel, seulement à ses manifestations (D’Espagnat 1997). Toute observation est vouée à perturber ce qui est observé, de sorte que l’objectivité n’est jamais ce à quoi nous avons accès empiriquement.
Certains physiciens pionniers de la mécanique quantique, dont Wigner, sont allés plus loin, en proposant que l’acte d’observation serait plus qu’une perturbation de la réalité, mais une cocréation de celle-ci. Dans son raisonnement, toute observation du réel s’achevant forcément par une perception conscientisée, la conscience doit être réhabilitée dans la description de la réalité physique, et l’objectivité du réel doit être pensée comme une intersubjectivité, le résultat d’un maillage de points de vue subjectifs et de cocréations du réel qui s’harmonisent pour produire un consensus (Wigner 1961).
Parmi les physiciens d’aujourd’hui, ces idées sont souvent considérées comme non pertinentes, voire métaphysiques. Toutefois, des expériences de pensée « métaphysiques » de cette sorte ont parfois conduit à des découvertes majeures ; c’est le cas de l’intrication quantique.L’intrication (entanglement en anglais) est un lien qui s’établit entre des objets ou des systèmes quantiques – il peut s’agir de particules élémentaires, d’atomes ou de molécules, voire d’objets... Cliquez pour aller plus loin.
Dans les années 1970, une expérience très proche sur le fond de l’expérience fictive de Wigner a été conduite. L’expérimentateur, dans une étude pour mesurer la force de l’intention sur un GNAUn générateur de nombres aléatoires (GNA), en Anglais Random Number Generator, ou Random Event Generator (REG), est un composant électronique qui fournit des suites de bits (valant 1 ou 0) aléatoirement... Cliquez pour aller plus loin., a demandé à deux personnes de participer, et a voulu voir si l’ordre dans lequel ces personnes posaient leur attention sur le GNA changeait le résultat. Le résultat a été positif, suggérant que la statistique du signal du GNA était influencée par la première personne posant son intention dessus (Schmidt 1975).
D’autres expériences de cette sorte, avec des systèmes physiques régis par l’indétermination, ont montré que vouloir influencer un processus aléatoire ou observer ce processus aléatoire sont deux actes cognitifs intimement liés, au point que ces verbes « influencer » et « observer » pourraient devenir synonymes.
Les concepts avancés par Wigner, et avant lui Von Neumann, Jordan, pour questionner le problème de la mesure… ne disaient-ils pas précisément cela ?
Ces phénomènes sont-ils reproductibles ?
On lit parfois à propos de ces phénomènes qu’ils sont ne sont « pas reproductibles » : les chercheurs qui les étudient savent qu’il ne faut pas entendre par là qu’ils seraient douteux ou non fiables ; leur réalité est avérée, de manière indiscutable et depuis longtemps, et de plus il y a des moyens de s’en servir de façon fiable.
Mais dans certaines situations ils semblent « capricieux » ou « élusifs », comme si, animés d’un esprit malicieux, ils voulaient jouer des tours aux chercheurs, se faire discret, saboter les preuves de leur présence (Kennedy 2003, Radin 2019). Par exemple, les résultats de certaines études sont difficiles à dupliquer. Ou encore, quelqu’un qui réussit très bien au début d’un test intuitif obtiendra ensuite de moins bons scores – au point de se mettre à douter. Il y a plusieurs façons d’interpréter de telles fluctuations de performance, à l’échelle de l’individu ou d’une étude.
On sait que les performances intuitives humaines sont modulées par de nombreux facteurs : variables psychologiques, états de conscience, croyances profondes, motivations, attitudes (Schmeidler 1952, Cardena & Marcusson-Clavertz 2015, Storm & Thalbourne 2005) ; il y aussi l’effet de l’expérimentateur : selon le chercheur qui mène l’étude, les résultats peuvent être différents (Kennedy & Taddonio 1976, Schlitz et al. 2006, Palmer & Millar 2015, Rabeyron 2020). Cet effet est connu dans de nombreux domaines, mais dans le cas des études sur l’intuition, l’influence de l’expérimentateur, qui n’a rien à voir avec ses compétences ou le respect strict d’un protocole, peut transiter par toutes sortes d’influences subliminales, psychologiques, voire psychophysiques, qui font de toute expérience sur l’intuition un système complexe d’interactions entre l’expérimentateur et les participants – autant de données à prendre en compte pour expliquer les variations de performance d’une personne à l’autre, d’un moment à un autre, ou d’une étude à l’autre.
Il faut savoir que depuis une quinzaine d’années, la communauté scientifique est secouée par une grave crise de la reproductibilité en science, qui touche tous les domaines. Cette crise rend perplexes les scientifiques et consterne tous ceux qui pensaient que la science est un roc inaltérable fondé sur l’objectivité parfaite et la totale reproductibilité des résultats. Les faits qui contredisaient cette vision ont longtemps été glissés sous le tapis (en ne publiant pas les résultats négatifs ou non conformes aux attentes, par exemple). De tels constats toutefois ne surprennent pas les scientifiques qui étudient l’intuition et d’autres facultés de l’esprit humain ; leur méthodologie intègre ces possibilités pour s’en prémunir au mieux, car elles sont considérées comme possible et même attendues de leurs hypothèses.
Chat de Schrödinger
Erwin Schrödinger, un des artisans de la mécanique quantique, a proposé en 1935 une expérience fictive et purement théorique dans le but de montrer qu’il y avait selon lui, dans l’interprétation de la mécanique quantique proposée par Niels Bohr et ses collègues, une difficulté conceptuelle insoluble ; et que sans doute la théorie était inaboutie ou nécessitait des retouches. Le « paradoxe du chat », désormais entré dans la culture populaire et à l’origine de découvertes scientifiques importantes, abordait la question de la superposition et de la place de l’observateur dans la réalité observée.
Petit rappel : la physique quantique ne prétend pas expliquer la nature profonde des objets dont elle parle. Elle décrit leur évolution, leurs changements d’états, leurs interactions, et la manière dont ils se manifesteront à nous quand nous voudrons les observer, sous forme de prédictions probabilistes. La physique quantique convoque donc dans sa description du réel l’observateur (un concept absent de la physique qui précédait) parce qu’elle décrit de façons radicalement différentes les objets quantiques selon qu’on ne les observe pas ou qu’ils se manifestent à nous. D’ailleurs cette manifestation de l’objet quantique dépend du type de mesures que nous faisons sur lui : si nous mesurons un photon dans un contexte ondulatoire (par exemple dans un interféromètre) il manifestera ses propriétés d’onde ; si nous enregistrons son impact sur un écran, c’est son aspect de particule qu’il montrera. Ce que la physique quantique décrit n’est pas la réalité physique en soi, c’est le catalogue des questions-réponses autorisées entre cette réalité et un observateur qui l’interroge.
Mais qu’est-ce qu’un observateur ? Un capteur suffit-il à parler d’observateur ? Ou faut-il que quelqu’un prenne conscience de l’événement capté ? Cette question a pu sembler farfelue à certains scientifiques, mais elle a joué un rôle capital dans les débats sur les interprétations de la mécanique quantique aux premiers temps de celle-ci.
Dans « l’interprétation de Copenhague », qu’on doit à Niels Bohr, la démarcation entre objet observé et sujet observant semble mal définie et arbitraire. (Ce qui n’est jamais le cas avec la physique classique, qui décrit une réalité extérieure indépendante de tout observateur). John von Neumann a été l’un des premiers à voir la difficulté, et a appelé ça le « problème de la mesure ».
Dans l’expérience (imaginaire) de Schrödinger, un chat est enfermé dans une boite avec un dispositif composé d’une source radioactive, d’un compteur Geiger, et d’une fiole de poison volatil qui, en cas de détection, sera brisée – tuant le chat par la même occasion. La radioactivité est un processus quantique : la théorie ne dit rien sur ce que fera tel atome radioactif à tel instant, mais prédit un taux de désintégration statistique pour l’ensemble des atomes de la source radioactive. Par exemple, on saura de façon certaine qu’au bout d’une heure, il y a une chance sur deux qu’une particule alpha ait été détectée par le compteur Geiger.
Décrit en langage quantique, la source, au bout d’une heure, est dans une superposition d’états [désintégré] & [pas désintégré], et par voie de conséquence le chat devrait lui aussi, à cet instant, se trouver dans un état de superposition [mort] + [vivant]. Pourtant nous savons tous qu’un chat, qu’il soit dans une boite ou non, est toujours soit vivant soit mort, jamais dans un purgatoire d’indécision entre les deux.
Pour résumer, on peut dire que du temps de Schrödinger, la théorie quantique n’interdisait pas que l’état de superposition caractérisant un objet quantique puisse être amplifié, c’est-à-dire se prolonger jusqu’à quelque chose de macroscopique, quand il existe entre cet objet et le monde à nos échelles une chaîne de cause à effet. Un appareillage de mesure pouvait jouer un tel rôle.
Le formalisme quantique suggérait que la détection par le compteur Geiger seule ne constitue pas une observation, et que c’est seulement au moment un observateur ouvrirait la boite, que le sort du chat serait scellé. Toute mesure, toute observation, devait faire disparaitre la superposition des possibles au profit d’un choix irréversible. Cette transition, appelée « réduction du paquet d’onde », était brutale, et sans véritable explication. C’était un des aspects de la mécanique quantique pour lesquels on pouvait parler d’une acausalité (Jammer 1974).
La théorie quantique, pendant des décennies, est restée muette sur les facteurs pouvant provoquer la réduction du paquet d’onde au cours d’une mesure, si bien qu’aux yeux de certains, l’acte final de la chaîne de mesure, c’est-à-dire l’observation, semblait logiquement nécessaire.
Il est exact que mesurer un système quantique force le système à choisir un de ses états admissibles. Cela se produit chaque fois qu’un compteur Geiger produit un clic, qu’une particule laisse une trace dans un instrument du CERN, ou que nous utilisons nos yeux, nos oreilles, ou n’importe quel sens physique. Certains physiciens considèrent qu’une observation n’est que l’enregistrement d’un choix dans la matière : pas besoin d’observateur conscient pour cela, le système physique qui enregistre (compteur Geiger, photodiode, rétine, etc) suffit. Mais pour d’autres physiciens comme John Von Neumann, Pascual Jordan ou Eugene Wigner (qui a proposé une variante du paradoxe du chat ; voir le paradoxe de l’ami de WignerEn 1961, le physicien Eugene Wigner a proposé une variante du paradoxe du chat de Schrödinger. Dans son expérience de pensée, il y a un système quantique observable et, cette fois, deux observateurs... Cliquez pour aller plus loin.) la réalité matérielle du capteur ne suffit pas, car c’est la prise de conscience d’une observation qui constitue l’enregistrement ultime. Selon la théorie quantique, qu’il soit sur bande magnétique, sur disque dur ou affiché sur un écran, tant qu’un résultat de mesure n’a pas été acté par un être conscient, il devrait demeurer dans l’état de superposition.
Mais on sait aujourd’hui que des processus purement physiques, qui n’ont besoin d’aucune « observation », et encore moins de conscience, déclenchent la réduction du paquet d’onde. On appelle ça la décohérenceEn physique, les constituants du monde (atomes, photons, molécules, etc) possèdent des caractéristiques mesurables (position, énergie, moment cinétique…), et ces caractéristiques sont reliées par des lois... Cliquez pour aller plus loin.. C’est à cause de la décohérence qu’une balle de tennis ne passe pas par deux trous à la fois comme peut le faire photon ou un atome.
La décohérence « tue » l’état de superposition, et ramène l’objet quantique à un objet qu’on peut décrire avec les lois classiques. Toutes les bizarreries quantiques disparaissent prématurément et ne peuvent donc pas se propager aux échelles que nous percevons. Ni le chat, ni nous, ne pouvons en faire l’expérience. Elle a déjà disparu avant d’atteindre le compteur Geiger (Lindsay 1997, Haroche 2020).
Tout appareillage de mesure induit une décohérence. C’est la réponse au paradoxe de Schrödinger. La décohérence est un processus extrêmement efficace et rapide, et c’est la raison pour laquelle, du temps de Schrödinger, Bohr et Von Neumann, il n’avait pas été pris en compte pour répondre au paradoxe du chat.
Pour autant le débat sur le rôle de l’observateur dans la réalité physique n’est clos (Shimony 1965, D’Espagnat 1997, Radin 2025), et l’étude scientifique de l’intuition et des interactions psychophysiques a ramené la recherche, par des chemins inattendus, vers ces questions.
Corrélats neuraux et états de conscience
A partir des années 1960 l’étude de l’activité physiologique corrélée à la perception intuitive est devenue un axe majeur des recherches sur l’intuition (Tart 1963, Honorton 1969, Beloff 1974). On a enregistré l’activité physiologique de nombreux sujets participant à des expériences, impliqués dans une tâche intuitive, avec des protocoles allant du choix forcé à la méthode ganzfeld en passant par le remote viewing ; on a cherché les « corrélats » de leur performance. Autrement dit, était-il possible de détecter, dans des données physiologiques comme la résistance électrique de la peau ou un tracé EEG, l’indice que les facultés intuitives sont mobilisées de façon optimale ou que la reconnaissance intuitive d’une cible est effectivement à l’œuvre. Parfois, ce sont des sujets « surdoués », connus pour leur talent médiumnique (psychic claimants) ou sélectionnés sur la base d’aptitudes intuitives hors normes, qui se sont prêtés à ces expériences (Alexander et al. 2000, Persinger 2002).
L’utilisation croissante de l’EEG a coïncidé avec un engouement pour l’exploration des états de conscience, lesquels peuvent s’étudier grâce à leurs « corrélats neuraux », l’activité cérébrale associée à une certaine sorte d’état mental (Tart 1971). Ceci était intéressant pour étudier l’intuition, car on sait que la performance intuitive s’optimise dans certains états de conscience particuliers, spontanés ou induits par des techniques (hypnose, méditation, relaxation, psychotropes) (Cardena & Marcusson-Clavertz 2015). Certains chercheurs ont aussi étudié l’amélioration de la performance intuitive au moyen d’un neurofeedback – en entraînant le participant à induire de lui-même un état cérébral spécifique, par exemple une forte activité en ondes alpha (Honorton et al. 1971). Les ondes alpha caractérisent un état de relaxation, où le mental analytique se met en retrait.
Globalement, ces études qui se sont étalées sur un demi-siècle ont confirmé l’existence d’activités cérébrales corrélées à une intuition efficace (Acunzo et al. 2013, Radin & Pierce 2015, Roll et al. 2021). Les résultats sont d’une grande richesse. Certaines conclusions ont parfois été obtenues avec un sujet unique – un sujet surdoué se prêtant aux expériences – et il est par conséquent délicat de les généraliser à l’ensemble de la population. Mais un résultat en particulier sur lequel s’accordent de nombreux chercheurs, est que l’activité alpha d’une personne augmente quand elle obtient de bons scores pendant un test d’intuition. Et le plus intéressant est ceci : même si elle n’obtient pas un bon score, si elle se trompe très souvent dans ses réponses ou fait un score au niveau du hasard, son activité alpha semble indiquer, à son insu, que son cerveau a néanmoins reconnu la cible, perçu intuitivement la bonne réponse. Ce résultat concerne les ondes alpha mais aussi d’autres signaux qu’on peut observer dans l’activité cérébrale. C’est un résultat important pour les applications de l’intuition du corps à la prise de décision.
Décohérence, réduction du paquet d’onde
En physique, les constituants du monde (atomes, photons, molécules, etc) possèdent des caractéristiques mesurables (position, énergie, moment cinétique…), et ces caractéristiques sont reliées par des lois. Le sens commun nous dicte que ces caractéristiques existent à tout instant avec des valeurs précises et que le fait de les mesurer ou non ne doit rien changer les concernant.
Mais en physique quantique, il en va autrement. Ce qui est mesuré est une chose mesurée, donc toujours modifiée par l’acte de mesure, jamais la « chose en soi ». D’autre part ses caractéristiques (appelées des « observables » et décrites par un opérateur mathématique abstrait) n’ont pas de valeur définie ; elles adoptent un ensemble de valeurs, dans un état dit de superposition.
La physique quantique impose de sommer sur l’ensemble des possibles. Les objets qu’elle décrit font cohabiter des options antagonistes, leurs processus combinent plusieurs chemins qui, dans le monde ordinaire, devraient s’exclure. Les qubits (quantum bits) sont des systèmes stockant une unité d’information qui mixe du 1 et du 0.
Dans la vie ordinaire, nous n’observons jamais cette boulimie des possibles qui caractérise les objets quantiques : une toupie tourne dans un sens ou dans l’autre ; une boule de pétanque suit un trajet pour se rapprocher du cochonnet. Et notre logique, (pour le meilleur ou pour le pire) fonctionne de façon binaire : une chose est vraie ou fausse, pas les deux à la fois.
Heureusement sans doute pour notre cerveau et notre santé mentale. Il n’est pas certain que nous soyons naturellement conçus pour gérer des superpositions de perceptions sensorielles contradictoires, et vivre dans une réalité plurielle où se mêlent toutes les histoires antagonistes. Nous percevons une seule réalité (Omnès 2009).
Il y a des processus qui forcent l’état de superposition d’un objet quantique à disparaître. L’objet cesse alors de se comporter de façon quantique et peut être décrit en termes classiques. Cette transition est irréversible. C’est le cas de la décohérence (une influence de l’environnement qui tue l’indétermination), et de la mesure d’une observable (quel que soit le procédé de mesure). Il s’agit de la destruction – quasi immédiate dans la plupart des situations connues – des interférences qui caractérisent un état de superposition quantique, car l’objet quantique n’est jamais isolé du reste du monde et interagit avec son environnement.
Les scientifiques qui développent des qubits pour les ordinateurs quantiques, ou qui travaillent sur des atomes de Rydberg et autres objets quantiques macroscopiques, connaissent bien la décohérence. Ils cherchent à en retarder au maximum l’effet pour exploiter les systèmes quantiques dans l’état de superposition, car c’est là qu’ils ont des propriétés intéressantes.
Pourquoi l’approche quantique, qui s’applique aux photons et aux atomes, ne convient-elle pas aux gens, aux toupies et aux boules de pétanques, qui eux sont décrits par une approche classique ? La transition du régime quantique au régime physique dont nous faisons l’expérience, comporte des zones d’ombre.
L’une d’elles concerne les critères physiques qui font que certains objets ou systèmes pourraient, au moins en théorie, demeurer dans un état de superposition ou sont à jamais exclus de ce régime d’existence étrange. Il est faux de croire qu’il ne s’agit que d’une question d’échelle : rien dans la théorie quantique ne restreint son champ de compétence aux dimensions microscopiques (comme on le lit parfois). La description quantique s’applique à des systèmes macroscopiques (notamment les qubits, ou les supraconducteurs). Et d’année en année ce champ applicatif ne cesse de s’étendre. La théorie quantique, depuis une vingtaine d’années, s’applique à la biologie et même aux sciences humaines (Josephson & Pallikari-Viras 1991, Busemeyer et al. 2009, Khrennikov 2010). Des concepts purement quantiques comme l’intrication ou la superposition, peuvent avoir leur mot à dire dans d’autres domaines des sciences que la physique.
Une autre question, importante et qui a fait couler beaucoup d’encre, est le rôle que jouerait le processus d’observation dans la réduction du paquet d’onde (Wigner 1962, Shimony 1965). C’est le problème de de la mesure en physique quantique, illustré par le paradoxe du chat de SchrödingerErwin Schrödinger, un des artisans de la mécanique quantique, a proposé en 1935 une expérience fictive et purement théorique dans le but de montrer qu’il y avait selon lui, dans l’interprétation de la mécanique quantique... Cliquez pour aller plus loin. et celui de l’ami de WignerEn 1961, le physicien Eugene Wigner a proposé une variante du paradoxe du chat de Schrödinger. Dans son expérience de pensée, il y a un système quantique observable et, cette fois, deux observateurs... Cliquez pour aller plus loin..
Certaines interprétations dites « observationnelles » de la physique quantique parlent aux scientifiques qui étudient l’intuition et les influences psychophysiques (Walker 1979, Schmidt 1982, Millar 2015). Des expériences sur les effets de l’intention humaine sur des systèmes quantiques tels que des GNA (Schmidt 1970, Jahn et al. 2007), des sources radioactives (Chauvin & Genthon 1965) ou des interféromètres optiques (Radin et al. 2012, Radin & Delorme 2016), suggèrent que ces théories sont correctes : la perception intuitive peut d’ailleurs être considérée comme un acte intentionnel d’observation, même si les organes sensoriels ne sont pas mis à contribution. Une anecdote concernant la perturbation d’un magnétomètre à supraconducteurs à Stanford, par la seule intention de le percevoir intuitivement et de le décrire (Targ & Puthoff 1977) va dans ce sens ; de même que les expériences récentes de Dean Radin au Institute of Noetic Sciences en Californie, où les franges d’interférence sont modifiées par un acte mental de visualisation du dispositif et des photons (Radin 2025).
Des cerveaux connectés
Ces dernières années, plusieurs études en neurosciences ont été publiées sur des expériences de « télépathie » : l’activité cérébrale d’un individu est enregistrée au moyen d’un casque EEG, transporté ailleurs sous forme de signaux électroniques, et retranscrit sous forme de stimuli dans le cerveau d’une autre personne. Mais il existe des expériences de télépathie d’une autre sorte, et qui sont moins connues.
Une expérience sur les corrélats neurologiques de la télépathie fut publiée en 1965 dans la prestigieuse revue Science (Duhane & Behrendt 1965). Les sujets étaient onze paires de jumeaux, isolés l’un de l’autre et monitorés par EEG. Pour un des binômes le résultat fut frappant : chaque fois que l’un des jumeaux fermait les yeux – ce qui accroissait l’activité alpha (les ondes de fréquences entre 8 et 14 Hz) ce changement d’état cérébral se répercutait chez son jumeau.
Il y avait déjà eu des expériences similaires : un pionnier des recherches sur l’intuition et les états de conscience modifiés, Charles Tart, avait utilisé l’EEG avec 11 participants utilisés en mode « récepteur » pendant que lui, se plaçant dans le rôle de l’émetteur, recevait des chocs électriques aléatoires (Tart 1963).
Par la suite, différentes équipes ont cherché à valider ces résultats et à améliorer la qualité des expériences. Au Stanford Research Institute, en Californie, deux physiciens ont montré qu’en affectant l’activité alpha d’un sujet au moyen d’une lumière stroboscopique, cette modification de l’activité alpha se répercutait dans l’EEG d’une autre personne (Targ & Puthoff 1976). Au Mexique, dans les années 1990, une série d’expériences utilisant des flashs lumineux aléatoires et la mesure des potentiels évoqués visuels (PEV), a montré qu’il y avait « transfert de potentiel » au sein des binômes qui avaient préalablement médité ensemble pendant 20 minutes (Grinberg-Zylberbaum et al. 1994). Des résultats similaires ont été retrouvés par plusieurs études ultérieures (Wackermann et al. 2003, Standish et al. 2004, Radin 2004, Kittenis et al. 2004). Dans la dernière étude, réalisée avec 13 binômes, les cerveaux des sujets, cartographiés par EEG, révélaient une correspondance frappante entre les zones activées : quand le flash lumineux activait la région occipito-pariétale (associée à la vision) du sujet « émetteur », la même région s’activait dans le cerveau du sujet « récepteur ».
Récemment, une équipe hollandaise a étudié les corrélats neuraux de l’intuition entre deux personnes par la magnétoencéphalographie (MEG), technique de neuro-imagerie non invasive utilisant les champs magnétiques émanant des neurones. 50 volontaires (25 hommes, 25 femmes) se sont prêtés à des tests de « télépathie » pendant que leurs activités cérébrales étaient enregistrées. Les scores aux tests de télépathie ont été significativement au-dessus du hasard, et l’analyse des signaux MEG (306 canaux) a montré des signatures cérébrales spécifiques, comme une nette augmentation de l’activité gamma (30-100 Hz) dans les régions du cerveau impliquées dans la cognition sociale et la théorie de l’esprit, dont la jonction temporoparietale (TPJ) et le cortex médial préfrontal cortex (mPFC). L’étude a montré que ces activités cérébrales dans les deux cerveaux se synchronisaient au moment des tâches intuitives (« interactions télépathiques ») de manière statistiquement significative (p < 0.001, taille d’effet (Cohen) = 4.32) (Pelt 2025). L’étude de l’intuition par les neurosciences n’en est qu’à ses balbutiements.
Pour la petite histoire : En 1892, un jeune homme prénommé Hans, étudiant en mathématiques à l’université de Jena en Allemagne, s’enrôla pour un an dans la cavalerie. Au cours d’un exercice militaire, il fut projeté à terre, et assista, impuissant et terrorisé, à l’échange d’artillerie sifflant au-dessus de lui. Au même moment, à des kilomètres de là, sa sœur sentit que son frère était en danger, au point de supplier son père de lui envoyer un télégramme. Cette expérience de « télépathie » avec sa sœur marqua Hans au point de devenir son obsession ; il abandonna l’astronomie – son premier objectif – pour se consacrer à la physiologie et à la médecine. Persuadé que le cerveau émet une force, il se consacra à son étude, et découvrit, en 1924, une technique que tout le monde connaît et qui a révolutionné les neurosciences : l’électroencéphalographie.
L’EEG est né d’une intuition non locale entre frère et sœur.
Dualisme (philosophie)
Le dualisme est un des courants philosophiques concernant une question existentielle qui se perd dans la nuit des temps – l’origine de notre conscience et notre relation au monde extérieur (le cosmos, la matière, l’espace et le temps). En philosophie, on parle du « problème esprit-matière » (mind-matter) ou « problème corps-esprit » (mind-body problem).
Selon la position dualiste, l’esprit possède sa propre réalité, différente de la réalité de la matière. René Descartes, un des grands penseurs dualistes (il n’est pas le premier), distingue deux « substances » du réel : la « chose qui pense » (res cogitans) autrement dit l’esprit, qui perçoit, réfléchit, comprend, imagine, veut ; et la « chose étendue » (res extensia), la réalité physique dont nos sens (et notre intuition) nous donnent – jamais une certitude, selon Descartes – une certaine idée.
Les idées dualistes se transforment au cours des siècles. Chaque philosophe apporte sa pierre à la méditation sur le mystère d’une coexistence entre deux mondes aux ontologies radicalement distinctes. Une caractéristique de la réalité physique est qu’elle est objective, la même pour tout le monde ; son contenu est mesurable, quantifiable, on peut mettre ses objets et ses phénomènes en équations. Le monde de l’esprit, en revanche, subjectif, privé, ne se prête pas au même traitement. Comme le souligne le philosophe Michel Bitbol, il est plus facile pour l’esprit humain de connaître la réalité extérieure que de s’appréhender lui-même (Bitbol 2014).
Il est difficile de nier la réalité de la conscience : il n’est pas d’expérience, qu’elle soit exclusivement mentale, ou vécue dans la matière, qui ne se manifeste in fine dans l’esprit sous forme d’images, sons, ressentis, pensées, émotions, intentions…
De nos jours, le matérialisme est largement la tendance majoritaire, toutefois il y a quelques exceptions. Le neurobiologiste dualiste John Eccles était dualiste. Dès les années 1950 il a proposé une théorie « interactionniste » de la conscience – une intuition qu’il a affinée à partir des années 1980. Cette théorie fait appel à une influence psychophysique (un effet physique de la volition), où la conscience, immatérielle, « pilote » les échanges de signaux entre neurones au niveau des synapses (Beck & Eccles 1998). Cette idée s’avère très proche de ce que d’autres chercheurs, en étudiant les interactions de l’esprit sur la matière au moyen de GNA, ont découvert depuis les années 1960 (Jahn & Dunne 2011, Radin 2025). Le chercheur américain Charles Honorton, pionnier des recherches sur l’intuition, a envisagé de valider expérimentalement la théorie de John Eccles (Honorton & Tremmel 1977) (voir Le cerveau est-il un émetteur ou un récepteur de conscience ?Le cerveau nous est traditionnellement présenté comme un organe à produire les éléments de la vie psychique – autrement dit, de la matière qui pense... Cliquez pour aller plus loin.)
Empathie, télépathie et intentions
Parfois nous ressentons envers des gens des sentiments forts, positifs ou négatifs, sans pouvoir les expliquer. Toutes sortes de communications subliminales peuvent expliquer ce type de ressentis ; l’intuition entre personnes fait partie de ces explications possibles. Elle se voit dans l’activité physiologique de deux personnes qui se connaissent bien, s’apprécient, ou sont fortement liées au plan affectif. Dans la littérature, ce phénomène a été décrit comme étant une « induction extrasensorielle » ou des « coïncidences d’activité automatique ». Parfois, plus simplement, par le terme de « télépathie ».
Mais il faut noter que le lien physiologique qui est observé dans les expériences de télépathie a été vu dans plusieurs contextes qui peuvent au premier abord sembler sans rapport. Par exemple, pendant la pratique du qi-gong, les ondes cérébrales d’un maître qi-gong et de la personne recevant le qi sont fortement corrélées (Kawano 1998). Ou encore, lorsqu’un « guérisseur » fait un soin à d’autres personnes, son activité neurophysiologique et celle des sujets soignés montre une corrélation statistiquement anormale (Shealy et al. 2000).
Les expériences où la télépathie est démontrée par ses corrélats physiologiques diffèrent assez peu, on le voit, des expériences où sont mesurés des effets physiologiques causés par les intentions de quelqu’un d’autre. Par exemple, quelqu’un vous observe intensément à votre insu, et votre physiologie y répond. Les expériences montrent cela : elles fournissent la base psychophysiologique à un phénomène que, selon des sondages, la majorité des gens connaisse – la sensation que l’on est observé par quelqu’un. Le psychologue américain Edward Titchener l’avait baptisé schopaesthésie ; on l’a rebaptisé plus simplement « sentiment d’être observé » (feeling of being stared at). Si quelque chose dans notre corps, peut-être notre système nerveux, sait que nous sommes observés, il s’agit d’une forme de télépathie. Mais ici le lien psychophysique avec l’autre personne nous est imposé par son acte d’observation.
Le sentiment d’être observé appartient aux phénomènes de la catégorie Distant Mental Influence on Life Systems (DMILS), elle-même cas particulier des effets physiques de nos intentions quand les systèmes influencés sont des systèmes biologiques (on parle aussi de bioPK). Ces études suggèrent que le fait de voir n’est pas passif – c’est un acte posé ce que l’on regarde.
Ce constat de bon sens, la physique quantique l’a remis au goût du jour avec le problème de la mesure. Mais il existe, sous une autre forme, dans de nombreuses cultures qui se méfient du pouvoir des yeux et des images ; ces traditions attribuent un effet réel au fait d’être regardé ou photographié ; et le cas échéant, quand les intentions qui accompagnent ce regard sont négatives, on redoute les effets du « mauvais œil » (evil eye). Superstitions ? Peut-être, à moins qu’il s’agisse la traduction plus ou moins explicite d’un savoir ancien : nos pensées, nos émotions, nos intentions, nos projections mentales, ont un effet sur le corps – mais pas seulement le nôtre, celui des personnes sur lesquelles nous portons notre attention, auxquelles nous pensons, dont nous nous sentons « proches », et envers qui nous avons – toujours – des intentions, bienveillantes ou malveillantes, consciemment ou non.
Entre l’étude de l’intuition entre personnes et l’étude des intentions entre personnes, la frontière est bien floue [cf Effets physiques de l’intuition et de l’intention]
Expérience à choix forcé
Les expériences de « choix forcé » sont des protocoles inspirés des jeux de hasard, qui permettent de tester et quantifier l’intuition d’une personne par l’analyse statistique de ses taux de succès. Le principe consiste à lui montrer un petit choix d’options parmi lesquelles il doit désigner la réponse correcte – appelée la « cible ». A chaque essai, la probabilité de tomber sur la cible au hasard est connue (par ex, une chance sur 6 pour un dé, une chance sur 5 pour une carte Zener). Quand le test comporte de nombreux essais, le ratio de bonnes et de mauvaises réponses doit tendre théoriquement vers cette probabilité (l’espérance mathématique du test). Si le taux de succès d’une personne s’en éloigne, on peut évaluer (avec une valeur p, ou via une approche bayésienne) si cet écart est très improbable – auquel cas le test révèle une « anomalie » – ou s’il ne l’est pas. (Storm & Tressoldi 2023).
Dans un test à choix forcé, les gens peuvent être testés individuellement ou en groupe ; en laboratoire ou chez eux ; avec un retour sur leur performance, donné à chaque essai ou seulement à la fin du test, ou pas du tout. La nature de la cible peut être virtuellement n’importe quoi pourvu qu’on connaisse sa distribution statistique. Pour des raisons historiques les premières cibles ont été des objets de jeux de hasard : cartes à jouer, dés. Mais il peut s’agir de cartes spéciales (West & Fisk 1953, Rhine & Pratt 1954, Nash 1985). Mais il peut s’agir d’images choisies aléatoirement par un ordinateur (Radin 1988, Radin 2019, Bem 2011), d’un petit choix de mélodies (Keil 1965), de SMS envoyés sur un téléphone portable (Sheldrake et al. 2015). La méthode est très générale, et un sens, l’expérience de Chauvin avec des souris est une expérience de choix forcé permettant de mesurer leur intuition de stimuli futurs (Duval & Montredon 1968).
Avec le choix forcé, on peut étudier différentes modalités de l’intuition par simple changement du timing de sélection de l’option-cible par rapport au moment où le sujet doit s’efforcer de la deviner : si cette sélection est faite avant, on teste une intuition temps réel ; si elle est faite après, on teste une intuition du futur. Ces deux facultés ont-elles la même efficacité (Tart 1983, Honorton 1987, Steinkamp et al. 1998, Storm & Tressoldi 2023) ? Sont-elles deux manifestations de la même intuition ou deux processus cognitifs différents ? Aujourd’hui la question n’est pas tranchée (Mossbridge 2023).
Le protocole du choix forcé est aussi très adapté pour étudier des réactions physiologiques ou enregistrer l’activité cérébrale d’une personne pendant qu’elle accomplit une série de tâches intuitives (Honorton 1969, Stanford & Lovin 1970, Morris et al. 1972, McDonough et al. 2000).
Expérience du pressentiment
Historiquement, la première équipe à avoir testé l’hypothèse du pressentiment est celle de Levin et Kennedy (1975). Ils ont utilisé comme constante physiologique le CNV (contingent negative variation), variation négative lente de potentiel dans le cerveau, associée à une attente sensorimotrice (sensorimotor expectancy).
Mais l’idée avait germé des années plus tôt quand les mesures physiologiques se sont généralisées en science. Par exemple, A.J. Good, en 1961, suggère qu’en plaçant un sujet muni d’électrodes EEG dans une chambre noire avec des flashes lumineux aléatoires, on pourrait découvrir si « les EEG ont tendance à anticiper les flashes lumineux ». En 1978, Hartwell a cherché à voir si l’EEG anticipe, non pas des flashs de lumière, mais le genre (masculin ou féminin) d’un visage qui est montré sur un écran.
Au milieu des années 90, Dean Radin, à l’Institut des sciences noétiques à Petaluma en Californie, reprend ces études avec les moyens expérimentaux modernes. Il fait l’hypothèse que les stimuli émotionnels montreront mieux un éventuel effet de pressentiment. Il utilise deux catégories d’image (violente/érotique versus calme/neutre). Il observe un écart de réponse entre images neutres et impactantes dans les 2 à 4 secondes qui précèdent l’apparition de l’image (Radin 1997). L’expérience est refaite et améliorée avec Dick Bierman, de l’Université d’Amsterdam, et un important article paraît dans le journal Perception & Motor Skills (Bierman & Radin 1997). Les protocoles de ces expériences ont été affinés d’étude en étude (McCraty, Atkinson & Bradley 2004, Mossbridge 2012) et ont bénéficié des technologies modernes, tant pour la mesure physiologique que pour le traitement des données.
Précisons que le pressentiment est un processus indéterministe ; ce sont des expériences où les résultats s’obtiennent par un traitement statistique. Toutefois, plusieurs travaux suggèrent que le pressentiment physiologique pourrait être exploité pour avertir d’un événement imminent et assister la prise de décision (Duma et al. 2017).
Ganzfeld
Les études ganzfeld (« champ total » en allemand) ont été très utilisées dans les années 60 et 70 quand les psychologues ont étudié l’effet des états modifiés de conscience sur nos perceptions et nos fonctions cognitives. Son protocole a été inventé dans les années 1930 par Wolfgang Metzger, psychologue allemand promoteur de la « théorie de la forme » (Gestalt). Lors d’une expérience ganzfeld, on installe le sujet dans un fauteuil confortable, dans un environnement calme avec un minimum de stimuli sensoriels (une lumière chaude diffusant à travers des demi-balles de ping-pong, un bruit rose diffusé dans des écouteurs), puis après un temps de relaxation on lui demande de décrire à voix haute ce qu’il ou elle perçoit dans son esprit pendant qu’une autre personne, ailleurs dans le laboratoire, fixe du regard une image (la cible). A l’issue du test, on présente au sujet quatre images, dont la cible, et on lui demande de désigner laquelle il croit avoir perçue. Avec un nombre important d’essais on peut comparer le taux de succès à ce que le hasard seul devrait produire. Plusieurs méta-analyses des études ganzfeld réalisées sur la période 1974-2008 ont montré qu’au lieu des 25 % attendus du hasard, le taux de succès moyen avoisine 32% (Bem & Honorton 1994 ; Storm, Tressoldi & Di Risio 2010).
Généralisation des concepts quantiques
Les perspectives qu’offre la théorie quantique pour comprendre scientifiquement l’intuition ont été vues très tôt. D’autres domaines, tels la biologie et la psychologie, ont aussi bénéficié des concepts quantiques, mais plus tardivement. Dans le cas de l’intuition, le caractère non local des faits étudiés présente un « parfum » quantique certain : difficile de nier que l’intuition entre personnes, qui se manifeste dans une synchronisation à distance de leurs physiologies et dans une interaction de cerveau à cerveau (Brain to brain interaction), fait immédiatement penser au lien non local entre deux systèmes quantiques intriqués. D’ailleurs, si Einstein était si réticent, dans les années 1930, à admettre la non-localité de l’intrication (entanglement) et ses conséquences (le « paradoxe » Einstein-Podolky-Rosen), c’est précisément parce que cela lui évoquait trop la fameuse et sulfureuse « télépathie » (Jammer 1974, Gisin 2009) [cf Aspects neurophysiologiques de l’intuition]
A-t-on le droit de généraliser la théorie quantique à d’autres sujets que la physique ? La réponse est : « Pourquoi serait-ce interdit ? » De fait, aujourd’hui, un nombre croissant de chercheurs et de chercheuses de divers domaines, y compris en psychologie, économie, finance, et autres sciences humaines, font appel aux concepts et au formalisme mathématique inaugurés par la physique quantique (Lambert-Mogiliansky et al. 2009, Khrennikov 2010, Melkikh 2019). Le territoire quantique s’est donc considérablement étendu, et la légitimité d’y inclure les recherches sur l’intuition s’explicite dans une « théorie quantique généralisée » (Generalized Quantum Theory) adaptée à bien d’autres sujets que les particules et les champs de la matière (Filk & Römer 201, Von Lucadou, Romer & Walach 2007).
Le concept quantique d’intrication, par exemple, n’a aucune raison d’être cantonnée la physique ; l’intrication est un phénomène auquel il faudrait s’attendre chaque fois qu’un système est composite, constitué de sous-systèmes, et que la description du système complet et les descriptions des éléments qui le constituent sont complémentaires. Alors, ces éléments sont corrélés de façon non locale ; autrement dit, les variables qui les décrivent sont reliées à jamais et indépendamment des distances – rien d’autre que la définition de l’intrication au sens quantique.
En physique, cette complémentarité des descriptions au niveau global et au niveau des sous-éléments découle de l’indétermination, de l’existence du hasard quantique. Elle est flagrante quand on considère la dualité onde-particule de la matière, ou quand on s’intéresse aux propriétés d’un système physique que décrivent des variables dites « conjuguées » (des variables non indépendantes). Il est donc possible, et même plausible, que des systèmes autres que physiques connaissent des enchevêtrements similaires des variables qui les décrivent, si, à l’instar des systèmes quantiques de la physique, elles contiennent une part incompressible d’indétermination.
Or nous savons que, dans le cas de l’intuition sous toutes ses formes, et de façon générale pour l’ensemble des facultés psychophysiques, le hasard joue un rôle important si bien que ce critère est rempli [cf Nature de l’intuition].
GNA
Un générateur de nombres aléatoires (GNA), en Anglais Random Number Generator, ou Random Event Generator (REG), est un composant électronique qui fournit des suites de bits (valant 1 ou 0) aléatoirement, à une cadence particulière. Ces bits sont obtenus à partir d’un processus physique ayant des fluctuations – du « bruit ». Il est le plus souvent d’origine quantique (QRNG). Les premiers GNA ont exploité le comptage des désintégrations de sources radioactives. Aujourd’hui il s’agit le plus souvent de diodes dont le bruit d’électrons (thermal noise, shot noise) est converti en bits. Le physicien américain Helmut Schmidt, chercheur chez Boeing avant de rejoindre le laboratoire de Joseph Rhine à l’université Duke, puis de rejoindre la Mind Science Foundation à San Antonio au Texas, a joué un rôle majeur dans la mise au point de ces composants à la fin des années 1960 ; il a été l’un des premiers à s’en servir pour étudier les interactions psychophysiques – les effets physique de l’intention, aussi appelée psychokinèse ou PK (Schmidt 1970). Dans ce domaine de recherche, les GNA ont été très utilisés pour de nombreuses expériences (Jahn & Dunne 2011) ; on les préfère aux algorithmes pseudo-aléatoires, car leur nature quantique garantit un hasard pur – le « vrai hasard » (Gisin 2012).
Hasard et facultés de la conscience
Dans le domaine qui nous intéresse, le hasard joue un rôle-clé. D’abord sur le plan opératoire puisque les effets étudiés ont une dimension aléatoire (ils ne se produisent jamais deux fois à l’identique), tout comme des photons dans une expérience d’interférométrie optique ne finiront jamais leur course deux fois au même endroit. Ce sont des phénomènes acausaux – sans cause permettant de savoir à l’avance ce qu’ils feront. Pour pouvoir les quantifier, voire pour les débusquer, il faut utiliser des méthodes statistiques.
Mais une part d’indéterminisme incompressible semble faire partie de leur nature. Autrement dit, le hasard – le vrai hasard, comme celui auquel sont habitués les physiciens quantiques – semble jouer un rôle fondamental dans ces phénomènes (Koetler 1972).
De nombreux philosophes se sont de tous temps passionné pour la notion de hasard, sa réalité paraissant essentielle pour permettre au libre arbitre d’exister. Sans hasard, l’être humain ne pourrait être autre chose qu’un automate, dans un univers entièrement prédéterminé. L’être humain ne pourrait rien exprimer de sa nature véritable et de son potentiel créatif. Sans hasard, aucune des facultés humaines qui jouent avec ses lois n’existerait : il n’y aurait ni hésitation, ni choix, ni liberté. Il n’y aurait pas non plus cette intuition qui permet de deviner quelque chose mieux qu’au hasard – car c’est bien ainsi qu’on mesure l’intuition dans certaines expériences. Il n’y aurait pas la possibilité pour la volonté d’agir sur le cours des choses, de donner aux faits régis par le hasard (les faits aléatoires) de la structure (néguentropie des physiciens), une direction, un sens. Les notions d’objectif (goal) et de sens (meaning) sont importantes dans ces phénomènes, ils en sont peut-être même la clé (von Lucadou & Kornwachs 1985, Stanford 1978, Millar 2015, Rabeyron 2023). Et sans hasard, et sans la flèche du temps qu’elle induit (Symétrie du temps et hasard), rien de tout cela ne serait possible, c’est-à-dire n’aurait… de sens.
Sans hasard il n’y aurait pas non plus de « hasard qui fait bien les choses », les coïncidences signifiantes de Schopenhauer, rebaptisées par Carl Jung synchronicités (Jung 1952, Koestler 1972, Vaughan 1979, Soulières 2012). Les synchronicités jouent sans doute un rôle plus important qu’on ne le croit. Or leur existence est très liée à l’intuition. Il arrive qu’on ne puisse pas démêler les deux phénomènes. Une série de tests intuitifs peut être vue comme une expérience pour provoquer sur commande des synchronicités.
La question de l’ontologie du hasard est fondamentale, et touche tous les domaines des sciences, de notre vision du monde, du vivant, de l’individu, de la société. Notre libre arbitre est forcément illusoire dans un monde déterministe – ce dont sont convaincus un grand nombre de scientifiques actuels (Rovelli 2012, Dehaene et al. 2017, Crick & Koch 2023) ; mais il devient nécessaire dans un monde où le hasard est le substrat de tout (Schrödinger 1951, Gisin 2012, Smolin 2015, Stapp 2017).
On comprend pourquoi, au lendemain de la révolution quantique, des physiciens ont compris l’intérêt à étudier les facultés intuitives et psychophysiques que la science classique ne permettait pas d’appréhender. Dans leurs nouvelles théories de la matière, la conscience n’est pas exclue, et le hasard du quantique joue un rôle-clé (Schmidt 1971, Targ & Puthoff 1977, Walker 1979, Costa de Beauregard 1987, Stapp 2009, Jahn & Dunne 2011). Dans un mouvement symétrique, les psychologues qui étudiaient ces phénomènes ont eux aussi été séduits par les notions quantiques issus de la physique (Tressoldi 2015, Khrennikov 2009, Kaufman & Radin 2023). Ces deux familles de scientifiques, les uns étudiant la matière, les autres l’esprit, se sont rejoints dans une problématique commune.
Enfin, si les générateurs aléatoires quantiques (GNA), à peine inventés par les physiciens, ont permis dès les années 1960 de révéler la réalité des influences psychophysiques (les effets physiques collatéraux ou intentionnels de l’esprit), ce n’est pas… un hasard.
Intrication quantique
L’intrication (entanglement en anglais) est un lien qui s’établit entre des objets ou des systèmes quantiques – il peut s’agir de particules élémentaires, d’atomes ou de molécules, voire d’objets beaucoup plus gros pourvu qu’ils soient dans un état dit de superposition. Les objets ayant cette caractéristique partagent une histoire commune ou un état initial appelé « état de préparation » qui les oblige à rester en lien quoi qu’il arrive et quelles que soient les distances entre eux. Une relation de complémentarité pour une paire d’objets quantiques – comme le fait de devoir respecter une symétrie l’un par rapport à l’autre – ne peut pas être rompue tant que ces objets restent dans l’état de superposition. C’est, dans la matière, comme la mémoire d’une promesse qu’on s’est faite ou d’un contrat qu’on a signé.
Ce lien non local, affranchi des distances, perdure tant que rien ne force l’un ou l’autre des objets à rompre son contrat (tout processus induisant la décohérence). Souvent les objets intriqués vont par paires mais ce n’est pas toujours le cas. Certaines expériences impliquent de nombreux photons ou atomes intriqués.
A l’origine, l’intrication n’était qu’une expérience fictive imaginée par Einstein et deux collègues (Podolsky et Rosen) pour montrer à la communauté scientifique toute l’absurdité de la jeune mécanique quantique. Le « paradoxe EPR » aboutissait en effet à des conclusions intenables, à des contradictions.
Dans l’expérience imaginée par Einstein et ses collaborateurs, deux particules issues de la même source filaient dans deux directions opposées ; à un instant précis on captait l’une pour mesurer sa position, puis immédiatement après, on mesurait pour la seconde particule sa vitesse. Alors, en principe, l’expérimentateur pouvait déduire de ces deux mesures la position et la vitesse d’une des particules. Mais cela, en vertu du principe d’incertitude d’Heisenberg, était strictement interdit : on ne peut pas connaître, avec une précision arbitrairement grande, la position et la vitesse d’une même particule.
La seule façon de s’en sortir était d’admettre l’existence d’un lien entre les deux particules, forçant leurs réponses à se coordonner instantanément en cas de mesure. Une sorte de télépathie scandaleuse aux yeux d’Einstein, qui avait montré dans sa théorie de la relativité qu’aucun signal ne peut voyager plus vite que la lumière.
Dans les décennies qui ont suivi, un petit nombre de physiciens théoriciens (David Bohm, John Bell, Bernard D’Espagnat, Costa de Beauregard), percevant l’importance du problème, ont continué à réfléchir au paradoxe EPR et aux moyens de réaliser cette expérience en vrai pour savoir si Einstein avait raison ou non de redouter l’existence de corrélations non locales dans la matière.
Les premières expériences de cette sorte ont été faites en 1972 en Californie, par l’équipe de John Clauser à l’université de Berkeley ; puis dix ans plus tard à Paris, par l’équipe d’Alain Aspect à l’Institut d’Optique – obtenant des résultats beaucoup plus nets. Clauser et Aspect ont reçu le prix Nobel de physique, partagé avec l’Autrichien Anton Zeilinger… mais seulement en 2022 !
On admet aujourd’hui que l’expérience EPR ne contenait en réalité aucun paradoxe, car Einstein appliquait son raisonnement à des éléments de réalité qui, avant mesure, sont virtuels, en les considérant comme s’il s’agissait de faits dans une vision « réaliste » du monde. (Le réalisme, au sens philosophique, consiste à croire en une réalité qui existe indépendamment des observateurs). C’est l’erreur commise par toutes les théories à variables cachées ayant tenté de restaurer une vision « réaliste » derrière les équations de la physique quantique. Toutes les expériences d’intrication ont réussi le « test de Bell », ce qui signifie que la physique quantique peut être considérée comme complète (elle ne comporte pas de lacune, il n’existe pas de variable cachée, d’onde pilote, etc) et la réalité physique, au niveau quantique, est non-locale.
Depuis les années 1990, l’intrication est devenue une technique bien maîtrisée. On sait intriquer des photons qui restent dans cet état d’intrication même éloignés de milliers de kilomètres. Cette technique intéresse les experts en cryptographie car elle permettrait de transmettre des clés de façon inviolable. Dans le domaine des ordinateurs quantiques, l’intrication entre qubits (des objets quantiques dans une superposition à deux états, utilisés pour le calcul quantique) permet à plusieurs qubits intriqués de fonctionner comme s’il s’agissait d’un unique qubit beaucoup plus puissant.
L’intrication est une des plus remarquables propriétés du monde quantique. On commence à entrevoir son importance, de manière spéculative, ailleurs qu’en physique : en biologie, en neurosciences, et même, peut-être, dans l’étude de la perception intuitive et des influences psychophysiques (Tressoldi et al. 2015).
Intuition et latéralisation du cerveau
Depuis la fin du 19ème siècle, l’intuition a été soupçonnée d’être principalement du ressort de l’hémisphère droit. Cette hypothèse découlait d’observations : l’intuition, notamment télépathique, est souvent très visuelle ; les écrits de personnes pratiquant l’écriture automatique en état de transe avaient les mêmes caractéristiques que ceux de personnes dont l’hémisphère gauche est gravement endommagé ; la médium Eusapia Paladino devenait gauchère durant les séances de canalisation. Frederick Myers, directeur de la Society for Psychical Research à Londres, pensait que l’hémisphère droit permet l’expression de pensées inconscientes dans lesquelles ont pu infuser des informations de nature intuitive (Myers 1885) ; l’hémisphère gauche quant à lui, devait jouer un rôle d’inhibiteur pour l’intuition.
Dans les années 1950, Jan Ehrenwald, chercheur américain d’origine tchèque convaincu que la télépathie joue un rôle majeur en psychanalyse, a lui aussi été frappé par la similitude entre les dessins produits en état de transe et ceux réalisés par des personnes souffrant de lésions de l’hémisphère gauche (Ehrenwald 1984). L’hypothèse de l’importance de l’hémisphère droit pour l’intuition s’est renforcée par plusieurs découvertes. D’une part les travaux du neurologue américain et prix Nobel R. Sperry. Sperry, qui, en étudiant les « cerveaux scindés » (split-brains) pour traiter les cas d’épilepsie, a démontré la spécialisation et l’indépendance des deux hémisphères, ne communiquant que par le corps calleux (Sperry 1961). D’autre part, on fit le constat que les intuitions télépathiques se produisent surtout pendant les rêves (Ullman et al. 1973), en sachant par ailleurs que l’activité onirique est le fait de l’hémisphère droit (Humphrey & Zangwill 1951).
Ces études se sont poursuivies avec des méthodes variées. Pour « localiser » l’intuition dans le cerveau, on a fait passer des tests d’intuition à des gens dont les hémisphères cérébraux étaient, tour à tour, accaparés par une tâche cognitive ou la perception d’un stimulus (Braud & Braud 1975). L’hypothèse que l’activité de l’hémisphère gauche interférait négativement avec la performance intuitive a été confirmée (de façon marginale). L’Américain Richard Broughton a poursuivi ce type d’études en concevant des protocoles astucieux, par exemple en demandant aux sujets, pendant un test, de reconnaître tactilement un objet, tantôt de la main gauche, tantôt de la main droite (Broughton 1976).
Aujourd’hui, les expériences utilisant l’EEG et d’autres techniques d’imagerie cérébrale ont confirmé le rôle important de l’hémisphère droit dans l’intuition ; toutefois la réalité de la neurobiologie de l’intuition apparaît beaucoup plus riche, et disons moins… tranchée. Nous savons que l’usage optimisé de l’intuition mobilise souvent le cerveau dans sa globalité. [cf Aspects neurophysiologiques de l’intuition]
L’intuition, faculté universelle du vivant ?
Les animaux ont-ils une intuition similaire à celle de l’Homme, ou d’autres formes d’intuition qui nous sont étrangères ? A minima, toute espèce a-t-elle une intuition du corps ? Ce sont des questions importantes et plusieurs résultats d’expériences vont dans ce sens.
Dans les années 1950, le chercheur Karlis Osis a fait des expériences pour mesurer l’intuition des chats et des chiens (Osis & Foster 1953). En 1968, le biologiste français Rémy Chauvin a testé l’intuition du futur des souris en analysant statistiquement leur comportement (Duval & Montredon 1968). Ce type d’expérience a été reproduit par d’autres équipes, avec diverses sortes de rongeurs, des poissons, des oiseaux, et même des invertébrés. Mais ces expériences sont peu nombreuses. On peut voir là un effet d’un biais dans nos croyances, et d’une recherche psychologique presque exclusivement centrée sur l’être humain. Mais aussi, il faut dire qu’étudier expérimentalement les facultés intuitives des animaux présente une difficulté majeure, car même avec l’automatisation des tests il est difficile d’exclure totalement la présence d’un effet de l’expérimentateur.
Il serait intéressant, en particulier, de rechercher des manifestations de l’intuition chez des espèces très éloignées de l’Homme – voire dépourvues de cerveau digne de ce nom et même de système nerveux central. Du pressentiment a été observé avec des vers planaires soumis à des sons perturbants, en filmant leurs mouvements (Alvarez 2016). Du pressentiment a peut-être été observé chez des plantes, en plaçant sur leurs feuilles les électrodes d’un polygraphe (Backster 2003) ; ce sont des résultats controversés, mais ils ont le mérite de la vraie curiosité scientifique et du courage de l’exploration ; trop peu d’efforts ont été faits pour tenter de les dupliquer.
L’hypothèse d’une intuition animale répandue pourrait expliquer des comportements individuels ou collectifs encore mal compris (Rhine & Feathers 1962, von Frisch 1975, Potts 1984, Edney 1993, Sheldrake 1998, Sheldrake & Morgana 2003). Le biologiste anglais Rupert Sheldrake a recensé de nombreux témoignages et expériences qui plaident en faveur d’une intuition répandue dans le monde animal ; cette intuition se manifeste sous de nombreuses formes : intuition temps réel, intuition du corps, intuition du futur, intuition entre individus ; elle semble permettre aux animaux de percevoir des faits qu’ils devraient ignorer, d’être avertis d’un danger, de retrouver leur chemin comme s’ils disposaient d’une mystérieuse boussole, de communiquer entre eux à distance, ou d’établir un lien d’intuition avec l’Homme – surtout quand il s’agit d’animaux de compagnie (Sheldrake 1999).
Il faut relier la question de l’intuition non humaine à la question plus générale de la place de l’Homme dans le vivant, et dans le royaume de l’intelligence. L’intuition fait partie de l’intelligence, ou encore de ce que, chez l’être humain, on appelle la psyché (on pourrait aussi parler de « conscience » à condition de s’entendre sur le contenu du mot). Or depuis une quinzaine d’années, des biologistes de plus en plus nombreux pensent – ou ont l’intuition ? – que la psyché n’est pas l’apanage de l’humain, et que des formes exotiques de l’intelligence pourraient exister chez la plupart des êtres vivants (Gagliano 201, Mancuso & Viola 2015). Rechercher les manifestations de perceptions intuitives chez d’autres êtres vivants que l’Homme, y compris des espèces très éloignées de nous, participe de cette tendance qui annonce peut-être un changement de paradigme. Une telle démarche implique plus d’humilité, et l’abandon, au moins à titre d’hypothèse de travail, de certains aprioris répandus et tenaces. Mais les enjeux sont immenses : c’est peut-être notre compréhension de la nature-même de la conscience et de la vie qui en sortiraient modifiée. [voir Intuition et le vivant].
Le cerveau : émetteur ou récepteur de conscience ?
Le cerveau nous est traditionnellement présenté comme un organe à produire les éléments de la vie psychique – autrement dit, de la matière qui pense. On l’a aussi considéré comme une sorte d’ordinateur biologique, voire un ordinateur quantique biologique, pour appréhender la manière dont cet organe formidablement complexe traite l’information ; l’hypothèse implicite, ici, est qu’un ordinateur suffisamment avancé parviendrait à devenir conscient de lui-même (Tegmark 2015).
Mais en réalité le rôle exact du cerveau, son rapport à la conscience, est un mystère (cf problème esprit-matière). L’émergence de la réalité psychique à partir de réalité matérielle du cerveau, l’esprit comme épiphénomène (conséquence collatérale) de la matière, est une hypothèse parmi d’autres ; on tend à l’oublier.
Des chercheurs proposent une autre interprétation : le cerveau serait un récepteur ou un filtre – un organe reliant la dimension matérielle et physiologique d’une personne à sa dimension immatérielle, mentale et spirituelle. Certains modèles théoriques de la conscience sont de ce type. C’est le cas de plusieurs modèles dits « dualistes-interactionnistes », qui supposent que conscience et matière sont des réalités ontologiquement différentes, en interaction. Le neurologue et prix Nobel John Eccles, qui a proposé un modèle original d’interaction de la conscience avec le cerveau par le biais des processus quantiques dans les neurones, est dualiste (Beck & Eccles 1998).
A ce jour, aucune des deux catégories d’hypothèses ne peut être préférée – ni éliminée – sur la seule base des faits qu’étudient l’immense majorité des neurobiologistes. Que le cerveau soit la source de l’esprit ou qu’il soit son instrument, il est normal de trouver que l’activité du cerveau et l’activité mentale sont corrélées, d’identifier des événements neuronaux qui coïncident avec les événements mentaux vécus subjectivement.
En revanche les deux familles d’hypothèses peuvent être évaluées à l’aune d’autres faits que la science peut analyser. En particulier, la seconde (dualiste-interactionniste) autorise des phénomènes où l’aspect non-local de la conscience devient absolument nécessaire, et qui ne pourraient jamais se produire si la conscience n’était que le fruit épiphénoménal d’une activité de la matière. Des expériences sur les aspects neurophysiologiques de l’intuition, et sur les influences psychophysiques (interactions entre esprit et matière), nous semblent de parfaites opportunités de mettre ces théories de la conscience à l’épreuve des faits.
D’ailleurs, peut-être des expériences déjà réalisées nous fournissent-elles les premiers indices. Dans une étude très récente, des chercheurs ont utilisé la Stimulation Magnétique Transcrânienne répétitive (rTMS) pour occasionner des lésions réversibles dans les régions frontales du cortex. L’étude suggère que ces zones du cerveau servent de filtre qui régulent les facultés non locales de l’esprit humain. En effet, l’inhibition par rTMS du lobe frontal médian gauche conduit à de meilleures performances « psi » (Freedman et al. 2024).
Le concept de hasard en physique
Le hasard est défini dans le Robert comme « une cause fictive attribuée à des événements inexplicables ». Son concept est indissociable de ceux de probabilité, de prise de risque, d’absence de plan et de réflexion, et de coïncidence, ce dernier mot désignant un concours de circonstances inattendu et sans cause visible. Le hasard exprime donc une a-causalité. Il est l’antithèse du déterminisme.
L’homme a très tôt aimé les jeux de hasard, à travers lesquels il expérimente la chance, la fortune, la destinée. D’ailleurs az-zahr, en arabe, signifiait « les dés ». La place du hasard dans les lois de la nature n’a pas cessé de hanter les philosophes. De Plotin à Schopenhauer en passant par Leibniz, on s’est confronté à la difficulté de faire cohabiter de façon harmonieuse le déterminisme apparent des lois de la nature et la liberté apparente de l’âme humaine. De nos jours, les physiciens et les cosmologistes, tiraillés entre différentes visions du monde exprimées par leurs théories, se chamaillent encore à propos du hasard et du temps (les deux sont très liés).
Au dix-septième siècle les mathématiciens Pascal et Fermat ont découvert la « géométrie du hasard » (la théorie des probabilités), en débusquant, derrière l’absence de causes qu’on appelle hasard, des lois qui n’apparaissent que dans les grands nombres et la répétition. Nos statistiques d’aujourd’hui.
Dans la science classique, le recours au hasard exprimait non pas une réalité physique, mais une réalité humaine : celle des limites de son savoir, de son incertitude ou de son ignorance. Dans un monde où tout est prédéterminé, régi par des lois de cause à effet rigides, des événements inexplicables, dont on ne connaît pas la cause, ne pourraient se concevoir que régis par des lois invisibles ou que nous ignorons, découlant de causes subtiles que nous ne sommes pas capables d’appréhender. Au dix-neuvième siècle, c’est parce qu’il est vain d’espérer connaître les trajectoires individuelles de milliards de molécules que Boltzmann et d’autres recourent aux probabilités pour construire la thermodynamique statistique. Même quand Einstein introduit, le premier, les calculs de probabilités dans sa description quantique des atomes, il le fait à contre-cœur, convaincu que ces probabilités sont utiles seulement à titre opérationnel. L’univers ne joue pas aux dés, il en est convaincu.
Pourtant avec la physique quantique, le hasard va brutalement et radicalement changer de statut. Il n’est plus le reflet de nos ignorances, mais le principe d’une réalité profonde qui gouverne la matière à l’échelle de ses constituants les plus infimes ; le hasard ne nous parle plus d’incertitude mais d’indétermination. C’est là une différence énorme. La théorie des probabilités, en mécanique quantique, décrit une réalité qui, réellement, hésite sans cesse, joue avec les possibles, brasse des options, mais n’a aucun futur écrit d’avance. Ce hasard quantique, qu’étudient par exemple les physiciens spécialistes d’intrication (entanglement), est un « vrai hasard » (Gisin 2012).
Le concept de hasard est le pivot sur lequel une certaine vision philosophique et scientifique du monde a basculé en sa vision diamétralement opposée (Schrödinger 1951, Jammer 1974, Haroche 2020). Les savants croyaient en un monde purement causal et déterministe (au point que les philosophes s’étaient résolus à faire le deuil du libre arbitre), mais c’est le déterminisme, désormais, qui doit être considéré comme un leurre, un mirage ; et la causalité devient beaucoup plus passionnante et subtile qu’un simple enchainement du passé vers l’avenir. On sait aujourd’hui que les lois de la physique classique s’obtiennent à partir des lois quantiques pour des cas particuliers, valables notamment pour les aspects de la matière perçus à nos échelles. Le déterminisme, hypothèse si chère aux physiciens classiques au point de devenir un dogme et de se graver dans nos croyances collectives, est une approximation, elle découle de lois du hasard plus profondes (Omnès 2006).
Cette nouvelle conception du hasard a des conséquences importantes pour notre compréhension de la nature du temps (voir Symétrie du temps et hasard), et pour les questions scientifiques liés à la conscience, au lien entre conscience et matière (Problème corps esprit), et aux facultés non locales de l’esprit humain (intuition, effets physiques de l’intention, synchronicités). (Hasard et facultés de la conscience).
Les messagers de l’intuition
A chaque époque, des savants ont tenté d’expliquer l’intuition et ses avatars avec les connaissances et outils conceptuels à leur disposition ; ils ont cherché, parmi les éléments de la réalité physique connus, lesquels pourraient être des messagers pour cette connaissance immédiate qui se joue des sens physiques, des distances, du temps et des obstacles.
Dans la seconde moitié du 19ème siècle, peu après le triomphe de l’électromagnétisme et de la télégraphie sans fil, certains scientifiques ont voulu expliquer la télépathie par les ondes radio. Au début du siècle suivant, c’est la nouvelle compréhension de la matière et la myriade de particules élémentaires qui la composent qui a donné espoir que d’hypothétiques mindons, ou psychons, transporteraient l’énergie et l’information des perceptions extra-sensorielles. Ont aussi candidaté à ce rôle les insaisissables neutrinos et les bosons de l’interaction faible, ou les gravitons. Puis les théories d’après-guerre sur les ondes avancées ou les tachyons, ont été vus comme de possibles supports pour une information venue du futur – la précognition.
Il en a été de même pour les tentatives d’expliquer les effets de l’intention sur la matière (la PK). Au dix-huitième siècle, les notions de magnétisme ont inspiré le médecin allemand Franz-Anton Mesmer, dont la théorie du « magnétisme animal » devait expliquer par un « fluide magnétique » l’influence à distance des guérisseurs ou les mécanismes de l’hypnose. Les idées du « mesmérisme » ont perduré longtemps, notamment en URSS où les chercheurs ont tenté d’expliquer différentes formes de PK par des flux « bio-énergétiques ».
Toutes ces approches ont échoué. Nous savons aujourd’hui que l’intuition (quelle que soit la forme qu’elle prend) n’a pas de messagers physiques (ondes, champs, particules…), car ces derniers obéissent à des lois causales et tout message dont ils seraient porteurs s’affaiblirait avec le temps et les distances – ce qui n’est pas observé. L’intuition implique un processus informationnel que le paradigme de la physique seul, aussi sophistiqué soit-il, ne permet pas d’expliquer. En revanche, des concepts liés à la néguentropie ou à l’intrication quantique, sont aujourd’hui beaucoup plus pertinents. Depuis les années 60 des physiciens (refs Costa de Beauregard, Stapp, Walker, Mattuck, von Lucadou) se sont engagés sur ces nouvelles pistes… mais celles-ci imposent de réintégrer dans notre vision du monde une autre dimensionnalité que la seule matière : la conscience.
Localiser l’intuition dans le cerveau
Depuis longtemps, des chercheurs ont émis l’hypothèse que certains aspects de l’intuition seraient le fait d’une région spécifique du cerveau – plus précisément du cortex, siège des fonctions cognitives. Après tout, on peut considérer l’intuition comme une forme de cognition particulière (on dit Anomalous Cognition en anglais). Alors, sait-on aujourd’hui quelles sont les régions du cerveau majoritairement impliquées ?
Dans la seconde moitié du 19ème siècle, les chercheurs ont exploré cette question sous l’angle de « latéralisation » du cerveau. Les neurologues venaient en effet de découvrir que nos deux hémisphères cérébraux se spécialisent à partir d’un certain âge : pour la majorité des gens, l’hémisphère gauche concentre les activités du langage et de la pensée analytique, l’hémisphère droit la perception de l’espace, la musique, la créativité. On a soupçonné l’intuition d’être principalement du ressort de l’hémisphère droit. Cette hypothèse découlait d’observations : l’intuition, notamment télépathique, est souvent très visuelle ; les écrits de personnes pratiquant l’écriture automatique en état de transe avaient les mêmes caractéristiques que ceux de personnes dont l’hémisphère gauche est gravement endommagé ; la médium Eusapia Paladino devenait gauchère durant les séances de canalisation. Frederick Myers, directeur de la Society for Psychical Research à Londres, pensait que l’hémisphère droit permet l’expression de pensées inconscientes dans lesquelles ont pu infuser des informations de nature intuitive (Myers 1885) ; l’hémisphère gauche quant à lui, devait jouer un rôle d’inhibiteur pour l’intuition.
Dans les années 1950, Jan Ehrenwald, chercheur américain d’origine tchèque convaincu que la télépathie joue un rôle majeur en psychanalyse, a lui aussi été frappé par la similitude entre les dessins produits en état de transe et ceux réalisés par des personnes souffrant de lésions de l’hémisphère gauche (Ehrenwald 1984). L’hypothèse de l’importance de l’hémisphère droit pour l’intuition s’est renforcée par plusieurs découvertes. D’une part les travaux du neurologue américain et prix Nobel R. Sperry. Sperry, qui, en étudiant les « cerveaux scindés » (split-brains) pour traiter les cas d’épilepsie, a démontré la spécialisation et l’indépendance des deux hémisphères, ne communiquant que par le corps calleux (Sperry 1961). D’autre part, on fit le constat que les intuitions télépathiques se produisent surtout pendant les rêves (Ullman et al. 1973), en sachant par ailleurs que l’activité onirique est le fait de l’hémisphère droit (Humphrey & Zangwill 1951).
Ces études se sont poursuivies avec des méthodes variées. Pour « localiser » l’intuition dans le cerveau, on a fait passer des tests d’intuition à des gens dont les hémisphères cérébraux étaient, tour à tour, accaparés par une tâche cognitive ou la perception d’un stimulus (Braud & Braud 1975). L’hypothèse que l’activité de l’hémisphère gauche interférait négativement avec la performance intuitive a été confirmée (de façon marginale). L’Américain Richard Broughton a poursuivi ce type d’études en concevant des protocoles astucieux, par exemple en demandant aux sujets, pendant un test, de reconnaître tactilement un objet, tantôt de la main gauche, tantôt de la main droite (Broughton 1976).
Aujourd’hui, les expériences utilisant l’EEG et d’autres techniques d’imagerie cérébrale ont confirmé le rôle important de l’hémisphère droit dans l’intuition ; toutefois la réalité de la neurobiologie de l’intuition apparaît aujourd’hui beaucoup plus riche, et disons moins… tranchée. Nous savons que l’usage optimisé de l’intuition mobilise souvent le cerveau dans sa globalité.
Matérialisme (philosophie)
Les matérialistes sont convaincus que seul le monde de la matière (l’espace-temps, l’univers, ses ingrédients) est réel et que l’esprit n’en est qu’un sous-produit collatéral. Dans cette vision du monde, l’esprit n’est pas réel au sens ontologique du mot ; la conscience subjective est une illusion, et rien de ce qui touche à la conscience (pensées, conscience de soi, émotions, sensations, etc) ne peut exister indépendamment de la matière qui lui donne naissance. Une idée liée au matérialisme qui s’est enracinée (sans preuve) est que la conscience est apparue dans l’univers au cours de son évolution (Dawkins 1986).
Le matérialisme est très répandu chez les philosophes contemporains (Dennett 1991). De nombreux physiciens ont adopté ce point de vue, ne voyant dans la conscience qu’un état particulier de la matière, lié des notions cybernétiques d’information (Tegmark 2015). Pour les biologistes et neurologues matérialistes, c’est l’activité électrochimique du cerveau, qui, à partir d’un certain seuil de complexité, donne naissance à des pensées, des sensations, des émotions, des images mentales, une conscience réflexive (Dehaene & Naccache 2000, Edelman 2011, Seth 2023, Crick & Koch 2023). Et dans le sillage de cette notion, de nombreux scientifiques pensent qu’à l’avenir des systèmes informatiques et des IA suffisamment avancés pourront, à l’instar du cerveau humain, accéder à l’expérience consciente (Dehaene et al. 2017, Kurzweil 2013, Tegmark 2017).
Mais quelques neurobiologistes ne sont pas cet avis. Ils affirment que les corrélations entre l’activité du cerveau et les éléments de notre conscience (pensées, sensations, émotions, etc) ne sont aucunement une preuve que la première produit la seconde. Elles pourraient tout aussi bien s’interpréter en disant que notre conscience, immatérielle et existant de son bon droit, induit une activité cérébrale en se couplant au cerveau. C’est l’idée qu’a défendue dès les années 1950 le neurologue britannique John Eccles (prix Nobel de médecine) qui pensait que dans les synapses la volition (la conscience douée de libre arbitre) pourrait influencer les neurotransmetteurs. Autrement dit, c’est la conscience qui piloterait le cerveau (ref Eccles).
La plupart des scientifiques qui ont étudié l’intuition et les interactions psychophysiques parviennent à la conclusion que les hypothèses matérialistes sont incompatibles avec les données empiriques. Une vision dualiste de la réalité en revanche, pourrait rendre ces faits beaucoup plus compréhensibles (ref Thouless, Tart, Costa).
Le philosophe David Chalmers, spécialiste de ces questions, insiste sur le fait que les neurologues matérialistes n’ont pour l’instant jamais expliqué l’apparition de la conscience dans le cerveau, mais seulement l’activité cérébrale qui lui est intimement associée (Chalmers 1995). Comprendre la réalité subjective, les qualia, dit Chalmers, c’est le « problème difficile » lié à la conscience, qui résiste de facto aux théories matérialistes puisque ces dernières ne savent parler que de matière.
Comme le souligne le philosophe Michel Bitbol, l’esprit humain est très fort pour comprendre la réalité extérieure ; il est beaucoup moins apte à s’appréhender lui-même (Bitbol 2014). La pensée scientifique occidentale s’est longtemps tournée exclusivement vers la frontière du cosmos et des multivers. Mais il y a aussi l’infini de la conscience à explorer.
Mondes de Popper
Au vingtième siècle, le philosophe des sciences Karl Popper a plébiscité une vision dualiste du problème esprit-matière. Il a appelé « monde 1 » la réalité physique, objective et consensuelle (le monde « 1 b » étant le cerveau, fait de matière et directement associé à la pensée), et « monde 2 » la réalité mentale, subjective et privée (constituée de qualia). Popper a collaboré avec le neurologue John Eccles (1994) sur sa théorie de cerveau « pilotable par une volition ». Pour Popper, la physique quantique est une clé pour comprendre les interactions entre le monde 1 de la matière et le monde 2 de l’esprit, par le truchement du cerveau (le monde 1b). La théorie quantique décrit selon lui un « monde de propensions » (des tendances probabilistes) ; or c’est exactement ce qu’il faut au monde 1 pour être influençable par le monde 2 de l’esprit.
Néguentropie (& entropie)
La néguentropie est la grandeur physique qui caractérise le degré d’ordre dans une chose, c’est-à-dire la quantité d’information qu’elle stocke. L’entropie, plus connue, est l’inverse de la néguentropie : elle caractérise un degré de désordre. Un magnifique château de sable possède une grande néguentropie, alors qu’un simple tas de sable en contient très peu. La néguentropie d’un système mesure aussi sa probabilité d’être le fruit du hasard. C’est un concept adéquat pour décrire ce qui, dans la nature, semble s’organiser, se structurer, prendre forme, et engranger de l’information – c’est le cas des systèmes vivants (Schrödinger 1945), ou de toutes les créations humaines. La néguentropie intervient en théorie de l’information, en cybernétique, et dans les théories neurologiques de la conscience (Seth 2021). C’est aussi un concept important pour étudier les interactions psychophysiques, car ces phénomènes suggèrent que l’esprit humain, par des intentions conscientes ou inconscientes, est capable d’accroitre localement, de manière focalisée, la quantité de néguentropie de la matière en « l’informant » (Costa de Beuregard 1987, Von Lucadou & Kornwachs 1985).
Problème corps-esprit (Mind-Body Problem)
Depuis des siècles, l’homme s’interroge sur la nature de la conscience et ses liens avec la réalité physique. Les philosophes s’y réfèrent avec un terme générique, le problème corps-esprit (mind-body) ou esprit-matière (mind-matter). Les réponses qui ont été apportées à ces questions diffèrent selon les époques, les croyances spirituelles et religieuses, les données apportées par la science, et les convictions viscérales de chacun.
Globalement, il y a deux positions extrêmes, le matérialisme et l’idéalisme, entre lesquelles se décline un large spectre de variantes et de positions nuancées.
Pour les matérialistes, la matière est la seule réalité. La conscience n’a pas de réalité propre, au sens ontologique ; c’est donc une illusion, qui découle exclusivement de processus au sein de la matière. Le matérialisme puise ses racines dans l’Antiquité grecque. Le philosophe empiriste anglais Thomas Hobbes (1588-1679) était un matérialiste : il pensait que tout ce qui compose l’esprit est engendré par nos sens physiques, et qu’on pourrait expliquer les pensées par des particules de matière en mouvement. De nos jours, les théoriciens comme Roger Penrose qui proposent que la conscience émergerait de processus quantiques, sont eux aussi dans une ligne de pensée matérialiste (voir modèles quantiques de la conscience).
A l’inverse des matérialistes, les idéalistes pensent que la conscience est la réalité première, et que le monde de la matière dépend d’elle à des degrés divers, voire, n’est qu’une illusion. Un des plus célèbres idéalistes est George Berkeley, dont on connaît la célèbre formule « Etre, c’est percevoir ou être perçu ». On retrouve des notions idéalistes chez certains physiciens du vingtième siècle, qui voient dans le « problème de l’observateur » en mécanique quantique (illustré par le paradoxe du chat de Schrödinger ou l’ami de Wigner) la preuve que le monde physique doit son existence manifestée aux consciences qui le perçoivent (Wigner 1962, Jammer 1974). Le grand physicien John Wheeler avait tendance à être idéaliste, puisqu’il admettait que le cosmos pouvait avoir été cocréé par… l’acte d’observation de la créature consciente qu’il avait enfantée.
Ni idéalisme ni matérialisme, le dualisme considère que le monde de l’esprit et le monde de la matière sont tous deux réels, mais que ce sont des réalités différentes, comme deux « substances » non miscibles, qu’on ne peut expliquer l’une par l’autre, mais qui sont de toute évidence en interaction. Descartes est un des plus célèbres dualistes. Bergson était aussi dualiste. Camille Flammarion aussi. Dans l’approche dualiste, rien n’interdit à la vie consciente, spirituelle, subjective, d’exister indépendamment de la matière, puisqu’elle appartient à une autre dimension. Des scientifiques qui ont travaillé sur l’intuition et certaines facultés de l’esprit humain ont été séduits par la piste dualiste, qui accueillerait bien mieux que l’hypothèse matérialiste cette catégorie de phénomènes (Thouless & Wiesner 1948, Tart 1977, Honorton & Tremmel 1978, Beloff 1979, Costa de Beauregard 1987) (voir dualisme).
Parmi les autres approches du problème esprit-matière, il y a le monisme, courant porté notamment par Spinoza, qui prône que matière et esprit ont la même origine, sont de la même essence, appartiennent au même ordre de réalité, et que la différence que nous leur attribuons n’est qu’apparente. Certaines versions du monisme penchent vers le panpsychisme (l’esprit est partout dans la matière) ; mêmes des particules élémentaires seraient porteuses d’étincelles primitives de conscience de soi. Un certain nombre de scientifiques contemporains sont séduits par des interprétations du type moniste ; la physique quantique sert parfois à argumenter cette vision, du fait que les lois quantiques qui sous-tendent la matière sont peut-être aussi aux fondements des manifestations de la psyché (Bohm 1986, Radin 1997, Kastrup 2014, Rabeyron 2023). On trouve les prémisses de cette vision chez le physicien Wolfgang Pauli, qui échangeait avec Carl Jung sur l’inconscient et les synchronicités, et pensait qu’il existe un arrière-monde, à la fois psychique et physique, un « Unus Mundus », dont le cosmos et la conscience ne sont que des manifestations.
Le problème corps-esprit n’est donc pas plus résolu aujourd’hui qu’il y a deux mille ans. Dans ce débat, l’étude scientifique des facultés non locales de l’esprit – l’intuition, les effets physiques de l’intention, les synchronicités – peut jouer un rôle déterminant.
Qualia
Terme philosophique, les qualia sont les contenus de l’univers psychique d’un être conscient. Le sentiment d’exister, les ressentis sensoriels, les images mentales, les pensées, les éléments d’un rêve ou de l’imagination, les émotions, les intentions, etc. Qualia renvoie à la nature qualitative, et non quantitative, de ces faits mentaux : on ne peut pas quantifier les qualia ; on ne peut ni les mesurer ni les modéliser avec des mathématiques – comme on le fait avec les grandeurs physiques. On ne peut ni les couper en petits bouts ni les assembler – à l’image de la conscience individuelle qui les héberge. Les qualia sont subjectifs, privés. Ils ne se partagent pas et ne se comparent pas à ceux d’autrui.
Exemple : le rouge vermillon désigne une lumière dont la longueur d’onde avoisine 610 nanomètres. Ceci est un fait objectif. Mais votre qualia du rouge vermillon, c’est-à-dire votre représentation mentale de cette couleur, vous appartient. Vous n’avez pas accès au qualia « rouge vermillon » d’une autre personne, et ne pouvez imaginer l’expérience subjective qu’elle a de cette couleur (les daltoniens ont un aperçu de cette difficulté).
Ignorer la notion de qualia, ou nier son ontologie, revient à vouloir priver la conscience de sa qualité première. C’est pourtant la tendance contemporaine chez de nombreux neurobiologistes d’obédience matérialiste-physicaliste. Le philosophe australien David Chalmers appelle le « problème difficile » (hard problem) de la conscience, l’impossibilité actuelle, pour les neurosciences, d’expliquer l’origine de la conscience (Chalmers 1996). Les neurologues qui affirment qu’ils sont maintenant capables de la comprendre (Denett 1991, Seth 2021) parlent de l’activité cérébrale ; Chalmers, lui, parle des qualia.
Spin
On doit la découverte du spin, en 1940, aux travaux théoriques d’Eugène Wigner. Le spin est une propriété d’objets quantiques de toutes sortes (atomes, électrons, autres particules élémentaires). Il s’exprime en unités de moment cinétique, à l’instar des objets qui tournent, de sorte que le spin est souvent assimilé à un mouvement de rotation – comme si les objets quantiques ayant un spin tournaient sur eux-mêmes.
En réalité cette image est fausse. Le spin n’a pas d’équivalent classique, si bien que nos images ne peuvent être, au mieux, que des métaphores très inexactes.
Ce qui est exact, est qu’un spin possède une direction et que sa valeur est quantifiée. Les spins entiers (0,1,2…) correspondent à un certain type de particules (les bosons, dont font partie les photons, de spin 0) ; les spins demi-entiers (1/2, 3/2, 5/2…) correspondent à un autre type de particules (les fermions, dont font partie les électrons). Le spin est, avec la masse, une des deux seules grandeurs physiques caractérisant un objet quantique dont la valeur ne change pas quand on change de référentiel.
Le spin est difficile à conceptualiser. Notre langage est inapte à le décrire fidèlement. Avec la relativité générale et la prédiction de l’antimatière, c’est un bel exemple des découvertes où la théorie a devancé les observations en saisissant un aspect peu intuitif du réel.
L’importance du spin est cruciale pour la physique des atomes, la chimie moléculaire, la résonance magnétique, l’électronique a état solide. Récemment, il a permis l’invention de la spintronique et c’est ainsi que nos disques durs ont été considérablement miniaturisés. Bref, le spin, concept quantique par excellence, est partout, bien que personne ne puisse le décrire autrement qu’en termes de mathématiques.
Superposition
La superposition (des états possibles) est une caractéristique fondamentale des objets quantiques, une des nombreuses manifestations de l’indétermination quantique, car le fait de ne pas choisir entre plusieurs états autorisés impose de les faire cohabiter, même si dans notre logique ordinaire ces possibilités doivent s’exclure mutuellement. Quand on joue à pile ou face, on sait que c’est l’un ou l’autre ; mais dans l’état de superposition quantique, une pièce pourrait être dans un état « pile ET face ».
La superposition quantique intervient de maintes façons : superposition d’états des particules (et des observables qui les caractérisent), superposition des chemins possibles et des « histories », au sens de Feynman ou de Griffith (Haroche 2020).
A nos échelles et dans la vie courante, les choses ne sont pas en état de superposition. Toute chose adopte un état et un seul, toute propriété a telle valeur autorisée à l’exclusion des autres. Une pièce qu’on lance retombe soit sur pile, soit sur face. Pourquoi les objets quantiques font-ils l’expérience de la superposition alors que ce n’est jamais le cas des objets que nous percevons (décrits par la physique classique) ? Cette question est reliée à d’autres, comme le problème de la mesure, la décohérence, et la frontière entre le monde quantique et le monde non quantique. Cette question rejoint aussi celle de l’unicité du réel que nous percevons.
Le physicien Roland Omnès fait remarquer, en s’appuyant sur les découvertes des neurosciences, que notre cerveau n’est pas conçu pour gérer la superposition quantique : nos perceptions sensorielles ne sont jamais duales ou multiples (Omnès 2009). Même quand on propose à notre cerveau plusieurs options, dans des expériences de perception ambiguë ou bistable, il ne peut s’empêcher de choisir. Notre esprit semble optimisé pour vivre une seule réalité, pas pour faire l’expérience simultanée de possibilités superposées. Voilà pourquoi nous trouvons les idées quantiques si difficiles, abstraites, paradoxales, « contre-intuitives » ; voilà aussi pourquoi notre science ne les a découvertes que sur le tard.
Cependant, depuis quelques années, des chercheurs en neurosciences, en psychologie expérimentale, en sciences cognitives, s’intéressent au formalisme quantique qui apporte de nouvelles façons de comprendre les comportements, la prise de décision, les pensées inconscientes (Conte et al. 2008, Busemeyer et al. 2011). Ces travaux suggèrent qu’à un niveau profond et subliminal la psyché opère peut-être selon des modalités quantiques.
Les études sur l’intuition (l’intuition révélée dans des tests à choix forcé, ou dans des expériences de pressentiment physiologique) semblent pertinentes pour révéler les aspects quantiques de nos perceptions et de nos prises de décision, car une cible aléatoire à deviner ou à pressentir est, avant tout feedback, dans un état de superposition de ses options possibles. Dans ces expériences, il est alors crucial de considérer le rôle des probabilités a priori des différentes options (Radin 1988).
Symétrie du temps et hasard
La symétrie (ou asymétrie) du temps, et la réalité (ou non réalité) du hasard, sont deux questions essentielles que se posent les physiciens ; elles sont étroitement liées.
Les lois fondamentales de la nature s’expriment par des formules mathématiques qui font intervenir la variable temps ; elles sont symétriques par rapport au temps : si on change la direction du temps, cela ne change rien, le processus est identique, comme s’il était simplement vu dans un miroir. C’est le cas par exemple de la mécanique newtonnienne ou des lois de l’électromagnétisme : les trajectoires des objets et des ondes sont identiques que le temps s’écoule dans un sens ou dans l’autre. Il n’y a aucun moyen (et aucune raison), dans cette physique, de différencier entre passé et futur.
La symétrie temporelle des lois physiques nous donne une certaine interprétation de la causalité : nous devons obligatoirement la voir comme un réseau d’enchaînements inéluctables – tout événement possède dans le passé une cause unique et aura dans le futur une conséquence unique. Mais par l’imagination, renversons le sens du temps comme on passerait un film à l’envers, nous serons forcés d’interpréter ce qui était la conséquence comme étant maintenant la cause, et réciproquement. Les lois de la relativité sont également symétriques par rapport au temps. Les équations quantiques aussi.
Dire que le temps est symétrique, oblige à conclure que le monde est d’un déterminisme absolu. Une telle physique exclue donc le hasard de sa description. Elle modélise un monde où tout est prédéterminé, dépourvu d’incertitude et d’accidents : l’aventure de l’ensemble du cosmos est prédestinée dès sa genèse, dans ses moindres détails. Depuis Galilée et Newton de nombreux savants ont été encouragés à penser ainsi. Les physiciens théoriciens qui, aujourd’hui, défendent la notion d’univers-bloc (le cosmos est à considérer dans son entièreté spatiotemporelle, passé et futur étant « déjà là »), font de même.
Pourtant, les physiciens savent aussi – ou plutôt, observent – qu’il existe, pour la majorité des phénomènes constatés à nos échelles, une asymétrie du temps, par laquelle le futur et le passé ne sont ni identiques ni interchangeables. Cette flèche du temps observée dans les faits intrigue les physiciens puisqu’elle contredit la symétrie du temps observée dans les lois fondamentales. Le temps est irréversible dans les faits, bien que réversible dans les lois.
Pour résoudre la contradiction, il fallait d’abord inventer la physique quantique. Quelques événements concernant des particules élémentaires, observés expérimentalement (les taux de désintégration de certaines particules) ne sont pas totalement symétriques ; cette asymétrie, bien que minuscule, pourrait être un germe qui se répercute en s’amplifiant pour devenir, à l’échelle de l’univers, l’asymétrie du temps que nous observons.
D’autre part, la théorie quantique introduit une notion inédite en physique classique : la réalité physique peut exister sous deux formes, l’une quantique et l’autre classique. La première est faite d’options et de potentialités, la seconde d’événements singuliers, actualisés. A chaque instant, des multitudes pléthoriques d’objets du cosmos transitent de leur état de réalité quantique vers un état de réalité classique, de façon totalement aléatoire et irréversible. Ceci se produit quand il y a décohérence, mesure, enregistrement, observation. Ces transitions sont strictement acausales, comme lorsqu’on lance un dé ou qu’on joue à pile ou face (Jammer 1974). C’est là que s’installe l’irréversibilité ; c’est là que l’asymétrie du temps apparaît. (voir Nature du temps)
Techniques pour mesurer l’activité cérébrale pendant une tâche intuitive
L’électroencéphalographie (EEG) est une des méthodes les plus courantes pour explorer l’activité cérébrale ; un réseau d’électrodes, placées sur le cuir chevelu, enregistre l’activité électrique en surface du cortex, soit entre deux électrodes, soit entre une électrode et une référence commune. Les signaux de l’EEG sont classés en catégories (les ondes thêta, alpha, bêta, gamma, delta), selon leur plage de fréquences, des plus lentes (quelques cycles par seconde, ou Hertz) aux plus rapides (plusieurs dizaines de hertz). Ces ondes sont localisables dans le cerveau, avec une précision de quelques millimètres et une résolution temporelle inférieure à la milliseconde : on peut, par exemple, détecter un maximum d’ondes alpha dans la région frontale de l’hémisphère droit, des ondes bêta dans la région occipitale de l’hémisphère gauche, ou un train de pics thêta dans la région pariétale.
L’EEG permet aussi d’observer des composantes plus lentes ou apériodiques de l’activité cérébrale, tels que les « potentiels liés à des événements » (event-related potentials, ou ERP). Il s’agit de réponses du cerveau à des stimuli, impliqués dans les fonctions cognitives ; ce sont des formes d’onde beaucoup plus lentes, qui peuvent s’étaler sur plusieurs secondes. Toutes ces données sur les ondes cérébrales – fréquences, intensité, localisation, mesures d’ERP – sont utilisables pour sonder l’activité neurophysiologique en lien avec des faits relevant de l’intuition, notamment la télépathie. On a aussi montré que lors d’un test à choix forcé, où la personne doit deviner quelle est la solution parmi plusieurs options, l’ERP a une tension négative plus grande lorsqu’il regarde la solution (même s’il ne la choisit pas).
Dans un EEG, on peut aussi analyser les event-related potentials ou ERP, qui apparaissent en présence de stimuli d’origine interne ou externe. Or plusieurs études ont montré que la faculté intuitive y laisse des indices. Quand une personne passe un test intuitif de choix forcé (rappel : test où il faut deviner la cible parmi quelques options), l’ERP que déclenche la vue des options n’est pas la même quand il s’agit de la cible (l’option élue aléatoirement par l’ordinateur) et quand il s’agit des autres. Ceci a été constaté avec un célèbre médium (Warren et al. 1996) puis avec une quarantaine de parieurs (McDonough et al. 2002).
Un autre moyen de cartographier l’activité du cerveau est l’imagerie par résonance magnétique. Cette technique utilise la façon dont les protons de l’hydrogène, abondant dans les tissus biologiques, alignent collectivement leur spin (sorte d’aimant de nature quantique) dans un champ magnétique puissant. En appliquant au cerveau un champ puissant et alternatif, on peut mesurer le rayonnement de relaxation des spins et cartographier l’activité des neurones, avec une résolution spatiale inférieure au millimètre et une résolution temporelle de quelques minutes.
Dans l’IRM fonctionnelle (IRMf), on peut obtenir des cartes plus rapides, ce qui permet de suivre l’activité cérébrale en temps réel pendant une tâche cognitive. La technique, inventée en 1995, exploite les propriétés magnétiques de l’hémoglobine du sang : dans un fort champ magnétique, les spins s’orientent tantôt dans un sens tantôt dans le sens contraire selon que le sang est oxygéné ou non. Comme les neurones consomment plus d’oxygène quand ils sont actifs, cartographier l’oxygénation du sang dans les vaisseaux capillaires du cerveau revient à renseigner sur les régions qui sont actives ou pas.
C’est avec l’IRM fonctionnelle (BOLD) qu’on a pu, pour la première fois, observer du pressentiment dans le cerveau de plusieurs sujets, anticipant des stimuli visuels (Biermann & Scholte 2002). D’autres expériences ont utilisé l’IRMf pour explorer d’autres aspects de l’intuition (Moulton & Kosslyn 2008, Venkatasubramanian et al. 2008) ; mais ces expériences sont difficiles à réaliser, car une personne dont on réalise l’IRM n’est pas libre de ses mouvements.
Enfin il faut mentionner la magnétoencéphalographie (MEG), où l’on capte, en surface du crâne, les faibles champs magnétiques produits par l’activité cérébrale. Cette technique est plus sensible que l’EEG, mais aussi plus lourde à employer car les capteurs sont des magnétomètres à SQUID (superconducting quantum inferferometer devices), qui doivent être refroidis à des températures cryogéniques (azote liquide ou hélium liquide) pour fonctionner. Récemment, une étude utilisant la MEG a montré l’apparition d’ondes gamma dans certaines régions du cerveau, synchronisées entre les participants, durant des tests d’intuition de type « télépathie » (Pelt 2025).