CLES DE COMPREHENSION
Pour décrypter et approfondir quelques concepts.
Les messagers de l’intuition
A chaque époque, des savants ont tenté d’expliquer l’intuition et ses avatars avec les connaissances et outils conceptuels à leur disposition ; ils ont cherché, parmi les éléments de la réalité physique connus, lesquels pourraient être des messagers pour cette connaissance immédiate qui se joue des sens physiques, des distances, du temps et des obstacles.
Dans la seconde moitié du 19ème siècle, peu après le triomphe de l’électromagnétisme et de la télégraphie sans fil, certains scientifiques ont voulu expliquer la télépathie par des ondes radio. Au début du siècle suivant, c’est la nouvelle compréhension de la matière et la myriade de particules élémentaires qui la composent qui a donné espoir que d’hypothétiques particules, transporteraient l’énergie et l’information des perceptions extra-sensorielles. Ont aussi candidaté à ce rôle les insaisissables neutrinos et les bosons de l’interaction faible, ou les gravitons. Les théories d’après-guerre sur les ondes avancées ou les tachyons, ont été vues comme de possibles supports pour une information venue du futur – la précognition. (voir Nouvelles alliances avec la physique).
Il en a été de même pour les tentatives d’expliquer les effets de l’intention sur la matière (la PK). Au dix-huitième siècle, les notions de magnétisme ont inspiré le médecin allemand Franz-Anton Mesmer, dont la théorie du « magnétisme animal » devait expliquer par un « fluide magnétique » l’influence à distance des guérisseurs ou les mécanismes de l’hypnose. Les idées du « mesmérisme » ont perduré longtemps, notamment en URSS où les chercheurs ont tenté d’expliquer différentes formes de PK par des flux « bio-énergétiques ».
Toutes ces approches ont échoué. Nous savons aujourd’hui que l’intuition (quelle que soit la forme qu’elle prend) n’a pas de messagers physiques (ondes, champs, particules…), car ces derniers obéissent à des lois causales, transportent de l’énergie, et tout message dont ils seraient porteurs s’affaiblirait avec le temps et les distances – ce qui n’est pas observé. L’intuition implique un processus informationnel lié à la conscience que le paradigme de la physique seul, aussi sophistiqué soit-il, ne permet pas d’expliquer. En revanche, des concepts liés à la néguentropie ou à l’intrication quantique, sont aujourd’hui beaucoup plus pertinents. Depuis les années 60 des physiciens se sont engagés sur ces nouvelles pistes… mais celles-ci imposent de réintégrer dans notre vision du monde une autre dimensionnalité que la seule matière : la conscience.
Méthodes expérimentales
Depuis les années 1930 et les travaux fondateurs de Joseph B. Rhine, l’étude scientifique de l’intuition s’est appuyée sur des protocoles expérimentaux faciles à dupliquer et permettant une analyse statistique. Dans les expériences dites de « choix forcé » (qui sur le fond ne sont pas autre chose que des jeux de hasard), on propose au sujet un petit choix d’options parmi lesquelles il désigne celle qu’il croit être la réponse correcte. A chaque essai, la probabilité de tomber sur la bonne réponse au hasard est connue (une chance sur 6 pour un dé, une chance sur 5 pour le symbole d’une carte Zener, etc).
Le test comportant de nombreux essais, on peut calculer de façon rigoureuse de combien le score du sujet s’éloigne ou non de la moyenne attendue en théorie pour ce test (l’espérance mathématique), et on peut évaluer (avec un score z et une valeur p, ou par une approche bayésienne) si cet écart est hautement improbable (auquel cas on a mis en lumière une authentique « anomalie ») ou s’il ne l’est pas. On rapporte aussi des tailles d’effet, qui tiennent compte de la taille de l’échantillon. (Timm 2000, Rosnow & Rosenthal 2003, Tressoldi & Utts 2015).
Cette approche statistique s’est généralisée à la plupart des « paradigmes expérimentaux » permettant d’étudier l’intuition, et, dans un sens plus large, les « facultés psi » ou psychophysiques. On y retrouve quelques grandes catégories d’études : celles utilisant des tests à choix forcé, celles utilisant des réponses libres comme les études ganzfeld, les études de l’intuition du corps (appelée pressentiment) qui s’appuient sur des mesures physiologiques (Palmer 2015).
D’autres phénomènes de nature intuitive sont étudiés avec des protocoles différents quand ils se produisent rarement ou dans des occasions très particulières (études des rêves prémonitoires, de sessions médiumniques, de manifestations de poltergeist, etc.). Il y a aussi des expériences portant non pas sur l’intuition mais sur les influences psychophysiques, comme la force de l’intention (PK) ou les synchronicités.
Certains de ces paradigmes expérimentaux, de plus en plus, se croisent et leurs protocoles s’hybrident, à mesure que progresse la compression empirique de ces phénomènes, perçus différents aspects d’une même faculté de psychopraxie.
Ganzfeld
Les études ganzfeld (« champ total » en allemand) ont été très utilisées dans les années 60 et 70 quand les psychologues ont étudié l’effet des états modifiés de conscience sur nos perceptions et nos fonctions cognitives. Son protocole a été inventé dans les années 1930 par Wolfgang Metzger, psychologue allemand promoteur de la « théorie de la forme » (Gestalt). Lors d’une expérience ganzfeld, on installe le sujet dans un fauteuil confortable, dans un environnement calme avec un minimum de stimuli sensoriels (une lumière chaude diffusant à travers des demi-balles de ping-pong, un bruit rose diffusé dans des écouteurs), puis après un temps de relaxation on lui demande de décrire à voix haute ce qu’il ou elle perçoit dans son esprit pendant qu’une autre personne, ailleurs dans le laboratoire, fixe du regard une image (la cible). A l’issue du test, on présente au sujet quatre images, dont la cible, et on lui demande de désigner laquelle il croit avoir perçue. Avec un nombre important d’essais on peut comparer le taux de succès à ce que le hasard seul devrait produire. Plusieurs méta-analyses des études ganzfeld réalisées sur la période 1974-2008 ont montré qu’au lieu des 25 % attendus du hasard, le taux de succès moyen avoisine 32% (Bem & Honorton 1994 ; Storm, Tressoldi & Di Risio 2010).
Problème corps-esprit (Mind-Body Problem)
Depuis de nombreux siècles, l’homme s’interroge sur la nature de la conscience et ses liens avec la réalité physique. Les philosophes s’y réfèrent avec un terme générique, le problème corps-esprit (mind-body problem) ou esprit-matière (mind-matter). Les réponses qui ont été apportées à ces questions diffèrent selon les époques, les croyances spirituelles et religieuses, les données apportées par la science, et les convictions viscérales de chacun.
Globalement, il y a deux positions extrêmes, le matérialisme et l’idéalisme, entre lesquelles se décline un large spectre de variantes et de positions nuancées. Les matérialistes sont convaincus que seul le monde physique est réel et que l’esprit n’en est qu’un sous-produit (les neurologues matérialistes diront que l’activité électrochimique du cerveau donne naissance à des pensées, des sensations, des émotions, une conscience de soi, etc., et que ces derniers n’ont pas de réalité propre). Aux antipodes du matérialisme, les idéalistes pensent que l’esprit est la réalité première, et que le monde physique, la matière, l’ensemble du cosmos, dépendent de lui à des degrés divers, voire sont des illusions.
Pour les dualistes, esprit et monde physique sont tous deux réels. Mais ce sont des réalités différentes. Ils sont comme deux « substances » qu’on ne peut pas expliquer l’une par l’autre, mais qui, dans une vie humaine, sont en interaction. René Descartes était un dualiste : la « chose qui pense » (res cogitans) n’est pas de même nature que la « chose étendue » (res extensia), la réalité physique perçue par nos sens.
Parmi les autres approches du problème esprit-matière, il faut mentionner le monisme, qui prône que matière et esprit sont en réalité de la même essence ; et le panpsychisme, qui affirme que l’esprit est partout dans la matière. Dans sa version moderne, on dirait que mêmes des particules élémentaires sont porteuses d’étincelles primitives de conscience de soi. Une variante du monisme, développée par Hobbes au 17èmesiècle, et très ancrée aujourd’hui notamment en neurobiologie, est l’identité entre matière et l’esprit : les objets mentaux sont les phénomènes du cerveau et pas autre chose. Ici le monisme se confond avec le matérialisme (ou le physicalisme).
Depuis la fin du dix-neuvième siècle, la majorité des scientifiques se déclarent matérialistes. Dans ce paradigme, la conscience est une illusion ; notre vie intérieure subjective n’est qu’un effet collatéral de la matière, apparaissant grâce à des processus physiques hautement complexes. Cette vision rappelle celle du médecin français Cabanis qui écrivait que le cerveau fabrique la pensée comme le foie sécrète la bile.
Mais quelques neurobiologistes ne sont pas cet avis. Ils affirment que les corrélations entre l’activité du cerveau et les éléments de notre conscience (pensées, sensations, émotions, etc) ne sont aucunement une preuve que la première produit la seconde. Elles pourraient tout aussi bien s’interpréter en disant que notre conscience, immatérielle et existant de son bon droit, induit une activité cérébrale en se couplant au cerveau. C’est l’idée qu’a défendue dès les années 1950 le neurologue britannique John Eccles (prix Nobel de médecine) qui pensait que dans les synapses la volition (la conscience douée de libre arbitre) pourrait influencer les neurotransmetteurs. Autrement dit, c’est la conscience qui piloterait le cerveau (Eccles 1994).
La plupart des scientifiques qui ont étudié l’intuition et les interactions psychophysiques parviennent à la conclusion que les hypothèses matérialistes sont incompatibles avec les données empiriques. D’autres chercheurs pensent qu’une vision dualiste pourrait rendre ces faits beaucoup plus compréhensibles (Thouless & Wiesner 1948, Tart 1978, Beloff 1977). Elle serait compatible avec des résultats expérimentaux suggérant que le cerveau agit comme un filtre limitant nos facultés psi (Freedman et al. 2024).
Il faut mentionner l’essor des approches de la neurobiologie faisant appel à la théorie quantique (effet tunnel, collapse de fonction d’onde, superposition). De telles théories sont parfois proposées pour tenter de résoudre l’énigme de la conscience (Walker 1979, Hameroff & Penrose 2014). La biologie quantique est en plein essor depuis une vingtaine d’années et il est possible qu’une approche quantique du cerveau permette de mieux comprendre les observations à la fois des neurologues et des psychologues (Khrennikov 2010, Busemeyer 2011). Toutefois la plupart de ces théories s’inscrivent dans une démarche matérialiste (physicaliste, fonctionnaliste) et ne résolvent donc pas mieux que les modèles classiques du cerveau le « problème difficile » de la conscience.
Comme le souligne le philosophe Michel Bitbol, l’esprit humain est plus apte à comprendre la réalité extérieure qu’à s’appréhender lui-même (Bitbol 2014). Au-delà de la frontière du cosmos et des multivers, il y a aussi l’infini de la conscience à explorer.
Hasard
Le hasard est défini dans le Robert comme « une cause fictive attribuée à des événements inexplicables ». Son concept est indissociable de ceux de probabilité, de prise de risque, d’absence de plan et de réflexion, et de coïncidence, ce dernier mot désignant un concours de circonstances inattendu et sans cause visible. Le hasard exprime donc une a-causalité. Il est l’antithèse du déterminisme.
L’homme a très tôt aimé les jeux de hasard, à travers lesquels il expérimente la chance, la fortune, la destinée. D’ailleurs az-zahr, en arabe, signifiait « les dés ». La place du hasard dans les lois de la nature n’a pas cessé de hanter les philosophes. De Plotin à Schopenhauer en passant par Aristote, Guillaume d’Ockham, St-Augustin, Leibniz, on s’est confronté à la difficulté de faire cohabiter de façon harmonieuse le déterminisme apparent des lois de la nature et la liberté apparente de l’âme humaine. De nos jours, les physiciens et les cosmologistes, tiraillés entre différentes visions du monde exprimées par leurs théories, se chamaillent encore à propos du hasard et du temps (les deux sont très liés).
Au dix-septième siècle les mathématiciens Pascal et Fermat ont découvert la « géométrie du hasard » (la théorie des probabilités), en débusquant, derrière l’absence de causes qu’on appelle hasard, des lois qui n’apparaissent que dans les grands nombres et la répétition. Nos statistiques d’aujourd’hui.
Dans la science classique, le recours au hasard exprimait une incertitude, un aveu de faiblesse de nos connaissances : forcément, dans un monde prédéterminé, où tout fonctionne comme les engrenages d’une gigantesque horlogerie, un événement impossible à prédire ne peut être imputé qu’à des lois encore ignorées ou à des causes subtiles qui nous échappent. Au dix-neuvième siècle, c’est parce qu’il est vain d’espérer connaître les trajectoires individuelles de milliards de molécules qu’on utilise les probabilités pour construire la théorie thermodynamique. Même quand Einstein introduit, le premier, la statistique dans la description des atomes, il le fait parce que les probabilités sont nécessaires aux calculs mais convaincu que « Dieu ne joue pas aux dés ».
Avec la physique quantique, le hasard change de statut. De gueux il devient empereur : d’incertitude il devient indétermination. C’est là une énorme différence. Les lois quantiques nous montrent une nature fondamentalement hésitante. La théorie des probabilités y décrit cette fois une réalité qui, réellement, brasse des options, et n’a aucun futur écrit. Le hasard quantique est un « vrai hasard », pour reprendre la formule de Nicolas Gisin, physicien reconnu pour ses travaux sur l’intrication quantique (Gisin 2012).
Le monde quantique a laissé entrer le hasard dans le réel. L’univers est plein d’indétermination. Mais il est faux de croire que cet indéterminisme ne vaut que dans le domaine quantique ou aux échelles microscopiques. On sait maintenant que les lois de la physique classique se déduisent des lois quantiques pour des cas particuliers qui s’appliquent, notamment, à ce que nous percevons à nos échelles. Le déterminisme, si cher aux physiciens classiques, et qui a eu tendance à se graver dans nos croyances collectives comme un principe sans appel, s’avère n’être qu’une approximation des lois du hasard, omniprésentes et plus profondes. L’hypothèse du déterminisme est caduque, mais beaucoup de scientifiques ne l’ont pas encore réalisé (Prigogine & Stenghers 1988, Omnès 2006).
Le hasard joue un rôle crucial dans les phénomènes qui nous intéressent (l’intuition, les interactions psychophysiques, les synchronicités) ; d’abord sur le plan opératoire puisque les phénomènes étudiés ne sont reproductibles que statistiquement, mais aussi sur un plan fondamental: l’indéterminisme fait partie de leur nature.
On comprend donc pourquoi, au lendemain de la révolution quantique, il y a eu un regain d’intérêt pour ces phénomènes chez certains physiciens, tandis que, dans le même temps, des psychologues étudiant ces facultés ont été séduits par les notions de la physique quantique. Les premiers étant des experts de la matière, les seconds de l’esprit, ces scientifiques ont découvert la zone d’intersection de leurs centres d’intérêt, et cette convergence, relevée dès les années 1970 par Arthur Koestler, n’a cessé de se confirmer et a été dopée par la nouvelle conception du hasard.
Alors, si les générateurs aléatoires quantiques (GNA), à peine inventés, ont permis de révéler les effets discrets de la force de l’intention, ce n’est sûrement pas… un hasard.
Chat de Schrödinger
Erwin Schrödinger, un des artisans de la mécanique quantique, a proposé en 1935 une expérience fictive et purement théorique, dans le but de montrer qu’il y avait, dans l’interprétation de la mécanique quantique, une difficulté conceptuelle qu’il percevait comme un paradoxe, et que peut-être la théorie était inaboutie ou nécessitait quelques retouches. Le « paradoxe du chat », devenu fameux, et qui est à l’origine de découvertes importantes, abordait la question de la superposition quantique et de la place de l’observateur dans la réalité observée.
Résumé (mais est-il encore nécessaire ?) : dans une boîte se trouve un chat, une source radioactive, un compteur Geiger, une fiole de poison à l’effet immédiat (genre cyanure) et un mécanisme qui, en cas de détection d’une désintégration par le compteur Geiger, casse la fiole – tuant le chat par la même occasion. Au bout d’un certain temps, le chat est-il mort ou est-il vivant ? demande Schrödinger. La physique quantique, à l’époque, semble affirmer qu’il peut être dans les deux états contradictoires à la fois, dans un état de superposition purement quantique, tant que personne – aucun observateur conscient – n’a regardé à l’intérieur de la boite pour constater ce qui se passe, et déterminer, par cet acte d’observation, le sort irréversible du chat.
Arguments : la radioactivité est un processus quantique probabiliste ; la théorie ne dit rien sur ce que feront à chaque instant les différents atomes, seule leur loi statistique de désintégration est connue. L’expérience est conçue pour qu’au bout d’un temps fixé, disons une heure, on ait une chance sur deux que la source ait émis une particule et que le compteur Geiger l’ait détectée. Selon la mécanique quantique, la source est à cet instant dans une superposition 50% (désintégré) + 50% (pas désintégré), et par voie de conséquence, le chat, dont le sort dépend mécaniquement de ce résultat, est lui aussi dans un état indéterminé, à savoir une superposition 50% (mort) + 50% (vivant). Ce purgatoire ne cesse, dixit la théorie, que si quelqu’un effectue une « mesure » ou une « observation ». Sans cette observation, l’indétermination quantique des atomes perdure, mais pire, se communique aux objets macroscopiques auxquels ils sont liés par une chaîne de cause à effet.
Le choix d’un chat par Schrödinger visait à montrer la problématique. Car on sait bien qu’un chat est soit mort, soit vivant.
Cette expérience de pensée a fait couler beaucoup d’encre, chez les théoriciens, les philosophes des sciences, et les personnes ayant l’impression, ou l’intuition, que la physique quantique a des choses importantes à nous dire sur la conscience, ou sur la question du lien esprit-matière. Pour des physiciens comme John Von Neumann, Pascual Jordan ou Eugene Wigner, qui font partie des pères fondateurs de la physique quantique, c’était un authentique problème.
Dans « l’interprétation de Copenhague », qu’on doit à Niels Bohr, la démarcation entre objet observé et sujet observant semble mal définie et arbitraire. (Ce qui n’est jamais le cas avec la physique classique, qui décrit une réalité extérieure indépendante de tout observateur). John von Neumann a été l’un des premiers à voir la difficulté, et a appelé ça le « problème de la mesure ». Mais qu’est-ce qu’un observateur ? Un capteur suffit-il à parler d’observateur ? Un enregistrement automatisé de résultat est-il une observation ? Ou faut-il que quelqu’un prenne conscience de l’événement capté ? Cette question a pu sembler farfelue, mais elle a joué un rôle capital dans les débats sur les interprétations de la mécanique quantique aux premiers temps de celle-ci.
Dans la vision de Copenhague, toute mesure, toute observation, devait faire disparaitre la superposition des possibles au profit d’un choix irréversible. Cette transition, appelée « réduction du paquet d’onde », était soudaine, irréversible, et sans véritable explication. C’est un des aspects de la mécanique quantique pour lesquels on peut parler d’acausalité (Jammer 1974).
En 1935, on ne voit pas comment sauver le chat d’une superposition quantique inconfortable, car rien dans la théorie n’interdit à un état de superposition concernant des atomes d’être amplifié jusqu’à nos échelles, s’il existe une chaîne de cause à effet; ou un appareil de mesure, qui joue précisément rôle, puisque que sa fonction est d’amplifier la propriété quantique mesurée jusqu’à des échelles que nous percevons (déplacement d’une aiguille, clic audible, courbe affichée sur ordinateur, etc.).
Des physiciens comme Eugene Wigner ou John Wheeler ont ainsi développé l’idée que la conscience est indispensable pour permettre au monde quantique de se révéler, à travers des faits perçus, autrement dit mesurés, aux échelles macroscopiques, et que la conscience, par ce biais, cocrée l’univers.
Cette problématique ne concerne pas seulement les physiciens expérimentaux : chacune de nos perceptions sensorielles peut être pensée comme une mesure, faite grâce à nos sens, sur un aspect du monde dont, nous le savons, les constituants sont quantiques. Or la réalité que nous percevons n’est pas d’apparence quantique: elle nous apparaît unique, jamais superposée dans des myriades de possibilités. D’ailleurs notre cerveau est incapable de gérer les superpositions (Omnès 2006).
Jusqu’aux années 1980 ces questions ont été majoritairement considérées comme métaphysiques, et inutiles au progrès d’une physique volant de succès en succès. Par ailleurs il était impossible de réaliser une expérience réelle ressemblant à celle du chat. Dans toutes les expériences réalisables, les processus quantiques n’étaient exploités qu’à travers leurs effets statistiques, portant sur des populations colossales de photons, d’électrons ou d’atomes. Or pour répondre aux questions fondamentales soulevées par Schrödinger, Einstein, von Neuman, Wigner ou Jordan, il fallait pouvoir manipuler les objets quantiques individuellement, seule façon d’observer la bizarrerie quantique dans sa nudité.
A partir des années 1980 ceci a changé: plusieurs expériences de pensée importantes (paradoxe EPR d’Einstein, choix retardé de Wheeler, paradoxe du chat) sont devenues réalisables en laboratoire grâce aux technologies que la révolution quantique avait elle-même enfantées – en particulier l’apparition des lasers. Des expériences où l’on manipule la lumière photon par photon, et la matière atome par atome, chose impensable il y a 90 ans, sont aujourd’hui possibles. Elles permettent de mesurer un photon sans le détruire, d’explorer ses états quantiques sans les faire disparaître, de sonder la matière dans ce qu’elle a de plus intime. On
La théorie quantique, pendant des décennies, était restée muette sur les facteurs pouvant provoquer la réduction du paquet d’onde au cours d’une mesure, mais on sait aujourd’hui que des processus purement physiques peuvent s’en charger. Il s’agit de la décohérence: la destruction – quasi instantanée – des interférences qui caractérisent tout état de superposition quantique, quand l’objet quantique concerné interagit avec son environnement. Or toute mesure est une interaction. Voilà pourquoi, et comment, un capteur provoque la réduction du paquet d’onde.
La décohérence « tue » l’état de superposition et ramène l’objet quantique à quelque chose qu’on peut décrire avec les lois classiques. Les bizarreries quantiques ne peuvent donc pas se propager aux échelles que nous percevons. Ni le chat, ni nous, ne pouvons en faire l’expérience. L’indétermination quantique des atomes radioactifs a déjà disparu avant d’atteindre le compteur Geiger. C’est aussi la décohérence qui explique qu’une boule de pétanque ne traverse jamais un mur par effet tunnel ou que l’on ne puisse pas s’assoir sur plusieurs chaises à la fois.
La décohérence est un processus extrêmement efficace et rapide, et c’est la raison pour laquelle, du temps de Schrödinger, Bohr et Von Neumann, il n’avait pas été pris en compte pour répondre au paradoxe du chat.
Et la conscience dans tout ça?
La conscience d’un observateur n’intervient pas dans la décohérence. Elle n’est pas nécessaire à la réduction du paquet d’onde, et donc peut-être pas nécessaire à l’existence du monde physique. Pour autant, comme le pensent certains physiciens et philosophes (D’Espagnat, Shimony) le débat sur le rôle de l’observateur dans la réalité physique n’est pas totalement clos. L’étude scientifique de l’intuition et des interactions psychophysiques, par des chemins inattendus, est revenue vers ces questions.
Mondes de Popper
Au vingtième siècle, le philosophe des sciences Karl Popper a proposé un modèle dualiste du problème matière-esprit. Il a appelé « monde 1 » la réalité physique, objective et consensuelle (le monde « 1 b » étant l’organisme biologique), et « monde 2 » la réalité mentale, subjective et privée, des êtres conscients (constituée de ce que d’autres philosophes ont nommé des qualia). Popper a collaboré avec le neurologue John Eccles (ref) sur sa théorie de cerveau « pilotable par une volition ». Pour Popper, la physique quantique est une clé pour comprendre les interactions entre le monde 1 de la matière et le monde 2 de l’esprit. La théorie quantique décrit un « monde de propensions » (plus que des probabilités, des tendances) ; or c’est exactement ce qu’il faut au monde 1 pour être influençable par le monde 2 de l’esprit. La volonté, l’intention, serait en mesure de cette idée s’avère très proche de ce que d’autres chercheurs ont découvert en étudiant les interactions psychophysiques au moyen de GNA, pendant plusieurs décennies.
Le choix forcé
Les expériences de « choix forcé » sont des protocoles inspirés des jeux de hasard, qui permettent de tester et quantifier l’intuition d’une personne par l’analyse statistique de ses taux de succès. Le principe consiste à lui montrer un petit choix d’options parmi lesquelles il doit désigner la réponse correcte – appelée la « cible ». A chaque essai, la probabilité de tomber sur la cible au hasard est connue (par ex, une chance sur 6 pour un dé, une chance sur 5 pour une carte Zener). Quand le test comporte de nombreux essais, le ratio de bonnes et de mauvaises réponses doit tendre théoriquement vers cette probabilité (l’espérance mathématique du test). Si le taux de succès d’une personne s’en éloigne, on peut évaluer (avec une valeur p, ou via une approche bayésienne) si cet écart est très improbable – auquel cas le test révèle une « anomalie » – ou s’il ne l’est pas.
Dans un test à choix forcé, les gens peuvent être testés individuellement ou en groupe ; en laboratoire ou chez eux ; avec un retour sur leur performance, donné à chaque essai ou seulement à la fin du test, ou pas du tout. La nature de la cible peut être virtuellement n’importe quoi pourvu qu’on connaisse sa distribution statistique. Pour des raisons historiques les premières cibles ont été des objets de jeux de hasard (cartes à jouer, dés, etc) [Rhine 1940, Nash 1985]. Mais il peut s’agir d’images choisies aléatoirement par un ordinateur (Radin 1988, Bem 2011), de lampes qui s’allument (Tyrell 1938, Tart 1966), d’un petit choix de mélodies (Keil 1965), de SMS envoyés sur un téléphone portable (Sheldrake 2015), et de nombreux autres aspects de l’intuition qu’on cherche à mesurer.
Avec le choix forcé, on peut étudier différentes modalités de l’intuition par simple changement du timing de sélection de l’option-cible par rapport au moment où le sujet doit s’efforcer de la deviner : si cette sélection est faite avant, on teste une intuition temps réel ; si elle est faite après, on teste une intuition du futur (précognition). Ces deux facultés sont-elles deux manifestations de la même intuition ou deux processus cognitifs différents ? Aujourd’hui la question n’est pas tranchée (Mossbridge 2023).
Depuis les années 1970, on a étudié l’activité cérébrale de personnes se prêtant à des tests de choix forcés. Ces études ont montré certaines spécificités de l’intuition en termes de régions cérébrales activées, et certains corrélats neuraux de l’activité intuitive (voir Aspects neuro ).
GNA
Un générateur de nombres aléatoires (GNA), en Anglais Random Number Generator, ou Random Event Generator (REG), est un composant électronique qui fournit des suites de bits (valant 1 ou 0) aléatoirement, à une cadence particulière. Ces bits sont obtenus à partir d’un processus physique ayant des fluctuations – du « bruit ». Il est le plus souvent d’origine quantique (QRNG). Les premiers GNA ont exploité le comptage des désintégrations de sources radioactives. Aujourd’hui il s’agit le plus souvent de diodes dont le bruit d’électrons (thermal noise, shot noise) est converti en bits. Le physicien américain Helmut Schmidt, ingénieur chez Boeing, a joué un rôle majeur dans la mise au point de ces composants à la fin des années 1960, et il a été l’un des premiers à s’en servir pour étudier les interactions psychophysiques – la force de l’intention, aussi appelée PK (Schmidt 1970). Dans ce domaine de recherche, les GNA ont été très utilisés pour de nombreuses expériences (PEAR) ; on les préfère aux algorithmes pseudo-aléatoires, car leur nature quantique garantit un hasard pur (le « vrai hasard » de Gisin).
Néguentropie (& entropie)
La néguentropie est la grandeur physique qui caractérise le degré d’ordre dans une chose, c’est-à-dire la quantité d’information qu’elle stocke. L’entropie, plus connue, est l’inverse de la néguentropie : elle caractérise un degré de désordre. Un magnifique château de sable possède une grande néguentropie, alors qu’un simple tas de sable en contient très peu. La néguentropie d’un système mesure aussi sa probabilité d’être le fruit du hasard. C’est un concept adéquat pour décrire ce qui, dans la nature, semble s’organiser, se structurer, prendre forme, et engranger de l’information – c’est le cas des systèmes vivants (Schrödinger), ou de toutes les créations humaines. La néguentropie intervient en théorie de l’information, en cybernétique, et dans les théories neurologiques de la conscience (Seth 2021). C’est aussi un concept important pour étudier les interactions psychophysiques, car ces phénomènes suggèrent que l’esprit humain, par des intentions conscientes ou inconscientes, est capable d’accroitre localement, de manière focalisée, la quantité de néguentropie de la matière en « l’informant ».
Qualia
Apparu en philosophie dans la seconde moitié du XIXème siècle, le terme qualia désigne les contenus immatériels de la vie psychique d’une personne : ses sensations, perceptions, émotions, images mentales, pensées. Il s’agit d’une expérience à la première personne et totalement privée. La sensation de la couleur rouge, par exemple, est un qualia. Et personne ne peut connaître le qualia « rouge » d’une autre personne.
Qualia renvoie à la nature qualitative, et non quantitative, des phénomènes qu’il désigne. Un qualia ne peut être ni mesuré, ni découpé, ni modélisé avec des mathématiques. Un qualia ne s’étudie que par l’introspection. Einstein, réfléchissant au « temps » des atomes et des horloges, parlait d’une grandeur physique mesurable et modélisable ; Bergson, étudiant la sensation d’écoulement du temps, s’intéressait à un qualia.
La notion de qualia est essentielle quand on s’intéresse à la nature et à l’origine de la conscience. Nier la valeur ontologique des qualia, comme font certains scientifiques et philosophes de tendance matérialiste (physicalistes, fonctionnalistes, etc.), revient à nier à la conscience sa qualité première. A contrario, le philosophe australien David Chalmers insiste sur le fait que les neurosciences ne peuvent prétendre expliquer la conscience tant qu’elles n’expliquent que l’activité cérébrale associée aux qualia et pas les qualia eux-mêmes.
Autrement dit : décrire le fonctionnement du cerveau d’une personne qui voit ou pense la couleur rouge est une chose; expliquer l’apparition de la sensation « rouge » dans sa conscience relève d’un tout autre défi.