14/12/2011

6-3 Les limites de la connaissance 6-3) Réalisme et monde quantique ébauche d'analyse des implications ontologiques

Les limites de la connaissance 6-3) Réalisme et monde quantique

ébauche d'analyse des implications ontologiques. théories à variables cachées, non-séparabilité et le problème de la mesure.

 

www.math.polytechnique.fr/~paul/ceri.pdf (formalisme quantique).


mandala. formalisme quantique



 

Préambule

La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gödel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?

(Je voudrais ici faire partager ma lecture de Hervé Zwirn).


Les limites de la connaissance 6) Réalisme et monde quantique

6-3:ébauche d'analyse des implications ontologiques. théories à variables cachées, non-séparabilité et le problème de la mesure.


I) Principales étapes de l'article.

1) Ebauche d'analyse des implications ontologiques.

a) Le caractère abstrait du formalisme quantique est déroutant.

b) Signification de ces propriétés:

A) Disparition de la correspondance directe entre état et propriétés.

B) Indéterminisme.

C) Interférence des amplitudes de probabilité.

2) Les théories à variables cachées et la non-séparabilité.

a) La complétude de la mécanique quantique

b) Le paradoxe EPR.

c) la réponse de Bohr.

d) Les théories à variables cachées.

e) Le verdict expérimental: les inégalités de Bell.

3) Résumé et conclusions.

Toute théorie reproduisant les prédictions de la mécanique quantique doit donc être non locale et contextualiste.

le chat de Schrödinger



II) Contenu de l'article. 1) Ebauche d'analyse des implications ontologiques.


a) Résumé des propriétés quantiques.

Le caractère abstrait du formalisme quantique est déroutant. "Il consiste à établir une correspondance entre, d'une part, les systèmes physiques, les grandeurs attachées à ces systèmes et  les observations effectuées, et, d'autre part, des objets mathématiques et des équations portant sur ces objets, de telle sorte que, les résultats mathématiques obtenus, une fois retraduits en fonction de ce qu'ils représentent, reproduisent correctement les observations physiques. La justification du formalisme repose a posteriori sur son adéquation avec avec les résultats physiques qu'il prédit."

On ne doit pas chercher de compréhension intuitive physique directe des objets du formalisme quantique. L'état quantique d'un système est représenté par un vecteur appartenant à un espace vectoriel appelé "espace de Hilbert des états".Comme pour tout espace vectoriel, toute combinaison linéaire d'états possible est elle-même un état possible (c'est le principe de superposition).


A chaque grandeur physique (position, impulsion, énergie,spin...) attachée au système, est associé un opérateur qui agit sur les états possibles; il est appelé "une observable". Le principe de réduction du paquet d'ondes stipule que lorsqu'on mesure une observable A sur un système dans l'état |ψ>, on ne peut obtenir comme résultat que l'une des valeurs propres de l'observable A. Si celle-ci possède plusieurs valeurs propres distinctes, la probabilité d'obtenir une valeur propre donnée a est fonction de l'état initial |ψ>, et des états propres de A associés à a. C'est le carré du module de la projection de |ψ> sur le sous-espace propre engendré par les vecteurs propres de |ψ> associés à a. Après une mesure ayant donné a comme résultat, le système n'est plus dans l'état |ψ> mais il est projeté dans l'état propre associé à a:

Une observable est formalisée mathématiquement par un opérateur agissant sur les vecteurs d'un espace de Hilbert mathcal{H} (chaque état quantique étant représenté par un vecteur dans cet espace).

Le sens de cet opérateur observable est de donner la possibilité de décomposer un état quantique quelconque |psirangle (donc un vecteur quelconque de l'espace de Hilbert) en une combinaison linéaired'états propres, chacun de ces états étant un état possible résultant de l'opération de mesure.

Soient |alpha_irangle les vecteurs propres d'un opérateur hat{A} (éventuellement en nombre infini selon l'observable).

hat{A} Rightarrow |psirangle = c_1 |alpha_1rangle + c_2 |alpha_2rangle + .. + c_n |alpha_nrangle + ..

c_i = langlepsi|alpha_irangle étant le coefficient complexe de cette combinaison linéaire. (C'est une projection, produit scalaire dans l'espace de Hilbert).

Ce coefficient donne la probabilité pour qu'un état propre left| alpha_i rightrangle soit le résultat de la mesure d'un état quantique  |psirangle

P = {|langlepsi |alpha_irangle|}^2 (en supposant que left| psi rightrangle et left| alpha_irightrangle soient normés)

L'ensemble des vecteurs propres |alpha_irangle n'est autre que l'ensemble des résultats possibles de l'opération de mesure formalisée par l'observable.

Les états qui s'expriment avant la mesure sous la forme simple |phirangle = c_i |alpha_irangle sont appelés état propre ou état pur. En règle générale, un état quantique n'est pas pur et sont des états superposés, pour cette observable.

Un état peut être pur selon une observable donnée, et être superposé selon une autre observable. C'est d'ailleurs la raison fondamentale du principe d'incertitude d'Heisenberg : un état quantique qui est pur pour une observable (et qui possède donc une valeur précise pour cette observable), peut avoir tout un ensemble de valeurs possibles pour une autre observable.

Après l'opération de mesure, le système physique mesuré sera dans l'un des états propres définis par l'observable (postulat d'effondrement de la fonction d'onde).

La mesure d'une observable (ou d'un ensemble complet d'observables qui commutent) permet de connaître précisément l'état dans lequel est le système. En général, comme il n'est pas dans le même état avant et après la mesure, il est impossible de mesurer une grandeur sans perturber le système (sauf si celui-ci est déjà dans un état propre de l'observable mesurée). Quand on connaît avec précision la valeur d'une observable, la valeur des observables qui ne commutent pas avec elle n'est pas définie. En l'absence de mesure, l'état du système évolue de manière déterministe selon l'équation de Schrödinger.


b) Signification de ces propriétés:


A) Disparition de la correspondance directe entre état et propriétés.

L'état d'un système n'est plus, comme en mécanique classique, la liste exhaustive des valeurs possédées par les grandeurs physiques attachées au système. L'état quantique est déterminé par une mesure des valeurs simultanées d'un ensemble d'observables qui commutent (ce qui est possible car elle sont compatibles, elles commutent). Mais le prix à payer est que toutes les autres observables ne pourront plus être considérées comme ayant des valeurs définies lorsque le système est dans cet état (On pourrait objecter que que ce n'est pas parce que nous ne pouvons pas mesurer simultanément ces valeurs, qu'elles n'ont pas,  indépendamment de notre connaissance, une valeur définie. L'analyse des états superposés montre que la mécanique quantique orthodoxe n'autorise pas une telle interprétation. Certaines tentatives ont été faites dans ce sens, comme les théories à variables cachées). On pourrait se représenter les états quantiques comme des états classiques pour lesquels il serait impossible, par principe, de donner toutes les valeurs simultanément, mais même si l'état ne peut spécifier qu'une partie des propriétés, cette donnée est censée représenter la totalité des informations sur le système (en fait, il y a des propriétés d'interférence qui peuvent exister entre certaines composantes de l'état) . On dit que la mécanique quantique est "complète". Il ne faut pas penser que l'état "réel" du système est "lui" plus complet que l'état quantique qui ne peut "encapsuler" qu'une partie de cet état. L'état réel est l'état quantique et rien d'autre (ce qui a choqué Einstein). Il ne spécifie pas les valeurs de toutes les propriétés simultanément non parce qu'il est incomplet, mais parce qu'un état qui les spécifierait simultanément est physiquement impossible.

Prenons l'exemple des propriétés d'impulsion, position et spin. Ces 3 ,grandeurs sont des vecteurs déterminés par leurs 3 composantes suivant un système d'axes orthonormés Oxyz. A chaque projection sur un axe correspond une observable. La position est associée à aux 3 observables Rx,Ry,Rz, l'impulsion à Px,Py,Pz et le spin à Sx,Sy,Sz. Les 3 observables de position commutent. Il est donc possible de connaître les vecteurs position ou impulsion d'une particule. En revanche, les observables de spin ne commutent pas 2 à 2. Il est donc impossible de connaître simultanément la valeur du spin de la projection du spin sur deux axes distincts. Les observables De spin commutent toutes avec celles de position et d'impulsion, mais ces dernières ne commutent que lorsqu'elles sont en projection sur un axe différent (Rx et Py commutent, mais pas Rx et Px).

L'image classique de d'un système possédant de propriétés qui lui sont attachées indépendamment de toute mesure doit donc être abandonnée. Les propriétés n'ont pas de valeur en soi mais s'en voient attribuer une selon la mesure qu'on en fait. On doit en conclure que l'existence d'une propriété n'est plus un attribut de l'objet lui-même, mais de l'ensemble composé par l'objet et par l'appareil de mesure utilisé. On peut d'une certaine manière dire que c'est la mesure qui crée la propriété ou que la propriété n'est devenue qu'une simple potentialité. Le spin suivant Os devient une manière de parler de ce qui peut se produire lorsqu'on fait passer un électron dans un appareil de Stern et Gerlach. Initialement, c'est Bohr qui a mis en avant une telle manière de présenter la mesure.

Il existe cependant une échappatoire permettant de connaître partiellement la valeur de deux observables qui ne commutent pas. Si on se contente de le mesurer approximativement la position d'une particule, il est possible de connaître simultanément l'impulsion amis de manière approximative aussi. le précision qu'on est en droit d'attendre de ces mesures simultanées est limitée par les relations d'incertitude de Heisenberg qui stipulent que le produit des incertitudes sur deux mesures incompatibles est toujours supérieur à une certaine constante (h/4π dans la cas de la position et de l'impulsion). Dans le cas d'une précision infinie sur la position, l'impulsion ne sera plus définie du tout comme on vient de la voir pour la définition de l'état d'un système.

Dans le monde macroscopique, on a l'impression que qu'on peut toujours mesurer simultanément la position et la vitesse, l'imprécision des appareils de mesure entraîne toujours une certaine incertitude. Nous avons l'illusion que celle-ci peut être aussi réduite que nous voulons, mais nous sommes très loin des limites imposées par la mécanique quantique. Par exemple pour un grain de poussière de diamètre 1μ, de masse 10-15 kg, de vitesse 10-3 m/s, une mesure de position à  0,001 μ près engendrera une incertitude sur l'impulsion de 10-26 kg.m/s, soit une incertitude relative de 10-8, bien au-delà de la précision de nos appareils de mesure. Le fait d'attribuer aux objets des propriétés ayant des valeurs définies est une illusion due à la sensibilité limitée de nos appareils de mesure.


B) Indéterminisme.

Les prédictions de la mécanique quantique sont de nature probabiliste. Contrairement à la mécanique classique, il est impossible de prédire avec certitude le résultat d'une mesure même si on connaît précisément l'état initial du système. En mécanique classique, il existe une correspondance biunivoque stricte entre l'état du système et la valeur de ses propriétés. Connaitre l'état est rigoureusement équivalent à connaître la valeur des propriétés. En mécanique quantique, l'évolution de l'état du système est aussi déterministe, elle est régie par l'équation de Schrödinger.  La connaissance de l'état initial permet de prédire avec certitude les états ultérieurs du système tant qu'on n'effectue aucune mesure. Mais connaître l'état du système à un instant donné, ne suffit pas pour prédire la valeur de ses propriétés. La conséquence est que même si l'état évolue de manière déterministe entre les mesures, le résultat d'une mesure ne peut plus être prédit que de manière probabiliste.

Les prédictions de la mécanique quantique ont donc irréductiblement un caractère essentiellement probabiliste. La nécessité de se contenter de prédictions probabilistes était déjà apparu en mécanique classique dans la mécanique statistique et la thermodynamique. Les caractéristiques globales des gaz (température, pression), sont expliquées par les mouvements des molécules. La pression est due aux chocs des molécules sur les parois d'un récipient. La mécanique classique avec la loi des chocs permet en principe de calculer toutes les trajectoires. Ce n'est que la pratique (un litre de gaz comporte de l'ordre de 1022 molécules), qui ne permet pas de résoudre ni même d'exprimer le système. On en est donc réduit à se contenter de calculer des moyennes sur ces trajectoires à partir des probabilités. Mais il est admis que que chaque molécule possède à tout moment une vitesse et une position déterminées. Les probabilités permettent de d'effectuer des moyennes sur un grand nombre de molécules , moyennes qui représentent justement la pression ou la température du gaz. Elles permettent de reproduire les résultats de la thermodynamique qui, elle, obtenait ces résultats sans faire d'hypothèse sur la constitution interne du gaz. La mécanique statistique est donc une théorie probabiliste, mais la nature probabiliste de ce mécanisme est due à l'impossibilité matérielle de traiter trop d'informations à la fois, elle n'entraîne aucune conséquence ontologique sur le comportement des systèmes qu'elle étudie.

Par contre, la nature probabiliste de la mécanique quantique est toute différente. Ce n'est pas notre incapacité  à traiter trop d'informations à la fois ou notre méconnaissance des états précis  qui rendent nécessaire l'utilisation des probabilités, mais la nature des objets quantiques, il y a une conséquence ontologique sur cette nature. L'indéterminisme quantique est intrinsèque et résulte non pas de l'évolution des états (qui est déterministe) mais de la disparition de la correspondance directe entre un état et la valeur des propriétés du système dans cet état.


C) Interférence des amplitudes de probabilité.

Quelques rappels: L'état |ψ> d'un système ne peut plus être interprété comme la liste des valeurs possédées par l'ensemble des propriétés d'un système. On peut alors être tenté par se représenter un état quantique comme l'analogue d'un état classique pour lequel on s'interdit de donner des valeurs à toutes les valeurs simultanément. Mais cette représentation n'est pas bonne, car elle ne rend pas compte des capacités des composantes de l'état à interférer entre elles.

Résumé de l'expérience du passage de l'électron à travers des trous d'Young. |1> est l'état de l'électron qui est passé par le trou 1 (||2> pour le trou 2) (ou plutôt pour lequel une mesure a montré qu'il était passé par le trou 1). On peut dire que c'est cette mesure qui a précipité l'électron dans l'état |1>. Lorsqu'un appareil de mesure permettant de savoir par quel trou est passé chaque électron est en place, tout électron est soit dans l'état |1>, soit dans l'état |2>. Dans ce cas il n'y a pas d'interférence. Le principe de réduction du paquet d'ondes dit qu'une mesure de position sur l'écran d'un électron dans l'état |1> donnera le résultat x avec une probabilité égale au carré du module de la projection de |1> sur l'état |x>, état qui correspond à à un électron observé à la position x. Cette probabilité se note p1(x) = |<x|1>|² (produit scalaire dans le formalisme de la mécanique quantique). Cela donne une courbe de répartition des impacts présentant un maximum en face du trou 1, et de même pour l'état 2. Comme chaque électron arrivant sur l'écran est alors soit dans l'état 1, soit dans l'état 2,  la courbe finale sera la somme des deux courbes, courbe totale sans interférence correspond à la probabilité: p(x) = 1/2[p1(x)  +p2(x)] = 1/2[|<x|1>|² + |<x|2>|²].

Par contre, si on n'observe pas quel trou passent les électrons, ceux-ci arrivent dans l'état superposé 1/2[|1> + |2 >] (le facteur 2 et un facteur de normalisation).  Le principe de réduction du paquet d'ondes dit alors que la probabilité d'observer un impact à la position x est donné par:    [|<x|1>|² + |<x|A|²] + <1|x><x|2> + <2|x><x|1>]. Les deux termes supplémentaires (appelés termes croisés) sont ceux qui induisent la présence d'interférences entre les deux états |1> et |2> au sein de l'état superposé.

En conclusion, c'est le sens de la suggestion de Max Born pour l'interprétation qu'il convient de donner l'état |ψ> d'un système: c'est une amplitude de probabilité (La probabilité pour que , lors d'une mesure, on obtienne un résultat x et que le système soit projeté dans l'état propre associé à |x>, est égale au carré du module de la projection de l'état initial |ψ> sur l'état |x>. Si on note |Ψ(x)> la projection de |ψ> sur |x>, la probabilité d'obtenir x est alors |ψ(x) 2|).


En mécanique quantique ondulatoire, une amplitude de probabilité est une fonction à valeurs complexes associée à la probabilité de trouver le système dans un état particulier.

Soit une particule quantique. On la décrit par une fonction d'onde psi : mathbf{R}^3rightarrow mathbf{C}; cette fonction décrit l'état du système. Dans l'interprétation de Copenhague, l'interprétation majoritairement admise dans la communauté scientifique, on dit que les valeurs de ψ représentent des amplitudes de probabilité. Lors d'une mesure de la position d'une particule, la probabilité qu'elle soit dans un volume V est donnée par

int_V |psi(mathbf x)|^2,mathrm dmathbf x,

c'est-à-dire que | ψ | 2 représente la densité de probabilité de la position de la particule.

Cela confirme que l'état quantique ne représente plus la liste des valeurs possédées par les propriétés d'un système, mais un outil mathématique utilisé pour calculer les probabilités que les propriétés du système aient telle ou telle valeur. De plus, |Ψ> ne représente même pas directement une probabilité, c'est le carré de son module qui est une probabilité, c'est pour cela qu'on parle d'amplitude de probabilité. C'est ce qui a fait dire à Heisenberg: "La conception de la réalité objective des particules élémentaires s'est donc étrangement dissoute, non pas dans le brouillard d'une nouvelle conception de la réalité obscure ou mal comprise, mais dans la clarté transparente d'une mathématique qui ne représente plus le comportement de la particule élémentaire, mais la connaissance que nous en possédons."


2) Les théories à variables cachées et la non-séparabilité.


www.lilaluz.net

a) La complétude de la mécanique quantique.  Dès le début, l'abandon d'un grand nombre de caractéristiques propres à la physique classique provoqua l'opposition entre deux conceptions.  D'une part celle d'Einstein, Schrödinger et De Broglie qui restent attachés à un physique réaliste dans laquelle les objets ont une existence "en soi", des propriétés bien définies qui ne dépendent nullement du processus d'observation et tels qu'une prédiction non probabiliste des résultats reste, au moins en principe, possible. C'est le sens de la célèbre affirmation d'Einstein: "Dieu au moins, ne joue pas aux dés". Pour Einstein, puisque l'état quantique ne permet pas aux différentes propriétés d'un système de posséder des valeurs simultanément, alors que, selon lui, il va de soi que ces propriétés ont "en réalité" des valeurs définies, c'est que le formalisme quantique est incomplet. Une théorie , pour être complète doit avoir la propriété qu'à chaque élément de la réalité physique corresponde un élément de la théorie. La mécanique quantique, devrait donc se voir compléter par des éléments supplémentaires permettant de rétablir une connaissance précise de l'ensemble des propriétés d'un système: ce sont les variables cachées.

D'autre part, celle dite de "l'école de Copenhage", principalement défendue par Bohr et Heinsenberg. En gros, elle accepte les étrangetés telles quelles. L'interprétation de Copenhague consiste, pour résoudre un problème, à simplement appliquer les postulats de la mécanique quantique pour prédire le résultat. Même si le résultat est choquant pour l'intuition (paradoxe EPR), les adeptes de Copenhague considèrent que si la mécanique quantique a prédit correctement l'issue, elle se suffit à elle-même ; il n'est pas nécessaire d'introduire des variables cachées. Il n'y a pas non plus à tirer des conclusions sur la nature de l'univers : l'issue est contenue dans les postulats, il n'y a pas d'autre conclusion à en tirer. se poser des questions sur ce qui se passe "réellement" entre deux mesures n'est pas pertinent. seule importe la connaissance de ce qui est mesurable, le reste est dépourvu de sens. Cette pensée est à rapprocher de l'Empirisme, on peut la qualifier de d'instrumentaliste ou de positiviste. Elle se satisfait de l'efficacité prédictive de la théorie et va même jusqu'à décréter dépourvue de sens toute question qui ne se réfère pas à un phénomène observable.

Précédents historiques: Sans doute pour avoir la paix, Nicolas Copernic prit soin de deux choses : d’une part ne publier qu’à titre posthume, d’autre part mentionner que la relativité dont il parlait constituait avant tout un moyen commode de simplifier les calculs par rapport à la théorie des épicycles utilisée à son époque, sans chercher à se prononcer sur une quelconque réalité sous-jacente.
Cette considération de Copernic annonce déjà l’attitude qui sera plus tard celle de l’École de Copenhague en mécanique quantique : décrire, sans nécessairement prétendre expliquer, et s’en tenir aux faits observables. Hypotheses non fingo, dira Isaac Newton : « Je n’avance pas d’hypothèses », je constate juste pour le moment que les choses fonctionnent ainsi. Richard Feynman prend soin d’enseigner la mécanique quantique avec la même prudence dans son cours, tout en déplorant le côté frustrant et non satisfaisant pour l’esprit de la chose
.

Ce désaccord fondamental éclate violemment lors de la parution en 1935 d'un article d'Einstein, Podolski et Rosen (paradoxe EPR) qui suggèrent une expérience destinée à mettre en défaut le caractère de complétude de la mécanique quantique. Il est habituellement présenté sous une forme plus simple proposée par Bohm.


Le paradoxe EPR, abréviation de Einstein-Podolsky-Rosen, est une expérience de pensée, élaborée par Albert EinsteinBoris Podolsky et Nathan Rosen, dont le but premier était de réfuter l'interprétation de Copenhague de la physique quantique.

L'interprétation de Copenhague s'oppose à l'existence d'un quelconque état d'un système quantique avant toute mesure. En effet, il n'existe pas de preuve que cet état existe avant son observation et le supposer amène à certaines contradictions. Voir dans fr.wikipedia.org/wiki/Intrication_quantique Le caractère surprenant des états intriqués souligné par EinsteinPodolsky et Rosen dans leur article de 1935

(Voir aussi le très intéressant texte suivant: "Interprétation de la physique quantique : La physique quantique est-elle une théorie complète ? Philippe Cristofari, Frédéric Elie, Colette Garaventa. juin 1980")


Présentation du critère de réalité par Einstein: "Si, sans perturber le système en aucune manière, on peut prédire avec certitude la valeur d'une quantité physique qui s'y rapporte, alors il y a vraiment un élément de la réalité physique qui correspond à cette quantité."

(voir dans wikipedia:) Le "dispositif expérimental" (de pensée) proposé en 1935 est assez complexe, mais peut être décrit de manière plus simple sans en changer l'esprit.

Soit deux photons P1 et P2 intriqués (voir ci-dessus, intrication quantique) de manière à avoir un moment angulaire total égal à zéro (spins anti-corrélés ou état singulet). Les deux quantités physiques non-commutables utilisée dans le raisonnement sont : 1) Le spin mesuré selon une direction Sx 2) Le spin mesuré selon une autre direction Sz.

Si on mesure P1 selon Sx, alors - sans aucunement perturber P2 (on suppose le principe de localité) on connaît nécessairement la mesure de P2 selon cet axe (l'opposé).

De même, si on mesure P2 selon Sz, alors - sans aucunement perturber P1, on connaît nécessairement la mesure de P1 selon cet axe (l'opposé également).

Donc, la mesure de P1 selon un axe et de P2 selon l'autre permet de prédire avec certitude la valeur des deux quantités physiques. Ces deux quantités possèdent donc une réalité objective, et par conséquent 2) est faux et 1) est vrai.

Tel est le paradoxe formulé initialement par EPR.

Inégalités de Bell (source Wikipédia). Exemple de 2 particules 1 et 2 de spin 1/2 dans un état singulet et qui se séparent dans deux directions opposées.

Les résultats des mesures ne sont pas nécessairement identiques sur les deux particules. Par exemple, on peut mesurer le spin d'une des particules selon un certain angle et le spin de l'autre particule selon un autre angle.

Les résultats des mesures sont alors de nature statistique. Par exemple, la mesure du spin à l'aide d'un polariseur donne toujours un résultat tout ou rien. Ce que l'on obtiendra alors pour les deux mesures sont des statistiques de coïncidences : les deux mesures donnent un résultat identique dans X% des cas (et non 100% dans le cas de mesures identiques). Un grand nombre de mesures successives (sur un grand nombre de paires de particules) permet alors de calculer la corrélation entre ces mesures de spin sous des angles différents.

Si l'on se place dans l'hypothèse des théories locales déterministes à variables cachées, les inégalités de Bell donnent des relations auxquelles ces corrélations doivent obéir.

Nous allons démontrer ces inégalités dans un cas un peu plus simple que celui d'un angle quelconque afin de bien montrer l'origine du raisonnement.

Soit deux particules α et β dont le spin a trois composantes A, B et C. Les composantes peuvent prendre deux valeurs + et - (on omet le facteur 1/2). Pour chaque composante, nous noterons les valeurs A + , B − , etc. Les deux particules ont des spins opposés. Lorsque α a la composante A + , alors β a la composante A − , etc.

On mesure des paires de valeurs AB, AC et BC sur les deux particules. Le résultat des mesures est désigné par A + C − , etc.

Si l'état des particules est déterministe, décrit par des variables cachées, alors chaque particule a un spin parfaitement déterminé avec des composantes A, B et C précises. Même si les variables cachées ne sont pas connues avec exactitude, et donc le spin, il n'empêche que cette valeur précise existe.

Soit un ensemble de particules dans un état de spin donné pris dans un ensemble plus vaste, quelconque, de particules dans tous les états possibles. Par exemple est l'ensemble des particules avec ces composantes,  l'ensemble des particules avec ces composantes, ...

Alors nous aurons :

et

Ces relations découlent tout simplement de la théorie des ensembles. Donc:

Si  désigne le nombre de particules dans cet état, alors :

Maintenant, nous effectuons nos mesures sur deux particules de spins opposés et ces particules sont émises sous forme d'un flux de particules de spins quelconques. Nous en déduisons que :

où  est la probabilité de mesurer A + sur l'une des particules et B + sur l'autre.

C'est un exemple d'inégalité de Bell.

Dans le cas de la mesure du spin selon un angle quelconque, on n'utilise que deux composantes du spin et l'angle entre les composantes. Le calcul est un peu plus compliqué mais semblable. Le résultat est :

ou α, β et γ sont des angles donnés aux polariseurs et  est la fonction de corrélation pour ces deux angles (la corrélation peut être négative).

 

Dans le cas de la mécanique quantique, si l'angle du premier polariseur est α et l'angle du deuxième polariseur est β, alors le calcul (identique à la probabilité de mesurer le spin selon l'angle α alors que l'on sait que le spin a été mesuré selon l'angle β) donne :

Comme on mesure des coïncidences, la fonction de corrélation est alors donnée par :

On voit que les inégalités de Bell sont violées pour, par exemple, des angles égaux à  et .

L'expérience (par exemple celle d'Alain Aspect) a largement confirmé ces résultats et aussi que la loi de Malus était vérifiée sur des photons individuels.

 

Analyse du problème. Dans le formalisme quantique, un état singulet s'écrit: 1/2[ |A+>z |B->z - |A->z |B+>z]. (A et B étant les deux photons et leurs états correspondant à une valeur +/- 1/2 suivant Oz ). Supposons que le système soit initialement au repos et qu'à l'instant t = 0, il se désintègre. Chaque particule part dans un sens opposé (loi de la conservation de l'impulsion). Mesurons à l'instant t le spin de A suivant Oz. Si on trouve +1/2, une mesure de B suivant Oz devra donner -1/2 puisque le spin total est nul (conservation du moment cinétique), et vice versa. On peur donc prédire avec certitude quel sera le spin de B suivant Oz si on mesure celui de A, et ceci sans faire aucune mesure sur B qui peut être très éloigné de A au moment de cette mesure. Cela permet de penser que l'on n'a pas perturbé B. C'est donc que le spin de B suivant Oz a réellement cette valeur, et que, selon le critère proposé, un élément de réalité correspond à ce spin. Un mesure du spin aurait pu être faite suivant n'importe quel axe. La conclusion est que, contrairement à ce que prétend la mécanique quantique, le spin de B possède une valeur définie simultanément suivant tous les axes, c'est donc une théorie incomplète. Après la désintégration, et avant la mesure, le système est déjà dans un des deux états |A+>z |B->z - ou |A->z |B+>z. On a vu précédemment que l'état initial du singulet est 1/2[ |A+>z |B->z - |A->z |B+>z ]. Comment concilier ces deux aspects? Le système n'autorisant que des prédictions probabilistes, peut-on dire le système est composé de N2 systèmes dans l'état |A+>z |B->z et de n/2 systèmes dans l'état |A->z |B+>z? Comme on l'a déjà dit, ce n'est pas légitime présenter les choses ainsi pour l'état superposé du singulet. Nous semblons nous heurter à une contradiction.

Si on accepte l'argument d'Einstein, podolski et Rosen, il faut en conclure que le formalisme de la mécanique quantique est incomplet. De plus, pour sortir de la contradiction concernant l'état dans lequel se trouve le système total avant toute mesure, cet argument semble imposer une modification du formalisme: est-ce l'état singulet ou l'un des deux états de spin définis? Si au contraire, compte tenu de ses résultats jamais mis en défaut, on met en doute le fait que la mécanique quantique peut produire un résultat contradictoire, il faut identifier la faille.


c) la réponse de Bohr.

Ce dernier a fourni une réponse dès 1935: pour lui, on ne peut parler de l'existence d'un système et de ses propriétés indépendamment d'instruments de mesure susceptibles d'interagir avec lui. Une propriété physique n'appartient pas à un système microscopique, mais à l'ensemble constitué par le système et l'appareil de mesure. Ce n'est que par commodité de langage que nous attribuons la propriété mesurée au système lui-même. Bohr admet bien sûr que la mesure du spin n'affecte pas B de manière mécanique, par une quelconque perturbation physique au sens habituel, mais sa conclusion est beaucoup dévastatrice pour la conception intuitive: avant la mesure du spin, les deux particules A et B, bien que spatialement séparées par une distance éventuellement très grande, ne forment pas deux entités séparées. L'ensemble constitué par les deux particules est dans l'état singulet 1/2[ |A+>z |B->z - |A->z |B+>z ], mais ni la particule A ni la particule B ne possède individuellement d'état défini. Seul le système possède un état, cet état singulet. L'écart se creuse ici entre les états classiques et les états quantiques: un objet quantique peut n'être dans aucun état. Lorsque deux systèmes ont interagi, seul le système global est dans un état définiC'est ce qu'on appelle "la non-séparabilité" ou "l'inséparabilité quantique". Il est hors de question d'avoir une représentation intuitive ou imagée d'une telle propriété, elle est trop radicalement en dehors de notre expérience macroscopique.

La solution du paradoxe consiste donc à considérer qu'avant la mesure du spin de A, l'ensemble des deux particules est dans l'état singulet et qu'aucune des deux particules ne possède d'état défini. Lorsque la mesure est effectuée, A acquiert un état individuel qui peut être |A+>z ou |A->z et corrélativement B acquiert l'état |B->z ou |B+>z. Il n'y a plus de contradiction, mais en contrepartie, il faut admettre que la mesure du spin de A permet à B, qui peut être très éloigné, d'acquérir instantanément un état individuel (on ne viole pas le principe de relativité car il est possible de montrer qu'aucune énergie ni information ne peut être transmise de cette manière). Ce qui est encore plus étrange, c'est qu'il en est de même pour la position des 2 particules. A et B forment donc un tout inséparable avant toute mesure et sont séparés par la première mesure effectuée. On peut même se demander s'il convient de parler d'objet à propos de chacune des 2 particules tant que celles-ci n'ont pas été séparées par une mesure sur l'une d'entre elles.


d) Les théories à variables cachées.

Cet aspect contre-intuitif de la non-séparabilité n'a pas satisfait ceux des physiciens qui s'opposaient déjà à la mécanique quantique. Ils ont recherché des formalismes différents pour revenir à des comportements plus raisonnables des systèmes physiques avec le désir de rétablis le déterminisme (c'est le sens de la remarque d'Einstein). Mais l'accent a ensuite porté sur les aspects ontologiques. Le défi consiste à construire une théorie qui ne possède pas les propriétés indésirables de la mécanique quantique mais avec les contraintes de fournir les mêmes prédictions. L'idée initiale consiste à supposer que l'état quantique d'un système, qui ne fournit que des contraintes statistiques sur les résultats de mesure, représente une moyenne d'états individuels bien déterminés auxquels on peut associer des valeurs définies des grandeurs. L'état est alors complété par une ou plusieurs variables "cachées" dont la connaissance permettrait de prédire avec certitude la valeur de grandeurs mesurées.  Par exemple: si à un état |Ψ> du formalisme quantique orthodoxe prédit que la variable A peut être a1 avec la probabilité p1 ou a2 avec la probabilité p2, la théorie à variables cachées complétera la description de l'état du système en associant à |Ψ> une variable λ qui pourra valoir +1 ou -1. Si le système est dans l'état |Ψ, +1>, la mesure de A donnera obligatoirement la valeur a1, et si le système est dans l'état |Ψ, -1>, la mesure donnera obligatoirement la valeur a2. Le formalisme quantique n'utilisant que |Ψ> sera donc incomplet puisqu'il ignorera le fait qu'il est possible de donner une description plus fine de l'état. On rétablit ainsi le déterminisme car dans un tel état (dit "sans dispersion", la valeur de l'observable est définie précisément et la connaissance de l'état complet permet de prédire avec certitude le résultat de la mesure.

La thermodynamique donne en ce sens des prédictions qui sont des moyennes effectuées sur des états que la mécanique statistique spécifie complètement. Louis de Broglie pensait ainsi que la mécanique quantique est la thermodynamique de d'un milieu subquantique. Il a proposé une première théorie de ce type (à variables cachées) en utilisant la dualité onde-corpuscule et en proposant que toute particule soit accompagnée d'une onde qui la guiderait dans son trajet., appelée "théorie de l'onde pilote". Cette théorie donnait une explication simple de l'expérience des trous d'Young. Mais son aspect séduisant présente des difficultés: elle ne transporte aucune énergie mais peut cependant interagir avec l'électron qu'elle guide. De plus, elle ne peut décrire des systèmes de plusieurs particules. De Broglie l'a finalement abandonnée, mais elle fut développée sous un angle différent par David Bohm (Dans un prochain article, cette théorie sera reprise dans le cadre d'une analyse du problème de la mesure et des discussions ontologiques).

De son côté, Von Neumann a énoncé une preuve mathématique selon laquelle aucune théorie à variables cachées ne peut reproduire toutes les prédictions de la mécanique quantique. Elle a abouti à l'abandon de la recherche d'une telle théorie jusqu'à ce qu'on mette en évidence une faille dans son argument. Parmi ces théories, dans celles qu'on appelle "théories locales", les propriétés des systèmes sont déterminées par des facteurs qui ne dépendent pas d'entités éloignées du système lui-même peuvent fournir des prévisions globalement analogues à celles de la mécanique quantique à certaines exceptions près qui, en fait, ont permis de réfuter ces théories.


e) Le verdict expérimental: les inégalités de Bell.

L'expérience EPR était une "expérience de pensée" destinée à mettre en évidence des conséquences des conséquences du formalisme mais sans produire aucun effet expérimental testable. C'est Jonh Bell qui dans un célèbre article de 1964 amena la controverse sur le terrain expérimental. Il a montré que toute théorie qui suppose un "comportement local" et qui refuse la "non-séparabilité" est en désaccord avec le mécanique quantique concernant le résultat de certaines mesures corrélées. Ce désaccord est manifesté par une inégalité respectée par les théories locales et violée par la mécanique quantique. Le seule hypothèse faite par Bell est que la théorie en question vérifie le principe de causalité locale selon lequel, la probabilité d'évènements se produisant dans une certaine région de l'espace-temps n'est pas modifiée par un information se produisant dans une autre région  si ces deux régions sont séparées par un intervalle du genre espace (Aucun signal ne peut se propager de l'une à l'autre).


Inégalité de Bell (source wikipédia).

Reprenons l'exemple de deux particules 1 et 2 dans un état singulet, qui se séparent dans deux directions opposées. Les résultats des mesures ne sont pas nécessairement identiques sur les deux particules. Par exemple, on peut mesurer le spin d'une des particules selon un certain angle et le spin de l'autre particule selon un autre angle.

Les résultats des mesures sont alors de nature statistique. Par exemple, la mesure du spin à l'aide d'un polariseur donne toujours un résultat tout ou rien. Ce que l'on obtiendra alors pour les deux mesures sont des statistiques de coïncidences : les deux mesures donnent un résultat identique dans X% des cas (et non 100% dans le cas de mesures identiques). Un grand nombre de mesures successives (sur un grand nombre de paires de particules) permet alors de calculer la corrélation entre ces mesures de spin sous des angles différents.

Si l'on se place dans l'hypothèse des théories locales déterministes à variables cachées, les inégalités de Bell donnent des relations auxquelles ces corrélations doivent obéir.

Nous allons démontrer ces inégalités dans un cas un peu plus simple que celui d'un angle quelconque afin de bien montrer l'origine du raisonnement.

Soit deux particules α et β dont le spin a trois composantes A, B et C. Les composantes peuvent prendre deux valeurs + et -. Pour chaque composante, nous noterons les valeurs A + , B − , etc. Les deux particules ont des spins opposés. Lorsque α a la composante A + , alors β a la composante A − , etc.

On mesure des paires de valeurs AB, AC et BC sur les deux particules. Le résultat des mesures est désigné par A + C − , etc.

Si l'état des particules est déterministe, décrit par des variables cachées, alors chaque particule a un spin parfaitement déterminé avec des composantes A, B et C précises. Même si les variables cachées ne sont pas connues avec exactitude, et donc le spin, il n'empêche que cette valeur précise existe.

Soit un ensemble de particules dans un état de spin donné pris dans un ensemble plus vaste, quelconque, de particules dans tous les états possibles. Par exemple  est l'ensemble des particules avec ces composantes,  l'ensemble des particules avec ces composantes (pour une particule, il existe donc 8 états possibles), ... Alors nous aurons :

et

Ces relations découlent tout simplement de la théorie des ensembles. Donc :

Si  désigne le nombre de particules dans cet état, alors

Comme Il n'est pas possible de mesurer simultanément les composantes suivant les 2 axes du spin d'une particule et donc de tester directement cette inégalité, on peut l'écrire sous la forme n(A1+B2-) ≤ n(A1+C2-) +n(B1+C2+). Cette inégalité, elle, est testable puisqu'elle ne nécessite qu'une seule mesure de spin suivant B pour la particule 2.

Maintenant, nous effectuons nos mesures sur deux particules de spins opposés et ces particules sont émises sous forme d'un flux de particules de spins quelconques. Nous en déduisons que :

où  est la probabilité de mesurer A + sur l'une des particules et B + sur l'autre.

C'est un exemple d'inégalité de Bell.


Dans le cas de la mesure du spin selon un angle quelconque, on n'utilise que deux composantes du spin et l'angle entre les composantes. Le calcul est un peu plus compliqué mais semblable. Le résultat est :

où α, β et γ sont des angles donnés aux polariseurs et  est la fonction de corrélation pour ces deux angles (la corrélation peut être négative).

L'inégalité de Bell découle directement de l'hypothèse , respectée par les théories locales, selon laquelle une particule possède des composantes de spin simultanément définies suivant tous les axes. Or, il se trouve que la mécanique quantique prédit que pour certaines orientations des axes A, B, C, l'inégalité ne sera pas respectée. Dès 1972, des expériences furent menées, mais le montage était redoutablement complexe et l'inégalité ne put être testée directement. La plupart d'entre elles ont montré que l'inégalité est violée, mais jusqu'en 1982, il était encore possible aux partisans des théories à variables cachées de de faire appel à un argument pour sauver leurs conceptions: la direction de mesure était choisie suffisamment tôt pour permettre un éventuel échange d'informations entre les appareils. Il n'était donc pas impossible d'imaginer un hypothétique mécanisme par lequel, une fois toutes les directions de mesure choisies, une influence se propage d'un appareil à l'autre à une vitesse inférieure à celle de la lumière, informant l'appareil de mesure de la particule 1 de la direction choisie pour la mesure sur la particule 2. Cette possibilité a été définitivement écartée par les expériences menées par Alain Aspect (1980-1982)

(source wikipédia): En 1980, il manquait donc encore une expérience décisive vérifiant la réalité de l'état d'intrication quantique, sur la base de la violation des inégalités de Bell (rappel sur l'intrication quantique: L'intrication quantique est un phénomène qui a été pour la première fois mis en évidence par Erwin Schrödinger en 19351. La mécanique quantique stipule que deux systèmes quantiques différents (deux particules par exemple) ayant interagi, ou ayant une origine commune, ne peuvent pas être considérés comme deux systèmes indépendants. Dans le formalisme quantique, si le premier système possède un état |psirangle et le second un état |phirangle, alors le système intriqué résultant est représenté par une superposition quantique du produit tensoriel de ces deux états : |psirangle|phirangle. Dans cette notation, il apparaît nettement que l'éloignement physique des deux systèmes ne joue aucun rôle dans l'état d'intrication (car il n'apparaît aucune variable de position). L'état quantique intriqué reste identique — toutes choses étant égales par ailleurs — quel que soit l'éloignement des deux systèmes. Par conséquent, si une opération de mesure est effectuée sur ce système quantique intriqué, alors cette opération est valable pour les deux systèmes composant l'intricat : les résultats des mesures des deux systèmes sont corrélés.

Alain Aspect a spécifié son expérience pour qu'elle puisse être la plus décisive possible, c'est-à-dire :

Elle doit avoir une excellente source de particules intriquées, afin d'avoir un temps d'expérience court, et une violation la plus nette possible des inégalités de Bell.

Elle doit mettre en évidence non seulement qu'il existe des corrélations de mesure, mais aussi que ces corrélations sont bien dues à un effet quantique (et par conséquent à une influence instantanée), et non à un effet classique qui se propagerait à une vitesse inférieure ou égale à celle de la lumière entre les deux particules.

Le schéma expérimental doit être le plus proche possible du schéma utilisé par John Bell pour démontrer ses inégalités, afin que l'accord entre les résultats mesurés et prédits soit le plus significatif possible.

"Source wikipédia": Rappel du schéma « idéal » de John Bell

 

 

 

 

Le schéma ci-dessus représente le schéma de principe a partir duquel John Bell a démontré ses inégalités : une source de photons intriqués S émet simultanément deux photons ν1 et ν2 dont la polarisation est préparée de telle manière que le vecteur d'état de l'ensemble des deux photons soit :

Cette formule signifie tout simplement que les photons sont en état superposé : tous les deux en polarité verticale, ou tous deux en polarité horizontale, perpendiculaire, avec une probabilité égale.

Ces deux photons sont ensuite mesurés par deux polariseurs P1 et P2, chacun ayant un angle de mesure paramétrable α et β. Le résultat de la mesure de chaque polariseur est (+) ou (-) selon que la polarisation mesurée est respectivement parallèle ou perpendiculaire à l'angle de mesure du polariseur.

Il y a un point important à souligner ici : les polariseurs imaginés dans cette expérience idéale donnent un résultat mesurable dans le cas (+) ET dans le cas (-). Ce n'est pas le cas de tous les polariseurs réels : certains détectent le cas (+) par exemple, et ne détectent rien (le photon ne ressort pas du polariseur) pour le cas (-). Les premières expériences, relatées ci-dessus, utilisaient ce genre de polariseur. Les polariseurs utilisés par Alain Aspect détectent bien les deux cas (+) et (-), se rapprochant ainsi de l'expérience idéale.

Etant donné le dispositif et l'état de polarisation initial donné aux photons, la mécanique quantique permet de prédire les probabilités de mesurer (+,+), (-,-), (+,-) et (-,+) sur les polariseurs (P1,P2), orientés sur les angles (α,β) ; pour rappel :

On peut démontrer (voir article Inégalités de Bell) que la violation maximale des inégalités est prévue pour |α-β| = 22°5

 

Polariseurs à orientation variable et en position éloignée: Un point très important qui devait être testé par cette expérience est qu'il fallait s'assurer que les corrélations entre les mesures faites par P1 et P2 ne soient pas induites par des effets d'origine « classique », et notamment par des artefacts expérimentaux.

Par exemple, si l'on prépare les polariseurs P1 et P2 avec des angles fixes donnés α et β, on peut toujours imaginer que cet état fixe génère des corrélations parasites via des boucles de courant, de masse, ou autres effets. Car les deux polariseurs font partie d'une même installation et peuvent très bien être influencés l'un l'autre via les divers circuits du dispositif expérimental, et générer des corrélations lors de la mesure.

On peut également imaginer que l'orientation fixe des polariseurs influe, d'une manière ou d'une autre, sur l'état avec lequel le couple de photons est émis. Dans ce cas, les corrélations de mesure pourraient s'expliquer par des variables cachées au niveau des photons, dès l'émission. (Ces observations avaient été faites à Alain Aspect par John Bell lui-même).

Une manière incontestable de mettre hors de cause ce genre d'effets — quels qu'ils soient — est que l'orientation (α,β) des polariseurs soit déterminée au dernier moment (après l'émission des photons, et avant la détection) et qu'ils soient suffisamment éloignés l'un de l'autre pour qu'aucun signal n'aie le temps d'aller de l'un à l'autre.

De cette manière, on ne peut invoquer ni une influence de l'orientation des polariseurs au niveau de l'émission des photons (car lors de l'émission, l'orientation est encore indéterminée), ni une influence d'un polariseur sur l'autre (car les polariseurs sont trop éloignés l'un de l'autre pour pouvoir s'influencer).

En conséquence, dans le dispositif expérimental d'Aspect, les polariseurs P1 et P2 étaient séparés de 6m de part et d'autre de la source, et de 12m l'un de l'autre. Cela donnait un temps de 20ns entre l'émission des photons et la détection : c'est le laps de temps extrêmement court pendant lequel il fallait décider de l'orientation et orienter les polariseurs.

Comme il est physiquement impossible de changer matériellement l'orientation d'un polariseur dans ce laps de temps, deux polariseurs par côté ont été utilisés, pré-orientés différemment. Un « aiguillage » à très haute fréquence de basculement orientait aléatoirement le photon vers l'un ou l'autre de ces polariseurs. L'ensemble de ce dispositif était équivalent à un seul polariseur dont l'angle de polarisation bascule aléatoirement.

Comme il n'était pas possible non plus de provoquer le basculement des aiguillages par l'émission du couple de photons, chaque aiguillage basculait en fait périodiquement avec une période de 10ns, de manière asynchrone avec l'émission des photons. Mais étant donné la période, on était assuré que l'aiguillage bascule au moins une fois entre l'émission d'un photon et sa détection.

 

Le dispositif expérimental a été conçu pour que la direction de mesure de la particule 2 soit choisie à un moment où il est trop tard pour qu'un signal, même se propageant à la vitesse de la lumière puisse influence la mesure de la particule 1. Le verdict expérimental est sans appel: toute théorie à variables cachées locale est réfutée par l'expérience. La séparabilité, c'est à dire le fait qu'une mesure effectuée par un instrument sur une particule ne peut influencer le résultat d'une mesure faite par un autre instrument éloigné sur une particule ayant interagi avec la première, doit être abandonnée.


3) Résumé et conclusions.

Non séparabilité. Si une théorie est locale, les mesures de corrélation portant sur certaines de ses grandeurs doivent vérifier les inégalités de Bell. Les prédictions de la mécanique aboutissent à une violation de ces inégalités, or l'expérience montre que ces inégalités sont bien violées.

Deux positions sont alors possibles:

- Position des défenseurs des théories à variables cachées non locales: continuer à admettre que les propriétés d'un système peuvent être toutes simultanément définies, mais alors il faut accepter le fait que les propriétés d'une particule peuvent influencer instantanément celles d'une autre particule ayant interagi avec elle.

- Rejeter le fait que les propriétés d'un système sont simultanément définies et accepter le formalisme de la mécanique quantique.

Dans les deux cas, il est nécessaire d'admettre que certaines propriétés ou certains évènements peuvent s'influencer instantanément, quelle que soit la distance entre eux. Mais les théories à variables cachées locales (comme toutes les théories locales) sont de toute façon réfutées par l'expérience. Cette propriété est appelée "non-séparabilité" lorsque elle s'applique à la mécanique quantique et "non-localité" lorsqu'elle s'applique aux variables cachées non locales. En mécanique quantique, elle exprime que des systèmes qui ont interagi ne peuvent être indépendants tant qu'une mesure ne les a pas séparés, même s'ils sont à très grande distance l'un de l'autre (cas de l'état singulet) et aucun d'eux ne possède d'état individuel. Dans les théories à variables cachées on locales, on suppose au contraire que chaque particule possède des propriétés bien définies, mais qui ne sont pas indépendantes l'une de l'autre. la non-localité exprime donc ici la possibilité d'influences à distance instantanées de certaines propriétés sur d'autres (comme le dirait Michel Bitbol, la non-localité est une projection ontologique de la non-séparabilité).

 

Contextualisme. Un autre théorème important de limitation est celui de Kochen et Specker qui montre que toute théorie à variable s cachées déterministe compatible avec la mécanique quantique doit être contextualiste. Prenons un exemple. Soit un système physique S et 3 observables A, B, C telles que B et C sont compatibles avec A mais pas entre elles. Supposons qu'on mesure simultanément A et B ou A et C. Dans une théorie à variables cachées déterministe, on s'attend à ce que la mesure de A dépende de l'état global du système, mais pas du choix (B ou C) de l'autre observable mesurée, donc à ce que la mesure d'une observable ne dépende pas du contexte. Une telle théorie est appelée "non contextualiste". Comme le dit D'Espagnat, "Les conditions qui définissent les types de possibles de prédictions concernant le comportement futur des systèmes quantiques sont partie inhérente de la description de tout phénomène auquel la'expression "réalité physique" peut valablement être attachée". On retrouve ici la réfutation par Bohr du paradoxe EPR. Il suggérait seulement l'existence d'une influence sur les types de prédictions qu'on pouvait faire (position...). Ici l'influence sur les valeurs même des grandeurs dynamiques. Toute théorie reproduisant les prédictions de la mécanique quantique doit donc être non locale et contextualiste.On est alors loin de la motivation originelle qui a présidé à la construction des théories à variables cachées.


Dans le prochain article, nous reviendrons sur le problème de la mesure avec le rôle de la conscience et les différentes solutions qui y ont été apportées et les conséquences philosophiques.


20:18 Écrit par pascal dans les limites de la connaissance | Lien permanent | Commentaires (3) | |  del.icio.us | | Digg! Digg |  Facebook

Commentaires

Bonjour,
Vos articles sont très intéressants mais s’adressent à des spécialistes, c. à d. à très peu de personnes.

En complément, peut-être serait-il possible de rappeler à celles qui connaissent la notion d’espace vectoriel, qu’elles ont eu l’occasion de démontrer qu’un élément vivant dans un espace vectoriel E de dimension « n » ne peut avoir la moindre conscience de ce qui se passe dans un espace F incluant E et de dimension « n+ 1 !

Quant à la majorité (celles qui ont tout oublié ou qui n’ont jamais rencontré ce genre de problème), pourquoi ne pas leur présenter une sorte de parabole (non divine !) ou exercice qui explicite simplement des propos concernant les limites mentales des homo sapiens (qui se croient créés à l’image de Dieu !).

Il propose de disposer 6 allumettes (figurant 6 segments de même longueur) sur une table plate illustrant un plan de manière à configurer 4 triangles équilatéraux ayant pour côtés ces 6 segments.
Si on est obligé d'abandonner la recherche de ce problème sans solution dans le plan (qui est de dimension 2 : en bref, longueur, largeur) ; l'idée consistant à décoller, à se mouvoir dans l'espace traditionnel (de dimension 3 : en bref, longueur, largeur, hauteur), aboutit de suite à la construction d'une pyramide triangulaire de type équilatérale formée des 4 triangles souhaités.
N'est-il pas clair que l'organisme sans épaisseur se déplaçant sur un plan de dimension 2 ne peut pas avoir conscience de la notion de relief, inscrite seulement dans le système de dimension 3 ? !

***Nous qui connaissons depuis (en 2005) les résultats de l’évaluation comparative de notre génome et de celui du chimpanzé, c. à d. la mise en évidence d’une différence voisine de 1 %, qui savons donc que nous ne sommes que des sortes de « bonobos boostés », pourquoi serions-nous les « chefs-d’œuvre » de l’Univers, donc de la dimension extrême, celle qui permet de tout comprendre ? !

Écrit par : Pierre Payen Dunkerque | 15/12/2011

Merci pour votre commentaire que je partage. J'espère qu'il sera lu par beaucoup.
Pour le moment, je m'instruit en partageant ce que j'apprends. Votre commentaire va certainement me permettre de construire des articles qui vont plus dans le sens de ce que vous dites. Je vous suggère d'écrire aussi vos articles qui devraient être passionnants. Merci.

Écrit par : thomasson | 15/12/2011

Bonjour,
Vous devriez retrouver ce texte à un autre endroit (6.5) atteint en cliquant sur votre nom ..., ne trouvant pas de fenêtre de réponse (contrairement à maintenant ! Pourquoi ? )

(Le masculin neutre est utilisé)

***A noter que c’est vous qui veniez de m’inviter à ajouter d’autres facettes de mon appréhension de la vie !

Jusqu’en l’an 2000, je trouvais, la vie absurdement injuste quoique la théorie des espaces vectoriels (déjà signalée) laissait entrevoir une sortie positive …
Des nouvelles informations viennent relativiser ce jugement.

A) Les ouvrages de Henri Laborit, tels « Eloge de la fuite », « Biologie et structure, etc., m’avaient déjà beaucoup plus apporté que tout le reste (à part les maths !)

B) Le principe de Pareto, entre autres, m'a permis de concevoir la vie d'une autre façon, de nettement mieux la comprendre. Je l’ai découvert dans un article de Fabien Gruhier Nouvel Observateur - N°1875 Copyright © 2000 Le Nouvel Observateur (V. sa présentation).
… Au départ, fin 19e siècle, un économiste sociologue Alfredo de Pareto constata l’existence d’un phénomène curieux : en général 20 % de la population aisée d’un pays voisinait plus ou moins pacifiquement avec les 80 % plus pauvres.
Voici une présentation succincte du principe de Pareto qui s'applique constamment quoique rarement pris en compte !
(Titre de l’article retrouvé sur Internet)
« Mettez 500 singes dans une salle des marchés...
Les mathématiques de la fortune »
Deux physiciens ont trouvé une équation qui décrit très exactement la répartition des richesses dans une population. Leur conclusion : pour devenir riche, le hasard suffit.

Dans la nature comme dans les activités humaines, dans la physique fondamentale comme dans l'économie de marché, bref, partout, on trouve en gros deux types de distribution statistique : 1) la courbe de Gauss, dite «en cloche», avec une très forte majorité autour de la moyenne ; 2) la courbe en asymptote, où les valeurs extrêmes conservent une probabilité non négligeable. Exemple du premier cas: la taille des individus adultes, qui doit se situer en moyenne aux alentours de 1,70 mètre. Or au-dessous de 80 centimètres comme au-dessus de 2,5 mètres on ne trouve vraiment personne. Exemple du second cas : si le salaire moyen est, disons, de 8 000 francs, on compte quand même pas mal d'exclus qui gagnent zéro franc, et un nombre non négligeable de riches qui empochent des millions, ou des milliards.
Une relative justice sociale voudrait au contraire que la distribution des revenus adopte un profil en courbe de Gauss, mais rien à faire : déjà, voici plus de cent ans, l'ingénieur italien Vilfredo Pareto avait remarqué que dans tous les pays, à toutes les époques, 20% des individus possédaient environ 80% de la richesse. Il ne s'agissait que d'une simple observation, un constat aussi inéluctable qu'inexplicable. On ne savait pas pourquoi il en allait ainsi, mais on crut devoir s'y résigner : sous le nom de «principe de Pareto», l'injustice sociale fut promue au rang de loi naturelle, aussi inviolable que la gravitation universelle ou la vitesse de la lumière.
Mais (rêvons un peu) les choses pourraient changer. Ceci grâce à Jean-Philippe Bouchaud, physicien spécialiste de l'état condensé au CEA, et à Marc Mézard, du laboratoire de physique théorique de l'Ecole normale supérieure. Ces deux scientifiques viennent en effet de trouver l'explication du principe de Pareto. Ceci en épinglant une certaine équation, très commune en physique théorique, qui régit aussi bien les champs de vitesse dans les écoulements turbulents, la distribution des polymères dans un gel que l'influence des impuretés dans un supraconducteur. Or, à leur grande surprise, Bouchaud et Mézard ont réalisé que cette même équation - «très simple», disent-ils - régule aussi la distribution des richesses dans les sociétés humaines, et son degré d'inégalité. Sur cette base, ils ont conçu un modèle mathématique assez rudimentaire, l'ont fait tourner sur ordinateur. Et ont aussitôt retrouvé la distribution de Pareto : dans une population d'individus qui possédaient chacun la même somme au départ, la plus grande partie des biens matériels tombe toujours entre les mains d'une minorité.
Pourtant leur équation, très simple encore une fois, ne fait intervenir que le hasard. Elle ne laisse aucune place à un éventuel talent de l'individu pour s'enrichir. «Cela n'est pas nécessaire, puisqu'on arrive au même résultat», dit Bouchaud, ajoutant : «Mettez cinq cents singes qui gesticulent dans une salle des marchés. Aucun d'entre eux n'écrira jamais un poème digne d'Eluard, mais au bout d'un certain temps, il y en aura un aussi riche que George Soros. »
L'équation de Bouchaud et Mézard a fait l'objet d'une publication dans la revue spécialisée néerlandaise «Physica A», puis eut les honneurs de la une du célèbre hebdomadaire scientifique britannique «New Scientist». Pour décrire les fluctuations de fortune de l'individu i, elle ne fait appel qu'à deux termes: la «fréquence des échanges» (chaque individu achète et vend, même si ce n'est que sa force de travail), et l'«écart-type des placements spéculatifs» (comment il emprunte ou place son argent). La courbe asymptotique globale, qui combine tous les i pour décrire la répartition globale des fortunes, est fonction d'un certain facteur, collectif, exponentiel: E. Lequel E, selon le principe de Pareto, varie entre 2 et 3 (c'est un fait d'observation: on n'a jamais relevé, dans aucune société, un E inférieur à 2 ni supérieur à 3). Plus E est proche de 2, et plus la société est sauvagement inégalitaire (du genre 5% possèdent 95%). Plus E s'approche de 3, et plus la société est relativement juste (30% possèdent 70%).
Un objectif de justice sociale consiste donc à hisser le coefficient E le plus près possible de 3 (un E supérieur à 3 étant considéré comme utopique). Or il se trouve que, pour ce faire, il convient de multiplier les transactions. Plus les individus ont des échanges nombreux et variés avec des partenaires diversifiés librement choisis, et plus la richesse se dilue. On voit donc tout de suite que la libre concurrence, à l'inverse des monopoles et des intermédiaires obligés, joue en faveur de la justice sociale. Du côté des emprunts et placements, il n'y a pas grand-chose à faire, dans la mesure où la fortune permet de multiplier les mises, donc les gains. Et c'est ici que le hasard pèse le plus lourdement, car, «dans les placements boursiers, par exemple, il suffit d'avoir eu raison plusieurs fois par hasard pour s'enrichir vraiment beaucoup». D'où le nécessaire rôle correcteur de l'impôt progressif sur le revenu et sur la fortune, dont nos deux scientifiques justifient mathématiquement le rôle socialement bienfaiteur.
Mais attention! Il faut encore que l'impôt soit vraiment redistribué, sinon, même très fortement progressif, il ne fait que creuser les inégalités. Ainsi, lorsque le produit de l'impôt sert à rembourser des emprunts d'Etat, ou à financer de gros contrats, il retourne aussitôt - considérablement augmenté par la contribution des moins riches - dans les poches des plus riches.
Tel que, mathématiquement très simplifié et presque caricatural, le modèle proposé par Bouchaud et Mézard constitue déjà un outil qui pourrait être précieux pour la saine gestion de l'économie. Les deux scientifiques - à l'origine physiciens purs, et qui poursuivent d'ailleurs leurs recherches au CEA et à Normale sup - ont créé une société de services (Science Finance), que l'on peut consulter sur Internet (1), et qui, grâce à des travaux d'analyse de risques commandés par les banques, réussit à financer les recherches fondamentales de plusieurs thésards. Jean-Philippe Bouchaud regrette toutefois le peu d'empressement des acteurs de l'économie à utiliser leurs modèles, venus de la physique théorique et des écoulements turbulents, des acteurs qui ont l'air de dire: «De quoi se mêlent-ils?». «Parmi les économistes, dit Bouchaud, on n'aime pas la simulation, on préfère toujours les vieilles méthodes, jugées plus nobles, de la déduction pure et de la démonstration de théorèmes. » Alors qu'on pourrait faire tourner des modèles empiriques, même simplifiés, puis les perfectionner, et enfin s'en inspirer pour prendre les bonnes décisions dictées par l'intérêt général. Ah! Si Karl Marx avait été moins nul en maths, on n'en serait pas là...
(1) http://www.science-finance.com/

C) Le second bousculement mental s’est à peu près déclenché au même moment, en l’an 2000 aussi.
En 2000, cette annonce paraissait assez invraisemblable puisque reposant sur notre incapacité d’évoluer, de nous dépasser, de nous transformer, impliquant notre caractère « fractal » !
Si l’on suivait l’hypothèse 2080 concluant l’enquête statistique menée sur l’évolution à travers les âges de la planète par des chercheurs réputés (L. Nottale, J. Chaline, P. Grou) et consignée dans l’ouvrage « Les arbres de l’évolution » (Hachette, 2000), le résultat serait la découverte que des lois d’échelle universelles gouvernent peut-être l’évolution de la Vie, de l’économie ou du Cosmos. (L. Nottale est un spécialiste des fractales et directeur de recherches au CNRS, J. Chaline est directeur de recherches en Biogéosciences de l’Université de bourgogne, P. Grou enseigne les sciences économiques à l’Université de Versailles-Saint-Quentin.)
Ils se sont contentés d’émettre une hypothèse : si nous suivions les schémas évolutifs des dinosaures, des rongeurs, des chevaux, des primates, des échinodermes, des tremblements de terre, des krachs boursiers, etc., nous devrions rencontrer probablement avant 2080 la transformation la plus importante que toutes celles que l'homme moderne a connues depuis son apparition ; ... les changements qui en découleraient pourraient affecter globalement l'arbre évolutif …
Ci-joint un résumé :
Révolution épistémologique, étape majeure de la science, perspective vertigineuse ?
Page 338 « Les prochaines crises sont prédites : à l’époque actuelle (1995-2000, point blanc), en 2015-2020, puis 2030-2035, etc., toutes ces dates participant de la « supercrise » culminant entre 2075-2080 (mais cela n’est qu’une date théorique limite, la date effective ne pouvant être que plus rapprochée …)
~~~La copie d’une partie de la page 339
-La « supercrise » culminerait en 2075-2080.
-Les points de crises récentes (1975,1997-2000) ne sont pas séparées … Ce constat pourrait signifier qu’une simultanéité crise-non-crise (phénomène de concomitance et d’apparition de dimensions nouvelles prédit dans la partie 3) serait déjà en train de se manifester. …
-On peut considérer, si on admet la validité de la loi, que nous sommes dès maintenant entrés dans la phase finale critique. La date de 2080 n’est en effet qu’une date butoir théorique. La vraie crise devant se produire forcément avant …
-Il s’agit clairement d’un changement de société majeur, dont nous vivons les prémices actuellement …
Ils soulignaient que si nous étions des êtres fractals, donc globalement prédéterminés, notre cycle se terminerait avant 2080 !
En 2005, une occasion exceptionnelle aurait pu nous inciter à faire le point sur ce que nous étions réellement, à évacuer les nombreux mythes tendant à nous définir, tel « L’homme a été créé à l’image de Dieu » (Genèse Ch. 9.6).
*Le résultat de l’étude comparative de notre génome et de celui du chimpanzé (révélant ou confirmant une différence voisine de 1 %) fut enterré à l’unanimité par les croyants et les rationalistes ! L’image du « bonobo boosté » apparaissait inconcevable !
en 2007, M. Sarkozy, avant son élection présidentielle, déclara à M. Onfray (philosophe à la mode) « Je n'ai jamais rien entendu d'aussi absurde que la phrase de Socrate : Connais-toi toi-même » en toute impunité ! (V. sur Internet)
Ni Me. Royal, ni les journalistes, ni les Français (e)s ne lui reprochèrent de se raccrocher à l’omniprésence et omnipuissance d’un « Dieu » comme les singes aux branches ! (Dans son esprit, il suffit d’écouter et de suivre son instinct et son intuition !). Ni avant son élection, ni après ! (On aurait pu comprendre que personne n’ayant envie de le déstabiliser, ne désirant l’arrivée de Ségolène, c. à d. de la soi-disant Jeanne d’Arc du 21ème siècle, le silence avait été la consigne implicite ! Mais une fois qu’il fut au pouvoir, pourquoi ne pas créer un buzz ? ! )
Effectivement, il ne mentit pas, gouverna ainsi ! Et avec quel succès ! Sauf qu’oser affirmer en 2011 : « Ce n’est pas de ma faute si la crise s’est déclenchée en 2008 » consiste aussi à dévaloriser ce Dieu (en tant que pièce centrale de l’architecture), à avouer qu’il a perdu son pouvoir et intérêt ! Dans ces conditions, pourquoi le réélire en 2012 ? !
En 2011, l’affaire DSK qui aurait pu servir de catalyseur, libérer la parole des femmes, faire émerger l’influence dévastatrice et parfois délétère de la puissance du « cerveau des émotions » si elle n’est pas maîtrisée, à fortiori si les rôles des trois composantes du cerveau homo sapiens ont été délaissés puisque occultés (ou presque), avorta, ne remit pas en question le modus vivendi des homo sapiens !
Avec ces divers éléments (y compris le problème des dimensions déjà exposé), la théorie mathématique des jeux, la théorie mathématique du chaos, etc., il me resta à configurer un Espace permettant à chacun de pouvoir retrouver son compte. Mais, dans le cadre adopté, le rééquilibrage ne peut s’effectuer que dans l’Après vie !
D) Une VISION DE LA VIE, du « JEU DE LA VIE »

Il me semble que le « manque » et le « déséquilibre » et la « vie » vont de pair ; qu’ils sont les composants des motivations qui alimentent le moteur de la vie.
(Dans un paradis idéal, sans aucun besoin, pas de réaction, d’action, de mouvement, d’animation, de vie) (Henri Laborit, -biologiste de renom décédé en 1995- le voyait ainsi)
N’est-on pas obligé (Le masculin neutre sera utilisé) de « respirer », « manger », donc tuer des plantes ou des animaux ?
La gestion d’un milieu fermé n’implique-t-elle pas la manifestation effective des écosystèmes, c. à d. celle d’agents de dégradation, d’élimination avant transformation et renaissance ? !
Des êtres vivants, par définition, partiellement démunis, dans un milieu qui n’est pas spécialement accueillant ni hospitalier, n’ont-ils pas forcément tendance, dans l’espoir d’accéder à l’état de bien-être momentané, à la sécurité temporaire, à parier, miser ? A élaborer des tactiques, des stratégies pour vaincre les obstacles, les adversaires, pour ensuite consolider ces gains ?

Dans ce cadre assez flou, excepté pour ceux qui prétendent connaître le « sens de la vie » (Les « croyants », les idéologues, les fanatiques, les rationalistes), la route à suivre est-elle claire ?

Ces structures n’évoquent-elles pas à celles qui organisent les jeux ?

Un jeu ne « marche-t-il pas bien » quand peu de gagnants cohabitent pacifiquement avec une grande masse de perdants parce que liés par « l’espoir » de s’en sortir avec un peu de chance ? !
Si la proportion des gagnants était trop élevée et donc des rapports trop modestes ou si celle des perdants ruinait l’intérêt de la participation, le jeu ne perdrait-il pas toute crédibilité ?
Tout ne s’effondrerait-il pas ? Un autre jeu, plus élaboré mais reposant sur les mêmes attraits et risques ne prendrait-il pas alors la relève ?

Succinctement, ne distingue-t-on pas plusieurs types de profil ?
Ont soif de s’élancer les concurrents croyant en leur avenir. Les résignés et soumis ou les « pas de chance » se contentent de respirer (ou presque). Les désabusés sont parfois amers.


A NOTER que dans tous les cas, quels que soient le talent ou/et la force des acteurs en compétition, le grand manège ne peut tourner correctement et perdurer que selon certaines modalités, qu’en respectant certains quotas ! Peu importe la qualité ou l’intelligence des participants !

C’est ainsi que plus synthétiquement, (la maturité aidant), on différencie ceux qui ont saisi le système posé par le créateur du Jeu de ceux qui se précipitent dans l’espoir plus enfantin ou « adulescent » d’obtenir des récompenses !

Mais on est contraint de considérer aussi que ces derniers constituent les éléments moteurs du Jeu, sont indispensables pour la bonne marche de l’ensemble ! Qu’il serait aussi utopique et absurde de vouloir les supprimer que de s’attaquer à la disparition des ombres provoquées par le Soleil !

Il semble normal que les jeunes êtres adhérent à ces jeux puisque c’est la période de la curiosité, de la découverte, de l’apprentissage, etc.

• N’est-il pas plus bizarre qu’en prenant de l’âge on ne soit pas amené à relativiser, à démystifier cette « soif » du plaisir du jeu terrestre, voire à imaginer plutôt une suite heureuse dans l’après- vie !
• En prenant du recul, sans doute que peu importe !
• C’est ce qu’on peut espérer mais ce qui ne nous est pas permis de connaître, les dimensions de notre mental étant trop petites ! Serions-nous les chefs-d’œuvre de l’Univers ou seulement des éléments de l’espèce pour le moment la plus complexe, celle des homo sapiens, celle dont le génome se différencie de moins de 1 % de celui du bonobo ? !

Des remarques !

L’emploi du mot « homme » associé au terme « dignité » est-il facile ? !
Bien souvent, ne constate-t-on pas que les activations :
-du cerveau reptilien qui gère l’instinct de survie (par tous les moyens),
-du cerveau des émotions qui recherche automatiquement (sans forcément passer par l’analyse du néocortex) le plaisir, sont prédominantes ?
Où se trouve alors la « liberté » ou le « libre arbitre » ?
Un « homme vrai » qui n’accepte de vivre que dans la dignité peut-il « faire des vieux os » ? ! Ne fait-on pas dire au héros de la saga chrétienne (Jésus-Christ), qui en fait partie : « Mon royaume n’est pas de ce monde » ? !

Par analogie, un spectacle théâtral ne se révèle-t-il pas en tant que chef-d'œuvre par la richesse, la diversité, la multiplicité de tous les « bons » et « mauvais » rôles ? Et ce qui se passe dans les coulisses a-t-il un rapport avec le jeu de scène ? Attribue-t-on nécessairement le rôle le plus facile à l'actrice ou l'acteur le plus doué(e) ?

Si on revient sur l’expression « Jeu de la vie », n’évoque-t-elle pas aussi parfois « L’enfer du jeu » quand on s’accroche désespérément ….
Certains ne rêvent-ils pas d’immortalité, confortés par ex. par les prévisions d’un chercheur rationaliste très connu et performant Alex Kahn ? !
ETC. !

N. B. Très réactualisé, le contenu du recueil de contes et légendes devenu célèbre sous le nom de La Bible, demeurerait-il en totale contradiction ? ! Ne pourrait-il pas plutôt être récupéré dans une synthèse ? !

Écrit par : Pierre Payen Dunkerque | 16/12/2011

Les commentaires sont fermés.