31/12/2011

6-8) Les limites de la connaissance 6-8) Conclusion- la cécité empirique.

Les limites de la connaissance 6-8) Conclusion

la cécité empirique.

 

aveugle né

 

le procès Galilée.

 

 

"La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gödel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?"


Je voudrais ici faire partager ma lecture de Hervé Zwirn sur "les limites de la connaissance".


Exergue:

"En bref, je défendrai une conception dans laquelle l'esprit ne se contente pas de "copier" un monde qui ne peut être décrit que pas une Seule et Unique Théorie Vraie. Mais je ne prétend que l'esprit invente le monde [...]. L'esprit et le monde construisent conjointement l'esprit et le monde"Putnam (1981)

"Le sens commun mène la physique. La physique montre la fausseté du sens commun. Donc si le sens commun est vrai, alors il est faux. Donc le sens commun est faux." Bertrand Russel.

1) préambule.

science et vérité.  ubirdt saint-esprit

Dans le message précédent qui présente les positions et attitudes philosophiques face aux résultats de la physique quantique, nous avons vu qu'aucune ne peut se prévaloir d'être l'unique conception mais chacune peut faire valoir des arguments convaincants en sa faveur. A ce stade, les attentes philosophiques, voire "psychologiques" de chacun diffèrent et ce qui peut sembles convaincant aux uns paraîtra inepte aux autres. Pour aller plus loin, il faut conserver la cohérence de l'argumentation et le consistance de l'analyse. Je partage ici l'avis de Hervé Zwirn dans le refus de deux positions opposées. J'expose la lecture que j'en fait aujourd'hui et qui n'engage que moi.

a) Celle du réalisme scientifique (traditionnel).

Il consiste à penser qu'il existe une réalité indépendante dans laquelle l'homme est immergé et qu'elle est correctement et littéralement décrite par la physique. Cette physique n'est pas celle d'aujourd'hui, mais celle d'une hypothétique théorie ultime vers laquelle la science tend asymptotiquement. Réalité indépendante: elle existerait de la même manière et sous forme identique même en l'absence de tout être humain. Exister: le verbe est à prendre ici dans son sens littéral le plus immédiat, identique à celui du langage courant (le papier sur lequel est imprimé ce livre existe). Mais la physique montre que le sens commun a tort de croire que ce papier existe,seules existent vraiment les entités utilisées dans la théorie, par exemple les champs. Donc entre le langage courant et le langage scientifique, le verbe "exister" ne change pas de sens, seules changent les entités qui peuvent prétendre à l'existence. L'homme est un élément de cette réalité dans laquelle il est immergé et qu'il ne perçoit pas directement dans sa globalité. Cette limitation ne concerne que cette perception et n'a aucune influence sur la réalité elle-même. La physique décrit la réalité telle qu'elle est vraiment et les affirmations des théories sont à prendre à la lettre comme le dit Van Fraassen:"...alors il y a réellement des électrons qui se comportent de telle et telle manière."

Si la réalité ne nous apparaît pas directement en raison de la limitation de nos sens, la physique nous donne les moyens de comprendre l'apparence qu'elle revêt pour nous. Actuellement, cette réalité peut être décrite comme un espace-temps à 10 dimensions dans lequel interagissent des champs de cordes supersymétriques, espace et champ de cordes qui existent en tant que tels. Si nous ne percevons que 4 dimensions dans notre monde perceptible, cela provient de l'enroulement de 6 des 10 dimensions sur une distance de l'ordre de 10puiss-33 cm, "compacification" des dimensions qui rend impossible leur perception directe.

En conclusion du réalisme scientifique: "même si le contenu des théories change, le principe sous-jacent restera du même type, des objets (abstraits, complexes et non représentables) sont les briques de base à partir desquelles tout ce qui constitue notre environnement habituel est construit. Le réalité est le niveau où vivent ces briques. L'homme est immergé au sein de cette réalité et sa réalité phénoménologique est une représentation, forcément partielle et limitée de cette réalité indépendante. La réalité phénoménale dépend des capacités perceptives humaines mais pas la réalité indépendante dans laquelle l'Homme est immergé et qu'il découvre conceptuellement. Cette réalité indépendante épuise tout."

b) Celle de l'idéalisme radical.

"Tout est création de l'homme et rien n'existe en-dehors des phénomènes perceptifs. La "réalité" (au sens du chapitre précédent) n'a aucune existence et n'est qu'une reconstruction pragmatique destinée à organiser nos perceptions." Le solipsisme, qui pose que seul un esprit (le mien) existe et que tout n'est que création de cet esprit, en est la version la plus extrême.

c) Objections à l'encontre du réalisme scientifique..

En raison de la sous-détermination des théories par l'expérience, plusieurs théories ultimes mutuellement incompatibles mais adéquates peuvent être plausibles. Alors, comment soutenir l'existence d'une réalité unique? De plus, le concept de réalité indépendante est mis en difficulté par l'impossibilité de construire une théorie ontologiquement interprétable et il semble impossible de soutenir que les objets des théories sont les constituants d'une réalité ayant une existence autonome et indépendante, même si nous disposions d'une théorie ultime totalement adéquate avec les phénomènes.

d) Objections à l'encontre de l'idéalisme radical.

Il ne se se heurte pas à des objections du même type, en en sens il est non réfutable. Le solipsisme pur et dur (seules mes propres perceptions existent, tout en étant que construction de mon esprit) est logiquement possible. Il n'est pas à rejeter seulement en raison d'objections du genre "si tout n'est qu'invention de mon esprit, pourquoi ne suis-je pas milliardaire?" car rien n'indique en effet que je devrais être capable de contrôler le processus de création, après tout, je ne contrôle pas mes rêves. De plus, si l'esprit est régi par des structures, des phénomènes de limitation analogues à ceux des systèmes formels peuvent survenir pour empêcher toute construction.

L'idéalisme non solipsiste se contente de refuser l'existence réalité dont les perceptions seraient l'image. L'intersubjectivité pourrait poser une difficulté à cette position, mais elle pourrait n'être qu'une illusion comme c'est le cas dans le solipsisme convivial. L'argument de la résistance du réel lui non plus n'est pas déterminant, car une construction, ici celle ne notre esprit, est toujours soumise à des contraintes si elle est est régie par des règles. Par contre, une vraie difficulté est de considérer la perception comme antérieure à l'existence. Comment accepter une perception sans existence d'un sujet percevant? Cela est sans doute possible si on admet la pensée comme unique existant, mais est-ce satisfaisant? De plus, on n'est pas plus avancé que dans le cas du solipsisme.

e) Position défendue par H. Zwirn, que je partage.

L'homme  n'est pas créateur du monde, mais il n'est pas un observateur passif. Ains que le dit Putnam en exergue à ce chapitre, "L'esprit et le monde construisent conjointement l'esprit et le monde". C'est une manière de refuser le face de l'Homme et de l'Univers du réalisme traditionnel.


2)  Rejet des arguments en faveur du réalisme.


Galilée

a) arguments en faveur du réalisme métaphysique.

*L'argument que Hume a appelé "la relation cause-effet": si j'entends des voix dans la pièce voisine, j'en infère que qu'il y a des personnes qui y sont présentes; Si je vois une forme ressemblant à un plateau, j'en infère qu'il y a une table devant moi. On peut y distinguer deux éléments différents. Le premier consiste à inférer d'une perception une autre perception potentielle par un raisonnement contre-factuel: si j'allais dans la pièce voisine, je percevrais des personnes. Il ne concerne que la réalité empirique et relie les perceptions entre elles. La critique de Hume porte sur le fait que ce lien entre les perceptions (le premier élément), ne peut être établi sans postuler la validité du principe d'induction qui nous garantit que s'il s'est révélé exister dans le passé, il existera dans le futur. Or, il est impossible de justifier rationnellement le principe d'induction. Le deuxième consiste à inférer l'existence d'une entité réelle, une table, à partir de la perception qu'on en a. Il concerne la réalité en soi (hypostasier des entités en tant qu'explication des perceptions), et seul ce élément concerne le réalisme métaphysique alors que le premier est plutôt une condition nécessaire à la construction de tout discours empirique.

Hume a combattu l'idée qui consiste à considérer que lorsque nous avons la perception visuelle et tactile d'une forme de plateau avec 4 pieds, la meilleure explication possible est l'existence réelle d'une table qui en est la cause, en soulignant que nous n'avons accès qu'à nos perceptions et aucunement à la réalité en soi. L'hypothèse de l'existence réelle d'objets réels extérieurs ne s'impose donc nullement, ce n'est qu'un moyen pragmatique d'organiser nos perceptions. La critique de Hume est fondée et rien n'autorise de manière péremptoire à passer de l'existence de nos perceptions à à celle d'un monde extérieur (la physique quantique confirme ce genre d'objections). La relation cause-effet n'es donc pas un argument pertinent pour justifier la réalité en soi.


*L'intersubjectivité.

C'est un argument en faveur de l'existence d'objets extérieurs à nous-même, car si comme le suppose l'idéalisme, rien n'existe en dehors de nos esprits, ce dernier est bien en mal d'expliquer pourquoi nous tombons d'accord sur nos perceptions. Si Jean et Marie s'accordent à dire qu'il y a deux verres et une bouteille de vin sur la table, l'explication la plus simple est de considérer qu'il y a réellement deux verres et un bouteille. Cet argument prolonge celui du chapitre précédent et répond à une objection, car si j'ai la perception d'une table, cela ne veut pas dire forcément qu'il y a une table devant moi, je pourrais être victime d'une illusion, la table pourrait n'exister que pour moi. En revanche, si Jean et Marie sont d'accord, la table n'existe pas que pour un seul esprit. Ils pourraient être victimes de la même illusion, mais il serait difficile de soutenir que tous les cas de perceptions communes sont des illusions partagées.

L'intersubjectivité semble donc un argument plus solide celui de la relation cause-effet. la mécanique quantique va à l'encontre de cette conclusion. Ce n'est pas parce que Jean et Marie s'accordent sur le fait que le spin suivant une direction est +1/2, qu'il vaut +1/2 avant la mesure. L'explication intuitive que ce résultat préexistait à la perception n'est pas valide. De plus, la mécanique quantique fournit le mécanisme qui explique que tous deux tombent d'accord bien que le résultat ne préexiste pas à leur perception. L'intersubjectivité n'est donc pas un argument pour suffisant pour imposer une réalité externe comme cause des perceptions, elle dit au contraire que l'acte de percevoir cause, au moins en partie, la nature de la perception., ce qui apparaît clairement dans la théorie de la décohérence. En effet, celle-ci dit que le système perçu reste dans un état superposé et ce n'est que la perception que nous en avons qui paraît réduite. De plus, ceci admet que lorsque deux observateurs sont d'accord sur leurs perceptions, celles-ci sont effectivement identiques. Mais ce n'est pas obligatoire, car dans l'interprétation du solipsisme convivial, il est possible que l'intersubjectivité soit apparemment respectée sans que les perceptions des différents sujets soient les mêmes. Celle-ci ne peut donc pas être utilisée comme un argument en faveur de de l'existence d'une réalité externe cause des perceptions.


*La résistance au réel.

Si le réel n'était que construction humaine, il n'y aurait aucune raison que les théories les mieux construites soient contredites par l'expérience. Or l'histoire des sciences montre nombre de "belle théories", fécondes et puissantes, ont été réfutées par "quelque chose qui dit non" (et qui ne peut pas être "nous") selon l'expression de Bernard d'Espagnat. Cet argument suppose implicitement qu'une construction humaine sera "sa propre mesure" et ne se heurtera à aucune contradiction. Dans cette approche, on suppose que tout est construction humaine, que nous inventons les règles. Les théories sont ce qu'on pourrait appeler des constructions explicites, conscientes et formelles destinées à rendre compte d'une "construction perceptuelle" inconsciente qui serait cette construction humaine: le réel. Alors, étant donné ce que nous avons vu sur la consistance des systèmes formels, il i'y a rien d'étonnant à ce que nous constations des désaccords et des contradictions entre les deux constructions, nos constructions théoriques et ce que nous appelons le réel. En fait, nous ne savons pas édifier de construction paradigmique consistante. Les contradictions seront éliminées par une modification dialectique des théories et de ce que nous appelons le réel (celui de la physique newtonnienne n'est pas celui de la physique quantique). La résistance du réel n'est donc pas un argument convaincant de postuler la résistance d'une réalité extérieure.


*Préexistence de quelque chose qui connaît à la connaissance.

Bernard d'Espagnat l'a présenté comme une nécessité logique: si on parle de connaissance; il faut bien que quelque chose connaisse. L'existence ne peut donc procéder de la connaissance. Bonsack, pourtant proche de certains points de vues de d'espagnat , adopte le point de vue opposé, la point de vue "épistémologique", par contraste avec ce point de vue "ontologique". Il consiste à rendre compte de la façon dont le sujet est amené à postuler l'existence à partir du flux perceptif. De plus, il n'est pas impossible que le seul existant soit le pensée. Cet argument, bien que de bon sens n'est donc pas définitivement probant.


b) Arguments en faveur du réalisme épistémique.

Ces arguments prennent place dans un cadre acceptant l'existence d'une réalité extérieure.


*L'argument du succès empirique est un point essentiel des défenseurs du réalisme épistémique: comment nos théories pourraient-elles être empiriquement adéquates si elles ne décrivaient pas, au moins partiellement des entités et des mécanismes réels? Il serait alors miraculeux qu'elles parviennent à décrire et prédire cette réalité empirique. Cet argument plaide aussi indirectement en faveur du réalisme métaphysique puisqu'il s'appuie nécessairement sur l'existence d'une réalité extérieure. Sa séduction exerce un force d'attraction dont il est difficile de s'affranchir, sans doute dû au fait que le mécanisme psychologique qui nous y fait adhérer joue un rôle important dans notre fonctionnement quotidien et qu'il s'est exercé dès l'enfance. Simplifié à l'extrême, cela revient à expliquer que nous voyons l'herbe verte parce qu'elle est réellement verte. Mais on a vu précédemment que c'est une fausse explication qui soulève plus de difficultés qu'elle n'en règle. Par ailleurs, on ne peut soutenir qu'une théorie empiriquement adéquate à un moment est vraie, l'histoire regorge de telles théories qui ont été ensuite réfutées et un raisonnement inductif pessimiste incite à penser que cela sera faux également pour les théories actuelles. On pourrait, à l'instar de Boyd adopter un concept de vérité approximative, mais ce concept est insatisfaisant et ne résout pas le problème.

La situation imagée donnée par Hervé Zwirn est parlante. Imaginons que Monsieur R le réaliste) nous présente une théorie T empiriquement adéquate (au sens où toutes ses prédictions ont été réalisées, mais aussi où toutes ses prédictions futures le seront): c'est parce que T est vraie (que tous les objets dont elle parle existent réellement et que les lois qu'elle utilise correspondent à des mécanismes ou à des contraintes qui reflètent le structure de la réalité telle qu'elle est vraiment). Cette histoire est supposée avoir lieu dans un monde futur où la science aura progressé à tel point que que cette théorie a pu être construite et vérifiée depuis des générations. Ce n'est pas le cas de la physique quantique, car même si elle a notre confiance, nous savons qu'elle doit être généralisée pour tenir compte à la fois de la relativité restreinte et de la relativité générale. Cela pourrait être le cas de la "théorie du tout"  que certains physiciens pensent être à notre portée prochainement grâce à aux théories des supercordes. Ainsi on pourrait échapper à l'objection concernant les théories empiriquement adéquates et réfutées ensuite? Si nous acceptons que T est empiriquement adéquate pour les observations passées, qu'est ce qui permet à Monsieur R de croire que que cette adéquation persistera dans l'avenir (nous avons vu toutes les objections au sujet de l'induction)? Sa réponse pourrait être: si l'adéquation passée de T ne peut s'expliquer autrement que par le fait que est vraie, (sinon ce serait un miracle ou une suite invraisemblable de coïncidences favorables); or, si T est vraie, son adéquation empirique dans le futur est certaine. En effet, si une observation a venir était en désaccord avec les prédictions de T, c'est que le phénomène réel sous-tendu par cette observation serait différent d'une façon ou d'une autre de ceux décrits par T et donc que T n'est plus vraie. Donc si T est vraie, dans ce sens, elle est vraie de toute éternité, presque par définition. On atténue ainsi le problème de l'induction, mais cela présuppose d'accepter la vérité de T.

Dans ce schéma, adéquation empirique et vérité deviennent équivalentes: 1) T a été empiriquement adéquate dans le passé. 2) La seule explication possible est que T est vraie. 3) T sera donc empiriquement adéquate dans le futur. Cependant le point 2) est réfuté en raison de la sous-détermination des théories car il est possible qu'il existe une ou plusieurs théories T' empiriquement équivalentes à T mais incompatibles avec elle. Il est impossible qu'elles soient simultanément vraies dans le sens adopté par Monsieur R dont la position n'est donc pas justifiée. Une autre critique est basée sur le fait que qu'étant donné un nombre limité d'observations, il existe un grand nombre, voire une infinité de théories capables de décrire correctement ce ensemble; il n'y a donc pas à s'étonner du fait que nous sommes capables de construire des théories adéquates à un instant. On pourrait dire que c'est non la description des données connues, mais la prédiction de faits nouveaux qui serait miraculeuse si rien dans la théorie ne correspondait à quelque chose de réel (l'exemple souvent cité est la découverte de Neptune). Mais il ne faut pas retenir que les succès et oublier les échecs. La découverte de Neptune est un succès considérable pour la mécanique newtonnienne, mais l'inexistence de Vulcain, censé expliquer  la précession du périphélie de mercure est un échec tout aussi considérable. C'est ainsi que celle ci est réfutée par l'invention de la relativité générale.

La science progresse, selon Popper par essais et erreurs, conjectures et réfutations. Dans le nombre de théories empiriques disponibles (fini) dans l'infinité de théories différentes, voire incommensurables ou contradictoires, il arrive qu'un certain nombre sont en compétition à une époque. Parmi celles-ci, des tests supplémentaires permettent parfois d'en dégager certaines qui font des prédictions incompatibles. C'est, dit Hervé Zwirn, le cas de la théorie de Brans et Dicke écartée récemment en tant que concurrente de la relativité générale. Dans le cas de la théorie newtonnienne, la prédiction vérifiée et la découverte de Neptune avaient été comptées comme un argument fort en sa faveur. Un autre exemple est celui du modèle de Weinberg-Salam unifiant les interactions faibles et électromagnétiques. Elles étaient en concurrence avec d'autres théories avant que les bosons intermédiaires soient découverts et permettent leur survivance. A postériori, il semble miraculeux que ces théories aient fait ces prédictions. Mais il n'est pas étonnant que l'une d'entre elle se révèle momentanément correcte. A d'autres moments, aucune des théories en présence ne réussit à prendre en compte les faits nouveaux observés et il faut construire une nouvelle théorie. C'est un changement de paradigme (voir la relativité générale et la physique quantique). Il n'y a pas à s'étonner du "miracle" de la prédiction de faits nouveaux, ce n'est qu'une surprise psychologique comparable à celle qu'on éprouve après avoir parcouru un long chemin dans un labyrinthe et avoir éliminé toutes les impasses.

L'argument de Monsieur R semble donc peu convaincant, rien ne semble justifier la nécessité d'une correspondance entre concepts théoriques et entités réelles pour rendre compte de l'adéquation empirique des théories. Mais le réalisme structurel défendu par Worral, dans le contexte où on admet une certaine réalité, peut être une tentative d'explication de la réussite des théories moins sensible aux objections.


TOUTES LES CHOSES SONT RELIEES LES UNES

AUX AUTRES PAR LA CAUSE ET L'EFFET.

UN ACCIDENT N'EXISTE PAS.

*La relation cause-effet.

Nous venons de voir que la première forme de cet argument est liée au principe d'induction: de la régularité de certaines associations dans le passé, on infère qu'elles se reproduiront dans le futur. Ce raisonnement est à la base même de toute prédiction, scientifique ou pas. Le critique de Hume est rationnellement fondée et on ne peut justifier ce principe sans recourir à un autre principe similaire. Russel cite l'exemple du poulet qui associe la main du fermier avec la nourriture qu'il lui donne jusqu'au jour où cette main lui tord le cou. Mais si cependant l'induction ne fonctionnait pas un peu, le monde serait différent de ce qu'il est, aucune connaissance ne serait possible puisque rien ne se répéterait. Mais en voyant l'ensemble des observations qui ont été faites, l'induction a fonctionné suffisamment souvent pour que la probabilité qu'elle ne fonctionne pas dans le futur est faible. Cependant, un tel raisonnement, faisant appel lui aussi à un principe d'induction est vicié par nature.

Le scepticisme radical de Hume, pris au pied de la lettre, interdit toute confiance dans un discours prédictif et elle interdit de rendre compte de l'activité humaine autrement qu'en considérant qu'elle est irrationnelle. Pour éviter cette difficulté, Kant a postulé que l'induction est une catégorie à priori de l'entendement. En ne retenant pas le critique de Hume, il semble cependant qu'il faut éviter l'argument cause-effet pour justifier une quelconque correspondance réelle entre le "discours" et "le monde". L'induction vient de nous et ne nous donne aucune indication sur la nature de d'une éventuelle réalité.


c) Que reste-t-il alors pour défendre la réalité?

Aucun des argument habituels en faveur de l'existence d'une réalité en soi, indépendante de toute connaissance ou de toute "interférence humaine" ne paraît véritablement contraignant et il ne semble nullement obligatoire que les entités théoriques et les mécanismes ou les lois du discours scientifique doivent nécessairement avoir un correspondant réel. On peut retenir néanmoins une version du réalisme structurel comme explication de la réussite partielle des théories jugées empiriquement adéquates à un instant. Si on rejette l'idéalisme radical, on peut alors adopter provisoirement une position proche de d'Espagnat, qui consiste à admettre l'existence de quelque chose qui procède en partie de l'esprit humain bien que n'en n'étant pas une pure émanation, qui cause la réalité empirique  et dont les structures se reflètent d'une certaine manière dans les théories scientifiques qui réussissent.


3) Esquisse d'un scepticisme épistémologique. position présentée par H. Zwirn, que je partage dans cette approche de réflexion).


a) la cécité empirique: première approche.

L'analyse de l'empirisme logique (voir cet article) a montré qu'il n'existe pas d'énoncé purement observationnel et derrière le mot empirisme se cache une imbrication de concepts théoriques et d'observations. Accepter de reconnaître qu'une théorie T a été jusque là empiriquement adéquate, c'est manifester déjà un certain engagement vis à vis de T et accepter le cadre conceptuel qu'elle définit pour interpréter les observations faites. c'est accepter que l'ensemble des observations faites, nécessairement guidées par le programme de recherches induit par T, constitue un ensemble significatif (au sens d'échantillon statistiquement significatif) par rapport à toutes les observations possibles et dont certaines départageraient T des théories concurrentes. C'est aussi considérer que T est empiriquement pertinente, c'est à dire qu'elle induit un cadre conceptuel qu'on juge adapté pour engendrer un programme de recherche qui guidera les expériences à faire pour la tester. C'est donc le premier pas pour entamer un programme qui conduira à sa confirmation ou à sa réfutation. Mais cet engagement ne peut être justifié que si la structure de T ne s'éloigne pas trop du paradigme dominant sur le type de bonnes théories et si T peut se prévaloir d'un certain nombre de succès à son actif (par un fait précédemment inexpliqué ou par la prévision réussie d'un fait nouveau). Il y a alors renforcement de notre confiance qui en retour nous conforte sur les bons indices de l'adéquation empirique de le théorie. C'est conforme au processus décrit par Boyd"il existe une relation dialectique entre la théorie courante et la méthode utilisée pour son amélioration."

Boyd y voit une condition de possibilité d'un développement réaliste de la science c'est plutôt un argument qui montre que l'adéquation empirique n'est pas des plus solides. Ce processus réflexif, lorsqu'il est fructueux, peut converger vers l'acceptation conjointe de de la pertinence et de l'adéquation empirique. Cependant est-ce une garantie réelle? Un tel processus, enclenché dans une mauvaise direction, pourrait entretenir à tort son propre succès.

Une première manière consiste à fournir des précisions suffisamment vagues pour que, quelque soit le résultat de l'expérience, il soit jugé conforme aux prévisions ou à ne retenir que les résultats qui confirment les prévisions (l'astrologie telle qu'elle est pratiquée de nos jours, en est un exemple). Un deuxième manière consiste à recourir à des hypothèses ad hoc pour rendre compte d'échecs prédictifs. Popper les appelle des "stratégies auto-immunisatrices".  Cela pose le problème de savoir ce qu'est une bonne méthodologie scientifique. Il n'existe aujourd'hui aucun moyen rigoureux de définir ce qu'est une authentique théorie scientifique, mais malgré l'absence de critères explicites, les progrès méthodologiques nous permettent d'éliminer assez sûrement les théories manifestement déviantes qui utilisent les méthodes décrites précédemment.

Une troisième manière, plus subtile d'entretenir faussement un succès empirique consiste en ce que la théorie induise un cadre conceptuel tel qu'aucune expérience qui pourrait être de nature à le réfuter ne soit menée: c'est un premier aspect de "la cécité empirique". Un exemple caricatural est de s'imaginer une terre jumelle qui existe dans un univers newtonien. Sur cette terre 2, les lois de la nature sont décrites en gros par la physique newtonienne du temps de Laplace. Le programme de recherche est exclusivement centré sur le comportement des objets macroscopiques et reste aveugle aux autres phénomènes que nous connaissons. La théorie dominante est empiriquement adéquate puisqu'on se borne à l'utiliser dans son domaine de réussite et on ne considère comme scientifique que les expériences qui portent sur ce domaine et rien que sur ce domaine. Pour les physiciens réalistes de cette terre 2, la théorie newtonienne est don vraie. Dans cette situation, l'adéquation empirique induite par la théorie provient d'une mauvaise pertinence empirique de la théorie. Le programme induit par la théorie a conduit les physiciens à une cécité empirique les empêchant de faire les expériences nécessaires pour la réfuter, comme par exemple celles consistant à faire interférer deux rayons lumineux ou à étudier le spectre du corps noir.

Il est certes facile d'élever des objections contre cet exemple, mais elles ne sont pas probantes.  La première est que dans un monde où il n'y a pas de place pour le relativité restreinte, les lois de la nature seraient tellement différentes que des nôtres que le monde pourrait bien être comment le supposent les physiciens de la terre 2. A cette objection, on peut répondre qu'il qu'après tout, il est possible d'accepter un monde où tout est comme chez nous à l'exception des lois relativistes. La deuxième objection concerne le fait qu'on pourrait supposer que les physiciens de la terre 2 ne se posent aucun problème concernant la lumière et que l'électricité ou le magnétisme n'ont pas été découverts. Mais sur cette terre 2, l'électricité et le magnétisme existent et par conséquent, les physiciens devraient s'être rendu compte. Cette objection provient du fait qu'on pense généralement qu'il n'est pas possible de passer à côté de la lumière ou du magnétisme. Mais ce qui est mis en évidence ici, c'est le fait qu'un programme de recherche induit par une théorie dominante peut très bien conduire à oublier de remarquer certains phénomènes de nature non évidente. Les expériences mises en oeuvre pour vérifier les inégalités de Bell ne s'imposent pas spontanément à un expérimentateur, il faut un travail théorique préliminaire complexe. Il en est de même pour la non-séparabilité. Il a fallu le génie de Bell pour y parvenir alors que ni Einstein ni bohr, pourtant préoccupés par le sujet, n'ont été capables d'imaginer une expérience réelle susceptible de la mettre en évidence.

Il n'est donc pas absurde de penser que de tels phénomènes complexes qui pourraient, s'ils étaient testés, soient dissimulés à l'intérieur du cadre d'une théorie. Dans ce cas, la théorie ne rencontrera aucun démenti alors qu'elle sera empiriquement fausse. C'est bien ce qui s'est passé lorsque le programme de recherche de la physique a conduit à se concentrer sur les systèmes intégrables. Durant toute une période, elle a oublié d'expérimenter sur les systèmes chaotiques, laissant croire à des générations de physiciens que le monde était intégrable, alors qu'on sait maintenant que la majorité des systèmes dynamiques est chaotique.

La cécité empirique, sous cet aspect, est le fait d'être aveuglé dans son champ de recherche par un programme issu d'une théorie dominante bornée (qui a des bornes), de telle sorte que certaines parties de la réalité empirique restent ignorées du discours théorique et des préoccupations scientifiques. Elle est donc liée à la non-pertinence d'une théorie et doit rendre prudent quant aux affirmations portant sur l'adéquation empirique et ne pas lui conférer un statut de certitude trop fort. Ainsi, à aucun moment nous ne disposerons d'une théorie adéquate décrivant la totalité de la réalité empirique car cette dernière débordera toujours de l'ensemble des concepts disponibles. C'est un "maladie" inévitable quelles que soient les avancées et les découvertes qui interviendront dans le futur.


b) Le concept de vérité et la sous-détermination empirique des théories.

Beaucoup de conceptions réalistes sont fondées sur le concept de vérité-correspondance: un énoncé est vrai en vertu du fait qu'il exprime un état de chose qui lui correspond. Dans l'approche réaliste traditionnelle, une théorie (empiriquement adéquate) est vraie si et seulement si ses énoncés correspondent à des états de fait de la réalité, de la même manière que le récit fidèle d'un film nous permet de savoir ce qui s'est réellement passé dans ce film. Mais contrairement à un film où on ne peut avoir deux récits fidèles et contradictoires, la sous-détermination des théories pose problème car il est possible que deux théories contradictoires soient adéquates. Prenons l'exemple de deux théories qui  postulent l'une des entités ponctuelles et l'autre  uniquement des entités arbitrairement petites mais jamais ponctuelles. Laquelle est alors vraie? y a-t-il ou non des entités réellement ponctuelles?

Pour un instrumentaliste, cette question n'a pas de sens: elles ne sont pas en contradiction sur ce qu'elles disent, puisqu'il est impossible de les distinguer empiriquement mais sur la manière dont elles le disent. Le concept d'une vérité, au sens habituel du terme, est donc remis en cause. Si on adopte le point de vue qu'une théorie se réduit à son adéquation empirique, alors on se trouve forcé d'admettre que pour qu'une question n'ait pas de sens, il suffit que deux théories adéquates équivalentes lui donnent une réponse différente. La question se trouve alors rejetée au métaniveau, elle ne porte plus sur le monde, mais sur notre manière d'en parler. Un électron suit-il une trajectoire définie? non en mécanique quantique, oui dans la théorie de Bohm.

Les instrumentalistes sont prudents et ne vont pas jusque là, mais leur position concernant la vérité n'est sans doute pas justifiée. En fait, nos théories doivent être considérées seulement comme un moyen commode (des algorithmes) pour parler des phénomènes et les prédire. Des questions grammaticalement construites pour pour porter sur la réalité sont dépourvues de sens. Les concepts doivent considérés comme des outils internes à la description sans référent dans la réalité. Ils ne sont pas absolus puisque un autre langage peut ne pas les utiliser mais néanmoins arriver au même degré d'efficacité prédictive.Une analogie peut éclairer cette difficulté: Le Français et l'anglais sont équivalents pour parler des arbres; en français le mot arbre possède 5 lettres alors qu'il en possède 4 en anglais. La question "est-ce qu'un arbre possède 5 lettres?" est dépourvue de sens, le nombre de lettres n'est par une propriété des arbres. Une erreur de même nature (mais moins facilement détectable) est commise dans le cas de certaines questions portant sur des entités théoriques de la physique: par exemple, un électron suit-il ou non une trajectoire définie? On a vu que que le concept de trajectoire a un sens dans la théorie de Bohm, mais pas en mécanique quantique. Ce n'est donc pas une propriété des électrons mais seulement des outils formels qu'une théorie particulière utilise pour parler des électrons.

Ce constat peut-il se comprendre?  Le langage courant nous autorise à croire que la trajectoire appartient vraiment aux objets de la réalité. Le processus d'apprentissage que suit tout être humain à partir de la petite enfance évolue vers un stade préscientifique dans lequel se forgent les représentations mentales qui lui servent à ordonner ses perceptions. L'unique théorie à ce stade préscientifique et pré-épistémologique est le langage courant. L'image intuitive est le plus souvent construite dans un cadre réaliste naïf et les entités du langage sont considérées comme se référent à une réalité extérieure. Il en résulte une relation biunivoque entre la description du langage et les objets de la réalité ainsi construite. Les propriétés des objets leur sont attribuées en propre. Il est souvent impossible de faire, à ce stade, la différence entre propriété des objets et propriété des outils utilisés pour en parler (sauf quand c'est évident comme dans le cas des arbres ci-dessus). Ce n'est que lorsque le langage courant ne suffit plus pour décrire et prédire les phénomènes plus complexes que la différence peut apparaître (avec les théories scientifiques formalisées) et ce n'est pas facile tant est grande la tentation de projeter les propriétés des entités théoriques sur les référents postulés de ces entités. Alors, la majorité des chercheurs préfère se placer dans le cadre de la théorie dominante pour la perfectionner plutôt que de se lancer dans la recherche de formalismes différents produisant les mêmes prédictions. C'est ce que Kuhn appelle la phase de recherche "normale" qui ne prend fin qu'avec l'apparition de difficultés qui peuvent aboutir à un changement de paradigme.

Mais une recherche de théories empiriquement incompatibles pourrait peut-être permettre de déceler la non-pertinence de certaines questions sans réponse et de comprendre pourquoi certaines questions n'ont pas de sens (comme la simultanéité de deux évènements ou des questions traitées dans les théories modernes de cosmologie quantique). Mais il nous faut abandonner l'idée selon laquelle une théorie adéquate fournit une description littéralement vrai de la réalité et admettre que de nombreuses questions apparemment sensées portant sur la réalité ne sont que de fausses interrogations car elles portent en fait sur des aspects purement internes des théories utilisées pour la décrire.

c) Les théories scientifiques comme algorithme de compression.

La théorie algorithmique de l'information, inventée par KolmogorovSolomonov et Chaitin, permet de voir les théories scientifiques sous un angle qui éclaire ce qu'on vient d'examiner. La complexité algorithmique d'une chaîne de bits est donnée par la taille du plus petit programme autodélimité capable d'engendrer cette suite. par exemple, la complexité de la chaîne infinie d'une suite de 0 et de 1 est faible car elle peut être être engendrée par le programme: "faire suivre alternativement 0 et 1 à l'infini". Mais s'il est possible de trouver un programme d'engendrement de longueur plus courte que celle de la suite, celle-ci est "aléatoire", en fait, la suite n'est régie par aucun algorithme. Elle contient une beaucoup plus grande quantité d'information qu'une suite qui ne l'est pas. Une suite non aléatoire contient des redondances qui peuvent être compactées et c'est justement ce qui permet d'expliciter un algorithme qui l'engendre.

Le concept de complexité algorithmique peut être étendu aux systèmes formels. Un système formel ne peut démontrer aucun énoncé dont la complexité est supérieure à celle de son système d'axiomes (dans ce cas, l'énoncé sera indécidable). Les résultats expérimentaux d'une peuvent être considérés comme un ensemble d'énoncés appartenant au langage de la théorie puisque la théorie est destinée à les décrire et à les prédire. La théorie, s'il elle est adéquate, est un moyen d'engendrer l'ensemble de ces résultats. Sur un plan purement formel et si on ne considère que les résultats expérimentaux sous leur aspect dénoncés de ce langage, on peut considérer la théorie comme un algorithme permettant d'engendrer l'ensemble de ces énoncés. On peut dire que le domaine de la science est le domaine des phénomènes qui se laissent décrire par de tels algorithmes, ce qui n'est pas le cas de l'art par exemple.  Il est impossible de produire un algorithme engendrant des symphonies grandioses ou des tableaux. Ce n'est pas le cas de la psychologie, nous ne savons pas prédire les états affectifs des êtres humains. On est alors moins tenté d'être étonné que le monde de la physique soit compréhensible (comme l'a fait Einstein) ou trouver extraordinaire que les mathématiques sont soient si efficaces comme l'a fait Wigner. Nous ne savons appliquer la science qu'aux domaines où elle est applicable, celui des phénomènes mathématiquement compressibles qui se laissent engendrer par des algorithmes. Les seuls phénomènes que nous considérons comme scientifiques sont ceux-là (à l'exclusion de l'esthétique, de l'affectif...). Nous sommes comme l'ivrogne de l'histoire qui cherche ses clés sous la lampe, non parce que c'est là qu'il les a perdues mais parce que c'est le seul endroit où il y a de la lumière. Le seul étonnement qu'on devrait avoir, c'est de s'émerveiller qu'il reste de tels domaines. Tout dans le monde pourrait n'être que processus aléatoire non compressible, art, affectivité et dans ce cas la science n'existerait pas.

Si les théories sont considérées comme des algorithmes, il est compréhensible qu'il soit possible de trouver plusieurs théories empiriquement équivalentes. Un algorithme n'est jamais unique, d'où les recherches pour trouver les plus performants. Deux algorithmes en font pas appel aux mêmes intermédiaires de calcul. On se trouve donc face à une contradiction si on attribue à ces derniers un référent réel puis qu'on ne postulera pas l'existence de mêmes objets selon l'algorithme qu'on adopte. On peut objecter que si ces intermédiaires posent problème, les entités que que les deux algorithmes sont supposés engendrer doivent une existence réelle puisque les deux algorithmes les produisent. Les prédictions empiriques portent sur perceptions qu'on peut penser réelles, mais postuler l'existence d'objets réels cause de nos perceptions se heurte à aux objections à la deuxième forme de la relation cause-effet que nous avons signalées précédemment.

En conclusion, se représenter les théories physiques comme de simples algorithmes  permettant de prédire les résultats empiriques permet de mieux comprendre les réserves sur le réalisme métaphysique et le réalisme épistémique. Les limites de démontrabilité des systèmes mathématiques permettent d'envisager que la possibilité que certains énoncés soient hors de portée de toute prédiction d'une théorie physique.


le principe d'identité et d'indécidabilité !

d) Une application empirique de l'indécidabilité.

Un éventuelle "théorie du tout" permettra-t-elle , au moins en principe de tout prévoir? Ce n'est nullement le cas?  On a vu que le "problème de l'arrêt", qui consiste à prédire si un ordinateur auquel on fournit un programme donné s'arrêtera, est un problème indécidable. Donc, même si nous disposions d'une "théorie du tout", elle serait incapable en général de prédire le comportement à long terme du système physique constitué par un ordinateur en fonction du programme qu'il est en train d'effectuer. On peut penser qu'on peut trouver un algorithme particulier qui prédit l'arrêt on non d'un système. C'est faux. Le théorème de Gödel montre qu'il existe des programmes pour lesquels aucun algorithme ne peut prédire l'arrêt ou la continuation infinie. La totalité des mathématiques qu'utilise la physique est contenue dans ZF (axiomatique de Zermelo- Fraenkel). Appelons T la théorie obtenue en ajoutant à ZF la partie nécessaire pour obtenir une théorie physique (par exemple la théorie du tout). Elle est donc envisagée comme un système formel. T est-elle capable de prédire le comportement (l'arrêt ou non), d'une machine de Turing programmée pour vérifier pour chacun des entiers successifs, un énoncé E ("V n P(n)") qui est indécidable au sens du théorème de Gödel? Si T est consistante, il n'est possible de prouver formellement dans T que ni E est vrai (la machine calculera indéfiniment) ni que E est faux (elle s'arrêtera pour une valeur de n pour laquelle laquelle P est faux).  La réponse d'un mathématicien sera négative. En revanche, un raisonnement sémantique montrera que si T est consistante, la machine ne s'arrêtera pas, car cela signifie qu'on  a trouvé une valeur de n pour laquelle P est faux  et donc qu'on a prouvé la fausseté de E contrairement à ce qui a été postulé. Ce raisonnement  n'est toutefois pas une preuve formelle, ce qui fait dire au mathématicien qu'il est impossible de démontrer E dans T. Le physicien acceptera la preuve  car l'utilisation d'une théorie physique ne se limite pas à ses déductions purement formelles. Cela semble remettre en cause ce qui a été dit précédemment, que la théorie T, pour le physicien, est incapable de prédire le comportement de la machine de Turing considérée.

Mais, voici un exemple pour lequel l'impossibilité de prédiction concerne aussi bien le mathématicien que le physicien. L'adjonction à ZF de grands cardinaux peut rendre la théorie contradictoire (voir articles 3 "le programme de Hilbert et les indécidables). Le rajout de certains axiomes de grands cardinaux peut être telle que la théorie obtenue (ZFE) soit totalement inconnue au sens où non seulement elle n'est ni démontrable ni réfutable dans ZF, mais encore où on est dans l'incapacité d'avoir une opinion précise à son sujet. Soit une machine de Turing énumérant les théorèmes de ZFE, qui s'arrête lorsqu'elle a obtenu la démonstration de "1 = 2". Pour un physicien, la théorie T est-elle capable de prédire le comportement de cette machine? La réponse est cette fois négative, car cela consisterait à prédire la consistance de ZFE, ce qui n'est possible ni formellement dans le cadre de T. Nous retrouvons le résultat annoncé, qui n'est qu'une conséquence directe inévitable des limites des systèmes formels. Ce constat n'est nullement dû à une incertitude sur l'état initial, à une méconnaissance des lois qui régissent le fonctionnement de l'ordinateur ou à des effets quantiques et il existerait même dans un monde totalement classique. Il est impossible de construire une théorie qui prédise, en général, le comportement d'un ordinateur (ou d'une machine de Turing) en fonction d'un programme qu'on lui fait exécuter. C'est comme si on ne pouvait pas prévoir la vitesse d'arrivée au sol d'un caillou en fonction de la hauteur à laquelle il a été lâché. Ceci montre qu'il existe des objets simples et courants (les ordinateurs par exemple) dont les lois de fonctionnement sont connues et dont le comportement est cependant non prédictible. Ainsi, "même dans un univers simple, non quantique..., l'avenir continuerait de nous échapper" (Delahaye).

Conclusion de ce chapitre: Il existera toujours des parties de la réalité empirique qui échappent à la prédiction et sur lesquels toute théorie restera aveugle. C'est un autre aspect de la cécité empirique.

e) La cécité empirique: une maladie inévitable.

Dans un premier aspect, la cécité empirique peut, en étant aveugle à certaines parties de la réalité empirique, induire un programme de recherche tel qu'aucune expérience risquant de la mettre en échec ne puisse être conduite. Elle sera corroborée et considérée comme adéquate.

Le deuxième est lié au fait que toute théorie est dans l'incapacité de se prononcer quand des phénomènes sont exprimés par des énoncés indécidables dans le système formel qui la constitue. De plus, le programme de recherche induit par la théorie détermine les expériences faites en vue de tester ses prédictions. Ce programme ne pousse donc pas à expérimenter les domaines sur lesquels le théorie est muette, car cela n'aurait à priori pas d'incidence sur la théorie et il est possible que les concepts  nécessaires pour une telle expérimentation n'existent pas. A l'époque de Maxwell, des tests sur la non-séparabilité n'auraient sans doute pas abouti, car il fallait des concepts issus de la mécanique quantique pour se poser la question.

Il résulte de ce qui précède que, quelle que soi la théorie considérée, il existera des phénomènes qu'elle ne pourra prédire (incomplétude prédictive) et en conséquence, certaines parties de la réalité empirique seront hors de son champ de pertinence. L'exemple de la machine de Turing peut sembler artificiel. Le théorème de Gödel a été le premier à être explicité pour montrer l'incomplétude de l'arithmétique avant de fournir plus tard des exemples d'indécidabilité plus naturel. Ainsi, trouver un énoncé empirique simple et naturel dont l'indécidabilité pourrait être établie dans "la théorie du tout" n'est pas actuellement une tâche à la portée des scientifiques. Mais cela ne remet pas en causes les conclusions de ce chapitre, la réalité empirique débordera toujours du champ de description théorique et nous ne disposeront jamais d'aucune théorie décrivant et prédisant la totalité de cette réalité.


4) Une conception à trois niveaux.

Nature possible de ce "quelque chose" dont on postule l'existence en refusant l'idéalisme radical.


a) Le représentable et le conceptualisable.

*Le représentable. C'est ce dont on peut avoir une image, claire et distincte. Les perceptions interprétées (ce qui est donné à la conscience, par opposition à ce qui est donné aux sens), sont représentables et représentées. On peut parler d'une partie de la réalité empirique, la "réalité phénoménale", qui est l'ensemble de nos perceptions interprétées. Tous les faits expérimentaux empiriques font partie de la réalité phénoménale, ils sont le constat de perceptions interprétées et sont représentables puisqu'ils se manifestent comme des images perceptives directes et conscientes.

*Le conceptualisable est ce dont on peut parler en termes descriptifs, sous forme verbale ou mathématique. Certains concepts sont représentables (table, force, état en physique classique). D'autres ne le sont pas (état superposé, enchevêtré ou non-séparabilité en physique quantique). Pour ces derniers, il est impossible d'en avoir une image mentale claire, mais il est possible d'en donner une description mathématique, ce que fait la mécanique quantique qui conceptualise ces notions.


b) Le réalisme des phénomènes.

Beaucoup de conceptions, réalistes ou non, suggèrent la réalité empirique comme comme une scène sur laquelle se déroulent les phénomènes que nous n'avons qu'à observer. C'est le point de vue qui considère un "face à face de l'homme et du monde" qu'on peut appeler "le réalisme des phénomènes". C'est un équivalent du réalisme des objets qui consiste à croire que les objets physiques existent, sont là et que nous les observons parce qu'ils sont là. L'acceptation du réalisme métaphysique en est une conséquence. Cette conception est même présente dans beaucoup de celles qui rejettent le réalisme métaphysique et qui nient l'existe en soi des objets en affirmant que nous n'avons un accès direct qu'aux phénomènes en nous contentant de prendre conscience de la réalité empirique de manière passive. Ce n'est pas que nous ne faisons pas d'effort, mais cela ressemble plus à celui que nous faisons en nous baissant pour ramasser un caillou qu'à celui qui consiste à créer quelque chose qui n'existerait pas sinon.

Les perceptions interprétées doivent être les éléments sur lesquels nous devons nous appuyer sans être considérées seulement comme de simples prises de conscience de quelque chose de préexistant qui serait la réalité empirique comme celle de l'image  réaliste traditionnelle. En fait, aucun phénomène extérieur n'existe et nous sommes responsables de nos perceptions, d'une certaine manière nous créons la réalité phénoménale. Mais nous ne sommes pas libres de créer comme bon nous semble, certaines contraintes existent, la réalité empirique. Cette dernière est l'ensemble des conditions qui rendent possibles nos perceptions tout en les contraignant. Elle n'est pas donnée en tant que telle, mais c'est le cadre des actions, physiques ou psychiques que nous mettons en oeuvre dans le processus cognitif, ensemble des potentialités qui, lors de leur actualisation deviennent perceptibles et donnent naissance à nos perceptions. de façon imagée, la perception est à la potentialité ce que le résultat d'une mesure quantique est à la grandeur physique mesurée. Un phénomène n'est donc pas quelque chose que nous observons passivement, c'est une entité qui se manifeste lors d'une opération dans laquelle nous avons un rôle important à jouer.

Nos perceptions sont en un sens imposées de l'extérieur (la réalité phénoménale est l'ensemble de nos perceptions), nous pouvons avoir l'idée d'une réalité phénoménale qui n'existe pas encore, mais qui vient à l'existence dans le cours de notre tâtonnement. Mais ce à quoi nos recherches donnent existence n'est pas notre oeuvre propre. Le point de vue du réalisme des phénomènes semble erroné. La réalité empirique ne peut être considérée comme l'ensemble des phénomènes, de même que le monde ne peut considéré comme l'ensemble des objets. D'une certaine manière, nous fabriquons le réalité phénoménale à partir de la réalité empirique. Il faut donc abandonner le fameux face-à-face entre le sujet et le monde. Le deuxième niveau est celui de la réalité empirique dont le nom est impropre. Car sa réalité n'est pas constituée d'objets, forces, champs ou de quoi que ce soit de représentable, mais de l'ensemble des potentialités actualisables selon certaines contraintes qui nous empêchent la fabriquer selon notre bon vouloir. On retrouve sous cette forme l'idée du réalisme structurel. L'adéquation empirique ("adéquation phénoménale") des théories contradictoires provient de leur respect de la structure de la réalité empirique, des contraintes (voir ci-dessus) qu'elle implique. Il n'y a plus de réalité à laquelle peuvent faire référence des entités théoriques (elle n'est pas constituée d'objets physiques ayant un référent ni d'entités physiques au sens habituel du terme, mais de perceptions actualisées).  De plus, si les théories physiques ne sont que des algorithmes, alors plusieurs théories peuvent rendre compte de la réalité phénoménale si ces algorithmes reflètent les contraintes structurelles imposées à la réalité empirique.

La réalité phénoménale est conceptualisable et représentable par définition. En revanche, la réalité empirique est conceptualisable (nous sommes capables de fabriquer des théories qui rendent de sa structure), mais pas représentable (elle est potentialité alors qu'une représentation est par essence actualisée). De plus, en raison de la sous-détermination des théories, elle n'est conceptualisable que de manière partielle, et il est impossible de recoller les différentes manières (équivalentes) de la conceptualiser pour en obtenir une représentation globale. (L'épistémologie de Quine comporte une autre thèse essentielle, dite « de la sous-détermination des théories par l'expérience ». On peut la résumer ainsi : deux théories différentes peuvent être empiriquement équivalentes ; elles peuvent être vérifiées et falsifiées par le même budget d'observations possibles, et cela même si l'on poursuivait indéfiniment, « jusque dans l'éternité », les observations et vérifications. La conséquence extrême et paradoxale en est l'impossibilité de concevoir le progrès scientifique comme une approche de la vérité).

On peut comparer cette situation à la complémentarité quantique (onde-particule) pour laquelle les deux descriptions sont complémentaires et incompatibles. On peut mesurer la position ou l'impulsion, mais les deux sont incompatibles. Mesurer l'une puis l'autre ne permet pas de connaître les deux à postériori. La réalité phénoménale est en quelque sorte une coupe actualisée donnant une représentation partielle de la réalité empirique. Chaque coupe est exclusive et ne permet pas de reconstituer une vue en perspective à travers l'image de plusieurs coupes différentes, comme en architecture.La non-représentabilité est due au fait qu'il n'est ni possible de connaître toutes les parties simultanément en totalité ni de reconstruire à postériori la globalité de la réalité empirique à partir des coupes partielles que sont les réalités phénoménales.

"La réalité empirique est la structure limite engendrée par l'ensemble des entités conceptuelles que nous utilisons pour être à même de décrire et de prédire les réalités phénoménales. Elle est donc liée directement aux capacités conceptuelles du cerveau humain même si elle reste hors de portée de d'une compréhension globale. C'est une limite à l'infini qui ne peut qu'être approchée par nos représentations finies tendant vers elle.

Cela peut rappeler le monde- Ω de Bonsack avec ici une infinité de chemins limites incompatibles. Pour le solipsisme convivial, la réalité phénoménale est le résultat de l'accrochage de chaque sujet à une branche particulière de la fonction d'onde de l'univers, actualisée éventuellement de manière différente, sans que cette différence puisse être perceptible. La fonction d'onde de l'univers est une des outils permettant de conceptualiser la réalité empirique, mais celle-ci ne doit pas lui être identifiée. Ce n'est qu'un des outils, issu d'une des théorie possibles pour modéliser la réalité phénoménale qui n'est pas conceptuellement épuisée par cette notion de fonction d'onde. La réalité empirique est en effet l'ensemble des conditions rendant possible l'émergence des réalités phénoménales, qui sont contraintes par la structure de l'esprit humain (dont l'induction au sens faible, le fait que certaines associations passées se reproduisent).


c) La nécessité d'un troisième niveau.

On peut alors se demander si la réalité empirique et la réalité phénoménologique épuisent le monde.

La physique contemporaine a progressivement abandonné l'exigence de représentabilité des concepts car il est impossible de se forger une image de nombre d'entre eux (espace-temps courbe de la relativité générale, concept d'état superposé, enchevêtrement des états de deux systèmes ayant interagi, non-séparabilité, concepts purement mathématiques de la théorie des super cordes). La réalité empirique au sens envisagé ici n'est pas représentable dans sa globalité, mais elle reste conceptualisable, la preuve, nous sommes capables d'en parler et d'en décrire les effets. Dans la conception du solipsisme convivial, c'est le fait que la représentation peut revêtir des formes différentes selon les sujets qui crée la diversité des réalités phénoménales individuelles à partir d'une réalité empirique unique. Cette unicité provient de ce que la structure de notre cerveau, supposée identique pour tous les hommes, détermine ce qui est conceptualisable. Les réalités phénoménologiques sont multiples car il est nécessaire de faire un choix de point de vue pour se représenter la réalité empirique (pourquoi? cela reste hors du champ de notre compréhension. Est-ce dû à la structure de notre cerveau...?). Tous sont potentiellement autorisés et il n'y a aucune raison pour que ce choix soit identique pour tous les sujets.

La réalité empirique est donc l'ensemble des potentialités actualisables; elle est asymptotiquement descriptibles par les entités que nous utilisons pour décrire et prédire les réalités phénoménales. Directement liée aux capacités conceptuelles du cerveau humain, c'est une construction pragmatique indispensable. Mais si on essaye de la penser comme un tout, c'est un monde étrange, non représentable, aux propriétés contre-intuitives.

Cette réalité empirique est inaccessible aux capacités conceptuelles d'un animal dont la conceptualisation est vraisemblablement très différente de la nôtre. Si nous pensons que la nôtre est meilleure et plus complète, alors il est possible d'envisager une capacité de conceptualisation qui serait supérieure à la nôtre. Croire l'inverse serait retomber dans la naïveté de certains savants 19è siècle qui s'imaginaient avoir tout découvert ou postuler comme Church que le cerveau humain est arrivé à un stade d'évolution qui lui permet de conceptualiser tout ce qui est conceptualisable, comme les fonctions récursives partielles suffisent à représenter toutes les fonctions calculables. Il est difficile de donner un sens à la thèse selon laquelle notre conceptualisation est meilleure et plus complète que celle du singe par exemple. Elle suppose qu'on puisse définir la notion "d'entité conceptualisable" (dans l'absolu) sans référence à un type de cerveau particulier comme celui de l'homme ou du singe. S'affranchir des limites du cerveau humain pour définir une notion qui lui est aussi fortement attachée semble une entreprise vouée à l'échec. Si on admet cette possibilité à titre d'hypothèse, la conséquence est que quelles que soient les évolutions futures de l'homme, des machines ou d'éventuels extraterrestres, aucune capacité cognitive ne pourra construire de concepts inaccessibles au cerveau humain. Cela rappelle les croyances anthropomorphes successivement réfutées (position de la terre au centre de l'univers...) pour être plausible.

On peut donc défendre l'idée selon laquelle il y a des choses non conceptualisables, pour nous ou pour tout système perceptif. Ce qui ne veut pas dire "qu'il existe des choses non conceptualisables" car cette manière d'en parler aurait une signification trop proche de nos concepts. On pourrait l'exprimer en disant que ce qui est conceptualisable n'épuise pas "tout", sans préciser ce qu'est ce "tout".

Cela définit un troisième niveau indispensable, dont on ne peut pas parler, qui est en même temps inexprimable. On peut le formuler de manière négative: "nos concepts n'épuisent pas tout". On ainsi introduit trois niveaux: le représentable, le conceptualisable et le non conceptualisable.


d) Les trois niveaux.

1) Quelque chose, dont on ne peut pas parler, mais, s'il le faut, qu'on ne peut caractériser que négativement. Dire qu'il existe est impropre mais le mentionner est déjà une sorte d'existence. Et c'est là que s'arrête le langage. C'est l'inconnaissable, domaine non conceptualisable pour l'homme, comme le domaine d'opérateur quantique est non conceptualisable pour un singe. Sa nécessité provient du refus de considérer que le conceptualisable épuise tout.

2) La réalité empirique qui est l'ensemble des potentialités dont l'actualisation, soumise aux contraintes qui les caractérisent, engendre les perceptions. Celles-ci ne s'actualisent que par l'action de la conscience individuelle au sein de la réalité empirique unique et virtuelle. Inconnu connaissable, la réalité empirique matérialise d'une certaine manière les conditions a priori de nos perceptions. Elle n'existe pas indépendamment de l'homme et c'est bien l'homme qui la crée. Mais l'homme ne fait rien pour la créer. Elle n'est que le moule de ses perceptions au sein de l'inconnaissable (la réalité empirique d'un animal est très différente et elle n'existe pas pour l'homme).

3) Les perceptions qui constituent la réalité phénoménale qui sont différentes chez chacun et sont l'apparence que prend la réalité empirique pour les individus. C'est le connu. Les perceptions ne sont pas neutres et objectives mais nous sont livrées à travers tous les filtres conceptuels du langage, de la culture, de l'éducation et les filtres physiques de nos sens.

"Nous ne fabriquons pas la réalité phénoménale directement à partir de la réalité empirique mais par actualisation à travers le moule de la réalité empirique, d'une portion de l'inconnaissable".


5) Conclusion.

La réflexion sur les limites de la connaissance nous a éloigné de l'environnement rassurant des théories scientifiques pour s'approcher de la métaphysique et de positions hors de portée de toute justification empirique et de nature purement philosophique. Elles ne sont pas vaines et ont une valeur liée à la réflexion pure qui permet de se forger pour soi-même une conception du monde, même si elle est au-delà de toute validation. C'est un objectif intéressant si on s'astreint à respecter une rigueur de raisonnement et une cohérence logique. Il peut apporter une réponse possible à certaines des énigmes présentées au cours des articles de cette réflexion sur les limites de la connaissance.

La conception qui est exposée, complétée par le solipsisme convivial est "ma lecture " du livre de Hervé Zwirn, qui est conforme aux exigence de la physique quantique au sens large. Elle est directement inspirée par les solutions actuellement acceptées du problème de la mesure quantique. Elle échappe de ce fait aux objections soulevées par la physique moderne contre le réalisme traditionnel. Elle rejette à la fois le réalisme métaphysique et le réalisme épistémique mais ce n'est pas une conception idéaliste pure. Elle permet de comprendre pourquoi plusieurs théories apparemment contradictoires ou incommensurables peuvent néanmoins décrire correctement la réalité phénoménale en évitant la fausse question du référent réel des entités théoriques ou le concept illusoire de vérité approximative.

La sous-détermination des théories par l'expérience est une conséquence du fait que nos théories ne sont que des algorithmes utiles pour prédire la réalité phénoménale. En conséquence, l'argument no miracle (du succès empirique) s'évanouit  si on considère que les théories ne s'appliquent qu'à une partie de la réalité phénoménologique qui s'y prête et que de vastes portions leur échappent et leur échapperont toujours, et d'autre part, que leur réussite provient de de leur respect de la structure de la réalité empirique.

L'intersubjectivité s'explique si on croît à l'unicité de la réalité phénoménale et que les perceptions de différents sujets sont identiques. Le formalisme quantique fournit une explication cohérente même en l'absence de réalité externe préexistante. Mais si on suppose que qu'il y a autant de réalités phénoménales que de sujets différents, le solipsisme convivial permet de comprendre pourquoi il est impossible d'en prendre conscience. L'intersubjectivité est alors une illusion que nous n'avons aucun moyen de dissiper.

La résistance du réel provient de l'incapacité de nos structures mentales à élaborer une construction théorique formelle et une construction perceptuelle qui soient conjointement consistantes.

Cette conception emprunte certains traits à des positions opposées. Partiellement réaliste (tout n'est pas création de nos esprits), elle n'admet pas l'existence d'une réalité indépendante de l'homme. Les réalités empiriques et phénoménales n'existent que relativement à nos capacités perceptives (donc leur existence est de nature différente de celle postulée par les conceptions réalistes traditionnelles). L'inconnaissable n'a aucun attribut et on ne peut pas dire qu'il existe indépendamment de l'homme, conception partiellement idéaliste en ce sens que l'esprit humain y joue un rôle essentiel bien qu'il n'en soit pas le seul ingrédient: "L'esprit et le monde construisent conjointement l'esprit et le monde" (Putnam, cité en exergue). Cette conception fait jouer aux théories le rôle d'algorithme (forme d'instrumentalisme), mais le dépasse en proposant une explication de la réussite prédictive des algorithmes à travers un réalisme structurel. Et enfin, elle s'inscrit dans une perspective néo-kantienne.


Arrivé au terme de mes articles sur "les limites de la connaissance", je pense qu'une relecture depuis le début après un certain temps de réflexion permettra de nouveaux commentaires et de mûrir une propre conception qui ne sera sans doute jamais définitive.






14:58 Écrit par pascal dans les limites de la connaissance | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook

6-7 partie 1Les limites de la connaissance 6-7) Positions et attitudes philosophiques (deuxième partie).

Les limites de la connaissance 6-7)

Positions et attitudes philosophiques

(deuxième partie).

.

"La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gödel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?"


Je voudrais ici faire partager ma lecture de Hervé Zwirn.

En exergue:

"En bref, je défendrai une conception dans laquelle l'esprit ne se contente pas de "copier" un monde qui ne peut être décrit que pas une Seule et Unique Théorie Vraie. Mais je ne prétend que l'esprit invente le monde [...]. L'esprit et le monde construisent conjointement l'esprit et le monde. Putnam (1981).


 

1) Introduction.

Les articles précédents ont montré que la science ne peut atteindre la certitude, mais on peut penser que c'est la meilleure approche cognitive de l'univers que nous possédons même si elle ne peut atteindre au degré de perfection ultime que nous souhaiterions. C'est le symptôme d'une limitation de nos possibilités humaines de connaissance et pas seulement du discours scientifique qui pourrait être dépassé par un moyen alternatif non scientifique comme la magie ou des "parasciences". Elle a fait l'objet de l'article "Les limites de la connaissance 6-6".

Les limites constructives: l'impossibilité de construire des systèmes échappant à tout doute et de donner des fondations certaines au savoir.

Les limites prédictives: l'espoir de prédire de manière complète, avec certitude et sur des périodes arbitrairement grandes l'évolution des systèmes physiques ne peut être atteint.

Limites cognitives: impossibilité de connaître parfaitement et en détail certaines parties du monde.

Limites ontologiques: elles éliminent certaines entités conceptuelles comme inconsistantes ou résidant en dehors des possibilités d'appréhension du discours.

Il faut cependant en préciser la portée véritable et préciser les résultats qui peuvent en atténuer l'impact. Par exemple: "aucun système formel assez puissant pour incorporer l'arithmétique ne peut prouver par ses propre moyens sa consistance s'il n'est pas contradictoire". Cela ne veut pas dire qu'il soit impossible de la faire par d'autres moyens: la preuve donnée par Gentzen le montre.

Après cette réflexion, nous pouvons aborder plus en détail l'examen des positions et attitudes philosophiques qui se sont exprimées après la découverte de ce monde quantique.

Le réalisme comme l'idéalisme ont des arguments en leur faveur tout en étant ébranlés par des objections sérieuses, mais les critiques ne suffisent pas à réfuter globalement et définitivement chaque position, pas plus que les arguments ne peuvent en établir la vérité. Les autres arguments avancés par les pragmatistes ou les constructivistes ne se prononcent pas directement sur l'ontologie, mais ils aboutissent à des conclusions épistémologiques qui peuvent avoir des conséquences métaphysiques.

Dans cette deuxième partie de l'article, nous analyserons plus en détail un certain nombre de variantes en examinant aussi de quelle manière "les limites de la connaissance" jettent un éclairage nouveau sur ces problèmes:

Le réalisme de Boyd.

Le scepticisme de Stein.

Le réalisme structurel de Poincaré.

L'empirisme constructif de Van Fraassen.

Le réalisme interne de Putnam.

Le réalisme de Bonsack.

Le Réalisme voilé de Bernard D'Espagnat.


1) Le réalisme de Boyd.

autre Boyd: Richard Boyd-Dunlop’s figures (réalisme?)

Il est une réponse aux arguments classiques des antiréalistes. Pour lui, l'objet de la science est la connaissance des phénomènes indépendants pour une grande part des théories et cette connaissance est possible même lorsque les phénomènes ne sont pas observables. Son argument, qu'il appelle "abductif", en faveur du réalisme est le succès des théories scientifiques. "Contre les empiristes, le réaliste avance que c'est seulement en acceptant la réalité d'un savoir théorique approximatif qu'il est possible d'expliquer la réussite expérimentale des méthodes scientifiques." Cette explication repose sur deux points: *le premier est une conception cumulative de la recherche par approximations successives de la vérité. *Le deuxième est qu'elle est possible car il existe une relation dialectique entre les théories courantes et la méthodologie utilisée pour leur amélioration. La méthode scientifique fournit une stratégie de modification des théories existantes. Si le corpus des théories acceptées est suffisamment proche de la vérité, cette méthodologie produit une amélioration à la fois de notre connaissance du monde et de la méthodologie elle-même. Pour Boyd, il est impossible d'expliquer que ce processus fonctionne sans adopter une conception réaliste. Il s'oppose aux antiréalistes constructivistes selon laquelle le monde est défini ou construit par par la tradition théorique qui définit la méthodologie, mais il en adopte un trait: la méthodologie scientifique dépend étroitement du cadre théorique. Il en tire un argument en faveur du réalisme: "la réussite empirique des théories ne peut être un artefact de la construction sociale de la réalité."

Par ailleurs, Boyd évite les échecs de l'empirisme logique, de l'opérationnalisme, de la position de Kuhn et des constructivistes selon lesquels la référence d'un terme théorique dépend totalement de la théorie qui l'utilise par ce qu'il appelle "l'accès épistémique": "Un terme t réfère à une entité e uniquement dans le cas où les interactions causales complexes entre les propriétés du monde et les pratiques sociales humaines aboutissent au fait que ce qui est dit de t est, en général et à travers les époques, régulé de manière fiable par les propriétés réelles de e." Il n'est ainsi par gêné par le fait que lui opposeraient les constructivistes qu'une théorie nouvelle ne peut être une amélioration de l'ancienne puisqu'elle ne parle pas de la même chose.


Mais le réalisme de Boyd est dissocié de beaucoup de traits qu'on attribue généralement au réalisme. Il rejette le fondationnalisme qui est pour lui la position consistant à considérer que toute connaissance est fondée sur certaines croyances de base qui occupent une position épistémologique privilégiée, croyances "à priori", hors de doute et incorrigibles.


En  effet, le fait de supposer que le savoir croît régulièrement par approximations successives et que l'évaluation des théories est un phénomène social entraînent que la notion essentielle est "la régulation fiable du savoir" plutôt que sa production fiable. L'épistémologie dépend donc de la connaissance empirique et les principes méthodologiques dépendent profondément des théories. Ils sont un guide fiable vers la vérité parce que le corps des théories qui détermine leur application est approximativement vrai. Il n'y a pas de justifiables à priori d'inférence non déductive. L'émergence de la rationalité scientifique dépend de l'émergence historiquement, épistémologiquement et logiquement contingente de théories approximatives. Il en résulte que le réalisme réfute le fondationnalisme.


Boyd n'adhère ni à l'idée (habituellement attribuée aux réalistes) selon laquelle toute proposition factuelle est soit vraie soit fausse (la bivalence), ni à la croyance en l'existence d'une seule théorie vraie.  Resher donne un exemple pour la bivalence. Soient les deux phrases: *Le cancer est causé par un virus; *le cancer est causé par autre chose qu'un virus. Il semblerait à priori qu'une et seulement une des deux phrases soient vraies mais c'est erroné, car le mot "cancer" regroupe un ensemble de maladies. L'évolution des théories amènera peut-être à ramifier le référent. Les deux phrases pourront alors simultanément vraies l'une pour le référent "cancer 1", l'autre pour cancer 2".


Boyd refuse le réductionnisme de la science à la physique. On ne peut écarter la possibilité que des théories physiques bien confirmées soient mises en défaut en raison de conflits avec des observations issues de "sciences moins dures" comme la géologie...

 

2) Commentaires sur le réalisme de Boyd.

La relation dialectique entre les théories scientifiques et la méthodologie utilisée pour leur amélioration n'est pas spécifique du réalisme et elle est partagée par de nombreux épistémologues. Son rejet du fondationalisme et de la bivalence permettent de le classer parmi les réalistes sophistiqués.

Première remarque: La solution que propose Boyd de la référence des termes théoriques  à l'accès épistémique pose le problème de savoir ce que sont les propriétés réelles de l'entité e auxquelles il se réfère et si cela a un sens de de postuler de telles propriétés (illusion de penser une entité comme l'électron en tant qu'élément différencié en raison de la non-séparabilité par exemple). Boyd passe cette difficulté sous silence.

Autre difficulté: impossibilité de définir précisément ce qu'est une vérité approximative. que veut dire la phrase "la mécanique relativiste est plus proche de la vérité que la mécanique newtonnienne" (Popper a échoué à définir rigoureusement la vérisimilitude)? Mais une théorie de la vérité approximative reste à inventer et le concept d'évolution cumulative du savoir vers une connaissance de plus en plus proche de la vérité souffre d'un défaut qui apparaît rédhibitoire. On peut dire que la mécanique newtonnienne est une approximation numérique de la mécanique relativiste ou de la mécanique quantique, mais il est impossible de soutenir que que la la mécanique relativiste (et quantique) donne une connaissance qui est un prolongement de celle fournie par la mécanique newtonnienne dans la mesure où dans le cadre relativiste ou quantique, la mécanique newtonnienne est , en toute rigueur, fausse (il y a changement de paradigme).

Par ailleurs, l'argument abductif ("l'argument du miracle"), est sujet à objections. Une théorie empiriquement satisfaisante à un instant donné est elle vraie, au moins de manière approchée?  Si cela était, pourquoi des théories comme celles de l'éther ou du phlogistique sont-elles maintenant exclues de nos théories actuelles? L'argument abductif n'est pas suffisamment convaincant par lui-même si on admet que toute théorie fausse a des conséquences vraies (en fait, il y en a une infinité. La théorie de Boyd, présente des aspects solides en ce qui concerne son épistémologie (évolution dialectique de la science, rejet du fondationalisme et de la bivalence), mais dans ses aspects métaphysiques elle ne se présente pas comme une défense du réalisme aussi solide que le souhaiterait son auteur.


3) Le scepticisme de Stein.

L'analyse analyse de Stein a le mérite de rappeler les objections qui peuvent être faites à l'encontre des positions en présence. Il cultive le scepticisme socratique et n'oppose pas le constructivisme et le réalisme. Selon lui, sous leur forme la plus simple, elles ne rendent pas compte de la dialectique du développement scientifique, mais dans leur version raffinée, des aspects de chacune d'entre elles sont simultanément présents et la contradiction s'évanouit.

*Pour l'instrumentalisme, une théorie n'est rien d'autre qu'un instrument pour représenter des phénomènes. Le réaliste demande en plus que les termes théoriques se réfèrent à une réalité et que ses énoncés soient vrais ou faux. Mais si la référence et l'adéquation de la théorie se situe au-delà de son adéquation avec le domaine empirique, comment pourrons nous jamais savoir ce qu'il en est? Alors que Kant semble mettre la référence et la vérité au-delà du savoir, Tarski trivialise le concept par les "méta-théories" (théorie sur la théorie) et n'a jamais répondu au problème de la transcendance. Mais si on ne les considère pas comme de simples instruments, la question demeure de savoir comment déterminer si les théories sont vraies ou non. La position de Boyd (relation des théories avec l'expérience et l'évolution du processus scientifique qui produit des arguments en faveur de leur vérité), ne semble pas être pertinente pour répondre à l'instrumentalisme.

Pour Stein, hypostasier les entités ne peut être une explication de leur utilité (par exemple, on voit l'herbe verte parce qu'elle possède la propriété d'être verte n'explique rien, cela n'aide même pas à comprendre pourquoi nos sensations ont cette forme), c'est la manifestation d'un abandon des normes intellectuelles de rigueur. Le problème pour l'épistémologie évolutionniste de Boyd est alors de comprendre comment nos moyens, qui ont évolué à partir de leur valeur instrumentale destinée à traiter d'aspects immédiats du monde ont été capables de traiter aussi de la mécanique quantique. Selon Stein, le processus de développement des théories vers des concepts de plus en plus fondamentaux n'a rien a voir avec leur aspect référentiel ou leur ontologie. La science progresse non par la façon dont elle rend compte des "substances",mais celle dont elle traite des formes. Le réalisme comme l'instrumentalisme simple ne sont donc pas satisfaisants, mais il n'y a pas de différence pour cet aspect entre un réalisme modifié (Boyd) et un instrumentalisme raffiné. Le thèse de Berkeley (seuls sont réels les esprits et les perceptions), n'est pas réfutée après l'échec du phénoménomalisme comme base du langage scientifique. Est-ce que seule une entité derrière les apparences peut produire ds régularités dans nos perceptions? Est-il plus miraculeux que nos perceptions suivent des lois que de constater le succès empirique de la loi de la gravitation? Ce que la science accepte comme principe ultime à un moment donné parce qu'il n'y a pas de fondement plus profond reste inexplicable et semble d'autant plus miraculeux que c'est éloigné du domaine familier. Nous devons accepter de formuler nos croyances en termes non phénoménologiques et alors, les atomes... se retrouvent sur le même plan que les tables et les chaises. "Le réalisme oui, mais... l'instrumentalisme aussi". Telle est la position de Stein.


4) Commentaires sur le scepticisme de Stein.

Plus qu'une conception consistant à élaborer un raisonnement démonstratif, cette démarche consiste à poser une suite de questions. Stein se refuse à trancher et il est vrai qu'il serait prétention d'affirmer que telle seule ou telle conception est la bonne. Il faut certes écarter celles qui sont manifestement incohérentes ou contredites par l'expérience, mais le choix demeure lié à des intuitions personnelles qui ne peuvent être tranchées ni par le raisonnement ni par l'expérience. Pour Stein, "ce que le science adopte à un moment donné comme principe ultime reste inexplicable." Quelle est la cause de la loi de la gravitation en théorie newtonnienne ou du champ de gravitation en relativité générale? Pourquoi le principe de conservation de l'énergie ou de la relativité, qui sont les fondements de la physique moderne son-ils vérifiés? Cela reste un mystère auquel nous devons nous résigner (les principes de conservation et l'existence des forces sont reliés à des propriétés d'invariance par symétrie, mais ceci ne fait que reculer le problème).


5) Le réalisme structurel de Poincaré selon Worrall.

Le réalisme structurel énoncé initialement par Poincaré dans La science et l'hypothèse est défendu par Jonh Worrall (le moyen de concilier le meilleur du réalisme avec le meilleur du constructivisme?). Cette conception s'oppose à celle de Boyd selon laquelle la science progresse par accumulation de théories de plus en plus proches de la vérité. Le concept de vérité approximative n'est pas clairement défini. La transitivité (T proche de T' et T proche de T" ==> T proche de T"?) expose rapidement à des absurdités. De plus ces théories doivent-elles avoir des  conséquences proches? La réponse est négative, car elles être contradictoires et avoir des conséquences opposées. par exemple des théories proches comme celle de Maxwell ou Fresnel sur la lumière (champ électromagnétique se propageant dans le vide ou vibration d'un milieu élastique), celle la gravitation de Newton ou la relativité générale, peuvent elles être considérés comme proches et de simples améliorations? Par contre, les arguments précédents justifient dans ce cas la thèse constructiviste  des révolutions scientifiques et des changements de paradigme.

De plus, Worral attaque l'argument abductif du no miracle en faveur du réalisme. Pourquoi faut-il penser que parce qu'une théorie a bien fonctionné elle est vraie ou approximent vraie? L'histoire des sciences montre que des théories considérées comme empiriquement adéquates à leur époque ont été réfutées et sont donc fausses. On peut en inférer (raisonnement inductif pessimiste?) que nos théories actuelles les mieux corroborées subiront un jour le même sort. Il adopte un "réalisme conjectural", proche de la position de Popper débarrassée de tout ce qui touche à la vérisimilitude: les théories actuellement acceptées sont les meilleures possibles disponibles à un moment donné, mais elle ne ne doivent pas être considérées comme vraies, ni comme plus proches de la réalité que celles qui les ont précédées ou qui leur succéderont.

Cependant, Worrall reconnaît quelque chose de juste dans l'argument "no miracle" des réalistes épistémiques: il existe un élément de continuité dans le passage de la théorie de Fresnel à celle de Maxwell ou dans celui de Newton à Einstein. Cependant, cette continuité ne concerne pas le contenu des théories, mais leur forme ou leur structure. La théorie de Fresnel est passée à côté de la nature de la lumière, mais elle lui a attribué la bonne structure (la lumière est constituée de vibrations orthogonales à leur direction de propagation).. Ce n'est donc pas un miracle si elle a remporté le succès empirique qu'on lui a connu. Elle a en commun un aspect structurel avec la théorie de Maxwell. Ce qui explique les succès empiriques des théories, ce n'est pas le fait qu'elles sont proches de la réalité ou qu'elles ont un référent, mais que leur structure a quelque chose de réel. La continuité et la proximité auxquelles on peut se référer sont celles de la structure des équations. La courbure de l'espace temps n'est pas un cas limite ou une approximation du concept d'action à distance mais les équations de Newton sont un cas limite de celles d'Einstein quand la vitesse de la lumière tend vers l'infini. Cela permet de concilier l'argument du no miracle (les théories capturent des éléments de la réalité) et la notion constructiviste de leur incommensurabilité et de changement de paradigme.


6) Commentaires sur le réalisme structurel.

Si on suit Worral qui réfute la position de Boyd, on est conduit à refuser la continuité des théories et à adopter la version constructiviste de l'évolution la science sans la suivre jusqu'au bout et de sauvegarder une certaine forme de réalisme. Le réalisme structurel remplace le concept de proximité des contenus théoriques (concept douteux) par celui de proximité des structures de théories.

Le cas de la relativité va dans ce sens, cas limite des équations d'Einstein lorsque la vitesse de la lumière tend vers l'infini. Mais le cas de la mécanique quantique ne se prête pas aussi facilement à une telle réduction. Les efforts dans ce sens se heurtent à des obstacles qui n'ont été levés jusqu'à présent que très partiellement. On a vu avec le chaos quantique que les équations ne sont pas analytiques en h (constante de Planck) et que la limite quand h tend vers 0 de ces équations n'est pas égale à ce qu'on obtient quand h est rigoureusement égal à 0. C'est la difficulté des approches  dites "semi-classiques". Un définition plus large proposée par Bonsack (voir ci-dessous chapitre10) permet de ne pas remettre en cause le réalisme structurel  (si on suppose que la réalité empirique est donnée, c'est à dire si on considère que nous ne la construisons pas).


7) L'empirisme constructif de Van Fraassen.

Mais si on considère que que la nature de la réalité empirique dépend des actions cognitives faites dans le but de la connaître, alors le réalisme structurel n'est plus un réalisme car il se réfère aux structures de notre esprit et se rapproche d'un idéalisme Kantien pour lequel la structure serait celle de nos catégories a priori. pour Van Fraassen, puisque le réalisme donne pour but à la science de décrire littéralement ce à quoi le monde ressemble,  on peut concevoir un antiréalisme dans lequel la science peut avoir un but qui ne se donne pas une description littéralement vraie et dans lequelut qui ne se donne pas une description littéralement vraie et dans lequel accepter une théorie n'entraîne pas forcément la croyance en sa vérité. Sa position antiréaliste, l'empirisme constructif, est telle que "le but de la science est de fournir des théories qui sont empiriquement adéquates  et accepter une théorie n'entraîne comme seule croyance que le fait qu'elle est empiriquement adéquate."

Pour Van Fraassen, une théorie est "empiriquement adéquate" si et seulement si ce qu'elle dit au sujet des phénomènes observables est vrai (si elle "sauve les phénomènes").  Cette position est instrumentaliste. Accepter une théorie implique plus qu'une croyance, un engagement d'examiner le futur à l'aide des ressources conceptuelles de la théorie. Cet aspect pragmatique, que ne rejetterait pas un réaliste, s'oppose néanmoins au réalisme traditionnel, car ici, ce qui est observable dépend de la communauté "épistémique" (c'est observable pour nous). Un réaliste traditionnel stipule qu'un présence d'un évènement E et de plusieurs hypothèses, nous inférons qu'une d'entre elles est la meilleure explication de E (par exemple, nous inférons qu'une chaise existe quand nous en voyons une, parce que c'est la meilleure explication). Pour Van Fraassen, cet argument est une hypothèse de nature psychologique, il exprime ce que nous somme désireux de choisir ou pas. Il propose une hypothèse psychologique rivale: nous sommes toujours désireux ce croire que la théorie qui explique le mieux un évènement est empiriquement adéquate (c'est à dire, tous les phénomènes se comportent comme la théorie dit qu'ils le font). C'est l'hypothèse dans le contexte antiréaliste concernant l'inférence scientifique).


8) Le réalisme interne de Putnam.

image dans discovervedantafr.wordpress.com/ Un Regard sur l’Univers: un entretien avec l’astrophysicien Trinh Xuan Thuan

Putnam tente de préserver le réalisme du sens commun en évitant ce qu'il considère comme les absurdités et les antinomies du réalisme scientifique qu'il appelle le "réalisme métaphysique".   Le "réalisme interne" ("réalisme pragmatique?") de Putnam  est à la fois réaliste et relativiste conceptuel.

passerelle vers l'un Trinh Xuan Thuan

Par exemple,Sellars ,(selon Hervé Zwirn), s'appuie sur le réalisme scientifique pour nier le fait que les objets courants comme les tables et les chaises existent. Le réalisme se présente sous deux versions de base. Pour la première, "le réalisme du sens commun", les objets de notre expérience quotidienne existent vraiment et possèdent bien les propriétés qu'on leur attribue. La deuxième, le réalisme scientifique, n'accorde d'existence qu'aux entités scientifiques et affirme que le monde du sens commun n'est qu'une projection. Cette conception a pour origine la révolution galiléenne qui nous a appris à penser que la vraie description du monde extérieur est mathématique. La taille ou la position sont des propriétés réelles, alors que d'autres , comme la couleur, sont des propriétés dispositionnelles. C'est la distinction due à Locke entre les qualités primaires et les qualités secondaires. Ce dernier fait intervenir les données des sens dans la détermination des propriétés d'un objet. Un objet rouge ne possède pas en lui-même sa "rougeur", mais une disposition à causer la sensation du rouge lorsqu'il est éclairé. Il es est de même pour d'autres propriétés comme la solidité, ce qui conduit Sellars à à dire que les objets courants n'existent pas et à refuser le réalisme du sens commun. Pour Putman, cette position est désastreuse, bien qu'elle soit acceptée en tant que "sens commun postscientifique" comme vision du monde dépassée qu'il faut rejeter pour adopter la conception qui constitue la meilleure explication du monde tel que la science nous apprend qu'il est. Car, en quoi est-ce une explication que d'affirmer que "la sensation de rouge apparaît" suite à l'excitation de certaines zones de notre cerveau par un influx nerveux. Cette explication fait intervenir un processus pour lequel nous n'avons même pas une esquisse de théorie et qui est plus mystérieuse que le phénomène à expliquer! Cela rejoint l'analyse de Stein contre l'argument de l'explication en faveur du réalisme. Ainsi, pour Putnam, "histoire des données des sens" n'est qu'une hypothèse très particulière. Ces données sont pourtant considérées par la philosophie traditionnelle comme ce qui est donné, ce dont nous sommes absolument sûrs indépendamment de toute théorie scientifique.

Il est grand temps de changer d'image. La cause de cette "maladie" réside dans la notion de propriété intrinsèque propriété qui appartient à quelque chose indépendamment de toute contribution du langage ou de la pensée. Les réalistes comme les idéalistes ont accepté cette distinction entre propriété intrinsèque et propriété projetée. La couleur, la solidité sont des propriétés projetées, des dispositions à produire certaines données des sens ou, (comme disent les matérialistes),  à produire certains états de notre système nerveux et de notre cerveau. Mais, comme le dit Putnam, il est impossible de définir rigoureusement les termes dispositionnels et de préciser ce qu'est une disposition. Quand à projeter, c'est une forme particulière de pensée, c'est penser à quelque chose comme ayant des propriétés qu'il n'a pas, mais que nous pouvons imaginer sans être conscient de ce que nous faisons. D'où le paradoxe souligné par Putnam: pour expliquer (donc en termes de pensée) l'apparence du monde du sens commun, le réalisme doit faire appel à la pensée et donc nier la réalité objective, comme son ennemi, l'idéalisme. Le réalisme scientifique nie donc la réalité des objets du sens commun et ne confère d'existence qu'aux objets utilisés dans les théories scientifiques. L'explication de l'apparence du monde ordinaire, devient ainsi une sorte d'idéalisme qui n'explique rien, car nous ne disposons d'aucune théorie de la pensée et celle-ci est même de plus en plus traitée comme une projection.

Putman rejette ensuite "le postulat objectiviste fondamental":

*"Une distinction claire doit être faite entre les propriété que les choses ont par elles-même et celles que nous projetons."

*C'est la physique qui nous dit quelles sont les propriétés que les choses ont en elles-même.

Si on accepte ce postulat, les phénomènes mentaux doivent être des phénomènes physiques dérivés. Comment alors expliquer l'émergence de la pensée, c'est à dire expliciter de manière réductrice (à la physique) ce qu'est penser quelque chose. Pourquoi croire que c'est possible quand on a échoué pour les dispositions? Il faut donc le rejeter.

Le réalisme interne de Putnam est la point de vue de notre sens commun familier: les tables et les chaises existent, de même que les électrons, l'espace-temps ou les nombres premiers. Notre sens commun, les schémas scientifiques, les approches artistiques ou autres doivent être acceptés en tant que tels. C'est possible, car on peut être réaliste et relativiste conceptuel, conception selon laquelle les notions primitives et en particulier les notions d'objet ou d'existence ont une multitude d'usages différents plutôt qu'un sens absolu. La bonne utilisation d'un concept dépend du cadre dans lequel on l'emploie et ce n'est qu'après avoir précisé ce cadre, en spécifiant ce que nous considérons être un objet que la question admet une réponse définie, et celle-ci n'est alors en rien simple affaire de convention. En dehors du cadre défini, la question n'a pas de sens. Par exemple dans un monde comportant 3 objets (x,y,z) la question combien y a-t-il d'objets peut recevoir les réponses 3 ou 7 si on considère que la somme de plusieurs objets est un objet. Elle est donc dépourvue de sens tant qu'on a pas adopté un cadre conceptuel précis. Mais une fois ce cadre adopté, la réponse est parfaitement précise et s'impose de manière unique. La notion d'existence ne se réfère donc pas à une réalité en soi indépendamment de notre manière de l'appréhender, mais au cadre conceptuel dans lequel nous nous plaçons pour le faire. Donc le "même monde" peut être décrit comme composé de tables et de chaises dans une version et de particules dans l'autre? Mais des questions comme l'existence ne peuvent avoir un sens indépendamment d'un choix préalable de concepts appropriés. Ainsi, Putman est conduit, dans la ligne de pensée pragmatique, à abandonner "le point de vue du spectateur" en épistémologie, tout comme Willard_Van_Orman_QuineDavidsonGoodman.

Le réalisme interne abandonne le concept de chose en soi, mais pas comme chez Kant à cause d'une impossibilité de la connaître (Kant ne rejette pas l'idée que ce concept pourrait avoir un sens), mais du refus d'attribuer un sens à ce concept. De même, il rejette aussi les dichotomies comme celle qui oppose les propriétés en soi d'un objet à ses propriétés projetées. Pour Putnam, il n'y a pas de frontière nette entre l'objectif et le subjectif (où commence l'objectif = pure chimère). Il refuse donc la théorie de la vérité-correspondance (Le concept de "fait" n'est pas externe et donné, mais dépend du cadre conceptuel dans lequel on se place et le mot fait n'a pas plus d'usage fixé par la réalité que les mots "existe" ou objet)." Dans le cadre du réalisme interne, nous devons accepter que "étant donné un langage, nous pouvons décrire les faits qui font qu'un énoncé de ce langage est vrai ou faux d'une manière triviale, en utilisant les énoncés de ce langage." Mais le rêve de trouver une relation absolue et universelle entre une supposée totalité des faits et un énoncé vrai d'un langage n'est que le rêve d'une notion absolue de fait. ("la quête des meubles de l'univers sera terminée avec la découverte que l'univers n'est pas une pièce meublée)."Ainsi, nous devons accepter l'explication selon laquelle "la cocotte minute a explosé parce que sa valve s'est bloquée" est pertinent dans le cadre du sens commun sans exiger une description philosophique ou scientifique plus profonde ...".


9) Commentaires sur le réalisme interne.

"En bref, je défendrai une conception dans laquelle l'esprit ne se contente pas de "copier" un monde qui ne peut être décrit que par une Seule et Unique Théorie Vraie. Mais je ne prétends pas que l'esprit invente le monde [...]. L'esprit et le monde construisent conjointement l'esprit et le monde. Putnam (1981).

Ce que Putnam rejette dans la théorie de l'explication (ce qui est partagé par de nombreux philosophes), c'est essentiellement l'idée que les données des sens seraient données de manière univoque indépendamment de tout concept utilisé pour les appréhender (même nos "inputs" les plus primitifs sont façonnés par nos cadres conceptuels). Il rejette le concept de réalité en soi comme dénué de sens, mais comme il ne prétend pas que le monde n'est qu'une création de l'esprit (idéalisme pur), il doit accepter l'idée de quelque chose indépendant de l'esprit. Alors, qu'est-ce que cala signifie si ce quelque chose d'autre n'existe pas en soi? C'est le cadre conceptuel qu'on utilise. Mais, comme dans le cas cité au chapitre précédent pour un univers à 3 objets (y a t-il 3 ou 7 objets?), ne peut-on pas considérer qu'indépendammant de tout cadre, l'univers en question préexiste à la question de savoir combien il contient d'objets? Il semble logiquement nécessaire d'accepter l'existence d'une réalité externe à l'esprit pour que celui-ci adopte un cadre conceptuel pour en parler, ce qui rejoint un concept proche de celui du réalisme structurel.

Putnam étend ses conclusions relativistes à propos de l'existence de l'objet (qui dépend du cadre conceptuel), à l'existence de ce qui permet, en même temps que le cadre, de définir la notion d'objet et donc de son existence. Il faut bien que le cadre s'applique à quelque chose qui ne dépend pas de lui. Il semble donc nécessaire d'admettre l'existence de quelque chose, une réalité en soi, dont on ne peut parler et dont la seule propriété est d'exister dans un sens absolu: "quelque chose d'autre que l'esprit existe". Il serait sans doute prudent d'en parler en adoptant une sorte de réalisme structurel (ce que Putnam ne fait pas). Et, contrairement à ce qu'il affirme, sa position semble nécessiter deux concepts d'existence: un concept premier, absolu qui ne s'applique à aucun objet mais uniquement à ce "quelque chose", et un concept secondaire par rapport au concept d'objet dépendant du cadre conceptuel, qui s'applique à des objets particuliers. ce postulat, qui n'est pas celui de Putman, ressemble a celui que propose D'Espagnat (voir ci-dessous) sous forme de "réalisme ouvert", mais ce dernier ne se prononce pas sur l'impossibilité de principe de parler de ce quelque chose, car on ne peut pas se passer d'un réel antérieur à la connaissance.

Le relativisme conceptuel de Putnam est bien conforme aux conséquences de la mécanique quantique: impossibilité de parler d'objets en soi, de propriétés appartenant en propre à un système, de phénomènes indépendamment d'un dispositif expérimental précis et nécessaire contextualisme des théorie quantiques. La critique du réalisme se trouve confortée après l'analyse du problème de la mesure dans le contexte des théories de l'environnement. Il faut faire appel aux caractéristiques de l'esprit humain pour expliques pourquoi le monde est tel que nous le voyons. Le lien avec les apparences du sens commun et les perceptions quotidiennes, déjà distendu par la physique classique, a été éclaté par la mécanique quantique. Expliquer l'apparence commune des choses devient un exercice de plus en plus difficile et culmine dans des théories comme celles de Zurek ou dans l'interprétation du solipsisme convivial.

Mais, comme le fait Putnam, faut-il rejeter définitivement le recours à la pensée ou aux contraintes de l'esprit humain parce qu'il est indispensable dans ces explications et que nous ne pouvons pas le réduire (en l'état actuel de nos connaissances), à un processus purement physique? Cela revient à déclarer que l'explication donnée par le réalisme scientifique n'a aucune valeur puisqu'elle ne peut être menée de bout en bout en restant dans ce cadre scientifique et qu'elle se termine par un concept qui sort de ce cadre. La solution est-elle de choisir un cadre quelconque et à y demeurer, y compris pour le type d'explication qu'on est prêt à accepter: admettre que la cocotte explose parce que la soupape est restée bloquée ou que nous voyons une chaise dans la pièce parce qu'il y a réellement une chaise, ce qui permet de sauver le réalisme du bon sens.

Mais cela revient à renoncer à comprendre les liens qui unissent les différents cadres conceptuels possibles. Cela est relativement facile pour des cadres dont les liens sont explicites, comme ceux qui définissent un ensemble d'objets (3 ou 7 pour une ensembles de 3 objets), mais il devient très difficile de rendre compte du cadre classique quotidien du bon sens à partir du cadre quantique où il semble que le recours aux limitations humaines ne puisse être évité. Les explications dans les deux cadres ne sont plus équivalentes. Le relativisme conceptuel est acceptable quand il dit que le sens commun des énoncés n'est pas absolu mais dépend de l'adoption d'un cadre conceptuel, mais, contrairement à Putnam, il semble difficile d'admettre que tous les cadres sont équivalents et qu'il est possible d'accepter aussi bien le réalisme du sens commun que que celui du cadre scientifique. Ils ne sont pas équivalents.


10) Le réalisme de Bonsack.

histoire de l'architecture gothique: gothic.centerblog.net

gothic.centerblog.netLe réalisme de Bonsack "essaye de donner un sens au réalisme dans un cadre idéaliste, mais les idéalistes s'arrêtent à mi-chemin, ils oublient de retrouver le réalisme." Son épistémologie réaliste (il l'affirme) n'est pas une conception métaphysique: il refuse d'adhérer a priori à un système sur la seule base de sa consistance interne et il exige que le sens des mots ou des phrases utilisés soit lié aux conditions de sa vérification (pour affirmer qu'une chose est réelle ou qu'une phrase est vraie, il faut dire ce qui distingue une chose réelle d'une chose non réelle ou une phrase vraie d'une phrase fausse).

Deux démarches sont possibles pour justifier l'existence des choses et du monde. 1) Le point de départ épistémologique est de tenter de justifier l'existence par la connaissance, c'est à dire d'expliquer comment nous sommes capables d'inférer l'existence d'entités et d'acquérir une connaissance à leur propos sur la seule base de nos flux perceptuels. Le point de vue ontologique est d'admettre l'existence du monde et du sujet dans le monde et d'essayer d'expliquer comment le monde se révèle au sujet. Mais, pour Bonsack, cela élude le problème central du réalisme, qui consiste à expliquer comment le sujet parvient à postuler l'existence, il adopte donc le point de  vue épistémologique. Ensuite, il remarque que ce qui est donné au départ peut être donné à la conscience (et les données sont alors interprétées en tant qu'objets) ou aux sens (alors elles sont ininterprétées, comme par exemple l'image optique projetée sur la rétine). Du point de vue épistémologique, il est nécessaire de considérer comme donné ce qui l'est à la conscience, car ce qui est donné aux sens n'est pas vraiment donné mais inféré au moyen d'une image du monde et du sujet dans le monde.

La distinction entre une représentation et ce qu'elle représente (largement mise en avant par les empiristes logiques), conduit Bonsack à réfuter une objection à l'idéalisme selon laquelle celui-ci conduirait à nier l'existence de l'univers jusqu'à ce qu'il y ait des sujets capables de le penser: elle relie l'existence d'une représentation (l'idée d'univers) avec la chose qu'elle représente (l'univers). La date attribuée à la représentation est totalement indépendante de celle attribuée à la chose représentée.

Bonsack défend un réalisme structurel similaire à celui de Poincaré ou Worrall selon lequel la structure du réseau des relations est préservé quand on passe des objets à leur représentation (un exemple serait celui d'un film dans lequel la structure temporelle des évènements est préservée sous forme de structure spatiale des images). Deux structures A et B sont  dites "isomorphes" si une correspondance biunivoque peut-être établie entre, d'une part, les éléments de A et ceux de B et, d'autre part, entre entre les relations entre éléments de A et les relations entre éléments de B, de telle sorte que la correspondance préserve les relations. La relations entre les objets et la représentation qu'on en a doit être un tel isomorphisme. La seule information sûre et fiable est ce qui est donné à la conscience et non ce qui est donné aux sens. On peut objecter que cette information n'est pas fiable par suite d'illusions, comme la perception d'une que nous voyons courbée alors qu'elle ne l'est peut-être pas. L'illusion perceptive n'est pas fausse en tant que perception, elle ne l'est que par rapport à la reconstruction du réel que nous en faisons. A partir de ce réalisme naïf on peut, soit reconstruire un schéma cohérent dans ce même cadre, soit placer le sujet dans le monde en essayant de comprendre comment il acquiert la connaissance (actions des objets sur les sens --> influx nerveux au cerveau et sont traitement). Dans ce cas, on est conduit à un idéalisme naïf qui se confine à ce qui nous est accessible, le donné conscient, en éliminant les objets externes qui n'apparaissent alors qu'à travers celui-ci. cette démarche s'arrête cependant à mi-chemin, car il reste à montrer comment on postule l'existence d'un monde externe et comment le sujet connaissant discerne les données de ce monde de celles qui ne le sont pas (rêves, hallucinations, illusions). Si tout n'est que représentation, la distinction entre objet et sa représentation, entre monde extérieur et subjectivité intérieure doivent être restaurée à l'intérieur de la représentation.

Pour cela, Bonsack propose définit un "niveau S", celui des sensations, le niveau phénoménologique qui possède une structure permettant d'avoir des sensations plus globales des perceptions, de reconnaissance des formes, de persistance....Comme on ne peut pas relier directement les sensations entre elles (comme les variations des sensations musculaires à celles des perceptions visuelles par exemple), on peut se placer dans un espace tridimensionnel dans lequel on relie les sensations musculaires au mouvement dans l'espace. Le niveau S a besoin d'un niveau supplémentaire, "le monde O", qui est objectif, structuré dans l'espace-temps et meublé d'objets qui obéissent à des lois beaucoup simples que celles qui relient les sensations. Ce monde-O contient un sujet-O qui est objectifié en même temps que sa subjectivité. Au niveau S, il n'y a ni monde, ni causalité, ni objet, ni dedans ni dehors, donc on ne peut parler d'un monde extérieur qui serait cause des sensations du niveau S. Par contre, dans le monde-O, il existe une partie qui est extérieure au sujet-O ", causant" les sensations-O de ce sujet-O, qui peut ensuite inférer de ses sensations-O une représentation interne (le monde-O-O) du monde-O. Dans le monde-O, les objets-O ont une existence-O qui ne dépend pas du sujet-O ce qui est la définition du réalisme.

Réponses de Bonsack aux objections. 1) Ce n'est qu'une forme d'idéalisme car le monde-O n'est qu'une représentation: C'est en partie vrai et en partie faux, car car en voulant rendre compte de la manière dont le sujet construit son image de la réalité, on n'aboutit qu'à la notion de connaissance de la réalité et non à la réalité elle-même et les idéalistes s'arrêtent en chemin en oubliant de retrouver le réel. Dans cette conception, on rend déjà compte de la différence entre l'apparence et la réalité, le monde-O est différent de la représentation monde-O-O que le sujet s'en fait. 2) Objections des réalistes: Le monde-O semble être sa propre mesure et dépend de chaque sujet (c'est contraire au monde réel externe et identique pour tous les sujets), et d'autre part, on aimerait que le monde-O soit la représentation de quelque chose qu'il représente. Bonsack répond que le monde-O n'est pas sa propre mesure, il doit être corrigé pour tenir compte des écarts de prédiction (les sensations-O, sensations-S objectivées, doivent être comparées aux sensations-O prédites dans le monde-O qui doit être modifié s'il y a des écarts pour restaurer la correspondance). Pour la deuxième objection, il postule un monde limite, le monde-Ω similaire aux mondes-O, totalement adéquat relativement aux prédictions qu'il permet et indépendant du savoir des sujets-Ω qu'il contient. Chaque sujet-Ω du monde-Ω construit pour lui-même un monde-O-Ω représentation du monde-Ω et approche le monde-Ω sans jamais l'atteindre (il reste inaccessible et n'est pas une représentation).


11) Commentaires sur le réalisme de Bonsack.

Cette approche est séduisante et le plus extrême des réalistes ne pourra fournir qu'une représentation du monde en soi dont il prétend l'existence. Mais des remarques s'imposent.

1) Ce modèle peut-il rendre compte de l'intersubjectivité? Rien ne garantit que les mondes-Oi de chaque sujet Si se ressemblent, ce qui pousse Bonsack à à admettre des mondes-Oi modifiables pour qu'ils ne soient pas leur propre mesure. Pour rendre compte de leurs perceptions, deux sujets peuvent avoir construit des mondes-O totalement différents (même si on suppose que les deux structures perceptives sont similaires). Cela découle, ce que Bonsack semble admettre, de l'hypothèse qu'il existe une réalité externe unique qui cause les perception-S (à ne pas confondre avec les perceptions-O) de chaque sujet-S. Mais cela revient à sortir du cadre de la construction de Bonsack en supposant déjà résolu le problème qu'il cherche à résoudre et sans cette hypothèse, on ne voit pas pour quelles raisons les perceptions-S des sujets devraient avoir les mêmes structures. Et même dans ce cas, rien ne prouve que les sujets A et B aient construit des mondes-O similaires ou simplement compatibles pour en rendre compte. Bonsack ne réfute pas cette objection (car les mondes-O n'étant pas leur propre mesure doivent être modifiés, donc il ne prouve pas qu'ils doivent être similaires). On retrouve une conclusion qui ressemble à celle adoptée dans le cadre du solipsisme convivial, mais dans ce dernier, l'intersubjectivité est garantie, car car même si les résultats de mesure constatées diffèrent, il ne peut en résulter de conséquence observable pour aucun des sujets. De plus, dans ce cas, la réalité empirique de chaque sujet, bien que lui appartenant en propre (et qui est susceptible de varier), est construite à partir d'une fonction d'onde, identique pour tous, et qui joue le rôle de cause externe de similitude. Il n'existe rien de tel dans le modèle de Bonsack.

Plaçons nous dans le cas où les mondes-O des sujets sont différents. Que serait alors une remise en cause de l'intersubjectivité? Cela signifierait qu'un sujet-O (par exemple A-O) dans le monde-O du sujet A (qu'on note sujet-A-OA) est en désaccord avec le sujet-B-OA. Cela paraît impossible vu que par définition du monde-A-O, les informations que communique le sujet-B-OA au sujet-A-OA font partie des perceptions-O de A dont le monde-A-O est censé rendre compte. Mais cela présuppose que dans la notion de "rendre compte" aucun conflit n'éclate entre le sujet-O et les autres sujets objectivés dans son monde et cela revient à postuler par construction l'intersubjectivité au sein des mondes-O, mais on n'en voit pas la raison fondamentale dans ce modèle et l'intersubjectivité n'y est donc pas garantie ce qui rend le modèle de Bonsack encore plus étrange que celui du solipsisme convivial. Mais l'intersubjectivité, bien qu'elle soit usuelle dans notre environnement quotidien ou sauvegardée en mécanique quantique n'est pas vérifiée dans un cadre relativiste pour deux observateurs en mouvement.

2) Le monde-Ω introduit par Bonsack comme en genre de monde-O est tel que les prédictions qu'il autorise sont partout absolument adéquates. Il est la limite de la suite des mondes-O rectifiés pour tenir compte des écarts entre les perceptions-O perçues et les perceptions-O prédites. Il pourrait être comparé à "la Théorie du Tout" dont rêvent les physiciens. Si son existence est admise, son unicité paraît hautement hypothétique. D'autre part, la notion d'adéquation n'est pas innocente. S'il n'y a pas une réalité empirique unique mais plusieurs (comme le suggère ce qui précède dans le cadre des mondes-O), chaque sujet-S construit une suite de mondes-O qui lui est propre et qui tend vers un monde-Ω différent pour chaque sujet. Prétendre qu'il existe un unique monde-Ω ("le point de vue de Dieu" comme le dit Putnam) est une hypothèse qui n'est en rien une conséquence de la construction initiale.

On pourrait aussi concevoir le monde-Ω (mais ce n'est pas ce que dit Bonsack) comme hétérogène aux mondes-O. Il serait (en un sens à préciser) ce qui causerait les perceptions-S et chaque monde-O serait une tentative de représentation du monde-Ω. Chaque sujet-S construirait une suite de mondes-On tels que le monde-On soit  issu du monde-On-1 pour tenir compte des écarts entre les perceptions reçues et les perceptions prédites à chaque étape n. Le monde-Ω postulé unique serait la mesure de tous les mondes-O. Les mondes-O de sujets différents ne seraient pas similaires, mais les structures des sensations-S pourraient être identiques et cela éliminerait par construction le problème de l'unicité de la limite des suites de mondes-O. Mais le monde-Ω (conçu comme hétérogène par rapport aux mondes-O) n'est plus le résultat de la construction de Bonsack, et le postuler revient à supposer le problème du réalisme résolu.


12) Le réalisme voilé de D'Espagnat.

conférence de D'espagnat au collège des bernardins

a) L'analyse approfondie de Bernard d'Espagnat sur la compatibilité des différentes philosophiques avec les enseignements de la physique quantique se présente comme essentiellement fondée sur les résultats scientifiques et non comme une réflexion a priori: il aboutit à ce qu'il appelle le "réalisme voilé".

Selon l'idéalisme Kantien, nos concepts sont le reflet de formes a priori de notre sensibilité; les concepts scientifiques fondamentaux devraient donc prolonger naturellement le bon sens, avec un caractère visualisable. C'était le cas au temps de Kant (avec les notions d'espace euclidien, de temps universel...), mais ça ne l'est plus aujourd'hui (avec l'espace-temps courbe, les opérateurs de projection de Heisenberg, l'abandon de la causalité...). Donc, la forme de nos descriptions scientifiques, si elle doit à la structure de notre esprit, ne lui doit pas tout. Et, puisque de de très belles théories sont parfois réfutées par l'expérience, c'est que les règles du jeu ne sont pas entièrement créées par nous et qu'il y a quelque chose d'extérieur à nous qui dit "non".  Par ailleurs, D'Espagnat refuse la priorité que l'idéalisme radical accorde à la connaissance sur l'existence (de quelqu'un ou de quelque chose, d'une entité quelconque qui connaît). Et l'accord intersubjectif est difficilement explicable si nulle référence n'est faite à des choses existant en dehors de nous.

D'où sa proposition d'un postulat qu'il appelle "le réalisme ouvert". Il est minimal, car il est un point de départ qui implique une analyse plus approfondie: il y a quelque chose (l'ensemble de tous les objets, de tous les atomes, de tous les évènements, des idées platoniciennes, Dieu?) dont l'existence ne procède pas de l'existence de l'esprit humain. C'est la seule concession à partir de laquelle à partir de laquelle D'Espagnat construit sa position de manière quasi-déductive en utilisant les résultats de la physique quantique, sans rien postuler sur la nature et les propriétés de ce quelque chose.

Que peut en dire la physique quantique? Est-il intelligible? Dispose-on ou peut-on penser qu'on disposera d'une théorie ontologiquement interprétable et scientifiquement établie? S'il répond négativement à cette question  (ces théories ne peuvent prétendre qu'à un statut de description empirique), cela ne signifie pas qu'à la manière de l'inconnaissabilité absolue de la chose en soi de Kant, le réel nous est totalement inaccessible, car certains de ses traits peuvent nous être révélés voir plus loin).

Le réel est-il atomisable, éparpillé en une multitude d'éléments premiers (multitudinisme)? La réponse est non: en théorie quantique des champs, le nombre de particules n'est qu'une observable qui ne prend de valeur définie que lors d'une observation. L'existence d'une particule n'est donc pas une propriété indépendante (comme la position ou le spin). le seul élément premier dans ce formalisme est le vecteur d'état de l'espace de Fock.

Le réel est-il immergé dans l'espace et le temps? Cette question est liée à une objection à l'idéalisme pur (la terre, les étoiles... existaient bien avant l'existence de l'homme). Kant réfute cette objection parce qu'elle élève implicitement le concept de temps au niveau du donné externe, alors que cela ne signifie que le fait que nous puissions organiser notre expérience en le décrivant de cette manière. Bien que non idéaliste, Bernard d'Espagnat penche aussi pour une non-insertion du réel  dans l'espace-temps. "Il est parfaitement concevable que "la direction dans laquelle la lune se trouve" soit reliée à la réalité sous-jacente tout aussi indirectement -via nos structures mentales - que l'est la saveur d'un fruit. Et soit par conséquent créée par nous aun même degré". En physique classique, les symboles mathématiques servent à décrire les lois générales, mais ensuite à désigner les valeurs que les grandeurs auxquelles ils réfèrent ont dans telle ou telle circonstance, alors qu'en physique quantique ils ne jouent que le premier de ces rôles. D'Espagnat se sert de cette remarque pour défendre un réalisme structurel analogue à celui que nous avons vu par exemple chez Bonsack, et aussi comme un argument en faveur d'une réalité indépendante enchevêtrée et sujette à la non-séparabilité. C'est nous qui créons la localisation des objets et donc l'espace (et aussi le temps le temps compte-tenu de la relativité).

b) le réel voilé.

Si, à l'issue de son analyse, D'Espagnat rejette l'idéalisme radical et répond positivement à la question "avons-nous besoin d'un réel?", il reconnaît des objections fortes à l'encontre du réalisme traditionnel, qui suppose une objectivité forte incompatible avec la mécanique quantique usuelle. Il admet la nécessité de "quelque chose" dont l'existence ne dépend pas de la nôtre, mais qui n'est pas totalement inconnaissable. La forme des descriptions scientifiques ne doit pas tout à la structure de notre esprit, une partie doit être interprétée comme provenant du réel. La réfutation de belles théories par l'expérience nous fournit une information, de nature négative, sur ce "quelque chose" La non-séparabilité en est une forme de connaissance et l'analyse des symboles mathématiques mentionnée précédemment, le conduisent à défendre une version du réalisme structurel de Poincaré (les lois générales reflètent les structures d'une réalité existant indépendamment de nous). En cela il se rapproche de Bonsack. Mais in s'en démarque car ce dernier parle "des objets réels que la nature nous cachera éternellement" alors que D'Espagnat, en raison de la non-séparabilité s'interdit de faire référence au pluriel ("des objets"). Le Réel n'est donc pas inconnaissable, mais il est "voilé": il n'est pas immergé dans l'espace-temps, il excède en partie les possibilités de l'intelligence humaine, mais la science nous donne à son sujet des informations limitées à certaines de ses structures générales. On doit donc distinguer deux sortes de réalités: la réalité empirique (l'objet de la physique) ou réalité des phénomènes et la réalité indépendante qui ne nous est pas totalement inconnaissable, certains traits se reflètent dans la réalité empirique, mais elle nous est en partie cachée.

c) La causalité élargie.

D'Espagnat suppose que certains traits de la réalité indépendante (qui a une action sur les phénomènes) se reflètent dans la réalité empirique. C'est faire le postulat qu'il existe une certaine relation entre les deux types de réalité. Il appelle cette action "la causalité élargie", concept étroitement solidaire de celui de réalité indépendante. Elle s'oppose à la causalité kantienne (moyen humain d'organiser les phénomènes dans notre esprit). D'une certaine manière on peut dire que c'est la concept de causalité élargie qui permet de nommer la réalité indépendante:

* Il doit exister une cause aux régularités phénoménales.

*Cette cause réside en dehors de  phénomènes et en dehors de nous.

*Donc cette cause doit être recherchée ailleurs et on l'appelle "réalité indépendante".

Causalité élargie et réalité indépendante sont deux concepts indissociables.

d) Commentaires sur le Réel voilé.

D'Espagnat ne présente pas ses conceptions comme les seules possibles, mais comme celle auxquelles il peut être cohérent d'adhérer si on accepte son postulat de initial de réalisme ouvert. Dans sa prudence, il reconnaît être incapable de réfuter des positions concurrentes comme l'idéalisme radical ou le solipsisme qui ne le satisfont pas et pour lesquelles le réalisme voilé représente un alternative possible pour ceux qui partageraient son aversion pour ces thèses. En revanche, il écarte certaines versions du réalisme (naïf, multitudinisme...), comme incompatibles avec les résultats de la physique quantique. Sa position est extrêmement solide, mais on peut ne pas s'en satisfaire si on refuse le postulat du réalisme ouvert ou si on n'éprouve pas le besoin de trouver une cause aux régularités des phénomènes, voire si on postule qu'elles  sont d'une certaine manière créées par nous. Comme le dit Bitbol, cette position n'est pertinente que pour celui qui admet le face à face entre le sujet et le monde, mais on peut penser que nous ne sommes ni face à la réalité, ni logés en son sein, mais que nous sommes associés à elle (voir la citation de Putnam en exergue au début de ce message).

Pour d'Espagnat, à l'opposé du sens commun selon lequel on croît en la réalité des faits contingents et on doute de la possibilité de connaître les structures de base du réel, ce sont les faits contingents qui sont modelés par nous alors que les structures sont bien appréhendées par la science. La physique doit donc donner une description non de la réalité en soi, mais des phénomènes tels qu'ils apparaissent à la communauté scientifique. Il est en accord avec Bonsack et pour lui, le monde-O serait la réalité empirique, le monde-Ω serait la réalité indépendante. Cependant cette interprétation ne semble pas la plus approprié (selon Hervé Zwirn). En effet, la réalité empirique de d'Espagnat est une, la même pour tous les observateurs, la réunion de tous les phénomènes donnés à l'ensemble des observateurs dans un cadre intersubjectif, alors que les mondes-O sont multiples, modifiables, sans garantie d'intersubjectivité. Il serait plus approprié d'assimiler le monde-Ω à la réalité empirique, les mondes-O n'étant alors que nos constructions provisoires pour tenter d'en rendre compte.


13) Conclusion.

Certaines conceptions trop simples ont été écartées et la solidité des arguments pour les conceptions restantes ont été évaluées, mais il n'a pas été possible de trancher en faveur d'une unique position et les nombreuses possibilités restantes peuvent se prévaloir d'arguments favorables tout en restant sujettes à des objections sérieuses. le choix d'une attitude reste dépendant d'a priori qu'on ne peut trancher ni par le raisonnement, ni par l'expérience.


14:00 Écrit par pascal dans les limites de la connaissance | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook

6-7 partie 2) Les limites de la connaissance 6-7 partie 1) Positions et attitudes philosophiques (première partie).

Les limites de la connaissance 6-7)

Positions et attitudes philosophiques

(première partie).


les possibilités de connaissance.




"La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gödel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?"


Je voudrais ici faire partager ma lecture de Hervé Zwirn.

En exergue:

"En bref, je défendrai une conception dans laquelle l'esprit ne se contente pas de "copier" un monde qui ne peut être décrit que pas une Seule et Unique Théorie Vraie. Mais je ne prétend que l'esprit invente le monde [...]. L'esprit et le monde construisent conjointement l'esprit et le monde. Putnam (1981).


1) Introduction (et philosophie des sciences).

Les articles précédents ont montré que la science ne peut atteindre la certitude, mais on peut penser que c'est la meilleure approche cognitive de l'univers que nous possédons même si elle ne peut atteindre au degré de perfection ultime que nous souhaiterions. C'est le symptôme d'une limitation de nos possibilités humaines de connaissance et pas seulement du discours scientifique qui pourrait être dépassé par un moyen alternatif non scientifique comme la magie ou des "parasciences". Elle a fait l'objet de l'article "Les limites de la connaissance 6-6".

Les limites constructives: l'impossibilité de construire des systèmes échappant à tout doute et de donner des fondations certaines au savoir.

Les limites prédictives: l'espoir de prédire de manière complète, avec certitude et sur des périodes arbitrairement grandes l'évolution des systèmes physiques ne peut être atteint.

Limites cognitives: impossibilité de connaître parfaitement et en détail certaines parties du monde.

Limites ontologiques: elles éliminent certaines entités conceptuelles comme inconsistantes ou résidant en dehors des possibilités d'appréhension du discours.

Il faut cependant en préciser la portée véritable et préciser les résultats qui peuvent en atténuer l'impact. Par exemple: "aucun système formel assez puissant pour incorporer l'arithmétique ne peut prouver par ses propre moyens sa consistance s'il n'est pas contradictoire". Cela ne veut pas dire qu'il soit impossible de la faire par d'autres moyens: la preuve donnée par Gentzen le montre.

Après cette réflexion, nous pouvons aborder plus en détail, au cours des articles suivants,l'examen des positions et attitudes philosophiques qui se sont exprimées après la découverte de ce monde quantique.


Nous avons, au cours de articles précédents, présenté l'empirisme logique, le monde quantique et ses interprétations ainsi que les difficultés présentés par la position positiviste, (voir en particulier l'article 6-5) Réalisme et monde quantique: conséquences philosophiques).

Les positions philosophiques ne se sont pas édifiées directement sous forme hypothético-déductive, à la manière de Descartes, par le pur raisonnement, pour arriver à des conclusions absolues, mais en s'opposant les unes aux autres, en d'incessants allers-retours, avec arguments contre-arguments. Elles seront présentées en partant des plus simples et le plus intuitives qui peuvent être soutenues par des arguments directs comme le réalisme dit "naïf", philosophie spontanée de l'homme de la rue. Seront alors examinées les objections qui peuvent lui être opposées sur la base d'une réflexion philosophique initiale pour arriver à un débat plus complexe et faire émerger d'autres positions. On verra apparaître les points principaux suivants:

- Le réalisme est une doctrine intuitive spontanée qui paraît naturelle.

- Des objections profondes amènent à l'élaboration et à la mise en avant de conceptions antiréalistes.

- Pratiquement toutes les conceptions avancées peuvent se prévaloir d' arguments favorables et de l'absence d'objections irréfutables.

- La physique moderne apporte les premiers arguments de nature empirique permettant de réfuter le réalisme , sinon dans sa globalité, du moins dans certaines versions.

- Seules certaines versions du réalisme peuvent encore être défendues contre leurs adversaires antiréalistes.


2) Le réalisme.


a) Qu'est-ce que le réalisme?

Les types de réalisme selon H. Zwirn:

 

 

 


réalisme (la tour de Babel)

Thèse du réalisme scientifique naïf (RSN). "Il existe une réalité extérieure (ou réalité en soi) indépendante de l'existence d'observateurs ainsi que de la connaissance qu'ils ont ou pourraient avoir de cette réalité. Cette réalité est constituée d'entités intelligibles, régies par des mécanismes qui nous sont accessibles. La science a pour but de fournir une description de cette réalité telle qu'elle est vraiment et de nous permettre de faire des prédictions sur les phénomènes qu'elle engendre. Les théories scientifiques acceptées sont vraies en ce sens que les objets des théories scientifiques se réfèrent à des entités réelles et les processus décrits, par exemple par les lois scientifiques, correspondent à des mécanismes se déroulant réellement au sein de cette réalité. Il en résulte que les progrès de la science sont des découvertes et non des inventions ou des conventions."

Cette définition fait intervenir des hypothèses auxquelles on peut ne pas adhérer simultanément.

la thèse du réalisme métaphysique (RM): "Il existe une réalité extérieure (une réalité en soi), indépendante de l'existence d'observateurs ainsi que de la connaissance qu'ils ont ou pourraient avoir de cette réalité."

Ici, la thèse de l'intelligibilité de la réalité (IR) n'est pas obligatoire ("la réalité en soi est constituée d'entités intelligibles, régies par des mécanismes qui nous sont accessibles. La science a pour but de fournir une description de cette réalité telle qu'elle est vraiment.)

La thèse du réalisme épistémique (RE): "Les théories scientifiques acceptées sont vraies en ce sens que les objets des théories scientifiques se réfèrent à des entités réelles et les processus décrits, par exemple les lois scientifiques, correspondent à des mécanismes se déroulant réellement au sein de cette réalité. Il es résulte que les progrès de la science sont de découvertes et non des inventions ou des conventions." Dans cette thèse, la vérité est l'adéquation de la théorie avec les objets et la structure de la portion de réalité qu'elle modélise.  La réalisme épistémique présuppose le réalisme métaphysique accompagné de la thèse d'intelligibilité, alors que l'inverse n'est pas vrai (on peut croire à une réalité en soi qui demeure en dehors de toute possibilité de connaissance ou de formalisation scientifique).


- Remarques.

*La science dont il est ici question est celle vers laquelle tend progressivement le processus scientifique et non celle du 20è siècle et sans doute celle du 21è siècle (Cela répond  à une objection de Van Fraassen).

*Le concept de vérité utilisé dans cette forme RSN du réalisme est celui de "la vérité correspondance": une phrase est vraie en vertu d'un état de fait et de la correspondance entre le sens de la phrase et cet état de fait. Une conséquence de la RSN est qu'une théorie scientifique est vraie si et seulement si ce qu'elle nous dit correspond  un état de fait existant dans la réalité.

*Si on appelle "réalité empirique" la partie de la réalité restreinte aux phénomènes observables et aux entités perceptibles, la RSN a pour conséquence qu'une théorie vraie est adéquate à la réalité empirique en ce sens qu'elle décrit et prédit correctement tous les phénomènes observables).

*Relations entre RSN, RM, IR:

RSN = RM+ IR +RE. (Le réalisme scientifique naïf est la conjonction du réalisme métaphysique, du réalisme épistémique et de la thèse de l'intelligibilité du réel).

RE ==> RM + IR.  (Le réalisme épistémique ne peut s'exprimer que dans le cadre du réalisme métaphysique et d'une forme minimale de la thèse d'intelligibilité).

*Expression possible du RSN (citée par Van Fraassen qui en fait ne l'adopte pas): "La science a pour but de nous fournir, à travers nos théories, une histoire littéralement vraie de ce à quoi le monde ressemble. Accepter une théorie scientifique entraîne la croyance en sa vérité." Il ne s'agit pas de prendre les théories scientifiques pour des métaphores, mais bien de croire au pied de la lettre en ce qu'elles nous disent.


b) Arguments du réalisme.

hyper réalisme

Le réalisme métaphysique semble directement issu de la philosophie naturelle spontanée qui se construit à partir de l'enfance. Croire qu'il existe un monde extérieur dans lequel nous évoluons, que ce monde ne dépend pas de ce que nous en pensons ou connaissons est une attitude immédiatement dictée par notre expérience quotidienne. Pour David Hume, ce qui nous en persuade est est un raisonnement fondé sur la relation cause-effet (Hume réfute ce raisonnement pour des raisons de nature philosophique et ne empiriques).

Un autre argument favorable est l'accord entre différentes personnes sur nos constats d'observation. L'explication le plus simple de cet accord intersubjectif est que deux personnes voient la même chose, deux arbres par exemple, parce qu'il y a réellement deux arbres dans le jardin qu'ils observent.

Cependant, l'adéquation des théories scientifiques avec la réalité ne se perçoit pas instinctivement car elle concerne un concept élaboré, celui de théorie scientifique. La version la plus simple du réalisme scientifique naïf est le réalisme naïf tout court: la réalité est conforme à ce que nous en percevons directement, les chaises et les tables existent bien en tant que chaises, tables... Dans la métaphore de Putnam, le réalisme est un séducteur qui promet à la jeune fille qu'est le sens commun de la défendre contre ses ennemis (idéalisme, pragmatisme, antiréalisme...). Malheureusement le réalisme se montre ensuite sous son vrai jour, le réalisme scientifique. Ce ne sont ni les tables, ni les chaises auxquelles la jeune fille tenait tant qui existent vraiment, mais des entités plus abstraites que la science nous dit exister.

L'argument en faveur du réalisme épistémique est en général celui de la réussite empirique. En effet, le constat, généralement accepté,que les théories scientifiques réussissent (au moins partiellement) à fournir une description adéquate de la réalité empirique et à prédire les phénomènes observés avec une exactitude satisfaisante, qui s'améliore progressivement, fait dire que ce serait miraculeux si elles ne décrivaient la réalité telle qu'elle est vraiment. Putnam appelle cet argument, l'argument no miracle. Le fait qu'il existe une réalité qui correspond à ce que nous en disent les théories est donc considéré comme une explication du fait qu'elles fonctionnent correctement et si une théorie fonctionne correctement dans tel ou tel domaine, c'est tout simplement parce qu'elle est vraie.

En résumé: les arguments positifs en faveur du réalisme métaphysique sont la relation cause-effet et l'accord intersubjectif. Celui en faveur du réalisme épistémique est celui de la réussite empirique, appelé aussi "argument de l'explication". Cet argument est au coeur du raisonnement de nombreux philosophes qui, soit le défendent, soit veulent prouver son absurdité.


c)Les premières objections.

Les premières objections au réalisme métaphysique sont issues du constat que nous n'avons aucun accès direct à la réalité ou aux objets en soi, mais que notre expérience provient exclusivement des perceptions que nous en avons.

Berkeley, au18è siècle, (idéalisme) fut un des premiers modernes à bâtir un système philosophique idéaliste (selon la devise: "esse est percipi"), dont la thèse est: nous ne pouvons avoir accès qu'à nos perceptions et ne pouvons connaître que les phénomènes. Il nie la légitimité d'inférer l'existence d'une réalité au-delà des perceptions.

Hume (scepticisme) fait remarquer que ces relations causales sont tirées directement de notre expérience. La voie inductive permet par exemple d'inférer que si nous avons entendu une voix dans la pièce voisine et que nous sommes allés vérifier, il y avait bien une personne, nous supposons que toutes les fois où nous entendons une voix il y aura bien quelqu'un. Hume affirme qu'aucune justification rationnelle de l'induction n'est possible, il faut avoir recours à une autre induction et ainsi de suite à l'infini. Il réfute la justification de l'existence de la réalité par cette voie comme non pertinente. Nos idées sont les représentations de nos perceptions et nos connaissances ne sont qu'un mode d'organisation de des relations entre nos idées. Nos connaissances ne portent pas sur une réalité en dehors de nos perceptions, mais ne sont qu'un moyen commode de les agencer. Notre croyance en un monde extérieur ne provient que de l'imagination et de l'habitude. Toute prédiction passe par par une loi ou un mécanisme associatif et par l'extrapolation au futur d'évènements passés. Or, sans induction, cela ne peut être justifié. Poussé à à l'extrême, cela conduit à la position de scepticisme adoptée par Hume.

Popper est celui qui qui a le plus tiré parti de cette argumentation pour refuser toute idée d'induction en science.

Kant admet comme hume que nos connaissances sont issues de nos perceptions, que nous n'avons aucun accès direct à la réalité en soi, mais il accepte l'existence de cette réalité. Nos perceptions doivent se conformer aux catégories à priori de notre entendement (par exemple l'espace euclidien ou le temps newtonien). Ce sont des "filtres" ou des moules qui permettent nos perceptions et les façonnent et dont l'origine est en nous. Elles découlent de la façon dont le cerveau humain fonctionne. Pour résoudre la difficulté soulevée par Hume,Kant propose que la causalité soit soit considérée comme une autre catégorie à priori, ce qui permet de ne plus avoir à justifier la causalité et l'induction par l'expérience, puisqu'elles sont un mode à priori indispensable pour nous permettre d'organiser  de manière cohérente les données brutes de nos sens. Kant "sauvegarde" la réalité en soi, mais elle est inconnaissable et nos perceptions conditionnées par les catégories de l'entendement sont les seules données auxquelles nous avons accès.

Une autre objection et une critique de l'argument de réussite empirique contre le réalisme scientifique naïf est dans l'explication selon laquelle, comme le dit Stein, si nous voyons l'herbe verte c'est parce qu'elle est réellement verte. Pour les théories actuellement en vigueur, les perceptions sont le résultat d'échanges d'énergie avec notre environnement donnant naissance à un influx nerveux qui excite une zone particulière de notre cerveau. Mais cela n'explique pas pourquoi les sensations nous font l'effet qu'elles nous font et nous sommes impuissants à savoir si deux personnes différentes expérimentent les mêmes sensations. Cependant, postuler que l'herbe possède par elle-même cette propriété fait disparaître la difficulté, mais c'est un piège et une illusion car cela n'explique en définitive rien.

Ces arguments (philosophiques) jettent donc un doute sur les raisons avancées pour justifier le réalisme naïf, mais aucun d'eux n'est suffisant pour le réfuter. Aucun ne montre qu'il n'existe pas de réalité en soi ou que celle-ci est inconnaissable ou définitivement inaccessible.


3) Les positions non réalistes.

Le postulat empirique est admis par la majorité des penseurs réalistes ou non réalistes: nous n'avons un accès direct qu'aux phénomènes, manifestations de nos perceptions. On peut le refuser en prétendant que nous avons accès directement, par une sorte d'intuition transcendante à la réalité en soi. Mais on se rapproche alors de l'irrationnel ou du mysticisme.

a) Le positivisme et l'instrumentalisme.

Le positivisme déclare que le sens d'un énoncé se réduit à son mode de vérification. Or aucune expérience ne peut permettre de vérifier l'énoncé: "il existe une réalité indépendante au-delà des phénomènes". Le positivisme refuse donc l'idée que cela ait un sens de postuler son existence. La question est grammaticalement correcte, mais sans aucune signification. Cela clôt le débat mais il peut sembler insatisfaisant de refuser d'aborder les questions dérangeantes. Par ailleurs, on a vu que le positivisme logique a été abandonné en raison des difficultés insurmontables auquel il se heurte.

Les instrumentalistes ont une position plus modérée. Ils ne se prononcent pas sur le fait que cette réalité existe ou non et considèrent que si la question n'est pas dénuée de sens, il n'y a aucun moyen de connaître la réponse. Ils s'abstiennent de se prononcer sur ce sujet. Pour eux, la science a pour seul objectif de fournir un langage et des mécanismes permettant de décrire et prédire la réalité empirique. Une théorie est vraie si et seulement ses prédictions sont en accord avec l'expérience. En raison de la sous-détermination empirique des théories, deux théories apparemment contradictoires peuvent être vraies simultanément sans que cela pose de problème car ne peuvent être mises expérimentalement en contradiction (elles ont été postulées empiriquement équivalentes). En fait, les deux théories, bien qu'apparemment contradictoires, disent la même chose relativement à la théorie empirique. Putnam utilise cet argument pour défendre son concept de vérité qui s'oppose à celui de vérité-correspondance (voir plus loin). L'instrumentalisme, position cohérente, est adopté par beaucoup de physiciens quand ils font des calculs et non de la philosophie. Même si elle a le mérite de ne pas s'engager sur des sentiers jugés dangereux par les scientifiques, elle nous laisse sur notre faim quant aux questions dérangeantes.

b) Le pragmatisme.

Avec Pierce, puis développé par william James et jonh Dewey,le pragmatisme stipule que qu'aucun objet ou concept ne possède une valeur ou une importance intrinsèque. La signification réside dans les effets pratiques qui résultent de leur utilisation ou de leur application. La vérité peut être mesurée à l'aune de son utilité empirique. Quine a affirmé que "les objets physiques ne sont que des entités intermédiaires que nous postulons pour que les lois que nous énonçons soient les plus simples possiblesmais rien ne nous garantit que leur existence est plus réelle que celle des dieux de l'antiquité". Cette position est proche de celle d'e l'instrumentalisme.

c) L'idéalisme.

le duel sujet connaissant-objet connu (william Blake: la punition des voleurs)

En opposition au réalisme, le thèse de l'idéalisme est que la seule réalité est celle de nos perceptions. Pour Berkeley, "esse est percepi" (la seule réalité est celle de nos perceptions). Au sens strict cet idéalisme rejette totalement le concept de réalité en soi. Au sens large, l'idéalisme transcendantal de Kant accepte la notion de chose en soi en la décrétant hors de portée de la connaissance.  L'idéalisme s'oppose donc au réalisme épistémique, mais seul l'idéalisme strict est contradictoire avec le réalisme métaphysique.

d) Le constructivisme.

Thomas Kuhn et les tenants du constructivisme adressent un critique plus indirecte au réalisme. La démarche est basée sur "l'idée que les entités théoriques n'acquièrent une signification qu'à l'intérieur du cadre théorique qui les manipule et que les observations expérimentales ne sont pas les arbitres neutres, mais sont indissolublement liées aux théories courantes pour les mettre en oeuvre."

On a vu l'échec des positivistes logiques pour réduire le vocabulaire théorique au vocabulaire observationnel. Une tentative a été faite pour le reconstruire sous une forme opérationnelle, entre autres par Bridgman, mais il est actuellement couramment admis que cet espoir de reconstruction rationnelle de la pratique scientifique est un échec. La raison en est que cette pratique se modifie continuellement en fonction de l'évolution des théories. Il en résulte que la  signification donnée par l'opérationnalisme aux concepts scientifiques devrait changer au fur et à mesure de l'évolution des pratiques expérimentales. Si on prend l'exemple de la température, la grandeur à laquelle elle se réfère devrait changer puisque les moyens de mesure ont tellement évolué qu'il n'ont plus rien à voir avec ceux qu'on employait autrefois.

Ces échecs ont conduit à l'idée que c'est la théorie qui fournit le cadre approprié pour attribuer une signification aux termes. Ainsi, pour Kuhn, le même terme utilisé dans deux théories différentes ne se réfère pas à la même entité (par exemple la masse en mécanique newtonnienne et en mécanique relativiste). Selon son expression, les deux théories sont incommensurables. Une conséquence est que, ici aussi, l'interprétation des observations expérimentales est dépendante de la théorie qui les engendre. De plus, l'expérience échoue à faire jouer le rôle d'arbitre en cas de désaccord sur l'interprétation des théories. On ne pas alors soutenir que la science permet une connaissance objective d'un monde indépendant des théories. Le réalisme est donc rejeté. De plus, la dépendance forte de la méthodologie expérimentale empêche toute reconstruction empirique rationnelle. Pour Kuhn, "les scientifiques doivent alors être considérés comme engagés dans un projet métaphysique dont les règles sont déterminées par des considérations théoriques concernant des phénomènes inobservables."

Le constructivisme de Kuhn est quelquefois qualifié de social dans la mesure où il fait jouer un rôle prépondérant à à la pratique sociale de la science. Selon lui, elle évolue selon des épisodes historiques de deux types. De longues de périodes de science où la pratique se situe à l'intérieur de conceptions dominantes (le paradigme), sont entrecoupées de brefs épisodes de science révolutionnaire, occasionnés par le constat d'anomalies dans les théories en cours. On change de paradigme et le nouveau paradigme est incommensurable avec l'ancien.

 

4) Objections aux positions non réalistes.

a) L'instrumentalisme.

Les critiques adressées au positivisme logique ont été fortes et on fait l'objet d'un article précédent. Par contre, l'instrumentalisme est plus difficile à attaquer sur des bases philosophiques, sa cohérence et sa prudence  font que le principal reproche qu'on peut lui faire est l'insatisfaction qu'il laisse subsister chez ceux qui refusent d'abandonner toute quête métaphysique. De plus, elle interdit de comprendre pourquoi une théorie est capable de fournir des prédictions exactes ou quelle est la raison de l'accord intersubjectif. La plupart des physiciens sont instrumentalistes dans l'exercice de la physique. Cette attitude a engendré des progrès scientifiques considérables, mais ne faut-il pas la dépasser en tant qu'attitude insuffisante?

b) L'idéalisme.

Les objections à l'idéalisme sont symétriques des arguments en faveur du réalisme. S'il n'y a pas de réalité extérieure qui cause nos perceptions, comment comprendre que nous tombions d'accord sur celles-ci? Si nos théories ne sont qu'un mode commode d'organisation de nos perceptions, comment expliquer que ces théories fonctionnent si aucune réalité ne les sous-tend? Mais, de façon symétrique, la résistance du réel est souvent invoquée: nombreuses sont les théories réfutées par l'expérience qui remplissaient pourtant "les canons de la méthode scientifique". Si elles ne sont qu'une construction interne, quel est l'élément qui les a fait chuter? L'explication la plus simple est que leur échec provient du dehors, d'une cause extérieure à nos perceptions. Par ailleurs, comme le rappelle Bernard d'Espagnat, "donner la priorité aux concepts de connaissance et d'expérience sur celui d'existence est absurde, car on ne peut parler de connaissance sans postuler l'existence de quelque chose qui connaît."

Ces objections ne réfutent que l'idéalisme strict et non l'idéalisme large (Kantien...) qui se contente de poser que la réalité en soi est inaccessible.


5) Synthèse de la réflexion.

Le réalisme comme l'idéalisme ont des arguments en leur faveur tout en étant ébranlés par des objections sérieuses, mais les critiques ne suffisent pas à réfuter globalement et définitivement chaque position, pas plus que les arguments ne peuvent en établir la vérité. Les autres arguments avancés par les pragmatistes ou les constructivistes ne se prononcent pas directement sur l'ontologie, mais ils aboutissent à des conclusions épistémologiques qui peuvent avoir des conséquences métaphysiques.

Dans la deuxième partie de cet article, nous analyserons plus en détail un certain nombre de variantes en examinant aussi de quelle manière "les limites de la connaissance" jettent un éclairage nouveau sur ces problèmes:

Le réalisme de Boyd.

Le scepticisme de Stein.

Le réalisme structurel de Poincaré.

L'empirisme constructif de Van Fraassen.

Le réalisme interne de Putnam.

Le réalisme de Bonsack.

Le Réalisme voilé de D'Espagnat.


Le réel voilé.



13:00 Écrit par pascal dans les limites de la connaissance | Lien permanent | Commentaires (2) | |  del.icio.us | | Digg! Digg |  Facebook

30/12/2011

6-6) Les limites de la connaissance 6-6) Premier contact avec les limites.

 

  • Les limites de la connaissance 6-6) Premier contact avec les limites.

 




le mythe de la caverne



bits "bizarres" découverte dans le cadre de la non-localité quantique.


 

 

"La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gödel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?"

Après cette réflexion sur les limites de la connaissances, nous pourrons aborder au cours des articles suivants l'examen des positions et attitudes philosophiques qui se sont exprimées après la découverte de ce monde quantique.


 

1) Introduction.

Les articles précédents ont montré que la science ne peut atteindre la certitude, mais on peut penser que c'est la meilleure approche cognitive de l'univers que nous possédons même si elle ne peut atteindre au degré de perfection ultime que nous souhaiterions. C'est le symptôme d'une limitation de nos possibilités humaines de connaissance et pas seulement du discours scientifique qui pourrait être dépassé par un moyen alternatif non scientifique comme la magie ou des "parasciences".

Les limites constructives: l'impossibilité de construire des systèmes échappant à tout doute et de donner des fondations certaines au savoir.

Les limites prédictives: l'espoir de prédire de manière complète, avec certitude et sur des périodes arbitrairement grandes l'évolution des systèmes physiques ne peut être atteint.

Limites cognitives: impossibilité de connaître parfaitement et en détail certaines parties du monde.

Limites ontologiques: elles éliminent certaines entités conceptuelles comme inconsistantes ou résidant en dehors des possibilités d'appréhension du discours.

Il faut cependant en préciser la portée véritable et préciser les résultats qui peuvent en atténuer l'impact. Par exemple: "aucun système formel assez puissant pour incorporer l'arithmétique ne peut prouver par ses propre moyens sa consistance s'il n'est pas contradictoire". Cela ne veut pas dire qu'il soit impossible de la faire par d'autres moyens: la preuve donnée par Gentzen le montre.


2) Le concept de degré de croyance.

tous les hommes ont en droit la même puissance de juger

Il s'ensuit qu'il est impossible de prouver qu'une théorie empirique contenant des lois universelles est vraie. Elle ne peut être vérifiée exhaustivement et une démonstration mathématique d'une loi universelle devrait reposer sur au moins une autre loi universelle qui devrait à son tour être prouvée. Cela n'empêche cependant que certaines théories sont meilleures que d'autres. Celles qui sont confrontées à l'expérience de manière concluante, à de nombreuses reprises et dans de nombreuses circonstances, suscitera une croyance en sa vérité plus grande qu'une théorie alternative qui n'aura pas encore été testée. Il est donc nécessaire de disposer d'un outil qui permette de classer les théories en fonction de la confiance qu'elle inspirent, de la croyance qu'elles suscitent dans le fait qu'elles sont vraies. Depuis les tentatives de Carnap et les difficultés avec la logique inductive, (voir l'article sur l'empirisme logique), l'élaboration formelle d'un concept de degré de croyance est aujourd'hui non réalisée. Elle est rattachée actuellement à des problématiques comme les recherches sur l'intelligence artificielle ou celle de la théorie des révisions de croyance. Par exemple, comment arriver à justifier rationnellement le fait (intuitivement évident) que nous devons accorder plus de confiance à une théorie qui a été largement testée positivement qu'à une autre? Cela pourrait la probabilité qu'on attribue à la théorie d'être vraie. Pour la théorie quantique, elle serait proche de 1, alors que pour des théories croyant avoir démontré une erreur dans la théorie d'Einstein ou la possibilité de mouvement perpétuel, elle serait proche de 0.


3) les limites constructives.

Elles sont relative à notre incapacité de construire des théories dont on puisse être absolument certain (concernant la non-contradiction interne ou les prédictions empiriques).


a) Echec du programme de Hilbert en logique et en mathématiques.

Limite 1: "Il est impossible de construire un système formel ayant les propriétés suivantes:

-Le système est consistant.

-Sa syntaxe exprime la totalité des raisonnements logiques qu'on s'autorise à utiliser.

-Il permet d'exprimer la totalité des mathématiques.

-Tout énoncé vrai exprimable dans le système est démontrable dans le système.

-Il est possible de prouver la consistance du système à l'intérieur du système."

Les théorèmes de Gödel prouvent qu'un tel système n'existe pas.  Néanmoins il est possible de formaliser les mathématiques et de travailler dans un cadre suffisamment fiable, par exemple avec la théorie de Zermelo-Fraenkel dont la consistance semble suffisamment assurée pour que les mathématiciens ne la mettent pas en doute dans leurs travaux usuels.

Cela permet d'énoncer la contre-limite 1: "Il est possible de construire un système formel ayant les propriétés suivantes:

- Sa syntaxe exprime la totalité des raisonnement logiques qu'on s'autorise à exprimer.

- Il permet d'exprimer la totalité des mathématiques.

- La consistance du système, bien que non prouvable dans le système est considérée comme ayant un fort degré de croyance.

Les mathématiques et la logique peuvent donc se voir attribués un degré de croyance proche de 1.

b) Les limites en physique.

érosion fondations (phare de la Coubre 1907))

Le point de départ de la réflexion a été la thèse "réaliste": "le savoir peut être assis sur des fondations certaines et être construit de proche en proche, en s'assurant par vérification, à chaque étape de sa construction, que les théories élaborées sont vraies. On constitue ainsi un édifice, construction adéquate de la réalité, dans ses manifestations empiriques et aussi dans sa structure profonde."

On suppose donc l'existence d'une réalité objective et indépendante que le discours scientifique est censé modéliser. On a vu dans l'article sur "l'empirisme logique" que ceux qui pensaient que les faits observationnels sont hors de doute, que la vérification, à chaque étape, doit être effectuée par des moyens assurés et que les moyens à utiliser sont l'observation et et le raisonnement logique, en sont venus à douter de la possibilité d'une telle fondation. En plus de ces difficultés, la thèse réaliste suppose de se placer dans le cadre d'un réalisme métaphysique dont on a vu avec la mécanique quantique qu'il était problématique et elle présuppose que le raisonnement mathématique est solidement établi et sans ambiguïté comme le voulait le programme de Hilbert. Mais on a vu que même si le degré de croyance qu'il convient de leur attribuer est proche de 1, il n'est pas égal à 1. La thèse fondationnaliste réaliste est donc à abandonner. En analysant cet échec en ce qui ne se situe pas au niveau d'arguments externes comme le programme de Hilbert ou ce qui porte sur le cadre réaliste, on peut l'énoncer de la manière suivante:

Limite 2: "Même s'il était non problématique d'accepter le réalisme métaphysique et si le programme de Hilbert était réalisable, il ne serait pas possible de construire le discours scientifique empirique en le faisant reposer sur des bases certaines et en étant assuré qu'il représente la réalité de manière totalement adéquate. "

On n'élimine ainsi que la possibilité d'être assuré que la construction scientifique est certaine. Si l'empirisme logique avait raison, alors on pourrait avoir une modélisation exacte de la vérité. La réfutation du discours fondationaliste n'exclut donc pas l'existence de moyens de qualification à postérori dont nous avons vu qu'ils trouvent leur expression dans le concept de degré de croyance. Une position prudente est de se contenter d'exprimer l'adéquation d'une théorie avec la réalité empirique sans se prononcer sur l'existence d'une réalité plus profonde.

Contre-limite 2: "Bien qu'il soit d'atteindre la certitude quant à la vérité et à l'adéquation au réel des théories scientifiques empiriques, il est possible de construire des théories dont le succès conduit à leur attribuer des degrés de croyance proches de 1 quant à leur adéquation avec la réalité empirique."

Ainsi, le discours scientifique, bien que non certain, peut atteindre une fiabilité élevée quant à la description qu'il donne de la réalité empirique. Mais on n'a aucune indication quant à l'adéquation des théories à avec une réalité plus profonde au-delà de celle-ci.

En conclusion, on peut dire que l'idéal de certitude absolue et d'isomorphisme total entre les théories et la réalité en soi doit être abandonné, aussi bien pour les mathématiques que pour les sciences empiriques. Cependant, la logique et les mathématiques peuvent être utilisées avec un degré de croyance élevé. Les sciences empiriques ne peuvent être fondées de manière certaine mais il est possible de leur attribuer à postériori des degrés de croyance élevés signifiant notre confiance dans le fait qu'elles modélisent de manière fiable la réalité empirique. Il est donc légitime d'utiliser le discours scientifique en temps qu'outil méthodologique, même s'il n'est pas certain pour en tirer des conclusions sur ces propres limites, pour en tirer les conclusions les plus fiables sur lesquelles nous pouvons nous appuyer.


4) les limites prédictives.

a) Les limites temporelles.

 

L'étude du chaos déterministe à montré que pour la plupart des systèmes dynamiques non linéaires, il existe un horizon temporel au-delà duquel il est impossible de prédire l'état du système. De plus, des considérations de mesure, au sens de la théorie mathématique de la mesure, montrent que les systèmes de ce type sont, de loin, plus nombreux que les systèmes réguliers (on dit que ces derniers sont de mesure nulle dans l'ensemble des systèmes dynamiques), d'où la limite 3.


Limite 3: "La plupart des systèmes physiques ont un comportement comportement chaotique  entraînant l'existence d'un horizon temporel au-delà duquel il est impossible de prédire leur état. Les seules prédictions possibles en pratique sont alors de nature probabiliste et ne portent plus sur des trajectoires individuelles  mais sur des grandeurs moyennes."

Cette limite concerne uniquement le pouvoir prédictif et non une caractéristique essentielle de la réalité empirique. L'évolution des systèmes dynamiques chaotiques est totalement déterministe et ce n'est que notre incapacité à manipuler des grandeurs infiniment précises qui conduit à cet indéterminisme apparent. Un calcul explicite d'évolution à partir d'un état initial donné de manière finie ne peut produire un résultat dont la complexité algorithmique dépasse sa propre complexité. Or, la complexité algorithmique de l'ensemble des trajectoires d'un système dynamique issues d'un élément aussi petit qu'on veut de l'espace des phases est infinie et donc hors de portée de toute modélisation. En fait, sur le plan pratique, beaucoup de systèmes que nous utilisons ne sont pas chaotiques, ou l'horizon temporel est tellement éloigné, qu'à l'échelle humaine, ces systèmes apparaissent réguliers, comme par exemple le mouvement des planètes. Mais ce n'est pas le cas, semble-t-il des phénomènes météorologiques ou de systèmes que nous ne cherchons pas à prédire comme la forme des flammes d'un feu de bois. On peut ainsi exprimer la contre-limite 3 qui dit que l'univers n'est pas totalement chaotique, ce qui interdirait toute pratique scientifique.

Contre-limite 3: "Bien que la grande majorité des systèmes physiques soit chaotique, un grand nombre de ceux qui constituent notre environnement utile a un comportement régulier à l'échelle de temps humaine".


b) Les limites probabilistes.

Contrairement aux précédente, cette limite concerne directement le comportement intime de la réalité empirique et nous fait découvrir la nature essentielle de l'indéterminisme quantique.

Limite 4: "Le comportement des systèmes quantiques est tel qu'en général la valeur d'une grandeur mesurée se détermine de manière probabiliste lors d'une mesure de cette grandeur."

Mais il n'est à l'heure actuelle nullement démontré qu'il est impossible de construire une théorie quantique déterministe, même si on se heure à des difficultés, comme on l'a vu dans les articles sur "le monde quantique". Par ailleurs, le comportement des objets macroscopiques, constitués d'un très grand nombre d'objets quantiques, reste en général prédictible en raison de la loi des grands nombres. On peut donc énoncer la contre-limite 4:


Contre-limite 4: "L"indéterminisme quantique essentiel est effacé au niveau macroscopique par la loi des grands nombres de telle sorte que des prédictions non probabilistes sont possibles. De plus, il restera possible de supposer que le comportement des systèmes quantiques est en fait déterministe tant que la preuve de l'impossibilité de construire une théorie quantique déterministe n'aura pas été apportée."


c) Les limites qualitatives.

On a vu que la prédiction simultanée de grandeurs incompatibles est impossible. Cela peut recevoir deux interprétations différentes selon le cadre ontologique dans lequel on se place. Dans la cadre de l'interprétation orthodoxe usuelle, elle ne doit pas être comprise comme une limite prédictive, mais plutôt comme une limite ontologique: les valeurs correspondantes ne sont pas simultanément définies.

Si on se place dans le cadre des théories ontologiquement interprétables (théories à variables cachées non locales), Le contextualisme, que ces théories doivent respecter introduit alors une limite prédictive étrange: même si une grandeur (parmi 2 grandeurs complémentaires)) est supposée posséder une valeur bien définie, les mesures dépendent de l'appareil utilisé, ce qui interdit en fait de prédire cette valeur. Par exemple, dans la théorie de Bohm, les particules se voient attribuer une trajectoire précise (contrairement au cas de la mécanique quantique). Mais la détermination en est impossible car elle pourrait être faite à travers différents dispositifs expérimentaux qui agiraient en retour de manière différente sur la trajectoire elle-même.


D'où la limite 5 (qui ne possède pas de contre-limite):

"Si on  adopte le cadre de la mécanique quantique traditionnelle, il est impossible de faire des prédictions sur certaines grandeurs physiques qu'on associe traditionnellement au système, car ces grandeurs sont considérées comme illégitimes. Si on adopte le cadre des théories ontologiquement interprétables, ces grandeurs physiques, bien que rétablies dans leur légitimité, restent non prédictibles en raison du contextualisme de la théorie."


5) Les limites ontologiques.

Ces limites interdisent de considérer que certaines entités "existent" ou qu'elles possèdent en propre des propriétés bien définies.


a) En mathématiques.

Le concept d'ontologie suppose de pouvoir répondre à la question "que signifie le fait qu'un objet mathématique existe?". Le concept est controversé. Pour Hilbert, existence est synonyme de non-contradiction. Si la définition d'un objet mathématique est consistante alors, pour lui, cet objet existe. Pour les intuitionnistes, l'existence est conditionnée par le fait qu'il est possible d'en donner un procédé de construction.

Si on prend l'exemple de l'axiome de choix, peut-on dire que qu'il soit possible de démontrer l'existence d'objets possédant certaines propriétés sans qu'il soit possible d'expliciter ces objets? Contrairement à la plupart des mathématiciens, les intuitionnistes répondent par la négative. L'axiome de choix entraîne l'existence d'un bon ordre sur l'ensemble des réels R. Or, il est possible de démontrer qu'un tel bon ordre ne peut être obtenu de manière constructive. Doit-on alors considérer que R peut être "réellement" bien ordonné? L'attitude philosophique des intuitionnistes, leur ontologie, est, pour cette question, plus pauvre que celle des autre mathématiciens. Pour une autre question, celle de l'existence d'ensembles infinis de plus en plus grands (dénombrable, continu, grands cardinaux...), malgré la non contradiction apparente, il est difficile de se prononcer.  Par exemple Boolos refuse de d'accepter l'existence d'un certain cardinal k, non parce qu'il est inconsistant, mais mais parce qu'il lui paraît "trop grand" pour exister.

Limite 6: "Le formalisme mathématique ne peut par lui-même imposer l'existence d'un objet mathématique. Pour les intuitionnistes, seules existent les entités qui peuvent être construites. Pour les autres mathématiciens, l'inclusion dans l'ontologies d'objets (consistants) de plus en plus vastes ou complexes résulte d'un choix personnel fondé sur des considérations de naturalité, de fécondité ou d'efficacité."

objet mathématique: bouteille de Klein

Une autre limite du formalisme apparaît lorsqu'on souhaite préciser l'ontologie en fixant les propriétés des entités de manière définitive. Par exemple l'intuition (voir Cantor) du concept d'ensemble au sens de collection conduit à des contradictions. En revanche, dans la définition de la théorie de Zermelo-Fraenkel (ZF), ils semblent être consistants. Nous avons une intuition de ces ensembles qui s'accorde avec les axiomes de ZF. Cependant ZF est compatible avec l'affirmation et la négation d'un grand nombre d'énoncés qui portent sur les propriétés des ensembles et ne permet pas de savoir si l'axiome du choix, l'hypothèse du continu ou les axiomes de grands cardinaux sont vrais ou faux. Or notre intuition est insuffisante pour décider de la valeur de vérité ou de fausseté de ces énoncés. Il devient donc difficile d'adhérer à l'opinion selon laquelle il existe de "vrais ensembles" et qu'en progressant dans notre compréhension nous finirons par le savoir, et même dans ce cas, le premier théorème de Gödel montre qu'aucun système formel ne pourra axiomatiser ces ensembles de telle sorte que tout énoncé portant sur leurs propriétés sera démontrable ou réfutable. Il semble donc qu'il soit impossible de caractériser totalement une ontologie par l'intermédiaire d'un système formel.

D'où la limite 7: "Aucun système formel assez puissant pour que le théorème de Gödel s'y applique ne peut déterminer précisément toutes les propriétés des objets appartenant à l'ontologie de ses modèles. Quels que soient les objets, il existe une infinité d'énoncés dont la valeur de vérité n'est pas fixée dans le système. En particulier, il est impossible de construire une théorie des ensembles qui détermine toutes les propriétés que possèdent les "vrais ensembles" si on adopte une position réaliste."

Cette limite est plus cognitive qu'ontologique si on est réaliste et qu'on pense que le concept de "vrai ensemble" a un sens: elle signifie que nous ne pourrons jamais connaître ces objets. Sinon, elle peut être utilisée pour montrer que le concept de "vrai ensemble" n'a pas de sens et que notre intuition est insuffisante pour le définir complètement.


b) en physique.

La mécanique quantique modifie profondément l'ontologie car elle interdit de considérer que l'univers est constitué d'entités existant indépendamment de toute observation, possédant de propriétés en propre bien définies et interagissant uniquement de manière locale avec les champs médiateurs des forces (D'espagnat appelle cette vision le "multitudinisme"). Les raisons en sont tout d'abord la non-séparabilité et le contextualisme.  En toute rigueur, le seul objet pertinent devrait être l'univers dans son ensemble! Mais il est possible d'étudier des parties plus restreintes, lorsqu'on se restreint à la réalité empirique, celle des phénomènes observables car tout se passe comme si ces parties étaient isolées. Il n'en demeure pas moins que des systèmes ayant interagi ne peuvent être considérés comme indépendants et doivent être pensés comme formant un tout indivisible.


Limite 8: "L'ontologie des théories quantiques (mécanique quantique ou théories alternatives non réfutées) se limite à l'objet qu'est l'univers dans son ensemble."


Contre-limite 8: "Si on se restreint à la réalité empirique, tout se passe comme si l'ontologie s'ouvrait à des entités qui ne sont que des parties limitées de l'univers."

En effet, on a vu avec la théorie de l'environnement (articles 6-4 et 6-5)qu'il nous est impossible de percevoir les phénomènes qui font la différence entre un vecteur d'état étendu à l'environnement et celui qui est restreint au système et à l'appareil de mesure. De même nous ne pouvons percevoir les phénomènes qui feraient la différence entre un vecteur d'état unique englobant tout l'univers et un vecteur d'état limité au système considéré. Pour un réaliste pragmatique, la contre-limite 8 est la seule à posséder un sens, alors que pour un réaliste métaphysique ou empirique de principe, elle détermine l'ontologie de la réalité (elle sera par la suite appelée "ontologie empirique"). Les théories divergent quant au contenu de  leur ontologie empirique. Pour la mécanique quantique, les systèmes ne possèdent pas de propriétés en propre et les grandeurs attachées ne se déterminent que lors d'une mesure et ne peuvent être toutes simultanément définies. Pour la théorie de Bohm, un système possède bien des propriétés bien définies, mais leur valeur dépend des dispositifs expérimentaux. On peut y définir des concepts comme la trajectoire bien que celle-ci soit inconnaissable. On peut aussi montrer que des propriétés comme la masse ou la charge d'un électron sont comme dispersées dans tout l'espace. Alors "en quel sens peut-on parler d'un objet de nature corpusculaire qui ne rassemble au voisinage de sa position qu'une seule détermination: cette position elle-même" (M. Bitbol).


Ceci amène à la limite 9: "La mécanique quantique exclut de son ontologie toute propriété considérée comme appartenant à un système et possédant à tout moment une valeur définie. Les théories à variables cachées acceptent l'existence de ces propriétés. Cependant, la mécanique quantique comme les TVC conduisent à considérer que les valeurs prises par ces propriétés dépendent de manière non locale de la valeur de propriétés appartenant à d'autres systèmes éventuellement distants ainsi que de la configuration expérimentale mise en oeuvre pour mesurer ces grandeurs."


6) les limites cognitives.


a) En mathématiques.

On a vu que la limite n° 7 peut être considérée comme une limite ontologique ou une limite cognitive selon le point de vue qu'on adopte. Elle signifie qu'aucun système formel ne peur suffire à démontrer ou réfuter les énoncés portant sur les objets de ses modèles. Ne pas savoir si les ensembles satisfont ou non l'hypothèse du continu peut être peu gênant si on accepte que le concept d'ensemble se dédouble en celui d'ensemble satisfaisant l'hypothèse et celui d'ensemble ne la satisfaisant pas. Par contre, le théorème de Gödel exprime une limite cognitive du formalisme (on connait une formule dont on sait qu'elle est vraie sans pouvoir la démontrer). Aucun formalisme assez puissant pour contenir l'arithmétique ne permet de démontrer les assertions vraies qu'on peut exprimer dans son cadre. Mais il y a plus grave concernant les indécidables de la théorie algorithmique de l'informationl'équation diophantienne établie par Chaitin ou le nombre Oméga. Aucun système formel ne peut en traiter plus qu'un nombre fini de cas. Nous devons admettre que pour la plupart des suites de 0 et de 1, il nous est impossible d'en savoir la complexité, ou que pour une infinité de valeurs du paramètre n de l'équation de Chaitin, nous ne pourrons jamais savoir s'il existe ou non un nombre infini de solutions, et nous ne pourrons jamais connaître les décimales de Oméga. C'est un résultat général de Turing, selon lequel il est impossible de calculer les décimales de la plupart des nombre réels.

D'où la limite 10: "quels que soient les systèmes formels dans lesquels on se place, il existe une infinité d'énoncés vrais qu'il est impossible de démontrer. De plus, aucun système formel ne peut régler plus d'un nombre fini de cas de problèmes du type de celui de l'équation de Chaitin, de la complexité algorithmique d'une chaîne ou du calcul des décimales d'un nombre réel aléatoire. Les énoncés de ce type, dont la résolution est hors de notre portée de manière irrémédiable, sont donc infiniment plus nombreux que ceux qu'il est possible de traiter."


Cette limite établit donc un champ d'inconnaissabilité dont la taille, au sens de la théorie de la mesure, est très largement supérieure à celle du domaine connaissable.


b) En physique.

L'impossibilité d'exprimer la mécanique ou les théories alternatives sous une forme d'objectivité forte, sans référence à une mesure ou à un observateur, est un indice de l'impossibilité d'identifier les objets de l'ontologie quantique à ceux d'une réalité indépendante. Il faut se restreindre à la réalité empirique pour accepter une ontologie qui ne soit pas constituée uniquement de l'univers dans sa globalité. Cela revient donc à faire intervenir la dimension humaine et donc se démarquer du concept de réalité indépendante ou réalité en soi.

Limite 11: "La physique quantique montre que le réalisme naïf immédiat consistant à postuler une réalité extérieure indépendante de toute mesure et de tout observateur et ressemblant dans sa constitution et sa structure à ce que nous en percevons doit être abandonné."

Il n'en demeure pas moins que rien ne s'oppose à l'existence d'une réalité en soi tant qu'on ne formule aucune hypothèse sur ses propriétés. Il serait erroné de croire que la physique quantique démontre l'absurdité de tout type de réalisme.

Contre-limite 11: "La physique quantique ne s'oppose pas à la thèse d'un réalisme postulant l'existence d'une réalité indépendante à condition qu'aucune hypothèse ne soit faite sur la nature précise de cette réalité."

Les limites cognitives dépendent de l'ontologie acceptée. Plus celle-ci est profonde, plus les limites sont fortes. Ne pas connaître la trajectoire d'un électron en mécanique quantique n'est pas une limite cognitive puisque le concept de trajectoire ne fait pas partie de l'ontologie quantique. En revanche, c'en est une dans le cadre des TVC qui considèrent que la particule suit une trajectoire continue mais qu'il est impossible de connaître. Ce problème ne se pose pas non plus pour un positiviste qui considère qu'il est dépourvu de sens de se demander ce qui se passe en dehors des observations. Elles ne se présentent pas de la même manière pour pour un réaliste empirique ou un réaliste métaphysique. Le premier refuse de s'interroger sur ce qui est au-delà des phénomènes observables, mais pourra s'interroger sur les propriétés intimes de la réalité empirique; le second verra une réalité indépendante au-delà des phénomènes, mais rencontrera des limites d'autant plus fortes que son ontologie est riche.


Limite 12: "Si on se place dans le cadre de la mécanique quantique, l'état d'un système ne représente plus ce qu'il est, mais seulement la potentialité de qu'il présente de fournir tel ou tel résultat lors d'une mesure (Il ne représente donc pas "ce qui est"). Le mécanisme intime par lequel la valeur d'une grandeur se détermine lors d'une mesure réside irrémédiablement hors du champ de la connaissance possible."

Contre-limite 12: "Si on se place dans le cadre des TVC, les propriétés appartenant à un système sont bien déterminées même en dehors de toute mesure et le mécanisme de détermination est des grandeurs est dévoilé."


Limite 13: "Même si dans le cas des TVC le fonctionnement intime des processus est dévoilé, son principe même interdit d'en avoir une connaissance directe qui permettrait de le voir à l'oeuvre et de l'utiliser pour connaître l'état au sens classique du système."

Une question est de savoir si ces limites concernent la réalité empirique ou la réalité en soi. Comme elles portent sur l'état d'un système ou les propriétés attachées à un système, elles expriment une inconnaissabilité de certains traits de l'ontologie empirique et non de la réalité indépendante qui réside au-delà du discours. cette distinction sera examinée au chapitre suivant.

limite 14: "La physique est un formalisme descriptif et prédictif dont le domaine est la réalité empirique. Prétendre que son domaine s'étend à celui de la réalité en soi (pour les réalistes métaphysiques), se heurte à de graves difficultés qui semblent insurmontables. La mécanique quantique notamment fournit une description correcte de l'apparence de la réalité empirique et non de la réalité en soi."


La sous-déterminations des théories est concrétisée par le fait que les théories à variables cachées, bien que logiquement et ontologiquement incompatibles avec la mécanique quantique, reproduisent toutes ses prédictions, mais sans en faire aucune qui permette de les différencier ni avec la mécanique quantique, ni entre elles. (L'épistémologie de Quine comporte une thèse essentielle, dite « de la sous-détermination des théories par l'expérience ». On peut la résumer ainsi : deux théories différentes peuvent être empiriquement équivalentes ; elles peuvent être vérifiées et falsifiées par le même budget d'observations possibles, et cela même si l'on poursuivait indéfiniment, « jusque dans l'éternité », les observations et vérifications). Si on suppose que les prédictions de la mécanique quantique seront toujours vérifiées, aucune expérience ne pourra donc trancher pour décider quelle est la "vraie théorie" et cette question semble de fait dépourvue de sens. Cette conclusion est encore plus dévastatrice que la simple élimination de certaines grandeurs par la mécanique quantique. Cela sera examiné dans la le dernier article de cette série d'articles sur les limites de la connaissance.


D'où la limite 15: La sous-détermination des théories par l'expérience nous interdit non seulement connaître certains aspects de la réalité mais même de s'interroger si cela a un sens de s'interroger à leur sujet. Il en est ainsi par exemple de savoir si une particule suit ou non une trajectoire bien définie. Il en résulte que le concept de vérité d'une théorie n'est plus pertinent si "vérité est entendu au sens d'adéquation à la réalité empirique en tant que théorie unique et à fortiori s'il s'agit d'adéquation à la réalité en soi."

- Cette limite suppose que qu'on adopte la maxime: "ne doit être considéré comme sensé que ce qui fait une différence à l'expérience." C'est un héritage de l'empirisme logique qui a déjà été rejeté (voir l'article sur "l'empirisme logique").  En effet elle est stérilisante et interdit de pousser la réflexion au-delà de ce qui est directement observable. Cela permet ainsi d'accepter de s'interroger sur le statut de la réalité. En rejetant cette maxime, il serait possible de de dire que même si nous n'avons aucun moyen de de savoir si telle propriété est vraie ou non, puisque deux théories empiriquement équivalentes apportent des réponses différentes, il existe en fait une réponse (mais nous ne la connaîtrons jamais). Mais ce point de vue ne serait motivé que par le désir de conserver une image attachée à un point de vue classique.

On pourrait utiliser ce résultat pour rejeter comme dénuée de sens la question de savoir si la réalité est déterministe ou pas. En effet, si deux théories empiriquement correctes sont telles que l'une est déterministe et l'autre non, on se trouve dans un tel cas de sous détermination. Cependant le problème se pose ici de manière différente. Dire que la nature est déterministe ne signifie pas qu'il est impossible de la décrire de manière probabiliste, mais qu'il est possible de la décrire par une théorie déterministe. Il es résulte que la seule existence d'une théorie déterministe satisfaisante suffirait à établir que la nature est déterministe.


7) Conclusion de cet article: que faire avec toutes ces limites?

 

L'énumération de ces limites montre en négatif un "territoire" conceptuel où des conceptions coexistent, mais dont certaines sont exclues. Elles conduisent à considérer que certaines questions sont dépourvues de sens, en permettant toutefois de comprendre pourquoi elles le sont, ce qui fait défaut aux empiristes logiques chez lesquels on peut ressentir une frustration intellectuelle (on peut se poser la question: "Certes, aucune effet observable ne permet de trancher, mais en vérité, qu'en est-il?"). Comme l'a dit Bohm, ce n'est pas parce qu'on ne peut connaître quelque chose qu'il s'ensuit logiquement qu'elle n'existe pas. Quelle raison profonde y a-t-il a considérer qu'un énoncé n'ayant aucune conséquence observable est dépourvu de sens?  Pour ceux qui admettent sans plus d'interrogations la maxime positiviste, la question ne se pose pas. Mais pour les autres, il est satisfaisant de comprendre "ce qui fait" qu'un énoncé est dénué de sens. Les avancées de la science contemporaine ont apporté des réponses nouvelles. Avant Einstein, tout le monde s'accordait à penser que la question "l'évènement A s'est-il produit simultanément avec l'évènement A"  possédait une réponse bien définie. On sait maintenant que cette question n'a pas de sens à moins de préciser dans quel référentiel on se place. Dans un autre cas, la question qu'y avait-il avant le big-bang, il y a 50 milliards d'années, est dépourvue de sens. Dans le premier cas, la raison est que la notion de simultanéité n'est pas une notion absolue, mais elle relative au référentiel au référentiel dans lequel on se place. Dans le deuxième cas, la raison est que le temps a été créé en "même" temps que l'espace et que le concept de temps ne préexiste pas à celui d'univers. Un autre exemple est le paradoxe de Zénon, qui paraît extrêmement convaincant tant que  l'on ne tient pas compte de la démonstration d'analyse mathématique moderne selon laquelle la somme d'une série infinie peut être finie.

On s'aperçoit ici que de nouveaux concepts donnent la possibilité de transcender une question à laquelle on considérait auparavant qu'elle avait une réponse bien définie, en en comprenant pourquoi elle était dénuée de sens. Il aurait été impossible à Newton d'imaginer que la simultanéité de deux évènements pouvait ne correspondre à rien et un Grec n'aurait pu imaginer que qu'il pouvait avoir une infinité de parties non ponctuelles dans un intervalle fini. Les nouveaux concepts permettent de de dire que si ces questions n'ont pas de sens c'est un partie dû à l'inadéquation des concepts qu'elles utilisent, alors que les positivistes logiques ne voyaient que le fait qu'il n'y a aucune conséquence empirique permettant de faire la différence entre une réponse positive et une réponse négative.

Les limites énoncées vont dans cette direction. En particulier la limite 15, qui énonce qu'il est dépourvu de sens de s'interroger pour savoir si une particule suit ou non une trajectoire définie. Ce qui rend vaine cette interrogation, ce n'est pas seulement l'existence de deux théories empiriquement équivalentes qui apportent des réponses opposées, (ce serait adopter la maxime positiviste),  mais c'est la conjonction de ce constat avec la prise de conscience que la notion de trajectoire est un concept dont la construction n'est possible que dans le cadre de certaines théories ontologiquement interprétables, ce qui n'est pas le cas de la mécanique quantique. En clair, la notion de trajectoire n'est pas une donnée absolue et indépendante, mais un concept théorique dont la construction n'est légitime qu'à l'intérieur de certaines théories.  Ce fait montre donc que ce concept est relatif au cadre choisi ("la relativité conceptuelle" de Putnam). Cela permet de dire que la question "une particule suit-t-elle une trajectoire est dépourvue de sens.

Après cette réflexion sur les limites de la connaissances, nous pouvons aborder au cours des articles suivants l'examen des positions et attitudes philosophiques qui se sont exprimées après la découverte de ce monde quantique.










17:24 Écrit par pascal dans les limites de la connaissance | Lien permanent | Commentaires (2) | |  del.icio.us | | Digg! Digg |  Facebook

3-3) Au commencement du temps 3-3 Des figuiers romains au Trocadéro. )

Au commencement du temps 3-3) Des figuiers romains au Trocadéro.

Le film de l'Univers vu à l'envers,  troisième étape

 

Autrefois, la forêt à Paris

 

 

 

Dans ces articles, je voudrais approfondir ma réflexion sur "le visage de Dieu" écrit par les frère Bogdanov et celle de mon article dans mon blog de reflexions à travers le livre de Igor et Grichka Bogdanov: "Au commencement du temps".

Ils me permettent de faire un saut dans l'histoire via les blogs et le articles que je déniche sur la toile, d'affiner mes connaissance sur la science et la recherche de l'Origine. Je trouve plaisir et jubilation à partager.

 

 

Mes articles déjà parus dans cette rubrique:

Voir aussi à la fin de cet article les blogs trouvés en faisant des recherches sur internet.



Le film de l'Univers remonté à l'envers vu par les frères Bogdanov (et moi dans ce blog, par ma lecture).




3) Etape 3: Des figuiers romains au Trocadéro (1793 au Vè siècle avant J. -C.)


la prise de la bastille

a) 1793.

"Nous voici maintenant au XVIIIè siècle, en 1793, quelques années seulement après la prise de la Bastille. Nous sommes accueillis par des cris de joie: un petit groupe de sans-culotte applaudit à gorge rauque au discours d'un commissaire de la République.: la Grande rue devient rue Marat! - hommage à "l'ami du peuple" assassiné par les "ennemis du peuple" le 13 juillet de cette même année. Mais la Restauration n'acceptera pas l'affront. Depuis, la rue Marat s'appelle rue de Passy."



b) Mais les campagnes avaient souvent du retard et certaines révoltes eurent lieu plus tard.

J'ai été bercé par l'histoire de Jacquou le Croquant qui a marqué les souvenirs et les mentalités dans le petit village de mon enfanceJumilhac le Grand sur les bords de l'Isle verdoyante, où les poissons étaient encore nombreux, ainsi que les écrevisses que je ramenais avec fierté quand mon oncle venait nous voir. En allant à l'école, je passais tous les jours devant la maison où Eugène le Roy était percepteur entre 1872 et 1873: Eugène Le Roy (périgourdin célèbre), est le fils d'un couple de domestiques du baron Ange Hyacinthe Maxence, baron de Damas, ancien ministre, propriétaire du château d'Hautefort. Leur emploi force ses parents à le placer en nourrice chez une paysanne des environs. Ses souvenirs d'enfance marqueront fortement son œuvre future, dans laquelle abondent les enfants abandonnés, comme dans beaucoup d'autres romans contemporains.

Le hasard des nominations dans l'administration des Contributions a amené Eugène Le Roy à Jumilhac-le-Grand, où il a séjourné et exercé ses fonctions entre 1872 et 1873. Il a habité une fort belle maison, au coin de la place du Château, maison qu'on peut toujours voir, et sur laquelle fut apposée une plaque commémorative lors de la Félibrée de 1933. C'est à Jumilhac que notre percepteur rencontra celle qui deviendra son épouse : la postière de la commune, descendante d'une vieille famille locale, les Peyronnet. Outre cet événement heureux, on peut penser, sans grande audace, que c'est aussi sur place qu'il trouva une partie de l'inspiration de son premier roman, Le Moulin du Frau 1.


Mais on le connait plus pour son roman Jacqou le croquant dont a été tiré un film qui a eu beaucoup de succès succès. Mais j'ai été un peu déçu et je ne m'y suis pas retrouvé par rapport à mon ressenti depuis mon enfance.

Le Roman : « Jacquou le Croquant » raconte l'histoire d'un enfant imaginé par Eugène Le Roy et basée sur des faits et des lieux réels. Publié en 1899, l'action se passe en 1830 dans la forêt Barade et décrit la lutte d'un jeune paysan en révolte contre la misère due à l'oppression du seigneur de l'Herm : le comte de Nansac.

Commencé en mars 1896, le roman est achevé en mai 1897et publié en 1899. C'est un récit sur la forêt Barade mais il évoluera peu à peu vers la révolte d'un petit paysan orphelin contre les nobles qui accaparent toutes les richesses.
L' Histoire : L'histoire commence en 1815 (Napoléon 1er est alors exilé à Ste Hélène), à Combenègre, pauvre métairie dépendant des terres de l'Herm, où les Ferral sont métayers du comte de Nansac. Suite au meurtre de Laborie, régisseur du château, Martissou, son père, est condamné aux galères où il meurt peu après.
Marie, obligée de quitter Combenègre se réfugie dans une masure à Bars, où minée par les trajets et le peu de travail trouvé, meurt à son tour.
Jacquou est seul au monde, orphelin; il a 9 ans. Désormais seul au monde, il s'en va par les chemins glaner un peu de travail çà ou là ; affamé le plus souvent, dormant dans les fossés, il échoue à Fanlac et s'endort au pied du vieux puits sur la place, épuisé. [ Parcours de Jacquou ]
Le curé du village, Bonal, le recueille et entreprend son éducation ; peu à peu Jacquou se remet mais il n'oubliera jamais l'injustice qui ont fait mourir ses parents. A la mort du bon curé Bonal, Jacquou qui fréquente Lina, prend le métier de charbonnier avec son ami Jean, il braconne aussi quelque fois dans les bois du comte. Un soir il se fait prendre par les gardes du comte qui l'enferment dans les oubliettes du château ; ne voyant plus son ami et le croyant mort, Lina se jette dans le Gour (gouffre prés de Thenon) ; pendant ce temps le chevalier de Galibert, ami de Bonal, délivre Jacquou en menaçant le comte de représailles avec la justice. Jacquou est libéré mais, en apprenant la mort de sa belle, il rassemble autour de lui tous ceux qui ont eu à se plaindre du comte, et Dieu sait s'ils sont nombreux ; un soir ils incendient le château : Nansac est ruiné, Jacquou jugé et libéré. Il revient à l'Herm où il se marie et reprend son métier tranquille de paysan.
(Plus de détails sur Jacquou dans le blog "diogene.ch")



c) 21 novembre 1783. Un ballon à air chaud glisse au-dessus du jardin de la Muette (une partie du futur 16è arrondissement). Dans cette étrange véhicule inventé par Messieurs de Montgolfier, ont pris place deux aéronautes de haut lignage: Pilâtre de Rozier et le marquis d'Arlandes. Il passe au-dessus du château de la Muette où l'on voit parfois se promener la reine Marie-Antoinette et la marquise de Pompadour.

Mais, qu'est devenue la cuisinière qui habitera un jour rue du Général Lepic (voir articles précédents), ainsi que sa famille, sa fille et sa petite fille? "En lieu et place de la rue, un petit sentier serpente au milieu des broussailles et des bois. Deux ou trois chaumières à demi écroulées bordent le chemin qui mène vers la cour de la ferme Magu, déjà célèbre pour la qualité de son lait". Chaussée d'une paire de sabots, une jeune femme vient de sortir de l'ombre profonde de l'étable. Elle est vêtue d'une robe longue surmontée d'un tablier de toile grise. Son visage paraît familier: elle ressemble étrangement à la jeune marchande de journaux. Serait-ce une aïeule de celle qui habitera un jour rue du général Lepic, à quelques centaines de mètres seulement de la ferme Magu? Mêmes cheveux blonds, même front un peu bombé...Un souffle d'air incertain passe à ce moment dans les arbres où une petite construction attire le regard. A mi-hauteur du gros chêne qui garde l'entrée du sentier, les habitants de la ferme ont construit une cabane à pigeons. Un oiseau vient de se poser sur la barre d'appui à l'avant de l'abri. Un petit rouleau de papier est attaché par une bague entre ses pattes...". Dans ce monde-là, les pigeons voyageurs représentent le moyen de communication le plus rapide. Ancêtres vivants de la lettre, du fax et d'internet, ils transportent de l'information à tire-d'aile. La technologie qui permet ces transmissions repose sur l'animal, uns simple boite en bois et une petite bague accrochée à l'une des pattes du pigeon. Combien de "bitsd'information pour décrire un tel système? (Et combien pour décrire le réseau d'ordinateurs qui permet d'envoyer et de recevoir 200 milliards de courriels en 2009)? A la manière dont les vaches regardent fixement, leurs sabots enfoncés dans la boue, on peut avoir la certitude que l'information de ce monde, son infosphère, a encore diminué.


Newton secret.

d) Nouvelle halte sur la colline de Chaillot, en 1687.

"Nous nous asseyons dans un verger juste au-dessus d'un champ qui descend par vagues jusqu'à la Seine. L'horizon est vaste, léger, presque irréel. Nous ramassons quelques pommes tombées à terre. Goût vif et sucré, chair ferme, parfumée: fruits d'un autre âge. Nous avons la nostalgie d'un temps que nos n'avons pas connu. Des bâtiments aux toits d'un jaune un peu beige, poudreux entre les bois du futur Champ de mars sont visibles à l'horizon".

Le vieux laboureur qui peine sur les mancherons de sa charrue dont le soc en bois s'enfonce difficilement dans le sol avant de verser la terre fraîche et d'y ouvrir un sillon, sait-il que le poids de sa charrue, qu'il a tellement de mal à tenir droite, dépend d'une loi découverte par un savant anglais du nom d'Issac Newton? Il vient de publier ses travaux dans son énorme ouvrage intitulé Philosophiae Naturalis Principia Mathematica, où il expose en détail sa "théorie de l'attraction universelle". La connaissance de cette loi ne l'aurait probablement pas aidé pour déplacer la grosse pierre levée par le soc, ni à se sentir plus léger. En tout cas, quelques "bits" d'information suffisent à décrire l'araire qu'il guide entre ses bras (combien en faut-il pour caractériser les charrues hydrauliques des années 2000 ou la faux moderne du moissonneur, cette moissonneuse-batteuse moderne, monstre de technologie et d'électronique?).


"En 1651, le Champ de Mars a disparu, remplacé par la plaine de Grenelle, une campagne semée de broussailles, des pâtures et des champs; A la place de l'Ecole militaire, s'épanouit un bosquet giboyeux où l'on va chasser lièvres et perdrix le dimanche. Sur la colline de Chaillot, on trouve désormais un couvent, celui de la visitation, lieu de prière et de retraite. En face, sur ce que va devenir la place du Trocadéro avec ses fameux cafés, se dresse un petit groupe de maisons en pierres. A l'angle d'un chemin en terre, (la future Avenue Kléber), une auberge où, le dimanche, La Fontaine vient composer ses fables. Il lui arrive de cheminer jusqu'au fond du bois pour y retrouver Boileau à le fameuse ferme Magu (au coin des futures rues Descamps et de Longchamp, à l'actuelle place de Mexico), pour y boire du lait. Mais les habitants ne sortent jamais le soir, les lieux sont mal famés. La guilde des voleurs vient d'y élire domicile, dans un cul de basse fosse, près de l'église de Chaillot(?). Dès le coucher de soleil, on se cloître, de peur d'être détroussé par les coupe-jarrets, les escarpes et autres vide-goussets".


le modèle géocentrique.

En 1618, loin de la terre de France, un certain Johannes Kepler publie son ouvrage commencé en 1609, Astronomia nova dans lequel il a consigné deux de ses célèbres lois sur le mouvement et les orbites des planètes et cette troisième loi découverte en cette année 1618. Il mettra ainsi un terme définitif à l'ancien modèle astronomique selon lequel le soleil tournait autour de la terre.


e) Continuons la plongée dans le passé: an 1400. Le monde se transforme sous nos yeux. C'est un éblouissement immobile, un vertige fixe! Des racines de lierre s'enroulent maintenant au chapiteau de la porte d'une poterne au pied de laquelle nous venons d'atterrir. On peut voir d'énormes murailles dessiner la silhouette d'un palais de la Renaissance. Cette vision d'un mur en lieu et place du musée de Chaillot a quelque chose d'incroyable. D'où vient cet édifice et qui l'a fait bâtir? ..C'est Catherine de Médicis qui a fait construire une villa à l'hippodrome par Etienne Dupérac et qui deviendra le château de Chaillot (voir "un projet de villa à l'antique pour Catherine de Médicis). Quantité de personnages y ont résidé mais qui s'en souvient en 2009? Leur souvenir flotte en silence près des cafés du coin et tous sont venus goûter sur la colline l'ombre fraîche des figuiers par les longs après-midi d'été: Mme de CastillePhilippe de Commynes, le maréchal de BassompierreHenriette de France (veuve de Charles Ier d'Angleterre), Mlle de La Fayette, la soeur de Colbert, la duchesse de Nemours, Mlle de La Vallière...Nous restons là, méditatifs puis nous replongeons à nouveau vers l'obscur couloir du temps.

1543: "...Belle nuit claire, mince couche d'étoiles dans le ciel. D'un bon pas, pour éviter les voleurs et autres malandrins, nous marchons vers la ferme Magu. Le chêne qui garde le sentier est déjà là mais pas la cabane à pigeons. Elle sera "inventée " plus tard..."

Qui vit dans cette ferme perdue au fond de la campagne? La même famille, peut-être que celle de notre lointaine marchande de journaux. En cette année 1543, un astronome du nom de Nicolas Copernic (voir: wirtualnafrancja.compublie enfin son ouvrage "savant" De Revolutionibus Orbium Caelestium, où il affirme pour la première fois depuis Aristarque de Samos, que le terre et les autre planètes tournent bel et bien autour du soleil...Autour de nous, des ombres incertaines montent de la Seine. Des voleurs? Avant de replonger dans le passé, nous pouvons voir que le rocher qui nos sert de repère n'a pas bougé d'un millimètre, pas plus que l'énigmatique entaille creusée sur sa face. Nul doute, elle n'est pas naturelle. Mais par qui a-t-elle été faite?...


Vers l'an 1400... Nous sommes à la fin du moyen-âge, au milieu d'une forêt profonde. L'air est vif. On a du mal à croire que c'est à la place de ces arbres noueux et de ces ronces que sera un jour édifiée la tour Eiffel. Derrière nous, se dresse une colline escarpée, qui n'a pas encore de nom. La aussi, une forêt épaisse a pris possession des lieux, à l'exception de trois petites fermes formant un hameau sur le plateau, qui bien plus tard, deviendra la place du Trocadéro. Sur la plaine du Champ de Mars, qui mène vers la ville lointaine de Paris enfermée derrière ses murailles, on ne rencontre plus que des blanchisseurs, des avitailleurs, des bouilleurs de cru, des chevillards, des rémouleurs ou des charcutiers. Les volayeux, les mastroquets, les panetiers ou les gargots vont et viennent à grands cris, avec un fort accent et avec des mots pour la plupart inconnus. Un meunier pousse un âne chargé de sacs vers le grand moulin à vent construit sur le versant ouest de la colline de Chaillot, ancêtre des grandes minoteries entièrement automatisées et gérées par l'électronique. Quelques "bits" suffisent à représenter le moulin, sa structure, ses grandes ailes et le bois dont il est construit. Vers la gauche, en direction de la Seine, non loin de l'ancienne demeure de Catherine de Médicis, se trouve une bâtisse à murs forts où sont commis de nombreux vols. C'est un atelier de basse lisse qui va devenir une manufacture de tapisseries, les célèbres savonneries du XVIIIème siècle et en fin, aujourd'hui, le musée d'art moderne. Sur la droite, encore des bois, jusqu'au couvent des minimes qui vient d'être construit face à la rivière, à l'angle de la future rue Albinoni.  Un peu plus loin, protégée par l'église Saint Pierre de Chaillot, c'est la fière demeure de Philippe de Commynes, seigneur de Chaillot et conseiller du roi Louis XI. Plus loin encore, se dresse la seigneurie de Passy dont le dernier seigneur sera le sire de Boulainvilliers. Courue par les renards et les malandrins de tout poil, la forêt de Passy fait peur et rares ceux qui osent s'y aventurer la nuit venue.

Dans la plaine, d'un bout à l'autre, la forêt de Garnelles (devenue Granelle puis Grenaille dans l'insondable ailleurs du temps) est déserte, hantée seulement par quelques brigands et par des hordes de loups. Un jour lointain, Poilâne y bâtira sa boulangerie.


Terreur de l'an mil

Notre course devient de plus en plus folle. Avant l'an 1000, il n'y a plus que quelques cabanes en bois au coeur de l'immense forêt qui a envahi même les chemins de terre du Champ-de Mars et les dernières fermes de Garmelles. Seul subsiste, sur la colline, de l'autre côté de la Seine, le petit village de Chaillot, à l'entrée de ce qui va devenir la future avenue Kléber. Le moulin à vent a disparu mais il reste une dizaine de fermes et une église, protégées plus tard par Philippe de Commynes, le seigneur de Chaillot (La colline a porté le nom de Chaillot vers l'an 800). Les quelques habitants de l'époque échangent des paroles incompréhensibles. Ils sont vêtus d'une chemise en toile de bure et d'un scapulaire à capuchon. Ces vêtements sont tellement simples qu'on peut les réduire à une dizaine de "bits" d'informations, témoignage de la réduction continue des données sur lesquelles repose le monde. En nous croisant, l'un de ces hommes se signe rapidement comme s'il tenait à conjurer un mauvais sort. Sur la façade d'une maison à colombages sur torchis, avec croisées de bois, en partie masquée par un massif d'épines blanches, un croissant de lune noire est suspendu à l'une de ses branches. C'est le symbole des lieux maudits. La porte est barrée par le signe de la peste, elle est habitée par une sorcière. On murmure qu'elle se nourrit des oeufs de serpent qui sont enterrés au pied du figuier  et qu'elle sera la seule à survivre à la fin des temps qui approche. A la veille de l'an mille, hommes et femmes sont convaincus que le monde va s'éteindre.


Au VIe siècle, c'est un petit village du nom de Nijeon qui se dresse à l'emplacement du futur Trocadéro. Quelques villageois se déplaceront vers l'occident pour fonder à quelques km d'ici le village d'Aulheuil qui deviendra Auteuil.


An 400. "Un vent sauvage souffle sur la bourgade qu'est Paris. Il fait particulièrement froid. Loin de là, en Italie, Saint Augustin est en train de réfléchir sur le temps. Il affirme dans ses Confessions que l'ensemble des instants de l'Univers doit être, selon le point de vue de Dieu, "omnia simul": l'ensemble des phénomènes de l'Univers est présent à la fois, simultané, sans succession, éternel". Cet homme de l'antiquité tardive voit en fait le temps imaginaire qui sera décrit 16 siècles plus tard.


f) Reprenons notre voyage...nous atterrissons à l'époque des Romains.

Il ne subsiste que quelques chaumières perdues ça et là au fond de la petite clairière, future place du Trocadéro. Sur la pente ensoleillée, il y a des plants de vigne qui donnent le fameux vin de Chaillot, très apprécié des Romains. A la demande pressante de Jules César, les champs de Grenelle sont maintenant plantés de figuiers. Paris n'existe plus, c'est alors Lutétia (voir lutèce, luteciaavec ses palais et ses villas édifiés entre les deux grandes voies parallèles qui deviendront bien plus tard la rue Saint Jacques et le Boulevard Saint Michel. Partout ailleurs, sauf sur le mont de Mars (Montmartre actuel), c'est la forêt profonde, où plus personne  ne vient s'aventurer, sauf quelques chasseurs ou des guerriers romains.


47 avant J.-C. Les légionnaires de Jules César vont incendier la fameuse bibliothèque d'Alexandrie: quelques 500 000 volumes disparaîtront en fumée. En quelques instants, le monde perd un térabyte d'informations (10¹² bytes). En comptant tous les manuscrits préservés sur la terre à cette époque, y compris ceux des civilisations indiennes et chinoises, on atteint à peine le chiffre de 12 térabytes.


distance terre-lune

Encore un saut de deux siècles dans le passé:

An 150 avant Jésus-Christ. Lutèce n'est qu'une cité modeste de bois et de chaume frileusement serrée sur l'Île de la Cité. La population mondiale atteint tout juste les 100 millions de personnes, avec près de 10 millions de gaulois en France (environ 10% de la population mondiale).

Du haut de la colline qui surplombe la Seine, l'air est chargé d'odeurs de bois et de marais. Le silence est partout, seulement troublé par un essaim d'abeilles qui bourdonne dans les couleurs verticales du soleil. Ce silence est fait de mille bruits, du crissement des sauterelles au passage du vent et de grenouilles près de la Seine. Il est difficile alors de s'imaginer l'avenir avec ses milliers de rues, d'avenues, de bâtiments, d'immeubles, de voitures, de bus, qui recouvriront un jour ces collines et ces plaines...

280 avant Jésus-Christ. Un philosophe, Aristarque de Samos a terminé un ouvrage auquel il donne ce titre: "Sur les dimensions et les distances du Soleil et de la Lune". Un demi siècle plus tard, Archimède écrit : « Vous n'êtes pas sans savoir que par l'Univers, la plupart des Astronomes signifient une sphère ayant son centre au centre de la Terre (...). Toutefois, Aristarque de Samos a publié des écrits sur les hypothèses astronomiques. Les présuppositions qu'on trouve dans ses écrits suggèrent un univers beaucoup plus grand que celui mentionné plus haut. Il commence en fait avec l'hypothèse que les étoiles fixes et le Soleil sont immobiles. Quant à la Terre, elle se déplace autour du Soleil sur la circonférence d'un cercle ayant son centre dans le Soleil. »

— Archimède, Préface du traité L’arénaire.

Vers 420 avant Jésus-christ. "Sur les lieux de le future rue du Général Lepic, nous sommes en plein bois. Un orage se prépare. Un grondement lointain monte, à peine perceptible, mais qui tient toute la place dans les profondeurs d'un nuage menaçant. Une nuée blanche remue jusqu'au sommet, presque vivante, coulant une ombre violette à l'horizon, là où le ciel prend appui sur la terre. A cet instant, nous avons réellement le sentiment que nous sommes perdus dans le temps".  Nous nous souvenons alors que c'est Platon a écrit "le temps est l'image mobile de l'éternité immobile". C'est bien là une définition du temps imaginaire.


Avant de reprendre le voyage dans les profondeurs insondables du temps, nous pouvons mesurer que "l'information artificielle" (les écrits et les "inventions techniques" créés par l'homme) émerge à peine. Elle se réduit à quelques centaines de gigabytes, une quantité d'informations inférieure à celle qui se trouve stockée, en 2009, sur le plus banal des ordinateurs portables. Et pourtant les penseurs de cette époque, Socrate, Platon, aristote... ont traversé les siècles. Etranger au temps et à l'oubli, leur esprit éclaire l'avenir et a inspiré toute une civilisation.

La suite du voyage, prochain article:  "l'abîme du temps" (- 15 000 à - 65 millions d'années).







 

 

 

Compléments à cet article: sites trouvés en faisant des recherches sur internet pour ces articles.


Recherche pour cet article:

mythes contes et légendes

Recherches pour l'article "la plus haute tour du monde":

l'armée française l'été 14

Guernica Le bombardement de Guernica. Guernica-peinture de Picasso

les chansons françaises: du temps des cerises aux feuilles mortes

palais de chaillot 1935 -course de porteurs de journaux construction du palais de chaillot 1935

histoire des congé payés histoire des congés payés -ina

1929: la crise économique et ses causes le crash de1929 l'histoire de la crise de 1929

la belle epoque vue par -eugene-atget

l'exposition universelle 1900 (histoire des expos) expos universelle 1900 (architecture)

expo universelle 1900 -wikipedia.org expo universelle 1900 -paris photos

expo universelle 1900 -film rare you tube paris expo universelle 1900 -worldexhibition.org

expo universelle 1900 -archives.org

exposition universelle 1878 -gare-chaPalais de Chaillot exposition 1937 -historianman.over-blog.net

Expos 1867 ve du trocadéro, expo 1887... -dspt.perso.sfr

generateur solaire trocadéro expo 1878 -radama.free.fr

trocadéro vu des quaiss 1854/1941 violondingres.frmp-de-mars

expositions universelle 1878 -les nouvelle technologies

 

 

 

 

Théorie: Pour l"article: "la plus haute tour du monde":

le temps imaginaire -futura sciences

l'électron le système binaire tube à vide trou noir (astrophysique)

café du web (evolution-complexite-croissante-irreversibilite)

imagina science (évolution, complexité croissante) complexité (wikipedia)

science.gouv (qu-est-ce-que-la-complexite) complexite: epikurieu.com

CoursEnLigne: Algorithmique Complexite techno-science.net: la complexité claude.rochet:

paradigme de la complexité et interdisciplinarité

systémique et complexité le paradigme de la complexité

la fusion nucléaire la bombe à hydrogène

cultures ciences_chimie science amusante Cours_de_chimie_de_Terminale/Formulaire

formules-physique/chimie geowiki-formules chimiques

espace courbe-géodésique wikipedia-relativité générale P. de la harpe: espace courbe

 

 

 

*blogs sur le big bang:

satellite public.planck

wikipedia: le Boson de Higgs .futura-sciences -rumeurs d'observation du boson de higgs au LHC

science.gouv: le bosons de higgs serat-il observé en 2012? lefigaro- les premières traces du boson de higgs

parismatch- à la recherche de la particule de dieu (higgs?) dieu est-il une particule?

le théorème du jardin -questions cosmologie

 

 

la relativité générale.

http://hubblesite.org/ Einstein et la philosophie des science l'erreur d'einstein relativité générale (iap)

motionmountain; relativité et ... Emc2 la relativité générale (astronomescom)

la relativité générale pour débutants la relativité générale -.futura-sciences la relativité générale -astrosurf

la relativité générale -sciences.ch la relativité pour les nuls -paperblog.fr

la relativité générale aujourd'hui -Thibault Damour cours de relativité générale -cosmosaf.iap.

relativité générale principes de base -Signore.pdf einstein et la gravitation -aim.univ-paris7

relativité générale (physique théorique 3-4è année-durrer de la relativité au GPS -science.gouv

des nuages sur la relativité générale? cnes.fr

 

La relativité restreinte.

la relativité restreinte et la relativité générale -youtube

la relativité restreinte -wikipedia la relativite restreinte -astronomes.com Einstein et la relativité restreinte

zebina einstei et la relativité restreinte (humour) einstein -villemin

Enstein -grands esprits scientifiques einstein et la relativité restreinte -union-rationaliste

la relativité restreinte licence physique -guydoyen.fr

la relativité ses conséquences en philosophie -gillesguerin

comprendre la relativité restreinte -guydoyen.fr la relativiré restreinte bon formulaire -phenix

introduction relativité restreinte et générale -cours/EPF 3è année

 

*blogs  Groupes quantiques.

 

*blogs sur le principe holographique

 

*blogs sur l'entropie

 

*Blogs sur la complexité.

 

*Autres blogs.

15:26 Écrit par pascal dans bogdanov-le visage de dieu | Lien permanent | Commentaires (1) | |  del.icio.us | | Digg! Digg |  Facebook

16/12/2011

Ma peinture huile: le village de mon enfance:

Ma peinture huile: le village de mon enfance:


 

la dordogne

 

 

 

châteaux - Jumilhac


Je me suis bien remis d'un AVC il y a deux ans, en 2009, mais ma vie en a été complètement bouleversée. Les cardiologues pensent que mon cerveau s'est en partie reconstruit, car je n'ai que des séquelles apparemment mineures. Par contre, je me suis découvert un goût pour la peinture que je ne me connaissais pas. Je pense que c'est un "éveil" du cerveau droit, plus porté sur l'art. Auparavant, le cerveau gauche était sans doute dominant par la logique, le logos, le calcul et tout ce qui fait la science. Cette découverte de l'art me rassure, j'ai peut-être un meilleur équilibre entre l'intuition, la partie féminine de l'être et le raisonnement, le calcul, le formalisme de la raison logique.

Le résultat, je le vois dans ces deux tableaux du village de mon enfance, Jumilhac le Grand en Périgord que je reproduis ici. Leur valeur artistique est certainement faible, mais pour moi, ils ont une valeur "spirituelle" et traduisent une manifestation de l'esprit" qui m'anime.


Quand j'y repense, je crois qu'à Jumilhac j'avais déjà ce goût dans mon enfance. J'avais reçu en cadeau d'anniversaire le livre "les merveilles de la nature", livre magnifique s'il en est. Je l'ai gardé toute ma vie. C'est là que j'ai eu une fascination pour ces merveilles qui constituent l'essence et le titre de mon blog. Je ne me lassais pas des images d'astronomie, comme celle d'une éclipse de soleil, de paléontologie avec les dinosaures,  des plantes, d'animaux...

J'y ai appris les notions  qui m'ont permis d'approcher la science. Mais je dessinais et coloriais ces images, je faisais des "cartes postales de paysages de neige... J'ai conservé le goût de la science, mais, avec l'âge, j'étais insatisfait par les dessins. Je croyais ne pas être "à la hauteur" et je m'en suis lassé, jusqu'à... mon AVC.

 


 

 

 

Le château de Jumilhac

 

 


Et là, dans ce petit village, je regardais les saisons, les nuages, l'Isle et ses rives, les oiseaux, en bref, la nature. Au printemps: les fleurs, en été: la moisson avec les premières batteuses des années 1950 et les orages, en automne: les tapis de feuilles mortes, en hiver: la neige et les dessins de cartes postales...

 

Présentation de Jumilhac et d'abord le château.


présentation du château: best-of-perigord.tm.fr/sites:

Tout comme Saint-Yrieix à 12 kilomètres, le Château de Jumilhac formait, aux marches du Limousin et du Périgord, une ligne de défense lors des incursions sarrasines, wisigothesnormandes et anglaises (1190), sans oublier la Guerre de Cent Ans. Maintes fois reconstruit et agrandi, il fut remanié à la Renaissance et couvert (1600) de ces toitures qui font aujourd'hui sa réputation. Ces cônes, poivrières et pyramides, ornés de faîtières aux allégories seigneuriales et alchimiques, sont uniques en France et font de Jumilhac la "Perle Noire" du Haut Périgord.

Au XVIIème, les murs d'enceinte, les tours carrées de défense avancée et les dépendances furent transformés avec faste en corps de logis et de réception, donnant à la demeure des Marquis de Jumilhac (1655), splendeur et magnificence. Grand salon lambrissé, parqueté à la Versailles et animé de scènes de chasse, escalier d'apparat Louis XIII, salle à manger aux rosaces en pisée, cuisine aux cuivres en batterie, jardins thématiques en terrasse, (or et alchimie)... contrastent avec l'atmosphère austère de la Chambre de la Fileuse, Louise de Hautefort, incarcérée pendant 30 ans dans le donjon féodal.


Extrait de  titelive.centerblog.net:

"Le château (XIII-XVIIème siècle), classé monument historique, est l’âme du village car il fut protégé de la Révolution par les habitants du bourg. Uniques en France, ses toitures féeriques ornées de faîtières aux allégories seigneuriales et alchimiques inspirèrent le graveur Gustave Doré qui les qualifia comme étant   « les plus romantiques de France ».

Dressé sur un éperon rocheux il domine la haute vallée de l’Isle. Nous vous invitons à venir découvrir ses salles aux boiseries et meubles d’époque, ses toiles peintes (scènes de chasse…), sa fameuse batterie de cuisine en cuivre, sa légende de « la fileuse » et à vous délasser en visitant ses jardins en terrasse rénovés sur des thèmes liés à l’histoire du château : l’Or et l’alchimie.
C’est aussi un des lieux de tournage du film « Le Pacte des Loups » de Christophe GANS sorti en janvier 2001 qui retrace la légende de la bête du Gévaudan. "


A propos de l'orpaillage

L'Isle est un affluent aurifère réputé de la Dordogne. Cette rivière modeste draine le secteur minier de St Yriex la Perche en Limousin, parcourant les départements de la Haute Vienne et de la Dordogne près de riches aurières exploitées dès l'époque gauloise par des mineurs fort habiles, il y a 2500 ans. De nombreux cours d'eau du Limousin charrient eux aussi des paillettes d'or

Dans le département de la Dordogne, entre Coulaures et le lieu-dit Vauriac, aux toponymes évocateurs, avant de confluer avec la Loue, elle même aurifère, l'Isle dépose des placers d'alluvions à l'intérieur des courbes de son cours. Il faut aussi évoquer le site du Bourneix, maintenant épuisé.


 

 

Les gens racontaient dans mon enfance l'histoire de la princesse de Jumilhac que son seigneur avait enfermé, prisonnière dans un chambre du château durant pratiquement toute sa vie, par jalousie. On  dit qu'elle l'avait trompé! C'est l'histoire de "la fileuse" qui nous faisait peur.

Et, en allant à l'école, je passais tous les jours devant la maison où Eugène le Roy. était percepteur entre 1872 et 1873:

Eugène Le Roy (périgourdin célèbre), est le fils d'un couple de domestiques du baron Ange Hyacinthe Maxence, baron de Damas, ancien ministre, propriétaire du château d'Hautefort. Leur emploi force ses parents à le placer en nourrice chez une paysanne des environs. Ses souvenirs d'enfance marqueront fortement son œuvre future, dans laquelle abondent les enfants abandonnés, comme dans beaucoup d'autres romans contemporains.

Le hasard des nominations dans l'administration des Contributions a amené Eugène Le Roy à Jumilhac-le-Grand, où il a séjourné et exercé ses fonctions entre 1872 et 1873. Il a habité une fort belle maison, au coin de la place du Château, maison qu'on peut toujours voir, et sur laquelle fut apposée une plaque commémorative lors de la Félibrée de 1933. C'est à Jumilhac que notre percepteur rencontra celle qui deviendra son épouse : la postière de la commune, descendante d'une vieille famille locale, les Peyronnet. Outre cet événement heureux, on peut penser, sans grande audace, que c'est aussi sur place qu'il trouva une partie de l'inspiration de son premier roman, Le Moulin du Frau 1.

Mais on le connait plus pour son roman Jacquou le croquant dont a été tiré un film qui a eu beaucoup de succès succès. Mais j'ai été un peu déçu et je ne m'y suis pas retrouvé par rapport à mon ressenti depuis mon enfance.

Le Roman : « Jacquou le Croquant » raconte l'histoire d'un enfant imaginé par Eugène Le Roy et basée sur des faits et des lieux réels. Publié en 1899, l'action se passe en 1830 dans la forêt Barade et décrit la lutte d'un jeune paysan en révolte contre la misère due à l'oppression du seigneur de l'Herm : le comte de Nansac.

Commencé en mars 1896, le roman est achevé en mai 1897et publié en 1899. C'est un récit sur la forêt Barade mais il évoluera peu à peu vers la révolte d'un petit paysan orphelin contre les nobles qui accaparent toutes les richesses.
L' Histoire : L'histoire commence en 1815 (Napoléon 1er est alors exilé à Ste Hélène), à Combenègre, pauvre métairie dépendant des terres de l'Herm, où les Ferral sont métayers du comte de Nansac. Suite au meurtre de Laborie, régisseur du château, Martissou, son père, est condamné aux galères où il meurt peu après.
Marie, obligée de quitter Combenègre se réfugie dans une masure à Bars, où minée par les trajets et le peu de travail trouvé, meurt à son tour.
Jacquou est seul au monde, orphelin; il a 9 ans. Désormais seul au monde, il s'en va par les chemins glaner un peu de travail çà ou là ; affamé le plus souvent, dormant dans les fossés, il échoue à Fanlac et s'endort au pied du vieux puits sur la place, épuisé. [ Parcours de Jacquou ]
Le curé du village, Bonal, le recueille et entreprend son éducation ; peu à peu Jacquou se remet mais il n'oubliera jamais l'injustice qui ont fait mourir ses parents. A la mort du bon curé Bonal, Jacquou qui fréquente Lina, prend le métier de charbonnier avec son ami Jean, il braconne aussi quelque fois dans les bois du comte. Un soir il se fait prendre par les gardes du comte qui l'enferment dans les oubliettes du château ; ne voyant plus son ami et le croyant mort, Lina se jette dans le Gour (gouffre prés de Thenon) ; pendant ce temps le chevalier de Galibert, ami de Bonal, délivre Jacquou en menaçant le comte de représailles avec la justice. Jacquou est libéré mais, en apprenant la mort de sa belle, il rassemble autour de lui tous ceux qui ont eu à se plaindre du comte, et Dieu sait s'ils sont nombreux ; un soir ils incendient le château : Nansac est ruiné, Jacquou jugé et libéré. Il revient à l'Herm où il se marie et reprend son métier tranquille de paysan.
(Plus de détails sur Jacquou dans le blog "diogene.ch")

 

Jumilhac le bourg, vue sur la descente qui mène "aux Croix Bancaud", à la maison de mon enfance.

 

La rue des Croix Bancaud, la maison de Louis et Marie, nos voisins, devenue chambre d'hôtes.

le gite de "la Croix bancaud"

 

Jumilhac le château illuminé.

 

 

 

le château: salon

 

 

Le château: la chambre de la fileuse



Face au chateau en venant de la mairie

 

Jumilhac les bords de l'Isle

C'est la vue que j'avais à 100 mètres de chez moi. On racontait qu'à l'intérieur du château il y avait des oubliettes dans lesquelles les prisonniers  étaient jetés. Ils y passaient le restant de leur courte vie. Avec les copains, on en frémissait d'horreur.

 

 

 

le château en 1900

 

Jumilhac 1900:

 


jumilhac 1900: la descente vers l'Ile (la rivière) et ma maison

La descente n'a pratiquement pas changé. L'urbanisation n'y a pas eu de prise. Je retrouve une nature "sauvage", celle des "merveilles de la nature" . Tout en bas, se trouve l'Isle (l'Isle), qui a bercé mon enfance. C'est là que j'allais pêcher les gardèches et les goujons. Mon oncle ramenait même des écrevisses. Je devais rentrer pour manger au "coup de sifflet" de mon père. Que de souvenirs (je devrais les écrire?). Par contre, la rivière a depuis lors, été "empoisonné par la pollution. Il y a les mines d'or de Saint-Yrieix, où le mercure a été utilisé, d'après ce que j'ai su depuis. j'ai aussi découvert depuis les mines d'or du limousin Maintenant, l'Isle est quasiment une rivière morte.

 

 

 

Jumilhac les bords de l'Isle près de chez moi (mon lieu de pêche)

Je regarde avec nostalgie merveilleuses photos de l'Isle qui me rappellent mes 10 ans .

 

 

L'Isle en amont de Jumilhac

 

 

jumilhac 1900: l'avenue du château

 

 

 

Jumilhac 1900, la place  (elle était vivante, avec les paysans, sans touristes, comme dans mon enfance.

 

 

 

Jumilhac, le château en 1900.

Comparez la vue actuelle et ma peinture avec cette photo!




 

 

 


jumilhac 1900: la mairie n'existait pas encore.

20:54 Écrit par pascal dans a propos de moi | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook

14/12/2011

6-5) Les limites de la connaissance 6-5) Réalisme et monde quantique: conséquences philosophiques.

Les limites de la connaissance 6-5) Réalisme et monde quantique:

conséquences philosophiques.

 

les univers parallèles (1/3) par pierre-27

 

Les limites de la connaissance 6-5) Réalisme et monde quantique

Conséquences philosophiques.

 

Fin de l'article en guise de conclusion:

Carole Dekeijser

Artiste peintre belge: état d'âme N°7.

 

L'interprétation du solipsisme convivial n'est ni vérifiable ni falsifiable et donc n'est pas "scientifique", mais c'est le cas de beaucoup d'interprétations. On est ainsi conduit à penser que nous vivons dans un monde bien étrange, l'univers en tant que tel nous est inaccessible (voir aussi le réel voilé de Bernard d'Espagnat). Seule notre réalité individuelle empirique nous concerne, elle est différente de celle des autres bien que nous n'ayons jamais aucun moyen de nous en rendre compte. Il peut paraître absurde de parler d'états superposés enchevêtrés de l'univers comme: je peux croire que je suis ici à P... en train de parler avec une personne qui se comportera comme si elle était effectivement en conversation avec moi, alors qu'elle sera, en ce qui la concerne, en train de bronzer sur une plage. Cependant il apparaît que la conception selon laquelle l'apparence d'un Univers dont la complexité dépasse nos limites humaines est conditionnée par les cadres conceptuels de notre conscience. cela pourra être le point de départ d'une réflexion sur "qu'est-ce qu'un état d'esprit"?

 

 


 

 

 

Nos états d'âme sont une forme de synthèse entre notre vision du monde, notre état physique et les évènements qui nous touchent. C'est en quelque sorte une fusion entre ce qu'il se passe à l'intérieur et l'extérieur de soi, qui a pour résultat un mélange d'émotions et de pensées dont nous n'avons pas toujours conscience.

 

 

Préambule:

La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien. La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gödel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?

(Je voudrais ici faire partager ma lecture de Hervé Zwirn).


Exergue:

"Comme Popper l'a remarqué, nos théories sont des filets que nous construisons pour attraper le monde. Nous ferions mieux de d'accepter le fait que la mécanique quantique a fait surgir un poisson plutôt étrange." Redhead (1987).


1) Rappel sur les notions de physique quantique: voir les articles précédents.

 

Dès qu'on s'intéresse aux objets dont la dimension est de l'ordre des dimensions atomiques (typiquement 10-10 m), la mécanique classique doit être remplacée par la mécanique quantique. Son efficacité est remarquable pour décrire le comportement des phénomènes subatomiques (électrons, protons, neutrons...). Elle explique la couleur des corps, le fonctionnement des semi-conducteurs, les propriétés des métaux, les niveaux d'énergie des atomes, la superfluidité...Aucun phénomène physique n'a nécessité sa révision. Mais c'est une théorie étrange qui a soulevé de nombreuses questions d'interprétation qui ne sont pas toutes entièrement résolues, malgré les progrès de ces dernières années. Elle nous force à reconsidérer entièrement beaucoup d'idées intuitives que nous avons sur les propriétés des objets, sur les rapports entre l'observateur et le phénomène observé, sur le déterminisme et elle nous conduit à modifier radicalement la conception du monde qu'on pourrait légitimement construire à partir de la mécanique classique.

Quels que soient les problèmes soulevés, il s'agit toujours de problèmes d'interprétation du formalisme et jamais de problèmes d'application. Elle fonctionne remarquablement bien et c'est une des théories les plus précises qui ait été jamais été construites. L'interprétation du formalisme a conduit à des conséquences philosophiques qui semblaient contraires au bon sens ou à l'intuition. Bien que les débats ne soient pas tous clos, on peut considérer aujourd'hui que nous comprenons mieux ce qui est compréhensible en elle, et avons appris à ne pas chercher à comprendre (au sens de ramener à une image familière) ce qui ne l'est pas.


Il est possible de penser qu'une expérience future produira une réfutation d'une de ses prédictions et nécessitera une nouvelle théorie, mais il semble exclu aujourd'hui que cela aboutisse à un retour en arrière vers une physique retrouvant les caractéristique de la physique classique. Les théories en cours de développement visant à décrire le monde à des échelles de plus en plus petites et qui tentent d'unifier les 4 interactions fondamentales conduisent à des remises en cause encore plus radicales des concepts classiques. La théorie des supercordes pose des problèmes encore plus redoutables que ceux de la mécanique quantique pour l'interprétation des objets mathématiques qu'elle utilise. Les conséquences philosophiques de ces nouvelles théories ne seront pas envisagées car elles sont en cours de constitution.

Certaines conclusions de la physique quantique comme la non-séparabilité semblent définitivement établies. L'indéterminisme l'est moins nettement.


2) La non-séparabilité.


univers parallèles

La non-séparabilité est le fait qu'il est impossible d'attribuer des propriétés individuelles à deux systèmes ayant interagi avant qu'une mesure ait été faite sur l'un d'eux. Des expériences comme celles d'Alain Aspect montrent que la non-séparabilité est une propriété des systèmes quantiques et qu'il faut l'accepter, aussi contre-intuitif que cela soit. Cela n'implique pas l'acceptation du formalisme quantique de préférence à tout autre, mais d'un enseignement tiré de l'expérience puisque la seule hypothèse utilisée pour dériver les inégalités de Bell (expérimentalement violées) est la localité. La non-séparabilité est maintenant une propriété solidement établie. La mécanique quantique la respecte et n'est donc pas réfutée, mais certains formalismes alternatifs à variables cachées, qui la respectent aussi, ne sont pas réfutés non plus.

Cyberic WOLLBRETT a écrit (vu sur le web)

 

 

 

 

Pour illustrer cet effet EPR, citons Etienne Klein qui est physicien au CEA et enseignant à l'Ecole Centrale. Il y voit l'assise théorique du romantisme:Deux coeurs qui ont interagi dans le passé ne peuvent plus être considérés de la même manière que s'ils ne s'étaient jamais rencontrés. Marqués à jamais par leur rencontre, ils forment un tout inséparable.

 

Les résultats des expériences sont nets: la non-séparabilité n'agit pas seulement sur des distances atomiques, mais sur des distances macroscopiques. Dans les expériences d'Aspect, les photons étaient séparés de plus de 10 m et ils le sont sur des distances de l'ordre du km dans les expériences plus récentes. Mais si on prend au sérieux le concept de fonction d'onde de l'univers, des systèmes séparés par des distances cosmologiques peuvent dans des états enchevêtrés qui interdisent de les considérer comme des entités indépendantes. Leur existence même ne peut être envisagée de manière individuelle. Seul "existe" un système constitué par le tout formé par l'ensemble des systèmes ayant interagi et qui n'on été soumis à aucune observation, même s'il est étalé sur plusieurs années années lumières. Ainsi qu'il est dit en exergue de cet article, "Comme Popper l'a remarqué, nos théories sont des filets que nous construisons pour attraper le monde. Nous ferions mieux de d'accepter le fait que la mécanique quantique a fait surgir un poisson plutôt étrange." Redhead (1987).

3) déterminisme ou hasard?.
Le formalisme quantique ne fait que des prévisions de nature probabiliste, mais le non-déterminisme quantique ne résulte pas de notre ignorance des l'état détaillé des systèmes, mais de l'essence même de cet état (le vecteur d'état représente tout ce qu'il est possible de savoir sur un système). Si on ne se place pas dans le cadre des théories à variables cachées, on est obligé d'admettre que ce qu'on appelle la nature ne sait pas elle-même à l'avance quel va être le résultat d'une observation ou d'une mesure et n'en déplaise à Einstein, il semble bien que Dieu joue aux dés. Cet indéterminisme essentiel est bien plus radical que celui qui est envisagé dans le chaos déterministe, mais il ne concerne que les résultats d'une mesure et non pas l'évolution dans le temps de l'état d'un système qui est, elle parfaitement déterministe.

Pour y faire face, on peut adopter certaines TVC (théories à variables cachées) non locales qui préservent le déterminisme, mais cette attitude est coûteuse. Elles rétablissent la possibilité en principe (si l'on connaissait le valeur des variables cachées) de prédire le résultat de la mesure de A,  mais elles n'autorisent pas pour autant à considérer que A possède cette valeur avant la mesure. Elles ne peuvent donc pas s'interpréter comme rétablissant le réalisme habituel. De plus, leur formalisme est beaucoup plus complexe que celui de la mécanique quantique et elles ne font aucune prédiction nouvelle, ce qui les rend stériles. Par ailleurs, elles semblent extrêmement difficiles à étendre au cadre relativiste (relativité restreinte) qui est pourtant obligatoire pour tenir compte des énergies élevées. Par exemple, pour l'interaction électromagnétique, la théorie quantique des champs est actuellement considérée comme la théorie la plus précise jamais construite. Or, les TVC posent de difficiles problèmes quand il s'agit de les marier avec la relativité restreinte, même si la théorie de Bohm a réussi cette extension. Mais, plus grave encore, la motivation pour introduire ces théories consiste à tenter de rétablir une interprétation raisonnable de fonctionnement du monde. Malheureusement, elles souffrent d'interprétations au moins aussi étranges que celles de la mécanique quantique. Elle doivent au minimum être non-locales et contextuelles, ce qui, contrairement à ce qu'on pourrait souhaiter, interdit de considérer que certaines observables aient une valeur définie lorsqu'un jeu de variables cachées est donné: les valeurs dépendent de la spécification de données contextuelles comme la direction des axes de cordonnées.
Cela n'est pas suffisant pour écarter la possibilité qu'une TVC de ce type soit correcte et il n'est pas interdit de l'adopter pour qui veut préserver une sorte de déterminisme. En ce sens, l'indéterminisme n'est pas une conclusion aussi contraignante que la non-séparabilité, cependant, les physiciens dans leur grande majorité, préfèrent penser que la bonne théorie est la mécanique quantique. Ils sont donc contraints d'accepter l'indéterminisme qui lui est associé.

4) La notion d'état disparaît comme représentation de "ce qui est".
Le concept d'état individuel d'un système comme synthétisant l'ensemble des propriétés qu'il possède à un instant donné doit être abandonné. Ce n'est plus qu'un outil permettant de prédire le résultat que la mesure d'une certaine grandeur produira. L'état ne représente donc plus, comme c'était le cas en mécanique classique, ce qu'"est" le système, mais uniquement la potentialité qu'il fournisse tel ou tel résultat lors de telle ou telle mesure.
Il est même impossible d'imaginer ou de penser que les grandeurs attachées au système possèdent des valeurs définies. Pour ceux qui adoptent l'attitude positiviste de l'école de Copenhague, s'interroger sur l'état réel d'un système entre deux mesures est dénué de sens, et seul importe ce qui est mesuré. En revanche, elle montre à ceux qui veulent conserver une position réaliste, que le réel qu'ils veulent préserver refuse de se voir attribuer des propriétés définies quand il n'est pas observé.

5) Le rôle de l'observateur.
Ceci amène a se poser la question du rôle de l'observateur. Nous sommes habitués avec la physique classique, à une correspondance biunivoque entre le monde et sa description et nous pensons que notre perception correspond à l'existence d'objets qui lui sont réellement conformes, objets qui la causent. L'objet est là, tel que nous le percevons l'observateur joue un rôle essentiellement passif, en se bornant à à enregistrer ce qui est extérieur à lui-même. Il n'agit ni sur cet extérieur, ni sur ce qu'il enregistre, c'est pour cela que la physique classique est dite "objective".
En physique quantique (selon Bernard d'Espagnat), il semble impossible de formuler cette théorie sans faire référence à un observateur. La raison est liée au problème de la mesure et à la disparition de la possibilité d'interpréter l'état d'un système comme décrivant les propriétés possédées par ce système. Ce n'est donc pas une théorie objective dans le sens où "objectif" signifie un formalisme qui décrit la réalité indépendamment de tout observateur. Mais elle n'est pas non plus subjective au sens où chacun y trouverait sa vérité, différente de celle des autres. D'Espagnat la décrit comme une théorie à "objectivité faible" ou "intersubjective". Elle fait nécessairement intervenir un observateur, mais tous les observateurs sont d'accord sur ce qu'ils observent. C'est cette raison qui est invoquée à l'appui de la thèse réaliste: si les observateurs sont d'accord sur ce qu'ils observent, c'est qu'il existe "quelque chose" en dehors d'eux qui cause leurs perceptions (principe de la cause commune). En revanche, il n'est plus possible de supposer que que ce "quelque chose" ressemble vraiment à ce que nous en percevons. C'est la raison pour laquelle D'Espagnat parle de "réel voilé", qui est décrit, partiellement au moins, par le formalisme quantique et qui est indéterministe, non séparable, et non compréhensible en totalité.
Cette distinction entre le monde tel qu'il est et le monde tel que nous le percevons n'est pas une nouveauté en philosophie. Le monde en soi, inaccessible et incompréhensible, a été opposé, chez les philosophes anciens, au monde des phénomènes de la réalité empirique. Mais aujourd'hui, cette conception ne provient pas de réflexions abstraites mais est issue directement d'un aller-retour entre expérience et théorie. Pour la première fois dans l'histoire de la philosophie, choisir de croire qu'il existe un monde extérieur à tout observateur et conforme à ce que nous en percevons ne semble plus possible, à moins d'adopter une attitude irrationnelle. Cette conclusion semble s'imposer même si on refuse le formalisme quantique pour adopter celui des TVC non locales. Deux positions sont possibles.
Premier schéma possibleCelui de l'école de Copenhague (BohrHeisenbergBorn). Il consiste à refuser de considérer que ces questions ont un sens. La mécanique quantique fonctionne remarquablement bien. Il est inutile de se demander ce qui se passe en dehors de ce qui est observable. Cette position "instrumentaliste", ou "positiviste" est bien caricaturée par la maxime A. Garg: "Tais-toi et calcule". Mais certains ont cherché à aller plus loin, à faire de la métaphysique au sens propre du terme et à s'interroger sur le statut de nos perceptions:
Deuxième schéma possible: Considérer que cela a un sens de s'interroger sur le statut de la réalité, que seule la la réalité empirique a une existence et qu'il est illusoire de chercher, en dehors de nous et au-delà des phénomènes observables, une cause profonde de nos observations. C'est le"réalisme empirique": le formalisme quantique n'est qu'un outil mathématique pour prédire les résultats d'observation, dont les entités mathématiques, non observables, n'ont aucun statut de réalité. Plusieurs attitudes sont possibles. Les "réalistes empiristes pragmatiques" ne font aucune distinction entre deux systèmes décrits par des états différents mais dont l'observation pratique n'est pas pratiquement possible (demandant plus que l'âge de l'univers par exemple). Les "réalistes empiriques de principe" pensent que qu'une différence de principe est suffisante pour que deux descriptions ne soient pas identifiées, même si l'observation en est hors de portée. Le "réalisme métaphysique" (Bernard d'Espagnat en particulier) consiste à croire que qu'au-delà du monde empirique, il existe quelque chose qui entretient une certaine relation avec la réalité empirique. Il conduit à accepter que l'observateur joue un rôle important.

6) Impact de la théorie de l'environnement - mécanisme de la décohérence et rôle de la conscience.
La décohérence permet de rendre compte du problème de la mesure, de l'effondrement de la fonction d'onde et de la disparition des interférences lors d'une mesure. La matrice densité devient diagonalisée. Mais une difficulté subsiste: une matrice densité diagonale n'a aucune raison de recevoir une interprétation probabiliste quand elle décrit un système individuel, au contraire, elle stipule plutôt leur coexistence. Il reste à expliquer pourquoi et comment la mesure ne donne qu'un seul résultat: cela sera vu dans un prochain chapitre. Néanmoins la décohérence donne une description claire et non ambiguë du processus de mesure: l'évolution de la matrice densité SAS de l'ensemble {appareil + système quantique} par l'équation de Schrödinger prend très rapidement une forme quasi-diagonale puisque les termes non diagonaux deviennent très petits.
Mais deux points sont à considérer. a) C'est parce qu'on ne considère pas les degrés de liberté de l'environnement que qu'on a le droit de se restreindre à la matrice densité SAS, sinon il serait nécessaire de considérer la matrice totale SASE qui, elle, n'est pas diagonale. b) En toute rigueur, si on attend suffisamment longtemps, les termes diagonaux peuvent redevenir non négligeables. Ces difficultés ont été écartées parce que faire une mesure mettant en évidence ces aspects est impossible en pratique (elles excéderaient de plusieurs ordres de grandeur nos possibilités, voire de l'univers entier). Ce sont des difficultés de fait et non de principe. Selon l'attitude philosophique que l'on adopte, les conséquences que l'on tire sur l'image du monde seront différentes.
Pour le réaliste empirique pragmatique, le mécanisme de décohérence est l'explication définitive du problème de la mesure. La seule réalité ayant un sens est la réalité empirique des observations pratiquement réalisables. Après décohérence, elle est décrite par la matrice densité SAS diagonale (Il n'y a pas de sens de remarquer qu'il serait en principe possible de mesurer les effets non prédits par cette matrice puisque ces mesures sont infaisables en pratique). La réalité empirique est alors conforme à son apparence.
Le réaliste empirique de principe accepte le fait que l'apparence de la réalité empirique est expliquée par la décohérence tout en considérant que la réalité empirique en soi est différente. Cette réalité empirique, non accessible, dans laquelle la réduction du paquet d'ondes n'a pas lieu, et où les systèmes restent dans des états superposés. finalement, cette position est assez proche de celle des réalistes métaphysiques. Ces derniers considèrent que la décohérence ne fournit qu'une explication de l'apparence de la réalité en soi qui reste quantique dans son essence puisqu'aucun des points nécessaires au fonctionnement de la décohérence n'est satisfait par la réalité non empirique. Mais ces deux types de réalisme estiment censé de parler de propriétés non observables, alors que les réalistes empiriques pragmatiques affirment que la seule réalité ayant un sens est celle des observations pratiquement réalisables.

La décohérence semble donc permettre de se situer par rapport aux attitudes possibles. La première est de limiter la réalité aux phénomènes pratiquement observables en considérant comme dénué de sens de s'interroger sur tout ce qui se passe hors de ce cadre. La décohérence fournit alors une solution définitive (à la difficulté de "et-ou" près: l'état observé devrait être un "mélange" des états diagonaux possibles. Dans 50% des cas le chat de Schrôdinger est mort et dans 50% des cas, il est vivant. Or l'observation ne montre qu'un seul cas, réalisé à 100%. Le pourquoi de ceci n'est pas expliqué et fera l'objet d'un prochain chapitre).La deuxième est d'admettre qu'il existe une réalité des phénomènes qui échappe à nos possibilités de mesure, que cette réalité est profondément quantique, c'est seulement son apparence qui paraît classique.
Dans les deux cas, la conscience continue de jouer un rôle (rôle différent de celui que lui assignaient Wigner et Von Neuman, il n'est ici pas question de d'une quelconque action de la conscience sur les systèmes quantiques: elle pouvait en modifier l'état tout en restant elle-même à l'extérieur de toute description physique). Elle est responsable de la forme sous laquelle la réalité nous apparaît. Pour le réaliste empirique pragmatique, elle est limitée à ce que nos capacités humaines autorisent et ultimement, c'est elle qui détermine ces limitations. Pour le réaliste empirique de principe ou métaphysique, elle n'agit pas sur la réalité en soi, mais elle prescrit le cadre dans lequel celle-ci nous apparaît par les limites d'observations qu'elle nous impose. Cette solution (qui a des traits communs avec le kantisme) est plutôt satisfaisante, car il paraît naturel que la conscience joue un rôle dans le monde de nos perceptions. Ce rôle est cependant plus subtil que celui que voulaient lui faire jouer Von Neuman et Wigner. Cela n'explique pas ce qu'est la conscience, mais le fait qu'on n'avait pas pu éliminer ce rôle était un indice de son aspect essentiel.

7) Complément sur la théorie d'Everett.
Rappel: (source wikipédia): La théorie d'Everett, appelée aussi théorie des états relatifs, ou encore théorie des mondes multiples, est une interprétation de la mécanique quantique visant à résoudre le problème de la mesure quantique.

 

Hugh Everett, qui l'a développée, estimait invraisemblable qu'une fonction d'onde déterministe donne lieu à des observations qui ne le sont pas, conséquence pourtant d'un postulat de la mécanique quantique, celui de la réduction du paquet d'onde. Ce postulat pose également un problème de cohérence mathématique avec le problème de la mesure quantique dans cette même théorie.

Selon lui, la seule source d'anti-hasard possible était l'observateur lui-même, ou plus exactement : sa nature d'observateur qui lui était propre (le résultat qu'il observait le caractérisant lui-même en tant que cet observateur) et ne concernait pas l'univers qui restait parfaitement neutre et comportait toutes les possibilités prévues par la théorie quantique. Les possibilités par lui observées définissaient seules l'observateur, qui ne percevait donc que cet univers-là1

Cette interprétation inhabituelle rappelant le principe de l'action et de la réaction fut exposée dans sa thèse de doctorat en 1957 sous la direction de John Wheeler (voir la biographie). Celui-ci, réticent au départ, devint par la suite partisan enthousiaste de cette théorie - certes la seule à rendre compte sans paradoxe de la mécanique quantique - et nombre de physiciens au nombre desquels David Deutsch et Colin Bruce la considèrent la seule possible à ne pas nécessiter quelque deus ex machina introduisant en permanence de l'anti-hasard dans l'univers. Sans indiquer réellement son opinion sur cette théorie, Murray Gell-Mann montre pour elle, dans son livre le Quark et le Jaguar, une sympathie bienveillante.

On peut rapprocher cette théorie des calculs fondés sur l'ensemble des possibilités offertes au système, tels que l'intégrale de Feynman ou intégrale de chemin de Richard Feynman, ou le Principe des puissances virtuelles.

La principale interprétation concurrente est l'interprétation transactionnelle de la mécanique quantique, plus étrange encore puisqu'elle fait l'hypothèse de messages allant dans les deux sens du temps.

 

 

 

 

Le monde se scinde, à chaque mesure, en autant de branches qu'il existe de résultats possibles pour la mesure. Ces branches sont supposées être réelles simultanément même si elles ne peuvent pas communiquer entre elles. Mais il se présente une difficulté: cette interprétation ne spécifie pas ce qu'il faut entendre par mesure. Si les observateurs sont considérés comme des objets quantiques, alors il n'y a pas de différence entre une interaction avec un appareil de mesure et une interaction avec un observateur conscient, donc à chaque fois qu'un système dans un état superposé interagit avec un autre système qui se corrèle à lui, il se produit une mesure et une scission. Il y a ainsi multiplication des systèmes. De plus, une difficulté surgit:  dans l'exemple de la désintégration un branche correspond à un univers où une particule a un spin +  suivant Oz et c'est l'inverse pour l'autre particule. Il y a donc 4 particules dans ce "supermonde" pour les deux branches. Mais avant la désintégration, l'état  présente une symétrie sphérique et le spin peut s'exprimer suivant n'importe quel axe et rien ne nous permet d'en privilégier un. Comme il y a une infinité de directions, Bernard d'Espagnat fait remarquer qu'il n'y pas subdivision. Il devient donc difficile de préciser quand il doit y avoir subdivision car il y a similarité entre l'exemple précédent et le processus général de mesure, ou alors il faut admettre que l'univers se scinde en autant de branches qu'il y a de directions possibles (une infinité) ce qui est extrêmement peu satisfaisant.

8) Le solipsime convivial (Hervé Zwirn...).
Cette position suppose qu'il n'y a en fait jamais de division, que l'univers reste unique et que sa fonction d'ondes, incluant les observateurs et leur conscience, évolue uniquement selon les prescriptions de l'équation de Schrödinger (Celle-ci décrit un état enchevêtré). Il n'y a en fait jamais de division, que l'univers reste unique et que sa fonction d'ondes, incluant les observateurs et leur conscience évolue uniquement selon les prescriptions de l'équation de Schrödinger. C'est bien l'état dans lequel se trouve l'univers, incluant l'observateur après la mesure. Mais, comment l'observateur a, lui, conscience de n'avoir qu'un des résultats possibles et se sent dans un état réduit non superposé?
Première phase. L'impression qu'a l'observateur dépend directement de ce qui est accessible à sa conscience: ce qu'il est capable de percevoir donc de mesurer. Il ne peut avoir conscience de d'effets non mesurables, que ce soit en principe ou en pratique. Il lui est donc impossible de faire la différence entre un système décrit par une matrice densité non diagonale et une matrice diagonale négligeant les degrés de liberté de l'environnement ou entre une matrice exactement diagonale et une matrice densité dont les termes non diagonaux redeviendront importants dans plusieurs milliards d'années. Pour cet observateur, tout se passe comme si le système était décrit par la matrice densité diagonale à laquelle le processus de décohérence permet d'aboutir, en fait comme si l'univers avait évolué, non dans pas l'état enchevêtré, mais dans l'état correspondant à une matrice densité diagonale pour l'électron et l'appareil. C'est ce qui permet de dire que la décohérence permet de résoudre le problème de la mesure. (à la difficulté du "ET-OU" près, signalées par Bell: si on ne s'intéresse qu'à un système individuel, on ne peut pas dire qu'il est dans un des états possibles décrits par la matrice. Il faudrait, au contraire, considérer dans tous les états à la fois, mais sans corrélations entre ces états. L'état observé ne l'est que de façon probabiliste).
Deuxième phase: La conscience de chaque observateur "sélectionne" ou "s'accorde à" ou "s'accroche à" un seul des états possibles. L'"accrochage" est ce qui fait que l'état de conscience sélectionne un et un seul des états de superposition et y accroche l'observateur. Il y a "un point de vue externe" selon Tergmak: "l'Univers, incluant les observateurs et leur conscience, évolue conformément à l'équation de Schrödinger et sa fonction d'ondes n'est jamais réduite. Elle demeure dans un état enchevêtré". Point de vue interne: "La conscience que peut en avoir un observateur dépend des limitations propres à la nature humaine qui l'empêchent d'être sensible à des différences faisant appel à des quantités non observables pour des raisons soit de principe soit de nature pratique. Tout se passe pour la conscience humaine comme si le système était décrit par la matrice densité diagonale. Intervient alors le mécanisme d'accrochage qui accorde la conscience de l'observateur à un seul des états possibles et c'est ce dernier processus qui élimine le problème du "ET-OU". Pour chaque observateur, l'état de conscience n'est alors relatif qu'à l'apparence pour lui d'univers dont la description exacte montre qu'il est en principe tout autre. Mais les limitations de la nature humaine font qu'il est impossible de prendre conscience de cette différence". Le vecteur d'état restant enchevêtré, on peut se demander si le mécanisme d'accrochage est en accord avec les prédictions de la mécanique quantique qui suppose qu'après une mesure, le système est dans un état réduit non superposé. On a vu que le système total incorporant l'observateur, sera après "interaction avec l'observateur" (interaction et non "prise de conscience"), dans un état superposé, qui ne rend pas compte de l'état de conscience non superposé de l'observateur. Pour faire la distinction, on dira que l'état superposé s'appliquera au cerveau, alors que par construction, l'état de conscience ne pourra jamais être dans un état superposé.

Le mécanisme d'accrochage ressemble au principe de réduction du paquet d'ondes, mais il ne soulève pas les mêmes difficultés. Il ne concerne que la perception de l'observateur et pas l'état physique des systèmes. La conscience n'est pas un objet physique, "elle est, par rapport aux neurones et au cerveau, dans le même rapport que l'est un calcul aux puces d'un ordinateur" (cité par H. Zwirn). La description de l'évolution de l'état physique des circuits ne nous dit pas quel calcul a été effectué. Cela se situe au niveau de l'interprétation et du sens et non au niveau physique. Il en est de même avec la conscience pour laquelle on peut postuler qu'elle n'est pas soumise aux lois de la physique. Le monde physique évolue en étant soumis aux règles de la physique quantique (équation de Schrödinger) et la conscience fait à chaque instant une interprétation de l'état actuel du monde. Il n'est pas non plus nécessaire de postuler l'existence de deux types de substance: spirituelle et matérielle. Seule est supposée exister une substance matérielle soumise aux lois de la mécanique quantique.  Le mécanisme d'accrochage ne concerne que l'aspect perceptif des choses et il n'existe pas d'action de la conscience sur la matière.
De cette manière l'intersubjectivité est expliquée, non par un mécanisme garantissant que tous les observateurs perçoivent la même chose, car ils peuvent avoir des perceptions totalement différentes, mais au fait qu'il leur est rigoureusement impossible de se rendre compte de leurs désaccords. En effet, route communication passe par un processus physique, elle est analysable ultimement comme une mesure. Un observateur B qui interroge un observateur A sur ce qu'il voit effectue une mesure sur A. Le mécanisme d'accrochage assure que quelque soit l'état de conscience auquel est accroché l'observateur A (qui est physiquement dans un état enchevêtré), B n'obtiendra que des réponses en accord avec l'état de conscience auquel il est accroché. Nous n'en savons pas la raison, ni ni ce qui fait que tel ou tel choix est fait.Cela a une conséquence étrange sur l'indéterminisme de la mécanique quantique. Le mécanisme d'accrochage intervient pour sélectionner au hasard parmi les états de la matrice diagonale celui qui est perçu. L'indéterminisme devient alors un attribut de la conscience puisque l'univers physique en tant que tel évolue de manière rigoureusement déterministe, ce n'est plus Dieu, mais l'homme qui joue aux dés. Aucun des deux joueurs ne pourra jamais savoir ce que l'autre a vu et chacun pensera que l'autre a vu la même chose que lui. Si on est positiviste, on peut penser que cette question est dépourvue de sens. Comme chacun peut s'accrocher à une branche différente, en ce sens le monde empirique, ce que chacun observe, est différent pour chacun et il est créé par chaque conscience individuelle. Cette conception est proche du solipsisme, mais ici, est admise l'existence d'autres consciences avec lesquelles un accord est garanti, c'est un solipsisme convivial. Ce solipsisme convivial pousse à l'extrême les conséquences de la théorie de la théorie de la relativité (la simultanéité et les longueurs ne sont pas les mêmes pour deux observateurs différents). Cependant il existe une différence essentielle: deux observateurs relativistes se trouveront en désaccord s'ils se communiquent le résultat de leurs observations, alors que cela leur est interdit dans le cadre du solipsisme convivial qui préserve l'accord intersubjectif.
On peut avoir plusieurs attitudes face à se résultat; soit considérer que la fonction d'ondes reste superposée (comme Hervé Zwirn), soit qu'il existe des termes supplémentaires (non observés), produisant une réduction effective de la fonction d'ondes et une disparition des termes non corrélés de la conscience. Mais la recohérence semble poser des problèmes et il est plus économique d'éviter de postuler des termes supplémentaires. Un réaliste métaphysique ou un réaliste empirique de principe prendront comme fondamental le point de vue externe et notre état perceptif comme une approximation de la réalité. Le réaliste empirique pragmatique prendra au contraire le point de vue interne comme fondamental et considérera l''état physique enchevêtré comme un simple auxiliaire de calcul. Un positiviste trouvera cette discussion absurde et inutile.
L'interprétation du solipsisme convivial n'est ni vérifiable ni falsifiable et donc n'est pas "scientifique", mais c'est le cas de beaucoup d'interprétations. On est ainsi conduit à penser que nous vivons dans un monde bien étrange, l'univers en tant que tel nous est inaccessible (voir aussi le réel voilé de Bernard d'Espagnat). Seule notre réalité individuelle empirique nous concerne, elle est différente de celle des autres bien que nous n'ayons jamais aucun moyen de nous en rendre compte. Il peut paraître absurde de parler d'états superposés enchevêtrés de l'univers comme: je peux croire que je suis ici à P... en train de parler avec une personne qui se comportera comme si elle était effectivement en conversation avec moi, alors qu'elle sera, en ce qui la concerne, en train de bronzer sur une plage. Cependant il apparaît que la conception selon laquelle l'apparence d'un Univers dont la complexité dépasse nos limites humaines est conditionnée par les cadres conceptuels de notre conscience. cela pourra être le point de départ d'une réflexion sur "qu'est-ce qu'un état d'esprit"?

 

Carole Dekeijser

Artiste peintre belge: état d'âme N°7.

 

 

Nos états d'âme sont une forme de synthèse entre notre vision du monde, notre état physique et les évènements qui nous touchent. C'est en quelque sorte une fusion entre ce qu'il se passe à l'intérieur et l'extérieur de soi, qui a pour résultat un mélange d'émotions et de pensées dont nous n'avons pas toujours conscience.




20:41 Écrit par pascal dans les limites de la connaissance | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook

6-4 Les limites de la connaissance 6-4) Réalisme et monde quantique Le principe de la mesure

Les limites de la connaissance 6-4) Réalisme et monde quantique

Le principe  de la mesure

 







Préambule

La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gödel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?

(Je voudrais ici faire partager ma lecture de Hervé Zwirn).

 

 

 


 

Ce cinquième article conclura cette série d'articles de présentation du monde quantique avant d'aborder plus précisément les questions plus philosophiques sur les limites et contre-limites de la connaissance et sur les doutes sur la réalité (que croire?).  Un article intermédiaire sur le chaos quantique (sujet plutôt difficile) servira de transition.


 


A) Article précédent, résumé:

6-3) ébauche d'analyse des implications ontologiques. théories à variables cachées, non-séparabilité et le problème de la mesure.

Principales étapes de l'article.

1) Ebauche d'analyse des implications ontologiques.

a) Le caractère abstrait du formalisme quantique est déroutant.

Le caractère abstrait du formalisme quantique est déroutant.

b) Signification de ces propriétés:

A) Disparition de la correspondance directe entre état et propriétés.

B) Indéterminisme.

C) Interférence des amplitudes de probabilité.

2) Les théories à variables cachées et la non-séparabilité.

c) la réponse de Bohr.

d) Les théories à variables cachées.

e) Le verdict expérimental: les inégalités de Bell.

3) Résumé et conclusions.

Toute théorie reproduisant les prédictions de la mécanique quantique doit donc être non locale et contextualiste.


 


B) Contenu de cet article qui est la suite du précédent article 6-3 (ébauche des implications ontologiques et théories à variables cachées). Il est donc recommandé de lire ce précédent article 6-3 avant de prendre connaissance du présent article.


Le problème de la mesure et les théories à variables cachées.


a) position du problème.

biréfringence (calcite)

L'état quantique d'un système est représenté par un vecteur appartenant à un espace vectoriel appelé "espace de Hilbert des états". Comme pour tout espace vectoriel, toute combinaison linéaire d'états possible est elle-même un état possible (c'est le principe de superposition). A chaque grandeur physique (position, impulsion, énergie,spin...) attachée au système, est associé un opérateur qui agit sur les états possibles; il est appelé "une observable". Le principe de réduction du paquet d'ondes stipule que lorsqu'on mesure une observable A sur un système dans l'état |ψ>, on ne peut obtenir comme résultat que l'une des valeurs propres de l'observable A. Si celle-ci possède plusieurs valeurs propres distinctes, la probabilité d'obtenir une valeur propre donnée a est fonction de l'état initial |ψ>, et des états propres de A associés à a. C'est le carré du module de la projection de |ψ> sur le sous-espace propre engendré par les vecteurs propres de |ψ> associés à a. Après une mesure ayant donné a comme résultat, le système n'est plus dans l'état |ψ> mais il est projeté dans l'état propre associé à a.

La mesure d'une observable (ou d'un ensemble complet d'observables qui commutent) permet de connaître précisément l'état dans lequel est le système. En général, comme il n'est pas dans le même état avant et après la mesure, il est impossible de mesurer une grandeur sans perturber le système (sauf si celui-ci est déjà dans un état propre de l'observable mesurée). Quand on connaît avec précision la valeur d'une observable, la valeur des observables qui ne commutent pas avec elle n'est pas définie.

En l'absence de mesure, l'état dsystème évolue de manière déterministe selon l'équation de Schrödinger: (ih/2 π) d l Ψ>/dt = Hl Ψ >. La résolution de cette équation permet de déterminer l'état |ψ(t)> du système à tout instant t dès qu'on connaît l'état |ψ(t0)> à l'instant initial t0 et qu'aucune n'est effectuée sur le système entre t et to. En général, l'évolution décrite par l'équation de Schrödinger est différente de celle décrite par le principe de réduction du paquet d'ondes. Il n'est à priori pas gênant que coexistent les deux principes de prédiction, car les conditions d'application de l'un et de l'autre semblent bien spécifiées. L'un s'applique quand le système évolue alors qu'aucune mesure n'est effectuée et l'autre s'applique dès qu'une mesure est faite. Mais cela suppose que le concept de mesure soit parfaitement clair et bien défini, mais il se trouve qu'il est très difficile de définir de manière non ambiguë  ce qu'est une mesure: (extrait du livre) "On peut voir que tel n'est pas le cas. Pour cela, considérons un système S sur lequel on fait une mesure à l'aide d'un appareil A. Deux points de vue apparemment équivalents sont possibles pour décrire cette mesure : On peut interpréter cette difficulté comme permettant de douter du choix qu'il convient de faire entre les deux processus d'évolution.

 

a) Si l'on s'intéresse à l'état ES du système S, le principe de réduction du paquet d'ondes prescrit comment celui-ci peut évoluer après la mesure. Supposons que la mesure a lieu à l'instant t. Si avant la mesure, l'état est ES(i), celui-ci deviendra après la mesure ES(f1) ou ES(f2) (plusieurs résultats de mesure sont possibles.

b) Considérons le grand système S constitué du système S et de l'appareil A. La mécanique quantique nous apprend que si ES est l'état du système S et EA l'état de l'appareil A, l'état du système S sera SS = ES EA. Avant l'instant t, cet état sera donc ES(i) EA(i).  Le système S n'est lui soumis à aucune mesure. Son état évolue donc conformément à l'équation de Schrödinger et il est possible de le calculer après l'instant t. on peut montrer que le calcul par l'équation de Schrödinger ne permettra jamais de retrouver pour S un résultat identique ni à ES(f1) ni à ES(f2). Les deux points de vue, qui semblent aussi légitimes l'un que l'autre, conduisent à des prédictions irréconciliables. Le premier point de vue aboutit à considérer qu'après la mesure le système S est dans un état où la grandeur mesurée possède une valeur définie. Dans le deuxième point de vue, l'état final du grand système S est un état superposé où l'appareil A et le système S sont « enchevêtrés » La valeur de la grandeur physique n'est pas définie. L'apparente contradiction entre les deux principes d'évolution est ce qu'on appelle le problème de la mesure".

 

 

Analyse: La mesure sur un système quantique S fait toujours intervenir un appareil de mesure A, par exemple un appareil de Stern et Gerlach lors d'une mesure de spin. Le système S va interagir avec A. Considérons le système constitué par un électron dans un état de spin suivant Oz superposé: ψe = [ a|+>z +b|->z] et faisons une mesure avec un appareil de Stern et Gerlach convenable A. Deux descriptions sont possibles.

La première est de considérer qu'on fait une mesure sur l'électron S dans l'état initial ψe grâce à l'appareil A. Appliquons le principe de réduction du paquet d'ondes: après la mesure, S sera dans un des deux états possibles |+>z ou |->z et l'appareil A dans un état correspondant à un impact de l'électron sur l'écran en haut | |uparrowrangle si l'état de l'électron est |+>z et en bas |downarrowrangle si l'état de l'électron est |->z]. L'état de l'appareil est donc un état macroscopique défini, corrélé à l'état de l'électron après la mesure.

La deuxième consiste à faire le raisonnement suivant: L'appareil A est lui-même un système physique décrit par la mécanique quantique. Soit ψa l'état de l'appareil avant la mesure. Avant l'interaction entre A et S, le système composé de l'électron S et de l'appareil de mesure A est dans l'état quantique ψaψe, produit des états initiaux de l'électron et de l'appareil. Or ce grand système S + A n'est lui, soumis à aucune mesure. Son évolution est donc régie par l'équation de Schrödinger appliquée au vecteur d'état |ψaψe>. Les deux descriptions sont aussi légitimes l'une que l'autre, on devrait donc s'attendre à ce qu'elles aboutissent au même résultat concernant les évolutions de S et de A. Ce serait possible si l'évolution de (S + A) était telle qu'on puisse en extraire après l'interaction entre S et A un état pour S qui soit identique à celui qu'on obtient en appliquant le principe de réduction à S seul, et que l'état de A soit l'état corrélé correspondant. Or, il n'en n'est rien! L'évolution par l'équation de Schrödinger ne permet jamais de transformer un état superposé pour S en état réduit comme le fait le principe de réduction du paquet d'ondes, ni d'être dans un état macroscopique défini pour l'appareil de mesure. L'évolution à partir de l'état ψaψe aboutit à l'état ψAe final = a|+>z |uparrowrangle + b|->z |downarrowrangle. Cet état est appelé état "enchevêtré" car les 2 sous-systèmes sont liés de manière non factorisable (S et A forment un système indivisible dont l'état est superposé. L'ensemble (système  + appareil) forme un tout indivisible qui est dans un état superposé. Si on s'intéresse seulement à l'appareil, il est dans un état correspondant à une superposition d'impacts en haut et en bas. C'est cette difficulté qu'on appelle problème de la mesure.

 

b) Qu'est ce qu'une mesure?.

C'est uniquement lors d'une mesure que les grandeurs physiques d'un système acquièrent définie. Pour Bohr, les grandeurs physiques comme la position, l'impulsion ou le spin suivant un axe, d'une particule ne sont pas des grandeurs appartenant au système en propre, mais elles doivent être considérées comme attachées à la fois au système et à l'appareil de mesure. Mais savons nous toujours dire si nous faisons une mesure sur un système ou pas?

Comme le fait remarquer Bohr, dès lors qu'une mesure est faite, un appareil macroscopique intervient et il faut appliquer le principe de réduction du paquet d'ondes. Cette attitude est pragmatiquement correcte car elle donne toujours le bon résultat. Mais elle n'est pas satisfaisante sur le plan conceptuel pour deux raisons:

a) la mécanique quantique s'applique en droit à l'appareil de mesure même si celui-ci est macroscopique. Le fait que nous savons que nous effectuons une mesure ne devrait pas entre en ligne de compte. Or la prédiction n'est pas la bonne puisque elle ne prédit pas que l'appareil et le système sont dans des états non superposés après la mesure. b) Si on interprète cette position comme voulant dire qu'il y a mesure dès lors qu'il y a interaction, alors on se heurte à deux problèmes. D'une part, la frontière entre microscopique et macroscopique n'est pas marquée de manière nette et que penser de phénomènes comme la superconductivité? et d'autre part, l'exemple de la polarisation de la lumière et de la biréfringence par un cristal de calcite, montre est une interaction macroscopique qui n'est pas une mesure (page 207 "les limites de la connaissance de H. Zwirn).

Dans le cas de la biréfringence, le photon interagit avec le cristal de calcite qui est un objet macroscopique et pourtant cela n'est pas suffisant pour qu'une mesure de polarisation soit effective. La mesure n'intervient que si l'on complète le dispositif par un détecteur qui permet de connaître effectivement par quel canal le photon est sorti.


c) Le rôle de la conscience.

Dans l'exemple précédent, le système quantique est constitué du photon et l'appareil de mesure est un cristal de calcite auquel sont ajoutés deux détecteurs permettant de savoir par quel canal est sorti le photon. On peut appliquer le principe de réduction du paquet d'ondes au photon; il nous dit que le photon sera après passage à travers l'appareil dans un état défini de polarisation H (horizontal) ou V (vertical). Mais, si on adopte le point de vue selon lequel le grand système S + A (photon + appareil de mesure) n'est soumis à aucune mesure ,l'application de l'équation de Schrödinger au grand système conduit à un état enchevêtré entre un état de polarisation superposé du photon et un état de l'appareil où chaque détecteur est dans un état "déclenché/non-déclenché". Les points de vue mènent à des conclusions divergentes.

L'aspect paradoxal du problème est porté à son comble dans la fameuse expérience du chat de Schrödinger. Erwin Schrödinger a imaginé une expérience dans laquelle un chat est enfermé dans une boîte fermée avec un dispositif qui tue l'animal dès qu'il détecte la désintégration d'un atome d'un corps radioactif ; par exemple : un détecteur de radioactivité type Geiger, relié à un interrupteur provoquant la chute d'un marteau cassant une fiole de poison — Schrödinger proposait de l'acide cyanhydrique, qui peut être enfermé sous forme liquide dans un flacon sous pression et se vaporiser, devenant un gaz mortel, une fois le flacon brisé. Si les probabilités indiquent qu'une désintégration a une chance sur deux d'avoir eu lieu au bout d'une minute, la mécanique quantique indique que, tant que l'observation n'est pas faite, l'atome est simultanément dans deux états (intact/désintégré). Or le mécanisme imaginé par Erwin Schrödinger lie l'état du chat (mort ou vivant) à l'état des particules radioactives, de sorte que le chat serait simultanément dans deux états (l'état mort et l'état vivant), jusqu'à ce que l'ouverture de la boîte (l'observation) déclenche le choix entre les deux états. Du coup, on ne peut absolument pas dire si le chat est mort ou non au bout d'une minute.

Selon le point de vue du grand système (particule  + chat), le chat est dans un état superposé "mort/vivant" tant qu'un observateur n'a pas regardé l'intérieur de la boite. Cela soulève donc le problème de l'incohérence apparente des règles quantiques puisque les deux points de vue paraissent aussi justifiés l'un que l'autre. Pour sauver la mécanique quantique, on peut préférer préférer le premier point de vue, (on applique le principe de réduction au paquet d'ondes au photon seul pour faire une mesure), qui seul donne le bon résultat, car jamais aucun physicien n'a observé un appareil de mesure dans un état superposé. Mais cette solution bien qu'opérationnellement valide, ne donne aucun critère objectif permettant de définir ce qu'est une mesure (à quel moment se décide le sort du chat?). Ce critère pragmatique est efficace mais conceptuellement insuffisant. Il est donc impossible de caractériser une mesure comme étant une interaction avec un objet macroscopique. Qu'est-ce donc qui différencie une mesure d'une interaction banale? Avant tout, elle doit permettre de connaître la valeur d'une grandeur physique. Résumons la suite d'évènements qui se produisent lors de la mesure: arrivée du photon sur le cristal de calcite....réaction du détecteur qui par exemple provoque l'allumage d'une ampoule, observation de l'ampoule allumée par l'expérimentateur qui prend connaissance du détecteur activé. Appliquer l'équation de Schrödinger à l'ensemble des systèmes physiques de l'expérience jusqu'à l'ampoule est parfaitement cohérent. Dans ce cas, aucune mesure n'est effectuée sur le grand système et celui-ci devrait se trouver après la mesure dans un état superposé et les lampes dans une superposition d'états "allumée/éteinte", ce qui n'est évidemment pas le cas. A un moment de la chaîne, une mesure réduisant les états superposés se produit. Mais il n'y a aucune raison pour que cette réduction intervienne à un moment plutôt qu'à un autre dans la chaîne. Mais dans le dernier maillon,"observation de l'ampoule allumée par l'expérimentateur qui prend connaissance du détecteur activé", une chaîne d'évènements se produit: un photon pénètre dans l'oeil de l'observateur, le nerf optique est excité...l'observateur prend conscience de ce qu'il voit. La chaîne, appelée "chaîne de Von Neumann" ne fait intervenir que des systèmes physiques jusqu'à la prise de conscience de l'observateur. Aucune raison ne s'impose pour décider que la mesure est faite à tel ou tel endroit. En revanche, la conscience de l'observateur semble semble être le bon endroit où peut se briser la chaîne et où se produit la mesure. Cette position a été défendue par Von Neumann, London et Bauers et par Wigner. Wigner supposait que la conscience est hors du champ de la mécanique quantique et qu'elle est responsable de la réduction du paquet d'ondes. Cette interprétation n'a jamais été acceptée par la majorité des physiciens. Elle introduit un dualisme gênant pour beaucoup: il existerait dans le monde deux sortes d'entités, celles qui sont soumises à la mécanique quantique et les consciences qui ne le sont pas (cette idée n'est pas neuve, Descartes l'a défendue, c'était la glande épiphyse). Aujourd'hui, on ne s'en satisfait pas, mais aucune autre n'est disponible. Par ailleurs, les implications de cette position sont étonnantes et soulèvent des questions. Une grandeur n'a de valeur définie que lorsqu'elle est mesurée. Par exemple, c'est la conscience de l'observateur qui  est donc responsable du fait qu'une particule possède une position définie. Quel sens donner à l'existence d'une particule pour laquelle aucune des grandeurs physiques attachées ne possède de valeur? Son existence même est subordonnée à la présence d'un observateur qui fait une mesure sur elle et il serait illégitime de dire qu'une particule existe en l'absence de cet observateur. La conséquence ultime serait que les objets (constitués de particules) n'existent que lorsque quelqu'un est là pour les observer. Mais alors, qu'était l'univers avant l'apparition de l'homme...? On aboutit à des questions absurdes qui jettent un doute sur la validité de l'hypothèse. Le moyen extrême d'y répondre est d'adopter une position solipsiste: une seule conscience existe, le sienne et tout n'est que création de cette conscience. Mais cette position, bien que cohérente, est stérile.

Une autre proposition a été faite en 1957 par Hugg Everett III, soutenue un temps par Wheeler et qui joue encore un rôle dans certaines versions de la cosmologie quantique. (source wikipédia) Hugh Everett, estimait invraisemblable qu'une fonction d'onde déterministe donne lieu à des observations qui ne le sont pas, conséquence pourtant d'un postulat de la mécanique quantique, celui de la réduction du paquet d'onde. Ce postulat pose également un problème de cohérence mathématique avec le problème de la mesure quantique dans cette même théorie...nombre de physiciens au nombre desquels David Deutsch et Colin Bruce la considèrent la seule possible à ne pas nécessiter quelque deus ex machina introduisant en permanence de l'anti-hasard dans l'univers. Sans indiquer réellement son opinion sur cette théorie, Murray Gell-Mann montre pour elle, dans son livre le Quark et le Jaguar, une sympathie bienveillante....Selon lui, la seule source d'anti-hasard possible était l'observateur lui-même, ou plus exactement : sa nature d'observateur qui lui était propre (le résultat qu'il observait le caractérisant lui-même en tant que cet observateur) et ne concernait pas l'univers qui restait parfaitement neutre et comportait toutes les possibilités prévues par la théorie quantique. Les possibilités par lui observées définissaient seules l'observateur, qui ne percevait donc que cet univers-là.

Cependant cette théorie soulève plus de problèmes qu'elle n'en règle. Elle ne donne aucun critère précis pour déterminer quand les scissions d'univers se produisent et se contente de dire que cela se produit quand un évènement du type mesure intervient. Elle est, par nature, non testable ni falsifiable. et selon le critère de Popper, ne peut être qualifiée de scientifique.


d) La théorie de l'environnement, début d'une solution.

Une solution mieux acceptée fait suite à une remarque de H Zeh selon laquelle les systèmes macroscopiques ne peuvent être isolés si on les traite du point de vue quantique. Cependant, il ne faut pas oublier leur environnement, ce qui a été le cas pour le problème de la mesure jusqu'aux années 1970. C'est justifié dans les cas usuels quand l'influence de l'environnement est extrêmement faible et ne produit aucune conséquence appréciable dans l'évolution du système. Mais les niveaux d'énergie des systèmes macroscopiques sont très proches les uns des autres et une très petite perturbation peut provoquer une transition. Comme le dit B. D'Espagnat: "Même un infime grain de poussière perdu dans les espaces interstellaires ne peut être considéré comme restant isolé durant un laps de temps appréciable". On peut intégrer l'environnement et considérer l'ensemble système+appareil + ... + environnement restera dans un état superposé, mais on n'aura rien gagné. Le premier à décrire un mécanisme explicite faisant intervenir l'environnement pour résoudre le problème de la mesure fut fut W. Zurek au début des années 1980. Il faut introduire auparavant "la matrice densité".


e) La matrice densité et la formulation du problème de la mesure.

"La matrice densité" est un moyen plus général de représenter les états quantiques. Pour simplifier la présentation commençons par une analogie classique présentée par Hervé Zwirn dans son livre "les limites de la connaissance". Imaginons une boite fermée contenant un dé et secouons la. Avant d'ouvrir le couvercle nos savons que le dé peut montrer un chiffre de 1 à 6, mais nous ne savons pas lequel. En faisant la même opération sur un grand nombre de N boites identiques, chaque chiffre apparaîtra dans approximativement 1/6 des boites. Une façon de décrire l'état de l'ensemble des dés contenus dans les boites est de dire qu'il s'agit d'un mélange de dés dont 1/6 est dans l'état 1, 1/6 dans l'état 2 etc. On peut le représenter par un tableau carré de 36 éléments dont les éléments diagonaux sont tous égaux à 1/6 et les autres tous nuls. Un tel tableau est appelé une "matrice carrée diagonale d'ordre 6". On peut l'utiliser pour connaître la probabilité qu'en ouvrant la boite on trouve un dé montrant la face 1. Il suffit de regarder l'élément situé à l'intersection de la ligne 1 et de la colonne 1 (le premier élément diagonal). Pour la probabilité qu'un dé montre la face i, il suffit de regarder l'élément diagonal n° i. Si les dés sont biaisés tous de la même, façon on aura des probabilités différentes pour chaque face (pi = ni/N), mais le principe reste le même. Dans cet exemple simplifié, une telle représentation paraît inutilement complexe, mais il en est autrement en mécanique quantique.

Considérons un ensemble E de N électrons, tous dans le même état de spin superposé Cosα |+>z + Sinα |->z. une mesure de spin suivant Oz d'un électron peut donner le résultat + avec la probabilité Cos²α et le résultat - avec la probabilité Sin²α. Par analogie avec l'exemple des dés, on pourrait penser que la matrice carrée descriptive de l'ensemble E est la matrice carrée diagonale d'ordre 2 contenant Cos²α comme premier élément diagonal et Sin²α comme deuxième élément diagonal. Ce serait celle d'un mélange M d'électrons dont une proportion Cos²α est dans l'état |+>z et une proportion Sin²α dans l'état |->z. Mais cet état n'est pas identique à l'ensemble E d'électrons tous dans l'état superposé. Le formalisme quantique prescrit que cette matrice contienne en outre les éléments non diagonaux.

| Cos²α 0| | Cos²α CosαSinα|

|0 Sin²α| |CosαSinα Sin²α|

Matrice du mélange M Matrice de l'ensemble E

Les éléments non diagonaux de la matrice E représentent les termes d'interférence. Si on effectue une mesure de spin suivant Oz de tous les électrons de l'ensemble E, chacun tombe dans un état de spin défini suivant Oz avec une probabilité définie par les éléments diagonaux. L'ensemble E devient identique au mélange MLe problème de la   mesure est donc d'expliquer comment se fait le passage de la matrice non diagonale représentant un état superposé à la matrice diagonale représentant un état réduit.


Problème supplémentaire: Quelle est la grandeur mesurée?

Le vecteur d'état est un vecteur de l'espace vectoriel de Hilbert. Un espace vectoriel est engendré par la combinaison linéaire d'un ensemble de vecteurs indépendants qui forment "une base de ce espace". Une infinité de bases sont possibles puisqu'à partir d'une base, on peut en définir une nouvelle en choisissant de nouveaux vecteurs indépendants, combinaisons linéaires des anciens vecteurs de base (par exemple |+>z et |->z  et 1/2 [|+>z + |->z) . Il est équivalent d'exprimer l'état d'un électron dans une base ou dans l'autre. Or la matrice densité prend une forme différente selon la base et n'est pas diagonale dans n'importe laquelle. Comment est alors choisie la base dans laquelle elle est diagonale? Cette question, exprimée sous forme physique revient à se demander pourquoi avec un appareil de Stern et Gerlach dont le champ magnétique est orienté selon Oz, on ne pourrait pas mesurer le spin suivant Ox? Supposons qu'on envoie un électron dans l'état 1/2 [|+>z + |->z) dans l'appareil dont le champ magnétique est orienté selon Oz. Après l'interaction mais avant l'observation du résultat, une corrélation s'est établie entre l'état de l'appareil et celui de l'électron, dont le vecteur du système électron + appareil peut s'écrire: ψSA = 1/2 { |+>z |uparrowrangle + |->z |downarrowrangle ] }. L'observation permettra la réduction du paquet d'ondes et aboutira à à un impact de l'électron soit en haut, |uparrowrangle soit en bas |downarrowrangle. Mais le même état ψSA peut être écrit dans n'importe quelle base. Dans la base  |+>x et |->x, il s'écrirait: ψSA = 1/2 { |+>x [ |uparrowrangle + |downarrowrangle ] + |->x [ |uparrowrangle - |downarrowrangle ] }. Interprétation: l'observation d'un état superposé d'impact haut et bas de l'électron sur l'écran (l'état [ |uparrowrangle + |downarrowrangle ]) est corrélé à une mesure de spin + suivant Ox. On n'observe jamais d'états superposés pour un électron mais cela n'explique pas pourquoi il en est ainsi. Rien ne privilégie le fait que l'appareil doive être observé uniquement dans les états |uparrowrangle ou |downarrowrangle, c'est justement un des problèmes. Il en résulte que tant qu'on ne sait pas dans quelle base la matrice est diagonalisée, le formalisme quantique n'indique pas quelle est la grandeur mesurée.

 

f) La solution de Zurek: la décohérence.

L'intervention entre l'appareil de mesure et l'environnement est déterminée par un hamiltonien d'interaction (le hamiltonien est l'opérateur H associé à l'énergie qui intervient dans l'équation de Schrödinger). Zurek montre que si ce dernier a une forme bien particulière, on peut préciser quelle grandeur est mesurée. La base de l'espace des états qui est sélectionnée pour diagonaliser la matrice densité correspond aux grandeurs physiques de l'appareil de mesure qui ne sont pas perturbées par l'interaction de ce dernier avec l'environnement (c'est la base des vecteurs propres de l'observable qui commute avec le hamiltonien d'interaction. On montre aussi que l'interaction du système (l'électron) et de l'appareil avec l'environnement est responsable de la diagonalisation de la matrice, donc de la réduction du paquet d'onde. Ce phénomène est connu sous le nom de "décohérence".


"Décohérence: source wikipédia": L'idée de base de la décohérence est qu'un système quantique ne doit pas être considéré comme isolé, mais en interaction avec un environnement possédant un grand nombre de degrés de liberté. Ce sont ces interactions qui provoquent la disparition rapide des états superposés.

En effet, selon cette théorie, chaque éventualité d'un état superposé interagit avec son environnement ; mais la complexité des interactions est telle que les différentes possibilités deviennent rapidement incohérentes (d'où le nom de la théorie). On peut démontrer mathématiquement que chaque interaction « déphase » les fonctions d'onde des états les unes par rapport aux autres, jusqu’à devenir orthogonales et de produit scalaire nul. En conséquence, la probabilité d'observer un état superposé tend rapidement vers zéro.

Seuls restent observables les états correspondant aux états observables macroscopiquement, par exemple - dans le cas du Chat de Schrödinger - mort ou bien vivant.

Les interactions et l'environnement dont il est question dans cette théorie ont des origines très diverses3. Typiquement, le simple fait d'éclairer un système quantique suffit à provoquer une décohérence. Même en l'absence de tout éclairage, il reste au minimum les photons du fond diffus cosmologique qui provoquent également une décohérence, bien que très lente.

Naturellement, le fait de mesurer volontairement un système quantique provoque des interactions nombreuses et complexes avec un environnement constitué par l'appareil de mesure. Dans ce cas, la décohérence est pratiquement instantanée et inévitable.

Donc, pour la théorie de la décohérence, l'effondrement de la fonction d'onde n'est pas spécifiquement provoquée par un acte de mesure, mais peut avoir lieu spontanément, même en l'absence d'observation et d'observateurs4. Ceci est une différence essentielle avec le postulat de réduction du paquet d'onde qui ne spécifie pas comment, pourquoi ou à quel moment a lieu la réduction, ce qui a ouvert la porte à des interprétations mettant en jeu la conscience et la présence d'un observateur conscient. Ces interprétations deviendront sans objet si la théorie de la décohérence devient suffisamment complète pour préciser ces points.

Durée de la décohérence

Avec certains modèles simples, mais pertinents, il est possible de calculer les valeurs théoriques de temps de décohérence dans un certain nombre de cas de figure. Les valeurs calculées à l'aide de ces modèles dépendent essentiellement de la grandeur de l'objet considéré et de l'environnement.

Temps de décohérence (en secondes) par type d'objet et par environnement5Poussière (10-3 cm)Agrégat moléculaire (10-5 cm)Molécule complexe (10-6 cm)

Dans l'air 10-36 s 10-32 s 10-30 s

Vide de laboratoire (106 molécules d'air par cm3) 10-23 s 10-19 s 10-17 s

Vide parfait + éclairage soleil 10-21 s 10-17 s 10-13 s

Vide intergalactique + rayonnement 3K 10-6 s 106 s ~ 11 jours 1012 s ~ 32000 ans

Unicité de la mesure

La décohérence mène non pas à un état unique, comme dans la réalité, mais à un ensemble d'états mutuellement exclusifs dont les probabilités sont régies par les lois de la physique quantique.

Par exemple, la matrice densité du chat de Schrödinger évolue par décohérence en  ce qui signifie que le chat est soit mort avec une probabilité de 0.5 ou soit vivant avec une probabilité de 0.5, et non pas en  ou  comme on aurait pu le souhaiter, car - finalement- l'état constaté du chat correspond à une de ces deux dernières matrices.

Ainsi, le mécanisme qui "choisit" l'état final du chat échappe à la théorie de la décohérence. Or, le postulat de réduction du paquet d'onde stipule que l'état final est bien projeté sur une et une seule valeur. Ce postulat n'est donc pas entièrement couvert par la théorie de la décohérence.


Le problème de la mesure est-il définitivement réglé? La réponse à cette question délicate dépend en grande partie des présupposés philosophiques qu'on adopte: voir le prochain article: conséquences philosophiques.


g) La théorie de bohm.
C'est une amélioration de la théorie de De Broglie et la plus aboutie des théories à variables cachées, elle réussit à reproduire correctement les résultats de la mécanique quantique et même ceux de la mécanique quantique relativiste ("théorie quantique des champs"). Dans cette théorie, la fonction d'onde d'une particule
ψ possède deux significations. C'est, comme en mécanique quantique, une distribution de probabilités dont le carré du module donne la probabilité de présence de la particule, mais c'est aussi une onde réelle qui lui sert de guide comme dans l'interprétation de De Broglie. Issue d'un "potentiel quantique", elle détermine de façon univoque la trajectoire que suit la particule. Cette théorie est donc déterministe et proche sur ce plan de la physique classique. Selon D'Espagnat, elle est "ontologiquement interprétable". Cependant, pour être en accord avec les prédictions de la mécanique quantique, elle doit être non-locale et contextuelle en raison des inégalités de Bell et du théorème de Kochen-Specker et le comportement des particules est très différent de celui de la physique classique. la non-localité implique qu'une particule que la valeur possédée par une particule peut dépendre de celle d'une particule distante. De plus, la valeur prédite pour une grandeur appartenant à une particule dépend de la configuration de l'appareillage mis en oeuvre et de l'environnement (contextualisme). Donc, bien que parfaitement déterminée, la trajectoire d'une particule ne peut être mesurée, puisqu'elle dépend de l'appareillage et de ses modifications.

On rétablit donc l'ontologie de la physique classique, mais en même temps, on s'interdit d'avoir connaissance de ses propriétés. Pour Bohm, ce n'est pas parce que nous ne pouvons pas connaître quelque chose que ce quelque chose n'existe pas, alors que pour Bohr, si nous ne pouvons pas connaître quelque chose, alors il est inutile d'en parler. Cependant, la théorie de Bohm est alléchante par un retour aux concepts classiques, mais elle enlève tout moyen d'en avoir une véritable connaissance et n'a aucune conséquence empirique qui permette de la préférer à la mécanique quantique tout en étant d'une complexité technique supérieure.

h) Trois autres solutions.

Rimini Girardi et Weber (GRW) ont modifié l'équation de Schrödinger en un terme qui permet une évolution dans laquelle un état pur se change en un mélange statistique bien défini, mais son interprétation présente des difficultés liées à la non-localité et au fait que lors de la réduction du paquet d'ondes, celui-ci voit son énergie augmentée.

Roland Omnès et Griffiths. Un des buts de Griffiths est est de rétablir le fait qu'une mesure nous renseigne, non pas sur la propriété mesurés après la mesure, mais sur celle qu'elle possédait avant. Il s'agit de retrouver la possibilité pour une grandeur de posséder une valeur définie en l'absence d'une mesure. Il utilise le concept d'histoire (succession des valeurs que possède une observable). Certaines histoires, dites "cohérentes", sont supposées interprétables de manière réaliste. Omnes a poursuivi dans ce sens avec les "logiques cohérentes".


Histoires consistantes (source wikipédia).

Cette approche a été proposée par Robert B. Griffith en 1984, et a ensuite été reprise et développée par Roland Omnès 1987 et Murray Gell-Mann en 1990.

Elle consiste à modéliser l'évolution d'un système quantique par une « histoire consistante ». Une histoire est une séquence de sous-espaces vectoriels F1,..,Fn (qui, rappelons le, d'après le postulat 1, représentent chacun un état quantique du système), à des temps t1,..,tn.

Les temps t1,..,tn ne sont pas quelconques, mais sont caractérisés par un évènement particulier, ou des changements de propriétés du système, en fonction de l'expérience réalisée et du système décrit. À chaque temps ti est associé une observable Ai qui elle-même se décompose en un ensemble complet de projecteurs orthogonaux Ej.

À chaque temps ti, l'observable associée Ai subdivise l'histoire en cours en n histoires différentes, n étant le nombre de projecteurs orthogonaux de l'observable. Par exemple, à partir d'un état (un sous-espace vectoriel) F1 au temps t1, on a n sous-espaces F2.1, F2.2, .., F2.n au temps t2 etc. On a donc alors un arbre d'histoire qui se ramifie à chaque temps t.

Une histoire consiste donc à suivre un chemin dans cet arbre, en sélectionnant à chaque temps t un sous-espace parmi tous ceux possibles.

Parmi toutes ces histoires, tous ces chemins, certaines sont qualifiées de consistantes, si elles satisfont certaines conditions. Ces conditions expriment essentiellement que, quels que soient les sous espaces (Fi,Fj) pris dans une histoire, les états correspondant sont sans interférences quantiques, c'est-à-dire s'excluent mutuellement. Ce sont les seuls histoires retenues dans les calculs, les autres sont considérées comme « irréelles ».

Ce modèle permet de retrouver les règles de calcul de probabilité décrites par le postulat 4, et de faire certaines prévisions expérimentales vérifiées. Cela permet de justifier que les histoires inconsistantes sont effectivement irréelles.

 

Gell-Man et Hartle font aussi appel au concept d'histoire. Mais il ne leur apparaît pas possible d'attribuer une probabilité à toute histoire. Seules certaines histoires "à gros grains" obtenues comme sommes d'histoires "à grains fins" (plus précises) peuvent se voir attribuer une probabilité. Le procédé qui consiste à passer d'histoires précises, à grains fins a des histoires à gros grains est appelé "coarse graining". Cette théorie utilise aussi bien le coarse graining que la décohérence de manière objective, mais il apparaît que cette volonté ne peut être considérée comme satisfaite (Hervé Zwirn).


i) Conclusion.


Il en résulte que les solutions précédentes ne peuvent être considérées comme remettant en cause de manière significative les conséquences qui seront présentées dans le prochain article: réalisme et monde quantique, conséquences philosophiques.


Ce cinquième article conclura cette série d'articles de présentation du monde quantique avant d'aborder plus précisément les questions plus philosophiques sur les limites et contre-limites de la connaissance et sur les doutes sur la réalité (que croire?).  Un article intermédiaire sur le chaos quantique (sujet plutôt difficile) servira de transition.

 

20:38 Écrit par pascal dans les limites de la connaissance | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook

6-4 Les limites de la connaissance 6-4) Réalisme et monde quantique Le principe de la mesure

 

 

Les limites de la connaissance 6-4) Réalisme et monde quantique

Le principe  de la mesure

 







Préambule

La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gödel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?

(Je voudrais ici faire partager ma lecture de Hervé Zwirn).

 

 

 


 

Ce cinquième article conclura cette série d'articles de présentation du monde quantique avant d'aborder plus précisément les questions plus philosophiques sur les limites et contre-limites de la connaissance et sur les doutes sur la réalité (que croire?).  Un article intermédiaire sur le chaos quantique (sujet plutôt difficile) servira de transition.


 


A) Article précédent, résumé:

6-3) ébauche d'analyse des implications ontologiques. théories à variables cachées, non-séparabilité et le problème de la mesure.

Principales étapes de l'article.

1) Ebauche d'analyse des implications ontologiques.

a) Le caractère abstrait du formalisme quantique est déroutant.

Le caractère abstrait du formalisme quantique est déroutant.

b) Signification de ces propriétés:

A) Disparition de la correspondance directe entre état et propriétés.

B) Indéterminisme.

C) Interférence des amplitudes de probabilité.

2) Les théories à variables cachées et la non-séparabilité.

c) la réponse de Bohr.

d) Les théories à variables cachées.

e) Le verdict expérimental: les inégalités de Bell.

3) Résumé et conclusions.

Toute théorie reproduisant les prédictions de la mécanique quantique doit donc être non locale et contextualiste.


 


B) Contenu de cet article qui est la suite du précédent article 6-3 (ébauche des implications ontologiques et théories à variables cachées). Il est donc recommandé de lire ce précédent article 6-3 avant de prendre connaissance du présent article.


Le problème de la mesure et les théories à variables cachées.


a) position du problème.

biréfringence (calcite)

L'état quantique d'un système est représenté par un vecteur appartenant à un espace vectoriel appelé "espace de Hilbert des états". Comme pour tout espace vectoriel, toute combinaison linéaire d'états possible est elle-même un état possible (c'est le principe de superposition). A chaque grandeur physique (position, impulsion, énergie,spin...) attachée au système, est associé un opérateur qui agit sur les états possibles; il est appelé "une observable". Le principe de réduction du paquet d'ondes stipule que lorsqu'on mesure une observable A sur un système dans l'état |ψ>, on ne peut obtenir comme résultat que l'une des valeurs propres de l'observable A. Si celle-ci possède plusieurs valeurs propres distinctes, la probabilité d'obtenir une valeur propre donnée a est fonction de l'état initial |ψ>, et des états propres de A associés à a. C'est le carré du module de la projection de |ψ> sur le sous-espace propre engendré par les vecteurs propres de |ψ> associés à a. Après une mesure ayant donné a comme résultat, le système n'est plus dans l'état |ψ> mais il est projeté dans l'état propre associé à a.

La mesure d'une observable (ou d'un ensemble complet d'observables qui commutent) permet de connaître précisément l'état dans lequel est le système. En général, comme il n'est pas dans le même état avant et après la mesure, il est impossible de mesurer une grandeur sans perturber le système (sauf si celui-ci est déjà dans un état propre de l'observable mesurée). Quand on connaît avec précision la valeur d'une observable, la valeur des observables qui ne commutent pas avec elle n'est pas définie.

En l'absence de mesure, l'état dsystème évolue de manière déterministe selon l'équation de Schrödinger: (ih/2 π) d l Ψ>/dt = Hl Ψ >. La résolution de cette équation permet de déterminer l'état |ψ(t)> du système à tout instant t dès qu'on connaît l'état |ψ(t0)> à l'instant initial t0 et qu'aucune n'est effectuée sur le système entre t et to. En général, l'évolution décrite par l'équation de Schrödinger est différente de celle décrite par le principe de réduction du paquet d'ondes. Il n'est à priori pas gênant que coexistent les deux principes de prédiction, car les conditions d'application de l'un et de l'autre semblent bien spécifiées. L'un s'applique quand le système évolue alors qu'aucune mesure n'est effectuée et l'autre s'applique dès qu'une mesure est faite. Mais cela suppose que le concept de mesure soit parfaitement clair et bien défini, mais il se trouve qu'il est très difficile de définir de manière non ambiguë  ce qu'est une mesure: (extrait du livre) "On peut voir que tel n'est pas le cas. Pour cela, considérons un système S sur lequel on fait une mesure à l'aide d'un appareil A. Deux points de vue apparemment équivalents sont possibles pour décrire cette mesure : On peut interpréter cette difficulté comme permettant de douter du choix qu'il convient de faire entre les deux processus d'évolution.

 

a) Si l'on s'intéresse à l'état ES du système S, le principe de réduction du paquet d'ondes prescrit comment celui-ci peut évoluer après la mesure. Supposons que la mesure a lieu à l'instant t. Si avant la mesure, l'état est ES(i), celui-ci deviendra après la mesure ES(f1) ou ES(f2) (plusieurs résultats de mesure sont possibles.

b) Considérons le grand système S constitué du système S et de l'appareil A. La mécanique quantique nous apprend que si ES est l'état du système S et EA l'état de l'appareil A, l'état du système S sera SS = ES EA. Avant l'instant t, cet état sera donc ES(i) EA(i).  Le système S n'est lui soumis à aucune mesure. Son état évolue donc conformément à l'équation de Schrödinger et il est possible de le calculer après l'instant t. on peut montrer que le calcul par l'équation de Schrödinger ne permettra jamais de retrouver pour S un résultat identique ni à ES(f1) ni à ES(f2). Les deux points de vue, qui semblent aussi légitimes l'un que l'autre, conduisent à des prédictions irréconciliables. Le premier point de vue aboutit à considérer qu'après la mesure le système S est dans un état où la grandeur mesurée possède une valeur définie. Dans le deuxième point de vue, l'état final du grand système S est un état superposé où l'appareil A et le système S sont « enchevêtrés » La valeur de la grandeur physique n'est pas définie. L'apparente contradiction entre les deux principes d'évolution est ce qu'on appelle le problème de la mesure".

 

 

Analyse: La mesure sur un système quantique S fait toujours intervenir un appareil de mesure A, par exemple un appareil de Stern et Gerlach lors d'une mesure de spin. Le système S va interagir avec A. Considérons le système constitué par un électron dans un état de spin suivant Oz superposé: ψe = [ a|+>z +b|->z] et faisons une mesure avec un appareil de Stern et Gerlach convenable A. Deux descriptions sont possibles.

La première est de considérer qu'on fait une mesure sur l'électron S dans l'état initial ψe grâce à l'appareil A. Appliquons le principe de réduction du paquet d'ondes: après la mesure, S sera dans un des deux états possibles |+>z ou |->z et l'appareil A dans un état correspondant à un impact de l'électron sur l'écran en haut | |uparrowrangle si l'état de l'électron est |+>z et en bas |downarrowrangle si l'état de l'électron est |->z]. L'état de l'appareil est donc un état macroscopique défini, corrélé à l'état de l'électron après la mesure.

La deuxième consiste à faire le raisonnement suivant: L'appareil A est lui-même un système physique décrit par la mécanique quantique. Soit ψa l'état de l'appareil avant la mesure. Avant l'interaction entre A et S, le système composé de l'électron S et de l'appareil de mesure A est dans l'état quantique ψaψe, produit des états initiaux de l'électron et de l'appareil. Or ce grand système S + A n'est lui, soumis à aucune mesure. Son évolution est donc régie par l'équation de Schrödinger appliquée au vecteur d'état |ψaψe>. Les deux descriptions sont aussi légitimes l'une que l'autre, on devrait donc s'attendre à ce qu'elles aboutissent au même résultat concernant les évolutions de S et de A. Ce serait possible si l'évolution de (S + A) était telle qu'on puisse en extraire après l'interaction entre S et A un état pour S qui soit identique à celui qu'on obtient en appliquant le principe de réduction à S seul, et que l'état de A soit l'état corrélé correspondant. Or, il n'en n'est rien! L'évolution par l'équation de Schrödinger ne permet jamais de transformer un état superposé pour S en état réduit comme le fait le principe de réduction du paquet d'ondes, ni d'être dans un état macroscopique défini pour l'appareil de mesure. L'évolution à partir de l'état ψaψe aboutit à l'état ψAe final = a|+>z |uparrowrangle + b|->z |downarrowrangle. Cet état est appelé état "enchevêtré" car les 2 sous-systèmes sont liés de manière non factorisable (S et A forment un système indivisible dont l'état est superposé. L'ensemble (système  + appareil) forme un tout indivisible qui est dans un état superposé. Si on s'intéresse seulement à l'appareil, il est dans un état correspondant à une superposition d'impacts en haut et en bas. C'est cette difficulté qu'on appelle problème de la mesure.

 

b) Qu'est ce qu'une mesure?.

C'est uniquement lors d'une mesure que les grandeurs physiques d'un système acquièrent définie. Pour Bohr, les grandeurs physiques comme la position, l'impulsion ou le spin suivant un axe, d'une particule ne sont pas des grandeurs appartenant au système en propre, mais elles doivent être considérées comme attachées à la fois au système et à l'appareil de mesure. Mais savons nous toujours dire si nous faisons une mesure sur un système ou pas?

Comme le fait remarquer Bohr, dès lors qu'une mesure est faite, un appareil macroscopique intervient et il faut appliquer le principe de réduction du paquet d'ondes. Cette attitude est pragmatiquement correcte car elle donne toujours le bon résultat. Mais elle n'est pas satisfaisante sur le plan conceptuel pour deux raisons:

a) la mécanique quantique s'applique en droit à l'appareil de mesure même si celui-ci est macroscopique. Le fait que nous savons que nous effectuons une mesure ne devrait pas entre en ligne de compte. Or la prédiction n'est pas la bonne puisque elle ne prédit pas que l'appareil et le système sont dans des états non superposés après la mesure. b) Si on interprète cette position comme voulant dire qu'il y a mesure dès lors qu'il y a interaction, alors on se heurte à deux problèmes. D'une part, la frontière entre microscopique et macroscopique n'est pas marquée de manière nette et que penser de phénomènes comme la superconductivité? et d'autre part, l'exemple de la polarisation de la lumière et de la biréfringence par un cristal de calcite, montre est une interaction macroscopique qui n'est pas une mesure (page 207 "les limites de la connaissance de H. Zwirn).

Dans le cas de la biréfringence, le photon interagit avec le cristal de calcite qui est un objet macroscopique et pourtant cela n'est pas suffisant pour qu'une mesure de polarisation soit effective. La mesure n'intervient que si l'on complète le dispositif par un détecteur qui permet de connaître effectivement par quel canal le photon est sorti.


c) Le rôle de la conscience.

Dans l'exemple précédent, le système quantique est constitué du photon et l'appareil de mesure est un cristal de calcite auquel sont ajoutés deux détecteurs permettant de savoir par quel canal est sorti le photon. On peut appliquer le principe de réduction du paquet d'ondes au photon; il nous dit que le photon sera après passage à travers l'appareil dans un état défini de polarisation H (horizontal) ou V (vertical). Mais, si on adopte le point de vue selon lequel le grand système S + A (photon + appareil de mesure) n'est soumis à aucune mesure ,l'application de l'équation de Schrödinger au grand système conduit à un état enchevêtré entre un état de polarisation superposé du photon et un état de l'appareil où chaque détecteur est dans un état "déclenché/non-déclenché". Les points de vue mènent à des conclusions divergentes.

L'aspect paradoxal du problème est porté à son comble dans la fameuse expérience du chat de Schrödinger. Erwin Schrödinger a imaginé une expérience dans laquelle un chat est enfermé dans une boîte fermée avec un dispositif qui tue l'animal dès qu'il détecte la désintégration d'un atome d'un corps radioactif ; par exemple : un détecteur de radioactivité type Geiger, relié à un interrupteur provoquant la chute d'un marteau cassant une fiole de poison — Schrödinger proposait de l'acide cyanhydrique, qui peut être enfermé sous forme liquide dans un flacon sous pression et se vaporiser, devenant un gaz mortel, une fois le flacon brisé. Si les probabilités indiquent qu'une désintégration a une chance sur deux d'avoir eu lieu au bout d'une minute, la mécanique quantique indique que, tant que l'observation n'est pas faite, l'atome est simultanément dans deux états (intact/désintégré). Or le mécanisme imaginé par Erwin Schrödinger lie l'état du chat (mort ou vivant) à l'état des particules radioactives, de sorte que le chat serait simultanément dans deux états (l'état mort et l'état vivant), jusqu'à ce que l'ouverture de la boîte (l'observation) déclenche le choix entre les deux états. Du coup, on ne peut absolument pas dire si le chat est mort ou non au bout d'une minute.

Selon le point de vue du grand système (particule  + chat), le chat est dans un état superposé "mort/vivant" tant qu'un observateur n'a pas regardé l'intérieur de la boite. Cela soulève donc le problème de l'incohérence apparente des règles quantiques puisque les deux points de vue paraissent aussi justifiés l'un que l'autre. Pour sauver la mécanique quantique, on peut préférer préférer le premier point de vue, (on applique le principe de réduction au paquet d'ondes au photon seul pour faire une mesure), qui seul donne le bon résultat, car jamais aucun physicien n'a observé un appareil de mesure dans un état superposé. Mais cette solution bien qu'opérationnellement valide, ne donne aucun critère objectif permettant de définir ce qu'est une mesure (à quel moment se décide le sort du chat?). Ce critère pragmatique est efficace mais conceptuellement insuffisant. Il est donc impossible de caractériser une mesure comme étant une interaction avec un objet macroscopique. Qu'est-ce donc qui différencie une mesure d'une interaction banale? Avant tout, elle doit permettre de connaître la valeur d'une grandeur physique. Résumons la suite d'évènements qui se produisent lors de la mesure: arrivée du photon sur le cristal de calcite....réaction du détecteur qui par exemple provoque l'allumage d'une ampoule, observation de l'ampoule allumée par l'expérimentateur qui prend connaissance du détecteur activé. Appliquer l'équation de Schrödinger à l'ensemble des systèmes physiques de l'expérience jusqu'à l'ampoule est parfaitement cohérent. Dans ce cas, aucune mesure n'est effectuée sur le grand système et celui-ci devrait se trouver après la mesure dans un état superposé et les lampes dans une superposition d'états "allumée/éteinte", ce qui n'est évidemment pas le cas. A un moment de la chaîne, une mesure réduisant les états superposés se produit. Mais il n'y a aucune raison pour que cette réduction intervienne à un moment plutôt qu'à un autre dans la chaîne. Mais dans le dernier maillon,"observation de l'ampoule allumée par l'expérimentateur qui prend connaissance du détecteur activé", une chaîne d'évènements se produit: un photon pénètre dans l'oeil de l'observateur, le nerf optique est excité...l'observateur prend conscience de ce qu'il voit. La chaîne, appelée "chaîne de Von Neumann" ne fait intervenir que des systèmes physiques jusqu'à la prise de conscience de l'observateur. Aucune raison ne s'impose pour décider que la mesure est faite à tel ou tel endroit. En revanche, la conscience de l'observateur semble semble être le bon endroit où peut se briser la chaîne et où se produit la mesure. Cette position a été défendue par Von Neumann, London et Bauers et par Wigner. Wigner supposait que la conscience est hors du champ de la mécanique quantique et qu'elle est responsable de la réduction du paquet d'ondes. Cette interprétation n'a jamais été acceptée par la majorité des physiciens. Elle introduit un dualisme gênant pour beaucoup: il existerait dans le monde deux sortes d'entités, celles qui sont soumises à la mécanique quantique et les consciences qui ne le sont pas (cette idée n'est pas neuve, Descartes l'a défendue, c'était la glande épiphyse). Aujourd'hui, on ne s'en satisfait pas, mais aucune autre n'est disponible. Par ailleurs, les implications de cette position sont étonnantes et soulèvent des questions. Une grandeur n'a de valeur définie que lorsqu'elle est mesurée. Par exemple, c'est la conscience de l'observateur qui  est donc responsable du fait qu'une particule possède une position définie. Quel sens donner à l'existence d'une particule pour laquelle aucune des grandeurs physiques attachées ne possède de valeur? Son existence même est subordonnée à la présence d'un observateur qui fait une mesure sur elle et il serait illégitime de dire qu'une particule existe en l'absence de cet observateur. La conséquence ultime serait que les objets (constitués de particules) n'existent que lorsque quelqu'un est là pour les observer. Mais alors, qu'était l'univers avant l'apparition de l'homme...? On aboutit à des questions absurdes qui jettent un doute sur la validité de l'hypothèse. Le moyen extrême d'y répondre est d'adopter une position solipsiste: une seule conscience existe, le sienne et tout n'est que création de cette conscience. Mais cette position, bien que cohérente, est stérile.

Une autre proposition a été faite en 1957 par Hugg Everett III, soutenue un temps par Wheeler et qui joue encore un rôle dans certaines versions de la cosmologie quantique. (source wikipédia) Hugh Everett, estimait invraisemblable qu'une fonction d'onde déterministe donne lieu à des observations qui ne le sont pas, conséquence pourtant d'un postulat de la mécanique quantique, celui de la réduction du paquet d'onde. Ce postulat pose également un problème de cohérence mathématique avec le problème de la mesure quantique dans cette même théorie...nombre de physiciens au nombre desquels David Deutsch et Colin Bruce la considèrent la seule possible à ne pas nécessiter quelque deus ex machina introduisant en permanence de l'anti-hasard dans l'univers. Sans indiquer réellement son opinion sur cette théorie, Murray Gell-Mann montre pour elle, dans son livre le Quark et le Jaguar, une sympathie bienveillante....Selon lui, la seule source d'anti-hasard possible était l'observateur lui-même, ou plus exactement : sa nature d'observateur qui lui était propre (le résultat qu'il observait le caractérisant lui-même en tant que cet observateur) et ne concernait pas l'univers qui restait parfaitement neutre et comportait toutes les possibilités prévues par la théorie quantique. Les possibilités par lui observées définissaient seules l'observateur, qui ne percevait donc que cet univers-là.

Cependant cette théorie soulève plus de problèmes qu'elle n'en règle. Elle ne donne aucun critère précis pour déterminer quand les scissions d'univers se produisent et se contente de dire que cela se produit quand un évènement du type mesure intervient. Elle est, par nature, non testable ni falsifiable. et selon le critère de Popper, ne peut être qualifiée de scientifique.


d) La théorie de l'environnement, début d'une solution.

Une solution mieux acceptée fait suite à une remarque de H Zeh selon laquelle les systèmes macroscopiques ne peuvent être isolés si on les traite du point de vue quantique. Cependant, il ne faut pas oublier leur environnement, ce qui a été le cas pour le problème de la mesure jusqu'aux années 1970. C'est justifié dans les cas usuels quand l'influence de l'environnement est extrêmement faible et ne produit aucune conséquence appréciable dans l'évolution du système. Mais les niveaux d'énergie des systèmes macroscopiques sont très proches les uns des autres et une très petite perturbation peut provoquer une transition. Comme le dit B. D'Espagnat: "Même un infime grain de poussière perdu dans les espaces interstellaires ne peut être considéré comme restant isolé durant un laps de temps appréciable". On peut intégrer l'environnement et considérer l'ensemble système+appareil + ... + environnement restera dans un état superposé, mais on n'aura rien gagné. Le premier à décrire un mécanisme explicite faisant intervenir l'environnement pour résoudre le problème de la mesure fut fut W. Zurek au début des années 1980. Il faut introduire auparavant "la matrice densité".


e) La matrice densité et la formulation du problème de la mesure.

"La matrice densité" est un moyen plus général de représenter les états quantiques. Pour simplifier la présentation commençons par une analogie classique présentée par Hervé Zwirn dans son livre "les limites de la connaissance". Imaginons une boite fermée contenant un dé et secouons la. Avant d'ouvrir le couvercle nos savons que le dé peut montrer un chiffre de 1 à 6, mais nous ne savons pas lequel. En faisant la même opération sur un grand nombre de N boites identiques, chaque chiffre apparaîtra dans approximativement 1/6 des boites. Une façon de décrire l'état de l'ensemble des dés contenus dans les boites est de dire qu'il s'agit d'un mélange de dés dont 1/6 est dans l'état 1, 1/6 dans l'état 2 etc. On peut le représenter par un tableau carré de 36 éléments dont les éléments diagonaux sont tous égaux à 1/6 et les autres tous nuls. Un tel tableau est appelé une "matrice carrée diagonale d'ordre 6". On peut l'utiliser pour connaître la probabilité qu'en ouvrant la boite on trouve un dé montrant la face 1. Il suffit de regarder l'élément situé à l'intersection de la ligne 1 et de la colonne 1 (le premier élément diagonal). Pour la probabilité qu'un dé montre la face i, il suffit de regarder l'élément diagonal n° i. Si les dés sont biaisés tous de la même, façon on aura des probabilités différentes pour chaque face (pi = ni/N), mais le principe reste le même. Dans cet exemple simplifié, une telle représentation paraît inutilement complexe, mais il en est autrement en mécanique quantique.

Considérons un ensemble E de N électrons, tous dans le même état de spin superposé Cosα |+>z + Sinα |->z. une mesure de spin suivant Oz d'un électron peut donner le résultat + avec la probabilité Cos²α et le résultat - avec la probabilité Sin²α. Par analogie avec l'exemple des dés, on pourrait penser que la matrice carrée descriptive de l'ensemble E est la matrice carrée diagonale d'ordre 2 contenant Cos²α comme premier élément diagonal et Sin²α comme deuxième élément diagonal. Ce serait celle d'un mélange M d'électrons dont une proportion Cos²α est dans l'état |+>z et une proportion Sin²α dans l'état |->z. Mais cet état n'est pas identique à l'ensemble E d'électrons tous dans l'état superposé. Le formalisme quantique prescrit que cette matrice contienne en outre les éléments non diagonaux.

| Cos²α 0| | Cos²α CosαSinα|

|0 Sin²α| |CosαSinα Sin²α|

Matrice du mélange M Matrice de l'ensemble E

Les éléments non diagonaux de la matrice E représentent les termes d'interférence. Si on effectue une mesure de spin suivant Oz de tous les électrons de l'ensemble E, chacun tombe dans un état de spin défini suivant Oz avec une probabilité définie par les éléments diagonaux. L'ensemble E devient identique au mélange MLe problème de la   mesure est donc d'expliquer comment se fait le passage de la matrice non diagonale représentant un état superposé à la matrice diagonale représentant un état réduit.


Problème supplémentaire: Quelle est la grandeur mesurée?

Le vecteur d'état est un vecteur de l'espace vectoriel de Hilbert. Un espace vectoriel est engendré par la combinaison linéaire d'un ensemble de vecteurs indépendants qui forment "une base de ce espace". Une infinité de bases sont possibles puisqu'à partir d'une base, on peut en définir une nouvelle en choisissant de nouveaux vecteurs indépendants, combinaisons linéaires des anciens vecteurs de base (par exemple |+>z et |->z  et 1/2 [|+>z + |->z) . Il est équivalent d'exprimer l'état d'un électron dans une base ou dans l'autre. Or la matrice densité prend une forme différente selon la base et n'est pas diagonale dans n'importe laquelle. Comment est alors choisie la base dans laquelle elle est diagonale? Cette question, exprimée sous forme physique revient à se demander pourquoi avec un appareil de Stern et Gerlach dont le champ magnétique est orienté selon Oz, on ne pourrait pas mesurer le spin suivant Ox? Supposons qu'on envoie un électron dans l'état 1/2 [|+>z + |->z) dans l'appareil dont le champ magnétique est orienté selon Oz. Après l'interaction mais avant l'observation du résultat, une corrélation s'est établie entre l'état de l'appareil et celui de l'électron, dont le vecteur du système électron + appareil peut s'écrire: ψSA = 1/2 { |+>z |uparrowrangle + |->z |downarrowrangle ] }. L'observation permettra la réduction du paquet d'ondes et aboutira à à un impact de l'électron soit en haut, |uparrowrangle soit en bas |downarrowrangle. Mais le même état ψSA peut être écrit dans n'importe quelle base. Dans la base  |+>x et |->x, il s'écrirait: ψSA = 1/2 { |+>x [ |uparrowrangle + |downarrowrangle ] + |->x [ |uparrowrangle - |downarrowrangle ] }. Interprétation: l'observation d'un état superposé d'impact haut et bas de l'électron sur l'écran (l'état [ |uparrowrangle + |downarrowrangle ]) est corrélé à une mesure de spin + suivant Ox. On n'observe jamais d'états superposés pour un électron mais cela n'explique pas pourquoi il en est ainsi. Rien ne privilégie le fait que l'appareil doive être observé uniquement dans les états |uparrowrangle ou |downarrowrangle, c'est justement un des problèmes. Il en résulte que tant qu'on ne sait pas dans quelle base la matrice est diagonalisée, le formalisme quantique n'indique pas quelle est la grandeur mesurée.

 

f) La solution de Zurek: la décohérence.

L'intervention entre l'appareil de mesure et l'environnement est déterminée par un hamiltonien d'interaction (le hamiltonien est l'opérateur H associé à l'énergie qui intervient dans l'équation de Schrödinger). Zurek montre que si ce dernier a une forme bien particulière, on peut préciser quelle grandeur est mesurée. La base de l'espace des états qui est sélectionnée pour diagonaliser la matrice densité correspond aux grandeurs physiques de l'appareil de mesure qui ne sont pas perturbées par l'interaction de ce dernier avec l'environnement (c'est la base des vecteurs propres de l'observable qui commute avec le hamiltonien d'interaction. On montre aussi que l'interaction du système (l'électron) et de l'appareil avec l'environnement est responsable de la diagonalisation de la matrice, donc de la réduction du paquet d'onde. Ce phénomène est connu sous le nom de "décohérence".


"Décohérence: source wikipédia": L'idée de base de la décohérence est qu'un système quantique ne doit pas être considéré comme isolé, mais en interaction avec un environnement possédant un grand nombre de degrés de liberté. Ce sont ces interactions qui provoquent la disparition rapide des états superposés.

En effet, selon cette théorie, chaque éventualité d'un état superposé interagit avec son environnement ; mais la complexité des interactions est telle que les différentes possibilités deviennent rapidement incohérentes (d'où le nom de la théorie). On peut démontrer mathématiquement que chaque interaction « déphase » les fonctions d'onde des états les unes par rapport aux autres, jusqu’à devenir orthogonales et de produit scalaire nul. En conséquence, la probabilité d'observer un état superposé tend rapidement vers zéro.

Seuls restent observables les états correspondant aux états observables macroscopiquement, par exemple - dans le cas du Chat de Schrödinger - mort ou bien vivant.

Les interactions et l'environnement dont il est question dans cette théorie ont des origines très diverses3. Typiquement, le simple fait d'éclairer un système quantique suffit à provoquer une décohérence. Même en l'absence de tout éclairage, il reste au minimum les photons du fond diffus cosmologique qui provoquent également une décohérence, bien que très lente.

Naturellement, le fait de mesurer volontairement un système quantique provoque des interactions nombreuses et complexes avec un environnement constitué par l'appareil de mesure. Dans ce cas, la décohérence est pratiquement instantanée et inévitable.

Donc, pour la théorie de la décohérence, l'effondrement de la fonction d'onde n'est pas spécifiquement provoquée par un acte de mesure, mais peut avoir lieu spontanément, même en l'absence d'observation et d'observateurs4. Ceci est une différence essentielle avec le postulat de réduction du paquet d'onde qui ne spécifie pas comment, pourquoi ou à quel moment a lieu la réduction, ce qui a ouvert la porte à des interprétations mettant en jeu la conscience et la présence d'un observateur conscient. Ces interprétations deviendront sans objet si la théorie de la décohérence devient suffisamment complète pour préciser ces points.

Durée de la décohérence

Avec certains modèles simples, mais pertinents, il est possible de calculer les valeurs théoriques de temps de décohérence dans un certain nombre de cas de figure. Les valeurs calculées à l'aide de ces modèles dépendent essentiellement de la grandeur de l'objet considéré et de l'environnement.

Temps de décohérence (en secondes) par type d'objet et par environnement5Poussière (10-3 cm)Agrégat moléculaire (10-5 cm)Molécule complexe (10-6 cm)

Dans l'air 10-36 s 10-32 s 10-30 s

Vide de laboratoire (106 molécules d'air par cm3) 10-23 s 10-19 s 10-17 s

Vide parfait + éclairage soleil 10-21 s 10-17 s 10-13 s

Vide intergalactique + rayonnement 3K 10-6 s 106 s ~ 11 jours 1012 s ~ 32000 ans

Unicité de la mesure

La décohérence mène non pas à un état unique, comme dans la réalité, mais à un ensemble d'états mutuellement exclusifs dont les probabilités sont régies par les lois de la physique quantique.

Par exemple, la matrice densité du chat de Schrödinger évolue par décohérence en  ce qui signifie que le chat est soit mort avec une probabilité de 0.5 ou soit vivant avec une probabilité de 0.5, et non pas en  ou  comme on aurait pu le souhaiter, car - finalement- l'état constaté du chat correspond à une de ces deux dernières matrices.

Ainsi, le mécanisme qui "choisit" l'état final du chat échappe à la théorie de la décohérence. Or, le postulat de réduction du paquet d'onde stipule que l'état final est bien projeté sur une et une seule valeur. Ce postulat n'est donc pas entièrement couvert par la théorie de la décohérence.


Le problème de la mesure est-il définitivement réglé? La réponse à cette question délicate dépend en grande partie des présupposés philosophiques qu'on adopte: voir le prochain article: conséquences philosophiques.


g) La théorie de bohm.
C'est une amélioration de la théorie de De Broglie et la plus aboutie des théories à variables cachées, elle réussit à reproduire correctement les résultats de la mécanique quantique et même ceux de la mécanique quantique relativiste ("théorie quantique des champs"). Dans cette théorie, la fonction d'onde d'une particule
ψ possède deux significations. C'est, comme en mécanique quantique, une distribution de probabilités dont le carré du module donne la probabilité de présence de la particule, mais c'est aussi une onde réelle qui lui sert de guide comme dans l'interprétation de De Broglie. Issue d'un "potentiel quantique", elle détermine de façon univoque la trajectoire que suit la particule. Cette théorie est donc déterministe et proche sur ce plan de la physique classique. Selon D'Espagnat, elle est "ontologiquement interprétable". Cependant, pour être en accord avec les prédictions de la mécanique quantique, elle doit être non-locale et contextuelle en raison des inégalités de Bell et du théorème de Kochen-Specker et le comportement des particules est très différent de celui de la physique classique. la non-localité implique qu'une particule que la valeur possédée par une particule peut dépendre de celle d'une particule distante. De plus, la valeur prédite pour une grandeur appartenant à une particule dépend de la configuration de l'appareillage mis en oeuvre et de l'environnement (contextualisme). Donc, bien que parfaitement déterminée, la trajectoire d'une particule ne peut être mesurée, puisqu'elle dépend de l'appareillage et de ses modifications.

On rétablit donc l'ontologie de la physique classique, mais en même temps, on s'interdit d'avoir connaissance de ses propriétés. Pour Bohm, ce n'est pas parce que nous ne pouvons pas connaître quelque chose que ce quelque chose n'existe pas, alors que pour Bohr, si nous ne pouvons pas connaître quelque chose, alors il est inutile d'en parler. Cependant, la théorie de Bohm est alléchante par un retour aux concepts classiques, mais elle enlève tout moyen d'en avoir une véritable connaissance et n'a aucune conséquence empirique qui permette de la préférer à la mécanique quantique tout en étant d'une complexité technique supérieure.

h) Trois autres solutions.

Rimini Girardi et Weber (GRW) ont modifié l'équation de Schrödinger en un terme qui permet une évolution dans laquelle un état pur se change en un mélange statistique bien défini, mais son interprétation présente des difficultés liées à la non-localité et au fait que lors de la réduction du paquet d'ondes, celui-ci voit son énergie augmentée.

Roland Omnès et Griffiths. Un des buts de Griffiths est est de rétablir le fait qu'une mesure nous renseigne, non pas sur la propriété mesurés après la mesure, mais sur celle qu'elle possédait avant. Il s'agit de retrouver la possibilité pour une grandeur de posséder une valeur définie en l'absence d'une mesure. Il utilise le concept d'histoire (succession des valeurs que possède une observable). Certaines histoires, dites "cohérentes", sont supposées interprétables de manière réaliste. Omnes a poursuivi dans ce sens avec les "logiques cohérentes".


Histoires consistantes (source wikipédia).

Cette approche a été proposée par Robert B. Griffith en 1984, et a ensuite été reprise et développée par Roland Omnès 1987 et Murray Gell-Mann en 1990.

Elle consiste à modéliser l'évolution d'un système quantique par une « histoire consistante ». Une histoire est une séquence de sous-espaces vectoriels F1,..,Fn (qui, rappelons le, d'après le postulat 1, représentent chacun un état quantique du système), à des temps t1,..,tn.

Les temps t1,..,tn ne sont pas quelconques, mais sont caractérisés par un évènement particulier, ou des changements de propriétés du système, en fonction de l'expérience réalisée et du système décrit. À chaque temps ti est associé une observable Ai qui elle-même se décompose en un ensemble complet de projecteurs orthogonaux Ej.

À chaque temps ti, l'observable associée Ai subdivise l'histoire en cours en n histoires différentes, n étant le nombre de projecteurs orthogonaux de l'observable. Par exemple, à partir d'un état (un sous-espace vectoriel) F1 au temps t1, on a n sous-espaces F2.1, F2.2, .., F2.n au temps t2 etc. On a donc alors un arbre d'histoire qui se ramifie à chaque temps t.

Une histoire consiste donc à suivre un chemin dans cet arbre, en sélectionnant à chaque temps t un sous-espace parmi tous ceux possibles.

Parmi toutes ces histoires, tous ces chemins, certaines sont qualifiées de consistantes, si elles satisfont certaines conditions. Ces conditions expriment essentiellement que, quels que soient les sous espaces (Fi,Fj) pris dans une histoire, les états correspondant sont sans interférences quantiques, c'est-à-dire s'excluent mutuellement. Ce sont les seuls histoires retenues dans les calculs, les autres sont considérées comme « irréelles ».

Ce modèle permet de retrouver les règles de calcul de probabilité décrites par le postulat 4, et de faire certaines prévisions expérimentales vérifiées. Cela permet de justifier que les histoires inconsistantes sont effectivement irréelles.

 

Gell-Man et Hartle font aussi appel au concept d'histoire. Mais il ne leur apparaît pas possible d'attribuer une probabilité à toute histoire. Seules certaines histoires "à gros grains" obtenues comme sommes d'histoires "à grains fins" (plus précises) peuvent se voir attribuer une probabilité. Le procédé qui consiste à passer d'histoires précises, à grains fins a des histoires à gros grains est appelé "coarse graining". Cette théorie utilise aussi bien le coarse graining que la décohérence de manière objective, mais il apparaît que cette volonté ne peut être considérée comme satisfaite (Hervé Zwirn).


i) Conclusion.


Il en résulte que les solutions précédentes ne peuvent être considérées comme remettant en cause de manière significative les conséquences qui seront présentées dans le prochain article: réalisme et monde quantique, conséquences philosophiques.


Ce cinquième article conclura cette série d'articles de présentation du monde quantique avant d'aborder plus précisément les questions plus philosophiques sur les limites et contre-limites de la connaissance et sur les doutes sur la réalité (que croire?).  Un article intermédiaire sur le chaos quantique (sujet plutôt difficile) servira de transition.


20:35 Écrit par pascal dans les limites de la connaissance | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook

6-3 Les limites de la connaissance 6-3) Réalisme et monde quantique ébauche d'analyse des implications ontologiques

Les limites de la connaissance 6-3) Réalisme et monde quantique

ébauche d'analyse des implications ontologiques. théories à variables cachées, non-séparabilité et le problème de la mesure.

 

www.math.polytechnique.fr/~paul/ceri.pdf (formalisme quantique).


mandala. formalisme quantique



 

Préambule

La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gödel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?

(Je voudrais ici faire partager ma lecture de Hervé Zwirn).


Les limites de la connaissance 6) Réalisme et monde quantique

6-3:ébauche d'analyse des implications ontologiques. théories à variables cachées, non-séparabilité et le problème de la mesure.


I) Principales étapes de l'article.

1) Ebauche d'analyse des implications ontologiques.

a) Le caractère abstrait du formalisme quantique est déroutant.

b) Signification de ces propriétés:

A) Disparition de la correspondance directe entre état et propriétés.

B) Indéterminisme.

C) Interférence des amplitudes de probabilité.

2) Les théories à variables cachées et la non-séparabilité.

a) La complétude de la mécanique quantique

b) Le paradoxe EPR.

c) la réponse de Bohr.

d) Les théories à variables cachées.

e) Le verdict expérimental: les inégalités de Bell.

3) Résumé et conclusions.

Toute théorie reproduisant les prédictions de la mécanique quantique doit donc être non locale et contextualiste.

le chat de Schrödinger



II) Contenu de l'article. 1) Ebauche d'analyse des implications ontologiques.


a) Résumé des propriétés quantiques.

Le caractère abstrait du formalisme quantique est déroutant. "Il consiste à établir une correspondance entre, d'une part, les systèmes physiques, les grandeurs attachées à ces systèmes et  les observations effectuées, et, d'autre part, des objets mathématiques et des équations portant sur ces objets, de telle sorte que, les résultats mathématiques obtenus, une fois retraduits en fonction de ce qu'ils représentent, reproduisent correctement les observations physiques. La justification du formalisme repose a posteriori sur son adéquation avec avec les résultats physiques qu'il prédit."

On ne doit pas chercher de compréhension intuitive physique directe des objets du formalisme quantique. L'état quantique d'un système est représenté par un vecteur appartenant à un espace vectoriel appelé "espace de Hilbert des états".Comme pour tout espace vectoriel, toute combinaison linéaire d'états possible est elle-même un état possible (c'est le principe de superposition).


A chaque grandeur physique (position, impulsion, énergie,spin...) attachée au système, est associé un opérateur qui agit sur les états possibles; il est appelé "une observable". Le principe de réduction du paquet d'ondes stipule que lorsqu'on mesure une observable A sur un système dans l'état |ψ>, on ne peut obtenir comme résultat que l'une des valeurs propres de l'observable A. Si celle-ci possède plusieurs valeurs propres distinctes, la probabilité d'obtenir une valeur propre donnée a est fonction de l'état initial |ψ>, et des états propres de A associés à a. C'est le carré du module de la projection de |ψ> sur le sous-espace propre engendré par les vecteurs propres de |ψ> associés à a. Après une mesure ayant donné a comme résultat, le système n'est plus dans l'état |ψ> mais il est projeté dans l'état propre associé à a:

Une observable est formalisée mathématiquement par un opérateur agissant sur les vecteurs d'un espace de Hilbert mathcal{H} (chaque état quantique étant représenté par un vecteur dans cet espace).

Le sens de cet opérateur observable est de donner la possibilité de décomposer un état quantique quelconque |psirangle (donc un vecteur quelconque de l'espace de Hilbert) en une combinaison linéaired'états propres, chacun de ces états étant un état possible résultant de l'opération de mesure.

Soient |alpha_irangle les vecteurs propres d'un opérateur hat{A} (éventuellement en nombre infini selon l'observable).

hat{A} Rightarrow |psirangle = c_1 |alpha_1rangle + c_2 |alpha_2rangle + .. + c_n |alpha_nrangle + ..

c_i = langlepsi|alpha_irangle étant le coefficient complexe de cette combinaison linéaire. (C'est une projection, produit scalaire dans l'espace de Hilbert).

Ce coefficient donne la probabilité pour qu'un état propre left| alpha_i rightrangle soit le résultat de la mesure d'un état quantique  |psirangle

P = {|langlepsi |alpha_irangle|}^2 (en supposant que left| psi rightrangle et left| alpha_irightrangle soient normés)

L'ensemble des vecteurs propres |alpha_irangle n'est autre que l'ensemble des résultats possibles de l'opération de mesure formalisée par l'observable.

Les états qui s'expriment avant la mesure sous la forme simple |phirangle = c_i |alpha_irangle sont appelés état propre ou état pur. En règle générale, un état quantique n'est pas pur et sont des états superposés, pour cette observable.

Un état peut être pur selon une observable donnée, et être superposé selon une autre observable. C'est d'ailleurs la raison fondamentale du principe d'incertitude d'Heisenberg : un état quantique qui est pur pour une observable (et qui possède donc une valeur précise pour cette observable), peut avoir tout un ensemble de valeurs possibles pour une autre observable.

Après l'opération de mesure, le système physique mesuré sera dans l'un des états propres définis par l'observable (postulat d'effondrement de la fonction d'onde).

La mesure d'une observable (ou d'un ensemble complet d'observables qui commutent) permet de connaître précisément l'état dans lequel est le système. En général, comme il n'est pas dans le même état avant et après la mesure, il est impossible de mesurer une grandeur sans perturber le système (sauf si celui-ci est déjà dans un état propre de l'observable mesurée). Quand on connaît avec précision la valeur d'une observable, la valeur des observables qui ne commutent pas avec elle n'est pas définie. En l'absence de mesure, l'état du système évolue de manière déterministe selon l'équation de Schrödinger.


b) Signification de ces propriétés:


A) Disparition de la correspondance directe entre état et propriétés.

L'état d'un système n'est plus, comme en mécanique classique, la liste exhaustive des valeurs possédées par les grandeurs physiques attachées au système. L'état quantique est déterminé par une mesure des valeurs simultanées d'un ensemble d'observables qui commutent (ce qui est possible car elle sont compatibles, elles commutent). Mais le prix à payer est que toutes les autres observables ne pourront plus être considérées comme ayant des valeurs définies lorsque le système est dans cet état (On pourrait objecter que que ce n'est pas parce que nous ne pouvons pas mesurer simultanément ces valeurs, qu'elles n'ont pas,  indépendamment de notre connaissance, une valeur définie. L'analyse des états superposés montre que la mécanique quantique orthodoxe n'autorise pas une telle interprétation. Certaines tentatives ont été faites dans ce sens, comme les théories à variables cachées). On pourrait se représenter les états quantiques comme des états classiques pour lesquels il serait impossible, par principe, de donner toutes les valeurs simultanément, mais même si l'état ne peut spécifier qu'une partie des propriétés, cette donnée est censée représenter la totalité des informations sur le système (en fait, il y a des propriétés d'interférence qui peuvent exister entre certaines composantes de l'état) . On dit que la mécanique quantique est "complète". Il ne faut pas penser que l'état "réel" du système est "lui" plus complet que l'état quantique qui ne peut "encapsuler" qu'une partie de cet état. L'état réel est l'état quantique et rien d'autre (ce qui a choqué Einstein). Il ne spécifie pas les valeurs de toutes les propriétés simultanément non parce qu'il est incomplet, mais parce qu'un état qui les spécifierait simultanément est physiquement impossible.

Prenons l'exemple des propriétés d'impulsion, position et spin. Ces 3 ,grandeurs sont des vecteurs déterminés par leurs 3 composantes suivant un système d'axes orthonormés Oxyz. A chaque projection sur un axe correspond une observable. La position est associée à aux 3 observables Rx,Ry,Rz, l'impulsion à Px,Py,Pz et le spin à Sx,Sy,Sz. Les 3 observables de position commutent. Il est donc possible de connaître les vecteurs position ou impulsion d'une particule. En revanche, les observables de spin ne commutent pas 2 à 2. Il est donc impossible de connaître simultanément la valeur du spin de la projection du spin sur deux axes distincts. Les observables De spin commutent toutes avec celles de position et d'impulsion, mais ces dernières ne commutent que lorsqu'elles sont en projection sur un axe différent (Rx et Py commutent, mais pas Rx et Px).

L'image classique de d'un système possédant de propriétés qui lui sont attachées indépendamment de toute mesure doit donc être abandonnée. Les propriétés n'ont pas de valeur en soi mais s'en voient attribuer une selon la mesure qu'on en fait. On doit en conclure que l'existence d'une propriété n'est plus un attribut de l'objet lui-même, mais de l'ensemble composé par l'objet et par l'appareil de mesure utilisé. On peut d'une certaine manière dire que c'est la mesure qui crée la propriété ou que la propriété n'est devenue qu'une simple potentialité. Le spin suivant Os devient une manière de parler de ce qui peut se produire lorsqu'on fait passer un électron dans un appareil de Stern et Gerlach. Initialement, c'est Bohr qui a mis en avant une telle manière de présenter la mesure.

Il existe cependant une échappatoire permettant de connaître partiellement la valeur de deux observables qui ne commutent pas. Si on se contente de le mesurer approximativement la position d'une particule, il est possible de connaître simultanément l'impulsion amis de manière approximative aussi. le précision qu'on est en droit d'attendre de ces mesures simultanées est limitée par les relations d'incertitude de Heisenberg qui stipulent que le produit des incertitudes sur deux mesures incompatibles est toujours supérieur à une certaine constante (h/4π dans la cas de la position et de l'impulsion). Dans le cas d'une précision infinie sur la position, l'impulsion ne sera plus définie du tout comme on vient de la voir pour la définition de l'état d'un système.

Dans le monde macroscopique, on a l'impression que qu'on peut toujours mesurer simultanément la position et la vitesse, l'imprécision des appareils de mesure entraîne toujours une certaine incertitude. Nous avons l'illusion que celle-ci peut être aussi réduite que nous voulons, mais nous sommes très loin des limites imposées par la mécanique quantique. Par exemple pour un grain de poussière de diamètre 1μ, de masse 10-15 kg, de vitesse 10-3 m/s, une mesure de position à  0,001 μ près engendrera une incertitude sur l'impulsion de 10-26 kg.m/s, soit une incertitude relative de 10-8, bien au-delà de la précision de nos appareils de mesure. Le fait d'attribuer aux objets des propriétés ayant des valeurs définies est une illusion due à la sensibilité limitée de nos appareils de mesure.


B) Indéterminisme.

Les prédictions de la mécanique quantique sont de nature probabiliste. Contrairement à la mécanique classique, il est impossible de prédire avec certitude le résultat d'une mesure même si on connaît précisément l'état initial du système. En mécanique classique, il existe une correspondance biunivoque stricte entre l'état du système et la valeur de ses propriétés. Connaitre l'état est rigoureusement équivalent à connaître la valeur des propriétés. En mécanique quantique, l'évolution de l'état du système est aussi déterministe, elle est régie par l'équation de Schrödinger.  La connaissance de l'état initial permet de prédire avec certitude les états ultérieurs du système tant qu'on n'effectue aucune mesure. Mais connaître l'état du système à un instant donné, ne suffit pas pour prédire la valeur de ses propriétés. La conséquence est que même si l'état évolue de manière déterministe entre les mesures, le résultat d'une mesure ne peut plus être prédit que de manière probabiliste.

Les prédictions de la mécanique quantique ont donc irréductiblement un caractère essentiellement probabiliste. La nécessité de se contenter de prédictions probabilistes était déjà apparu en mécanique classique dans la mécanique statistique et la thermodynamique. Les caractéristiques globales des gaz (température, pression), sont expliquées par les mouvements des molécules. La pression est due aux chocs des molécules sur les parois d'un récipient. La mécanique classique avec la loi des chocs permet en principe de calculer toutes les trajectoires. Ce n'est que la pratique (un litre de gaz comporte de l'ordre de 1022 molécules), qui ne permet pas de résoudre ni même d'exprimer le système. On en est donc réduit à se contenter de calculer des moyennes sur ces trajectoires à partir des probabilités. Mais il est admis que que chaque molécule possède à tout moment une vitesse et une position déterminées. Les probabilités permettent de d'effectuer des moyennes sur un grand nombre de molécules , moyennes qui représentent justement la pression ou la température du gaz. Elles permettent de reproduire les résultats de la thermodynamique qui, elle, obtenait ces résultats sans faire d'hypothèse sur la constitution interne du gaz. La mécanique statistique est donc une théorie probabiliste, mais la nature probabiliste de ce mécanisme est due à l'impossibilité matérielle de traiter trop d'informations à la fois, elle n'entraîne aucune conséquence ontologique sur le comportement des systèmes qu'elle étudie.

Par contre, la nature probabiliste de la mécanique quantique est toute différente. Ce n'est pas notre incapacité  à traiter trop d'informations à la fois ou notre méconnaissance des états précis  qui rendent nécessaire l'utilisation des probabilités, mais la nature des objets quantiques, il y a une conséquence ontologique sur cette nature. L'indéterminisme quantique est intrinsèque et résulte non pas de l'évolution des états (qui est déterministe) mais de la disparition de la correspondance directe entre un état et la valeur des propriétés du système dans cet état.


C) Interférence des amplitudes de probabilité.

Quelques rappels: L'état |ψ> d'un système ne peut plus être interprété comme la liste des valeurs possédées par l'ensemble des propriétés d'un système. On peut alors être tenté par se représenter un état quantique comme l'analogue d'un état classique pour lequel on s'interdit de donner des valeurs à toutes les valeurs simultanément. Mais cette représentation n'est pas bonne, car elle ne rend pas compte des capacités des composantes de l'état à interférer entre elles.

Résumé de l'expérience du passage de l'électron à travers des trous d'Young. |1> est l'état de l'électron qui est passé par le trou 1 (||2> pour le trou 2) (ou plutôt pour lequel une mesure a montré qu'il était passé par le trou 1). On peut dire que c'est cette mesure qui a précipité l'électron dans l'état |1>. Lorsqu'un appareil de mesure permettant de savoir par quel trou est passé chaque électron est en place, tout électron est soit dans l'état |1>, soit dans l'état |2>. Dans ce cas il n'y a pas d'interférence. Le principe de réduction du paquet d'ondes dit qu'une mesure de position sur l'écran d'un électron dans l'état |1> donnera le résultat x avec une probabilité égale au carré du module de la projection de |1> sur l'état |x>, état qui correspond à à un électron observé à la position x. Cette probabilité se note p1(x) = |<x|1>|² (produit scalaire dans le formalisme de la mécanique quantique). Cela donne une courbe de répartition des impacts présentant un maximum en face du trou 1, et de même pour l'état 2. Comme chaque électron arrivant sur l'écran est alors soit dans l'état 1, soit dans l'état 2,  la courbe finale sera la somme des deux courbes, courbe totale sans interférence correspond à la probabilité: p(x) = 1/2[p1(x)  +p2(x)] = 1/2[|<x|1>|² + |<x|2>|²].

Par contre, si on n'observe pas quel trou passent les électrons, ceux-ci arrivent dans l'état superposé 1/2[|1> + |2 >] (le facteur 2 et un facteur de normalisation).  Le principe de réduction du paquet d'ondes dit alors que la probabilité d'observer un impact à la position x est donné par:    [|<x|1>|² + |<x|A|²] + <1|x><x|2> + <2|x><x|1>]. Les deux termes supplémentaires (appelés termes croisés) sont ceux qui induisent la présence d'interférences entre les deux états |1> et |2> au sein de l'état superposé.

En conclusion, c'est le sens de la suggestion de Max Born pour l'interprétation qu'il convient de donner l'état |ψ> d'un système: c'est une amplitude de probabilité (La probabilité pour que , lors d'une mesure, on obtienne un résultat x et que le système soit projeté dans l'état propre associé à |x>, est égale au carré du module de la projection de l'état initial |ψ> sur l'état |x>. Si on note |Ψ(x)> la projection de |ψ> sur |x>, la probabilité d'obtenir x est alors |ψ(x) 2|).


En mécanique quantique ondulatoire, une amplitude de probabilité est une fonction à valeurs complexes associée à la probabilité de trouver le système dans un état particulier.

Soit une particule quantique. On la décrit par une fonction d'onde psi : mathbf{R}^3rightarrow mathbf{C}; cette fonction décrit l'état du système. Dans l'interprétation de Copenhague, l'interprétation majoritairement admise dans la communauté scientifique, on dit que les valeurs de ψ représentent des amplitudes de probabilité. Lors d'une mesure de la position d'une particule, la probabilité qu'elle soit dans un volume V est donnée par

int_V |psi(mathbf x)|^2,mathrm dmathbf x,

c'est-à-dire que | ψ | 2 représente la densité de probabilité de la position de la particule.

Cela confirme que l'état quantique ne représente plus la liste des valeurs possédées par les propriétés d'un système, mais un outil mathématique utilisé pour calculer les probabilités que les propriétés du système aient telle ou telle valeur. De plus, |Ψ> ne représente même pas directement une probabilité, c'est le carré de son module qui est une probabilité, c'est pour cela qu'on parle d'amplitude de probabilité. C'est ce qui a fait dire à Heisenberg: "La conception de la réalité objective des particules élémentaires s'est donc étrangement dissoute, non pas dans le brouillard d'une nouvelle conception de la réalité obscure ou mal comprise, mais dans la clarté transparente d'une mathématique qui ne représente plus le comportement de la particule élémentaire, mais la connaissance que nous en possédons."


2) Les théories à variables cachées et la non-séparabilité.


www.lilaluz.net

a) La complétude de la mécanique quantique.  Dès le début, l'abandon d'un grand nombre de caractéristiques propres à la physique classique provoqua l'opposition entre deux conceptions.  D'une part celle d'Einstein, Schrödinger et De Broglie qui restent attachés à un physique réaliste dans laquelle les objets ont une existence "en soi", des propriétés bien définies qui ne dépendent nullement du processus d'observation et tels qu'une prédiction non probabiliste des résultats reste, au moins en principe, possible. C'est le sens de la célèbre affirmation d'Einstein: "Dieu au moins, ne joue pas aux dés". Pour Einstein, puisque l'état quantique ne permet pas aux différentes propriétés d'un système de posséder des valeurs simultanément, alors que, selon lui, il va de soi que ces propriétés ont "en réalité" des valeurs définies, c'est que le formalisme quantique est incomplet. Une théorie , pour être complète doit avoir la propriété qu'à chaque élément de la réalité physique corresponde un élément de la théorie. La mécanique quantique, devrait donc se voir compléter par des éléments supplémentaires permettant de rétablir une connaissance précise de l'ensemble des propriétés d'un système: ce sont les variables cachées.

D'autre part, celle dite de "l'école de Copenhage", principalement défendue par Bohr et Heinsenberg. En gros, elle accepte les étrangetés telles quelles. L'interprétation de Copenhague consiste, pour résoudre un problème, à simplement appliquer les postulats de la mécanique quantique pour prédire le résultat. Même si le résultat est choquant pour l'intuition (paradoxe EPR), les adeptes de Copenhague considèrent que si la mécanique quantique a prédit correctement l'issue, elle se suffit à elle-même ; il n'est pas nécessaire d'introduire des variables cachées. Il n'y a pas non plus à tirer des conclusions sur la nature de l'univers : l'issue est contenue dans les postulats, il n'y a pas d'autre conclusion à en tirer. se poser des questions sur ce qui se passe "réellement" entre deux mesures n'est pas pertinent. seule importe la connaissance de ce qui est mesurable, le reste est dépourvu de sens. Cette pensée est à rapprocher de l'Empirisme, on peut la qualifier de d'instrumentaliste ou de positiviste. Elle se satisfait de l'efficacité prédictive de la théorie et va même jusqu'à décréter dépourvue de sens toute question qui ne se réfère pas à un phénomène observable.

Précédents historiques: Sans doute pour avoir la paix, Nicolas Copernic prit soin de deux choses : d’une part ne publier qu’à titre posthume, d’autre part mentionner que la relativité dont il parlait constituait avant tout un moyen commode de simplifier les calculs par rapport à la théorie des épicycles utilisée à son époque, sans chercher à se prononcer sur une quelconque réalité sous-jacente.
Cette considération de Copernic annonce déjà l’attitude qui sera plus tard celle de l’École de Copenhague en mécanique quantique : décrire, sans nécessairement prétendre expliquer, et s’en tenir aux faits observables. Hypotheses non fingo, dira Isaac Newton : « Je n’avance pas d’hypothèses », je constate juste pour le moment que les choses fonctionnent ainsi. Richard Feynman prend soin d’enseigner la mécanique quantique avec la même prudence dans son cours, tout en déplorant le côté frustrant et non satisfaisant pour l’esprit de la chose
.

Ce désaccord fondamental éclate violemment lors de la parution en 1935 d'un article d'Einstein, Podolski et Rosen (paradoxe EPR) qui suggèrent une expérience destinée à mettre en défaut le caractère de complétude de la mécanique quantique. Il est habituellement présenté sous une forme plus simple proposée par Bohm.


Le paradoxe EPR, abréviation de Einstein-Podolsky-Rosen, est une expérience de pensée, élaborée par Albert EinsteinBoris Podolsky et Nathan Rosen, dont le but premier était de réfuter l'interprétation de Copenhague de la physique quantique.

L'interprétation de Copenhague s'oppose à l'existence d'un quelconque état d'un système quantique avant toute mesure. En effet, il n'existe pas de preuve que cet état existe avant son observation et le supposer amène à certaines contradictions. Voir dans fr.wikipedia.org/wiki/Intrication_quantique Le caractère surprenant des états intriqués souligné par EinsteinPodolsky et Rosen dans leur article de 1935

(Voir aussi le très intéressant texte suivant: "Interprétation de la physique quantique : La physique quantique est-elle une théorie complète ? Philippe Cristofari, Frédéric Elie, Colette Garaventa. juin 1980")


Présentation du critère de réalité par Einstein: "Si, sans perturber le système en aucune manière, on peut prédire avec certitude la valeur d'une quantité physique qui s'y rapporte, alors il y a vraiment un élément de la réalité physique qui correspond à cette quantité."

(voir dans wikipedia:) Le "dispositif expérimental" (de pensée) proposé en 1935 est assez complexe, mais peut être décrit de manière plus simple sans en changer l'esprit.

Soit deux photons P1 et P2 intriqués (voir ci-dessus, intrication quantique) de manière à avoir un moment angulaire total égal à zéro (spins anti-corrélés ou état singulet). Les deux quantités physiques non-commutables utilisée dans le raisonnement sont : 1) Le spin mesuré selon une direction Sx 2) Le spin mesuré selon une autre direction Sz.

Si on mesure P1 selon Sx, alors - sans aucunement perturber P2 (on suppose le principe de localité) on connaît nécessairement la mesure de P2 selon cet axe (l'opposé).

De même, si on mesure P2 selon Sz, alors - sans aucunement perturber P1, on connaît nécessairement la mesure de P1 selon cet axe (l'opposé également).

Donc, la mesure de P1 selon un axe et de P2 selon l'autre permet de prédire avec certitude la valeur des deux quantités physiques. Ces deux quantités possèdent donc une réalité objective, et par conséquent 2) est faux et 1) est vrai.

Tel est le paradoxe formulé initialement par EPR.

Inégalités de Bell (source Wikipédia). Exemple de 2 particules 1 et 2 de spin 1/2 dans un état singulet et qui se séparent dans deux directions opposées.

Les résultats des mesures ne sont pas nécessairement identiques sur les deux particules. Par exemple, on peut mesurer le spin d'une des particules selon un certain angle et le spin de l'autre particule selon un autre angle.

Les résultats des mesures sont alors de nature statistique. Par exemple, la mesure du spin à l'aide d'un polariseur donne toujours un résultat tout ou rien. Ce que l'on obtiendra alors pour les deux mesures sont des statistiques de coïncidences : les deux mesures donnent un résultat identique dans X% des cas (et non 100% dans le cas de mesures identiques). Un grand nombre de mesures successives (sur un grand nombre de paires de particules) permet alors de calculer la corrélation entre ces mesures de spin sous des angles différents.

Si l'on se place dans l'hypothèse des théories locales déterministes à variables cachées, les inégalités de Bell donnent des relations auxquelles ces corrélations doivent obéir.

Nous allons démontrer ces inégalités dans un cas un peu plus simple que celui d'un angle quelconque afin de bien montrer l'origine du raisonnement.

Soit deux particules α et β dont le spin a trois composantes A, B et C. Les composantes peuvent prendre deux valeurs + et - (on omet le facteur 1/2). Pour chaque composante, nous noterons les valeurs A + , B − , etc. Les deux particules ont des spins opposés. Lorsque α a la composante A + , alors β a la composante A − , etc.

On mesure des paires de valeurs AB, AC et BC sur les deux particules. Le résultat des mesures est désigné par A + C − , etc.

Si l'état des particules est déterministe, décrit par des variables cachées, alors chaque particule a un spin parfaitement déterminé avec des composantes A, B et C précises. Même si les variables cachées ne sont pas connues avec exactitude, et donc le spin, il n'empêche que cette valeur précise existe.

Soit un ensemble de particules dans un état de spin donné pris dans un ensemble plus vaste, quelconque, de particules dans tous les états possibles. Par exemple est l'ensemble des particules avec ces composantes,  l'ensemble des particules avec ces composantes, ...

Alors nous aurons :

et

Ces relations découlent tout simplement de la théorie des ensembles. Donc:

Si  désigne le nombre de particules dans cet état, alors :

Maintenant, nous effectuons nos mesures sur deux particules de spins opposés et ces particules sont émises sous forme d'un flux de particules de spins quelconques. Nous en déduisons que :

où  est la probabilité de mesurer A + sur l'une des particules et B + sur l'autre.

C'est un exemple d'inégalité de Bell.

Dans le cas de la mesure du spin selon un angle quelconque, on n'utilise que deux composantes du spin et l'angle entre les composantes. Le calcul est un peu plus compliqué mais semblable. Le résultat est :

ou α, β et γ sont des angles donnés aux polariseurs et  est la fonction de corrélation pour ces deux angles (la corrélation peut être négative).

 

Dans le cas de la mécanique quantique, si l'angle du premier polariseur est α et l'angle du deuxième polariseur est β, alors le calcul (identique à la probabilité de mesurer le spin selon l'angle α alors que l'on sait que le spin a été mesuré selon l'angle β) donne :

Comme on mesure des coïncidences, la fonction de corrélation est alors donnée par :

On voit que les inégalités de Bell sont violées pour, par exemple, des angles égaux à  et .

L'expérience (par exemple celle d'Alain Aspect) a largement confirmé ces résultats et aussi que la loi de Malus était vérifiée sur des photons individuels.

 

Analyse du problème. Dans le formalisme quantique, un état singulet s'écrit: 1/2[ |A+>z |B->z - |A->z |B+>z]. (A et B étant les deux photons et leurs états correspondant à une valeur +/- 1/2 suivant Oz ). Supposons que le système soit initialement au repos et qu'à l'instant t = 0, il se désintègre. Chaque particule part dans un sens opposé (loi de la conservation de l'impulsion). Mesurons à l'instant t le spin de A suivant Oz. Si on trouve +1/2, une mesure de B suivant Oz devra donner -1/2 puisque le spin total est nul (conservation du moment cinétique), et vice versa. On peur donc prédire avec certitude quel sera le spin de B suivant Oz si on mesure celui de A, et ceci sans faire aucune mesure sur B qui peut être très éloigné de A au moment de cette mesure. Cela permet de penser que l'on n'a pas perturbé B. C'est donc que le spin de B suivant Oz a réellement cette valeur, et que, selon le critère proposé, un élément de réalité correspond à ce spin. Un mesure du spin aurait pu être faite suivant n'importe quel axe. La conclusion est que, contrairement à ce que prétend la mécanique quantique, le spin de B possède une valeur définie simultanément suivant tous les axes, c'est donc une théorie incomplète. Après la désintégration, et avant la mesure, le système est déjà dans un des deux états |A+>z |B->z - ou |A->z |B+>z. On a vu précédemment que l'état initial du singulet est 1/2[ |A+>z |B->z - |A->z |B+>z ]. Comment concilier ces deux aspects? Le système n'autorisant que des prédictions probabilistes, peut-on dire le système est composé de N2 systèmes dans l'état |A+>z |B->z et de n/2 systèmes dans l'état |A->z |B+>z? Comme on l'a déjà dit, ce n'est pas légitime présenter les choses ainsi pour l'état superposé du singulet. Nous semblons nous heurter à une contradiction.

Si on accepte l'argument d'Einstein, podolski et Rosen, il faut en conclure que le formalisme de la mécanique quantique est incomplet. De plus, pour sortir de la contradiction concernant l'état dans lequel se trouve le système total avant toute mesure, cet argument semble imposer une modification du formalisme: est-ce l'état singulet ou l'un des deux états de spin définis? Si au contraire, compte tenu de ses résultats jamais mis en défaut, on met en doute le fait que la mécanique quantique peut produire un résultat contradictoire, il faut identifier la faille.


c) la réponse de Bohr.

Ce dernier a fourni une réponse dès 1935: pour lui, on ne peut parler de l'existence d'un système et de ses propriétés indépendamment d'instruments de mesure susceptibles d'interagir avec lui. Une propriété physique n'appartient pas à un système microscopique, mais à l'ensemble constitué par le système et l'appareil de mesure. Ce n'est que par commodité de langage que nous attribuons la propriété mesurée au système lui-même. Bohr admet bien sûr que la mesure du spin n'affecte pas B de manière mécanique, par une quelconque perturbation physique au sens habituel, mais sa conclusion est beaucoup dévastatrice pour la conception intuitive: avant la mesure du spin, les deux particules A et B, bien que spatialement séparées par une distance éventuellement très grande, ne forment pas deux entités séparées. L'ensemble constitué par les deux particules est dans l'état singulet 1/2[ |A+>z |B->z - |A->z |B+>z ], mais ni la particule A ni la particule B ne possède individuellement d'état défini. Seul le système possède un état, cet état singulet. L'écart se creuse ici entre les états classiques et les états quantiques: un objet quantique peut n'être dans aucun état. Lorsque deux systèmes ont interagi, seul le système global est dans un état définiC'est ce qu'on appelle "la non-séparabilité" ou "l'inséparabilité quantique". Il est hors de question d'avoir une représentation intuitive ou imagée d'une telle propriété, elle est trop radicalement en dehors de notre expérience macroscopique.

La solution du paradoxe consiste donc à considérer qu'avant la mesure du spin de A, l'ensemble des deux particules est dans l'état singulet et qu'aucune des deux particules ne possède d'état défini. Lorsque la mesure est effectuée, A acquiert un état individuel qui peut être |A+>z ou |A->z et corrélativement B acquiert l'état |B->z ou |B+>z. Il n'y a plus de contradiction, mais en contrepartie, il faut admettre que la mesure du spin de A permet à B, qui peut être très éloigné, d'acquérir instantanément un état individuel (on ne viole pas le principe de relativité car il est possible de montrer qu'aucune énergie ni information ne peut être transmise de cette manière). Ce qui est encore plus étrange, c'est qu'il en est de même pour la position des 2 particules. A et B forment donc un tout inséparable avant toute mesure et sont séparés par la première mesure effectuée. On peut même se demander s'il convient de parler d'objet à propos de chacune des 2 particules tant que celles-ci n'ont pas été séparées par une mesure sur l'une d'entre elles.


d) Les théories à variables cachées.

Cet aspect contre-intuitif de la non-séparabilité n'a pas satisfait ceux des physiciens qui s'opposaient déjà à la mécanique quantique. Ils ont recherché des formalismes différents pour revenir à des comportements plus raisonnables des systèmes physiques avec le désir de rétablis le déterminisme (c'est le sens de la remarque d'Einstein). Mais l'accent a ensuite porté sur les aspects ontologiques. Le défi consiste à construire une théorie qui ne possède pas les propriétés indésirables de la mécanique quantique mais avec les contraintes de fournir les mêmes prédictions. L'idée initiale consiste à supposer que l'état quantique d'un système, qui ne fournit que des contraintes statistiques sur les résultats de mesure, représente une moyenne d'états individuels bien déterminés auxquels on peut associer des valeurs définies des grandeurs. L'état est alors complété par une ou plusieurs variables "cachées" dont la connaissance permettrait de prédire avec certitude la valeur de grandeurs mesurées.  Par exemple: si à un état |Ψ> du formalisme quantique orthodoxe prédit que la variable A peut être a1 avec la probabilité p1 ou a2 avec la probabilité p2, la théorie à variables cachées complétera la description de l'état du système en associant à |Ψ> une variable λ qui pourra valoir +1 ou -1. Si le système est dans l'état |Ψ, +1>, la mesure de A donnera obligatoirement la valeur a1, et si le système est dans l'état |Ψ, -1>, la mesure donnera obligatoirement la valeur a2. Le formalisme quantique n'utilisant que |Ψ> sera donc incomplet puisqu'il ignorera le fait qu'il est possible de donner une description plus fine de l'état. On rétablit ainsi le déterminisme car dans un tel état (dit "sans dispersion", la valeur de l'observable est définie précisément et la connaissance de l'état complet permet de prédire avec certitude le résultat de la mesure.

La thermodynamique donne en ce sens des prédictions qui sont des moyennes effectuées sur des états que la mécanique statistique spécifie complètement. Louis de Broglie pensait ainsi que la mécanique quantique est la thermodynamique de d'un milieu subquantique. Il a proposé une première théorie de ce type (à variables cachées) en utilisant la dualité onde-corpuscule et en proposant que toute particule soit accompagnée d'une onde qui la guiderait dans son trajet., appelée "théorie de l'onde pilote". Cette théorie donnait une explication simple de l'expérience des trous d'Young. Mais son aspect séduisant présente des difficultés: elle ne transporte aucune énergie mais peut cependant interagir avec l'électron qu'elle guide. De plus, elle ne peut décrire des systèmes de plusieurs particules. De Broglie l'a finalement abandonnée, mais elle fut développée sous un angle différent par David Bohm (Dans un prochain article, cette théorie sera reprise dans le cadre d'une analyse du problème de la mesure et des discussions ontologiques).

De son côté, Von Neumann a énoncé une preuve mathématique selon laquelle aucune théorie à variables cachées ne peut reproduire toutes les prédictions de la mécanique quantique. Elle a abouti à l'abandon de la recherche d'une telle théorie jusqu'à ce qu'on mette en évidence une faille dans son argument. Parmi ces théories, dans celles qu'on appelle "théories locales", les propriétés des systèmes sont déterminées par des facteurs qui ne dépendent pas d'entités éloignées du système lui-même peuvent fournir des prévisions globalement analogues à celles de la mécanique quantique à certaines exceptions près qui, en fait, ont permis de réfuter ces théories.


e) Le verdict expérimental: les inégalités de Bell.

L'expérience EPR était une "expérience de pensée" destinée à mettre en évidence des conséquences des conséquences du formalisme mais sans produire aucun effet expérimental testable. C'est Jonh Bell qui dans un célèbre article de 1964 amena la controverse sur le terrain expérimental. Il a montré que toute théorie qui suppose un "comportement local" et qui refuse la "non-séparabilité" est en désaccord avec le mécanique quantique concernant le résultat de certaines mesures corrélées. Ce désaccord est manifesté par une inégalité respectée par les théories locales et violée par la mécanique quantique. Le seule hypothèse faite par Bell est que la théorie en question vérifie le principe de causalité locale selon lequel, la probabilité d'évènements se produisant dans une certaine région de l'espace-temps n'est pas modifiée par un information se produisant dans une autre région  si ces deux régions sont séparées par un intervalle du genre espace (Aucun signal ne peut se propager de l'une à l'autre).


Inégalité de Bell (source wikipédia).

Reprenons l'exemple de deux particules 1 et 2 dans un état singulet, qui se séparent dans deux directions opposées. Les résultats des mesures ne sont pas nécessairement identiques sur les deux particules. Par exemple, on peut mesurer le spin d'une des particules selon un certain angle et le spin de l'autre particule selon un autre angle.

Les résultats des mesures sont alors de nature statistique. Par exemple, la mesure du spin à l'aide d'un polariseur donne toujours un résultat tout ou rien. Ce que l'on obtiendra alors pour les deux mesures sont des statistiques de coïncidences : les deux mesures donnent un résultat identique dans X% des cas (et non 100% dans le cas de mesures identiques). Un grand nombre de mesures successives (sur un grand nombre de paires de particules) permet alors de calculer la corrélation entre ces mesures de spin sous des angles différents.

Si l'on se place dans l'hypothèse des théories locales déterministes à variables cachées, les inégalités de Bell donnent des relations auxquelles ces corrélations doivent obéir.

Nous allons démontrer ces inégalités dans un cas un peu plus simple que celui d'un angle quelconque afin de bien montrer l'origine du raisonnement.

Soit deux particules α et β dont le spin a trois composantes A, B et C. Les composantes peuvent prendre deux valeurs + et -. Pour chaque composante, nous noterons les valeurs A + , B − , etc. Les deux particules ont des spins opposés. Lorsque α a la composante A + , alors β a la composante A − , etc.

On mesure des paires de valeurs AB, AC et BC sur les deux particules. Le résultat des mesures est désigné par A + C − , etc.

Si l'état des particules est déterministe, décrit par des variables cachées, alors chaque particule a un spin parfaitement déterminé avec des composantes A, B et C précises. Même si les variables cachées ne sont pas connues avec exactitude, et donc le spin, il n'empêche que cette valeur précise existe.

Soit un ensemble de particules dans un état de spin donné pris dans un ensemble plus vaste, quelconque, de particules dans tous les états possibles. Par exemple  est l'ensemble des particules avec ces composantes,  l'ensemble des particules avec ces composantes (pour une particule, il existe donc 8 états possibles), ... Alors nous aurons :

et

Ces relations découlent tout simplement de la théorie des ensembles. Donc :

Si  désigne le nombre de particules dans cet état, alors

Comme Il n'est pas possible de mesurer simultanément les composantes suivant les 2 axes du spin d'une particule et donc de tester directement cette inégalité, on peut l'écrire sous la forme n(A1+B2-) ≤ n(A1+C2-) +n(B1+C2+). Cette inégalité, elle, est testable puisqu'elle ne nécessite qu'une seule mesure de spin suivant B pour la particule 2.

Maintenant, nous effectuons nos mesures sur deux particules de spins opposés et ces particules sont émises sous forme d'un flux de particules de spins quelconques. Nous en déduisons que :

où  est la probabilité de mesurer A + sur l'une des particules et B + sur l'autre.

C'est un exemple d'inégalité de Bell.


Dans le cas de la mesure du spin selon un angle quelconque, on n'utilise que deux composantes du spin et l'angle entre les composantes. Le calcul est un peu plus compliqué mais semblable. Le résultat est :

où α, β et γ sont des angles donnés aux polariseurs et  est la fonction de corrélation pour ces deux angles (la corrélation peut être négative).

L'inégalité de Bell découle directement de l'hypothèse , respectée par les théories locales, selon laquelle une particule possède des composantes de spin simultanément définies suivant tous les axes. Or, il se trouve que la mécanique quantique prédit que pour certaines orientations des axes A, B, C, l'inégalité ne sera pas respectée. Dès 1972, des expériences furent menées, mais le montage était redoutablement complexe et l'inégalité ne put être testée directement. La plupart d'entre elles ont montré que l'inégalité est violée, mais jusqu'en 1982, il était encore possible aux partisans des théories à variables cachées de de faire appel à un argument pour sauver leurs conceptions: la direction de mesure était choisie suffisamment tôt pour permettre un éventuel échange d'informations entre les appareils. Il n'était donc pas impossible d'imaginer un hypothétique mécanisme par lequel, une fois toutes les directions de mesure choisies, une influence se propage d'un appareil à l'autre à une vitesse inférieure à celle de la lumière, informant l'appareil de mesure de la particule 1 de la direction choisie pour la mesure sur la particule 2. Cette possibilité a été définitivement écartée par les expériences menées par Alain Aspect (1980-1982)

(source wikipédia): En 1980, il manquait donc encore une expérience décisive vérifiant la réalité de l'état d'intrication quantique, sur la base de la violation des inégalités de Bell (rappel sur l'intrication quantique: L'intrication quantique est un phénomène qui a été pour la première fois mis en évidence par Erwin Schrödinger en 19351. La mécanique quantique stipule que deux systèmes quantiques différents (deux particules par exemple) ayant interagi, ou ayant une origine commune, ne peuvent pas être considérés comme deux systèmes indépendants. Dans le formalisme quantique, si le premier système possède un état |psirangle et le second un état |phirangle, alors le système intriqué résultant est représenté par une superposition quantique du produit tensoriel de ces deux états : |psirangle|phirangle. Dans cette notation, il apparaît nettement que l'éloignement physique des deux systèmes ne joue aucun rôle dans l'état d'intrication (car il n'apparaît aucune variable de position). L'état quantique intriqué reste identique — toutes choses étant égales par ailleurs — quel que soit l'éloignement des deux systèmes. Par conséquent, si une opération de mesure est effectuée sur ce système quantique intriqué, alors cette opération est valable pour les deux systèmes composant l'intricat : les résultats des mesures des deux systèmes sont corrélés.

Alain Aspect a spécifié son expérience pour qu'elle puisse être la plus décisive possible, c'est-à-dire :

Elle doit avoir une excellente source de particules intriquées, afin d'avoir un temps d'expérience court, et une violation la plus nette possible des inégalités de Bell.

Elle doit mettre en évidence non seulement qu'il existe des corrélations de mesure, mais aussi que ces corrélations sont bien dues à un effet quantique (et par conséquent à une influence instantanée), et non à un effet classique qui se propagerait à une vitesse inférieure ou égale à celle de la lumière entre les deux particules.

Le schéma expérimental doit être le plus proche possible du schéma utilisé par John Bell pour démontrer ses inégalités, afin que l'accord entre les résultats mesurés et prédits soit le plus significatif possible.

"Source wikipédia": Rappel du schéma « idéal » de John Bell

 

 

 

 

Le schéma ci-dessus représente le schéma de principe a partir duquel John Bell a démontré ses inégalités : une source de photons intriqués S émet simultanément deux photons ν1 et ν2 dont la polarisation est préparée de telle manière que le vecteur d'état de l'ensemble des deux photons soit :

Cette formule signifie tout simplement que les photons sont en état superposé : tous les deux en polarité verticale, ou tous deux en polarité horizontale, perpendiculaire, avec une probabilité égale.

Ces deux photons sont ensuite mesurés par deux polariseurs P1 et P2, chacun ayant un angle de mesure paramétrable α et β. Le résultat de la mesure de chaque polariseur est (+) ou (-) selon que la polarisation mesurée est respectivement parallèle ou perpendiculaire à l'angle de mesure du polariseur.

Il y a un point important à souligner ici : les polariseurs imaginés dans cette expérience idéale donnent un résultat mesurable dans le cas (+) ET dans le cas (-). Ce n'est pas le cas de tous les polariseurs réels : certains détectent le cas (+) par exemple, et ne détectent rien (le photon ne ressort pas du polariseur) pour le cas (-). Les premières expériences, relatées ci-dessus, utilisaient ce genre de polariseur. Les polariseurs utilisés par Alain Aspect détectent bien les deux cas (+) et (-), se rapprochant ainsi de l'expérience idéale.

Etant donné le dispositif et l'état de polarisation initial donné aux photons, la mécanique quantique permet de prédire les probabilités de mesurer (+,+), (-,-), (+,-) et (-,+) sur les polariseurs (P1,P2), orientés sur les angles (α,β) ; pour rappel :

On peut démontrer (voir article Inégalités de Bell) que la violation maximale des inégalités est prévue pour |α-β| = 22°5

 

Polariseurs à orientation variable et en position éloignée: Un point très important qui devait être testé par cette expérience est qu'il fallait s'assurer que les corrélations entre les mesures faites par P1 et P2 ne soient pas induites par des effets d'origine « classique », et notamment par des artefacts expérimentaux.

Par exemple, si l'on prépare les polariseurs P1 et P2 avec des angles fixes donnés α et β, on peut toujours imaginer que cet état fixe génère des corrélations parasites via des boucles de courant, de masse, ou autres effets. Car les deux polariseurs font partie d'une même installation et peuvent très bien être influencés l'un l'autre via les divers circuits du dispositif expérimental, et générer des corrélations lors de la mesure.

On peut également imaginer que l'orientation fixe des polariseurs influe, d'une manière ou d'une autre, sur l'état avec lequel le couple de photons est émis. Dans ce cas, les corrélations de mesure pourraient s'expliquer par des variables cachées au niveau des photons, dès l'émission. (Ces observations avaient été faites à Alain Aspect par John Bell lui-même).

Une manière incontestable de mettre hors de cause ce genre d'effets — quels qu'ils soient — est que l'orientation (α,β) des polariseurs soit déterminée au dernier moment (après l'émission des photons, et avant la détection) et qu'ils soient suffisamment éloignés l'un de l'autre pour qu'aucun signal n'aie le temps d'aller de l'un à l'autre.

De cette manière, on ne peut invoquer ni une influence de l'orientation des polariseurs au niveau de l'émission des photons (car lors de l'émission, l'orientation est encore indéterminée), ni une influence d'un polariseur sur l'autre (car les polariseurs sont trop éloignés l'un de l'autre pour pouvoir s'influencer).

En conséquence, dans le dispositif expérimental d'Aspect, les polariseurs P1 et P2 étaient séparés de 6m de part et d'autre de la source, et de 12m l'un de l'autre. Cela donnait un temps de 20ns entre l'émission des photons et la détection : c'est le laps de temps extrêmement court pendant lequel il fallait décider de l'orientation et orienter les polariseurs.

Comme il est physiquement impossible de changer matériellement l'orientation d'un polariseur dans ce laps de temps, deux polariseurs par côté ont été utilisés, pré-orientés différemment. Un « aiguillage » à très haute fréquence de basculement orientait aléatoirement le photon vers l'un ou l'autre de ces polariseurs. L'ensemble de ce dispositif était équivalent à un seul polariseur dont l'angle de polarisation bascule aléatoirement.

Comme il n'était pas possible non plus de provoquer le basculement des aiguillages par l'émission du couple de photons, chaque aiguillage basculait en fait périodiquement avec une période de 10ns, de manière asynchrone avec l'émission des photons. Mais étant donné la période, on était assuré que l'aiguillage bascule au moins une fois entre l'émission d'un photon et sa détection.

 

Le dispositif expérimental a été conçu pour que la direction de mesure de la particule 2 soit choisie à un moment où il est trop tard pour qu'un signal, même se propageant à la vitesse de la lumière puisse influence la mesure de la particule 1. Le verdict expérimental est sans appel: toute théorie à variables cachées locale est réfutée par l'expérience. La séparabilité, c'est à dire le fait qu'une mesure effectuée par un instrument sur une particule ne peut influencer le résultat d'une mesure faite par un autre instrument éloigné sur une particule ayant interagi avec la première, doit être abandonnée.


3) Résumé et conclusions.

Non séparabilité. Si une théorie est locale, les mesures de corrélation portant sur certaines de ses grandeurs doivent vérifier les inégalités de Bell. Les prédictions de la mécanique aboutissent à une violation de ces inégalités, or l'expérience montre que ces inégalités sont bien violées.

Deux positions sont alors possibles:

- Position des défenseurs des théories à variables cachées non locales: continuer à admettre que les propriétés d'un système peuvent être toutes simultanément définies, mais alors il faut accepter le fait que les propriétés d'une particule peuvent influencer instantanément celles d'une autre particule ayant interagi avec elle.

- Rejeter le fait que les propriétés d'un système sont simultanément définies et accepter le formalisme de la mécanique quantique.

Dans les deux cas, il est nécessaire d'admettre que certaines propriétés ou certains évènements peuvent s'influencer instantanément, quelle que soit la distance entre eux. Mais les théories à variables cachées locales (comme toutes les théories locales) sont de toute façon réfutées par l'expérience. Cette propriété est appelée "non-séparabilité" lorsque elle s'applique à la mécanique quantique et "non-localité" lorsqu'elle s'applique aux variables cachées non locales. En mécanique quantique, elle exprime que des systèmes qui ont interagi ne peuvent être indépendants tant qu'une mesure ne les a pas séparés, même s'ils sont à très grande distance l'un de l'autre (cas de l'état singulet) et aucun d'eux ne possède d'état individuel. Dans les théories à variables cachées on locales, on suppose au contraire que chaque particule possède des propriétés bien définies, mais qui ne sont pas indépendantes l'une de l'autre. la non-localité exprime donc ici la possibilité d'influences à distance instantanées de certaines propriétés sur d'autres (comme le dirait Michel Bitbol, la non-localité est une projection ontologique de la non-séparabilité).

 

Contextualisme. Un autre théorème important de limitation est celui de Kochen et Specker qui montre que toute théorie à variable s cachées déterministe compatible avec la mécanique quantique doit être contextualiste. Prenons un exemple. Soit un système physique S et 3 observables A, B, C telles que B et C sont compatibles avec A mais pas entre elles. Supposons qu'on mesure simultanément A et B ou A et C. Dans une théorie à variables cachées déterministe, on s'attend à ce que la mesure de A dépende de l'état global du système, mais pas du choix (B ou C) de l'autre observable mesurée, donc à ce que la mesure d'une observable ne dépende pas du contexte. Une telle théorie est appelée "non contextualiste". Comme le dit D'Espagnat, "Les conditions qui définissent les types de possibles de prédictions concernant le comportement futur des systèmes quantiques sont partie inhérente de la description de tout phénomène auquel la'expression "réalité physique" peut valablement être attachée". On retrouve ici la réfutation par Bohr du paradoxe EPR. Il suggérait seulement l'existence d'une influence sur les types de prédictions qu'on pouvait faire (position...). Ici l'influence sur les valeurs même des grandeurs dynamiques. Toute théorie reproduisant les prédictions de la mécanique quantique doit donc être non locale et contextualiste.On est alors loin de la motivation originelle qui a présidé à la construction des théories à variables cachées.


Dans le prochain article, nous reviendrons sur le problème de la mesure avec le rôle de la conscience et les différentes solutions qui y ont été apportées et les conséquences philosophiques.


20:18 Écrit par pascal dans les limites de la connaissance | Lien permanent | Commentaires (3) | |  del.icio.us | | Digg! Digg |  Facebook

6-2 Les limites de la connaissance 6-2) Réalisme et monde quantique éléments de physique quantique

 

Les limites de la connaissance 6-2) Réalisme et monde quantique

éléments de physique quantique


 

Dans cet article, ont été présentées les premières notions pour essayer d'appréhender le monde quantique. Dans le prochain article, nous verrons une ébauche d'analyse des implications ontologiques. Seront évoquées les théories à variables cachées et la non-séparabilité ainsi que le problème de la mesure.



 

Préambule

La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gödel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?

(Je voudrais ici faire partager ma lecture de Hervé Zwirn).


Les limites de la connaissance 6) Réalisme et monde quantique

6-2: éléments de physique quantique


1) Les systèmes et les états. L'état d'un système.


a) l'état en physique classique.

- Un système est un morceau de réalité, selon l'expression de David Ruelle, qu'on isole par la pensée. La description physique doit préciser les entités corps matériels, champs, etc...) et ses propriétés physiques qu'il faudra décrire et prédire, avec différents niveaux de précision (par exemple une boule en métal aimantée se déplaçant sur un billard, en considérant que la boule est assez petite pour être un point matériel et le champ magnétique trop faible pour influencer le mouvement). La représentation adoptée sera celle d'un point matériel M de masse m glissant sur une surface plane dont les seules propriétés considérées sont la position ou la vitesse à chaque instant. Ce qu'on cherche à décrire, c'est l'évolution des propriété physiques retenues comme faisant partie du système (la position et la vitesse de la boule...). La donnée des valeurs de chacune des grandeurs physiques appartenant à un système constitue "l'état " du système à cet instant. Cette notion d'état est fondamentale. En physique classique, il semble aller de soi qu'à tout instant un système est dans un état bien défini, les grandeurs physiques qui lui sont attachées possèdent des valeurs déterminées précisément. Un boule possède une position et une vitesse parfaitement définies, même si nous ne les connaissons pas. Il y  a une correspondance parfaite entre la boule réelle et sa description par la donnée de son état. On peut ainsi associer à la boule une trajectoire qui est l'ensemble de ses positions successives au cours du temps. Toute liste de valeurs ne représente pas forcément un état réel, deux nombres décrivant une position située en dehors du billard ne correspondent pas à un état possible (c'est un état descriptible en termes linguistiques) . Le modèle doit spécifier quelles contraintes pèsent sur sur ces valeurs et préciser comment elles varient.

Certains formalismes sont tels qu'en faisant la somme (éventuellement pondérée, on l'appelle alors une "combinaison linéaire") de deux états possibles, on obtient un nouvel état possible du système. Si E et E' sont deux états représentés respectivement par des listes de valeurs (x,y,....t) et (x',y',....t'), L'état E = E' est représenté par (x+x', y+y',...t+t'). Une combinaison linéaire est un somme pondérée de type aE + bE'. Elle correspond à la liste de valeurs (ax + bx', ay +by',...at +bt'). Si on assimile l'état du système, en tant que liste de nombre, à un vecteur, les états forment un espace vectoriel dit "espace des états".  Un exemple en électrostatique est l'état d'un ensemble de corps conducteurs à l'équilibre.

- En physique classique, on constate "un engagement ontologique" fort quant aux propriétés des systèmes physiques et aux états correspondants: à tout système peuvent être attachées des propriétés qui lui appartiennent en propre et qui prennent à tout moment des valeurs bien définies (vitesse, position, moment cinétique, température...).  De plus, elles sont simultanément définies et mesurables. Le fait de mesurer la valeur d'une de ces propriétés ne modifie en rien la valeur possédée par les autres propriétés et ne change pas l'état du système mesuré (Si on mesure la valeur d'une propriété qui stipule que la valeur de cette propriété est α, on est assuré de trouver α et réciproquement, si on a mesuré la valeur α pour une propriété, on est sûr que le système est dans un état qui correspond à cette valeur pour la propriété en question. A tout système correspond un état bien défini et réciproquement il est possible d'interpréter la liste des nombres entrant dans la description d'un état comme celles de l'état d'un système dont les propriétés à cet instant  ont les valeurs correspondantes. Ces valeurs peuvent ne pas être possibles pour le système, mais elles sont interprétables en termes de sens. Un état où la boule de billard est à l'extérieur du billard n'est pas possible, à cause des contraintes où elle est emprisonnée sur la table, mais un tel état est descriptible en termes linguistiques ).


Appareil de stern et gerlach

-En mécanique quantique, la situation est différente. Non seulement il existe des systèmes qui ne sont dans aucun état défini mais, de plus, certains états précis ne sont pas interprétables en termes linguistiques classiques.  Il n'est plus possible de considérer que les propriétés d'un système possèdent toutes simultanément des valeurs définies. Mesurer une propriété peut avoir comme conséquence de changer une autre propriété. Cela pose donc le problème de la signification qu'il faut accorder au concept d'état quantique et à celui de propriété possédée par un système.

L'état d'un système est quelquefois appelé sa fonction d'onde (cette dénomination provient de la mécanique ondulatoire de Schrödinger) left| Psi (t)rightrangle. Un des principes de la mécanique quantique qu'on appelle "le principe de superposition", stipule que toute combinaison linéaire d'états quantiques possibles du système est un état quantique possible du système. Il en résulte que les états quantiques forment un espace vectoriel qu'on appelle "espace de hilbert des états". Ce principe n'est pas accessoire mais il constitue un des fondements de la mécanique quantique. Certains états (on les appelle "états superposés") obtenus par combinaisons linéaires d'états donnés, bien que possibles selon la théorie ne sont pas interprétables en termes classiques (cela signifie qu'ils ne correspondent pas à des valeurs définies des grandeurs physiques concernées).


Vu son importance, ce principe est détaillé ci-dessous, il sera par la suite largement commenté.

En mécanique quantique, le principe de superposition stipule qu'un même état quantique peut possèder plusieurs valeurs pour une certaine quantitéobservable (spin, position, quantité de mouvement etc.)

Ce principe résulte du fait que l'état - quel qu'il soit - d'un système quantique (une particule, une paire de particules, un atome etc..) est représenté par un vecteur dans un espace vectoriel nommé espace de Hilbert (premier postulat de la mécanique quantique).

Comme tout vecteur de tout espace vectoriel, ce vecteur admet une décomposition en une combinaison linéaire de vecteurs selon une base donnée. Or, il se trouve qu'en mécanique quantique, une observable donnée (comme la position, la quantité de mouvement, le spin etc..) correspond à une base donnée de l'espace de Hilbert.

Par conséquent, si l'on s'intéresse à la position (par exemple) d'une particule, l'état de position doit être représenté comme une somme d'un nombre infini de vecteurs, chaque vecteur représentant une position précise dans l'espace. Le carré de la norme de chacun de ces vecteurs représente la probabilité de présence de la particule à une position donnée.

En notation bra-ket la superposition d'un état quantique |psirangle se note :

|psirangle = c_1 |alpha_1rangle + c_2 |alpha_2rangle + .. + c_n |alpha_nrangle + ..

ci étant le coefficient complexe de la combinaison linéaire, et |alpha_irangle les vecteurs de la base choisie (qui dépend de l'observable).

Cette combinaison linéaire est nommée état de superposition, car la particule peut être vue comme étant simultanément, avec des probabilités diverses, en plusieurs endroits. L'état de superposition s'applique de la même façon à toutes les autres observables imaginables : vitesse, spin, ... et même mort/vivant dans le cas du célèbre Chat de Schrödinger.

 

2) Le spin et les états superposés.

De façon générale, un objetpossède un spin s, s'il est invariant sous une rotation d'angle frac{2pi}{s},. Une étoile à cinq branches possède un spin 5 car il est suffisant de lui faire faire une rotation de frac{2pi}{5},

Le spin est une propriété des particules qui ne peut être décrite qu'en physique quantique. Intuitivement, on peut se représenter une particule comme une boule tournant sur elle-même. Le spin serait alors l'équivalent de son moment cinétique de rotation propre.

spin de l'électron

Cette notion a été historiquement proposée pour les électrons par Uhlenbeck et Goudsmit en 1925 pour rendre compte des spectres atomiques, notamment le dédoublement des raies spectrales du sodium. Elle s'est appliquée ensuite à toute particule quantique (proton, neutron, noyau, photon, ...). Très vite après son introduction, Pauli développa l'idée de spin en lui donnant une formulation algébrique. Il essaya surtout de se dégager de la représentation initiale qui en était faite, et qui perdure encore quand il s'agit de l'expliquer "qualitativement". En effet le spin est couramment présenté comme le moment cinétique propre d'un objet tournant sur lui-même comme les planètes ou les balles de tennis. Cette interprétation est très insuffisante pour expliquer nombre de phénomènes. Le spin est en fait une grandeur dont le sens n'apparaît clairement et naturellement que lorsqu'on se place dans le cadre de la mécanique quantique relativiste (Dirac en 1928, Wigner en 1939). Ceci implique que le spin est un "objet" purement quantique dont la compréhension physique reste, encore à l'heure actuelle, à compléter. Malgré cela, la réalité du spin est prouvée et il est surprenant que les règles le concernant soient relativement simples. En particulier, le spin est quantifié, c'est à dire, puisque c'est un vecteur, que ses projections sur un axe ne peuvent prendre que des valeurs particulières, entières ou demi-entières. Une particule de spin demi-entier est un fermion, une particule de spin entier est un boson.

C'est un peu comme une boule qui ne pourrait tourner sur elle-même qu'à des vitesses multiples de de 1 tour par seconde (1/2 tour/s pour les fermions). Elle pourrait ainsi tourner à 0,1,2 ou 10 tours/s mais pas à 2,3 tours/s. La projection sur un axe du spin d'un boson de spin entier ne peut prendre que les valeurs n,n-1,...0,-1,-2...-n et (n/2 pour des fermions). Il s'exprime en unités n = h/2π, h étant la constante de Planck.


La mesure de la projection sur un axe du spin d'un électron se fait au moyen d'un appareil de Stern et Gerlach (voir image en illustration du chapitre 1).

On fait passer l'électron dans un champ magnétique orienté selon l'axe voulu. Celui-ci est dévié vers le haut ou vers le bas selon que son spin est +1/2 ou -1/2. On observe son impact sur l'écran pour connaître la valeur de son spin selon l'axe considéré. Notons |+>z et |->z les états où la projection du spin suivant Oz est égal à +1/2 et -1/2. L'état de combinaison linéaire 1/2 [+>z + |->z ] est un état possible (combinaison linéaire). Cependant, il ne correspond à aucune valeur définie de la projection su spin suivant Oz. La théorie prédit que le résultat sera tantôt 1/2, tantôt -1/2, avec une répartition égale entre les deux valeurs. Plus généralement, une mesure du spin suivant Oz d'un électron dans l'état [Cosα |+>z + Sinα |->z ] donnera +1/2 avec une probabilité Cos²α et -1/2 avec la probabilité Sin²α. Cela signifie que si on considère un ensemble de N électrons, dans l'état en question et qu'on effectue une mesure de spin suivant Oz, on obtiendra en moyenne, NCos²α électrons dont le spin suivant Oz est 1/2 et NSin²α. dont le spin suivant Oz est -1/2.


La conclusion est que dans un tel état superposé, la projection du spin suivant Oz ne possède aucune valeur définie. On peut être tenté de de dire que la superposition ne serait que l'expression formelle du mélange de plusieurs états différents, mais dont chacun correspondrait à une valeur bien définie du spin. C'est inexact.

Considérons, d'un côté, un ensemble E de N électrons dans un état superposé, et de l'autre, un ensemble E' de N électrons dont un proportion Cos²α est dans l'état |+>z et une proportion Sin²α est dans l'état |->z. Si la superposition n'est qu'une manière formelle d'exprimer un mélange, les deux ensembles doivent être identiques et toutes les prédictions qu'on peut faire sur les deux ensembles doit coïncider. C'est bien le cas sur les mesures qui donnent 1/2 avec une proportion Cos²α et 1/2 avec une proportion Sin²α pour les 2 ensembles. En revanche, les prédictions concernant un autre axe, par exemple Ox, seront différentes. Une mesure suivant Ox sur l'ensemble E donnera comme résultat 1/2(Cosα + Sinα)² et -1/2(Cosα - Sinα)². Alors que la même mesure sur l'ensemble E' donnera 1/2 et -1/2 à égalité.

On peut montrer, de manière générale, qu'il est impossible de construire un mélange statistique d'électrons dont chacun est dans un état de spin défini suivant Oz et tel que les prédictions soient identiques pour ce mélange statistique et pour l'ensemble d'électrons dans l'état superposé correspondant. Il est donc impossible d'interpréter un ensemble de N électrons dans l'état superposé [Cosα |+>z + Sinα |->z ] comme un mélange d'électrons dont une partie serait dans l'état |+>z (et aurait un spin +1/2), et une partie dans l'état |->z (spin -1/2). Il en résulte que le spin suivant Oz d'un électron dans l'état superposé [Cosα |+>z + Sinα |->z ] ne peut être considéré comme possédant une valeur définie.


L'étrangeté de ce constat augmente encore si on raisonne sur la position de l'électron. Si |x> l'état d'un électron occupant la position x et |x'> celui d'un électron dans la position x', |x> +|x'> est aussi un état possible (principe de superposition).  Quelle position occupe un électron dans un tel état? La mécanique quantique répond: une fois sur 2 en x et une fois sur deux en x'. L'électron dans cet état n'occupe aucune position définie dans l'espace. Considérer qu'il est à la fois dans les 2 endroits ou qu'il est un peu dans chaque position n'a pas grand sens. On préfère considérer qu'un tel état quantique ne s'interprète pas en termes macroscopiques habituels. Les objets auxquels nous sommes habitués ne se trouvent jamais dans un état comparable. Réinterprétation de l'expérience des trous d'Young. On a vu que quand on éclaire les trous, on peut voir par lequel passent les électrons. Notons |1> l'état de l'électron qui correspond au passage de l'électron par le premier trou et |2> celui qui correspond au passage par le deuxième trou. |1> + |2> est un état possible de l'électron. Par quel trou est passé l'électron qui est dans ce état? Il est impossible d'interpréter l'état superposé comme correspondant à un électron qui est passé par un des trous. Cette indétermination est valable pour toutes les propriétés physiques du système.


3) Le principe de réduction du paquet d'ondes. La mesure quantique.

En mécanique classique, on suppose qu'il est toujours possible de mesurer la valeur d'une propriété sans perturber le système. Un mesure ne fait que constater la valeur et n'a aucune influence sur l'état du système. En mécanique quantique, il en va différemment.

Le processus de mesure est régi par le principe de réduction du paquet d'ondes (ainsi appelé en référence à la fonction d'onde du système). Il énonce quelles sont les valeurs qu'il est possible de trouver quand on mesure une propriété sur un système dans un état donné et quel sera l'état du système après la mesure, en fonction du résultat trouvé. De plus, en mécanique classique, les grandeurs observables sont des nombres ou des vecteurs (listes de nombres). Le formalisme quantique associe à chaque grandeur physique observable d'un système (position, impulsion, spin, énergie...) un opérateur appelé justement "une observable". Un opérateur est une fonction de l'espace des états dans lui-même qui fait correspondre à chaque vecteur d'état un autre vecteur d'état |psi rangle. On appelle vecteur propre d'un opérateur un vecteur tel que l'action de l'opérateur a pour effet de la multiplier par une constante. Si P est un opérateur et |psi rangle un vecteur d'état, |psi rangle sera un vecteur propre (ou "état propre"), Si |psi rangle = λ |psi rangle. La constante λ est appelée "valeur propre" associée au vecteur propre |psi rangle. Un opérateur a en général plusieurs valeurs propres.

Le principe de réduction du paquet d'ondes stipule que:

a) Mesure d'une observable A: les seuls résultats qu'on peut trouver sont les valeurs propres de A.

b) Si on trouve la valeur propre a comme résultat de la mesure, le système se trouvera après le mesure dans l'état propre de A correspondant à la valeur propre a.

c) La probabilité de trouver la valeur propre a comme résultat de la mesure = carré d'un nombre qui s'obtient à partir de l'état initial et des états propres de l'observable A.

Commentaires:

a) Pour le spin, seules les valeurs +1/2 et -1/2 (valeurs propres de l'observable associée au spin de l'électron suivant une axe) sont possibles. Dans le cas où on mesure l'énergie d'un système et où l'observable associée le "hamiltonien",  a des valeurs propres discrètes, le système ne pourra posséder que certaines énergies bien définies, c'est l'origine de la quantification de l'énergie.

c) Dans le cas le plus général où l'observable possède plusieurs valeurs propres distinctes, il n'est pas possible de prévoir avec certitude le résultat de la mesure. La mécanique quantique ne fournit que la probabilité de tel ou tel résultat, la prédiction est non déterministe, de nature probabiliste.


4) Les observables incompatibles.


En général, appliquer à un vecteur d'état l'opérateur A, suivi de l'opérateur B n'est pas équivalent à lui appliquer d'abord B, puis A. cela signifie que qu'en général AB n'est pas égal à BA (AB BA). Lorsque AB = BA, on dit que les opérateurs commutent. Or, le formalisme quantique implique qu'il n'est pas possible de connaître simultanément la valeur de deux grandeurs physiques d'un système lorsque les observables associées ne commutent pas. En effet, il n'est possible de connaître la valeur d'une grandeur physique qu'en la mesurant. Considérons alors le système dans un état |psirangle. On peut commencer par mesurer A. Le principe de réduction dit que le résultat peut être une des valeurs propres associées à A. Mais li on a obtenu a comme résultat, l'état du système ne sera plus |psirangle mais deviendra l'état propre associé à a. Si on mesure maintenant B, on peut obtenir comme résultat l'une quelconque des valeurs propres associées de B. Supposons que nous ayons obtenu b. Le système se retrouve alors, après les deux mesures faites dans cet ordre, dans l'état propre associé à b.


On pourrait penser qu'on connaît  simultanément la valeur de A et celle de B: a et b. Pour s'en assurer, il devrait suffire de refaire une mesure de A. On remarque d'abord que le résultat de la mesure ne peut donner que l'une des valeurs propres de l'observable mesurée et que la probabilité d'obtenir une valeur propre dépend de l'état initial et des états propres de l'observable. On n'est donc assuré d'obtenir comme résultat un valeur propre donnée que si l'état initial dans lequel se trouve le système est l'état propre correspondant à cette valeur. Si on effectue 2 fois de suite une mesure de l'observable A, on obtiendra bien deux fois la même valeur puisque le système sera projeté dans l'état propre correspondant et cette deuxième mesure ne pourra que donner le même résultat, ce qui permet d'ailleurs de donner un sens au fait qu'on a mesuré A. Dans le cas où on a fait la mesure de B en second, une nouvelle mesure de B donnera bien le résultat b. Mais si dans ce cas on fait une nouvelle mesure de A, (et si les observables ne commutent pas), l'état propre de B associé à la valeur b dans lequel se trouve le système après la mesure ayant donné cette valeur b est tel que la probabilité d'obtenir une valeur de A différente de a n'est pas nulle (car cet état propre de B n'est pas un état propre de A). Il n'est donc pas légitime d'affirmer que A possède la valeur A, la mesure de B ayant perturbé le système. Il est impossible d'affirmer que A possède une valeur définie.

 


Résultats: Etat propre avant la mesure Mesure     Résultat      Etat propre après la mesure

1                |ψ > A              a                 |a>    [A vaut a]

2               |a>  [A vaut a]                                  A              a                 |a>    [A vaut toujours a]

3               |a>  [A vaut a]                                  B              b                 |b>    [B vaut b]

4               |b>  [B vaut b, A ne vaut plus a]        A             a'a              |a'>   [A vaut a']

On a un résultat similaire au spin. Dans le cas du spin, le fait que la valeur du spin suivant Oz n'est pas définie quand l'électron est dans l'état superposé n'est que la manifestation du fait que dans cet état, l'électron a un spin bien défini suivant l'axe Oi et qu'il est impossible qu'il ait

simultanément une valeur définie suivant Oz puisque les observables associées au spin suivant Oz et suivant Oi ne commutent pas. Il en est de même pour les observables position et vitesse d'une particule.



Le principe de réduction du paquet d'ondes dit comment évolue évolue l'état d'un système lorsqu'on effectue une mesure sur ce système. Mais l'état d'un système évolue en fonction du temps, même lorsqu'aucune mesure n'est effectuée sur lui. Cette loi d'évolution est une équation différentielle, "l'équation de Schrödinger" qui s'écrit en notation moderne (définition wikipedia)

L'état à l'instant t d'un système est décrit par un élément left| Psi (t)rightrangle de l'espace complexe de Hilbert (avec la notation bra-ket de Paul Diracleft| Psi (t)rightrangle représente les densités probabilités de résultats de toutes les mesures possibles d'un système.

L'évolution temporelle de left| Psi (t)rightrangle est décrite par l'équation de Schrödinger :

 

 

 

 

frac{hat{vec{mathbf{p}}}^2}{2m}left| Psi (t)rightrangle + V(hat{vec{mathbf{r}}},t)left| Psi (t) rightrangle=i hbar {dover dt} left| Psi (t) rightrangle

 

 

Contrairement aux équations de Maxwell gérant l'évolution des ondes électromagnétiques, l'équation de Schrödinger est non relativiste. Cette équation est un postulat. Elle a été supposée correcte après que Davisson et Germer eurent confirmé expérimentalement l'hypothèse de Louis de Broglie.

 

Sa résolution permet en principe de calculer l'état du système au temps t lorsque l'état initial est |Ψ>. Comme on l'a vu dans l'article sur le chaos déterministe, l'évolution régie par une équation différentielle implique que celle-ci soit déterministe: si on connaît l'état initial, on peut prédire avec certitude l'état à un instant ultérieur.


Dans cet article, ont été présentées les premières notions pour essayer d'appréhender le monde quantique. Dans le prochain article, nous verrons une ébauche d'analyse des implications ontologiques. Seront évoquées les théories à variables cachées et la non-séparabilité ainsi que le problème de la mesure.

20:15 Écrit par pascal dans les limites de la connaissance | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook

6-1 Les limites de la connaissance 6-1) Réalisme et monde quantique: introduction

Les limites de la connaissance 6) Réalisme et monde quantique

6-1: introduction

 

Une réflexion sue le vif à propos de cet article: je pense que cette complémentarité que la physique quantique nous a révélé représente l'aboutissement de la "fin des certitudes" dans la pensée humaine, un retour à la complémentarité corps-esprit (Jésus n'a-t-il pas dit "rend à César ce qui est à César et à Dieu ce qui est à Dieu").

Nietzsche a écrit "Dieu est mort"... La désacralisation semble être "accomplie", le matérialisme se croît triomphant en ce début de "l'ère du Verseau". Rien n'est moins sûr. La précipitation des évènements mondiaux et personnels, l'augmentation de la violence et de l'absurde montrent peut-être que la complémentarité dont parle Bohr n'est pas bien assimilée et comprise???


le chat de Schrödinger

 

l'énergie du vide

le laser.

 

 

 

Préambule

La science nous permettra-t-elle un jour de tout savoir? Ne rêve-t-elle pas d'une formule qui explique tout? N'y aurait-il rien qui entrave sa marche triomphale? Le monde deviendra-t-il transparent à l'intelligence humaine? Tout mystère pourra-il être à jamais dissipé?


Hervé Zwirn pense qu'il n'en n'est rien.La science, en même temps qu'elle progresse à pas de géant marque elle même ses limites. C'est ce que montre la découverte des propositions indécidables qui ont suivi le théorème de Gôdel. Ou celle des propriétés surprenantes du chaos déterministe. Ou encore les paradoxes de la théorie quantique qui ont opposé Einstein et Bohr en mettant en cause toute notre manière de penser.

L'analyse de ces limites que la science découvre à sa propre connaissance conduit à poser une question plus profonde: qu'est ce que le réel?


Exergue:

"Comme Popper l'a remarqué, nos théories sont des filets que nous construisons pour attraper le monde. Nous ferions mieux de d'accepter le fait que la mécanique quantique a fait surgir un poisson plutôt étrange." Redhead (1987).

1) Les limites de la physique classique.

Dans l'article sur le chaos déterministe nous avons vu que le paradigme de la mathématisation possible de la nature doit être revu. Quels que soient les moyens théoriques ou techniques dont on disposera, quel que soit le temps qu'on acceptera de passer sur une prédiction, il existera toujours un horizon temporel infranchissable dans les prédictions. Cet horizon est variable selon la nature du système et les limites de principe dans la précision qu'on peut obtenir sur les conditions initiales mais il est fini dans tous les cas. L'univers ne peut plus être considéré comme une grande machine dont il est possible de prévoir le comportement au moyen de formules mathématiques, même complexes. L'équivalence entre déterminisme et prédictibilité est morte.

 

La mécanique classique rencontre, par ailleurs, un autre type de limitation lié à son champ d'application. Il faut en effet lui substituer la théorie de la Relativité restreinte lorsque les vitesses ne sont plus négligeables devant la vitesse de la lumière (c = 300 000 km/s) ou de la Relativité générale dès que les champs de gravitation deviennent intenses. Toutes deux ont été découvertes par Einstein.

Mais de plus, le champ d'application de la mécanique classique est limité aux objets de taille macroscopique. Dès qu'on s'intéresse aux objets dont la dimension est de l'ordre des dimensions atomiques (typiquement 10-10 m), la mécanique classique doit être remplacée par la mécanique quantique. Son efficacité est remarquable pour décrire le comportement des phénomènes subatomiques (électrons, protons, neutrons...). Elle explique la couleur des corps, le fonctionnement des semi-conducteurs, les propriétés des métaux, les niveaux d'énergie des atomes, la superfluidité...Aucun phénomène physique n'a nécessité sa révision. Mais c'est théorie étrange qui a soulevé de nombreuses questions d'interprétation qui ne sont pas toutes entièrement résolues, malgré les progrès de ces dernières années. Elle nous force à reconsidérer entièrement beaucoup d'idées intuitives que nous avons sur les propriétés des objets, sur les rapports entre l'observateur et le phénomène observé, sur le déterminisme et elle nous conduit à modifier radicalement la conception du monde qu'on pourrait légitimement construire à partir de la mécanique classique.

Quels que soient les problèmes soulevés, il s'agit toujours de problèmes d'interprétation du formalisme et jamais de problèmes d'application. Elle fonctionne remarquablement bien et c'est une des théories les plus précises qui ait été jamais été construites. L'interprétation du formalisme a conduit à des conséquences philosophiques qui semblaient contraires au bon sens ou à l'intuition. Bien que les débats ne soient pas tous clos, on peut considérer aujourd'hui que nous comprenons mieux ce qui est compréhensible en elle, et avons appris à ne pas chercher à comprendre (au sens de ramener à une image familière) ce qui ne l'est pas.




2) Premier contact: La nature et le comportement de la lumière et de la matière.


2-1) un problème insoluble en physique classique: "la catastrophe ultraviolette".

La catastrophe ultraviolette, formulée dans la seconde moitié du xixe siècle et ainsi nommée par le physicien autrichien Paul Ehrenfest, est une prédiction contre-factuelle des théories classiques de la physique — électromagnétisme et physique statistique : uncorps noir à l'équilibre thermodynamique est censé rayonner un flux infini. Plus précisément, l'énergie rayonnée par bande de longueur d'onde doit tendre vers l'infini quand la longueur d'onde tend vers zéro, « dans l'ultraviolet » pour les physiciens de l'époque, puisque ni les rayons X ni les rayons gamma n'étaient alors connus.

Cette anomalie montra l'échec des théories classiques de la physique dans certains domaines et constitua une des motivations pour la conception de la physique quantique : en 1900Max Planck en jeta les prémisses, permettant de résoudre le problème du rayonnement du corps noir avec sa loi de Planck.

Un corps noir est modélisé par une cavité contenant de l'énergie sous forme d'un champ électromagnétique. En raison des conditions aux limites, le champ prend la forme d'une onde stationnaire admettant un ensemble discret de modes. Par exemple, les modes horizontaux d'une boîte ne peuvent avoir pour fréquence que

,nu = nc/L

où L est la longueur de la boîte, n un entier naturel non nul quelconque et c la vitesse de la lumière.

Ci-dessous: illustration des conditions aux limites en dimensions 1 et image des modes propres discrets possibles (voir aussi les articles Corde vibrante et Onde stationnaire)

Standing wave.gif

Harmonic partials on strings.svg

En électromagnétisme, on montre plus généralement que le nombre de modes par unité de fréquence de la cavité est proportionnelle au carré de la fréquence :

,frac{mathrm{d}N}{mathrm{d}nu} propto nu^2.

En appliquant le théorème d'équipartition de l'énergie, chaque mode doit contenir une énergie kT/2, où k est la constante de Boltzmann et T la température du système. Il en résulte que l'énergie par unité de fréquence suit la loi de Rayleigh-Jeans :

frac{mathrm{d}E}{mathrm{d}nu} propto Tnu^2.

Ainsi l'énergie par unité de fréquence tend vers l'infini lorsque la fréquence tend vers l'infini et l'énergie totale est infinie.

Planck obtint pour la première fois un bon accord théorie/expérience en supposant que l'énergie électromagnétique, au lieu d'être continue comme dans la théorie classique, ne peut prendre que des valeurs discrètes multiples de h c/ λ, où c est la vitesse de la lumière dans le vide : c = 299.792.458 m.s-1, et h, la constante de Planck, vaut h = 6,625 × 10-34 J.s.

Ce qui n'était alors qu'un « artifice de calcul » permet de trouver une formule qui correspond à l'expérience, la loi de Planck :

Cette formule, comme on pourrait s'y attendre, redonne la formule classique si on fait tendre h vers zéro, c'est-à-dire si on considère l'énergie électromagnétique comme continue.

C'est Einstein, qui, le premier, pour expliquer l'effet photoélectrique, considéra ce quanta de Planck comme réel. En fait, l'avènement de la physique quantique a donné un sens à cet « artifice de calcul » des premiers temps, et la raison de la quantification de l'énergie est maintenant comprise.

2-2) la double nature de la matière et de la lumière.


a) Savoir de quoi est constituée la lumière est une question que les hommes se sont toujours posée. Pythagore et Platon avaient chacun une théorie. Dans la première moitié du XIXe siècle, deux conceptions s'opposaient. La position dominante, celle de Huyghens, développée par Fresnel et Young stipulait que la lumière est faite d'ondes transversales de propageant à travers un milieu élastique , l'éther. La deuxième, anciennement avancée par Newton, était une conception corpusculaire. Dans la conception ondulatoire, la lumière se propageait plus rapidement dans l'air que dans l'eau, alors que c'était l'inverse pour la conception corpusculaire.   En 1850, Foucault réfuta l'hypothèse corpusculaire par une comparaison des vitesses. Par la suite, la notion d'éther fut remplacée par Maxwell et Hertz par celle d'ondes électromagnétiques transversales, mais ils continuèrent à admettre que la lumière était un phénomène ondulatoire.

 

fentes d'Young

- Les interférences: un argument en faveur de la nature ondulatoire. Les fentes de Young (ou interférences de Young) désignent en physique une expérience qui consiste à faire interférer deux faisceaux de lumière issus d'une même source, en les faisant passer par deux petits trous percés dans un plan opaque. Cette expérience fut réalisée pour la première fois par Thomas Young en 1801 et a permis de comprendre le comportement et la nature de la lumière. Sur un écran disposé en face des fentes de Young, on observe un motif de diffraction qui est une zone où s'alternent des franges sombres et illuminées.

Cette expérience permet alors de mettre en évidence la nature ondulatoire de la lumière. Depuis, Elle a été également réalisée avec de la matière, comme les électronsneutronsatomesmolécules, avec lesquels on observe aussi des interférences. Cela illustre la dualité onde-particule qu'on évoquera par la suite: les interférences montrent que la matière présente un comportement ondulatoire, mais la façon dont ils sont détectés (impact sur un écran) montre leur comportement particulaire.

Des expériences similaires aux fentes de Young impliquant des électrons ont été réalisées. En 1961, Claus Jönsson à Tübingen produisait des interférences avec un fil d'araignée métallisé séparant un faisceau d'électrons en deux. Une expérience semblable, avec un fil d'araignée métallisé, était réalisée en 1956 par Faget et Fert à l'université de Toulouse. En 1989, Tonomura et al. ont envoyé un électron sur un biprisme à électrons. Ils ont observé la figure d'interférence prédite par la théorie.

 

 

Pour les interférences, l'explication est simple si on suppose que la lumière est composée d'ondes sinusoïdales qui peuvent suivre deux trajets différents: la distance parcourue n'est donc pas la même et selon le point d'arrivée, les rayons peuvent arriver en phase (la différence des longueurs des trajets est un multiple de la longueur d'onde), ou pas. Dans le premier cas, les rayons s'ajoutent donnant un point clair, dans le deuxième cas ils se retranchent, aboutissant à un point sombre. Une mesure de l'écartement des franges permet d'en déduire la longueur d'onde. Cette expérience est un argument fort en faveur de la nature ondulatoire de la lumière, car elle en fournit une explication naturelle.


b) L'effet photoélectrique: un argument en faveur de de la nature corpusculaire.

Il a été découvert en 1887 par Heinrich Rudolf Hertz qui en publia les résultats dans la revuescientifique Annalen der Physik[2].

Albert Einstein fut le premier à en proposer une explication, en utilisant le concept de particule de lumière ou quantum, appelé aujourd'hui photon, initialement introduit par Max Planck dans le cadre de l'explication qu'il proposa lui-même pour l'émission du corps noir.

Albert Einstein a expliqué qu'il était provoqué par l'absorption de photons, les quantum de lumière, lors de l'interaction du matériau avec la lumière.

L'effet photoélectrique est l'émission d'électrons par un matériau, généralement métallique lorsque celui-ci est exposé à la lumière ou un rayonnement électromagnétique de fréquencesuffisamment élevée, qui dépend du matériau.

Dans l'effet photoélectrique, on éclaire une plaque de métal et celle-ci émet des électrons. Les électrons ne sont émis que si la fréquence de la lumière est suffisamment élevée (la fréquence limite dépend du matériau), alors que leur nombre, qui détermine l'intensité du courant, est proportionnel à l'intensité de la source lumineuse.

Cet effet ne peut être expliqué de manière satisfaisante lorsque l'on considère que la lumière est une onde, la théorie acceptée à l'époque, qui permet d'expliquer la plupart des phénomènes dans lesquels la lumière intervient, tel l'optique, et qui était traduite mathématiquement par la théorie de James Clerk Maxwell.

En effet, si l'on considère la lumière comme une onde, en augmentant son intensité, on devrait pouvoir fournir suffisamment d'énergie au matériau pour en libérer les électrons. L'expérience montre que l'intensité lumineuse n'est pas le seul paramètre, et que le transfert d'énergie provoquant la libération des électrons ne peut se faire qu'à partir d'une certaine fréquence.

L'effet photoélectrique, l'onde électromagnétique incidente éjecte les électron du matériau

L'effet photoélectrique, l'onde électromagnétique incidente éjecte les électron du matériau

L'interprétation de Einstein, l'absorption d'un photon, permettait d'expliquer parfaitement toutes les caractéristiques de ce phénomène. Les photons de la source lumineuse possèdent une énergiecaractéristique déterminée par la fréquence de la lumière. Lorsqu'un électron du matériau absorbe un photon et que l'énergie de celui-ci est suffisante, l'électron est éjecté; sinon l'électron ne peut s'échapper du matériau. Comme augmenter l'intensité de la source lumineuse ne change pas l'énergie des photons mais seulement leur nombre, on comprend aisément que l'énergie des électrons émis par le matériau ne dépend pas de l'intensité de la source lumineuse

 

Cette proposition est révolutionnaire, car elle signifie à une conception corpusculaire de la matière, qui semblait pourtant avoir été réfutée.


c) Le comportement ondulatoire de la matière.

L'effet photoélectrique n'est compréhensible que si la lumière est composé de particules, les photons. Mais, l'expérience des franges ne l'est que si la lumière est une onde. On est donc confronté à deux expériences cruciales donnant des résultats incompatibles. Louis de Broglie, en 1923, fit une hypothèse audacieuse, sachant que la relativité montre que la masse est une forme d'énergie (E=mc2) et que l'énergie peut être reliée à la fréquence.

"Mon idée essentielle était d’étendre à toutes les particules la coexistence des ondes et des corpuscules découverte par Einstein en 1905 dans le cas de la lumière et des photons. » « À toute particule matérielle de masse m et de vitesse v doit être "associée" une onde réelle » reliée à la quantité de mouvement par la relation :


lambda = frac{h}{p} = frac {h}{{m}{v}} sqrt{1 - frac{v^2}{c^2}}

Cette théorie posait les bases de la mécanique ondulatoire. Elle fut soutenue par Einstein, confirmée par les expériences de diffraction des électrons de Davisson et Germer, et surtout généralisée par les travaux de Schrödinger. où λ est la longueur d'ondeh la constante de Planckp la quantité de mouvementm la masse au reposv sa vitesse et c la célérité de la lumière dans le vide.

Cela permet de calculer la fréquence associée à une masse m: v = mc2/h. La prédiction que la matière se comporte de matière ondulatoire paraissait insensée à l'époque (et encore maintenant?), tant il est évident que tout dans notre expérience prouve le contraire. la confirmation vint en 1927 quand Davisson et Germer observèrent  pour la première fois des figures de diffraction de faisceaux d'électrons avec un fréquence correspondant exactement à celle prévue par De Broglie. La symétrie entre ondes et corpuscules était rétablie; la lumière, comme la matière, manifestaient un comportement tantôt ondulatoire, tantôt corpusculaire.


Historique: La théorie en cours à l'époque pour expliquer l'atome était celle de Bohr (1913). Ce modèle est un complément du modèle planétaire d'Ernest Rutherford qui décrit l'atome d'hydrogène comme un noyau massif et chargé positivement, autour duquel se déplace un électron chargé négativement.Le problème posé par ce modèle est que l'électron, charge électrique accélérée, devrait selon la physique classique, rayonner de l'énergie et donc finir par s'écraser sur le noyau.

Niels Bohr propose d'ajouter deux contraintes :

  1. L'électron ne rayonne aucune énergie lorsqu'il se trouve sur une orbite stable (ou orbite stationnaire). Ces orbites stables sont différenciées, quantifiées. Ce sont les seules orbites sur lesquelles l'électron peut tourner.
  2. L'électron ne rayonne ou n'absorbe de l'énergie que lors d'un changement d'orbite.

Pour commodité de lecture, les orbites possibles de l'électron sont représentées dans la littérature comme des cercles de diamètres quantifiés. Dans le modèle quantique, il n'existe en fait pas de position ni de vitesse précise d'un électron, et il ne peut donc parcourir un « cercle » ; son orbitale peut en revanche être parfois sphérique.


C'est en 1926, avec la mécanique ondulatoire par Schrödinger et celle de la mécanique des matrices par Heisenberg, Born et Pascual Jordan, que que naît la mécanique quantique. Les deux formalismes seront ensuite intégrés par Paul Dirac la version actuellement en vigueur. Abandonnons à ce stade l'aspect historique pour examiner le comportement quantique.


e) Le comportement quantique.

L'objet qui servira d'exemple est l'électron, mais les comportements seront les mêmes pour tous les objets quantiques.

 

e-1)Interprétation classique du phénomène pour la lumière.

Schéma de principe des fentes de Young.

Illustration de l'apparition de franges d'interférences.

Dans l'expérience de Young, on utilise une source lumineuse S monochromatique1 et on interpose une plaque percée de 2 fentes. Celles-ci se comportent comme des sources secondaires S1 et S2. On observe alors, sur un écran placé derrière, des franges alternativement sombres et claires : les ondes issues de S1 et S2 interfèrent entre elles.

Considérons maintenant un point M situé sur l'écran. Il est éclairé par les ondes lumineuses émises par S1 et S2 qui peuvent s'écrire respectivement, au point M :

 E_1 = E_0 cdot sin (omega cdot t)

 E_2 = E_0 cdot sin (omega cdot t -Deltavarphi) ,

où E0 est l'amplitude2, ω la pulsation des ondes, Δφ leur déphasage et t le temps.

Δφ caractérise le fait qu'une onde a un certain retard par rapport à l'autre. En effet, pour arriver au point M, le chemin à parcourir n'est pas de la même longueur pour la lumière qui provient d'une source ou de l'autre.

Si Δφ est un multiple de 2π, les ondes s'ajoutent et on obtient une frange lumineuse sur l'écran, ce que l'on appelle une interférence constructive. En revanche si Δφ est un multiple impair de π alors les ondes s'annulent et on obtient une frange sombre sur l'écran, c'est alors une interférence destructive. Cela explique pourquoi on observe, sur l'écran, des franges successivement claires et sombres. Mais il n'y a pas, a priori, de formule simple permettant de décrire ces franges. Pour simplifier le problème, il est possible de supposer que l'écran est placé loin des fentes.

e-2) Le comportement quantique des électrons.

On reprend l'expérience faite avec des photons (lumière), mais avec une source ponctuelle d'électrons, vers une plaque comportant deux trous A et B. On peut imaginer qu'on place sur la deuxième plaque des détecteurs régulièrement espacés autour de la position centrale et qui font entendre un petit clic quand ils reçoivent un électron. Faisons l'expérience en bouchant le trou A et en laissant le trou B ouvert. On constate que les électrons arrivent bien un par un car jamais deux détecteurs ne cliquent en même temps. Si on attend suffisamment longtemps, on obtient la courbe de la figure du bas qui donne la répartition du nombre d'électrons reçus en fonction de la position (figure d'interférence). On observe un maximum en face du trou B. L'expérience symétrique (laisser le trou A ouvert et boucher le trou B) donne un résultat analogue, mais avec un maximum en face du trou A.

Ouvrons maintenant les deux trous simultanément: on  s'attend à ce que la courbe soit la somme des deux courbes précédentes. En effet, les électrons passent ou bien par A, ou bien par B, donc en tout point de la plaque. Le nombre d'électrons qui parviennent à la plaque est  la somme de ceux qui sont passés par A et de ceux qui sont passés par B. Les premiers vont construire la courbe présentant un maximum en face du trou A les seconds la courbe présentant un maximum en face du trou B. Le dispositif est symétrique, il y aura en moyenne autant d'électrons passant par chaque trou et la courbe totale sera bien donnée par la somme des deux courbes.

Mais, surprise! la courbe obtenue n'est pas du tout la somme des deux courbes à laquelle nous nous attendons, elle est identique à celle qui donne l'intensité lumineuse dans le cas de l'expérience avec des photons. On observe l'équivalent de franges d'interférences. Or, ces dernières sont la signature d'un comportement ondulatoire. Une tentative d'explication serait que les électrons, dont certains passent par le trou A et d'autres par le trou B, interagissent de telle manière que les chocs conduisent à ce qu'ils ne puissent arriver que dans certaines alternées de l'écran. Une telle théorie, certes complexe, est possible. Elle a été testée en réduisant progressivement l'intensité du faisceau jusqu'à être assuré que les électrons sont émis un par un avec un intervalle de temps suffisant entre chaque émission.Il devrait y avoir disparition des franges d'interférence.


Emission des électrons un par un:

 

 

Les franges d'interférence se constituent petit à petit

L'expérience de Young a par la suite été affinée, notamment faisant en sorte que la source S émette un quantum à la fois. Par exemple, on peut à l'heure actuelle émettre des photons ou des électrons un par un. Ceux-ci sont détectés un par un sur l'écran placé après les fentes de Young : on observe alors que ces impacts forment petit à petit la figure d'interférences. Selon des lois classiques concernant les trajectoires de ces corpuscules, il est impossible d'interpréter ce phénomène.

L'interprétation quantique du phénomène est la suivante (voir chapitre suivant: quelques éléments de mécanique quantique): le quantum émis prend un état superposé lors du franchissement de la plaque : |quantum passe par S1> + |quantum passe par S2> (voir Notation bra-ket). De la fonction d'onde résultante, on peut déterminer pour chaque point de la plaque la probabilité que le quantum y soit détecté. On peut démontrer que la distribution des probabilités suit la figure d'interférence. Autrement dit, le quantum passerait par les deux fentes à la fois, et interfèrerait avec lui-même.

Densité de probabilité d'un électron au passage des deux fentes

La figure ci-contre montre l'évolution de la fonction d'onde d'un électron au passage des deux fentes. Les niveaux de gris représentent la densité de probabilité de présence de l'électron. La taille réelle de l'électron est en fait bien plus petite que sa zone de probabilité de présence (en forme de cercle) initiale. On voit nettement que l'électron "interfère avec lui-même": les franges d'interférences sont bien visibles aux sorties des deux fentes (l'électron possède aussi une certaine probabilité de "rebondir" et de former également une figure d'interférence vers l'arrière).




Destruction de la figure d'interférence: éclairons maintenant les trous pour voir à travers lequel passe chaque électron. Problème de la mesure.

Ce n'est donc pas le choc des électrons qui les guide au bon endroit, mais on pourrait se dire qu'il suffit de regarder, électron par électron comment se fait-il que l'électron (ou le photon) interfère avec lui-même?  Quand un électron passe par le trou A, on verra un éclair proche du trou et symétriquement pour le trou B. Si un électron se coupe en deux, on observera deux éclairs simultanés. Que voit-on? On constate que chaque électron passe par un trou et un seul et que jamais un électron ne s'est coupé en deux (on n'observe jamais deux éclairs simultanés).  On peut même retracer, électron par électron par quel trou s'est fait le passage. On ne voit alors pas comment le résultat pourrait être différent de la somme des deux courbes correspondant chacune au bouchage d'un trou. Chaque électron est bien passé par un trou ou par un autre, nous l'avons vu. En effet, la courbe est bien conforme à ce que nous attendons, elle est la somme des deux courbes! Le fait d'avoir modifié le dispositif a changé le résultat et les franges d'interférence ont disparu. Les électrons se comportent dans ce cas comme des particules.

Destruction de la figure d'interférence

Le résultat net de l'expérience est qu'on détecte bien que le photon passe soit dans la fente de droite, soit dans la fente de gauche, mais alors la figure d'interférence disparait : le photon n'est plus dans un état superposé suite à la mesure. La détection du photon dans l'une des fentes provoque un "effondrement de la fonction d'onde" et de l'état superposé. Autrement dit, toute tentative de savoir de quel côté le quantum est passé ne permet plus d'obtenir des interférences.

L'expérience de Young permet donc également de mettre en évidence le problème de la mesure quantique. Ce problème est que les lois quantiques ne prévoient pas directement cet effondrement, et qu'il n'existe donc pas de définition objective et rigoureuse de ce qu'est une "mesure" (voir traitement complet de ce problème dans les articles Chat de Schrödinger et Problème de la mesure quantique).

Exemple de fullerène, aussi appelé « footballène »

A l'heure actuelle, des développements sur le sujet permettent de réaliser des expériences très similaires sur des objets de plus en plus volumineux, comme les atomes, les molécules, les condensats de Bose-Einstein.

En particulier, on a observé des interférences avec des molécules de fullerène.3 Ces expériences démontrent que la vision purement corpusculaire de la matière n'est pas satisfaisante avec des objets de plus en plus gros, d'où la question récurrente de la dualité onde-corpuscule en physique quantique.

 




2-3) En conclusion de ce chapitre 2 on peut dire que cette expérience renferme l'essentiel du mystère du comportement quantique.

Les électrons se comportent tantôt comme des ondes, tantôt comme des particules. C'est ce que Bohr appelait la "complémentarité". Cela ne dit pas être entendu comme la complémentarité de deux aspects coexistant, comme le serait, par exemple la description d'un cylindre par ses projections circulaires et rectangulaires. Elle implique une exclusion, chaque aspect se manifestant au détriment de l'autre. Aucun objet habituel ne se comporte de cette manière. Comme le dit Feymann: "On peut se demander comment ça marche vraiment. Quel est le mécanisme en oeuvre en réalité? Personne ne connaît aucun mécanisme. Personne ne peut vous donner de ce phénomène une explication plus profonde que la mienne - c'est à dire une simple description."


Pour Bohr: "De même que le concept de relativité exprime que tout phénomène physique dépend essentiellement du système de référence qui sert à l'encadrer dans l'espace et le temps, de même le concept de Complémentarité est un symbole de la limitation, fondamentale, en physique atomique, de notre représentation habituelle de phénomènes indépendants des moyens d'observation".


 

En 1927 Bohr précise:
" en d'autres domaines de la connaissance nous rencontrons des situations rappelant ce que nous connaissons en physique quantique...
Ainsi l'intégrité des organismes vivants et les caractéristiques de la conscience des individus autant que celle des cultures humaines présentent des traits d'un tout, qui impliquent pour en rendre compte un mode de description complémentaire"

Bohr se réfère souvent à Möller un psychologue-philosophe qui écrit à propos d'un étudiant cherchant en vain un emploi :

" Mes spéculations sans fin m'interdisent d'arriver à quoi que ce soit. Qui plus est j'en viens à penser à ma propre pensée de la situation où je me trouve. Et même je pense que j'y pense et je me scinde en une suite infiniment régressive de "moi" qui se scrutent les uns les autres. Je ne sais sur quel moi me fixer, comme étant le moi effectif et de fait au moment même de m'arrêter à l'un d'eux il est encore un autre moi qui s'y arrête. Je m'y perds, et j'en ai le vertige, comme à plonger du regard dans un abîme insondable et je retire de mes méditations une migraine abominable..."

 


 

Bohr se réfère également aux travaux  de James ( psychologue) qui définit lui aussi un concept de complémentarité:

" ...chez certaines personnes la conscience globlale susceptible d'exister peut éventuellement se scinder en parties qui coexistent tout en restant dans l'ignorance mutuelles les unes par rapport aux autres...et se répartissent entre elles les objets de connaissance.
Accorder un objet à l'une des consciences c'est par là même le soustraire à l'autre ou aux autres. Si l'on excepte un certain fond commun comme la capacité d'user du langage etc...ce dont le moi supér
ieur a connaissance le moi intérieur reste ignorant et vice versa"

 


 

Oppenheimer généralisera:

" La compréhension de la complémentarité de la vie consciente et de son interprétation physique me parait un élément permanent de l'intelligence humaine et l'expression exacte des vieilles conceptions connues sous le nom de parallélisme psychophysique...
Car la vie consciente et ses relations avec la description du monde physique offrent encore bien d'autres exemples
relation entre les faces intellectives et affectives de nos vies...entre la connaissance ou l'analyse et l'émotion ou le sentiment...
relation entre l'esthétique et l'héroïque...entre le sentiment et l'obligation morale qui précède et définit l'action...
relation entre classique entre l'auto-analyse, la détermination de ses mobiles et de ses fins personnels et ce libre arbitre cette liberté de décision et d'action qui lui sont complémentaires...

Être affecté par la crainte ou la gaieté, être ému par la beauté, prendre un engagement ou une détermination, comprendre quelque vérité autant de modes complémentaires de l'esprit humain...
Tous sont partie intégrante de la vie spirituelle de l'homme...
aucun ne peut remplacer les autres... et lorsque l'on fait appel à l'un les autres sont en sommeil...

La fécondité et la diversité de la physique, celles plus considérables de l'ensemble des sciences de la nature, la richesse plus familière mais encore étrange et infiniment plus grande de la vie de l'esprit humain, accrues par des moyens complémentaires, non immédiatement compatibles et irréductibles l'un à l'autre sont plus qu' harmonieuses,
elles sont éléments de la peine de l'homme et de sa splendeur, de sa débilité et de sa puissance, de sa mort, de son existence éphémère et de ses immortels exploits..."


 

 

Le philosophe et scientifique Lupasco va plus loin...
pour lui le problème vient que l'homme reste marqué par la la logique classique marquée par la notion d'objet et par le principe de non contradiction...

Or cette logique binaire n'arrive pas à rendre compte de l'infinie diversité du Réel...
pour lui l'antagonisme est à la base de tout...
et l'univers est par nature contradictoire...
Pour lui le comportement quantique est fondamental... car au fond des choses dans la mesure où il est la loi des phénomènes microscopiques à la base de l'Univers...

Il refuse la logique classique du oui ou du non, pour lui seule une logique du tiers inclus peut rendre compte de la réalité
Actualisation- Potentialisation- état t ...
l'actualisation est ce que l'on mesure...
la potentialisation ce qui existe... et qui n'est pas pris en compte
t l'équilibre entre les deux... l'état auquel on doit arriver

Nicolescu ( physicien)  introduit dans le schéma précédent la notion de niveau de Réalité ... qu'il ne faut pas confondre avec le niveau de représentation des choses ou d'organisation.
le niveau de réalité correspond à des systèmes qui restent invariants sous l'action d'une loi: exemples l'échelle des particules, l'échelle de l'homme  ou encore l'échelle des planètes
ainsi ce qui est contradictoire à un niveau 1 ( onde-corpuscule, séparabilité-non-séparabilité) peut être unifié au niveau 2 avec l'état t ( comme le montre le triangle ci dessous...
unification par le haut en quelque sorte...)


 

En conclusion, je pense que cette complémentarité représente l'aboutissement de la "fin des certitudes" dans la pensée humaine, un retour à la complémentarité corps-esprit (Jésus n'a-t-il pas dit "rend à César ce qui est à César et à Dieu ce qui est à Dieu").

Nietzsche a écrit "Dieu est mort"... La désacralisation semble être "accomplie", le matérialisme se croît triomphant en ce début de "l'ère du Verseau". Rien n'est moins sûr. La précipitation des évènements mondiaux et personnels, l'augmentation de la violence et de l'absurde montrent peut-être que la complémentarité dont parle Bohr n'est pas bien assimilée et comprise???


Prochain article: Les limites de la connaissance 6) Réalisme et monde quantique

6-2: éléments de physique quantique

19:37 Écrit par pascal dans les limites de la connaissance | Lien permanent | Commentaires (11) | |  del.icio.us | | Digg! Digg |  Facebook

12/12/2011

3-2 Au commencement du temps 3 -2) 1979-1830 Le film de l'Univers vu à l'envers deuxième étape

Au commencement du temps 3 -2) 1979-1830

Le film de l'Univers vu à l'envers  deuxième étape



.

Dans ces articles, je voudrais approfondir ma réflexion sur "le visage de Dieu" écrit par les frère Bogdanov et celle de mon article dans mon blog de reflexions à travers le livre de Igor et Grichka Bogdanov: "Au commencement du temps".

Ils me permettent de faire un saut dans l'histoire via les blogs et le articles que je déniche sur la toile, d'affiner mes connaissance sur la science et la recherche de l'Origine. Je trouve plaisir et jubilarion à partager.

 

 

Mes articles déjà parus dans cette rubrique:

Voir aussi à la fin de cet article les blogs trouvés en faisant des recherches sur internet.

 

Neil Armstrong

 

 

Le film de l'Univers remonté à l'envers vu par les frères Bogdanov (et moi dans ce blog, par ma lecture).

Faites-un-saut-dans-le-passé



 

1) Rappel des article précédents: Remonter le temps?

Remonter le temps? 3-1) 2009-1979 le film du temps vu à l'envers étape 1. Pour commencer le voyage: un rocher sur la ligne d'univers.

Remonter le temps? On le fait souvent en se remémorant une date, un évènement ou en expliquant ce qui s'est passé à un moment déterminé de notre vie, à un moment de l'Histoire...Mais imaginer comment je pourrais voir le monde en revenant en arrière progressivement depuis 2009 est inhabituel et semble assez difficile à réaliser, même dans l'imaginaire. Mais je trouve cette idée fascinante. Alors, avec les frères Bogdanov, imaginons que nous sommes à Paris, quelque part au pied de le tour Eiffel...

C'est là que va commencer le voyage fantastique. L'Univers existe depuis 137 millions de siècles (100 millions de milliards de secondes, ce qui semble peu face aux 3 milliards de secondes de durée moyenne d'une vie humaine). En fait, tous les éléments de l'Univers, jusqu'au moindre détail est inscrit dans le passé, le long de ce que les physiciens appellent une "ligne d'Univers" . la ligne d'univers, cette belle expression introduite par Einstein, désigne la trajectoire d'un objet lorsqu'il voyage à travers l'espace-temps en 4 dimensionsOn peut aussi parler du cône d'UniversLa topologie du cône de lumière trouve son origine dans les relations d'antériorité et postériorité des évènements relativistes, ce qui permet de faire la distinction entre un évènement dans le passé d'un autre ou dans le futur de celui-ci. De ce point de vue, une voiture, par exemple, possède sa ligne d'Univers, bien à elle, et totalement unique: à chaque instant, elle s'est trouvée "quelque part", dans l'espace et dans le temps, et, en un certain sens, cela reste vrai à l'échelle de l'Univers entier. Pour remonter dans le passé, nous allons rebrousser chemin le long de notre ligne d'Univers, un peu comme si nous revenions en arrière sur une route.

 


 

 

 

 

 

 

 

 

 

 

 

 

 


Le temps se remet à défiler de plus en plus vite, 1979, 1976 1975, 1972. Tiens, l'année de naissance de mon fils! E nous voici dans les années 1960: la disparition de tout ce qui fait notre monde au début du troisième millénaire se fait de plus en plus sentir. C'était l'époque de mes vingt ans. Sa musique et les Beatles sont restés dans la légende avec la nostalgie d'une radio du même nom.

 

Les années 60 et les Beatles

 


Eté 1969, une femme encore jeune traverse la rue, un gros paquet de "France-Soir" sous le bras. Nous avons du mal à reconnaître la très vieille marchande de journaux croisée 40 ans plus tard dans cette jeune femme au visage non maquillé qui rayonne de couleurs et d'énergie. Elle tend le journal sans remarquer que la pièce de un euro que nous lui donnons en échange n'existera qu'un demi siècle plus tard. Sur le titre du journal, on peut lire: "on a marché sur la lune", c'est le 21 juillet 1969. La photographie inoubliable de Neil Armstrong avec le reflet du drapeau américain sur la visière de son casque a fait la une de tous les journaux. Comment un tel exploit a-t-il été possible alors que l'ordinateur de bord du module d'exploitation lunaire, le LEM, qui réussit à se poser six fois sur à la surface de la lune, disposait seulement de 4 kb de RAM et de 74 kb de "disque dur", une capacité bien inférieure à celle du plus petit de nos smartphones. (Faut-il regretter que le programme constellation qui devait permettre d'aller sur la lune a été abandonné en 2010).

Avril 1964. Ce soir-là, une averse de printemps s'abat sur le Trocadéro. Au milieu des passante qui se pressent, on voit sur un journal tombé à terre: "Deux savants américains écoutent le souffle du cosmos". Il s'agit d'une découverte qui vaudra, en 1978, le prix Nobel à Arno Penzias et Robert Wilson, deux physiciens américains aujourd'hui mondialement connus. En 1964, ils ne sont encore que deux étudiants chercheurs. Grâce une banale antenne d'écoute installée sur le toit de leur laboratoire (ils travaillaient pour Bell Labs), ces deux jeunes chercheurs ont réussi à capter, par hasard (?), la signature omniprésente du fameux "rayonnement fossile" la relique cosmologique" de "l'explosion originelle". (à voir: cours gratuit d'astronomie: le "rayonnement fossile"). On dit qu'ils avaient d'abord cru que leur antenne ait été "perturbée par des fientes de pigeons"Robert Dicke et Jim Peebles l'avaient eux aussi observé quelques jours auparavant. C'était une des preuves les plus solides en faveur du Big Bang.

 

 

Ce soir là, en avril 1964 on peut voir aussi Roland Barthes qui vient de mettre la dernière main à son ouvrage La Tour Eiffel qui sera publié quelques semaines plus tard. J'écoute les frères Bogdanov évoquer l'accueil qu'il leur a fait dans les années 70 dans le petit séminaire de l'école des hautes études en sciences sociales. Il était vaguement plus jeune, plus détaché que le Barthes qu'ils connaîtront plus tard, celui de la campagne à Urt... En 1964, il ne les connaissait pas encore. Fumant un cigare, il griffonne quelques notes à l'encre bleue sur son carnet (son stylo, dont il se séparait jamais à l'Ecole des hautes études), est moins complexe, moins "informé"). Il écrit peut-être cette phrase qu'on retrouvera un peu plus tard dans son livre: "Regard, objet, symbole, la Tour est tout ce que l'homme met en elle, et tout ce qui est infini...à travers la Tour, les hommes exercent cette grande fonction de l'imaginaire, qui est leur liberté, puisqu'aucune histoire, si sombre soit-elle, n'a jamais pu le leur enlever".

L'hiver 63-62, (la météo hivernale), puis 1962, Le 25 septembre:

L'été se prolonge. Nous sommes en terrasse de Carette, le salon de thé déjà celèbre depuis des décennies. Madame Carette en personne surveille la bonne marche de sa maison qu'on retrouve telle quelle en 2011. En contrebas, le Trocadéro, la Tour Eiffel, le Pont d'Iéna, le Champ de Mars sont noirs de monde. Joseph Kessel, perché au premier étage de la Tour, annonce à la foule l'arrivée imminente d'Edith Piaf. Un grand gala est organisé au Palais de Chaillot pour la première mondiale du film"le jour le plus long. Ce sera le dernier concert d'Edith Piaf, elle mourra un an plus tard.

Dans ce Paris de 1962, le monde se simplifie de plus en plus et diminue en quantité d'informations: le volume de l'infosphère est  de 1,2 exbytes, il évolue lentement dans la mesure où il représente la totalité des informations stockées sur papier (livres imprimés...) mais il ne contient plus que 0,15 exabytes d'informations nouvelles.


Replongée dans les brumes du passé: les années cinquante... et ses longues voitures décapotables, ses filles aux robes aux couleurs vives.


1959: C'est l'été, une belle journée de juin, l'air semble tellement plus pur, plus respirable qu'en 2009. La Tour fête son 35 millionième visiteur, un petit garçon de 10 ans et demie, à qui René Le Grain-Eiffel, petit-fils de Gustave Eiffel, remet les clés d'une Simca P60. Mais personne ne sait conduire dans la famille.

Dans la guérite du gardien, le poste de télévision a changé: à la place du petit écran plat de 2009, on voit un énorme meuble encastré. Les images sont floues, en noir et blanc et le son est mauvais. L'information pour décrire ce poste représente à peine une fraction de de ce qui permet décrire une télévision à écran plat. Cette antique machine ne dispose que d'une chaîne noir et blanc, ne dispose pas de télécommande, de WIFI, d'infrarouge ou de bluetooth, elle ne permet que le réglage du son, du contraste et de la luminosité de l'image, et ne comporte aucune mémoire. La marchande de journaux, toute jeune à présent, porte une robe rouge à pois blancs, serrée à la taille par une large ceinture. A son poignet, une montre "Electronic" de Lip n'aurait pu exister sans que Joseph Thomson et Hendrik Lorentz aient découvert l'électron. Malgré ses talons hauts, elle marche vite et nous propose France-Soir pour seulement 20 francs. Pourquoi deviendra-t-elle un jour une ombre traînante, saccadée, épuisante à regarder au bout de sa canne? Est-ce parce que le temps transforme l'énergie physique en souvenir et en information non physique?...Un regard sur France-Soir de ce jour permet d'apercevoir les titres: "Ferrat Abbas et le FLN, 500 m de tunnel creusés sous le Mont Blanc, Soldats et hélicoptères recherchent-Marie José enlevée par les Fellaghas, Orson Wellses à Paris, Le Cardinal Grente est mort, De Gaulle à Orléans, La France va construire un moteur atomique pour sous-marin. Traversons l'hiver 1954, février 1956 et la neige à Arcachon, puis dirigeons nous vers...



Le 25 avril 1953. Deux jeunes étudiants, le biologiste James Watson, 23 ans, et le physicien Francis Crick, 35 ans, ont publié dans la revue scientifique Nature un article au titre austère, qui tient tout entier sur une seule page: "A structure for Desoxy-ribose Nucleic Acid: (article)Un espace bien modeste pour ce qui allait représenter l'une des plus importantes découvertes de tous les temps,l'ADN, la fameuse molécule de l'hérédité, qui vaudra aux deux chercheurs, de recevoir, des années plus tard, le prix Nobel de médecine. Avec les deux frères, je me pose la question: est-ce que l'information découverte par Crick et Watson a quelque chose à voir avec celle (que serait-elle?) qui pourrait exister à l'origine de l’origine de l’UniversAu bout de la recherche du commencement, que va-t-on trouver? Poursuivons le voyage...


 

1954. hiver 1954Météo Passion annoncera dans ses annales: "à la fin de l'année 1953, le temps est très agité!!! Une source de vives inquiétudes pour les pays côtiers de la Mer du Nord encore traumatisée par les terribles inondations du 1er février 1953".


1951. Nous émergeons le 21 octobre, il pleut à verse. "Au pied de la Tour, des cortèges officiels de voitures luisantes circulent en tous sens. Ces "automobiles", comme on les appelle à l'époque, ont encore perdu de la complexité. Les Frégate, les Dina Panhard, les simca 8, sont équipées d'amortisseurs à ressort et de freins à tambour. Des bougies en céramique sont simplement vissées en tête des cylindres pour l'allumage. Aucune distribution électronique: c'est un simple delco mécanique qui délivre l'impulsion électrique dans les cylindres. Ces engins bruyants se frayent difficilement dans la foule. La princesse Margaret, soeur de la future reine d'AngleterreElizabeth II,, visite en grande pompe la Tour Eiffel". Il faut dire que le salon de l'auto vient de se tenir le 24 octobre.

Pour se protéger de la pluie, réfugions nous chez Carette. Il y a peu de changement, les serveuses portent comme de coutume un tablier blanc, les tables sont déjà en marbre gris et les miroirs n'ont pas changé depuis la création de la maison. Mais, contrairement à ce qu'on y voit en 2009, on fume des Gauloises brunes à presque toutes les tables. En prenant machinalement l'Iphone,  l'écran de la merveille technologique brille de toutes ses couleurs, mais il ne fonctionne pas. Il n'existe aucun relais pour servir le signal. Quant à l'icone du WiFi, elle est simplement "grisée" comme s'il suffisait de se déplacer de quelques mètres pour l'intercepter. La batterie commence à faiblir, mais en 1951, impossible de brancher le chargeur à la prise électrique au pied de la table: le courant est en 110 volts. La plupart de systèmes électriques de 2009 ne pourraient fonctionner.


1950. L'infosphère atteint à peine le volume de 1 exabyte d'information stockées sur papier et seulement 0,2 exabytes d'informations nouvelles. Au pied de la Tour, les hommes portent presque tous des chapeaux et les robes des femmes ont perdu de leurs couleurs, tout comme les voitures, presque toutes grises ou noires désormais. Sur le Pont d'Iéna, on voit de gros camions à benne libre, des Berliet. Le nombre de visiteurs de la Tour dépasse à peine le million. La guérite du gardien est toujours la même, mais, à l'intérieur, à la place de la télévision, il y a désormais un poste de radio qui crachote à plat une chanson d'Yvonne Printemps. Le niveau d'information et l'intelligence incorporée de cette TSF Pathé sont tombés vertigineusement.


1949.Ce matin, une légère brume de printemps glisse des nuages et accroche le sommet de la Tour. Depuis son bureau flanqué au pied de la Tour, il surveille la file qui se presse vers l'escalier. Depuis le matin, il écoute inlassablement la BBC sur son poste Pathé tout neuf.  Soudain, le son aigre de la radio module des phrases qui nous semblent familières: on entend le terme "Big Bang". Le mot vient d'être laché pour la première fois, en direct! Nous sommes le 29 mars, il est un peu plus de onze heures.L'Anglais qui répète à plusieurs reprises ce terme est  terme étrange se nomme Fred Hoyle. Il est astronome à l'Université de Cambridge. Il développa et soutint pendant longtemps la théorie d'un Univers stationnaire en opposition au Big Bang. Son but? Tourner en dérision l'idée absurde, selon lui, d'expansion universelle. L'Univers n'avait pu jaillir de rien, "comme une pin-up" d'un gâteau", se plaisait-il à dire en riant. Pourtant, même s'il n'y croyait pas, le mot "Big-Bang" deviendrait célèbre dans le monde entier.


1948. Je m'y arrête d'autant plus volontiers que c'est l'année de naissance de mon épouse.

Jour de soleil. Les voitures sont de moins en moins nombreuses. "Nous n'avons vu passer sur la place que deux tractions avant de couleur noire". Privée de synchro, leur boite de vitesse craque au moment du changement d'allure. Des choses, impensables de nos jours, commencent à se produire. Par exemple, le plus vieil éléphant du monde (y en a-t-il encore de nos jours?), grimpe, une patte après l'autre, jusqu'au premier étage de la Tour. En 1948 est publié la fameux article "Alpha, Bêta, Gamma", où AlpherBethe et Gamow font pour la première fois, la stupéfiante prévision du "Big Bang": tous les éléments de l'Univers ont dû être formés durant les trois premières minutes de son existence. Une déflagration cosmique qui aurait donné naissance à tout ce qui existe. Pure folie?

Avant de repartir dans le passé, une jeune fille, portant une pile de France-Soir sous le bras, vêtue d'une robe blanche à volants, s'approche du pilier sud. Il est difficile de voir en elle celle qui deviendra la vielle marchande de journaux, elle n'a aucun souvenir de l'avenir qu'elle ne connaît pas. Ses jambes sont recouvertes d'une paire de "bas-nylon", inventés quelques années auparavant. Alors qu'elle cherche dans la sacoche de cuir qu'elle porte en bandoulière, on peut  voir son visage que colorent des traces de rouge à lèvres et deux peignes en nacre qui qui retiennent ses cheveux de part et d'autre de son front lisse. Rouge à lèvres, cette marque de coquetterie indique qu'elle veut se faire femme.


1947. Je m'y arrête aussi, car cette année est importante pour moi, c'est l'année de ma naissance, le 6 avril.

 

*Certains historiens l'ont appelée "l'année terrible", on pourrait dire aussi : "l'année de tous les dangers". La France se trouvait alors dans une situation très difficile à plusieurs points de vue.

*Les premiers problèmes découlaient de l'état économique et social du pays. Puis il eut  le revirement de décembre 1947: En quelques heures, tout va basculer dans le sens de l'apaisement et de la paix civile. Le général Maurice Catoire écrit dans son journal : "A 20 heures (ce mardi 9 décembre 1947), la radio nous annonce la capitulation du Comité National de Grève et l'ordre donné à tous, dans la France entière, de reprendre le travail normal.". Benoît Frachon, secrétaire général de la C.G.T., avait eu assez d'influence pour convaincre ses camarades d'arrêter brusquement le conflit.

 

*Les événements survenus en France en 1947 s'insèrent dans un cadre plus large : cette année-là a été dominée, tout le monde en convient, par la radicalisation de la situation internationale et le début de la vraie guerre froide. On a maintenant la preuve que du 22 au 27 septembre 1947, se tint en Pologne, une réunion secrète des représentants de neuf partis communistes européens : soviétique, bulgare, hongrois, polonais, roumain, tchécoslovaque, yougoslave, et en plus français et italien. Il s'agissait d'une reprise en main, par les Russes, de ces partis communistes, dans l'optique d'une lutte plus accusée contre le capitalisme.

*En décembre 1947, l'ile Bouchard (Indre-et-Loire) fut le théâtre d'apparitions de la Vierge Marie à quatre enfants. L'auteur, historien, après avoir décrit le contexte de la France d'après-guerre en proie à de très grandes difficultés économiques et politiques, publie le témoignage de l'une des voyantes (sanctuaire de l'ile Bouchard

 

Et il y eut Cachée dans sa ferme du hameau des Mouilles, à Chateauneuf-de-Galaure, une mystique dont la cause de béatification est [...] introduite, Marthe Robin prie pour son pays. Le 8 décembre 1947 au matin, son confesseur, le Père Georges Finet, monte chez elle et lui dit :
- Marthe, la France est foutue (sic). Nous allons avoir la guerre civile.
- Non mon Père, répond Marthe. La Vierge Marie va sauver la
France à la prière des petits enfants.

(En début d'après-midi, en Touraine, commencent les évènements de L’Ile-Bouchard).

 

Avant de de partir vers les affres de 1945, pense soudain que j'allais oublier les phénomènes OVNI qui ont peut-être influence ma vie sans que j'en sois conscient. La première grande vague se passe en 1947 aux Etats-Unis, au cours de l'été, et se manifeste par des observations de jour, de centaines de personnes à la fois, ainsi que de militaires, d'OVNIS en forme de disque.

Un record d'apparitions est atteint le 04 juillet 1947, où des dizaines d'observation sont recensées. La plus célèbre est celle de l'équipage d'un vol United Airlines qui voit 11 engins mystérieux à la verticale d'Emmet, dans l'Idaho. Je repense souvent à l'affaire du crash de Roswell

 

 

et maintenant en route vers le cauchemar...

la bombe atomique

1945. "Nous sommes le 8 aout 1945, vers 10 heures du matin. Un grondement monte vers nous, à peine perceptible mais qui tient toute le place, dans les profondeurs du nuage. Une nuée blanche remue jusqu'au sommet, presque vivante, coulant une ombre violette à l'horizon, là où le ciel s'appuie à la terre.  Paris n'est plus occupé par les allemandsmais on sent encore la guerre". Au pied du pilier nord de la Tour, la guérite, le kiosque à journaux est devenu une simple baraque en bois, une sorte de comptoir où sont vendus des objets de toutes sortes. Une femme maigre range des piles de journaux, aidée par une adolescente qui lui ressemble beaucoup, probablement sa fille. On a de plus en plus de mal à reconnaître dans ce joli visage encadré par de longs cheveux bruns la vielle marchande de journaux de 2009. En nous fixant de ses yeux clairs, elle semble se demander qui nous sommes. "Vertige du temps à venir. Des rencontres qui ont existé sans avoir encore eu lieu. Est-ce ça le temps imaginaire?" .

C'est alors que le Kiosque est pris d'assaut par une poignée de clients. Le Monde et Combat fournissnet une explication. Le titre à la une du monde révèle: "Une révolution scientifique. les Américains lancent leur première bombe atomique sur le Japon" (Scientifique!: Naïf? insensé?). En fait, les promeneurs ici vont et viennent comme si de rien n'était et deux jours après l'horreur d'Hiroshima, l'opinion publique n'a pas du tout pris la mesure de ce qui s'est réellement passé au Japon. Seuls quelque rares esprits lucides comprendront la portée de cet évènement, comme Albert Einstein, ou l'écrivain Albert Camus, qui a publié, ce même jour, dans les pages du quotidien Combat: "Le monde est-il ce qu'il est, c'est à dire peu de choses. C'est ce que chacun sait depuis hier grâce au formidable concert que la radio, les journaux et les agences d'information viennent de déclencher au sujet de la bombe atomique. On nous apprend, en effet, au milieu d'une foule de commentaires enthousiastes que n'importe quelle ville d'importance moyenne peut être totalement rasée par une bombe de la grosseur d'un ballon de football. Des journaux américains, anglais et français se répandent en dissertations élégantes sur l'avenir, le passé, les inventeurs, le coût, la vocation pacifique et les effets guerriers, les conséquences politiques et même le caractère indépendant de la bombe atomique. Nous nous résumerons en une phrase : la civilisation mécanique vient de parvenir à son dernier degré de sauvagerie. Il va falloir choisir, dans un avenir plus ou moins proche, entre le suicide collectif ou l'utilisation intelligente des conquêtes scientifiques... On peut alors se demander: que serait-il passé si Einstein (biographie d'Einstein) avait décidé de demeurer à Berne, en Suisse, pour y poursuivre une carrière modeste à l'office fédéral des brevets?..

 

 

 

1940:Hitler posant devant la Tour Eiffel

On continue.. janvier 1943. Cette fois le changement nous frappe de plein fouet. En 1943, la Tour est occupée par les troupes allemandes de la wehrmacht. Partout sur le Champ de Mars, il y a des soldats dont les uniformes sanglés jettent d'inquiétants reflets sur l'ombre molle des chapeaux à voilette des femmes déjà vielles. Années de métal où les chenilles des chars allemands défoncent le sol au pied de la Tour. en 1943, l'armée allemande installe une antenne sur la tour Eiffel et diffuse des programmes à destination des blessés hébergés dans la région. Cette dernière vient d'ailleurs d'échapper de justesse à un projet de destruction totale fomenté par Hitler en personne (j'ai trouvé le blog suivant sur Hitler, bible et nombres, assez impressionnant). Mais pour échapper à ces visions sinistres, que dit la jauge d'informations. "Le niveau global a encore diminué de façon déconcertante. A présent, le monde est 10 000 fois moins informé que celui des années 80. Cette raréfaction de la technologie commence à se faire vraiment sentir. Il n'y a pas encore de télévision, de transistors, d'ordinateurs, à l'exception de Colossus, le tout premier ordinateur du monde ( la genèse de l'informatique? le projet "colossus" et la seconde guerre mondiale ), fondé sur le système binaire. Il introduit ainsi l'histoire de l'ordinateur. C'est un monstre de 2400 tubes à vide, qu'il faut refroidir avec de la glace. Les surgelés, les yaourts en série ou le lait en poudre n'existeront que bien plus tard, tout comme les montres électriques, les vaporisateurs de laque, les lentilles de contact...Tous ces objets banals n'existent que dans les plans de certains inventeurs  qui ont toutes les difficultés du monde à convaincre leur entourage de l'intérêt de leurs trouvailles: le temps contient-il, quelque part en germe, dissimulé dans ses replis, les démons et merveilles du temps à venir".


la delage D8

1939

"C'est l'été, le panorama est à nouveau paisible. En ce mois de juin, on fête le cinquantième anniversaire de la Tour. L'archevêque de ParisMgr Chaptal (?), célèbre une messe depuis le premier étage, en présence du Duc eu de la Duchesse de Windsor. Ces hautes personnalités viennent d'être déposées au pied de la Tour par une Delage D8, conduite extérieure. Une petite jeune fille, est entourée de gardes républicains: elle vient d'être élue miss Tour Eiffel. Elle s'appelle Jacqueline Vialle". Elle aurait pu croiser Robert Oppenheimer, qui, cet été là, se trouve à Paris pour participer à une conférence qui réunit une dizaine de savants à l'Ecole Normale. Il vient de publier un article dans lequel il affirme: les effondrements des étoiles mourantes conduisent nécessairement à des "trous noirs".

Nous croisons un petit groupe de collégiens qui font de la gymnastique collective: euphorie de groupe? avant-goût de la vie militaire? Peut-on faire la comparaison avec les comportements de groupes de jeunes en 2009? La vielle marchande de 2009 est là à côté de la patronne, occupée à vendre: petite fille simple, à nattes blondes et souliers plats à bride sur chaussettes blanches, tout juste en train d'apprendre à lire. Un question revient, lancinante: y a-t-il un rapport entre la complexité croissante d'un individu tout au long de sa vie et compexité croissante de l'Univers, qui semble moins informé à l'instant du Big Bang que 13 milliards d'années plus tard?


1938. Nouvelle halte.

En devanture du kiosque à journaux, on peut remarquer la couverture de juin du journal la science et la vie, l'ancêtre de Science et vie. En feuillettant le magazine, au-delà des articles et photos qui semblent aujourd'hui merveilleusement désuets, se trouve un reportage consacré au "cycle de Bethe", physicien américain qui recevra le prix Nobel en 1967. Le journaliste qui a rédigé l'article, ne pouvait alors savoir que que cycle explique les réactions de fusion au sein des étoiles, mais aussi dans les bombes à hydrogène. Il ignore également qu'au début des années 40, à la demande du président Roosevelt, Bethe deviendra responsable du groupe de théoriciens qui, avec Robert OppenheimerEnrico Fermi, Arthur Compton et d'autres, vont calculer à Los Alamos, les données de la première bombe américaine. Un demi siècle plus tard, âgé de 90 ans, il apostropherait le président Clinton par cette exclamation: "Nous, les savants atomistes, nous disons: trop c'est trop".

Mais devant ce kiosque, en ce mois de juin 1938, tout paraît tellement normal. Pas encore de bottes, même si ses bruits sont présents et l'idée de bombe n'est pas encore là. Pourtant, même les costumes portés par les passants de cette époque sont moins "intelligents", moins "informés" que ceux des années 2000. Dans leur fabrication n'interviennent aucune fibre synthétique (donc peu de chimie), aucune intervention électronique, aucun ordinateur. Entre la laine sur le dos du mouton et le pull porté par les promeneurs, le processus de fabrication repose sur une technologie infiniment plus simple que celle de 2009. A cette époque où internet n'existe pas, le promeneur au pied de la Tour sait-t-il qu'il vit dans un espace "courbe"ou que la notion de cinquième dimension (celle du temps imaginaire selon les Bogdanov), est apparue pour le première fois en 1919, grâce aux recherches  de deux physiciens alors inconnus, Theodor Kaluza et Oskar Klein? Sait-il qu'Einstein va adopter avec enthousiasme cette proposition révolutionnaire? En compagnie de Peter Bergmann, un de ses collègues, il écrot en juillet 1938 dans annals of mathematics:  "Nous devons prendre très au sérieux l'existence de la cinquième dimension, même si nous ne sommes pas confortés en cela par l'expérience![...]. Nous avons montré qu'il est possible d'assigner une réalité à la cinquième coordonnée sans entrer en contradiction avec les caractéristiques du continuum physique à 4 dimensions. "Après avoir salué un dernier passant - on est très poli en 1938 - reprenons notre voyage".


1936.

"Le palais de Chaillot a maintenant disparu. Il n'y a pas si longtemps, à l'occasion de l'Exposition internationale, les Républicains espagnols y ont exposé pour la première fois en France Guernica de Picasso. En cette année 1936, on se trouve ici face à surprenant bâtiment hérissé de deux grandes tours: c'est l'ancien palais du Trocadéro, construit pour l'exposition universelle de 1878. Sur la flèche de la Tour Eiffel, une publicité en lettre lumineuses est apparue: Citroën. Dans les rues, on ne parle que des congés payés et de la semaine de quarante heures, oeuvre du Front populaire, avec Léon Blum et Roger Salengro. On fredonne: "y a d'la joie! la tour Eiffel part en ballade / Comme une folle, elle saute la seine à pieds joints...". sous le Palais,  un monde sous-marin est recrée: dans le gigantesque aquarium, plongé dans l'eau verte, le Commandant Prieur se livre à une démonstration de son scaphandre autonome.  Les rares véhicules qui passent devant nous sont Citroën B14, des Peugeot 402, des Panhard "Panoramique" ou des Renault "Primaquatre", autant de modèles qui n'ont pas laissé de traces. Mais la technologie régresse de plus en plus. Que dirions nous s'il fallait faire démarrer notre voiture avec une manivelle?


1934...

"Cette fois, nous débarquons un 24 février dans l'après-midi. Une odeur forte traîne dans l'air gris. La plupart des appartements sont chauffés avec des poêles à charbon et l'atmosphère est difficilement respirable". Le long de la tour, on a construit un thermomètre géant, le plus grand du monde, 160 m. Le niveau de mercure est indiqué par des milliers de lampes rouges.

Déplaçons nous quelques mois plus tôt: sur le Pont d'Iéna, les "premières" (pour nous, venant du futur) voitures à cheval font leur apparition. Là encore, leur niveau d'information est colossalement plus faible que celui des voitures de l'an 2000, même si le cheval, lui, est bien plus "informé" qu'un cheval-vapeur. Dans le ciel, un aéroplane de toile et bois rase le musée de la marineJuin 1933Joséphine Baker prend la pose dans une vitrine du musée d'ethnographie du Trocadéro, mais cette fois-ci elle est habillée d'un tailleur blanc, idée de Georges Henri Rivière, qui fut son complice avant de devenir le sous-directeur du musée. Le nombre de visiteurs de la Tour est passé ne dépasse plus maintenant les 300 000personnes.  Par contre, le gros rocher de Chaillot qui nous a acceuilli pour notre départ est toujours là.


les années folles (Joséphine Baker)

Nous voici à présent en 1929...

"A l'image des gros nuages qui glissent dans un ciel bas, les visages des passants sont fermés. Clémenceau est mort et son vieil adversaire Poincaré a quitté la politique; une page d'histoire s'est tournée. A présent c'est la crise économique qui menace l'Europe..." (Tiens, répétision de celle de 2008 et ses conséquences?)".

Cependant, à la gargote qui deviendra le café du Trocadéro, deux Parisiennes ne jurent plus que par les nouvelles robes Jean Patou qui battent leurs mollets. Et à côté, deux étudiants exultent, ils sont en train de commenter la nouvelle du jour à leurs yeux le plus importante: les galaxies, ces immenses nuages qui rassemblent des milliards d'étoiles, semblent s'éloigner les unes des autres, exactement comme des petits points à la surface d'un ballon qui gonflerait de plus en plus vite. Ils ont compris que cette découverte de Hubble (site:) était sans doute l'une des plus importantes du XXè siècle...

"Ce matin de septembre 1927, l'été s'attarde. Les années folles! Un nouveau salon de thé vient d'ouvrir ses portes y a seulement quelques mois pas Jean Carette. Aucune voiture n'est passée ce matin-là sur la place. Le monde est chargé d'une clarté surprenante, presque simple. Et la lumière est belle, rayonnante, lumineuse. On a envie de s'installer à cette époque. D'y vivre tranquillement, comme ces passants qui flânent dans le parfum léger du matin. Un air de Scott Joplin joué au piano (Maple Leaf Rag) vient par vagues d'une fenêtre ouverte".


Automne 1925. Après le microphone (de 1925), la Tour sert de banc d'essai aux balbutiements de la télévision en France. Puis quatre ans plus tôt, eut lieu le lancement de Radio-Tour-Eiffel, aujourd'hui bien connue des Parisiens, dont la première émission a eu lieu le 6 février 1921. Sous le pilier nord, une jeune femme vient d'ouvrir son kiosque. Sur la droite, juste devant la porte en bois de couleur verte, il y a un grand landau noir avec un bébé dont la tête est couverte d'un bonnet rose: notre vielle marchande de journaux est alors dans les langes!

 

Nouvel arrêt: 1922.

"L'air est vague, le soleil plombé. Nous faisons quelques pas dans la toute jeune avenue qui vient de recevoir le nom "d'Eylau" (Pour la "petite histoire": EYLAU (avenue d') "Le Conseil décide que le chemin partant du quai de Seine pour aboutir au chemin descendant de la halte de Maurecourt jusqu'au chemin de grande communication n° 55 portera sur toute sa longueur le nom d'avenue d'Eylau englobant ainsi l'avenue d'Eylau actuelle et la rue du Général Lepic qui longe la propriété de Monsieur Naudin. Cette avenue aura sur tout son parcours une largeur de 10 mètres." (Séance du 19/02/1921). Les rues d'Eylau et du Général Lepic sont indissolublement liées dans la mesure où il se couvrit de gloire à la bataille d'Eylau). Quelques semaines auparavant, le pilote René Tampier a posé son fameux aéroplane aux ailes pliantes tout près de l'avenue.

Ce matin du 3 avril, deux hommes en veste noire à col montant marchent sur l'esplanade et s'immobilisent face à la Tour. Comme la plupart des hommes de l'époque, ils portent la moustache. L'un d'eux nous regarde derrière ses lunettes en écaille. A sa chevelure hirsute, son sourire profond et pensif, on peut reconnaître Albert Einstein. Son ami Paul Langevin se tient à son côté, l'air un peu embarrassé. Les mains derrière le dos, Einstein admire la Tour... Leur discussion porte sur le fait que quelques heures plus tôt, Einstein a été contraint d'annuler une conférence sur la relativité que Langevin avait programmée ce matin même à l'Académie des sciences. Motif: les académiciens ont menacé de quitter la salle si Einstein vient y exposer "idées folles qui n'ont ni queue ni tête et sont une véritable honte pour la science". Pendant ce temps, rue du Général-Lepic, où une vielle femme s'agite derrière sa fenêtre ouverte, le speaker vient d' annoncer qu'un russe du nom d'Alexander Friedmann aurait réussi une ascension de plus de 20 000 m pieds en ballon. La vielle femme dans sa cuisine, une bouilloire cabossée dansant sur un fourneau couvert de suie écoute sa radio en cuisinant. A coup sûr, elle ignore que cet "intrépide aéronaute" est aussi un savant méticuleux et incroyablement imaginatif qui vient de publier ses recherches dans un livre. Elle aurait probablement haussé les épaules si on lui avait dit que pour ce savant l'Univers avait eu un commencement plus de dix milliards d'années dans le passé. A ce moment, la porte du fond laissa entrer une personne que nous connaissons, la marchande du kiosque à journaux. Elle attend un enfant, mais ne sait pas encore qu'elle aura une fille...


 

 

 

Brève  halte en 1915.

"Les passants sont rares. Mobilisés par la guerre, la plupart des hommes en âge de servir ont été envoyés sur le front. La baraque à journaux du pilier nord est tenue ce matin par la vieille cuisinière de la rue d'Eylau qui nous regarde. Un coup de vent acide soulève les pages de l'Illustration où on voit la photographie d'Einstein avec ce titre: "La relativité générale est née". Un alambic distille un mauvais vin pour en tirer de l'eau-de-vie. Aux cris de "Eau"de-vie!", "Eau"de-vie!" "Eau"de-vie!", la bouilleur de cru tente de rameuter la clientèle rare de cet automne de guerre..


 

voiture belle époque: alcyon

La traversée s'accélère: La belle époque

"...et ses stupéfiants engins à bielles crachant vapeurs et fumées. Les robes ont recouvert les jambes des dames jusqu'aux pieds, tandis que les chapeaux melon et hauts de formes on fait leur apparition au dessus des redingotes et des cols cassés".

Dans cette période insouciante, l'infosphère est incroyablement plus petite qu'en 2009. Il n'existe plus que quelques centaines de millions de livres publiés dans le monde. Et plus un seul de ces avions dont on voit le sillage blanc dans le ciel.

1909. Blériot a réussi à traverser la Manche à bord de son aéroplane. Pourtant, quelques années auparavant, en 1895, le grand physicien Lord Kelvin (William Thomson), a déclaré: "Heavier-tan-air flying machines are impossible"

1905. "En face du rocher du jardin de Chaillot, les poutrelles de la Tour Eiffel nous semblent noires de poussière." Le kiosque à journaux a disparu. Einstein vient juste de publier ses premiers papiers sur la relativité restreinte. En réponse aux articles de Lorentz et Poincaré ("De l'électrodynamique des corps en mouvement"), il généralise le principe de relativité de Galilée. C'est le début de la longue aventure de la relativité. Mais à cette époque des guêtres et des haut-de-forme, personne n'en parle.


1903. "Une odeur de pain chaud flotte dans la rue de des frères-Perrier. La boulangerie a été ouverte à l'emplacement du bâtiment de la pompe à feu de Chaillot, la première de Paris que les frères Perrier ont installé pour alimenter les habitants en eau potable. "Augustine" c'est ainsi qu'on l'appelait, fut mise en service en 1781". Le boulanger se souvient que, du temps de son père, le rue s'appelait "rue du Colonnel-Villebois-Mareuil". Rebabtisée depuis rue de la Pompe.


1901. "Nouvelle halte en automne, dans l'après-midi du 19 octobre. Nous apercevons un fantastique équipage aérien: l'énorme ballon dirigeable du célèbre pilote Santos-Dumont. Pour la première fois, il vient de faire le tour complet du monument en moins d'une demi-heure avant de s'abattre lourdement sur le toit de la raffinerie Delessert qui fut inaugurée en 1799 par Napoléon. L'équipage sortira indemne de l'accident".

(Le 8 août 1901, devant une commission de l'Aéro-club de la France, il essaie de réaliser l’épreuve, mais il tombe sur les toits de l'Hôtel Trocadéro. Cet accident fut grave, il manqua d’y perdre la vie. Malgré l'accident et la perte de l'appareil, Santos Dumont construit un sixième appareil en 22 jours et, après avoir réalisé des essais et avoir subi de nouveaux accidents, le 19 octobre 1901, il réussit enfin à voler autour de la tour Eiffel et gagne le prix Deutsch, malgré les protestations de quelques membres de la commission).

Quelques semaines plus tard, une petite fille de onze ans a pris place à son tour dans l'impressionnant ballon pour survoler le Champ-de-Mars. Cette fillette aux yeux bleus, émerveillée par le spectacle, s'appelait Berthie de Kolovrat Krakowska. Qui, dans les brumes de ce passé lointain, aurait pu savoir qu'elle deviendrait un jour la grand-mère de nos" guides pour le voyage dans passé". (A propos de leur grand-mère y a-t-il imposture par les frères Bogdanov?. Pour moi, je n'y attache pas d'importance, et ça ne change pas ma réflexion sur l'Origine et le commencement de l'Univers).

 

 

 

1900. "Notre arrivée est saluée par un coup de canon assourdissant. Décidément, le monde devient de plus en plus insolite. Désormais, tous les jours à midi, un énorme coup de canon sera tiré depuis la tour afin de permettre aux parisiens de régler leurs montres".

A mesure que l'information du monde diminue, le nombre de visiteurs de la tour diminue. Aujourd'hui, le Champ-de-mars est pris d'assaut par la foule, à perte de vue. C'est l'ouverture de l'Exposition universelle. Le pont d'Iéna a été élargi par deux colossales extensions d'acier. Un gigantesque tapis roulant à deux vitesses relie le quai d'Orsay au Champ-de Mars. Seules subsisteront quelques images tremblantes filmées, à l'époque, par Méliès ou les frères Lumière. Les exploits, les merveilles technologiques s'accumulent, nous mettons le pied sur "le trottoir de l'avenir". Nous croisons Thomas Edison, le génial pionnier du téléphone, du phonographe ou de l'ampoule électrique. Aurait-il à cet instant, lui le fondateur de General Electric, le sentiment obscur, sans pouvoir se l'expliquer, que nous venons de l'avenir, et d'un monde auquel il rêvait a chaque instant sans disposer alors de la technologie qui lui aurait permis de la construire? Il serre un livre scientifique entre ses mains, l'information qu'il contient représente seulement une quantité partielle de de celle qui sera disponible 20 ans plus tard. Il ne peut faire aucune allusion à la relativité, à la mécanique quantique ou aux trous noirs.

En remontant l'Avenue d'Eylau, qui s'appelle encore rue du Général Lepic, nous voyons, par la fenêtre grande ouverte, notre amie, la vieille dame de l'avenue, au travail derrière son fourneau à charbon. Elle a 22 ans de moins, mais elle paraît aussi vielle qu'en 1922. Sa fille, alors une jolie fillette aux cheveux châtains, son long tablier noué à plat derrière le dos, est en train de préparer un riz graisseux. Si on lui disait qu'un certain Max Planck vient de présenter sa théorie du "rayonnement du corps noir" devant la Société de physique de Berlin, elle se mettrait sans doute franchement en colère si nous insistions pour la persuader à quel point la théorie des quanta deviendra primordiale. En remontant vers le Trocadéro, on peut voir les chevaux et leurs sabots qui grattent le pavé. La place est l'un des relais de la Compagnie générale des omnibus qui exploite 350 tramways hippomobiles. A l'arrière de l'un d'eux, on peut lire sur un panneau de bois, inscrit  en grandes lettres cette publicité avant l'heure: "eau de Seltz".


escargot de mer

Juin 1888. "Vision étonnante, la tour Eiffel n'est plus complète, comme si on lui avait arraché le troisième étage. Les poutrelles déchirent le ciel à une centaine de mètres de haut et le deuxième étage n'est pas encore construit. Le monument ne sera inauguré par Eiffel qu'en 1989 (Le journaliste Emile Goudeau en décrit le chantier de façon pittoresque). Des tas de ferraille, des chariots, d'énormes chaînes, des grues, des palans, des outils jonchent le sol en tous sens.  Dans le sable qui alimente l'énorme chantier, tout à coup nous apercevons la coquille d'un escargot de mer. Ce coquillage contient et "documente" toutes les étapes antérieures de sa formation et témoigne de son évolution dans le temps. Il contient la mémoire de sa propre histoire. D'une spirale à l'autre, on voit qu'il s'informe de plus en plus au cours du temps.

Trois années en arrière, et cette fois la tour a disparu. Le Champ de Mars est un grand pré semé de bosquets. Il n'y a plus une seule automobile. Au fur et à mesure que nous remontons vers le passé, Les immeubles deviennent de plus en plus rares, alors qu'au contraire, la végétation, les arbres, les haies ou les arbustes, s'étendent jusqu'à recouvrir les abords de la colline de Chaillot. Mais où en est l'information dans ce monde-là? Regardons un groupe d'élèves qui fait groupe autour d'un professeur à moustaches. Au cours d'une leçon d'histoire naturelle à la campagne, il trace des symboles sur une ardoise avec une craie blanche. Ce banal morceau de craie est le lointain résidu du squelette d'un animal préhistorique remanié par les mouvements géologiques avant de devenir l'un des éléments d'une falaise de craie. Plus tard, cette craie a été écrasée, moulue, préparée jusqu'à donner la tige que le professeur tient entre ses doigts pour transmettre des connaissances et des idées, pour accroître l'information du monde.


1879. Les annales disent que l'année se termine par  un décembre de neige et de glace. Quand nous "atterrissons", nous sommes place dite du Trocadéro. Plus de "rond-point de Sainte-Marie" ni de "place du Roi-de Rome"! Au centre de la place, un petit square avec kiosque à musique a remplacé un bassin dont l'eau stagnante incommodait les promeneurs."

 

Juin 1878. L'avenir se dessine déjà, on peut voir le grand générateur solaire industriel d’Augustin Mouchot dans le parc du Trocadéro à Paris. La palais vient d'être construit pour l'Exposition universellecelle des nouvelles technologies. Au sommet du dôme central, on aperçoit la statue de la Renommée, réalisée par Maurice Mercié. Le palais a été bâti sur l'emplacement occupé autrefois par les dépendances du monastère de la Visitation et du couvent de La-Haye-aux-Bonshommes. Les colonnades ouvrent sur le Champ-de-Mars. De ces hauteurs abstraites, le regard peut se poser très loin et se perdre à l'horizon. L'école Militaire est là, figée au milieu des bois, des près des champs. A l'emplacement de la future tour Eiffel, il y a un grand lac aux abords duquel les Parisiens viennent chercher un peu de fraîcheur.


En 1841. "Une invention française surgit de l'imagination de deux français: Louis Breguet (précurseur de l'aviation) et Antoine Masson inventent la bobine d'induction. Masson faisait appel à cette fameuse bobine pour produire des décharges à travers les gaz raréfiés. On la retrouvera en 2009 dans la plupart des moteurs de nos automobiles."


Les années 1830. "Il devient de plus en plus difficile de reconnaître les lieux: L'ancien palais du Trocadéro n'existe plus. A sa place, il y a un étrange monument de style mauresque, flanqué de deux minarets hauts de 70 mètres. Ces curieux bâtiments ont été édifiés sur une idée du roi Lous XVIII, en hommage à la victoire du Duc d'Angoulème, au fort du Trocadéro, en Espagne". (Anecdote sur le Duc).


Ces années-là, tout est calme. L'information du monde, qui n'est pas encore entré dans l'ère industrielle, se réduit à une centaine de petabytes: l'infosphère est 10 000 fois plus petite que celle des années 2000. Avant de poursuivre dans le prochain article notre voyage vers le passé lointain, il reste un objet familier dans le paysage, le rocher de Chaillot. Le temps n'a pas encore de prise sur lui.





Compléments à cet article: sites trouvés en faisant des recherches sur internet pour ces articles.

 

l'armée française l'été 14

Guernica Le bombardement de Guernica. Guernica-peinture de Picasso

les chansons françaises: du temps des cerises aux feuilles mortes

palais de chaillot 1935 -course de porteurs de journaux construction du palais de chaillot 1935

histoire des congé payés histoire des congés payés -ina

1929: la crise économique et ses causes le crash de1929 l'histoire de la crise de 1929

la belle epoque vue par -eugene-atget

l'exposition universelle 1900 (histoire des expos) expos universelle 1900 (architecture)

expo universelle 1900 -wikipedia.org expo universelle 1900 -paris photos

expo universelle 1900 -film rare you tube paris expo universelle 1900 -worldexhibition.org

expo universelle 1900 -archives.org

exposition universelle 1878 -gare-chaPalais de Chaillot exposition 1937 -historianman.over-blog.net

Expos 1867 ve du trocadéro, expo 1887... -dspt.perso.sfr

generateur solaire trocadéro expo 1878 -radama.free.fr

trocadéro vu des quaiss 1854/1941 violondingres.frmp-de-mars

expositions universelle 1878 -les nouvelle technologies

 

 

 

 

Théorie: Pour cet article.

l'électron le système binaire tube à vide trou noir (astrophysique)

café du web (evolution-complexite-croissante-irreversibilite)

imagina science (évolution, complexité croissante) complexité (wikipedia)

science.gouv (qu-est-ce-que-la-complexite) complexite: epikurieu.com

CoursEnLigne: Algorithmique Complexite techno-science.net: la complexité claude.rochet:

paradigme de la complexité et interdisciplinarité

systémique et complexité le paradigme de la complexité

la fusion nucléaire la bombe à hydrogène

cultures ciences_chimie science amusante Cours_de_chimie_de_Terminale/Formulaire

formules-physique/chimie geowiki-formules chimiques

espace courbe-géodésique wikipedia-relativité générale P. de la harpe: espace courbe

 

 

 

*blogs sur le big bang:

satellite public.planck

wikipedia: le Boson de Higgs .futura-sciences -rumeurs d'observation du boson de higgs au LHC

science.gouv: le bosons de higgs serat-il observé en 2012? lefigaro- les premières traces du boson de higgs

parismatch- à la recherche de la particule de dieu (higgs?) dieu est-il une particule?

le théorème du jardin -questions cosmologie

 

 

la relativité générale.

http://hubblesite.org/ Einstein et la philosophie des science l'erreur d'einstein relativité générale (iap)

motionmountain; relativité et ... Emc2 la relativité générale (astronomescom)

la relativité générale pour débutants la relativité générale -.futura-sciences la relativité générale -astrosurf

la relativité générale -sciences.ch la relativité pour les nuls -paperblog.fr

la relativité générale aujourd'hui -Thibault Damour cours de relativité générale -cosmosaf.iap.

relativité générale principes de base -Signore.pdf einstein et la gravitation -aim.univ-paris7

relativité générale (physique théorique 3-4è année-durrer de la relativité au GPS -science.gouv

des nuages sur la relativité générale? cnes.fr

 

La relativité restreinte.

la relativité restreinte et la relativité générale -youtube

la relativité restreinte -wikipedia la relativite restreinte -astronomes.com Einstein et la relativité restreinte

zebina einstei et la relativité restreinte (humour) einstein -villemin

Enstein -grands esprits scientifiques einstein et la relativité restreinte -union-rationaliste

la relativité restreinte licence physique -guydoyen.fr

la relativité ses conséquences en philosophie -gillesguerin

comprendre la relativité restreinte -guydoyen.fr la relativiré restreinte bon formulaire -phenix

introduction relativité restreinte et générale -cours/EPF 3è année

 

*blogs  Groupes quantiques.

 

*blogs sur le principe holographique

 

*blogs sur l'entropie

 

*Blogs sur la complexité.

 

*Autres blogs.

08:21 Écrit par pascal dans bogdanov-le visage de dieu | Lien permanent | Commentaires (0) | Tags : temps, histoire | |  del.icio.us | | Digg! Digg |  Facebook

01/12/2011

3-1 Au commencement du temps 3 -1) Le film de l'Univers vu à l'envers première étape

 

Au commencement du temps

3-1) Le film de l'Univers vu à l'envers première étape


Dans ces articles, je voudrais approfondir ma réflexion sur "le visage de Dieu" écrit par les frère Bogdanov et celle de mon article dans mon blog de reflexions à travers le livre de Igor et Grichka Bogdanov: "Au commencement du temps"



Mes articles dèjà parus dans cette rubrique: introduction. Le visage de Dieu.

 

 

Voir aussi à la fin de cet article les blogs trouvés en faisant des recherches sur internet ainsi que le texte de Xavier Sallantin sur la singularité finale.




Le film de l'Univers remonté à l'envers vu par les frères Bogdanov.

Départ: Un rocher sur la ligne d'Univers (2009 - 1979).



 

1