11/01/2017

Chap. 9) La renaissance du temps (Lee Smolin Partie II ) Le défi cosmologique

La renaissance du temps (Lee Smolin Partie II chap. 9)

Le défi cosmologique 

 

 

 

 

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)


Préambule: Dans ces articles que je consacre à Lee Smolin, j'écris la suite des articles de mon blog à propos des univers multiples d'Aurélien Barrau pour les quels je retiens quelques commentaires qui vont orienter mes réflexions nouvelles.

Dans l'article "D'après Aurélien Barrau, Univers multiples Chap 1)": les propositions nouvelles face aux problèmes et paradoxes de la physique "peuvent constituer une "pulsion inchoactive" qui poussera vers une découverte sans précédent ou bien vers un réenchantement de ce que l'on savait déjà sans en avoir pris la "dé-mesure" et finalement vers une nouvelle sacralisation du "monde".
Dans "D'après Aurélien Barrau, Univers multiples. La gravitation quantique chap. 9": au chapitre L ConclusionCet article fait suite à l'article "D'après Aurélien Barrau, Univers multiples Chap 1)": "Aujourd'hui, la physique est en crise, le monde est en crise. Avec Lee Smolin et son "rien ne va plus en physique", Carlo rovelli parle de la schizophrénie bipolaire des physiciens (voir une révolution inachevée). La vision anthropique de Trin Xhuan Thuan et ma vision évangélique du monde, qui s'origine dans les mythes de l'Un et de l'ordre émergeant du Chaos initial, semblent exclus de la vision de bien des physiciens et cosmologues qui découvrent, comme l'a fait Jean Pierre Luminet, que l'Univers ne peut avoir été infiniment dense et donc que le big bang ne peut avoir été tel qu'on se l'imaginait depuis de nombreuses décennies. La possibilité d'un avant big bang a été mise en évidence avec un univers précédent qui se serait condensé jusqu'à une taille extrêmement petite mais non nulle et qui aurait "rebondi" en un big bounce pour donner notre Univers actuel en expansion après le phénomène d'inflation cosmique. Un des derniers rebondissements de ces recherches, avec Lee Smolin, pourrait bien aboutir avec sa "renaissance du temps" à une solution de la contradiction entre la physique quantique et la théorie de la relativité. A priori, ce serait une théorie unifiée des interactions fondamentales.

-&&&-

Nous avons vu , au cours du long article consacré au chapitre 9 du livre "les mpndes multiples", de nombreuses théories nouvelles ou hypothèses qui proposent l'unification de la physique ou tout au moins des explications aux dilemmes et paradoxes que la cosmologie moderne a mis en évidence. Mais, dans "la renaissance du temps", au chapitre 8, Lee Smolin prévient: Le paradigme newtonien ne peut même pas apporter un embryon de réponse à ces questions et dilemmes: Pourquoi ces lois? Pourquoi ces conditions initiales de l'univers? Quel mécanisme les a t-il sélectionnées parmi une multitude infinie de possibilités? etc. Il appelle ceci "l'erreur cosmologique": appliquer à l’Univers entier dans sa globalité des lois établies et vérifiées sur des sous-systèmes. Dans le paradigme newtonien, ce que nous appelons une loi doit s'appliquer dans tous les cas. Mais l'application d'une loi à n'importe quel morceau d'univers implique une approximation, parce que nous devons négliger toutes les interactions entre ce morceau et le reste de l'univers. Donc les applications vérifiables d'une loi sont toutes des approximations. Smolin fait remarquer en particulier que les lois se vérifient sur beaucoup de sous-systèmes. Mais si on veut appliquer une loi de la nature sans approximation, c'est à l'univers entier qu'il faudrait l'appliquer, alors que nous n’avons qu’un seul Univers sous la main. Et un seul cas n'apporte pas suffisamment d'indices pour justifier l'affirmation qu'une loi particulière de la nature s'applique. C'est ce que Lee Smolin appelle le dilemme cosmologique (faire de la physique dans une boite: "on considère un petit sous-système isolé du reste de l’univers dans lequel on néglige certains effets pour ne s’intéresser qu’à certaines variables qui définissent un espace de configuration, atemporel"). Et pourquoi cette loi et pas une autre? De plus, beaucoup de théories cosmologiques (théorie des cordeséquation d’Einstein …) admettent en réalité une infinité de solutions, parmi lesquelles une seule correspond à notre univers. Doit-on se résoudre à admettre l’existence d’une infinité d’Univers inaccessibles pour pouvoir justifier le notre par un principe anthropique

Nous pensions, dit Lee Smolin, savoir comment répondre à ces questions. Une théorie unique mathématiquement cohérente pourrait incorporer les 4 lois fondamentales de la nature. Mais cet espoir a été anéanti. On se trouve face à ce qu'il appelle "le défi cosmologique". On vient de voir qu'il faudrait étendre la science à une théorie de l'Univers entier. Le défi est qu'il ne peut pas exister de composante statique qui puisse servir de cadre de référence, car tout dans l'Univers change et il n'existe aucun extérieur, rien qui puisse être qualifié de fond par rapport auquel les mouvements du reste de l'Univers (que nous négligeons). Or, toutes les théories physiques divisent le monde en deux parties, une partie « dynamique », qui change, et une statique, qui contient un « fond » de choses immuables, comme les constantes fondamentales.  Le « défi cosmologique » consiste à formuler une théorie de l’univers « indépendante du fond », purement dynamique afin de ne rien supposer d’extérieur à l’Univers: " Lorsqu’on fait de la « physique dans une boite », le « fond » comprend notamment les conditions initiales, et la méthode expérimentale permet de contrôler les conditions initiales afin de s’assurer que les lois sont indépendantes de ces conditions. En cosmologie, cette distinction entre « lois » et « conditions initiales » aggrave le problème qu’elle résout « dans une boite »: si nos observations du fond diffus cosmologique ne correspondent pas bien à la théorie de l’inflation cosmologique, faudra-il corriger la loi ou les conditions initiales? Smolin critique aussi les théories effectives qui décrivent bien ce qui se passe à une certaine échelle de grandeur, mais en négligeant l’influence de ce qui est beaucoup plus grand ou plus petit." Pour Smolin, la théorie issue du défi cosmologique doit tenir compte de tout, sans rien négliger."

Je vais maintenant retracer "ma lecture" plus complète du livre de Lee Smolin d'une manière peu orthodoxe en ne commençant pas par la partie I ("le poids: le mort du temps), mais par la partie II "Lumière: la renaissance du temps". La partie I fera l'objet d'autre articles. Cette "mort du temps" est comme l'épilogue de la constatation de Lee Smolin traduite par son livre "rien ne va plus en physique (l'échec de la théorie des cordes)". Cette partie I 
explique pourquoi depuis la naissance de la science moderne, avec l'effet Copernic et Galilée, le paradigme newtonien sous-tend toutes les théories y compris les théories quantiques et  la relativité  (le « paradigme newtonien » et ce qu'il a impliqué, dont l'hypothèse des multivers, Il est utile pour décrire l'évolution d'un système dans un laboratoire, mais il perd tout sens appliqué à l'univers entier. Il n'explique pas pourquoi telles ou telles lois sont choisies parmi l'infinité de lois possibles.Selon ce paradigme, un système, quel qu'il soit, pourrait être décrit par un ensemble d'états initiaux qui lui sont attribués, puis par les lois présidant à son évolution en fonction du temps. Mais si ces données sont utilisées initialement pour décrire le système, il n'est pas possible de considérer qu'elles pourraient aussi être le résultat de son évolution. Il faut rechercher d'autres lois, ce que je vais tenter de faire maintenant en commentant celui qui ose affronter un nouveau paradigme, Lee Smolin).

 

http://www.wearealgerians.com/up/uploads/139910915883722....

Rien ne va plus en physique ! - L'échec de la théorie des cordes 

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)

(La renaissance du temps le livre numérique: https://books.google.fr/books?id=O3z1nXjcDu4C&printse...)

 

 

 

http://medias.dunod.com/document/9782100706679/Feuilletag... (la renaissance du temps Dunod: quelques pages à feuilleter)

 

http://www.paris8philo.com/article-33714241.html: à propos de rien ne va plus en physique: billet de Jean Zin, pour une physique pluraliste, qui nous paraît essentiel pour comprendre les enjeux des théories physiques actuelles qui souvent tendent vers l'impossible, hors toute avancée, toute brèche se fait par dissymétrie, sans souci du qu'en-dira-t-on il suffit de voir l'attitude de Grigori Perelman, si non-chalante vis-à-vis de la communauté scientifique, ou devrait-on dire l'etablishment. Jean Zin reste un grand guetteur de ce qui se passe en science, nous vous recomandonsses articles.

 

1) Le défi cosmologique.

     -Rappel: dans l'article II donnant ma lecture de la renaissance du temps chapitre 8, nous avons vu que pour Lee Smolin, la seule manière d'échapper aux problèmes, dilemmes et paradoxes qui se présentent devant la physique actuelle, c'est d'adopter une méthodologie qui va au-delà du paradigme newtonien, c'est à dire chercher un nouveau paradigme applicable à la physique à l'échelle de l'univers. Sinon, on se place face au risque que la physique finisse dans l'irrationalité et le mysticisme. Mais tous arguments de la première partie qui poussent à éradiquer le temps hors de la physique sont basés sur le paradigme newtonien  et sur l'hypothèse qu'il peut être étendu à l'univers dans son entier. Mais si c'est faux, ces arguments pour éliminer le temps s'écroulent, et quand nous abandonnons le paradigme newtonien, il devient possible de croire que le temps est réel et on peut envisager la construction d'une "vraie(?)" théorie cosmologique dont on espère qu'elle fera mieux que les théories actuelles. 

C'est ce que nous allons voir maintenant en poursuivant l'aventure vers un au-delà des problèmes et paradoxes auxquels se confronte la connaissance actuelle. On l'a vu, l'application d'une loi à n'importe quel morceau de l'univers implique une approximation  parce que c'est faire de la physique dans une boite, et il faut alors négliger toutes les interactions entre ce morceau et le reste de l'univers. Donc, les applications vérifiables d'une loi de la nature sont toutes des approximations et si on veut appliquer une loi sans approximation, c'est à l'univers entier qu'il faudrait l'appliquer. Mais il n'existe qu'un univers, ce qui signifie qu'appliquer une loi particulière à un cas unique et cela ne peut apporter suffisamment d'indices pour affirmer qu'une loi particulière s'y applique. Lee Smolin suggère d'appeler ceci le dilemme cosmologique.

Ce dilemme va nous amener au défi cosmologique, qu'il faudra relever pour sortir de l'impasse.

    -Rien dans la  chair des théories existantes ne peut nourrir une théorie vraiment fondamentale affirme donc Lee Smolin avec force. C'est une idée bien audacieuse quand on sait les succès des théories dominantes, que soit la physique quantique ou la relativité générale. Rappelons une caractéristique que partagent toutes ces théories bien établies qui rend délicate leur extension à l'univers dans son entier: elles divisent toutes le monde en 2 parties, l'une qui est changeante et dont les degrés de liberté évoluent dans le temps, le système étudié, et l'autre qui est supposée immobile, le reste de l'univers, le "fond".  Cette partie, qui ne nécessite pas qu'on la décrive explicitement, se trouve de manière implicite dans ce qui donne sa signification au mouvement décrit dans la première partie qu'on observe: la distance entre les objets mesurés fait implicitement appel à des points fixes (le cadre de référence qui permet la description du système, le référentiel) et le temps par rapport auquel on décrit le mouvement implique l'existence d'une horloge extérieure au système (décrit par l'espace des configurations) et qui permet justement la mesure du temps. C'est sont ces points de référence fixes qui permettent de relier les prédictions de la théorie aux résultats des expériences.

Cette partition du monde en deux parties, l'une dynamique et l'autre statique) est une fiction, mais elle est précieuse quand il s'agit de décrire de petites portions d'espace. La deuxième partie, supposée statique, est en réalité elle aussi constituée de parties dynamiques, et en faisant fi de la dynamique de leur évolution, nous fixons une cadre à l'intérieur duquel nous avons des lois simples. A l'exception de la relativité générale, la géométrie de l'espace-temps est inclus dans le fond de toutes les théories. Le fond inclue aussi le choix des lois puisque celles-ci sont supposées immuables. Et même la relativité générale, qui décrit une géométrie dynamique, considère d'autres structures fixes comme la topologie et la dimension de l'espace. (voir note 1 page 305: D'autres structures à fond fixe incluent la géométrie des espaces  où vivent les états quantiques, dans lesquels est définie une notion de distance. Les structures de fond en relativité générale incluent la structure différentielle de l'espace-temps et, souvent, la géométrie des frontières asymptotiques).

Ce partage du monde en ses composantes dynamiques et un fond qui "le cerne" est comme on vient de la voir la caractéristique géniale du paradigme newtonien. C'est elle qui a contribué au succès fulgurants des modèles scientifiques relativiste et quantique. Mais c'est paradoxalement ce qui rend ce paradigme inapplicable dans sa globalité. En effet, il ne peut pas exister de composante statique car tout dans l'univers change et il n'existe aucun extérieur, rien par rapport les mouvements du reste puissent être mesurer si l'univers est ce qui contient TOUT. Surmonter ce obstacle est ce que Lee Smolin appelle le défi cosmologique.     

     -Mais comment surmonter cet obstacle et relever le défi? Nous devons formuler une théorie nouvelle, que nous pourrons appliquer de façon consistante (sans incohérence) à TOUT l'univers. Dans une telle théorie, chaque "acteur" dynamique doit être défini en terme d'autres acteurs (et non en fonction de paramètres extérieurs tels que le temps t). Dans cette théorie il n' a nul besoin et pas de place pour un fond fixe. On dit que de telles théories sont "indépendantes du fond". Remarque, voir note 2 Page 305: "les termes "dépendantes du fond" et "indépendantes du fond" ont un usage plus limité dans les théories quantiques de la gravitation; dans ce contexte, une théorie dépendante du fond est une théorie qui suppose un fond d'espace-temps classique fixe. Les théories des perturbations, telles la relativité générale quantique par perturbations et la théorie des cordes par perturbation, sont dépendantes du fond. Les approches indépendantes du fond de la gravitation quantique incluent la gravitation quantique à boucles, les ensembles causaux, les triangulations causales dynamiques et la gravité quantique."

Le dilemme cosmologique, qui a été présenté déjà dans l'article 1 est constitutif du paradigme newtonien puisque ce sont précisément les caractéristiques qui ont conduit à son succès qui deviennent la raison de son échec à jouer un rôle de base pour une théorie de la cosmologie. Il n'est pas surprenant qu'une des réponses au dilemme cosmologique soit l'hypothèse des multivers où on pose que l'univers n'est qu'un dans une vaste multitude, car toutes nos théories ne sont applicables qu'à des systèmes beaucoup plus vastes. Alors comment sortir de cette fuite en avant qui n'est pas sans rappeler l'empilement de tortues à l'infini soutenant la Terre pour expliquer (avant Galilée) pourquoi les corps tombent t'ils? Continuons donc avec Lee Smolin!

 

 



2) Quelle est la différence entre la cosmologie et des expériences en laboratoire?

     -Pour les expériences en laboratoire ou concernant une partie de l'univers, nous contrôlons les conditions initiales et nous les faisons varier afin de tester différentes hypothèses sur les lois. Mais en cosmologie, nous ne pouvons atteindre les conditions initiales car elles ont conditionné l'univers dans sa prime jeunesse et nous ne pouvons qu'émettre des hypothèses sur ce qu'elles furent. Par conséquent, en tentant d'expliquer une observation cosmologique en utilisant le paradigme newtonien, on fait 2 hypothèses, une sur les conditions initiales et l'autre sur les lois qui ont agi sur elles; D'ordinaire, en faisant "de la physique dans une boite", en contrôlant les conditions initiales de l'expérience, nous pouvons par la même occasion tester les hypothèses concernant les lois. Mais  en cosmologie, il faut tester simultanément le hypothèses sur les lois et les conditions initiales, ce qui affaiblit l'efficacité de chaque test. Supposons que nous fassions une prédiction, mais que l'observation soit en désaccord. Alors, nous pouvons soit modifier l'hypothèse sur les lois, soit modifier notre hypothèse sur les conditions initiales, chaque attitude pouvant modifier le résultat de l'expérience. Mais nous sommes face à un nouveau problème, car comment savoir laquelle des deux hypothèses a besoin d'être corrigée? Tant que les observations concernent seulement une partie de l'univers (étoile, galaxie, ensemble même grand de galaxies), le test de la loi que nous pouvons faire est basé sur des cas, nombreux la plupart du temps). Les hypothèses sont toutes soumises à la même loi, donc une différence entre elles doit être attribuée à des différences dans leurs conditions initiales. Mais lorsqu'il s'agit de l'univers dans sont entièreté, il devient impossible de distinguer entre les effets d'un changement d'hypothèse et sur une loi ou d'un changement d'hypothèse sur les conditions initiales. 

    

     

http://www.darksideofgravity.com/CMB.htm (le CMB)

-Ce problème "s'invite" donc dans les recherches en cosmologie.

Depuis qu'on sait que l'univers a une origine et même si cela est contesté, les tests de l'univers primordial, doivent en particulier rendre compte des structures vues dans le fond diffus cosmologique (CMB). Ce rayonnement micro-ondes, est un reliquat de l'univers primitif, dont Wmap nous a donné un instantané des conditions existantes 380 000 ans après le big bang. On sait que le modèle du big-bang a posé des problèmes (problème de l'horizon, de l'homogénéité...) qui semblent explicables par la théorie de l'inflation cosmologique qui fut proposée par Allan Guth en 1979. L'inflation a étiré et aplani toutes les fluctuations initiales qui pouvaient être présentes et prédit dans le CMB des motifs très similaires à ce qui a été observé. Mais depuis quelques années, des observateurs ont rapporté la présence d'une nouvelle structure dans le CMB non prédite par la théorie courante de l'inflation. Il s'agit de la "non-gaussianitédu CMB, une particularité que la théorie standard de l'inflation devrait exclure.

(voir Amit P. S. Yadav et Benjamin D. Wandelt: Détection de la non-gaussianité "non-Gaussianité" (fNL) dans les données WMAP 3-year à plus 99.5% de confiance en 2008)  https://arxiv.org/pdf/0712.1148.pdf) , voir aussi Xingang Chen , Min-xin Huang , Shamit Kachru , Gary ShiuSignatures observationnelles et non Gaussianities de l'inflation générale Champ unique - https://arxiv.org/pdf/hep-th/0605045v4.pdf).

Comme dans le chapitre précédent, si cette observation se confirme, il y a deux options pour l'expliquer: modifier la théorie ou bien modifier les conditions initiales. Juste après le premier article présentant la possibilité de cette non-gaussianité, il y eu des tentatives pour expliquer ces observations. Certains modifièrent les lois, d'autres les conditions initiales. Par exemple, Ivan Agullo dans  https://arxiv.org/abs/1507.04703  écrivit: "Nous soutenons que l'asymétrie de puissance anormale observée dans le fond diffus cosmologique (CMB) peut avoir son origine dans un rebond précédant l'inflation cosmique. Dans la cosmologie quantique à boucles (LQC) la grande singularité bang est génériquement remplacé par un rebond en raison des effets gravitationnels quantiques". Une autre tentative a été faite par R. Holman et Andrew J. Tolley pour l'amélioration de non-gaussianité des États initiaux ExcitésLes deux stratégies expliquent en fait les observations qui ont été annoncées en les "rétro-prédisant"  Il était prévisible que les deux tentatives marcheraient, car elle obéissent au paradigme newtonien. Mais, comme cela est souvent le cas pour la science observationnelle et comme pour les ondes gravitationnelles, des observations ultérieures ont échoué. Et il semble que les chercheurs na savent toujours pas s'il existe véritablement une non-gaussianité. Voir note 4 page 306: Mais cela ne veut pas dire que les effets des conditions initiales sur le CMB ne peuvent jamais être distinguées de changements dans la théorie de l'inflationau moins à l'intérieur de catégories fixées de modèles. Voir Enhanced local-type inflationary trispectrum from a non-vacuum initial state par Ivan Agullo , Jose Navarro-Salas , Leonard Parker  (https://arxiv.org/pdf/1112.1581v2.pdf 2008).

Quand il y a deux manières différentes d'accorder une théorie aux données, on parle de dégénérescence (En physique quantique, la dégénérescence est le fait pour plusieurs états quantiques distincts de se retrouver au même niveau d'énergie. Un niveau d'énergie est dit dégénéré s'il correspond à plusieurs états distincts d'un atome, molécule ou autre système quantique. Le nombre d'états différents qui correspond à un niveau donné est dit son degré de dégénérescence). Dans le cas présent, sachant que les lois et les conditions initiales sont décrites par certains paramètres, il y a deux ajustements distincts de paramètres permettant de reproduire les données, ce qui explique la dégénérescence. Habituellement dans de tels cas, on effectue de nouvelles observations pour déterminer quel est l'ajustement correct. 
Avec un tel événement qui ne s'est produit qu'une seule fois, il n'est pas possible de résoudre la dégénérescence. (Voir note 6 page 306: Le caractère unique de l'univers se dresse en obstacle contre d'autres tentatives de tester l'univers primordial. En physique de laboratoire ordinaire, nous devons toujours gérer le bruit qui survient des incertitudes statistiques dans les données. Ceci peut souvent être diminué en effectuant de nombreuses mesures.Du fait que l'univers ne s'est produit qu'une fois, ceci est impossible dans certaines observations cosmologiques.  Ces incertitudes statistiques sont connues sus le nom de variance cosmique = incertitude statistique inhérente aux observations de l'univers à des distances extrêmes.)


3) Le  paradigme newtonien vu comme reflet mathématique de la nature est t-il un fantasme métaphysique?

     3-1) Ré-évaluation des théories. Mais, si on ne peut pas séparer le rôle des lois et et conditions initiales, le paradigme newtonien ne perd t-il pas son pouvoir explicatif des causes des phénomènes physiques. La mécanique newtonienne ou la physique quantique étaient pourtant de bonnes candidates pour être des théories fondamentales, miroirs parfaits du monde naturel où tout ce qui est vrai de la nature trouverait un écho dans un fait mathématique qui serait vrai pour la théorie. Le paradigme de newton, basé sur des lois "intemporelles"  agissant sur un espace de configuration intemporel est dans ce cadre, essentiel à cet effet miroir. 

Au vu des difficultés rencontrées par la physique, Lee Smolin suggère rien moins que voir dans cet effet miroir un fantasme métaphysique qui mène aux problèmes, dilemmes et confusions constatés dès qu'on essaye d'appliquer le paradigme newtonien à l'ensemble de l'univers. Cela nécessite de  revoir la signification des théories au sein de ce paradigme et une ré-évaluation pour distinguer les candidates aux théories fondamentales des descriptions approchées des petits sous-systèmes de l'univers. Selon Smolin, cette ré-évaluation a déjà été faite, aboutissant à deux changements de perspective simultanés:

     *"Toutes les théories avec lesquelles nous travaillons, incluant le modèle standard de la physique des particules élémentaires et la relativité générale sont des théories approchées, s'appliquant à des subdivisions de la nature qui incluent seulement un sous-ensemble de degrés de liberté de l'univers. Nous appelons une telle théorie approchée théorie effective".

     *Dans toutes nos expériences et observations impliquant des subdivisions de la nature, nous enregistrons les valeurs d'un sous-ensemble de degrés de liberté et ignorons le reste. Les enregistrements qui en résultent sont comparés aux prédictions des théories effectives".Ainsi, le succès actuel de la physique repose sur l'étude de ces subdivisions de la nature, modélisées par des théories effectives. Dans l'histoire de la physique, on n'a jamais pu comparer les prévisions d'une théorie voulant être "vraiment fondamentale" avec l'expérience (une théorie "fondamentale" ne peut comprise comme une théorie effective). Pour quelques compléments, voir futura-sciences.com; "la démarche des théories effectives est la même pour tous les phénomènes. À partir d'une théorie adéquate à une échelle donnée, on cherche à comprendre l'origine des paramètres pertinents de cette théorie effective en fonction de paramètres plus fondamentaux apparaissant dans une autre théorie effective valable à plus petite échelle. Cette approche de type « poupées russes » s'applique à la physique atomique, la physique nucléaire et enfin culmine avec le modèle standard de la physique des particules. Ce modèle est une théorie effective possédant 20 paramètres pertinents. Dans le monde de l'infiniment petit, les paramètres pertinents sont de trois types : l'énergie du vide, les masses des particules et les couplages entre particules".

Voyons ces points plus en détail.


     3-2) Point 1: La physique expérimentale est l'étude des subdivisions de la nature.

     -Le sous-système modélisé par une théorie approchée comme s'il existait seul dans l'univers, en négligeant tout ce qui lui est extérieur, s'appelle un système isolé (L'univers dans son ensemble est considéré pour l'instant comme un système isolé, ce qui reste un postulat à démontrer). Mais il ne faut pas oublier que l'isolement du reste de l'univers, qui est négligé, n'est jamais complet. Il y a toujours des interactions entre entre tout sous-système et les choses qui lui sont extérieures. De fait, ce sont toujours des "systèmes ouverts".  (système qui interagit en permanence avec son environnement. L'interaction peut se faire via des informations, de l'énergie ou des matières transférées vers ou depuis les frontières du système, en fonction de la discipline qui définit le concept. La notion de système ouvert s'oppose à celle de système isolé qui n'échange ni énergie, ni matière, ni information avec son environnement). Quand on fait "de la physique dans une boite" on fait l'approximation qu'un système ouvert est un système isolé. Il n'y a que l'univers qui puisse être un système isolé. "L'art" de l'expérimentation consiste à transformer un système ouvert en un système "approximativement" isolé, ce qui ne peut jamais se faire parfaitement.  En premier lieu, les mesures effectuées sur un système (en particulier un système quantique) interfèrent avec lui. Pour chaque expérience, c'est une véritable gageure que d'extraire les données qui sont intéressantes du bruit extérieur au sein d'un système imparfaitement isolé. C'est bien ce qui s'est passé pour la prétendu découverte des ondes gravitationnelles primitives3) A-t-on vu les ondes gravitationnelles primordiales ? Non. Il y a peu de temps, eut lieu une grande effervescence autour des mesures de l’expérience BICEP2 qui pensait avoir mesuré les ondes gravitationnelles primordiales

     -Principe de non-isolation des systèmes.

Les scientifiques font tout ce qu'ils peuvent pour protéger leurs expériences de la contamination par des vibrations, des champs, des rayonnements venus de l'extérieur. Cela suffit dans beaucoup de cas, mais certaines expériences  délicates sont affectées par le bruit issu des rayons cosmiques, ou cesses pour détecter les neutrinos du soleil. On peut enfouit le laboratoire dans une mine à des km de profondeur. On réduit ainsi le bruit de fond aléatoire dû aux autres rayonnements à des niveaux gérables, mais les neutrinos passent toujours. Il n'existe aucun moyen pratique d'isoler un laboratoire des neutrinos, les détecteurs enterrés en profondeur sous le pôle sud enregistrent des neutrinos entrés par le pôle nord et qui ont donc traversé la planète ("La difficulté de mise en œuvre d’IceCube vient du fait que les 5160 sphères photosensibles «ne doivent détecter que les neutrinos extrasolaires», dit Mathieu Ribordy. En effet, des neutrinos sont aussi générés dans le Soleil ou lors de l’interaction des rayons cosmiques avec l’atmosphère terrestre. Dès lors comment faire le tri? La Terre fait office de filtre, et seuls les neutrinos cosmiques provenant du ciel septentrional, qui auront donc d’abord traversé toute la planète, sont analysés en Antarctique".) Et, même si on pouvait construire des murs de béton immensément épais, il y a encore quelque chose qui passerait, la gravitation. En effet, rien ne peut nous en protéger ni stopper la propagation des ondes gravitationnelles, donc rien ne peut être parfaitement isolé. C'est ce qu'a découvert Lee Smolin en voulant modéliser une boite contenant des ondes gravitationnelles rebondissant contre ses parois, mais cela ne marchait jamais, car elles passaient à travers ces parois. Si on augmente la densité des parois en les faisant devenir de plus en plus hautes afin qu'elles puissent réfléchir le rayonnement gravitationnel, elles s'effondre en trous noirs avant d'avoir pu atteindre une limite. Après de nombreuses tentatives et hypothèses, Smolin put démontrer qu'aucun mur ne peut contrer la pénétration des ondes gravitationnelles, quelle que soit la matière dont le mur est fait, son épaisseur ou sa densité.

Voir 1) The thermodynamics of gravitationnal radiation (mars 1984): 

"Je conjecture, et je montre que, pour une large classe de cas , étant donné une hypersurface de type espace sur laquelle existe une distribution arbitraire de gravitons linéarisés et de matière, laquelle répond à la condition d'énergie positive, la valeur moyenne du nombre d'événements dans lesquels un graviton est absorbé ou dispersés de façon inélastique par la matière dans le temps t , est toujours inférieure à la valeur moyenne du nombre de gravitons dans l'état initial (sauf pour un ensemble de configurations initiales de mesure nulle). Les conséquences de ce résultat sont: (1) l'impossibilité pour tout système contenant la radiation gravitationnelle d'atteindre l' équilibre thermique dans un temps fini, (2) l'absence d'une catastrophe ultraviolette pour le rayonnement gravitationnel, (3) l'impossibilité de mesurer avec précision l'état quantique du champ gravitationnel linéarisé, et (4) l'impossibilité de construire un laser à ondes gravitationnelles."

Voir 2) Sur l'entropie intrinsèque du champ de gravitation (mai 1985) "Je montre que dans la relativité générale linéarisée il est impossible de construire un détecteur par l'utilisation duquel l'état quantique du champ gravitationnel linéarisé peut être déterminée de manière fiable. Ceci parce qu'il n'y a pas de matériau satisfaisant à la condition de l'énergie positive qui puisse servir de bon conducteur ou absorbeur de rayonnement gravitationnel au-delà d'une gamme limitée de fréquences. Si cette propriété est vraie de la théorie complète, alors on peut conclure qu'une certaine proportion de l'énergie et de l'information portée par une onde gravitationnelle est irréversiblement perdue, ce qui correspond à l'entropie intrinsèque associée à une distribution de rayonnement gravitationnel."

Voir aussi: http://link.springer.com/article/10.1007/BF00770328 (par John Dell: Sur l'impossibilité de contenir le rayonnement gravitationnel en équilibre thermique dans une boîte) )

Au contraire, David Garfinkle et Robert M. Wald affirment:  dans http://link.springer.com/article/10.1007/BF00761904): "Nous montrons qu'il est possible, en principe, de construire une boîte qui contiendra le rayonnement gravitationnel pour un temps assez long pour thermaliser il. La boîte est une coquille sphérique mince de matière chargée avec un grand décalage vers le rouge à la surface de la coquille. Le rayonnement est maintenu dans la boîte par le potentiel gravitationnel de la coque et est thermalisée par la transformation entre le rayonnement électromagnétique et gravitationnelle. Nous calculons le temps d'échapper du rayonnement et de montrer qu'il est plus long que le temps de conversion."

De même, T. Padmanabhan , TP Singh  écrivent dans Une note sur la thermodynamique du rayonnement gravitationnel "Il est montré que la radiation gravitationnelle linéarisé confiné dans une cavité peut atteindre un équilibre thermique si la densité moyenne du rayonnement et de la taille de la cavité satisfont à certaines contraintes." (https://arxiv.org/pdf/gr-qc/0305030v2.pdf)

 

Pour obtenir les résultats précédents de Lee Smolin, il n'y a que 3 suppositions à faire: les lois de la relativité générale sont vraies, l'énergie contenue dans la matière est positive et le son ne peut se propager plus vite que la vitesse de la lumière. Sur un plan fondamental, cela signifie qu'il n'existe rien dans la nature qui puisse être un système isolé des influences du reste de l'univers. C'est ce que Lee Smolin appelle le principe de non isolation des systèmes.

Une autre raison pour laquelle modéliser un système ouvert comme si c'était un système isolé est toujours une approximation, c'est que nous ne pouvons anticiper ce qui peut arriver à tout système sur lequel on fait une mesure ou une expérience. On peut mesurer le bruit, et faire avec, mais n'importe quel événement aléatoire peut arriver à notre système de la part du monde extérieur: un avion qui s'écrase sur le laboratoire, un astéroïde qui entre en collision avec la Terre, une coupure de courant intempestive qui interrompt l'expérience etc etc... Il faudrait même envisager une transition de phase tandis que le faux vide dans lequel nous vivons se dissipe (voir Sidney Coleman & Frank de Luccia "Gravitational Effects on and Vaccum Decay"  ou https://arxiv.org/pdf/hep-th/0211160.pdf (Heretics of the False Vacuum: Gravitational Effects On and Of Vacuum Decay. 2). Stephen Hawking reprend aussi une idée similaire: "le boson de Higgs peut détruire l'univers".

En modélisant une expérience comme si c'était un système isolé, nous excluons de fait toutes ces possibilités du modèle. Pour les incorporer, il faudrait modéliser l'univers dans son entièreté. Mais il est impossible de faire de la physique sans les exclure, ce qui implique que notre physique est basée sur des approximations.

 

     3-2) Point 2: Théories effectives mais approchées.

     -Ainsi donc, toutes les théories importantes de la physique sont des modèles de subdivisions de la nature produites par les expérimentateurs. Si on a pu les considérer comme fondamentales par le passé, maintenant les théoriciens viennent à comprendre qu'elles sont seulement des descriptions efficaces mais ne concernent qu'un nombre réduit de degrés de libertés. On peut le mettre en évidence avec une théorie qui marche bien, celle de la physique des particules dont l'idée remonte pourtant au moins au vie siècle av. J.-C.. À l'époque, elle reposait au fond sur l'incapacité à maîtriser la notion de continu : voir les paradoxes de Zénon d'Élée. Les expériences montrent que nous ne pouvons atteindre que jusqu'à certaine échelles de longueur et la plus petite est actuellement d'environ 10 -17 cm atteinte au LHC au CERN alors que la limite au-delà de laquelle la notion de longueur perd une partie de son sens est la longueur de planck {displaystyle ell _{P}=1{,}616 252times 10^{-35}}m. Cela veut dire que le modèle standard, qui s'accorde pourtant avec toutes les expériences réalisées jusqu'ici, doit être considéré comme une approximation, d'autant plus qu'il ne peut rien dire sur la gravitation. Il néglige des phénomènes actuellement inconnus qui pourraient éventuellement le mettre en défaut s'il était possible de sonder les distances plus courtes que celles que permet la technologie actuelle.    

  

 

-Principe d'incertitude et relation distance/énergie.

Le principe d'incertitude de Heisenberg, désigne toute inégalité mathématique affirmant qu'il existe une limite fondamentale à la précision avec laquelle il est possible de connaître simultanément deux propriétés physiques d'une même particule ; ces deux variables dites complémentaires peuvent être sa position et sa quantité de mouvement:  {displaystyle sigma _{x}sigma _{p}geq {frac {hbar }{2}}}Le site "chercheursduvrai.fr" précise: "De façon imagée, on peut dire qu’une particule ayant une onde avec une grande longueur d’onde n’est pas bien localisée et donc son comportement est plutôt celui d’une onde (une onde est un phénomène non localisé). Lorsque la longueur d’onde se raccourcit, la particule apparaît de plus en plus localisée et se comporte de plus en plus comme un corpuscule (un corpuscule est une entité ayant une dimension et une position bien déterminées). En fait, Werner Heisenberg a étudié de près cette question et en a déduit des relations liant la précision que l’on peut obtenir de la vitesse et de la position d’une particule d’une part, et la précision de la mesure de son énergie en fonction de la durée de la mesure d’autre part. Ces relations sont connues sous le nom de relations d’incertitude d’Heisenberg".

Cela signifie qu'il existe une relation inverse entre l'échelle de longueur et l'énergie (par la vitesse) en physique quantique. Pour pouvoir sonder à une certaine échelle de longueur, il faut des particules ou un rayonnement dont l'énergie dépasse un certain seuil. Pour explorer les distances de plus en plus courtes, il faut donc sonder avec des particules ayant de plus en plus d'énergie. La limite atteinte aujourd'hui au CERN correspond à un maximum pour les énergies des processus que nous pouvons (savons) observer. Mais, la Relativité Générale dit qu'énergie et masse c'est la même chose. Par conséquent quand on a sondé seulement jusqu'à une certaine échelle d'énergie, comment savoir si nous n'avons pas ignoré des particules trop massives pour avoir été crées dans un accélérateur de particules? Les phénomènes qui nous échappent encore pourraient concerner toutes sortes de particules, mais aussi des forces encore inconnues. Et même, les principes de la mécanique quantique pourraient s'avérer faux (tout comme les épicycles de Ptolémée) et nécessiter des modifications pour décrire les phénomènes pour des longueurs plus courtes et des énergies plus élevées que celles que les scientifiques expérimentent actuellement.


     -Notion de théorie effective. Cela porte certainement un coup à certaines idées devenues clichés comme celle citée par Richard Feynman selon laquelle "la simplicité et la beauté sont les signes distinctifs de la vérité". En effet, comment parler de la vérité du modèle standard autrement que comme une théorie effective, c'est à dire compatible avec l'expérience mais fiable seulement à l'intérieur d'un certain domaine puisque on ne sait pas ce qui peut se cacher aux très hautes énergies où de nombreuses hypothèses peuvent être cohérentes avec une théorie ou une autre. Certes elles possèdent une simplicité intrinsèque car elles doivent être cohérentes de la manière la plus simple et élégante que possible avec une extension possible de la théorie actuelle dans des domaines inconnus. L'élégance de la relativité générale et du modèle standard s'explique lorsqu'on les considère comme théories effectives et leur beauté est une conséquence du fait qu'elles sont effectives et approchées. Ce sont des signes non de la vérité, mais d'un modèle approché pour un domaine (limité) de phénomènes. Voir note 9 page 306: Ceci explique pourquoi les corps en chute libre voyagent le long  de paraboles. Ces courbes satisfont à des équations qui sont simples parce qu'elles ne nécessitent que 2 éléments d'information pour les définir: l'accélération due à la gravitation et la vitesse initiale avec la direction du mouvement.

Cette notion de théorie effective reflète une plus grande maturité des théoriciens et de la théorie. Comme dans la vie réelle où avec l'âge on ne cherche plus le seul idéal (la théorie fondamentale), mais nous gagnons en confiance sur ce que nous connaissons vraiment et acceptons plus facilement notre ignorance sur ce que nous ne connaissons pas. Cela peut sembler décevant. Depuis Galilée (pour qui les mathématiques, ce « langage décrivant la nature » qu'il appelait de ses vœux pour « l'écriture mathématique du livre de l'Univers ») en passant par Newton avec son oeuvre monumentale "Philosophiae naturalis principia mathematica puis par Einstein avec la Relativité Générale, la physique était censée être la quête des lois fondamentales de la nature. Une théorie effective n'est pas que cela. Elle doit permettre la compréhension de ce qu'est la progrès en construisant des théories approchées toujours meilleures qui mettent en mesure de pousser les expériences toujours plus loin aux distances toujours plus courtes et aux énergies plus élevées. Comme le modèle standard, ce sera une théorie effective mais qui sera applicable au sein d'un domaine de plus en plus élargi. On peut considérer la physique newtonienne comme théorie effective s'appliquant à un domaine où les vitesses sont beaucoup plus faibles que celles de la lumière et où les effets quantiques peuvent être négligés. La relativité générale qui l'a supplantée a augmenté le domaine de validité de la physique newtonienne et fut candidate à devenir la description fondamentale de la nature. Mais elle laisse de côté les phénomènes quantiques et elle est maintenant comprise comme une théorie effective, au mieux l'approximation d'une théorie quantique unifiée de la nature. De même, la théorie quantique est l'approximation d'une théorie plus fondamentale. Un indice en est que ses équations sont linéaires, c'est à dire que les effets sont toujours directement proportionnels à leurs causes alors que dans la nature la plupart des effets du monde réel sont non-linéaires, ce qui est la raison de la difficulté à reproduire fidèlement des informations par des techniques analogiques. "Maintenant on s’occupe de plus en plus, et à juste titre, de physique non-linéaire et bifurcations. C’est en fait la physique préférée de la nature, mais elle n’admet que rarement de solutions analytiques, d’où sa mise à l’écart dont elle sort à peine. Et pourtant quelle richesse de comportements nous apporte-t-elle !".

Comme l'écrit Lee Smolin, "il y a fort à parier que que ce sera également le cas pour la mécanique quantique".

 

4) Conclusion.  Nous avons vu dans l'article II donnant ma lecture de la renaissance du temps chapitre 8, que pour Lee Smolin, la seule manière d'échapper aux problèmes, dilemmes et paradoxes qui se présentent devant la physique actuelle, c'est d'adopter une méthodologie qui va au-delà du paradigme newtonien, c'est à dire chercher un nouveau paradigme applicable à la physique à l'échelle de l'univers. Sinon, on se place face au risque que la physique finisse dans l'irrationalité et le mysticisme.On l'a vu, l'application d'une loi à n'importe quel morceau de l'univers implique une approximation  parce que c'est faire de la physique dans une boite, et il faut alors négliger toutes les interactions entre ce morceau et le reste de l'univers. Donc, les applications vérifiables d'une loi de la nature sont toutes des approximations et si on veut appliquer une loi sans approximation, c'est à l'univers entier qu'il faudrait l'appliquer. Mais il n'existe qu'un univers, ce qui signifie qu'appliquer une loi particulière à un cas unique et cela ne peut apporter suffisamment d'indices pour affirmer qu'une loi particulière s'y applique. Lee  Smolin suggère d'appeler ceci le dilemme cosmologique.  Rien dans la  chair des théories existantes ne peut nourrir une théorie vraiment fondamentale affirme t-il avec force.

Ce partage du monde en ses composantes dynamiques et un fond qui "le cerne" est comme on vient de la voir la caractéristique géniale du paradigme newtonien. C'est elle qui a contribué au succès fulgurants des modèles scientifiques relativiste et quantique. Mais c'est paradoxalement ce qui rend ce paradigme inapplicable dans sa globalité. En effet, il ne peut pas exister de composante statique car tout dans l'univers change et il n'existe aucun extérieur, rien par rapport à quoi les mouvements du reste puissent être mesurés si l'univers est ce qui contient TOUT. Surmonter cet obstacle est ce que Lee Smolin appelle le défi cosmologique.     

Mais comment surmonter cet obstacle et relever le défi? 

Nous devons formuler une théorie nouvelle, que nous pourrons appliquer de façon consistante (sans incohérence) à TOUT l'univers. Dans une telle théorie, chaque "acteur" dynamique doit être défini en terme d'autres acteurs (et non en fonction de paramètres extérieurs tels que le temps t). 

La mécanique newtonienne ou la physique quantique étaient pourtant de bonnes candidates pour être des théories fondamentales, miroirs parfaits du monde naturel où tout ce qui est vrai de la nature trouverait un écho dans un fait mathématique qui serait vrai pour la théorie. Le paradigme de newton, basé sur des lois "intemporelles"  agissant sur un espace de configuration intemporel est dans ce cadre, essentiel à cet effet miroir. Au vu des difficultés actuelles rencontrées par la physique, Lee Smolin suggère rien moins que de voir dans cet effet miroir un fantasme métaphysique qui mène aux problèmes, dilemmes et confusions constatés dès qu'on essaye d'appliquer le paradigme newtonien à l'ensemble de l'univers. Une ré-évaluation, déjà effective chez les physiciens, aboutit à deux changements de perspective simultanés:

     *"Toutes les théories avec lesquelles nous travaillons, incluant le modèle standard de la physique des particules élémentaires et la relativité générale sont des théories approchées, s'appliquant à des subdivisions de la nature qui incluent seulement un sous-ensemble de degrés de liberté de l'univers. Nous appelons une telle théorie approchée théorie effective".

     *Dans toutes nos expériences et observations impliquant des subdivisions de la nature, nous enregistrons les valeurs d'un sous-ensemble de degrés de liberté et ignorons le reste. Les enregistrements qui en résultent sont comparés aux prédictions des théories effectives"


Ainsi, le succès actuel de la physique repose sur l'étude de ces subdivisions de la nature, modélisées par des théories effectives. Dans l'histoire de la physique, on n'a jamais pu comparer les prévisions d'une théorie voulant être "vraiment fondamentale" avec l'expérience (une théorie "fondamentale" ne peut comprise comme une théorie effective). Examinons ces points.

     Point 1: La physique expérimentale est l'étude des subdivisions de la nature. Le sous-système modélisé par une théorie approchée comme s'il existait seul dans l'univers, en négligeant tout ce qui lui est extérieur, s'appelle un système isoléSur un plan fondamental, cela signifie qu'il n'existe rien dans la nature qui puisse être un système isolé des influences du reste de l'univers. C'est ce que Lee Smolin appelle le principe de non isolation des systèmes.

     Point 2): Théories effectives mais approchéesAinsi donc, toutes les théories importantes de la physique sont des modèles de subdivisions de la nature produites par les expérimentateurs. Ceci est une prise de conscience qui a son prix à payer: le prix du succès de nos théories actuelles est qu'elles sont des approximations. 


Conclusion de Lee Smolin:  "il n'est pas interdit de cultiver l'ambition d'inventer une théorie fondamentale qui décrira enfin la nature sans approximation. Mais la logique comme l'histoire nous disent que ceci sera impossible tant que nous resterons dans le paradigme newtonien. Aussi admirables que soient la physique newtonienne, le relativité générale, la mécanique quantique et le modèle standard, ils ne pourront nous servir de canevas pour une théorie fondamentale en cosmologie. Le seul chemin possible vers une telle théorie nous force à relever le défi cosmologique et à façonner une théorie hors du monde du paradigme newtonien, pouvant être appliquée à l'univers entier sans aucune approximation.
C'est ce qui va être envisagé dans le prochain article qui sera consacré à "ma lecture" du chapitre 10 du livre le Lee Smolin: NOUVEAUX PRINCIPES DE COSMOLOGIE.


liens:  https://www.jp-petit.org/science/smolin/SmolinLivre.pdf (Sur le livre de Lee Smolin Michel Mizony juillet 2007) https://www.unil.ch/files/live/sites/philo/files/shared/p... (Aspects structuraux de l’espace-temps dans la théorie de la relativité générale par Vincent Lam Université de Lausanne)
http://planet-terre.ens-lyon.fr/article/histoire-gravite-... (Pourquoi les corps tombent-ils ? Une histoire de la gravité d'Aristote à Einstein (1/3))

http://planet-terre.ens-lyon.fr/article/histoire-gravite-...  (Pourquoi les corps tombent-ils ? Une histoire de la gravité d'Aristote à Einstein (2/3))

http://planet-terre.ens-lyon.fr/article/histoire-gravite-... (Pourquoi les corps tombent-ils ? Une histoire de la gravité d'Aristote à Einstein (3/3))

http://www.lesaviezvous.net/nature/animaux/de-nombreuses-... (de nombreuses cultures croient que nous vivons sur le dos d'une tortue géante)

http://www.sartoretti.org/display.php?id1=1786 (Les premiers maîtres de la gravitation D'Aristote à Poincaré, il a fallu des siècles pour tirer de l'observation des pommes qui tombent une description mathématique de leur chute. Et parvenir enfin à une théorie scientifique)

http://www.aim.ufr-physique.univ-paris7.fr/CHARNOZ/homepa...   (L'HISTOIRE DU CONCEPT DE GRAVITATION Par Sébastien Charnoz )
http://www.la-bible-sur-le-net.org/etudes/La_bible/labibl... (Les hindous se figuraient que la terre reposait sur plusieurs fondements successifs : D’abord sur quatre éléphants, les éléphants sur une tortue géante, et la tortue sur un gigantesque serpent enroulé qui flottait sur les eaux de l’univers)
https://www.cairn.info/revue-de-metaphysique-et-de-morale... (marc lachièze-rey: cosmologie scientifique)

http://www2.iap.fr/users/pitrou/publi/tapuscrit.pdf (Thèse Cyril PITROU: Dynamique non-linéaire et anisotropie primordiale en cosmologie)

http://lptms.u-psud.fr/nicolas_pavloff/files/2010/03/cour... (champ moyen et théories effectives)

http://itp.epfl.ch/webdav/site/itp/users/114207/public/Re... (Prof. Hervé Kunz Institut de Théorie des Phénomènes Physiques Faculté des Sciences de Base, Physique CH-1015 Lausanne)


relativité générale:

http://etienneklein.fr/wp-content/uploads/2016/05/coursRG... (dans etienneklein.frINTRODUCTION A LA RELATIVITE GENERALE Luc BLANCHET GRεCO, Institut d’Astrophysique de Paris, UMR 7095 du CNRS, Université Pierre & Marie Curie)

https://hal.archives-ouvertes.fr/cel-00092961/document (relativité générale pour débutants)

http://www-cosmosaf.iap.fr/MIT-RG1F.pdf (Cours de Relativité Générale D’après “ lecture notes on General relativity ” De Sean M. Carroll http://preposterousuniverse.com/grnotes)

http://itp.epfl.ch/webdav/site/itp/users/114207/public/Re... (Relativité Générale Prof. Hervé Kunz Institut de Théorie des Phénomènes Physiques)

http://www.bourbaphy.fr/damour4.pdf (séminaire poincaré: La Relativité générale aujourd’hui Thibault Damour Institut des Hautes Etudes Scientifiques)

http://homepages.ulb.ac.be/~gbarnich/Relatgene.pdf (Introduction à la relativité générale par Christiane Schomblond et Glenn Barnich Universit´e Libre de Bruxelles)


autres liens: https://tel.archives-ouvertes.fr/tel-01165379/document (Géométrie des espaces de tenseurs Une approche effective appliquée à la mécanique des milieux continus par Marc Olive)

problème des neutrinos solaires: Le problème des neutrinos solaires est apparu récemment avec la création de structures permettant la détection des neutrinos, et en particulier Super-Kamiokande dans les années 1990 au Japon.

Résolution du problème:  Il provient d'une quantité trop faible de neutrinos détectés par rapport à la valeur théorique

Le problème du manque de neutrinos solaires détectés est à présent attribué à des oscillations des neutrinos. La physique quantique prédit en effet la possibilité que les neutrinos puissent changer de nature ('osciller'), si leur masse n’est pas rigoureusement nulle, c’est-à-dire qu’un neutrino électronique puisse spontanément au bout d’un certain temps se transformer en neutrino muonique ou tauique, et vice-versa, ceci même dans le vide. Le déficit en neutrinos électroniques détectés serait donc dû selon cette hypothèse au fait que parmi les neutrinos émis par le soleil, tous de type électronique, un certain nombre se transformerait pendant le trajet Soleil-Terre en neutrinos muoniques ou tauiques, que les détecteurs actuels ne perçoivent pas.

Accessoirement la validation de ce phénomène dit d'oscillation a par ailleurs conduit à déduire que le neutrino a bien une masse non nulle.

 

https://www-fourier.ujf-grenoble.fr/~faure/enseignement/m... (méthodes d'approximation, résolution approchée)

 

 

09:34 Écrit par pascal dans science et conscience | Lien permanent | Commentaires (0) | |  del.icio.us | | Digg! Digg |  Facebook

Les commentaires sont fermés.