Article 5 la renaissance du temps Partie II chap. 12 (la mécanique quantique et la libération de l’atome)


La renaissance du temps (Lee Smolin:  Partie II chap. 12)

La mécanique quantique et la libération de l’atome

La réalité du monde physique et la gravité quantique: par delà le visible par calo Rovell

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)


Préambule: Dans ces articles que je consacre à Lee Smolin, j’écris la suite des articles de mon blog à propos des univers multiples d’Aurélien Barrau pour les quels je retiens quelques commentaires qui vont orienter mes réflexions nouvelles.

Dans l’article « D’après Aurélien Barrau, Univers multiples Chap 1)« : les propositions nouvelles face aux problèmes et paradoxes de la physique « peuvent constituer une « pulsion inchoactive » qui poussera vers une découverte sans précédent ou bien vers un réenchantement de ce que l’on savait déjà sans en avoir pris la « dé-mesure » et finalement vers une nouvelle sacralisation du « monde ».
Dans « D’après Aurélien Barrau, Univers multiples. La gravitation quantique chp. 9« : au chapitre L ConclusionCet article fait suite à l’article « D’après Aurélien Barrau, Univers multiples Chap 1)« : « Aujourd’hui, la physique est en crise, le monde est en crise. Avec Lee Smolin et son « rien ne va plus en physique« , Carlo rovelli parle de la schizophrénie bipolaire des physiciens (voir une révolution inachevée). La vision anthropique de Trin Xhuan Thuan et ma vision évangélique du monde, qui s’origine dans les mythes de l’Un et de l’ordre émergeant du Chaos initial, semblent exclus de la vision de bien des physiciens et cosmologues qui découvrent, comme l’a fait Jean Pierre Luminet, que l’Univers ne peut avoir été infiniment dense et donc que le big bang ne peut avoir été tel qu’on se l’imaginait depuis de nombreuses décennies. La possibilité d’un avant big bang a été mise en évidence avec un univers précédent qui se serait condensé jusqu’à une taille extrêmement petite mais non nulle et qui aurait « rebondi » en un big bounce pour donner notre Univers actuel en expansion après le phénomène d’inflation cosmique. Un des derniers rebondissements de ces recherches, avec Lee Smolin, pourrait bien aboutir avec sa « renaissance du temps » à une solution de la contradiction entre la physique quantique et la théorie de la relativité. A priori, ce serait une théorie unifiée des interactions fondamentales.

-&&&-

Nous avons vu , au cours du long article consacré au chapitre 9 du livre « les mpndes multiples« , de nombreuses théories nouvelles ou hypothèses qui proposent l’unification de la physique ou tout au moins des explications aux dilemmes et paradoxes que la cosmologie moderne a mis en évidence. Mais, dans « la renaissance du temps« , au chapitre 8 qui fait l’objet de cet article, Lee Smolin prévient: Le paradigme newtonien ne peut même pas apporter un embryon de réponse à ces questions et dilemmes: Pourquoi ces lois? Pourquoi ces conditions initiales de l’univers? Quel mécanisme les a t-il sélectionnées parmi une multitude infinie de possibilités? etc. Il appelle ceci « l’erreur cosmologique »: appliquer à l’Univers entier dans sa globalité des lois établies et vérifiées sur des sous-systèmes. Dans le paradigme newtonien, ce que nous appelons une loi doit s’appliquer dans tous les cas. Mais l’application d’une loi à n’importe quel morceau d’univers implique une approximation, parce que nous devons négliger toutes les interactions entre ce morceau et le reste de l’univers. Donc les applications vérifiables d’une loi sont toutes des approximations. Smolin fait remarquer en particulier que les lois se vérifient sur beaucoup de sous-systèmes. Mais si on veut appliquer une loi de la nature sans approximation, c’est à l’univers entier qu’il faudrait l’appliquer, alors que nous n’avons qu’un seul Univers sous la main. Et un seul cas n’apporte pas suffisamment d’indices pour justifier l’affirmation qu’une loi particulière de la nature s’applique. C’est ce que Lee Smolin appelle le dilemme cosmologique (faire de la physique dans une boite: « on considère un petit sous-système isolé du reste de l’univers dans lequel on néglige certains effets pour ne s’intéresser qu’à certaines variables qui définissent un espace de configuration, atemporel »). Et pourquoi cette loi et pas une autre? De plus, beaucoup de théories cosmologiques (théorie des cordeséquation d’Einstein …) admettent en réalité une infinité de solutions, parmi lesquelles une seule correspond à notre univers. Doit-on se résoudre à admettre l’existence d’une infinité d’Univers inaccessibles pour pouvoir justifier le notre par un principe anthropique

Nous pensions, dit Lee Smolin, savoir comment répondre à ces questions. Une théorie unique mathématiquement cohérente pourrait incorporer les 4 lois fondamentales de la nature. Mais cet espoir a été anéanti. On se trouve face à ce qu’il appelle « le défi cosmologique ». On vient de voir qu’il faudrait étendre la science à une théorie de l’Univers entier. Le défi est qu’il ne peut pas exister de composante statique qui puisse servir de cadre de référence, car tout dans l’Univers change et il n’existe aucun extérieur, rien qui puisse être qualifié de fond par rapport auquel les mouvements du reste de l’Univers (que nous négligeons). Or, toutes les théories physiques divisent le monde en deux parties, une partie « dynamique », qui change, et une statique, qui contient un « fond » de choses immuables, comme les constantes fondamentales.  Le « défi cosmologique » consiste à formuler une théorie de l’univers « indépendante du fond », purement dynamique afin de ne rien supposer d’extérieur à l’Univers:  » Lorsqu’on fait de la « physique dans une boite », le « fond » comprend notamment les conditions initiales, et la méthode expérimentale permet de contrôler les conditions initiales afin de s’assurer que les lois sont indépendantes de ces conditions. En cosmologie, cette distinction entre « lois » et « conditions initiales » aggrave le problème qu’elle résout « dans une boite »: si nos observations du fond diffus cosmologique ne correspondent pas bien à la théorie de l’inflation cosmologique, faudra-il corriger la loi ou les conditions initiales? Smolin critique aussi les théories effectives qui décrivent bien ce qui se passe à une certaine échelle de grandeur, mais en négligeant l’influence de ce qui est beaucoup plus grand ou plus petit. » Pour Smolin, la théorie issue du défi cosmologique doit tenir compte de tout, sans rien négliger. »

Je vais maintenant retracer « ma lecture » plus complète du livre de Lee Smolin d’une manière peu orthodoxe en ne commençant pas par la partie I (« le poids: le mort du temps), mais par la partie II « Lumière: la renaissance du temps ». La partie I fera l’objet d’autre articles. Cette « mort du temps » est comme l’épilogue de la constatation de Lee Smolin traduite par son livre « rien ne va plus en physique (l’échec de la théorie des cordes) » Cette partie I explique pourquoi depuis la naissance de la science moderne, avec l’effet Copernic et Galilée, le paradigme newtonien sous-tend toutes les théories y compris les théories quantiques et  la relativité  (le « paradigme newtonien » et ce qu’il a impliqué, dont l’hypothèse des multivers, est utile pour décrire l’évolution d’un système dans un laboratoire, mais il perd tout sens appliqué à l’univers entier. Il n’explique pas pourquoi telles ou telles lois sont choisies parmi l’infinité de lois possibles.Selon celui-ci, un système, quel qu’il soit, pourrait être décrit par un ensemble d’états initiaux qui lui sont attribués, puis par les lois présidant à son évolution en fonction du temps. Mais si ces données sont utilisées initialement pour décrire le système, il n’est pas possible de considérer qu’elles pourraient aussi être le résultat de son évolution. Il faut rechercher d’autres lois, ce que je vais tenter de faire maintenant en commentant celui qui ose affronter un nouveau paradigme, Lee Smolin.

http://www.wearealgerians.com/up/uploads/139910915883722.pdf

Rien ne va plus en physique ! – L’échec de la théorie des cordes 

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)

http://medias.dunod.com/document/9782100706679/Feuilletage.pdf (la renaissance du temps Dunod: quelques pages à feuilleter)

http://www.paris8philo.com/article-33714241.html: à propos de rien ne va plus en physique: billet de Jean Zin, pour une physique pluraliste, qui nous paraît essentiel pour comprendre les enjeux des théories physiques actuelles qui souvent tendent vers l’impossible, hors toute avancée, toute brèche se fait par dissymétrie, sans souci du qu’en-dira-t-on il suffit de voir l’attitude de Grigori Perelman, si non-chalante vis-à-vis de la communauté scientifique, ou devrait-on dire l’etablishment. Jean Zin reste un grand guetteur de ce qui se passe en science, nous vous recomandonsses articles.

Dans ce nouvel article, je donne « ma lecture » du chapitre 12): « La mécanique quantique, sa naissance et la libération de l’atome ».


« Toute cette discussion, conclut Lee Smolin en fin du chapitre 11 n’est pas tant la création d’univers à partir de trous noirs ou à partir de bulles durant l’inflation que du rôle joué par le temps et la dynamique dans la logique par laquelle les scénarios expliquent des propriétés connues de l’univers et en prédisent de nouvelles. Une théorie qui postule une évolution continue au cours du temps fait mieux que la théorie intemporelle pour expliquer les éléments de preuve observationnels. Elle fait une prédiction propre, tandis que les prédications de l’argument anthropique sont ajustables, comme on l’a vu, selon l’utilisation que nous voulons en faire. Les hypothèses basées sur l’idée que les lois de la nature évoluent avec le temps sont plus vulnérables à la falsification que les scénarios de cosmologie intemporelle, donc plus scientifiques au sens de Popper.

Pour Smolin, la réalité du temps est donc la clef pour affronter le mystère de « CE » qui sélectionne les lois de la physique. Nous allons maintenant voir, en commençant par le domaine quantique comment s’y prendre pour relever le défi lancé par le « rien ne va plus en physique » et comment Lee Smolin ose affronter un nouveau paradigme qu’il appelle de ses voeux dans ce nouvel article: La renaissance du temps article 5 (Lee Smolin: Partie II chap. 12) – La mécanique quantique et la libération de l’atome ».


1) Commençons par le temps et ce qu’en disent les physiciens.

Dans son cours de philo, PJ Dessertine conclut: « Le temps n’est ni simplement une réalité objective ou subjective, il ne peut non plus être seulement une forme transcendantale au sens kantien. Et pourtant, il est indéniable qu’il possède toutes ces facettes contradictoires. Et si le temps défie ainsi la logique, c’est parce qu’il renvoie à une réalité plus fondamentale. L’homme vit dans le temps et met l’ensemble des réalités dans le temps parce qu’il existe (étymologiquement ek-sistere: être hors de soi), c’est-à-dire parce qu’il est continuellement contraint de confronter son « infini intérêt à vivre » (Kierkegaard) avec une réalité qui par sa nature changeante lui est inadéquate. Il convient d’insister : il ne s’agit pas d’un retour au temps subjectif. L’existence, le désir, le changement, réalités qui contribuent à l’élucidation du temps, sont préalables à la formation du sujet. Ce qu’exprime la notion de temps, au-delà de toute caractérisation du monde ou du moi, c’est un pathétique proprement métaphysique du vivre humain. »

La science, depuis Copernic, Galilée et Newton n’a vu dans le temps que ce paramètre t, temps de newton et de toutes les théories scientifiques depuis lors. Mais la question fait débatNous avons vu dans l’article précédent, La renaissance du temps: Les lois évolutives (Partie II chap. 11), que la réalité du temps, selon Lee Smolin, est la clef pour affronter le mystère de ce qui sélectionne les lois de la physique. « Il est temps que la physique reconnaisse que le temps est réel » (26 April 2013 par Lee Smolin). Pour cela, il fait l’hypothèse que les lois évoluent. Continuons de le suivre sur ce chemin. Il se trouve que le fait de considérer que le temps est fondamental peut aider, comme nous allons le voir plus loin à résoudre l’énigme de la signification à donner à la mécanique quantique. La réalité du temps permet même une nouvelle formulation de la théorie quantique comme nous allons le voir aux chapitres 3) et 4) et cela peut nous éclairer sur la façon dont les lois évoluent avec le temps.


liens:

Une nouvelle classe de modèles d’espace-temps quantifiés basé sur des ensembles de causalité énergétiques: (l’Univers en tant que processus des événements uniques) par Marina Cortês , Lee Smolin  (https://arxiv.org/pdf/1307.6167v3.pdf)

http://www.matierevolution.fr/spip.php?article598 (qu’est-ce que le temps? voir comment Lee Smolin montre que le temps physique est la clef de la nouvelle révolution indispensable à la Physique moderne)

https://actualite.housseniawriting.com/science/2016/07/28/un-debat-sur-la-physique-du-temps/16984/ (Selon nos meilleures théories de la physique, l’univers est un bloc fixe où le temps ne fait que passer. Mais quelques physiciens, dont lee smolin veulent remplacer cet univers-bloc avec une théorie physique du temps)


2) La théorie quantique 

     2-1) Etienne Klein explique ici que « c’est en 1900 que le physicien allemand Max Planck utilise pour la première fois le terme « quanta » pour désigner les « paquets » d’énergie échangés entre la lumière et la matière. Cette idée nouvelle, qui lui sert d’artifice de calcul, sera exploitée en 1905 par Albert Einstein dans sa démonstration expérimentale de l’existence de l’atome : la physique quantique vient de naître. » La physique quantique? Une révolution scientifique et philosophique « si l’on devait choisir un seul qualificatif pour définir le monde moderne depuis le XVIe s jusqu’à nos jours, avec en point d’orgue le XIXe, ce serait assurément celui de « matérialiste ». Le matérialisme a vraiment imprégné les mentalités et les idéologies propres à la Modernité (on pense par exemple au  » matérialisme historique » si cher à Engels et a Marx) mais également la science qui fut, en quelque sorte, son bras armé […] Cest alors que des le début du XXe siècle se mettra en place une toute nouvelle approche scientifique qui, s’intéressant à « l’infiniment petit », prendra le nom de « physique quantique » ou de « théorie des quanta » et mettra à bas les certitudes de la physique ’classique’ matérialiste. Cette nouvelle approche fut tellement révolutionnaire à l’époque qu’elle remit en cause beaucoup de nos paradigmes anciens et qu’elle constitue, aujourd’hui plus que jamais, un véritable pont entre la science et la religion. »

     2-2) La théorie quantique est certainement la théorie physique la plus performante jamais inventée, avec un degré de précision inouï (par exemple le moment magnétique de l’électron est connu avec une précision de 4 10-9, ce qui représente 1 mm sur 4 000 km) ou comme Bernard Dugué le dit: dans agoravox.fr « Le modèle standard peut se prévaloir d’une efficacité inouïe pour prédire certains résultats avec une précision qui la place au sommet des théories scientifiques sur ce point. Un golfeur aussi précis pourrait mettre la balle dans un trou situé sur la planète mars ». Il n’y a guère de technologie numérique, chimique, ou biologique, médicale, du système GPS à l’Internet haut débit à la boite quantique et bientôt au calculateur quantique, encore embryonnaire (?) avec microsoft dans la course et dont nous dépendons de plus en plus qui ne doive son existence à la physique quantique.

Pourtant Lee Smolin, tout comme Einstein, mais avec la conscience des  problèmes et paradoxes que nous avons vu en préambule et que David Louapre appelle Les 7 merveilles de la mécanique quantique, (Lee Smolin) affirme qu’il y a de fortes raisons de croire que la mécanique quantique est incomplète: Il écrit dans « La renaissance du temps »: « Einstein mit en lumière il y a longtemps que la mécanique quantique est incomplète parce qu’elle échoue à donner une description de ce qui se passe dans une expérience individuelle. Que fait au juste l’électron lorsqu’il saute d’un état d’énergie à un autre ? Comment des particules trop éloignées l’une de l’autre parviennent-elles à communiquer instantanément ? Comment semblent-elles apparaître en deux endroits à la fois ? La mécanique quantique ne fournit pas de réponse… La mécanique quantique est une théorie problématique pour trois raisons étroitement liées. La première est son échec à donner une image physique de ce qui se passe dans un processus ou une expérience individuels : contrairement aux théories physiques précédentes, le formalisme que nous utilisons en mécanique quantique ne peut pas être lu comme nous montrant ce qui se passe à chaque instant. Deuxièmement, dans la plupart des cas elle échoue à prédire le résultat précis d’une expérience ; plutôt que de nous dire ce qui va se passer, elle ne nous donne que des probabilités pour les différentes choses susceptibles de se produire. La troisième et plus problématique caractéristique de la mécanique quantique est que les notions de mesure, d’observation ou d’information sont nécessaires pour exprimer la théorie. Elles peuvent être vues comme des notions primitives ; elles ne peuvent pas être expliquées en termes de processus quantiques fondamentaux… Si vous voulez décrire complètement un système en physique classique, vous répondez à toutes les questions, et ceci vous donne toutes les propriétés. Mais en physique quantique, le dispositif dont vous avez besoin pour poser une question peut vous empêcher de répondre aux autres questions. Par exemple, vous pouvez demander ce qu’est la position d’une particule, ou vous pouvez demander ce qu’est le moment, mais vous ne pouvez pas poser ces deux questions à la fois. C’est ce que Niels Bohr a appelé la complémentarité, et c’est aussi ce que les physiciens signifient lorsqu’ils parlent de « variables non-commutatives »… En embrassant la réalité du temps, nous ouvrons un chemin pour comprendre la théorie quantique qui éclaire ses mystères et pourrait bien les résoudre. Je crois que la réalité du temps rend possible une nouvelle formulation de la mécanique quantique… Nous sommes habitués à l’idée de lois intemporelles de la nature agissant à l’intérieur du temps, et nous ne trouvons plus cela étrange. Mais prenez suffisamment de recul, et vous verrez que cela repose sur de grandes suppositions métaphysiques qui sont loin d’être évidentes… Il est une tradition – commençant avec Niels Bohr – d’affirmer que l’échec de la théorie quantique à donner une image de ce qui se passe au cours d’une expérience individuelle est l’une de ses vertus et non pas un défaut. Bohr a argumenté avec talent que le but de la physique n’est pas de fournir une telle image mais plutôt de créer un langage grâce auquel nous pouvons parler entre nous de notre préparation des expériences sur des systèmes atomiques et de ce que les résultats nous ont donné. Je trouve les écrits de Bohr fascinants mais peu convaincants. Je ressens la même chose à propos de certains théoriciens contemporains, qui disent que la mécanique quantique ne porte pas « sur » le monde physique, mais sur l’ « information » que nous avons sur le monde physique. Ces théoriciens avancent que l’état quantique ne correspond à aucune réalité physique ; il ne fait que coder l’information que nous, observateurs, avons sur un système… Après tout, quelque chose se passe lors d’une expérience individuelle. Quelque chose, et seulement ce quelque chose, est la réalité que nous dénommons électron ou photon. Ne devrions-nous pas être capables de saisir l’essence de l’électron individuel dans un langage conceptuel et un cadre mathématique ? … Alors je me range aux côtés d’Einstein. Je crois qu’il existe une réalité physique objective et que quelque chose qu’on peut décrire se produit quand un électron saute d’un état d’énergie dans un autre. Et je cherche une théorie qui en donne cette description. Bernard Dugué dit la même chose: « La physique quantique va permettre à la science occidentale de sortir de l’impasse moderniste et j’en suis certain. Vous n’en saurez pas plus. Ce court billet a vocation à susciter la curiosité. La solution de l’énigme sera révélée dans un livre assez consistant qui parlera aussi de cosmologie et qui dénotera avec des contrastes dans le contenu. Ne voyez aucune vanité dans ces propos. » Voir en complément les liens en fin de ce chapitre.

     2-3) C’est sûr, la physique quantique est un défi dans les efforts pour comprendre le monde. Villemin.Gérard le résume:« De manière particulièrement précise, elle permet: de comprendre la chimie, la découverte du transistor, la mise au point des lasers, le développement de la physique nucléaire, d’expliquer l’univers de façon cohérente. Mais, elle échappe à l’entendement. Elle est très difficile à comprendre. Elle ne traite pas de notre univers quotidien. Aucune image possible. C’est une création de l’esprit humain: Avec utilisation de mathématiques sophistiquées; Sans relation directe avec la réalité; Théorie faite de symboles; et Utilisant une équation donnant des probabilités: l’équation de Schrödinger » Dans Agoravox.frBernard Dugué continue: « Seconde révolution quantique : Les particules et les champs n’existent pas ! La « déchirure ontologique » dans la matière et la revanche de Platon [… ] La théorie quantique des champs (QFT) a abouti au modèle standard et peut se prévaloir d’une efficacité inouïe pour prédire certains résultats avec une précision qui la place au sommet des théories scientifiques sur ce point. Un golfeur aussi précis pourrait mettre la balle dans un trou situé sur la planète mars. D’où une situation assez étrange car malgré cette théorie qui n’a fait qu’accumuler des succès expérimentaux et qui est d’une précision incroyable, les physiciens ne savent toujours pas quelle est la réalité qu’elle décrit. Ils savent l’utiliser mais sans comprendre ce qui se trame derrière, autrement dit ce qu’elle révèle de la nature [. .] Cette physique triomphe en laissant derrière elle une métaphysique très incertaine, pour ne pas dire absente… Le principal enseignement à retenir, c’est que la représentation et la compréhension de l’univers acquises depuis les débuts de la science moderne au 17ème siècle sont sur le point de basculer. Le monde avec ses objets basiques, ses interactions, ses forces, perd son statut ontologique. Le champ matériel et l’étendue ne sont que des propriétés dérivées et non plus fondamentales, même en les considérant sous l’angle des théories quantiques conventionnelles. L’illusion scientifique moderne s’effondre Elle a consisté pendant quatre siècles à faire comme si le monde physique étendu de Descartes, Newton puis Einstein, avec l’espace-temps et la matière, était le monde fondamental, un peu comme si on observait l’écume au dessus des océans pour en conclure que les fonds marins sont fait de cette même écume. Nous ne sommes qu’au début d’une immense révolution des connaissances. »     

     2-4) Tout ceci n’est pas débattu. La physique quantique ne donne effectivement aucune image physique de ce qui se passe dans une expérience individuelle. Que fait au juste l’électron lorsqu’il saute d’un niveau d’énergie à un autre? Comment des particules l’une de l’autre parviennent t-elles à  communiquer instantanément? Comment semblent apparaître en deux endroits à la fois? La mécanique quantique ne fournit pas de réponse. 

Partons du Dyptique de la mécanique quantiqueElle décrit une physique:

« Déterministe : La physique quantique est un modèle qui estime l’évolution des systèmes physiques isolés. Espace de dimension infinie (espace de Hilbert), Équation déterministe: équation de Schrödinger. La physique quantique serait purement déterministe, s’il n’y avait pas d’observateur. Un tout global, holistique. Le vecteur d’état est la somme des divers états propres du système. Une somme des états propres de la grandeur que l’on va mesurer. Statistique de tous les états.

Probabiliste: L’aspect probabilistique se manifeste lors des opérations de mesure. On mesure les grandeurs: Position, vitesse, énergie …Projette le système dans l’un de ses états propres par une sorte de tirage au sort. La physique quantique serait purement déterministe, s’il n’y avait pas d’observateur. Mesurer, c’est tirer au sort. C’est observer le tout sous l’une de ses facettes. C’est faire un instantané photo d’un des états compris dans le tout. Faire la mesure, projette le système vers l’un de ses états propres. Une instance de ces états.

La description du monde microscopique que fournit la mécanique quantique s’appuie sur une vision radicalement nouvelle, et s’oppose en cela à la mécanique classique. Elle repose sur des postulats et « Notions fondamentales sur la mécanique quantique.

     *Un état quantique est ce qui quantifie ce que l’on peut savoir d’un système quantique. Il permet de calculer les probabilités et les valeurs moyennes mesurées des observables   (position, quantité de mouvement etc.). Les états quantiques sont décrits mathématiquement par un  vecteur d’état dans un espace de Hilbert, représenté par une notation dédiée introduite par Dirac, dite notation bra-ket7. Un état quantique s’écrit alors sous la forme |\psi \rangle . L’évolution dans le temps de ce vecteur d’état est décrit mathématiquement par la fonction d’onde\Psi (t)gouvernée par l’équation de SchrödingerCes deux représentations concernent les états purs, c’est-à-dire les états de systèmes quantiques simples idéalisés et isolés, où chaque composante peut être quantifiée et observée. Pour les états mixtes, représentant les états quantiques en interaction complexe avec un environnement ou un appareil de mesure, où les composantes sont trop nombreuses ou inaccessibles à l’observation, l’état quantique est plutôt représenté par une matrice densité.

     *Principe de superposition: C’est le plus important postulat de la mécanique quantique. Selon ce principe, si un système physique peut se trouver dans un état |\varphi \rangle , , et si de même il peut se trouver dans un état |\psi \rangle  alors il peut aussi se trouver dans un état linéairement composé : \alpha |\varphi \rangle +\beta |\psi \rangle où où \alpha  et \beta   sont deux nombres complexes quelconques.

Autrement dit, l’ensemble des états possibles d’un système physique est un espace vectoriel, dont la dimension peut être quelconque.
Le point important est qu’un état superposé n’est pas un état traduisant une ignorance vis-à-vis de l’état réel du système, mais bien une indétermination intrinsèque au système, qui n’est ni 
|\varphi \rangle , ni dans l’état |\psi \rangle .  En particulier, le principe de superposition est à l’origine de ce qu’on appelle le problème de la mesure quantique, que Schrödinger popularisa en l’appliquant à un chat qui ne serait, selon le désormais fameux paradoxe de Schrödinger, ni mort, ni vivant.
*La règle de Born, du nom du physicien Max Born, est une interprétation probabiliste des coefficients linéaires du principe de superposition. Elle est d’ailleurs souvent appelée interprétation probabiliste. Pour un système dont le vecteur d’état est une combinaison linéaire d’états distinguables (|i\rangle )_{{i\in {\mathbf  {N}}}} la probabilité pour que le résultat de la mesure définissant la distinguabilité soit le même que si le système avait été dans l’état |i\rangle est : {\mathcal  {P}}_{i}={\frac  {|\alpha _{i}|^{2}}{\sum _{i}|\alpha _{i}|^{2}}},.La règle de Born est l’un des postulats de la mécanique quantique les plus difficiles à appréhender. Il fait aussi l’objet de controverses, ne serait-ce que parce que son statut axiomatique est mis en doute par au moins deux interprétations : l’interprétation des mondes multiples et l’interprétation transactionnelle. Selon ces deux interprétations, la règle de Born peut être déduite à partir de considérations mathématiques et physiques plus profondes« .

     2-5) Résumé: La physique quantique ne donne que des prédictions statistiques des résultats d’expériences. Elle est extraordinairement utile et efficace parce qu’elle fournit à la physique un langage et un cadre pour organiser d’immenses quantités de données empiriques. Si elle ne permet ni d’expliquer ni de montrer ce qui se déroule réellement au niveau subatomique, elle fournit un algorithme qui, jusqu’à ce jour fonctionne admirablement, pour prédire les probabilités des résultats d’une expérience. Mais l’efficacité n’est pas forcément un gage de véracité. Aussi, au vu des difficultés que nous avons évoquées au long de ce chapitre et dans le chapitre 11, Lee Smolin en est venu à croire que la mécanique quantique connaîtra le même sort que les théories de Ptolémée et de newton. « Peut-être ne pouvons-nous pas la comprendre tout simplement parce qu’elle n’est pas vraie? Au lieu de cela, il est vraisemblable que qu’elle soit une approximation d’une théorie plus profonde qui sera plus simple à comprendre. Cette théorie plus profonde est la théorie cosmologique inconnue que désignent tous les arguments de cet ouvrage (la renaissance du temps). La clef est, ici encore, la réalité du temps ». 


liens:

Trois mots-clef: principe d’incertitude Intrication quantique Non-localité

Indéterminisme ou L’Univers irrésolu (Plaidoyer pour l’indéterminisme Autour de la lecture d’un livre de Karl Popper(1) par Lydia JAEGER)

http://education.francetv.fr/matiere/physique-chimie/cinquieme/video/les-nouvelles-perspectives-de-la-physique-moderne#xtor=SEC-191221-GOO-[physique-quantique]-[%2Bphysique%20%2Bquantique] (Les nouvelles perspectives de la physique moderne. Les grands entretiens – Etienne Klein : Einstein)

http://www.math.sciences.univ-nantes.fr/~robert/trcours_upn_08.pdf (quantique: physiique discrète!)

http://www.pourlascience.fr/ewb_pages/a/article-l-etrangete-quantique-juste-une-impression-32441.php (l’étrangeté quantique, juste une impression?)

http://www.astrosurf.com/luxorion/quantique-comprendre.htm (comprendrons-nous jamais la physique quantique et son étrangeté?)

http://www.rtflash.fr/physique-quantique-l-etrangete-theorique-nous-conduit-revolution-technologique/article (l’étrangeté théorique de la physique quantique)

https://www.phys.ens.fr/~dalibard/Notes_de_cours/X_MQ_2003.pdf (quantique: quelques outils mathématiques)

http://sboisse.free.fr/science/physique/physique-quantique-pour-les-nuls-1.php (la physique quantique pourles nuls.

https://www.phys.ens.fr/cours/notes-de-cours/fl-mq/mq.PDF (comprenons-nous vraiment la physique quanntique? par F. Laloe; écoles, difficultés, paradoxesn théorème de bell, où en sommes-nous, les difficultés, les failles, les alternatives, variables cachées, everett…)

http://villemin.gerard.free.fr/Scienmod/Quantiqu.htm (la physique quantique: De manière particulièrement précise, elle permet: de comprendre la chimie, la découverte du transistor, la mise au point des lasers, le développement de la physique nucléaire, d’expliquer l’univers de façon cohérente. Mais, elle échappe à l’entendement. Elle est très difficile à comprendre. Elle ne traite pas de notre univers quotidien. Aucune image possible. C’est une création de l’esprit humain: Avec utilisation de mathématiques sophistiquées; Sans relation directe avec la réalité; Théorie faite de symboles; et Utilisant une équation donnant des probabilités: l’équation de Schrödinger)

https://sciencetonnante.wordpress.com/2013/09/30/les-7-merveilles-de-la-mecanique-quantique/ (les 7 merveilles de la mécanique quantique: le principe de superposition, le l’indéterminisme de la mesure, la dualité onde-corpuscule, l’effet tunnel, l’intégrale de chemin, la quantification, le principe d’incertitude de Heisenberg)

http://www.rtflash.fr/physique-quantique-l-etrangete-theorique-nous-conduit-revolution-technologique/article (Physique quantique : L’étrangeté théorique nous conduit à la révolution technologique: simuler le cerveau humain 2024?)

http://bio.m2osw.com/gcartable/physique/mecquantique.htm (A voir: Brève histoire de la mécanique quantique 1900 : Max Planck montre que les échanges d’énergie entre matière et rayonnement sont quantifié.(ces échanges ne peuvent se faire de manière continue).Les valeurs de l’énergie transférée ne peuvent être que des multiples de hv ou h represente la constante de Planck1905 : Albert Einstein à partir de l’effet photo électrique repose l’aspect corpusculaire de la lumière. 1924 : Louis de Broglie généralise la dualité onde corpuscule et montre qu’ à chaque particule est associée une onde avec E = h1926 : Erwin Schrödinger pose son équation de la fonction d’onde1927 : Paul Adrien Dirac applique cette fonction d’onde aux particules relativist 1927 : Niels Borh, Werner Heisenberg et Max Born entre autre posent les fondements de la mécanique quantique.: Interprétation de Copenhague 1948 : Richard Feynman résout les difficiles calculs de l’électrodynamique quantiquee 1970 : Alain Aspect par son expérience sur le paradoxe E.P.R. confirme la non localité de la mécanique quantique)

http://villemin.gerard.free.fr/Scienmod/Quantiq1.htm (DIPTYQUE de la physique quantique La physique. C’est un modèle qui estime l’évolution des systèmes physiques isolés. Espace de dimension infinie (espace de Hilbert), Il obéit à une Équation déterministe, l’équation de Schrödinger. La physique quantique serait purement déterministe, s’il n’y avait pas d’observateur. Un tout global, holistique. Le vecteur d’état est la somme des divers états propres du système. Une somme des états propres de la grandeur que l’on va mesurer. Statistique de tous les états: L’aspect probabilistique se manifeste lors des opérations de mesure. On mesure les grandeurs: Position, vitesse, énergie …Projette le système dans l’un de ses états propres par une sorte de tirage au sort. La physique quantique serait purement déterministe, s’il n’y avait pas d’observateur. Mesurer, c’est tirer au sort. C’est observer le tout sous l’une de ses facettes. C’est faire un instantané photo d’un des états compris dans le tout. Faire la mesure, projette le système vers l’un de ses états propres. Une instance de ces états)^

http://www.agoravox.fr/actualites/technologies/article/seconde-revolution-quantique-les-141982 (bernard dugué:  Seconde révolution quantique : Les particules et les champs n’existent pas ! La « déchirure ontologique » dans la matière et la revanche de Platon [… ] La théorie quantique des champs (QFT) a abouti au modèle standard et peut se prévaloir d’une efficacité inouïe pour prédire certains résultats avec une précision qui la place au sommet des théories scientifiques sur ce point. Un golfeur aussi précis pourrait mettre la balle dans un trou situé sur la planète mars. D’où une situation assez étrange car malgré cette théorie qui n’a fait qu’accumuler des succès expérimentaux et qui est d’une précision incroyable, les physiciens ne savent toujours pas quelle est la réalité qu’elle décrit. Ils savent l’utiliser mais sans comprendre ce qui se trame derrière, autrement dit ce qu’elle révèle de la nature [. .]  Cette physique triomphe en laissant derrière elle une métaphysique très incertaine, pour ne pas dire absente… Le principal enseignement à retenir, c’est que la représentation et la compréhension de l’univers acquises depuis les débuts de la science moderne au 17ème siècle sont sur le point de basculer. Le monde avec ses objets basiques, ses interactions, ses forces, perd son statut ontologique. Le champ matériel et l’étendue ne sont que des propriétés dérivées et non plus fondamentales, même en les considérant sous l’angle des théories quantiques conventionnelles. L’illusion scientifique moderne s’effondre Elle a consisté pendant quatre siècles à faire comme si le monde physique étendu de Descartes, Newton puis Einstein, avec l’espace-temps et la matière, était le monde fondamental, un peu comme si on observait l’écume au dessus des océans pour en conclure que les fonds marins sont fait de cette même écume. Nous ne sommes qu’au début d’une immense révolution des connaissances)

http://www.agoravox.fr/actualites/technologies/article/la-grande-enigme-de-la-physique-154655 (bernard dugué pense que la grande énigme de la physique quantique va être résolue prochainement, mais pour le moment il n’en dit pas plus)

https://www.matierevolution.fr/spip.php?article3850 (lee smolin et la physique contemporaine…dans la renaissance du temps: …Einstein mit en lumière il y a longtemps que la mécanique quantique est incomplète parce qu’elle échoue à donner une description de ce qui se passe dans une expérience individuelle. Que fait au juste l’électron lorsqu’il saute d’un état d’énergie à un autre ? Comment des particules trop éloignées l’une de l’autre parviennent-elles à communiquer instantanément ? Comment semblent-elles apparaître en deux endroits à la fois ? La mécanique quantique ne fournit pas de réponse… La mécanique quantique est une théorie problématique pour trois raisons étroitement liées. La première est son échec à donner une image physique de ce qui se passe dans un processus ou une expérience individuels : contrairement aux théories physiques précédentes, le formalisme que nous utilisons en mécanique quantique ne peut pas être lu comme nous montrant ce qui se passe à chaque instant. Deuxièmement, dans la plupart des cas elle échoue à prédire le résultat précis d’une expérience ; plutôt que de nous dire ce qui va se passer, elle ne nous donne que des probabilités pour les différentes choses susceptibles de se produire. La troisième et plus problématique caractéristique de la mécanique quantique est que les notions de mesure, d’observation ou d’information sont nécessaires pour exprimer la théorie. Elles peuvent être vues comme des notions primitives ; elles ne peuvent pas être expliquées en termes de processus quantiques fondamentaux… Si vous voulez décrire complètement un système en physique classique, vous répondez à toutes les questions, et ceci vous donne toutes les propriétés. Mais en physique quantique, le dispositif dont vous avez besoin pour poser une question peut vous empêcher de répondre aux autres questions. Par exemple, vous pouvez demander ce qu’est la position d’une particule, ou vous pouvez demander ce qu’est le moment, mais vous ne pouvez pas poser ces deux questions à la fois. C’est ce que Niels Bohr a appelé la complémentarité, et c’est aussi ce que les physiciens signifient lorsqu’ils parlent de « variables non-commutatives »… En embrassant la réalité du temps, nous ouvrons un chemin pour comprendre la théorie quantique qui éclaire ses mystères et pourrait bien les résoudre. Je crois que la réalité du temps rend possible une nouvelle formulation de la mécanique quantique… Nous sommes habitués à l’idée de lois intemporelles de la nature agissant à l’intérieur du temps, et nous ne trouvons plus cela étrange. Mais prenez suffisamment de recul, et vous verrez que cela repose sur de grandes suppositions métaphysiques qui sont loin d’être évidentes… Il est une tradition – commençant avec Niels Bohr – d’affirmer que l’échec de la théorie quantique à donner une image de ce qui se passe au cours d’une expérience individuelle est l’une de ses vertus et non pas un défaut. Bohr a argumenté avec talent que le but de la physique n’est pas de fournir une telle image mais plutôt de créer un langage grâce auquel nous pouvons parler entre nous de notre préparation des expériences sur des systèmes atomiques et de ce que les résultats nous ont donné. Je trouve les écrits de Bohr fascinants mais peu convaincants. Je ressens la même chose à propos de certains théoriciens contemporains, qui disent que la mécanique quantique ne porte pas « sur » le monde physique, mais sur l’ « information » que nous avons sur le monde physique. Ces théoriciens avancent que l’état quantique ne correspond à aucune réalité physique ; il ne fait que coder l’information que nous, observateurs, avons sur un système… Après tout, quelque chose se passe lors d’une expérience individuelle. Quelque chose, et seulement ce quelque chose, est la réalité que nous dénommons électron ou photon. Ne devrions-nous pas être capables de saisir l’essence de l’électron individuel dans un langage conceptuel et un cadre mathématique ? … Alors je me range aux côtés d’Einstein. Je crois qu’il existe une réalité physique objective et que quelque chose qu’on peut décrire se produit quand un électron saute d’un état d’énergie dans un autre. Et je cherche une théorie qui en donne cette description ».

http://www.actu-philosophia.com/spip.php?article697 (Henry P. Stapp: Le monde quantique et la conscience)

http://www.astrosurf.com/luxorion/ordinateur-quantique.htm (de l’ordinateur quantique et sa fabrication, des thèses de church et turing aux problèmes de la conscience)

http://www.chm.ulaval.ca/~chm13212/Notes05/Notes.pdf (chimie quantique théorie)

https://www.phys.ens.fr/~dalibard/Notes_de_cours/X_MQ_2003.pdf (Mécanique quantique Cours de l’Ecole polytechnique par Jean-Louis Basdevant et Jean Dalibard Février 2002) http://www.astrosurf.com/luxorion/menu-quantique.htm (autour de la théorie quantique, conjectures et démonstrations, théories unitaires, histoire et taxonomie, interprétations)

https://arxiv.org/vc/arxiv/papers/1310/1310.1728v1.pdf  (Mioara Mugur-Schächter: PRINCIPES D’UNE 2 ÈME MÉCANIQUE QUANTIQUE Construction des fondements d’une formulation Hilbert-Dirac intelligible) 


3) Les débats sur la physique quantique et nouvelle formulation possible de celle-ci.

     3-1) Comme on vient de la voir, toutes ces caractéristiques et questions ont été le centre des débats depuis les 9 décennies qui ont suivi la la formulation de la physique quantique (L’expression « physique quantique » fut employée pour la première fois dans le Planck’s Universe in Light of Modern Physics de Johnston (1931). Elle fonctionne admirablement bien et donne des résultats d’une précision fantastique. Mais, comme il est dit dans « le mur de la quantique« : «Si un physicien prétend comprendre quelque chose aux phénomènes quantiques alors c’est un menteur ! » (Richard Feynman -Prix Nobel de physique 1965).  Avec humour, Feynman commençait ses conférences ainsi (vu dans le site « onnouscachetout-la-suite.com« ): « Ce que je vais vous raconter n’est autre que ce que nous enseignons aux étudiants qui sont en train de préparer une thèse de physique. Croyez-vous vraiment que je puisse vous expliquer tout cela de manière que vous le compreniez ? Non, ce n’est pas sérieux : vous n’allez certainement pas comprendre. Mais alors, direz vous, pourquoi vous donnez-vous tant de mal ? Pourquoi passer tant de temps devant nous, si c’est pour que nous ne comprenions rien à ce que vous allez dire ? »  Avec le théorème du libre-arbitre que nous allons découvrir ci-dessous, personne ne pourra plus parler ainsi.

De nombreuses approches ont été proposées pour une meilleure compréhension de l’étrangeté et des spécificités de la théorie quantique qui bouleversent le sens commun. Mais on vient de le voir, Lee Smolin pense qu’elles sont dans l’erreur. Pour lui, toutes ces étrangetés sont là car la théorie quantique correspond à la subdivision d’une théorie cosmologique, la théorie qu’il appelle de ses voeux. En prenant au sérieux la réalité du temps, nous ouvrons une voie pour comprendre la théorie quantique, éclairer ses mystères et qui pourrait peut-être les résoudre alors que nous en utilisons seulement les performances. La réalité du temps rendrait ainsi possible une nouvelle formulation de la mécanique quantique.      


   3-2) Pour une explication plus technique: voir smolin Précédence et la liberté dans la physique quantique par Lluis Masanes et Markus P. Mueller (https://arxiv.org/pdf/1205.3707v1.pdf« Une nouvelle interprétation de la mécanique quantique est proposée selon laquelle la priorité, la liberté et le jeu de la nouveauté jouent le rôle central. Ceci est basé sur une modification des postulats de la théorie quantique donnés par Masanes et Muller. Nous soutenons que la mécanique quantique se caractérise uniquement comme la théorie probabiliste dans laquelle les systèmes individuels ont une liberté maximale dans leurs réponses à expérimenter, compte tenu des axiomes raisonnables pour le comportement des probabilités dans une théorie physique. Ainsi, dans la mesure où les systèmes quantiques sont libres, dans le sens de Conway et Kochen, il y a un sens dans lequel ils sont au maximum libres. Nous proposons également que les lois de l’ évolution quantique résultent d’un principe de priorité, selon laquelle le résultat d’une mesure sur un système quantique est choisi au hasard parmi l’ensemble des résultats des exemples précédents de la même mesure sur le même système quantique. Cela implique que les lois dynamiques pour les systèmes quantiques peuvent évoluer en tant que l’univers évolue, parce que de nouveaux précédents sont générés par la formation de nouveaux états intriqués.« )

Ces deux chercheurs, dans « Une dérivation de la théorie quantique à partir des exigences physiques » affirment: « la théorie quantique est généralement formulée en termes de postulats mathématiques abstraits, impliquant des espaces de Hilbert, vecteurs d’état, et les opérateurs unitaires. Dans ce travail, nous montrons que le formalisme complet de la théorie quantique peut plutôt être dérivé de cinq exigences physiques simples fondées sur des hypothèses élémentaires: la préparation, les transformations et les mesures. Ceci est plus similaire à la formulation habituelle de la relativité restreinte, où deux exigences physiques simples – les principes de la relativité et de l’invariance de la vitesse de lumière – sont utilisées pour calculer la structure mathématique de l’espace-temps de Minkowski. Notre calcul donne un aperçu de l’origine physique de la structure des espaces d’états quantiques (y compris une explication basée sur la théorie des groupes de la sphère Bloch et sa tri-dimensionnalité), et il suggère plusieurs possibilités naturelles pour construire des modifications constantes de la théorie quantique. » (https://arxiv.org/pdf/1004.1483v4.pdf).

 les 5 exigences physiques sont: « 1. In systems that carry one bit of information, each state is characterized by a finite set of out come probabilities. 2. The state of a composite system is characterized by the statistics of measurements on the individual components. 3. All systems that effectively carry the same amount of information have equivalent state spaces. 4. Any pure state of a system can be reversibly transformed into any other. 5. In systems that carry one bit of information, all mathematically well-defined measurements are allowed by the theory. »


     3-3) Cette nouvelle formulation est spéculative et de plus, nouvelle. Elle n’a pas encore conduit à des prédictions expérimentales, donc pas non plus à des tests. Personne ne peut affirmer, y compris Smolin, qu’elle est correcte. Mais elle offre une perspective radicalement différente sur la nature des lois physiques à partir de l’idée neuve que les lois évoluent dans le temps. Et nous verrons qu’elle doit pouvoir être testable, mais elle élimine a priori celle de variables cachées. Cela peut aussi mettre sur les rails la théorie de la double causalité: « Le libre arbitre ne pourrait-il pas tout simplement s’exprimer par l’intermédiaire d’une influence du futur ? ». Mais, faut-t-il vraiment abandonner les lois intemporelles? Ne perdra t-on pas la force qu’a la physique à expliquer, puis comprendre autant du monde et la nature, même si cela pose les questions philosophiques et épistémologiques que nous avons examinées? Nous avons pris l’habitude de penser que les lois sont déterministes. Mais qu’est ce que le déterminisme pour la science actuelle? Selon Hubert Reeves, La cosmologie d’Einstein c’est faire confiance aux équations. Einstein n’arrivera pas à rejeter le hasard (« Dieu ne joue pas aux dés »!). Se pose aussi la question de Spinoza (déterminisme et liberté). Mais si on est vraiment déterministeune des conséquences est qu’il ne peut « rien avoir de nouveau » dans l’univers. Tout ce qui arrive est le réarrangement des particules élémentaires, qui ont des propriétés immuables et qui sont soumises à des lois immuables. Tels sont les nouveaux principes DE PHYSIQUE ET DE METAPHYSIQUE présentés par Jean-Jack Micalef,, spécialiste en histoire des sciences et épistémologie de la physique. Il est vrai qu’i y a de nombreuses situations où le futur reflète avec fiabilité le passé lorsque une expérience répétée de nombreuses fois donne toujours le même résultat par exemple. En physique quantique le résultat est probabiliste. Il en va ainsi car si on observe le mouvement par exemple, celui-ci est déterminé par une loi de nature intemporelle, par conséquent, agira dans le futur exactement comme elle a agi dans le passé. Donc une loi intemporelle exclut toute réelle nouveauté.

Mais a t-on vraiment besoin de cette hypothèse pour que le passé se reflète dans le présent? La loi est nécessaire pour expliquer les cas où un processus ou une expérience sont répétés de nombreuses fois et donnent le même résultat. Mais affirme Lee Smolin, on peut avoir un principe explicatif beaucoup moins « fort » qu’une loi intemporelle. Ce principe serait un principe affirmant que des mesures répétées produisent les mêmes résultats qu’une loi (intemporelle), et non parce qu’elles suivent une loi, mais parce que la seule loi est un principe de « précédence« . 

Nous verrons plus sur ce principe au chapitre suivant.

4) Que peut apporter la précédence pour comprendre la physique quantique avec cette nouvelle formulation éclairer l’énigme de ses mystères?

     4-1) Le principe de « précédence » se résume ainsi par Lee Solin lui-même« A new interpretation of quantum mechanics is proposed according to which precedence, freedom and novelty play central roles. This is based on a modification of the postulates for quantum theory given by Masanes and Muller. We argue that quantum mechanics is uniquely characterized as the probabilistic theory in which individual systems have maximal freedom in their responses to experiment, given reasonable axioms for the behaviour of probabilities in a physical theory. Thus, to the extent that quantum systems are free, in the sense of Conway and Kochen, there is a sense in which they are maximally free. We also propose that laws of quantum evolution arise from a principle of precedence according to which the outcome of a measurement on a quantum system is selected randomly from the ensemble of outcomes of previous instances of the same measurement on the same quantum system. This implies that dynamical laws for quantum systems can evolve as the universe evolves, because new precedents are generated by the formation of new entangled states ». 

Un tel principe ne contredit pas le déterminisme et explique tous les exemples dans lequel le déterminisme par des lois fonctionne. Mais il n’interdit pas que de nouvelles mesures produisent de nouveaux résultats non prédictibles à partir de la connaissance du passé. C’est ce que Smolin appelle freedom and novelty: il pourrait y avoir au moins un petit degré de liberté dans l’évolution de nouveaux états, sans contredire l’application des lois aux circonstances qui se sont produites de façon répétitive dans le passé. Ce principe de précédence ou règle du précédent est une règle de droit s’appliquant particulièrement dans les pays de common law. Cette règle veut que les tribunaux rendent des décisions conformes aux décisions antérieures lorsqu’ils sont confrontés à des cas similaires. L’idée de Smolin sur la précédence suggère que quelque chose de similaire pourrait bien opérer dans la nature. Il a même eu la surprise de découvrir que Charles Sanders Peirce a parlé des lois de la nature comme d’habitudes prises au cours du temps  (cité dans drgoulu.com): « Toutes choses ont une tendance à prendre des habitudes. Pour les atomes et leurs constituants, les molécules et les groupes de molécules, et en bref chaque objet réel concevable, il y a une plus grande probabilité d’agir comme lors d’une occasion antérieure semblable qu’autrement. Cette tendance elle-même constitue une régularité, et ne cesse de s’intensifier. En regardant dans le passé nous regardons où il s’agissait d’une tendance de moins en moins décidée. » (voir note 4 page 312: « A Guess at the Riddle » dans The Essential Peirce, Selected Philosophical Writings.  Les écrits de Pierce étant rarement clairs, voici un résumé tire de la Stanford Encyclopedia of Philosophy:   http://plato.stanford.edu/entries/peirce/)

Mais c’est dans les cas vraiment nouveaux que le principe deviendrait crucial, car si la nature opère selon ce principe plutôt que selon  une loi intemporelle, alors il ne peut y avoir de prédiction sur la manière dont un système se comportera s’il n’y a aucun précédent à ce nouveau cas. La réponse à la mesure ne peut être prédite à partir de l’information dont nous disposons déjà. Mais si on peut produire de nombreuses copies de ce système, on pourra utiliser et appliquer le principe de précédence et le système deviendra prédictible. 

Si la nature obéit à ce principe, alors le futur est réellement ouvert. On garde le bénéfice de lois fiables dans les cas où il y a assez de précédents, mais on n’a plus le joug du déterminisme. 

En mécanique classique, on peut penser que toute réelle nouveauté est exclue. Tout mouvement d’une particule se fait selon des lois fixes.  Mais en physique quantique, il y a deux façons de remplacer les lois intemporelles par un principe de précédence. 

          a) L’intrication peut produire des propriétés vraiment nouvelles. « L’intrication est un phénomène observé en mécanique quantique dans lequel l’état quantique de deux objets doit être décrit globalement, sans pouvoir séparer un objet de l’autre, bien qu’ils puissent être spatialement séparés. Lorsque des objets quantiques sont placés dans un état intriqué (ou état enchevêtré), il existe des corrélations entre les propriétés physiques observées de ces objets qui ne seraient pas présentes si ces propriétés étaient locales. En conséquence, même s’ils sont séparés par de grandes distances spatiales, deux objets intriqués O1 et O2 ne sont pas indépendants et il faut considérer {O1+O2} comme un système unique. » En physique classique, une propriété d’une paire de particules est réductible à une description des propriétés de chaque particule. Mais ceci n’est plus vrai pour les systèmes quantiques. On peut créer, à travers l’intrication, de nouvelles propriétés dans la nature. Si on intrique deux systèmes quantiques qui n’ont jamais interagi l’un avec l’autre auparavant, on peut les préparer avec une propriété qu’on appellera « contraire » par exemple. On crée alors une propriété qui n’a jamais encore existé dans la nature.

          b) Il y a une dimension aléatoire dans la réponse des systèmes quantiques à leur environnement. Même si on sait tout sur le passé d’un système quantique, on ne peut prédire le résultat de son comportement lorsqu’une propriété sera mesuré. Comme on l’a vu en 1 c) on ne peut connaître que la probabilité de ce résultat par la règle de Born

Ces deux caractéristiques de la mécanique quantique nous autorisent, affirme Smolin, à remplacer le postulat (le dogme?) des lois intemporelles par un principe, le principe de précédence. Celui-ci agit dans la nature pour assurer que le futur ressemble au passé. Ce principe permet de maintenir le déterminisme là où il est nécessaire, mais implique que la nature peut faire émerger de nouvelles lois lorsqu’elle fait face à la nouveauté et à l’imprévu. 


     4-2) La liberté quantique. 

          a) Illustration de ce que peut apporter la précédence en mécanique quantique. Considérons un processus quantique dans lequel un système est préparé puis mesuré et ceci de nombreuses fois. La règle de Born donne les probabilités pour chacune des mesures faites dans le passé. Le résultat pour toute occurrence future de ce processus est alors choisi aléatoirement dans la collection de résultats des cas passés. Mais s’il n’y a pas de précédent, par exemple dans le cas où le système a été préparé avec une valeur d’une propriété vraiment nouvelle, alors le résultat de la mesure sera libre (dans le sens où il ne peut être déterminé par rien dans le passé). 

          b)On ouvre donc une porte vers la liberté quantique. Huw Price, dans des articles et des conférences où il revisite le modèle de rétrocausalité d’Olivier Costa de Beauregard (l’Einstein de la télépathie), afin de montrer que notre passé pouvant être localement aussi incertain que notre futur (au sens quantique), montre que notre libre arbitre peut agir sur notre futur, puisque les causes réelles de nos décisions peuvent reposer sur un passé resté incertain (au sens quantique). Philippe Guillemant va même jusqu’à parler de l’intention des systèmes quantique. Cela ouvre peut-être une autre porte de la physique de demain. Sera t-elle en accord avec celle que Lee Smolin appelle de ses voeux? J’écrirai bientôt un article à propos de la théorie de la double causalité, de la rétrocausalité, sur les idées de Costa de Beauregard et aussi  sur David Bohm et les variables cachées et l’ordre implicite. Mais retournons d’abord vers l’aspect libre de la mesure quantique lorsqu’elle concerne un processus vraiment nouveau sans précédent, crée par l’intrication. 

          c) Le théorème de Jonh Conway  (wikipédia: J.K.) et Simon Kochen (wikipédia: S. K..)

John Conway et Simon Kochen définissent tout d’abord le libre arbitre (en mécanique quantique) d’une entité quelle quelle soit (particule, être humain…) comme une propriété selon laquelle l’état de cette entité à un instant donné ne peut pas être décrit comme résultant d’une fonction (au sens mathématique) portant sur l’état de l’univers. Ils démontrent le théorème du libre-arbitre (https://arxiv.org/pdf/quant-ph/0604079v1.pdf) qui peut se résumer ainsi: « Sur la base des trois axiomes physiques, nous prouvons que si le choix d’un type particulier de spin 1, le résultat expérimental n’est pas une fonction de l’information accessible aux expérimentateurs, puis son résultat n’est également pas une fonction de l’information accessible aux particules. Nous montrons que ce résultat est solide, et en déduit que ni les théories de variables cachées, ni les mécanismes du type GRW pour fonction d’onde effondrement peuvent être relativiste. Nous établissons également la cohérence de nos axiomes et de discuter les implications philosophiques. »

Ce théorème exprime « qu’une entité dispose de libre arbitre à l’instant t si son état ne peut pas être décrit comme résultat de l’application d’une fonction, au sens mathématique, portant sur l’état de l’Univers avant l’instant t. Ce libre arbitre, qui n’a rien à voir avec les probabilités puisqu’il affirme juste la non-existence d’une certaine fonction, est un indéterminisme logique (ou si l’on veut préciser, fonctionnel).

Bien sûr, ce libre arbitre-là n’est pas exactement celui qu’on évoque en philosophie et en droit où, par exemple, il fonde la notion de responsabilité. Cependant, J. Conway considère qu’il n’est pas sans rapport et met en évidence un point qui n’était pas clair avant ces travaux : l’indéterminisme que la physique moderne semble obligée d’accepter est une notion fonctionnelle et logique. Cet indéterminisme est l’impossibilité logique qu’il existe certaines fonctions reliant les états de l’Univers, impossibilité qui signifie que d’instant en instant l’Univers n’est pas contraint par son passé, mais libre de son évolution.« ll semble cependant que Klaas Landsman trouve qu’une formulation récente montre qu’il est incompatible avec la physique (si je comprend l’article). De même, Sheldon Goldstein, Daniel V. Tausk, Roderich Tumulka, et Nino Zanghì dans  l’article « que prouve vraiment le théorème?-affirment que cela n’est vrai que dans les modèles déterministes, ce qui est connu, alors que ce n’est pas vrai dans les modèles stochastiques. Je ne suis pas à même ni de vraiment comprendre en totalité, mais je suis attiré par ce que je ressens de ce théorème et je partage l’avis de Lee Smolin quand il dit « Je trouve merveilleux d’imaginer qu’une particule élémentaire est vraiment libre, même dans ce sens étroit? Cela implique qu’il n’y a rien qui explique ce que l’électron choisit de faire lorsqu’on le mesure, et donc qu’IL Y A PLUS dans le déroulement de n’importe quel petit système que qui pourrait être saisi par tout cadre déterministe ou algorithmique. C’est à la fois enthousiasmant et terrifiant, car l’idée que les choix faits par les atomes sont réellement libres (c’est à dire sans cause ne satisfait pas la demande pour une raison suffisante, pour une réponse à toute question que nous pourrions poser à la nature. » Ce principe  est un principe philosophique (ou axiome). Dans sa formulation originelle, par Leibniz, il affirme que « jamais rien n’arrive sans qu’il y ait une cause ou du moins une raison déterminante, c’est-à-dire qui puisse servir à rendre raison a priori pourquoi cela est existant plutôt que non existant et pourquoi cela est ainsi plutôt que de toute autre façon » Il y a de quoi être troublé car selon Leibniz, le principe de raison suffisante est un des « deux grands principes de nos raisonnements », avec le principe de non-contradiction  et la science faisant un usage extensif du principe de causalité et du principe de raison suffisante, ces deux principes s’avèrent être particulièrement bien fondés. Mais c’est déjà le cas avec la spontanéité de la désintégration d’un atome. C’est un mystère, La désintégration radioactive est aléatoire, on ne peut pas prévoir quand va se produire la désintégration d’un noyau . Elle est spontanée, elle se produit sans aucune intervention extérieure. Elle ne dépend pas ni de son environnement chimique, de l’espèce chimique qui contient le noyau radioactif ; ni des conditions extérieures ( pression ou température), mais on peut prévoir i‘évolution statistique d’un grand nombre de désintégrations. Le moment de la désintégration d’une particule individuelle est totalement imprévisible alors que la demi-durée de vie donne un résultat statistique mais calculable, mais cela n’est pas une explication.

          d) Pourrait-il exister une forme de la physique dans laquelle la nature a encore plus d’un degré de liberté? Lee Smolin répond par l’affirmative  en évoquant  des travaux récents qui donnent une définition précise de la notion de degrés de liberté dont dispose un système quantique. Il faut partir de Lucien Hardy qui, dans les années 2000 conçut une catégorie générale de théories qui prédisent les probabilités pour les résultats de mesure. Cela inclue les théories classiques et quantique, mais aussi d’autres théories. Il avait besoin que les théories fassent un usage cohérent de la notion de probabilité et se comportent « raisonnablement » lorsqu’on les applique à un système isolé ou à une combinaison de systèmes. Ces prérequis constituent quelques hypothèses, ou axiomes appelés « axiomes raisonnables » par Hardy. Ils sont résumés ci-après: « Quantum Theory from Five Reasonable Axioms » 2001 (https://arxiv.org/pdf/quant-ph/0101012v4.pdf):

« La formulation habituelle de la théorie quantique est basée sur des axiomes plutôt obscurs (complexes utilisant des espaces de Hilbert, les opérateurs hermitiques, et la règle de trace pour le calcul des probabilités). Dans cet article, il est démontré que la théorie quantique peut être dérivée de cinq axiomes très raisonnables.L es quatre premiers sont évidemment compatibles avec la théorie quantique et la théorie des probabilités classique. L’axiome 5 (qui exige qu’il existe des transformations réversibles en continu entre les états purs) exclut la théorie des probabilités classique. Si l’ axiome 5 (ou même simplement le mot « continu » de cet axiome 5) « tombe »,  alors nous obtenons la théorie des probabilités classique à la place. Ce travail fournit un aperçu des raisons pour lesquelles la théorie quantique est ce qu’elle est. Par exemple, il explique la nécessité des nombres complexes et d’où la formule des traces vient. Nous gagnons également un aperçu de la relation entre la théorie quantique et la théorie des probabilités classique. »

Ces axiomes on été développés et modifiés par d’autres théoriciens. Ruediger Schack, dans l’article « théorie quantique de quatre des axiomes de Hardy [https://arxiv.org/pdf/quant-ph/0210017v1.pdf] » a écrit: ‘Dans un article récent, Hardy a donné une dérivation de « la théorie quantique de cinq axiomes raisonnables« . Ici , nous montrons que le premier axiome de Hardy, qui identifie la probabilité de limitation de fréquence dans un ensemble, ne sont pas nécessaires à sa dérivation. En reformulant les hypothèses de Hardy, et la modification d’ une partie de sa preuve, en termes de probabilités bayésienne, nous montrons que son travail peut être facilement conciliable avec une interprétation bayésienne de la probabilité quantique. » Cela revient à n’avoir besoin que de 4 axiomes dans une formulation bayésienne. C’est ainsi nous dit Lee Smolin, que « je fus capable d’utiliser une « élaboration » des axiomes de Hardy inventée par Lluis Masanes et Markus Muller afin de quantifier avec précision la « quantité de liberté » qu’une théorie possède [nous l’avons déjà vu appréhendé en 1c)]. Voir « A Derivation of Quantum Theory from Physical Requirements »  (https://arxiv.org/pdf/1004.1483v4.pdf): « Dans ce travail, nous montrons que le formalisme complet de la théorie quantique peut être dérivé de cinq exigences physiques simples fondées sur des hypothèses élémentaires sur la préparation, les transformations et les mesures. Ceci est plus similaire à la formulation habituelle de la relativité restreinte, où deux exigences physiques simples – les principes de la relativité et de l’invariance de la vitesse de lumière – sont utilisées pour calculer la structure mathématique de l’espace-temps de Minkowski. Notre calcul donne un aperçu de l’origine physique de la structure des espaces d’états quantiques (y compris une explication de groupe théorique de la sphère Bloch et sa tri-dimensionnalité ), et il suggère plusieurs possibilités naturelles pour construire des modifications constantes de la théorie quantique. » Un travail en lien avec tout ceci  été réalisé par Borivoje Dakic & Caslav Brukner dans ‘Quantum Thery and Beyond:Is Entanglement Special? » (https://arxiv.org/pdf/0911.0695v1.pdf): « La théorie quantique fait des prédictions empiriques les plus précises et pourtant il manque des principes simples, compréhensibles physiques dont la théorie peut être dérivée de manière unique. Une large classe de théories probabilistes existent qui partagent certaines caractéristiques avec la théorie quantique, comme des prédictions probabilistes pour les résultats individuels (indéterminisme), l’impossibilité de transfert de l’information plus rapidement que la vitesse de la lumière (pas de signalisation) ou de l’impossibilité de la copie d’états inconnus (pas de clonage). Une grande majorité des tentatives de trouver des principes physiques derrière la théorie quantique soit sont en deçà de dériver la théorie unique des principes ou  soit sont basées sur des hypothèses mathématiques abstraites qui elles-mêmes nécessitent une motivation physique plus concluante. Ici, nous montrons que la théorie des probabilités classique et la théorie quantique peuvent être reconstruites à partir de trois axiomes raisonnables: (1) (capacité d’information) Tous les systèmes d’information dont la capacité est de un bit sont équivalents. (2) (Localité) L’état d’un système composite est complètement déterminée par des mesures sur ses sous-systèmes. (3) (Réversibilité) Entre deux états purs, il existe une transformation réversible. Si l’on exige que la transformation du dernier axiome soit continue, on sépare la théorie quantique de la théorie probabiliste classique. Un résultat remarquable suivant de notre reconstruction est qu’aucune théorie des probabilités autre que la théorie quantique ne peut présenter un enchevêtrement sans contredire un ou plusieurs axiomes. » Pour poursuivre avec ce que découvre  Lee Smolin, « la quantité de liberté est exprimée par la quantité d’informations sur un système dont on a besoin pour faire des prédictions sur son futur. Cette information peut être obtenue en préparant de nombreuses copies identiques au système et en posant différentes questions sur chacune. Les prédictions rendues permises par cette interrogation seront peut-être encore probabilistes, mais elles sont les meilleures prédictions possibles au sens qu’aucune observation supplémentaire du système n’améliorera leur précision. Pour chaque système étudié par Hardy, il y a une certaine quantité d’information finie dont vous aurez besoin pour mieux vérifier ce que le système fera face à toute mesure possible. Plus il vous faut mesurer de choses à propos d’un système avant que vous puissiez faire les meilleure prédictions possibles, plus il a de liberté. »

Le taux de liberté peut s’évaluer en comparant les quantités d’information dont on a besoin pour faire des prédictions relatives à la mesure de la taille du système. Par exemple, une mesure utile est le nombre de réponses que le système peut donner quand on l’interroge « via l’expérience ». Le cas le plus simple est celui pour lequel il n’y a que deux choix: oui-on ou 1,2… » Ce que j’ai montré », dit Smolin, « c’est que la mécanique quantique maximise la quantité d’information dont vous avez besoin pour pour chaque choix ». L’univers quantique est un univers dans lequel on peut faire des prévisions probabilistes sur le comportement du système, ce que traduit bien la règle de Born qu’on a évoqué au début de l’article. Ce que Smolin rajoute, c’est que les systèmes quantiques peuvent disposer d’autant de liberté par rapport au déterminisme que c’est possible pour un système physique quelconque décrit par des probabilités. 

liens:

https://arxiv.org/pdf/1205.3707v1.pdfLa précédence et la liberté dans la physique quantique par Lee Smolin:  

http://iopscience.iop.org/article/10.1088/1367-2630/13/6/063001/meta;jsessionid=A90969E515ADDA669679DBC20F32FF20.c5.iopscience.cld.iop.org –Voir en PDFhttp://iopscience.iop.org/article/10.1088/1367-2630/13/6/063001/pdf  (A derivation of quantum theory from physical requirements)

https://en.wikipedia.org/wiki/Free_will_theorem (Le théorème du libre-arbitre de John H. Conway et Simon B. Kochen déclare que, si nous avons un libre-arbitre en ce sens que nos choix ne sont pas en fonction du passé, alors, sous réserve de certaines hypothèses, il doit en être des particules élémentaires) 

http://www.informationphilosopher.com/freedom/free_will_theorem.html (le théorème du libre-arbitre))

http://www.pourlascience.fr/ewb_pages/a/article-libre-arbitre-et-mecanique-quantique-23796.php (libre-arbitre et mécanique quantique)

Three-dimensionality of space and the quantum bit: an information-theoretic approach par Markus P. Mueller , Lluis Masanes (https://arxiv.org/pdf/1206.0630v4.pdf)

http://scientia.blog.lemonde.fr/2010/02/19/a-propos-de-rien-ne-va-plus-en-physique-de-lee-smolin-i/ (A propos de « Rien ne va plus en physique ! », de Lee Smolin (I) Je découvre par un site qui parle de mon travail : http://grit-transversales.org/article.php3?id_article=210 un livre de Lee Smolin que je n’avais pas lu, mais qui peut être téléchargé en français chez Scribd (tous les articles de Luis Gonzalez-Mestres: https://arxiv.org/)

http://www.doublecause.net/index.php?page=theoreme_libre_arbitre.htm (Deux mathématiciens, John Conway et Simon Kochen, ont démontré en 2006 un théorème appelé « Théorème du Libre Arbitre ») voir aussi:

—->Le théorème du libre arbitre exposé dans la revue « Pour la Science »
—->Quelques réflexions sur le théorème du libre arbitre, par Serge Boisse
http://sboisse.free.fr/science/physique/theoreme-du-libre-arbitre.php (Quelques réflexions sur le théorème du libre-arbitre démontré en 2006 par Conway et Simon Kochen)

http://www.actu-philosophia.com/spip.php?article697 (Henry P. Stapp: Le monde quantique et la conscience Sommes-nous des robots ou des acteurs de notre propre vie ? 15/2016, par Thibaut Gress)

http://automatesintelligent.blog.lemonde.fr/2009/12/04/a-propos-des-variables-cachees-en-physique (A propos des variables cachées en physique Entretien avec Michel Gondran Expériences EPR, interaction d’échange et non-localité  propos recueillis par Jean-Paul Baquiast 03/12/2009)


5) Conclusion. Cette nouvelle formulation de la physique quantique tiendra t-elle ses promesses? 

     5-1) En résumé, si les systèmes quantiques sont libres, ils le sont de façon maximale. Et en combinant le principe de précédence avec ce principe de liberté maximale, on obtient une nouvelle formulation de la mécanique quantique. 

Lee Smolin affirme que cette formulation ne peut qu’être exprimée dans un cadre où le temps est réel, parce qu’il est indispensable de distinguer entre le passé et le futur pour exprimer le précédence. En conséquence, nous pouvons,ce qui constitue l’essence de la renaissance du temps, abandonner l’idée qu’il existe des lois de la nature intemporelle, sans perdre du pouvoir explicatif de la physique. Et c’est la réalité du temps qui constitue une nouvelle perspective par rapport aux travaux antérieurs de Hardy, Massanes et Muller. Il faudra encore affiner la façon dont la précédence se renforce du premier cas nouveau rencontré, à travers les quelques cas qui le suivent et ceci jusqu’aux cas bien établis ayant de nombreux précédents. Les recherches et publications effectuées Markus Muller dans ce sens seront a suivre.

Mais, au-delà de ces détails, Lee Smolin pense qu’il reste des interrogations sur le principe de précédence. En effet, comment un système reconnaît-il tous ses précédents? Quel est le mécanisme qui lui permet de choisir qui lui permet de choisir un élément au hasard parmi la collection de ses précédents? Cela semble nécessiter une nouvelle forme d’interaction qui permettrait à un système physique d’interagir avec lui-même dans le passé. De plus, le principe n’explique pas comment le mécanisme se déroule. Ce n’amène donc aucun progrès par rapport à la formulation standard de la mécanique quantique. Dans cette formulation, « mesurer une particule » est une notion primitive (à l’origine du résultat), de même que dans la nouvelle formulation, « être un système quantique préparé et transformé de la même façon » est une notion primitive.Mais si on y réfléchit, on peut se poser des questions semblables sur des lois de la nature intemporelle dont l’action est à l’origine du mouvement ou du changement des objets physiques: Comment un électron sait-il qu’il est un électron et que l’équation de Dirac s’applique à lui plutôt qu’une autre loi? etc… Et comment une loi de la nature, entité intemporelle, parvient-elle à opérer par le temps pour agir sur chaque électron du monde?

Pour les lois intemporelle agissant dans (à l’intérieur) le temps, nous sommes habitués et nous ne trouvons pas cela étrange. Mais Smolin à juste raison nous dit que cela repose sur des principes métaphysiques. Déjà Epicure affirmait: « si tous les êtres avaient naturellement en eux-mêmes, au lieu de l’emprunter du dehors, une puissance spontanée (τὸ αὐτόματον) d’où dériveraient leurs propres mouvements, n’échapperait-on pas ainsi à l’enchaînement universel des causes et des effets ? La nature, dans son fond, ne pourrait-elle pas être conçue à la fois sans les dieux et sans la nécessité ? »  Et selon Kant, la métaphysique est dès lors possible comme science et devient même la plus simple des sciences, puisque la raison ne s’y applique qu’à elle-même, et ne prétend rien  » connaître  » de plus que son propre contenu. Et Voltaire, dans ce magnifique texte où il convoque nombre de philosophes, écrit:  « En effet, il serait bien singulier que toute la nature, tous les astres obéissent à des lois éternelles, et qu’il y eût un petit animal haut de cinq pieds, qui au mépris de ces lois put agir comme il lui plairait au gré de son caprice. Il agirait au hasard, et on sait que le hasard n’est rien. Nous avons inventé ce mot pour exprimer l’effet connu de toute cause inconnue.« 

Le principe de précédence repose, lui-aussi, sur des suppositions métaphysiques, mais elles nous sont moins familières que celles qui nous ont été habituelles depuis la que la science nous a imprégné avec les lois de la physiques (de nature intemporelles). 

‘La métaphysique impliquée par le principe de précédence est beaucoup plus « parcimonieuse » et économique (au sens du « rasoir d’Occam« ) que certaines approches quasiment fantastiques de la mécanique quantique dans lesquelles il faut adopter des notions très étranges. Il est à prévoir que le principe de précédence générera de nouvelles idées et des expériences seront faites qui pourraient ouvrir un chemin vers une physique au-delà du modèle standard et de la mécanique quantique. Supposons que nous produisions, dans un ordinateur quantique, une sorte d’état intriqué nouvelle, jamais vue auparavant dans la nature. La mécanique quantique standard permet de calculer comment ce système intriqué se comportera lorsqu’il sera mesuré. Le principe de précédence que propose Lee Smolin  suggère que ces prédictions pourraient ne pas être confirmées par l’expérience. Est-ce que cela veut dire ces nouveaux états donnent naissance à de nouvelles interactions dans la nature ou à des modifications d’interactions existantes en fonction du contexte? Il y a de quoi être sceptique, car de telles nouvelles interactions ou des modifications existences n’ont jamais été observées. La nouvelle hypothèse qu’on vient de faire (prédictions non confirmées de la mécanique quantique), semble possible avec l’ordinateur quantique. De tels cas s’offrent certainement à la falsification par de tels dispositifs quantiques qui produisent de nouveaux états intriqués. Mais ceci contredit un principe de base du réductionnisme selon lequel pour un système composé, quelle que soit sa complexité, le futur peut être prédit en connaissant uniquement les forces existant entre particules élémentaires (Le réductionnisme, c’est le fait de réduire l’explication des choses, du monde au plus simple, au plus élémentaire : on pourrait ainsi expliquer le monde et les différents évènements grâce au niveau d’organisation le plus élémentaire. Dans ce cadre, la pensée, par exemple, peut être expliquée suffisamment par son organe, le cerveau, et, au coeur de celui-ci, par les échanges électriques au niveau des éléments physiques. C’est notamment la thèse de J-P CHANGEUX, in L’homme neuronal). Il faut reconnaître, nous dit Lee Smolin, que les violations du réductionnisme sont rares et légères, alors laissons l’expérience décider!


     5-2) Cette nouvelle compréhension de la physique quantique réalise deux critères que Smolin recherche pour la théorie cosmologique à laquelle il aspire:

*Elle satisfait la fermeture explicative: « Pour être scientifique, une théorie n’a pas à donner une réponse précise à n’importe quelle question que vous pouvez imaginer, mais il devrait y avoir un grand nombre de questions auxquelles nous pensons pouvoir répondre si nous connaissons plus de détails sur l’univers…« . Nous avons vu que c’est dans une forme restreinte qui autorise une réelle liberté dans les cas inédits. Le principe de précédence dit alors que ce qui détermine le résultat des mesures futures pour ces cas, c’est la collection de tous les cas antérieurs. Ces cas étaient réels, donc nous avons seulement une effet de choses qui étaient réelles dans le passé sur des choses qui seront réelles dans le futur. 

* Elle satisfait le critère que les lois évoluent. Cela se produit lorsque des mesures inédites, sans cas précédent ne sont gouvernées par aucune loi antérieure. Lorsqu’on obtient une collection de résultats, un précédent est établi. C’est seulement lorsqu’on a une précédence suffisante que les résultats futurs acquièrent « un parfum » de loi. (la notion de loi semble pleine de métaphysique implicite et même d’idéologie. Elle a tout pour déplaire, en théorie de la connaissance comme en philosophie des sciences : une origine cartésienne-médiévale, que l’on pressent théologique et obscure, accompagnée de connotations juridiques, que l’on imagine idéologiques et répressives, sans même parler des fantasmagories conceptuelles de la psychanalyse). 

6) Epilogue.

Ainsi, alors que de nouveaux états émergent dans la nature, de nouvelles lois évoluent pour les guider. Cela suggère que les interactions fondamentales de la physique que nous expliquons pour le moment par le modèle standard de la physique des particules, résultent de ce que Lee Smolin appelle « le verrouillage » (locking-in) de lois qui étaient encore nouvelles lorsque toutes ces particules apparurent pour la toute première fois dans un univers terriblement chaud qui se refroidissait peu à peu après le big bang. On l’a déjà dit précédemment, une chose que cette hypothèse proposée ne satisfait pas, c’est le principe de raison suffisante. Rapellons que dans sa formulation originelle par Leibniz, il affirme que « jamais rien n’arrive sans qu’il y ait une cause ou du moins une raison déterminante, c’est-à-dire qui puisse servir à rendre raison a priori pourquoi cela est existant plutôt que non existant et pourquoi cela est ainsi plutôt que de toute autre façon ». Or, quand un système quantique est vraiment libre, les résultats individuels, d’une mesure par exemple, sont indéterminés. Le principe de raison suffisante,  (vu sous son angle logique et métaphysique) est contrecarré, car il n’existe aucune raison rationnelle pour le résultat d’une expérience individuelle. Dans l’exemple que nous avons vu, celle du noyau radioactif, il n’y a pas de raison expliquant l’instant qu’il choisit pour se désintégrer, ni par ailleurs, pour anticiper les résultats précis de tout autre cas pour lesquels la mécanique quantique ne fait que donner de résultats probabilistiques (résultats d’une mesure par exemple). Hervé Zwirn, à ce sujet, s’interroge sur le statut de la réalité.


Nous sommes arrivés au point où, pour aller vers une théorie qui puisse aller au-delà des théories existantes et pour éviter les problèmes, limites et paradoxes, une nouvelle idée a germé en faisant l’hypothèse de la réalité du temps. Tiendra t-elle ses promesses? Permettra t-elle de donner une réponse au combat de la relativité et du quantum? C’est ce que nous examinerons dans le prochain article où je donnerai « ma lecture » du chapitre 13 du livre Lee Smolin « la renaissance du temps » que Bernard Dugué commente dans  agoravox.fr: « dans ce chapitre, Smolin s’attaque au conflit persistant depuis un siècle entre la mécanique quantique et la relativité et aux tentatives de résoudre ce conflit par les « théories des variables cachées » comme la théorie de De Broglie-Bohm. Pour Smolin, le principal défaut de cette théorie est de ne pas satisfaire le critère des actions réciproques (action = réaction). L’interprétation statistique de la mécanique quantique corrige ce défaut, mais nécessite de considérer que la réalité « choisit » au hasard le résultat d’une expérience individuelle parmi la collection de tous les résultats possibles, ce qu’Einstein avait déjà compris ». Cette approche par Lee Smolin n’a pas encore permis de solutionner le conflit par une théorie universelle (Comment la physique se prépare à une nouvelle révolution conceptuelle fondamentale), mais par ces développements sur la liberté, je ressens qu’on évolue vers ce que je trouve perdu dans la science explicative actuelle, le « sacré », mais sans le dogmatisme que les religions on introduites. 


liens
:

http://www.persee.fr/doc/phlou_0035-3841_1997_num_95_4_7062 (par Michel GhinsBas van Fraassen: les lois et la symétrie. Les tentatives de fonder philosophiquement les lois de la nature se sont soldées par un échec)

 http://www.matierevolution.fr/spip.php?article3814 (Comment la physique se prépare à une nouvelle révolution conceptuelle fondamentale -17 septembre 2015, par Robert Paris) (La relativité d’Einstein n’est pas la bonne théorie pour décrire le cosmos et la gravité par Bernard Dugué)

http://www.agoravox.fr/actualites/technologies/article/la-relativite-d-einstein-n-est-pas-162829

http://automatesintelligent.blog.lemonde.fr/2007/07/11/pourquoi-les-lois-fondamentales-de-la-physique-paraissent-elles-ajustees-pour-permettre-la-vie-et-la-conscience/ (Pourquoi les lois fondamentales de la physique paraissent-elles ajustées pour permettre la vie et la conscience ? Jean Paul Baquiast 11/07/07 Mots clefs : lois fondamentales bio-friendly, principe anthropique, multivers, quantum post-selection, flexi-laws, darwinisme quantique, décohérence)

http://www.cnrs.fr/inp/IMG/pdf/reflets_43_machefert.pdf (Recherche d’une physique au-delà du modèle standard et étude de la violation de symétrie CP avec l’expérience LHCb au CERN)

http://www.unige.ch/communication/communiques/2012/CdP121027.html (Université de Genève: Les chercheurs vont au-delà du temps et de l’espace pour expliquer la mécanique quantique)

http://www.admiroutes.asso.fr/larevue/2015/154/rovelli.htm (Par delà le visible La réalité du monde physique et la gravité quantique Carlo Rovelli)

http://bdugue.typepad.com/ (bernard dugué: AU COMMENCEMENT ETAIT LE QUANTUM ! IL FAUT RECOMMENCER L’AVENTURE SCIENTIFIQUE !)http://guillemant.net/index.php?cate=articles&part=synchronicite&page=Esprit_et_conscience.htm (esprit et conscience…et le théorème de gödel)

http://www.philosciences.com/Pss/philosophie-et-science/methode-scientifique-paradigme-scientifique/116-le-reductionnisme-dogmatique (le réductionnisme dogmatique)

https://fr.wikipedia.org/wiki/R%C3%A9ductionnisme (Selon l’analyse classique de Ernest Nagel, le développement des sciences obéit à un programme de réductions interthéoriques consistant à traduire une théorie dans les termes d’une autre théorie plus générale ou plus fondamentale. La réduction d’une théorie à une autre est réussie si on peut expliquer la première à partir de la seconde par un ensemble de lois de correspondance entre les entités des deux domaines théoriques. La théorie réduite doit alors être logiquement déductible de la théorie réductrice et des lois de connexion entre elles)

http://djaphil.fr/sujets/les-reductionnismes-scientifiques-399 (Les réductionnismes scientifiques)

https://fr.wikipedia.org/wiki/Principe_de_raison_suffisante (principe de raison suffisante)

http://www.persee.fr/doc/phlou_0776-5541_1902_num_9_35_1755 (Le principe de raison suffisante en Logique et en Métaphysique G. Simons) Revue néo-scolastique

https://www.cairn.info/revue-les-etudes-philosophiques-2003-3-page-389.htm (Du nouveau sur le principe de raison suffisante (G. W. Leibniz, Sämtliche Schriften, VI, 4) par André ROBINET)


Liens sur la philosophie et l’épistémologie:

http://sos.philosophie.free.fr/presocra.php (les présocratiques précèdent Socrate dans la chronologie philosophique et sont donc les vrais premiers philosophes. S’ils relèvent d’une sorte de préhistoire de la philosophie, c’est surtout parce que de leurs œuvres ne nous restent souvent que très peu de choses)

http://www.philo5.com/Penser%20par%20soi-meme/Les%20grandes%20questions%20des%20philosophes.htm: (Penser par soi-même, les grandes questions des philosophes1. De quoi le monde est-il fait ? 2. Nos sens peuvent-ils nous indiquer de quoi le monde est réellement fait ? 3. Sommes-nous libres ?  4. Existe-t-il une façon de vivre correcte ? 5. Dieu existe-t-il ? 6. Qu’est-ce que le temps ? 7. Qu’est-ce que l’espace ? 8. Que suis-je ? 9. Comment vivre ensemble ? 10. Qu’en pensez-vous ? — Dressez votre portrait philosophique)

http://www.lemonde.fr/revision-du-bac/annales-bac/philosophie-terminale/une-connaissance-scientifique-du-vivant-est-elle-possible_t-irde74.html Une connaissance scientifique du vivant est-elle possible ? Question de annales bac philo sophie terminale: Conclusion : l y a sans doute une contradiction indépassable entre l’essence de la science et la nature du vivant. Cela ne signifie pas que le biologiste se trompe, ou que le savoir accumulé par la science biologique doive être réputé nul et non avenu. Mais ce savoir, parce qu’il est théorique, objectif et détaché de la vie elle-même, n’est justement pas une connaissance du vivant en tant que vivant. Si une telle connaissance doit être trouvée, c’est bien plutôt dans l’acte du médecin qui redonne la santé au patient, que dans le laboratoire du généticien qui détruit la vie à mesure qu’il l’explique, puisque pour l’expliquer il doit nécessairement l’objectiver et la changer en un mécanisme sans vie)

http://www.unisson06.org/dossiers/science/physique_science.htm (la physique est t-elle une science? …Et les débats continuent, et l’ignorance s’accentue, et ceux qui ont un vrai coeur et une vraie intuition se rendent de plus en plus compte que tant les physiciens quantiques, que les physiciens « holistiques », sont dans la même impasse, dans le même refus de comprendre et de se rendre à l’évidence : la Physique est depuis longtemps disqualifiée, inadaptée à l’étude de l’esprit, et son illégitimité dans ce domaine ne peut déboucher que sur la charlatannerie, comme c’est également toujours le cas pour ce qui est de l’étude de l’univers dans son ensemble….l’UNIVERS N’EST PAS UN OBJET DU DOMAINE PHYSIQUE, et que donc l’épistémologie physicienne ne peut en aucun cas s’appliquer à lui..l.e physicien fait partie de l’univers, et que donc en aucun cas il ne peut considérer l’univers comme un objet physique…)

http://coursphilosophie.free.fr/philosophes/spinoza.php (ontologie et philosophie de spinoza)

https://fr.wikisource.org/wiki/La_Contingence_dans_les_lois_de_la_nature_et_la_libert%C3%A9_dans_l%E2%80%99homme_selon_%C3%89picure (LA CONTINGENCE DANS LA NATURE ET LA LIBERTÉ DANS L’HOMME SELON ÉPICURE)

http://www.societe-voltaire.org/phil-ig.php  (Voltaire, Le Philosophe ignorant, 1766)

https://leportique.revues.org/593(La notion de loi a tout pour déplaire, en théorie de la connaissance comme en philosophie des sciences : une origine cartésienne-médiévale, que l’on pressent théologique et obscure, accompagnée de connotations juridiques, que l’on imagine idéologiques et répressives)

http://www.matierevolution.fr/spip.php?article7 (faut t-il une philosophie en sciences?)

http://www.automatesintelligents.com/interviews/2004/juil/bitbol.html (Michel Bitbol: Des « phénomènes » de Kant à la théorie quantique de l’information Le rôle de la philosophie des sciences)

https://indecise.hypotheses.org/358  (Physique quantique et Vedanta : une mise en perspective avec le « réel voilé » de B.d’Espagnat)

http://michel.bitbol.pagesperso-orange.fr/Physique_quantique_et_cognition.pdf (Physique quantique et cognition Michel Bitbol)

http://michel.bitbol.pagesperso-orange.fr/Relations_Mauss.pdf (La mécanique quantique comme théorie essentiellement relationnelle1 Michel Bitbol)
http://automatesintelligent.blog.lemonde.fr/2009/12/04/a-propos-des-variables-cachees-en-physique/  (A propos des variables cachées en physique Entretien avec Michel Gondran Expériences EPR, interaction d’échange et non-localité  propos recueillis par Jean-Paul Baquiast 03/12/2009)

Conscience.

http://intellectica.org/fr/system/files/pdf/55_9_uzan.pdf (Conscience et physique quantique Pierre UZAN voir B.III.1. La théorie de l’ordre implié  )

http://www.implications-philosophiques.org/implications-epistemologiques/une-approche-quantique-du-probleme-corps-esprit-1/ (pierre uzan: Une approche quantique du problème corps-esprit (1)

http://www.theses.fr/2010PA040153 (Conscience et physique quantique par Pierre Uzan

http://www.implications-philosophiques.org/implications-epistemologiques/une-approche-quantique-du-probleme-corps-esprit-2/  (Une approche quantique du problème corps-esprit (2)

Liens en rapport avec l’article de mon blog « réenchanter le monde » que j’ai trouvés en écrivant cet article sur le sujet: décroissance et resacralisation: 

https://fr.wikipedia.org/wiki/Nicholas_Georgescu-Roegen (mathématicien et économiste hétérodoxe américain d’origine roumaine dont les travaux ont servi d’inspiration au mouvement de la décroissance)

http://www.alternatives-economiques.fr/nicholas-georgescu-roegen_fr_art_633_36953.html – mathématicien en rupture avec la théorie économique orthodoxe et incompris par ses pairs, a attiré l’attention, vingt ans avant tout le monde, sur les dégâts de la croissance sur l’environnement.

http://www.iri.centrepompidou.fr/evenement/entretiens-du-nouveau-monde-industriel-2016-penser-lexosomatisation/ (Penser l’exosomatisation pour défendre la société)

http://www.humanite.fr/puissance-impuissance-pensee-et-avenir-586852 (puissance, impuissance, pensée et avenir- Un texte de Bernard Stiegler, philosophe et président du groupe de réflexion Ars Industriali)

http://www.lesinrocks.com/2016/06/14/idees/bernard-stiegler-gens-lucides-honnetes-eux-memes-ont-aujourdhui-moral-a-zero-11845663/ (Dans la disruption », le philosophe Bernard Stiegler diagnostique la démoralisation d’un monde fondé sur le data et la calculabilité. Il appelle à renouer avec ce qui fait l’humain : la capacité à échapper à l’ »entropie » en inventant de nouvelles formes d’existence)

https://economierurale.revues.org/4413 (Antoine Missemer – Nicholas Georgescu-Roegen, pour une révolution bioéconomique suivi de De la science économique à la bioéconomie de Nicholas Georgescu-Roegen)

http://classiques.uqac.ca/contemporains/georgescu_roegen_nicolas/decroissance/decroissance_intro_2e_ed.html (livre de Nicholas Georgescu-Roegen (1906-1994). La décroissance. Entropie – Écologie – Économie)

http://www.arsindustrialis.org/

https://enmi-conf.org/wp/enmi16/argumentaire/ (arsindustrialis: penser l’exsomisation: André Leroi-Gourhan décrivit comme un processus d’extériorisation, et Alfred Lotka comme un processus d’exosomatisation – au cours duquel l’organique se dote d’organes inorganiques, poursuivant sa différenciation par d’autres moyens que la vie)

A voir aussi: méthode wittoz (thérapie)

http://www.vittoz-irdc.net/-Mme-Caroline-Chapelle-.html (Formation Vittoz IRDC)

http://galerie-carolinechapelle.blogspot.fr/

http://www.methodevittoz.ch/index.php?pg=presentation.php (rééducation du « contrôle cérébral« . Cette thérapie s’adresse à la personne entière, physique, morale, intellectuelle et spirituelle. Il ne s’agit pas d’une autocensure rigide, du genre : « Je-me-contrôle ». Il s’agit, tout au contraire, d’une faculté destinée à équilibrer le cerveau inconscient et le cerveau conscient. On comprend alors que cette rééducation agit non sur l’idée mais sur l’organe lui-même : le cerveau.

La rééducation du contrôle cérébral est une méthode de synthèse et de restructuration: entre les deux principales fonctions du cerveau: la réceptivité et l’émissivité, au moyen d’exercices simples et pratiques, que l’on intègre dans la vie courante. Elle est fonctionnelle: elle redonne au cerveau sa souplesse, réactive les fonctions naturelles et ainsi permet de retrouver l’équilibre psychique.

Cette méthode est basée sur le fait que le cerveau ne peut en même temps recevoir et émettre. Il suffit alors d’être dans la réceptivité pour mettre au repos l’autre fonction du cerveau: l’émissivité. Une des particularités de la méthode a été la découverte de « vibration cérébrale » ou « onde cérébrale« .

Le contrôle cérébral : « Le contrôle cérébral est une faculté inhérente à l’homme, destinée à équilibrer le cerveau inconscient et le cerveau conscient. L’équilibre cérébral normal est atteint lorsque chaque idée, impression ou sensation peut être contrôlée par la raison, le jugement, la volonté, c’est-à-dire qu’elle peut être jugée, modifiée ou écartée. »L’émissivité :

L’émissivité, c’est la pensée, le raisonnement. La concentration fait partie de l’émissivité, de même que l’énergie de la volonté.La qualité de l’émissivité est inhérente à celle de la réceptivité : vous aurez plus d’émissivité quand vous aurez plus de réceptivité.La mémoire :

La mémoire n’est pas une faculté, c’est la façon d’enregistrer et elle dépend de l’état de calme et de l’ordre dans le cerveau.

Lire la chroniqueLa réceptivité :La réceptivité est la faculté que nous avons de recevoir par les cinq sens les vibrations du monde extérieur, sans interprétation intellectuelle ou réaction personnelle. Nous sentons au lieu de penser. Dans la réceptivité le cerveau reçoit, accueille consciemment; le mental est au repos.La vibration cérébrale, (ou « onde cérébrale ») :

Le Dr Vittoz avait découvert que le cerveau émet une « onde », ou « vibration », perceptible dans la main du thérapeute. Ses caractéristiques correspondent à la nature de l’activité cérébrale. C’est grâce à cette découverte qu’il put mettre au point sa Méthode. C’est en utilisant cette perception de la vibration cérébrale que le thérapeute va suivre le patient tout au long de la cure.

Un article en préparation sur Informatique, calculabilité, décidabilité, machines

https://fr.wikipedia.org/wiki/D%C3%A9terminisme_(calculabilit%C3%A9) (Le déterminisme comme notion mathématique vit le jour avec la formalisation des mathématiques à la fin du xixe siècle et au début du xxe siècle et devint une notion centrale de la calculabilité avec l’apparition de la théorie des automates au milieu du xxe siècle. L’apparition de l’informatique quantique à la fin du xxe siècle et celle de la conception forte de la thèse de Church-Turing, baptiséethèse de Church–Turing–Deutsch (en), permet de concevoir une synthèse entre le déterminisme calculatoire et le déterminisme physique promus par l’école de la physique numérique dont la proposition « it from bit » est devenu l’emblème)

https://hal.inria.fr/inria-00549416/file/Chapitre_DecidabiliteComplexite.pdf (Décidabilité et Complexité Olivier Bournez, Gilles Dowek, R´emi Gilleron, Serge Grigorieff, Jean-Yves Marion, Simon Perdrix, Sophie Tison)

http://www-irma.u-strasbg.fr/~belaga/CoursED.html (Initiation à l’Algorithmique Avancée : Calculabilité, Complexité, Décidabilité par Édouard BELAGA (publications))

https://philosophiascientiae.revues.org/347  (Physique, information statistique et complexité algorithmique

Pierre Uzan)

http://www.implications-philosophiques.org/implications-epistemologiques/une-approche-quantique-du-probleme-corps-esprit-1/ (par pierre uzan: Une approche quantique du problème corps-esprit)

http://www.anciens-amis-cnrs.com/bulletin/b68/DELAHAYE.pdf (Jean-Paul Delahaye: L’informatique et les mathématiques : une relation passionnée)

ftp://www-bsg.univ-paris1.fr/pub/mse/cahiers2003/B03119.pdf (Machines de Turing et complexité algorithmique Olivier Hudry École nationale supérieure des télécommunications)

http://www.mountvernon.fr/Complexite_emergence_systeme_informatiques/Complexite_emergence_systemes_informatiques.pdf (Complexité, émergence, hasard, chaos, irréversibilité, … dans les systèmes informatisés Groupe Émergence, le 10 janvier 2011 J.Printz, Professeur Émérite du Cnam)

http://pierrelaurent.borel.free.fr/accueil/sciences/Kolmogorov/KOLMO.pdf (DEA informatique -physique et calcul, l’exemple du temps par Pierre Laurent BOREL):  Information et physique  Matière Energie Information (shannon, kolmogoroc, chaitin….zurek distance informatique) lien information/hasard temps, flèches (temps, statistique, thermodynamique, radiative, informatique, cosmologique, quantique, microscopique..)

http://wordpress.belhamissi.com/entre-le-certain-et-lincertain-un-siecle-de-controverses-sur-la-fondation-des-mathematiques-et-de-la-physique-ou-une-petite-histoire-un-peu-philosophique-de-lordinateur-2/ (entre le certain et l’incertain, un siècle de controverses sur la fondation des Mathématiques (et de la physique) ou une petite histoire (un peu ) philosophique de l’ordinateur)

http://fr.unionpedia.org/Th%C3%A9orie_de_la_complexit%C3%A9_(informatique_th%C3%A9orique) (La théorie de la complexité est un domaine des mathématiques, et plus précisément de l’informatique théorique, qui étudie formellement la quantité de ressources (en temps et en espace) nécessaire pour la résolution de problèmes au moyen de l’exécution d’un algorithme)

http://intellectica.org/SiteArchives/archives/n35/35_6_Commentaire%20Longo%20MMS.pdf (En marge de l’article de Giuseppe Longo sur Laplace, Turing et la géométrie impossible du « jeu de l’imitation » Mioara Mugur-Schächter)

http://excerpts.numilog.com/books/9782705667269.pdf (Complexité et algorithmique avancée une introduction Ivan Lavallée)

http://olivier.teytaud.pagesperso-orange.fr/publis/serpilliere.pdf (Thèse de Olivier TEYTAUD le 18 décembre 2001 Apprentissage, Réseaux de Neurones et Applications Directeur de thèse : H. Paugam-Moisy)

http://www.automatesintelligents.com/echanges/2005/nov/prob.pdf (PROBABILITES, RELATIVISATIONS DESCRIPTIONNELLES, ET REPRESENTATION DES COMPLEXITES ET DE LEURS MESURES SANS AMPUTATION DU SENS Mioara Mugur-Schächter)

http://www.mathrix.org/zenil/thesisphilo.pdf (Thèse de Hector ZENIL L’APPROCHE ALGORITHMIQUE DE L’ALÉATOIRE Peut-elle expliquer la nature organisée du monde ? Directeur de thèse : M. Jean MOSCONI)

http://www.lmm.jussieu.fr/~sagaut/epistemologie-v14.pdf (Introduction à la pensée scientifique moderne Pierre Sagaut Institut Jean Le Rond d’Alembert Université Pierre et Marie Curie – Paris 6)

Pour préparer mon deuxième cours MOOC:

http://www.sup-numerique.gouv.fr/cid98712/mooc-introduction-a-la-physique-quantique-partie-1.html (MOOC physique quantique)

La renaissance du temps article 4) Partie II chapitre 11


Les lois évolutives (Partie II chap. 11)

2012un-nouveau-paradigme.com le temps n’existe pas, vraiment?

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)


Préambule: Dans ces articles que je consacre à Lee Smolin, j’écris la suite des articles de mon blog à propos des univers multiples d’Aurélien Barrau pour les quels je retiens quelques commentaires qui vont orienter mes réflexions nouvelles.

Dans l’article « D’après Aurélien Barrau, Univers multiples Chap 1)« : les propositions nouvelles face aux problèmes et paradoxes de la physique « peuvent constituer une « pulsion inchoactive » qui poussera vers une découverte sans précédent ou bien vers un réenchantement de ce que l’on savait déjà sans en avoir pris la « dé-mesure » et finalement vers une nouvelle sacralisation du « monde ».
Dans « D’après Aurélien Barrau, Univers multiples. La gravitation quantique chp. 9« : au chapitre L) Conclusion: Cet article fait suite à l’article « D’après Aurélien Barrau, Univers multiples Chap 1)« : « Aujourd’hui, la physique est en crise, le monde est en crise. Avec Lee Smolin et son « rien ne va plus en physique« , Carlo rovelli parle de la schizophrénie bipolaire des physiciens (voir une révolution inachevée). La vision anthropique de Trin Xhuan Thuan et ma vision évangélique du monde, qui s’origine dans les mythes de l’Un et de l’ordre émergeant du Chaos initial, semblent exclus de la vision de bien des physiciens et cosmologues qui découvrent, comme l’a fait Jean Pierre Luminet, que l’Univers ne peut avoir été infiniment dense et donc que le big bang ne peut avoir été tel qu’on se l’imaginait depuis de nombreuses décennies. La possibilité d’un avant big bang a été mise en évidence avec un univers précédent qui se serait condensé jusqu’à une taille extrêmement petite mais non nulle et qui aurait « rebondi » en un big bounce pour donner notre Univers actuel en expansion après le phénomène d’inflation cosmique. Un des derniers rebondissements de ces recherches, avec Lee Smolin, pourrait bien aboutir avec sa « renaissance du temps » à une solution de la contradiction entre la physique quantique et la théorie de la relativité. A priori, ce serait une théorie unifiée des interactions fondamentales.

-&&&-

Nous avons vu , au cours du long article consacré au chapitre 9 du livre « les mpndes multiples« , de nombreuses théories nouvelles ou hypothèses qui proposent l’unification de la physique ou tout au moins des explications aux dilemmes et paradoxes que la cosmologie moderne a mis en évidence. Mais, dans « la renaissance du temps« , au chapitre 8 qui fait l’objet de cet article, Lee Smolin prévient: Le paradigme newtonien ne peut même pas apporter un embryon de réponse à ces questions et dilemmes: Pourquoi ces lois? Pourquoi ces conditions initiales de l’univers? Quel mécanisme les a t-il sélectionnées parmi une multitude infinie de possibilités? etc. Il appelle ceci « l’erreur cosmologique »: appliquer à l’Univers entier dans sa globalité des lois établies et vérifiées sur des sous-systèmes. Dans le paradigme newtonien, ce que nous appelons une loi doit s’appliquer dans tous les cas. Mais l’application d’une loi à n’importe quel morceau d’univers implique une approximation, parce que nous devons négliger toutes les interactions entre ce morceau et le reste de l’univers. Donc les applications vérifiables d’une loi sont toutes des approximations. Smolin fait remarquer en particulier que les lois se vérifient sur beaucoup de sous-systèmes. Mais si on veut appliquer une loi de la nature sans approximation, c’est à l’univers entier qu’il faudrait l’appliquer, alors que nous n’avons qu’un seul Univers sous la main. Et un seul cas n’apporte pas suffisamment d’indices pour justifier l’affirmation qu’une loi particulière de la nature s’applique. C’est ce que Lee Smolin appelle le dilemme cosmologique (faire de la physique dans une boite: « on considère un petit sous-système isolé du reste de l’univers dans lequel on néglige certains effets pour ne s’intéresser qu’à certaines variables qui définissent un espace de configuration, atemporel »). Et pourquoi cette loi et pas une autre? De plus, beaucoup de théories cosmologiques (théorie des cordeséquation d’Einstein …) admettent en réalité une infinité de solutions, parmi lesquelles une seule correspond à notre univers. Doit-on se résoudre à admettre l’existence d’une infinité d’Univers inaccessibles pour pouvoir justifier le notre par un principe anthropique

Nous pensions, dit Lee Smolin, savoir comment répondre à ces questions. Une théorie unique mathématiquement cohérente pourrait incorporer les 4 lois fondamentales de la nature. Mais cet espoir a été anéanti. On se trouve face à ce qu’il appelle « le défi cosmologique ». On vient de voir qu’il faudrait étendre la science à une théorie de l’Univers entier. Le défi est qu’il ne peut pas exister de composante statique qui puisse servir de cadre de référence, car tout dans l’Univers change et il n’existe aucun extérieur, rien qui puisse être qualifié de fond par rapport auquel les mouvements du reste de l’Univers (que nous négligeons). Or, toutes les théories physiques divisent le monde en deux parties, une partie « dynamique », qui change, et une statique, qui contient un « fond » de choses immuables, comme les constantes fondamentales.  Le « défi cosmologique » consiste à formuler une théorie de l’univers « indépendante du fond », purement dynamique afin de ne rien supposer d’extérieur à l’Univers:  » Lorsqu’on fait de la « physique dans une boite », le « fond » comprend notamment les conditions initiales, et la méthode expérimentale permet de contrôler les conditions initiales afin de s’assurer que les lois sont indépendantes de ces conditions. En cosmologie, cette distinction entre « lois » et « conditions initiales » aggrave le problème qu’elle résout « dans une boite »: si nos observations du fond diffus cosmologique ne correspondent pas bien à la théorie de l’inflation cosmologique, faudra-il corriger la loi ou les conditions initiales? Smolin critique aussi les théories effectives qui décrivent bien ce qui se passe à une certaine échelle de grandeur, mais en négligeant l’influence de ce qui est beaucoup plus grand ou plus petit. » Pour Smolin, la théorie issue du défi cosmologique doit tenir compte de tout, sans rien négliger. »

Je vais maintenant retracer « ma lecture » plus complète du livre de Lee Smolin d’une manière peu orthodoxe en ne commençant pas par la partie I (« le poids: le mort du temps), mais par la partie II « Lumière: la renaissance du temps ». La partie I fera l’objet d’autre articles. Cette « mort du temps » est comme l’épilogue de la constatation de Lee Smolin traduite par son livre « rien ne va plus en physique (l’échec de la théorie des cordes) » Cette partie I explique pourquoi depuis la naissance de la science moderne, avec l’effet Copernic et Galilée, le paradigme newtonien sous-tend toutes les théories y compris les théories quantiques et  la relativité  (le « paradigme newtonien » et ce qu’il a impliqué, dont l’hypothèse des multivers, est utile pour décrire l’évolution d’un système dans un laboratoire, mais il perd tout sens appliqué à l’univers entier. Il n’explique pas pourquoi telles ou telles lois sont choisies parmi l’infinité de lois possibles.Selon celui-ci, un système, quel qu’il soit, pourrait être décrit par un ensemble d’états initiaux qui lui sont attribués, puis par les lois présidant à son évolution en fonction du temps. Mais si ces données sont utilisées initialement pour décrire le système, il n’est pas possible de considérer qu’elles pourraient aussi être le résultat de son évolution. Il faut rechercher d’autres lois, ce que je vais tenter de faire maintenant en commentant celui qui ose affronter un nouveau paradigme, Lee Smolin.

http://www.wearealgerians.com/up/uploads/139910915883722.pdf

Rien ne va plus en physique ! – L’échec de la théorie des cordes 

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)

http://medias.dunod.com/document/9782100706679/Feuilletage.pdf (la renaissance du temps Dunod: quelques pages à feuilleter)

http://www.paris8philo.com/article-33714241.html: à propos de rien ne va plus en physique: billet de Jean Zin, pour une physique pluraliste, qui nous paraît essentiel pour comprendre les enjeux des théories physiques actuelles qui souvent tendent vers l’impossible, hors toute avancée, toute brèche se fait par dissymétrie, sans souci du qu’en-dira-t-on il suffit de voir l’attitude de Grigori Perelman, si non-chalante vis-à-vis de la communauté scientifique, ou devrait-on dire l’establishment. Jean Zin reste un grand guetteur de ce qui se passe en science, nous vous recommandons ses articles.

Après ce préambule, voici « ma lecture » du chapitre 11: Les lois évolutives, la sélection naturelle cosmologique

1) La sélection naturelle cosmologique.

     -a) Dans l’article précédent, nous avons vu que le message principal de la partie II du livre de Lee Smolin, a été jusqu’à présent que, pour progresser, la physique doit abandonner l’idée que les lois sont éternelles et intemporelles. Il faut partir de l’idée que qu’il y a un temps qui est réel dans lequel les lois évoluent. Nous pourrons peut-être ainsi arriver à une théorie cosmologique qui explique le choix des lois et de conditions initiales qui soit testable et même vulnérable par des expériences réalisables, comme l’exige la méthode scientifique. Suivons maintenant lee Smolin pour le démontrer en comparant deux théories, l’une intemporelle et l’autre avec des lois évolutives, pour expliquer et prédire des résultats observationnels.

En premier lieu, appelons sélection naturelle cosmologique la théorie dans laquelle les lois évoluent. Cette théorie a été développée à la fin des années 1980 et publiée en 1992: « Did the Universe Evolve?« . Des prédictions y ont été faites, qui auraient pu être falsifiées depuis, mais qui ne l’ont pas été. Cela ne prouve pas que la théorie est vraie, mais qu’elle peut expliquer et prédire des caractéristiques réelles de notre monde. 

En deuxième lieu, comme exemple de théorie intemporelle, prenons une version du scénario de multivers appelée inflation éternelle, proposée dans les années 1980 par Andreï Linde et Alexander vilenkin (voir note 2 page 307: « Birth of Inflationary Universes » par Vilenkin 1983 et « Eternally Existing Self-Reproducing Chaotic Inflationary Universe » par Linde). Il existe différentes formes et versions d’inflation éternelle (certaines de ses hypothèses sont ajustables). La forme la plus simple et qui correspond le mieux à « éternel » donne une image intemporelle du multivers.(le multivers selon Einstein?). Mais il existe d’autres versions dans lesquelles le temps joue un rôle plus essentiel  et qui partagent certains aspects de la sélection naturelle cosmologique en faisant intervenir une véritable notion de lois  évolutives

Pourquoi les scénarios cosmologiques réussissent t-ils à permettre de faire des prédictions? La réponse de Lee Smolin est qu’ils ne reposent pas sur le principe anthropique pour relier le multivers avec l’univers que nous observons. Il réfute l’affirmation selon laquelle le principe anthropique peut jouer un rôle dans la construction d’une théorie prédictive, ce que nous allons suivre dans la suite de ce chapitre. Pour Lee Smolin, le théorie qui postule une évolution au cours du temps fait mieux que le théorie intemporelle pour expliquer les éléments de preuve observationnels. La théorie faisant appel à l’évolution fait une prédiction propre alors que les prédictions de l’argument anthropique sont ajustables selon l’utilisation que nous voulons en faire ainsi que nous le verrons dans la conclusion de ce chapitre. 

Mais voir aussi la remarque suivante de Vilenkin dans https://arxiv.org/pdf/hep-th/0610051v2.pdf (A propos de la sélection naturelle cosmologique): « The rate of black hole formation can be increased by increasing the value of the cosmological constant. This falsifies Smolin’s conjecture that the values of all constants of nature are adjusted to maximize black hole production ». Cela indique que la sélection naturelle cosmologique est falsifiable. Affaire à suivre donc. 

liens: http://www.elisabrune.com/pdf/CosmoEvol.pdf (la cosmologique évolutionniste Par Elisa Brune et Marc Lachièze-Rey)

http://ljaeger.ibnogent.org/uploads/articles/0803.smolin.pdf (les lois issues de l’évolution)

https://arxiv.org/pdf/hep-th/0612185.pdf (The status of cosmological natural selection Lee Smolin)

http://www.futura-sciences.com/sciences/actualites/physique-constantes-fondamentaDonc les-changeraient-temps-espace-34336/ (des constantes fondamentales changeraient dans l’espace et le temps)

paramètre cosmologique

http://webapps.fundp.ac.be/grt/sem09/communications/fuzfa.pdf (Des systèmes complexes pour l’émergence de la complexité par André Füzfa)


   -b) comment marche la sélection naturelle cosmologique?

L’univers serait t-il assimilable à un être vivant?

C’est le premier sujet du livre de lee Smolin « La vie du Cosmos« . Y a t-il une évolution darwinienne du cosmos?  Rüdiger Vaas   commente la théorie de Lee Smolin sur l’origine de l’univers par la sélection naturelle cosmologiques dans: https://arxiv.org/ftp/gr-qc/papers/0205/0205119.pdf)

Dans son livre, Smolin détaille les univers féconds et applique le principe de la sélection naturelle à la naissance des univers. Il postule que l’effondrement d’un trou noir pourrait conduire à la création d’un nouvel univers. Cet « univers fils » aurait des constantes fondamentales et des paramètres similaires à celle de l’univers parent mais avec quelques modifications, en fournissant à la fois l’héritage et les mutations telles que requises par la Sélection naturelle.  Cependant, alors qu’il n’y a pas d’ analogue direct à des pressions sélectives darwiniennes,  il est théorisé qu’un univers avec des paramètres « infructueux » atteindra la mort thermique avant d’être capable de se reproduire, ce qui signifie que certains paramètres universels deviennent plus probables que les autres. C’est donc un scénario dans lequel nous pouvons appliquer les principes de sélection naturelle. Diverses critiques de la sélection naturelle cosmologique ont été publiées (voir note 3 page 307), auxquelles Lee Smolin a répondu dans « La vie du Cosmos » et dans ses articles: T. Rothman et G.F.R Ellis in Quarterly Journal of the Royal Astronomical Society 34:201 · May 1993: « Smolin’s Natural Selection Hypothesis« ,  puis Alexander V ilenkin: « On Cosmic Natural Selection 2006 (https://arxiv.org/pdf/hep-th/0610051v2.pdf), puis Edward R Harisson: « The Natural Selection of Universes Containing Intellignet life » 1995, et Joseph Silk: « Holistic cosmology« , Jonh D. Barrow, « Varying G and Others Constants » 1997 (https://arxiv.org/pdf/gr-qc/9711084v1.pdf). 

En particulier, il est faux d’affirmer qu’il existe un argument évident selon lequel changer la constante de newton (fondamentale) (qui fixe tous les autres paramètres), augmente le nombre de trous noirs, car les effets complexes sur la galaxie et la formation d’étoiles et l’évolution des étoiles ne sont pas prises en compte).

     -c) En savoir un peu plus sur la sélection naturelle cosmologique à partir des lois issues de l’évolutionL’hypothèse de base est que les univers se reproduisent par la création de nouveaux univers au coeur des trous noirs. Notre univers serait par conséquent un descendant d’un autre univers, né lui aussi dans un de ces trous noirs, et chaque trou noir est est la graine d’un autre univers. On peut donc dans ce scénario appliquer les principes de la sélection naturelle, en particulier celui qui est basé sur les méthodes de l’évolution en biologie et en particulier de celle de la biologie des populations. La biologie des populations étudie le vivant au niveau des populations biologiques, sur le plan de la biodiversité, de l’évolution et de la biologie de l’environnement. On y applique des méthodes qui servent à à expliquer comment certains paramètres gouvernant un système peuvent être sélectionnés, le rendant plus complexe qu’il ne serait si cette sélection n’agissait pas. Appliquer la sélection naturelle à un système pour expliquer sa complexité nécessite plusieurs conditions et mécanismes:

          – Un espace pour les paramètres qui varient au sein d’une population. En biologie, ces paramètres sont les gènes. En physique, les paramètres sont les constantes du modèle standard.incluanl les masses des particules fondamentales (relatives à la masse de Planck): six quarks, six leptons, le boson de Higgs, le boson W, et le boson Z, la constante de structure fine qui régit la force électromagnétique assurant la cohérence des atomes et des molécules (α=7,297×10-3) , la vitesse de la lumière « c », la constante gravitationnelle « G », la constante de Planck « h » et les intensités (constantes de couplage) des 4 interactions élémentaires. Les dix-neuf paramètres libres du modèle standard sont les masses des neuf fermions, quatre paramètres de la matrice CKM de la chromodynamique quantique (la matrice de CabibboKobayashiMaskawa  est une matrice unitaire qui contient les informations sur la probabilité de changement de saveur d’un quark lors d’une interaction faible techniquement, elle décrit la différence entre les états propres des quarks libres et les états propres des quarks en interaction faible), les constantes de couplage pour les trois forces, l’angle thêta (la fonction d’onde est fonction du champ de matière φ et de la connexion de la mesure, notée A. Une décomposition de l’espace de Hilbert peut être effectuée en secteurs de supersélections caractérisés par leur angle thêta) et deux paramètres de Higgs.
Ces paramètres forment une sortent d’espace de configurations pour les lois de la nature, appelé le paysage des théories comme en biologie des populations ou le paysage adaptatif dans l’espace des gènes (Si l’axe vertical représente le « fitness » des organismes, l’axe horizontal peut représenter soit le génotype ou le phénotype de ceux-ci).
          – Un mécanisme de reproduction, issu de l’idée de Bryce de Witt, qui est que les trous noirs donnent naissance à de nouveaux univers: en gravitation quantique à boucles, « des calculs indiqueraient que la singularité à l’intérieur d’un trou noir est remplacée par ce que l’on appelle un « rebond spatio-temporel ». Ainsi, le temps pourrait continuer au-delà de la limite où, d’après la relativité générale, il doit s’achever. La théorie conjecture que le temps s’écoulerait vers une autre région de l’espace-temps fraîchement créée, à l’instar de cette ancienne spéculation de Bryce De Witt et John Archibald Wheeler. L’information ne serait donc pas perdue, elle irait vers une région nouvelle de l’espace-temps. » Or notre univers contient une multitude de trous noirs, il est question de plus de 1 milliard de milliards. On peut imaginer combien seront importantes les progénitures! On peut aussi supposer que notre univers est lui-même parti d’une ligne de descendance remontant loin dans le passé.
          -Un mécanisme de variation similaire à la variation génétique pour la sélection naturelle des espèces. De même que les gènes mutent ou se recombinent au hasard durant la reproduction si bien que les gènes des descendants diffèrent de chacun de leurs parents, on fait l’hypothèse qu’il y a de petits changements aléatoires dans les paramètres des lois chaque fois que qu’un nouvel univers est créé. Cela marque dans le paysage le point correspondant aux valeurs des paramètres de ce nouvel univers. On a donc pour résultat une collection, de plus en plus vastes, de points sur le paysage, représentant les variations des paramètres des lois dans le multivers.
lien:
Biologie: voir Portail:Origine et évolution du vivant:  https://fr.wikipedia.org/wiki/Portail:Origine_et_%C3%A9volution_du_vivant

      -Des différences d’adaptativité, c’est à dire de la mesure des succès reproductifs, combien de descendants un individu produit, et qui vivent assez longtemps pour avoir des enfants à leur tour. L’adaptativité d’un univers est donc une mesure de sa production en trous noirs. Ce nombre dépend des paramètres (les constantes du modèle standard). Quelques paramètres conduisent à des univers qui ont de nombreux trous noirs, alors que d’autres mènent à des univers stériles qui n’ont aucun trou noir. Les univers non stériles occupent une très petite région de l’espace des paramètres, régions hautement fertiles qui sont en fait »des îles cernées par des régions où la fertilité est bien moindre.

lien: http://www.space.com/21335-black-holes-time-universe-creation.html (do black holes create new universes? Q&A avec lee smolin)

          -Typicalité. Il est supposé aussi que notre univers est un membre typique de la population des univers puisque celle-ci se trouve en aval de nombreuses générations d’univers.C’est pourquoi on peut prédire que les propriétés partagées par la plupart des univers sont aussi les propriétés de notre univers.

Voir note 4 page 308: Une différence entre la Sélection naturelle cosmologique et l’évolution biologique est que dans cette dernière il y a en réalité 2 paysages: 1) le paysage des gènes, qui décrit tous les génotypes (séquences d’ADN) possibles. 2)Le paysage des phénotypes est celui dans lequel on trouve les expressions physiques des gènes, qui peut être aléatoire. Dans la sélection naturelle appliquée à la physique, on a aussi deux niveaux de description. L’équivalent du phénotype est donné par les valeurs des paramètres du modèle standard (voir précédemment l’espace des paramètres). La probabilité qu’un univers se reproduise est donnée par les valeurs de ces paramètres.L’équivalent du génotype est le choix de théories que donne une théorie fondamentale comme la théorie des cordes alors que le modèle standard n’est pas une théorie fondamentale, mais une description approchée. De même qu’en biologie, la relation entre génotype et phénotype peut être compliquée ou même indirecte. Il est donc prudent de faire la distinction entre le paysage pour une théorie fondamentale où on peut parles du génotype, telle que la théorie des cordes, et le paysage des paramètre standard où on parle de phénotypes.

lien: Quelques éléments de physique et de philosophie des multivers:  http://lpsc.in2p3.fr/barrau/aurelien/multivers_lpsc.pdf


2) Utilisation de la puissance de la sélection naturelle en tant que méthodologie pour les conclusions qu’on peut en tirer. Nous avons affaire à des hypothèses minimales, pourtant des conclusions fortes peuvent en être tirées. La principale est qu’après de nombreuses générations, la plupart des univers ont des paramètres qui les placent au sein de régions hautement fertiles.

      -D’où la prédiction: si nous changeons les paramètres d’univers typiques (comme le notre), il est probable que cela donnera des univers qui produisent beaucoup moins de trous noirs, ce qui doit donc aussi être vrai de notre univers. Cette prédiction peut être vérifiée indirectement. En effet, dit Lee Smolin, nous savons que de nombreuses possibilités de changer les paramètres du modèle standard impliquent des univers ne comportant pas d’étoiles à durée de vie assez longue pour produire le carbone et l’oxygène qui, de façon remarquable, sont nécessaires pour refroidir les nuages de gaz dans lesquels se forment les étoiles massives qui donnent naissance aux trous noirs. Ce qui va dans le sens de cette prédiction. Au moins 8 façons de changer légèrement les paramètres sont connues, qui conduiraient à des univers avec moins de trous noirs. En particulier, voir 4 façons, note 5 page 308:

        1) Le renversement du signe de la différence de la différence de masse proton/neutron.

        2) Une augmentation ou une diminution de la constante de fermi assez grande pour influencer l’énergie et la matière éjectée par les supernovae (voir dans wikipedia: L’intensité de l’interaction de Fermi est donnée par la constante de couplage de Fermi GF. La détermination expérimentale la plus précise de la constante de Fermi provient de la mesure du temps de vie du muon, qui est inversement proportionnel au carré de GF (lorsque l’on néglige la masse du muon devant la masse du boson W)10. En formulation moderne 6 :

{\frac {G_{{{\rm {F}}}}}{(\hbar c)^{3}}}={\frac {{\sqrt {2}}}{8}}{\frac {g^{{2}}}{m_{{{\rm {W}}}}^{{2}}}}=1.16637(1)\times 10^{{-5}}\;{\textrm {GeV}}^{{-2}} où g est la constante de couplage de l’interaction faible, et mW est la masse du boson W qui régit la désintégration considérée.

Dans le modèle standard, la constante de Fermi est liée à la valeur attendue du vide de Higgs v=({\sqrt {2}}G_{{{\rm {F}}}})^{{-1/2}}\simeq 246.22\;{\textrm {GeV}}11

     3) Une augmentation de la différence de masse neutron/proton, de la masse de l’électron, de celle du neutrino électronique, et de la constante de structure fine (α, est une constante fondamentale qui régit la force électromagnétique assurant la cohérence des atomes et des molécules), ou une diminution de du couplage de de l’interaction forte suffisamment grande pour déstabiliser le carbone,

     4) Une augmentation de la masse du quark strange (80 à 130 MeV.c-2).

C’est donc une prédiction à suivre!


3) Puissance de la sélection naturelle cosmologique VS le principe anthropique. 

     -Lee Smolin affirme donc que, à la différence du principe anthropique, la sélection naturelle cosmologique offre ainsi une véritable explication (que Jean Paul Baquiastévoque aussi avec le darwinisme quantique), à la raison pour laquelle les paramètres du modèle standard paraissent accordés pour un univers qui est rempli d’étoiles à longue durée de vie et ont, au cours du temps, enrichi l’univers en carbone, oxygène et autres éléments nécessaires à mise en place de la complexité qui a permis l’apparition de la vie. Les paramètres dont les valeurs sont ainsi, en un sens expliqués (alors que dans le modèle standard ces paramètres sont des données « sorties du chapeau » et inexpliquées), incluent les masses du proton, du neutron, de l’électron, du neutrino électronique et les intensités des 4 interactions fondamentales. Il y a même un bonus. L’explication concerne la maximisation de la production de trous noirs et une conséquence est la fabrication d’un univers hospitalier pour la vie.

Remarque: Vilenkin, « père », avec Paul Steinhardt, de la théorie intemporelle de l’inflation éternelle, théorie en opposition avec l’inflation chaotique de Linde, (théorie dans laquelle les lois évoluent) a fait la remarque suivante dans On cosmic natural selection (A propos de la sélection naturelle cosmologique): « The rate of black hole formation can be increased by increasing the value of the cosmological constant. This falsifies Smolin’s conjecture that the values of all constants of nature are adjusted to maximize black hole production ».

Cela rend la sélection naturelle cosmologique scientifique car falsifiable, mais on est encore loin d’une théorie cosmologique le l’univers.

Liens à voir aussi à propos du principe anthropique: alternatives scientifiques au principe anthropique (https://arxiv.org/pdf/hep-th/0407213v3.pdf)

The weak anthropic principle and the landscape of string theory (https://arxiv.org/pdf/0901.2414v1.pdf)

http://www.ceacb.ucl.ac.uk/cultureclub/files/CC2006-03-21_Smolin.pdf (Scientific alternatives to the anthropic principle Lee Smolin)

https://www.matierevolution.fr/spip.php?article3850 (Lee Smolin dans « Rien ne va plus en physique » : « Le principe anthropique auquel se réfère Susskind est une vieille idée introduite et explorée par les cosmologues depuis les années 1970, selon laquelle la vie ne peut apparaître que dans une gamme très étroite des paramètres physiques possibles ; pourtant, malgré cette étroitesse, assez bizarrement, nous voilà comme si l’univers avait été intentionnellement créé pour nous accueillir (d’où le terme « anthropique »). La version particulière qu’invoque Susskind est un scénario cosmologique, qui a été soutenu pendant un certain temps par Andrei Linde, appelé « inflation éternelle ». Selon le scénario, la phase d’inflation rapide à la naissance de l’univers aurait produit non pas un, mais une population infinie d’univers… Il en résulterait une vaste population d’univers, chacun régi par une théorie des cordes sélectionnée aléatoirement dans le paysage des théories. Quelque part dans cette chose qu’on appelle « multivers », se trouve chacune des théories possibles appartenant au paysage. Il me semble tout à fait regrettable que Susskind et d’autres aient adhéré au principe anthropique, car il s’agit d’une base très pauvre pour fonder une démarche scientifique… Certains physiciens disent que le principe anthropique faible doit être pris au sérieux, car dans le passé il a produit de véritables prédictions. Je parle ici de quelques collègues pour qui j’ai la plus grande admiration : pas seulement Susskind, mais aussi Steven Weinberg, le physicien qui, avec Abdus Salam, a unifié les forces électromagnétiques avec celles des interactions nucléaires faibles. Il est alors d’autant plus pénible pour moi de constater que dans tous les cas que j’ai étudiés, ces arguments étaient fallacieux… L’argument commence ainsi : pour que la vie puisse exister, il faut du carbone… On sait que le carbone ne peut pas avoir été créé durant le Big Bang ; par conséquent, il a dû être créé dans les étoiles. Fred Hoyle a remarqué que le carbone ne pouvait être produit dans les étoiles qu’à condition qu’il y ait dans les noyaux de carbone un état résonnant. Il a ensuite évoqué cette prédiction devant un groupe d’expérimentateurs, qui ont effectivement découvert cet état. La réussite de la prédiction de Hoyle est parfois évoquée pour soutenir l’efficacité du principe anthropique. Mais l’argument fondé sur l’existence de la vie, exposé précédemmement, n’a pas de relation logique avec le reste de l’argumentation de ce paragraphe. Ce qu’a accompli Hoyle n’a été que de raisonner à partir de l’observation que l’univers est rempli de carbone, d’où il a tiré une conclusion fondée sur la nécessité d’un processus qui produirait tout ce carbone. Le fait que nous-mêmes et les autres créatures vivantes soient faites de carbone n’est pas nécessaire dans cet argument. Un autre exemple qu’on cite souvent du principe anthropique est une prédiction concernant la constante cosmologique, qui a été énoncé dans un article célèbre de Steven Weinberg, en 1987. Dans cet article, Weinberg affirmait que la constante cosmologique devait être inférieure à une certaine valeur, puisque, dans le cas contraire, l’univers aurait été en expansion trop rapide pour que les galaxies puissent être formées… Mais, avec cet argument scientifique valide, Weinberg est allé beaucoup plus loin. Supposons qu’il y ait le multivers, a-t-il dit, et supposons que les valeurs de la constante cosmologique soient distribuées au hasard entre les univers de ce multivers. Dans ce cas-là, parmi tous les univers potentiellement vrais, la valeur type de la constante cosmologique serait de l’ordre de grandeur de celle qui est la plus élevée mais qui reste encore cohérente avec la formation des galaxies… Dans le cadre du modèle standard de la physique des particules élémentaires, il existe des constantes qui n’ont simplement pas la valeur à laquelle on s’attendrait si elles étaient choisies au moyen d’une distribution aléatoire parmi les univers potentiellement vrais. On aurait dû s’attendre à ce que les masses des quarks et des leptons, sauf pour la première génération, soient distribuées au hasard ; or, on trouve des relations entre elles. On aurait dû s’attendre à ce que certaines symétries des particules élémentaires soient brisées par les interactions nucléaires fortes d’une façon beaucoup plus importante que ce qu’il se passe en réalité. On aurait dû s’attendre à ce que le proton se décompose beaucoup plus rapidement que ce que nous constatons dans les expériences en cours. En fait, je ne connais aucune prédiction réussie faite d’après un raisonnement fondé sur le multivers avec la distribution aléatoire des lois… Bien que le principe anthropique n’ait pas produit de prédictions véritables et ne semble pas pouvoir en produire prochainement, Susskind, Weinberg et d’autres théoriciens de premier plan l’ont considéré comme une révolution non seulement en physique, mais également dans notre conception de ce qu’est une théorie physique. »)

L’adaptativité d’un univers est une mesure de sa production en trous noirs (voir 1 C)

http://www.space.com/21335-black-holes-time-universe-creation.html (do black holes create new universes? Q&A avec lee smolin.

 -Ceci, on vient de le voir, rend de fait la théorie de la sélection naturelle cosmologique falsifiable. De plus, cette théorie fait plusieurs prévisions véritables, qui sont aussi falsifiables par des observations couramment réalisables. Par exemple, les étoiles à neutrons ne peuvent pas être plus massives qu’une certaine limite. En effet, la fin des étoiles massives abouti aux étoiles à neutrons qui sont le résidu compact issu de l’effondrement gravitationnel du cœur de l’étoile quand celle-ci a épuisé son combustible nucléaire. Cet effondrement s’accompagne d’une explosion des couches externes de l’étoile, qui sont complètement disloquées et rendues au milieu interstellaire, phénomène appelé supernova. Au-delà d’une limite de masse, l’étoile s’effondrera en un trou noir. Cette limite (environ 1,5 à 3 masses solaires) s’appelle limite de Oppenheimer-Volkoff (Elle doit son nom aux deux physiciens qui ont complété les travaux précédemment entrepris par le physicien Richard C. Tolman à ce sujet, c’est à dire J. Robert Oppenheimer et George M. Volkoff). Elle correspond à la masse maximale théorique que peut avoir une étoile à neutrons. Au-delà de cette valeur, l’objet s’effondre alors en trou noir. Cette limite ne doit pas être confondue avec la limite de Chandrasekhar, qui est la masse maximale que la pression de dégénérescence électronique d’un objet peut supporter sans qu’il y ait d’effondrement gravitationnel en étoile à neutrons. Ainsi lors de l’explosion d’une étoile en supernovae, la région centrale de l’étoile qui a explosé s’effondrera soit en étoile à neutrons, soit en trou noir: voir limites gravitationnelles.

Si la sélection naturelle cosmologique est juste, cette valeur critique (limite de la masse des étoiles à neutrons), devrait être accordée le plus bas possible, car plus elle sera basse, plus le nombre de trous noirs créé sera grand. Or, il se trouve qu’il existe plusieurs possibilités théoriques concernant les étoiles à neutrons. Dans l’une d’entre elles, l’étoile est composée exclusivement de neutrons, la masse critique serait comprise entre 2,5 et 2,9 masses solaires. Mais si le centre de l’étoile contient des kaons, la modélisation prévoit un abaissement de la masse critique, dépendant des détails des modèles jusqu’à 1,6 à 2 masses solaires. Alors, Lee Smolin s’attend à ce que, si la sélection naturelle cosmologique est correcte, la nature prenne avantage de produire des kaons au centre de l’étoile pour abaisser la masse critique et favoriser la production de trous noirs: « Un kaon (voir wikipedia) est une particule (notée K) de la famille des mésons caractérisée par un nombre quantique appelé étrangeté et noté S. Les mésons étant constitués d’un nombre pair de quarks et d’antiquarks, les kaons contiennent un quark s ou un antiquark s combiné avec un quark/antiquark parmi u ou d (resp. u ou d). Les quatre kaons sont :

  1. Le {\begin{smallmatrix}K^{+}\end{smallmatrix}} formé d’un quark u et d’un quark s
  2. Le {\begin{smallmatrix}K^{-}\end{smallmatrix}} formé d’un quark u et d’un quark s
  3. Le {\begin{smallmatrix}K_{L}^{0}\end{smallmatrix}} résultant de la superposition d’états ( ds + ds ){\begin{smallmatrix}/{\sqrt {2}}\end{smallmatrix}}
  4. Le {\begin{smallmatrix}K_{S}^{0}\end{smallmatrix}} résultant de la superposition d’états ( ds – ds ){\begin{smallmatrix}/{\sqrt {2}}\end{smallmatrix}}

La particularité du kaon neutre {\begin{smallmatrix}K^{0}\end{smallmatrix}} est d’avoir une antiparticule violant la symétrie de parité : le kaon neutre « court » ({\begin{smallmatrix}K_{S}^{0}\end{smallmatrix}}) a une durée de vie en effet plus brève (8,953±0,005×10−11 s) que celle du kaon neutre « long » ({\begin{smallmatrix}K_{L}^{0}\end{smallmatrix}}, 5,116±0,020×10−8 s). Une différence de masse entre ces deux particules, de l’ordre de 2,2×10−5 eV/c2, aurait également été mise en évidence1.

Quand la sélection naturelle cosmologique fut proposée, en 1992, les étoiles à neutrons les plus massives avaient des masses inférieures à 1,5 masses solaires. Mais récemment, en 2010, on vient d’en observer une de 2 masses solaires (le pulsar PSR J1614-2230) alors que précédemment, l’étoile la plus massive avait 1,67 masses solaires. (Voir note 6 page 307: James M Lattimer & M. Prakash, « What a Two Solar Mass Neutron Star Really Means » (https://arxiv.org/pdf/1012.3208v1.pdf)

Cette observation semblerait pouvoir réfuter la sélection naturelle cosmologique si la limite inférieure de la plage de formation des étoiles à neutrons était celle de des étoiles à neutrons-kaons. Mais la théorie n’est pas contredite par l’observation si la bonne valeur critique supérieure de l’estimation théorique est de 2 fois la masse du soleil. Par contre, il semble qu’il existe une étoile à neutrons mesurée (avec cependant une précision moindre) dont la masse est estimée à 2,5 masses solaires. Si cela se confirme, la sélection naturelle cosmologique pourrait être infirmée. « Voir note 7 page 308: Dans l’article original de « la sélection naturelle cosmologique » et dans « La vie du cosmos », Lee Smolin a utilisé l’estimation la plus basse pour la masse critique (1,5 masses solaires). Il a commencé un article disant que la S.N.C venait d’être invalidée, ce qui en soi, est une bonne chose, parce qu’en gravitation quantique, « la seconde meilleure chose » est de pouvoir faire une prédiction qui est réfutée par une expérience. Toutefois, en regardant à nouveau les estimations théoriques, il a découvert que les experts avertissaient qu’elles pouvaient encore tolérer une étoile à kaon-neutron de 2 masses solaires ».

liens à propos de ce paragraphe:

http://www.univers-astronomie.fr/articles/univers/102-les-etoiles-%C3%A0-neutrons.html (histoire des étoiles à neutrons)

http://www.astrofiles.net/astronomie-les-etoiles-a-neutrons-41.html (les étoiles à neutrons)

http://www.cosmovisions.com/pu.htm (étoiles à neutrons et pulsars)

https://tel.archives-ouvertes.fr/tel-00667553/document (Excitations collectives dans la croˆute interne des ´etoiles `a neutrons Luc Di Gallo)

http://amwdb.u-strasbg.fr/HighEnergy/IMG/pdf/hdr_final.pdf (Modélisation des objets compacts : Les étoiles à neutrons et leur environnement)

https://arxiv.org/pdf/astro-ph/9712189.pdf (lee smolin: Using neutron stars and primordial black holes to test theories of quantum gravity)

https://arxiv.org/pdf/gr-qc/9404011.pdf (The fate of black hole singularities and the parameters of the standard models of particle physics and cosmology Lee Smolin)

détermination des paramètres cosmologiques à l’aide des supernovae de type Ia à grands décalages vers le rouge (https://tel.archives-ouvertes.fr/tel-00010942/document)

 -Une autre prédiction de la S.N.C: Elle est faite à partir de l’extrême régularité de l’univers primordial. En effet, les observations du CMB (le fond diffus cosmologique) montrent que la distribution de matière varie très peu de région en région. Pourquoi? Pourquoi l’univers n’a t-il pas commencé avec de grandes variations de densité? S’il y en avait eu, des régions très denses se seraient aussitôt pour former des trous noirs, les trous noirs primordiaux.formés non pas par effondrement gravitationnel mais par la présence de régions extrêmement denses de l’Univers primitif. Dans ses premiers instants, selon la théorie du Big Bang, la pression et la température étaient si élevées que de simples fluctuations de densité de la matière suffisaient pour amorcer un effondrement gravitationnel très rapide. Alors que la plupart des régions de hautes densités furent dispersées dans l’expansion qui suivit, les trous noirs primordiaux restèrent stables, et devraient être encore présents aujourd’hui. Aucun à ce jour (décembre 2015) n’a été cependant clairement observé ou détecté. Cela semble a priori mettre en échec la prédiction de la S.N.C, selon laquelle il est impossible d’effectuer un changement mineur dans les lois de la physique pour produire un univers avec plus de trous noirs que le notre. Voyons cela: Les variations de densité de matière sont décrites au moyen d’un paramètre appelé « échelle de fluctuation de densité », qui n’est pas un paramètre du modèle standard. Mais il existe d’autres modèles d’univers primordial qui possèdent des paramètres ajustables pouvant accroître les fluctuations de densité. Ces univers sont t-ils compatibles avec la S.N.C.? Lee Smolin pose la question mais semble ne pas y répondre. Dans certains modèles les plus simples, augmenter ce paramètre (l »échelle de fluctuation de densité) réduit la taille de l’univers en limitant la durée de l’inflation. Cela conduit à un univers beaucoup plus petit qui, bien que rempli de trous noirs primordiaux, en possède au total bien moins que le notre.

Voir la note 8 page 309: cf A. Linde, « Particle Physics and Inflationary Cosmology » (https://arxiv.org/pdf/hep-th/0503203v1.pdf) en particulier l’argument conduisant à l’équation 8.3.17 (exp(H (t − t0)) ∼ exp 4 √ 2 π √ λ !). Le paramètre qui peut accroître les fluctuations de densité est la force avec laquelle l’inflaton interagit. Linde a montré que dans les modèles simples, augmenter la taille de ce paramètre réduit la taille de l’univers par l’exponentielle de l’inverse de la racine carrée de ce paramètre d’interaction. voir inflaton dans wikipédia: L’inflaton, également appelé « faux vide » ou « champs scalaire primordial »1, est le nom donné à la forme d’une matière hypothétique responsable de l’inflation cosmique, cette époque où l’univers a grandi de façon colossale. Du point de vue de la physique des particules, il s’agit d’un hypothétique champ scalaire, à l’instar du champ de Higgs électrofaible, mais qui est doté d’une dynamique très différente. Lors de la phase d’inflation, la pression de l’inflaton devient négative et reste pendant toute cette période presque constante au cours du temps, tout comme sa densité d’énergie, qui prend elle aussi une valeur constante mais opposée. Ainsi, l’inflaton se comporte-t-il de façon semblable à une constante cosmologique. Il est ainsi à l’origine d’une phase d’expansion accélérée qui permet à une petite région homogène de l’univers de prendre des dimensions considérables (immensément plus grande que l’univers observable aujourd’hui), tout en restant homogène. C’est la façon dont l’inflation résout le problème de l’horizon.

Tout ceci implique que la S.N.C. est compatible uniquement avec une théorie simple qui ne produira pas un excès de trous noirs primordiaux. Si des observations amenaient à conclure que l’inflation est due à un scénario qui exige une théorie beaucoup plus complexe, la S.N.C. serait éliminée des explications. Une prédiction de la S.N.C. est peut être le fait qu’il n’y a jamais eu une telle observation.

(voir note 9 page 309 pour plus de détails sur la sélection cosmologique naturelle: « la vie dans le cosmos » de Lee Smolin et ses articles « The Fate of Black Hole Singulatities and the Parameters of the Standard Models of particles and Cosmology » (https://arxiv.org/pdf/gr-qc/9404011v1.pdf -1994), puis « Using neutron Stars and Primordial Black Holes to test Theories of Quantum Gravity » (https://arxiv.org/pdf/astro-ph/9712189v2.pdf 1997/1998), puis « Cosmological Natural Selection as the Explanation for the Complexity of the Universe« , puis « Scientific Alternatives to the Anthropic Principle » (https://arxiv.org/pdf/hep-th/0407213v3.pdf 2004), puis « The Status of Cosmological Natural Selection » (https://arxiv.org/pdf/hep-th/0612185v1.pdf 2006/2008), et « A perspective on the Lanscape Problem » (https://arxiv.org/pdf/1202.3373v1.pdf fév. 2012), contribution invitée pour édition spéciale de Fondation of Physics intitulée « Forty Years Of String Theory: Reflecting On the Foundations« , « D0I: 10.1007/s10701-012-9652-arXiv:1202.3373).

Cela ne veut pas dire que l’inflation est le bonne théorie de l’univers primitif, mais cela montre bien que la S.N.C.est vulnérable à la réfutation et au démenti pour ce qui concerne les découvertes de mécanismes agissant sur l’univers primordial qui pourrait avoir produit de nombreux trous noirs primordiaux.

lien: https://tel.archives-ouvertes.fr/tel-00003366/document (Signature de divers modèles d’univers primordial dans les anisotropies du rayonnement fossile par Alain Riazuelo)

4) La sélection naturelle cosmologique et le temps.

     – La S-N-C est inconcevable si le temps n’est pas réel. En effet, le seule affirmation que nous avons besoin d’y affirmer est que notre univers possède seulement un avantage relatif en termes d’adaptitivité sur des univers qui diffèrent par de petits changements de paramètres. Il n’est pas besoin de supposer que les paramètres de notre univers sont les plus grands possibles. Et il pourrait même y avoir d’autres choix de paramètres menant à des univers plus fertiles. Le scénario S.N.C prédit seulement qu’ils ne peuvent être atteints en faisant un changement mineur aux valeurs actuelles. Ainsi, la population des univers pourrait être variée, avec une diversité d’espèces dont chacune est relativement fertile par rapport à ceux qui n’en sont qu’un peu différents. Par analogie avec la biologie, l’ensemble de ces sortes d’univers ne cessera d’évoluer au cours du temps lorsque par essais et erreurs de nouvelles façons d’être fertile. On sait q’aucune espèce biologique ne persiste éternellement parce qu’elle serait « maximalement » adaptée. on observe différente ères caractérisées par des ecosystèmes où des espèces « relativement » adaptées, qui coexistent sans atteindre un équilibre fixe, ni un état idéal. La vie évolue sans cesse. De la même manière, les lois typiques changeront avec le temps dans la population des univers quand cette population croît. Comme pour les populations en biologie, il n’y a pas d’état final dans lequel, une fois atteint, le « cocktail d’univers resterait le même, ayant un équilibre qu’on pourrait qualifier d’intemporel. Le temps cesserait d’avoir de l’importance. Mais le scénario de sélection naturelle ne le suppose pas ni ne l’implique. Ce qui fait que le temps est toujours présent et que la S-N-C est inconcevable si le temps n’est pas réel.

     -De plus, ce scénario implique que le temps soit universel en plus d’être réel, car la population d’univers évolue vite, augmentant chaque fois qu’un univers crée un trou noir. Le mot universel implique que temps doit avoir un sens, non seulement partout en chaque univers, mais la théorie doit établir combien d’univers ont telle ou telle propriété à chaque instant si on veut qu’elle soit prédictive. La notion du temps dont nous avons besoin doit donner une image de simultanéité au sein de chaque univers et à travers la population, sans toutefois que l’idée de lois en évolution ne requière, en elle-même de simultanéité globale. (voir note 11 page 309: Un changement dans les lois pourrait survenir à un événement qui n’influence les événements que dans leur futur causal. Or on a vu que l’organisation causale est cohérente avec la relativité de simultanéité. Mais la sélection naturelle cosmologique a besoin d’un temps global pour signifier quelque chose, et ce temps global entre vraiment en conflit avec la relativité de simultanéité.)

5) Sélection naturelle cosmologique VS inflation éternelle.

voir sur vimeo: https://www.edge.org/conversation/alan_guth-the-inflationary-universehttps (l’univers inflationnaire vidéo où Alan Guth explique l’univers inflationnaire

     5-1)Comparons maintenant la S-N-C avec l’inflation éternelle. Nous avons déjà évoqué une comparaison de la S-N-C au principe anthropique au chapitre 1d): « Lee Smolin affirme donc que, à la différence du principe anthropique, la sélection naturelle cosmologique offre ainsi une véritable explication (que Jean Paul Baquiast évoque aussi), à la raison pour laquelle les paramètres du modèle standard paraissent accordés pour un univers qui est rempli d’étoiles à longue durée de vie et ont, au cours du temps, enrichi l’univers en carbone, oxygène et autres éléments nécessaires à la mise en place de la complexité qui a permis l’apparition de la vie. Les paramètres dont les valeurs sont ainsi, en un sens expliqués (alors que dans le modèle standard ces paramètres sont des données « sorties du chapeau » et inexpliquées), incluent les masses du proton, du neutron, de l’électron, du neutrino électronique et les intensités des 4 interactions fondamentales. Il y a même un bonus. L’explication concerne la maximisation de la production de trous noirs et une conséquence est la fabrication d’un univers hospitalier pour la vie. »

          -Rappelons que l’inflation éternelle est postulée pour l’univers jeune parce que les champs quantiques représentant les forces et les particules de cet univers sont dans une phase qui produit une très grande quantité d’énergie noire, ce qui force l’univers à s’étendre de manière exponentielle. Cette inflation est une idée du physicien Alan Guth, « celui qui est à la base de ce concept. Les premiers instants du big-bang auraient obéi à une force phénoménale, une gravité répulsive, une sorte de gravitation inversée. En 1979, Alan Guth donne à la courte phase d’expansion le nom d’inflation. L’inflation serait issue d’une répulsion gravitationnelle, cette répulsion de l’inflation serait le bang du big-bang ». Quelques instants après le Big Bang, « l’Univers aurait connu une phase d’expansion exponentielle, l’inflation. Après vingt-cinq années de controverses, ce concept est aujourd’hui accepté par de nombreux cosmologistes. Andrei Linde, un des pères de cette théorie, va plus loin. Il inclut cet épisode dans l’histoire d’un univers éternel et sans doute infini. » Il a proposé l’inflation chaotique, une version quantique du modèle de Guth-Coleman ou de Coleman-Weinberg(https://arxiv.org/pdf/1309.1695v2.pdf), dans lequel les champs pouvaient fluctuer, les particules élémentaires étant instables. Linde écrit: « Il n’est plus nécessaire de tenir compte d’effets gravitationnels quantiques, de transitions de phase, de surfusion ou même d’assumer l’idée standard acquise que l’univers était originellement chaud. Il faut juste prendre en considération toutes les valeurs que peuvent prendre les champs scalaires dans l’univers primordial et vérifier si l’une d’entre elles conduit à l’inflation. » dans les régions où l’inflation n’a pas lieu, l’espace-temps restera à l’échelle atomique, mais là où l’inflation se produit, l’espace-temps devient gigantesque et domine tout le volume de l’univers. C’est parce que les champs scalaires peuvent prendre des valeurs arbitraires que Line a parlé d’inflation chaotique. Suite à une fluctuation d’énergie plus chaotique que les autres, le champ scalaire, retrouva son niveau d’énergie minimum, en provoquant l’expansion violente de certaines « bulles », suivie par la désintégration du champ scalaire qui permit la production de particules. danielmartin.eu nous explique. En résumé: « Il y a eu l’inflation d’abord, puis le big bang et enfin l’expansion de l’univers. Dans la phase inflation, on part des équations de la Relativité Générale, qui admettent une solution particulière, instable, où la dilatation de l’espace se produit à densité de matière-énergie constante: au fur et à mesure qu’il augmente de volume, l’espace crée de la matière dans la même proportion, sa densité restant constante! la matière créée provient de quelque part, il n’y a pas de création magique à partir de rien. L’expansion résulte d’une pression négative (liée à l’énergie noire?), qui crée de l’énergie-matière en même temps qu’elle dilate l’espace. Cette énergie-matière provient de l’énergie potentielle de gravitation de l’espace lui-même, qui décroît. Pendant la phase d’inflation, l’énergie potentielle de chaque point de l’Univers pouvait devenir aussi négative que nécessaire, pour alimenter l’inflation en baissant. Ce processus d’expansion auto-entretenue de l’espace crée la quantité de matière- énergie qu’il faut, à la vitesse qu’il faut, pour que sa densité soit constante. La croissance est exponentielle : toutes les T secondes, l’espace double dans chacune des trois dimensions. On sait que pour notre Univers la durée T fut de l’ordre de 10 puissance -38 seconde et qu’il y eut environ n = 260 doublements, multipliant son rayon par environ 2×10 puissance 78. La durée totale de l’ensemble de ces doublements fut inférieure à 10-35 seconde. C’est ce moment-là, à la fin de l’inflation, que l’on appelle le Big Bang. Contrairement à ce qu’on pensait encore il y a peu, l’inflation n’a pas suivi le Big Bang, elle l’a précédé, elle en est la cause. « 

On peut, pour faire très intuitif, ramener ceci à une l’analogie comme l’explique le siteastronomes.com: « le comportement de l’Univers lorsque l’inflation se déclenche rappelle celui de l’eau qui se solidifie et se transforme en glace. sous sa forme liquide l’eau n’a pas de structure et prend la forme du récipient qui la contient, alors que sous sa forme solide elle devient un cristal, un arrangement très régulier de molécules. Une autre différence apparaît au niveau de la symétrie: l’eau liquide à des propriétés identiques dans toutes les directions, alors que la glace privilégie les axes de cristallisation. Dans le langage du physicien, l’eau liquide et la glace sont deux phases différentes et la transformation de l’une en l’autre s’appelle une transition de phase. Dans des conditions de refroidissement habituelles, la cristallisation se produit dès que la température atteint zéro degré Celsius. Elle se produit alors en douceur, avec un lent dégagement d’une certaine quantité d’énergie appelée chaleur latente. Il existe cependant un cas particulier appelé la surfusion dans lequel les choses se passent différemment. Dans un environnement extrêmement stable, une eau très pure peut être refroidie et atteindre une température négative sans pour autant se solidifier. Cette situation est cependant très instable et il suffit d’agiter légèrement l’eau pour que la cristallisation s’opère instantanément avec une libération de chaleur latente très rapide.« 

C’est lorsque l’Univers est âgé de 10-35 seconde que les forces forte et électrofaible jusque là unifiées se dissocient. On passe d’une situation symétrique où les deux forces étaient une à une situation asymétrique où elles sont différentes. L’Univers subit donc, comme l’eau qui se solidifie, une transition de phase qui devrait s’opérer immédiatement, mais l’Univers va d’abord passer par un stade de surfusion. Il va rester pendant une brève période dans une phase symétrique instable, appelée le faux vide, plutôt que d’adopter tout de suite la phase asymétrique stable, le vrai vide. Etat équivalent à l’eau surfondue, le faux vide présente une très grande densité d’énergie en tout point de l’Univers et d’après la relativité générale, cette énergie omniprésente va se traduire par une force de répulsion extrêmement puissante (l’énergie négative dont on vient de parler). L’Univers subit en conséquence l’expansion rapide et brutale que nous avons évoqué sous le nom d’inflation. Cette expansion dure jusqu’à ce que l’Univers subisse finalement sa transition de phase. Il atteint alors un état stable, tout en libérant une formidable quantité d’énergie, vers le temps 10-32 seconde. Pendant l’ère inflationnaire, la taille de l’Univers a été multipliée par un facteur 1026 (donc 1078 en volume). Depuis la première lumière vers l’âge de 300.000 ans, la taille de l’Univers observable n’a été multipliée que par un facteur mille en 13,7 milliards d’années.

     5-2) Alexander Vilenkin, Andreî Linde, Max Tegmark et ses univers: Les univers-bulles

futura-sciences.com Paysages théories des cordes

futura-sciences.com: multivers, tegmark, inflation éternelle.

Vilenkin et Linde ont remarqué que le milieu environnant, contenant toujours l’importante énergie noire, continuera son inflation rapide. De nouvelles bulles apparaissent, donnant naissance à de nouveaux univers comme le nôtre et ils trouvèrent que sous certaines conditions, le processus peut être sans fin, car le milieu en inflation ne disparaît jamais, même s’il produit un nombre infini d’univers bulles. Notre univers serait alors un univers parmi une infinité, nés de bulles apparaissant dans un milieu en éternelle inflation. Lee Smolin suppose alors que, dans sa version la plus simple, les lois qui gouvernent chaque bulle sont choisies au hasard dans un paysage de lois possibles (En théories des cordes, l’existence des espaces de Calabi-yau et de ces nouveaux champs (décrits par ce qu’on appelle des p-formes) est équivalente à l’apparition d’un très grand nombre de contributions à l’énergie du vide, similaires à celle d’un champ de Higgs. Il existe un nombre immense d’états de vide possibles selon la valeur de ces champs qui se retrouvent sur une surface à plusieurs dimensions, et bien plus compliquée que celle en forme de sombrero du champ de Brout-Englert-Higgs. En fait, si on gardait une image à deux dimensions, c’est un peu comme si les différents états d’énergies possibles étaient représentés par la topographie d’un paysage, avec des vallées, des cuvettes et des collines). Pour l’échelle de la physique à l’origine des bulles, on prend habituellement l’échelle de grande unification, qui est au moins de 15 ordres de grandeur supérieure aux masses des quarks et des leptons, soit de l’ordre de 1015 GeV. Ainsi, il est probable que les masses de ces fermions légers finissent par être choisies au hasard lorsque les univers-bulles se forment. Nous avons supposé que le paysage découlait de diverses théories des cordes, mais n’importe quelle théorie comprenant des paramètres variables (y compris le modèle standard) ferait l’affaire

Dans le cas le plus simple, les proportions de bulles qui choisissent une loi particulière sont constantes et donc, la probabilité pour que les lois s’appliquent dans la population totale reste la même alors que sont produits un nombre croissant d’univers. Dans ce scénario très simple, le temps ne joue aucun rôle dans la spécification des lois parmi toutes les autres possibilités, peut-être en nombre infini. La distribution des univers (les probabilités pour qu’ils aient des lois ou des propriétés différentes) atteint ainsi un équilibre et y reste pour toujours. Ce scénario est en ce sens intemporel et constitue un bon cas à opposer la S-N-C.

Puisque les lois sont choisies au hasard dans chaque bulle, les univers comme le nôtre, qui permettent de donner naissance à la vie, sont excessivement rares et donc atypiques dans la population des univers-bulles.

liens pour l’inflation éternelle:

http://www.inexplique-endebat.com/article-univers-ou-multivers-la-magie-du-cosmos-112730864.html (Univers ou multivers ?, est un documentaire scientifique (0h52) sur l’hypothèse selon laquelle notre Univers ne serait qu’une infime partie d’une structure cosmique bien plus vaste, un simple échantillon parmi une multitude de mondes, multivers, mégavers, plurivers, que présente le physicien Brian Greene)

http://www.astrosurf.com/luxorion/cosmos-inflation.htm (lunivers inflationnaire I, les problèmes du modèle standard)

http://www.astrosurf.com/luxorion/cosmos-inflation2.htm (l’univers inflationnaire II, comment les particules ont acquis leurs masses)

http://www.astrosurf.com/luxorion/cosmos-inflation3.htm (l’univers inflationnaire III, la détente et le faux-vide)

http://www.astrosurf.com/luxorion/cosmos-inflation4.htm (l’univers inflationnaire IV, l’inflation chaotique)

http://www.astrosurf.com/luxorion/cosmos-inflation5.htm (l’univers inflationnaire V, monopôles et domaines)

https://actualite.housseniawriting.com/science/2015/10/30/de-mysterieux-points-lumineux-suggerent-un-autre-univers/9994/ (De mystérieux points lumineux suggèrent un autre univers. La lumière émise par l’hydrogène après le Big Bang a provoqué l’apparition de parcelles lumineuses dans l’espace. Est-ce que ce sont des preuves d’un autre univers? Armé de la carte de Planck sur le fond diffus cosmologique (CMB), d’une ambiance lumineuse provenant de la soupe primitive des débuts de l’univers, Chary révèle une lueur étrange qui pourrait provenir de la matière qui fuiterait d’un autre univers. Ces anomalies pourraient être les cicatrices d’un choc de notre univers avec un autre: R Chary : https://arxiv.org/abs/1510.00126(https://arxiv.org/pdf/1510.00126.pdf)

     5-3 Retour au principe anthropique. (Voir note 13 page 310: B. J. Carr & M. J. Rees « The Anthropic Principle and the Structure of the Physical World » dans Nature vol. 278 et The Anthropic Cosmological Principle par Frank Tipler & Jonh Barrow 1986)


          -Rappel: Au chapitre 3) Nous avons vu « la puissance de la sélection naturelle cosmologique VS le principe anthropique » où Lee Smolin affirme que, à la différence du principe anthropique, la sélection naturelle cosmologique offre une véritable explication (que Jean Paul Baquiast évoque aussi avec le darwinisme quantique), à la raison pour laquelle les paramètres du modèle standard paraissent accordés pour un univers qui est rempli d’étoiles à longue durée de vie, étoiles qui ont, au cours du temps, enrichi l’univers en carbone, oxygène et autres éléments nécessaires à mise en place de la complexité qui a permis l’apparition de la vie. Les paramètres dont les valeurs sont ainsi, en un sens expliqués (alors que dans le modèle standard ces paramètres sont des données « sorties du chapeau » et inexpliquées). Il y a même un bonus: l’explication concerne la maximisation de la production de trous noirs et une conséquence est la fabrication d’un univers hospitalier pour la vie.
          -Le principe anthropique nous pousse à privilégier la minuscule fraction d’univers hospitaliers à la vie parmi celle énormément (voire infiniment?) plus vaste des mondes où la vie est absente, puisque nous ne pouvons être que dans un univers de la première fraction. Il est remarquable de constater que de nombreux points sont partagés par ce qui fait que notre monde est hospitalier à la vie et les mondes qui produisent de nombreux trous noirs. Stephen Hawking n’affirme t-il pas?: « Un trou noir est une porte vers un autre Univers ». Les deux théories, la S-N-C et le principe anthropique semblent bien expliquer certains ajustements fins des paramètres du modèle standard de la physique des particules. Dans la S-N-C, notre monde est univers typique et la majorité des univers partageront les caractéristiques qui favorisent l’adaptativité de l’univers alors que nous avons vu que dans les multivers de l’inflation éternelle des mondes comme le nôtre sont extrêmement rares. Nous avons là une explication véritable par une théorie de l’adaptation, alors que le principe anthropique n’est, selon Lee Smolin, qu’une simple énumération de principes
(L’adaptativité d’un univers est une mesure de sa production en trous noirs (voir 1 C) http://www.space.com/21335-black-holes-time-universe-creation.html (do black holes create new universes? Q&A avec lee smolin)

liens principe anthropique et intelligent design: 

https://www.matierevolution.fr/spip.php?article3650 (L’Histoire à l’envers – Le « Principe Anthropique », celui d’un monde conçu d’avance pour produire la matière des galaxies de façon à rendre possibles la vie, l’homme et sa conscience…Lee Smolin dans « Rien ne va plus en physique » : « Le principe anthropique auquel se réfère Susskind est une vieille idée introduite et explorée par les cosmologues depuis les années 1970, selon laquelle la vie ne peut apparaître que dans une gamme très étroite des paramètres physiques possibles ; pourtant, malgré cette étroitesse, assez bizarrement, nous voilà comme si l’univers avait été intentionnellement créé pour nous accueillir (d’où le terme « anthropique »)

http://www.sceptiques.qc.ca/dictionnaire/anthropic.html (Le principe anthropique est une croyance 3 selon laquelle il est presque impossible que certains facteurs, qui étaient présents lors des premiers instants de l’univers et qui semblent avoir été réglés de façon à produire un univers pouvant soutenir des formes de vie avancées, puissent être le fruit du hasard. Cette croyance constitue pour certains une preuve que l’univers fut créé par un être puissant et intelligent (probablement nommé Dieu). Si la masse de l’univers et les intensités relatives des quatre forces fondamentales (électromagnétique, gravitationnelle et forces nucléaires forte et faible) étaient différentes ou n’étaient pas « réglées » aussi « précisément » pour leur permettre d’interagir comme elles le font présentement, l’univers tel qu’on le connait n’existerait pas. Un équilibre fragile entre les constantes physiques est « requis afin que le carbone et les autres éléments chimiques au-delà du lithium dans le tableau périodique puissent subir des réactions dans les étoiles ».* En résumé, beaucoup de choses différentes ont dû se passer afin que nous existions (les soi-disant « coïncidences anthropiques »). Certains physiciens trouvent étrange, apparemment, que nous n’existions qu’à l’instant même de l’histoire où nous puissions exister)

Phillip Johnson and the Origins of the Intelligent Design Movement, 1977–1991

Michael Denton (évolution, une théorie en crise)1986

Michael Behe: Complexité Irréductible, Est-ce que les machines Biochimiques montrent l’Intelligent Design?

Has Natural Selection Been Refuted? The Arguments of William Dembski

http://www.lacosmo.com/reglage_fin.html (christian magnan: notre Univers a-t-il été réglé de façon incroyablement précise ?

     -La Sélection Naturelle Cosmologique a déjà fourni quelques prédictions réelles alors que le principe anthropique en tant qu’explication des lois et des conditions initiales de notre univers n’a pas encore proposé de prédiction réfutable par une expérience pouvant être réalisée et Lee Smolin doute qu’il puisse le faire un jour. Pourquoi? Prenons une propriété de notre univers qu’on voudrait expliquer par le principe anthropique. Soit cette propriété est nécessaire à la vie, soit elle ne l’est pas. Si elle l’est, elle est déjà expliquée par notre existence (comme dans tout univers appartenant à cette petite fraction des univers où la vie intelligente a pu se développer). Maintenant, considérons les propriétés non nécessaires à la la vie intelligente. Ces propriétés seront distribuées au hasard dans la population des univers puisque les lois sont choisies au hasard dans chaque bulle. Mais comme elles n’ont aucun rapport avec la vie intelligente, elles seront aussi distribuées au hasard dans dans les populations d’univers contenant une vie intelligente. Donc la théorie ne fait aucune prédiction sur ce que nous devrions observer dans notre univers à propos de ces propriétés. La masse de l’électron semble un bon exemple de propriété de la première catégorie, car il y a de bonnes raisons de croire que les conditions pour la vie seraient très détériorées si cette masse différait beaucoup de la valeur qu’on observe. Pour la deuxième sorte de propriété, considérons par exemple la masse du quark top. Ce qu’on en sait permet de penser qu’elle pourrait varier largement sans que notre univers ne soit affecté dans les possibilités qu’il a de créer la vie. Le principe anthropique ne peut donc pas aider à expliquer la valeur observée pour la masse de l’électron. 

https://fr.wikipedia.org/wiki/Courbure_spatiale

L’inflation éternelle elle, fait une prédiction potentiellement testable: la courbure de l’espace dans chaque univers-bulle est légèrement négative (voir aussi géométries espaces à courbure négative). Ces espaces sont déformés à la façon d’une selle alors qu’un espace à courbure positive l’est à la façon d’une sphère. Si notre univers a été créé via une bulle dans un univers en inflation, cela doit être vrai pour lui aussi. C’est bien une vraie prédiction, mais il est très difficile d’en réaliser un test car deux problèmes se posent. En premier lieu, s’il y a inflation éternelle, une courbure, qu’elle soit >0 ou <0 est très proche de zéro, justement à cause de l’inflation qui réduit la courbure et il est donc très difficile de distinguer le nombre représentant la courbure de zéro. En deuxième lieu, la courbure disparaît dans dans la « barre d’erreur » expérimentale.Avec les meilleures données expérimentales que l’on peut avoir avec la technologie actuelle, il sera extrêmement difficile de dire si la courbure est légèrement <0, >0, ou si elle vaut exactement zéro. Au vu de l’incertitude de la mesure, il est peu probable qu’une observation puisse à court terme « falsifier » la prédiction. 

Et même si on parvenait à vérifier que la courbure spatiale de notre univers est légèrement négative, cela ne serait pas la preuve qu’il fait partie d’un multivers, car il existe de nombreux scénarios pour lesquels la courbure est légèrement négative, par exemple celui qui dit que notre univers est unique et qu’il est solution des équations d’Einstein avec une courbure négative. Une autre est que que l’inflation a produit un seul univers. Ces solutions n’ont pas besoin de l’inflation pour les justifier et aucune observation ne peut confirmer une hypothèse sur ce que seraient d’autres univers qui n’ont aucun effet sur le nôtre. Mais cela n’empêche que l’hypothèse  de la sélection naturelle cosmologique est testable et scientifique.


6) Analyse sur la comparaison entre une théorie qui postule des lois évolutives au cours du temps et la théorie intemporelle.

     6-1) Le scénario de l’inflation éternelle  « est une conséquence commune à différents modèles d’inflation cosmique, celle-ci étant elle-même un des scénarios possibles pour le Big Bang1. Tous les modèles d’inflation éternelle impliquent l’existence d’un multivers infini, typiquement un univers fractal. Le théoricien le plus connu dans ce domaine est Alan Guth. Un autre chercheur, Andreï Linde, a proposé un modèle différent, appelé « univers chaotique(3.) » 

Ce scénario nécessite un ensemble de théories possibles, théories qui peuvent être fournies par l’énorme nombre de théories des cordes possibles dont la mise en évidence a été affirmée par Andrew Strominger dans son articlesuperstring with torsion. Mais la situation devint une crise ingérable lorsqu’on découvrit l’existence d’un nombre astronomique de théories des cordes en 2003 (Voir note 14 page 310: Shamit Kachru , Renata Kallosh , Andrei Linde , Sandip P. Trivedi « De Sitter Vacua in String Theory » (https://arxiv.org/pdf/hep-th/0301240v2.pdf) et landscape of string theory vacua).   Nous avons vu dans le chapitre 2-4 de l’article 3 de mon blog  que  les manières de recourber les dimensions supplémentaires sur elles-mêmes sont si nombreuses (environ 10 puissance 500)que la Théorie des cordes conduit à une quasi-infinité de lois physiques possibles. Ce résultat pourrait prêter à rire affirme Lee Smolin, surtout pour une théorie en quête d’une équation unique qui décrirait l’univers dans son ensemble. Ce nombre, bien que démesurément grand, restait fini,  mais en 2005, le physicien Whashington Taylor et ses collègues du MIT purent démontrer qu’il existait un nombre infini de théories des cordes avec des constantes cosmologiques de valeur négative et faible (recherches de Taylor): 

Voir aussi note 15 page 310: écrit par Olivier de Wolfe  (For a particular orientifold background, we explicitly construct an infinite family of supersymmetric vacua):  « Type II A ModuliStabilisation  » (https://arxiv.org/pdf/hep-th/0505160v3.pdf) et Jessie SheltonWashington Taylor Brian Wetch Generalized Flux vacua (https://arxiv.org/pdf/hep-th/0607015v2.pdf)

Voir aussi: Generalised Geometry and Flux Vacua, (https://arxiv.org/abs/1511.04595), la stabilisation des modules Flux, algèbres supergravité et no-go théorèmes (https://arxiv.org/pdf/0907.5580v3.pdf)Aspects de stabilisation des modules dans la chaîne et M-théorie (https://arxiv.org/pdf/hep-th/0608033v2.pdf), stabilisation Moduli au début de la cosmologie supercordes (https://arxiv.org/pdf/1111.3169v2.pdf), Sur l’inflation naturelle et Moduli de stabilisation dans la théorie des cordes (https://arxiv.org/pdf/1508.00009v2.pdf), Type II model building at the crossroads between (astro)particle physics and moduli stabilisation par Gabriele HoneckerAspects of moduli stabilisation in string and M-theory (https://www.researchgate.net/publication/1735099_Non-Abelian_structures_in_compactifications_of_M-theory_on_seven-manifolds_with_SU3_structure)


     6-2) Une conséquence prédictive de ceci a été soulignée par le physicien Sud-Africain George F. R. Ellis avec Lee Smolin: (voir note 16 page 310: George F. R. Ellis Lee SmolinThe weak anthropic principle and the landscape of string theory 2009, https://arxiv.org/pdf/0901.2414v1.pdf). Si réellement il y a un nombre infini de théories des cordes avec de petites valeurs négatives pour la constante cosmologique, mais un nombre fini de qui ont des valeurs positives, alors on peut prédire que la constante cosmologique est négative avec une petite valeur. Si la véritable valeur est distribuée au hasard parmi les univers du multivers, nous avons donc infiniment plus de chances de vivre dans un univers ayant une valeur <0 que dans univers ayant des valeurs >0. Cela serait une véritable prédiction de la théorie des cordes. Mais, prise au pied de la lettre » elle indique que la théorie est fausse puisque la valeur mesurée est >0. 

Certains théoriciens pensent qu’on pourrait découvrir qu’il existe aussi un nombre infini de théories des cordes avec des valeurs >0 pour la constante cosmologique. Pour d’autres, il faut faire appel au principe anthropique pour dire que les univers avec des valeurs <0 de la constante cosmologique décrites par Taylor doivent être éliminés car inhospitaliers pour la vie (voir aussi: Univers : origine et évolution Les récents développements autour de la cosmologie et de la gravité quantique). Voir note 17 page 310: Les univers de Taylor (avec \Lambda = \frac{8\pi G \rho_0}{3} - \frac{c^2}{R_0^2} <0), diffèrent du nôtre à plusieurs égards. D’abord ils font intervenir des dimensions supplémentaires, minuscules, non observables et repliées sur elles-mêmes dans notre monde alors qu’elles peuvent devenir grandes. En deuxième lieu, cela contredit encore plus les observations que le fait d’avoir le mauvais signe pour la constante cosmologique, ce qui pourrait être considéré comme une prédiction fausse de plus pour la théorie des cordes. Mais on pourrait dire aussi que la vie ne pourrait pas exister dans ces mondes. Il existe toutefois des scénarios de théories des cordes dans lesquels les particules et les forces vivent sur des surfaces tridimensionnelles, les branes, qui flottent dans des dimensions supplémentaires. La vie pourrait y être compatible avec ces directions supplémentaires qui sont plus vastes. Dans les mondes avec constante cosmologique négative il y a aussi une symétrie que notre monde n’a pas: la super-symétrie, ce qui peut bloquer la formation de structures complexes. Toutefois il est possible qu’une fraction de ces mondes puissent permettre à la supersymétrie d’être spontanément brisée et dans ce cas la vie pourrait s’y développer. Mais tant qu’il y a infiniment plus de théories des cordes avec une constante cosmologique négative que positive, même si une petite des premières peut supporter la vie, les théories avec constante positive domineront. (conversations entre Lee Smolin et Ben Freivogel  sur ce sujet). 

Toutefois, tout ce qu’il faut pour pour que « l’infinitude » des univers à constante cosmologique <0 domine sur le nombre fini d’univers à constante >0 est qu’un fraction finie quelconque des premiers contienne la vie.


     6-3) Les théories cosmologiques & anthropiques et la Sélection naturelle cosmologique face à la Constante cosmologique.

          -Pour les théories anthropiques, le problème est qu’on peut manipuler les hypothèses lorsqu’on a affaire à des entités théoriques telles que d’autres univers, entités en principe inobservables. Il n’est pas possible de vérifier qu’il y a un nombre vaste ou infini d’autres univers. On peut certes discuter du fait que d’autres univers aient ou non la vie, mais on ne peut vérifier les arguments au moyen d’observations. 

 Voir note 18 page 310: On pourrait au mieux détecter l’influence de collisions passées d’autres univers avec le nôtre. Cette possibilité a été étudiée et donne des prédictions qui pourraient interprétables comme la collision d’autres univers avec le nôtre, mais si rien n’est vu, comme cela semble être le cas pour l’instant,  aucune hypothèse ne pourrait être infirmée. Voir Stephen M. Feeney (UCL), avec Matthew C. Johnson (Institut Perimeter), Daniel J. Mortlock (Imperial College de Londres), Hiranya V. Peiris (UCL), dans « First Observational Tests of Eternel Inflation: Analysis Methods and Wmap 7-Year Results » (https://arxiv.org/pdf/1012.3667v2.pdf[astro-ph.CO] 2011 et voir aussi Anthony Aguirre , Matthew C. Johnson dans « A status Report on the Observability of Cosmic Bubble Collisions » [hep-th] 2009 et 2011 Rept.Prog.Phys.74: 074901.   

  

          -Différence entre les théories anthropiques et la Sélection Naturelle Cosmologique: comment abordent t-elles le problème déroutant de la constante cosmologique {\displaystyle \Lambda }.? Cette constante de la physique (la vraie fausse erreur d’Einstein?) a été mesurée et possède une valeur minuscule mais positive4.1053 unité pragmatique (spat/m²) ou 10 puissance -120 en unités de l’échelle de planck. Constante cosmologique: remarque dans wikipediaLa théorie quantique des champs possède des fluctuations du vide qui peuvent s’interpréter comme un terme de constante cosmologique, et dont l’ordre de grandeur estimé est largement incompatible avec les mesures actuelles par un facteur de l’ordre de 10 puissance 120Pourquoi la valeur mesurée, ( Λ ∼ O(1)t −2 U ∼ 10 puissance -122 ), en unités de planck est-elle si minuscule? si on en croit  John D. Barrow et Douglas J. Shaw(Voir https://arxiv.org/pdf/1105.3105v1.pdf –mai 2011C’est un mystère. Il est de fait que si on fait varier {\displaystyle \Lambda }.en l’augmentant au-dessus de la valeur observée en gardant inchangées toutes les autres constantes de la physique et de la cosmologie, on atteint une valeur pour laquelle l’univers est en expansion si rapide que les galaxies ne se forment jamais, appelée valeur critique, qui correspond à environ 20 fois la valeur observée. 

matierevolution.fr le principe anthropique


     6-4) L’argument de Weinberg 

     -commençons par un argument fallacieux lié au principe anthropique. Il consiste à dire: 

1) Les galaxies sont nécessaires à la vie, sinon les étoiles ne se formeraient pas et sans étoiles il n’y a ni carbone ni énergie pour permettre l’apparition de structures complexes. 

2) L’univers grouille de galaxies.

3) Mais la constante cosmologique doit être plus petite que la valeur critique pour que des galaxies puissent se former.

4) Par conséquent, le principe anthropique prédit que la constante cosmologique doit être plus petite que la valeur critique. Ceci est fallacieux car le point 1) est vrai, c’est une constatation, mais il n’a pas de place dans un argumentaire et il peut être oublié sans affaiblir la conclusion. Les autres points sont bien des arguments. Le point 2) est évident d’après les observations, mais il ne peut permettre de dire si la vie serait possible ou non sans elles. Mais le point 1) est le seul endroit où la vie est mentionnée. Lorsqu’il est enlevé, le principe anthropique n’a donc plus à intervenir. la conclusion qu’il faudrait donc tirer serait donc: « le fait observationnel que l’univers grouille de galaxies implique que la constante cosmologique est nécessairement inférieurs à la valeur critique« .

     -En 1987,  Steven Weinberg  proposa une explication « possible (et ingénieuse) de la petite, mais non nulle, valeur de la constante cosmologique en suivant le principe  anthropique     [18]. Weinberg explique que « si l’énergie du vide avait des valeurs différentes dans les différents domaines de l’univers, alors les observateurs devraient nécessairement mesurer des valeurs similaires à ce qui est observé: la formation de structures supportant à la vie serait supprimée dans les domaines où l’énergie du vide est beaucoup plus grande. Plus précisément, si l’énergie du vide est négative avec une valeur absolue sensiblement plus grande que ce qu’elle semble être dans l’univers observé ( par exemple, un facteur de 10 plus grande), en maintenant toutes les autres variables constantes (par exemple , la densité), cela voudrait dire que l’univers est fermé; en outre, sa durée de vie serait plus courte que l’âge de notre univers, peut – être trop courte pour que la vie intelligente pusse se former. D’autre part, un univers avec une grande constante cosmologique positive donnerait une expansion trop rapide, ce qui empêcherait la formation des galaxies. Selon Weinberg, les domaines où l’énergie du vide est compatible avec la vie serait relativement rares. En utilisant cet argument, Weinberg prédit que la constante cosmologique aurait une valeur de moins de cent fois la valeur actuellement acceptée. [19] En 1992, Weinberg affinait cette prédiction de la constante cosmologique à 5 à 10 fois la densité de la matière. [20]« 

Voir note 19 page 311 SthephenWeinberg, S (1987). « Anthropic Bound sur la constante cosmologique ». Phys. Rev. Lett . 59 (22): 2607-2610. Bibcode : 1987PhRvL..59.2607W . doi : 10.1103 / PhysRevLett.59.2607 . PMID  10035596 .ou bien  « Anthropic Bound on the Cosmological Constant » 

https://ned.ipac.caltech.edu/level5/Weinberg/Weinberg1.html (There are now two cosmological constant problems. The old cosmological constant problem is to understand in a natural way why the vacuum energy density V is not very much larger) ainsi que les liens: 

https://ned.ipac.caltech.edu/level5/Weinberg/Weinberg2.html (weinberg: L’idée de Quintessence (4) est que la constante cosmologique est faible parce que l’univers est vieux. On imagine un champ scalaire uniforme ( t ) qui roule sur un potentiel V ( ), à un taux régie par l’équation de champ L'équation 1 (1)

https://ned.ipac.caltech.edu/level5/Weinberg/Weinberg3.html (weinberg: considérations anthropiques)

http://cds.cern.ch/record/449143/files/0007206.pdf (On Anthropic Solutions of the Cosmological Constant Problem)


     -Ainsi, l’hypothèse de Weinberg peut se décliner de la manière suivante: faisons l’hypothèse que notre hypothèse que notre univers soit « un » au sein d’un vaste multivers, où les valeurs de la constante cosmologique sont aléatoirement distribuées entre 0 et 1 dans les unités de l’échelle de Planck. Puisque nous avons besoin des galaxies pour vivre, nous devons vivre dans l’un des univers dont la constante cosmologique est inférieure à la valeur critique.Ainsi, le site matiereevolution.fr écrit: « Dans l’article de 1987, Weinberg affirmait que la constante cosmologique devait être inférieure à une certaine valeur, puisque, dans le cas contraire, l’univers aurait été en expansion trop rapide pour que les galaxies puissent être formées… Mais, avec cet argument scientifique valide, Weinberg est allé beaucoup plus loin. Supposons qu’il y ait le multivers, a-t-il dit, et supposons que les valeurs de la constante cosmologique soient distribuées au hasard entre les univers de ce multivers. Dans ce cas-là, parmi tous les univers potentiellement vrais, la valeur type de la constante cosmologique serait de l’ordre de grandeur de celle qui est la plus élevée mais qui reste encore cohérente avec la formation des galaxies…Notre situation reviendrait en fait à avoir tiré la constante cosmologique d’un chapeau, au hasard, mais en étant sûr d’obtenir un nombre compris entre 0 et la valeur critique. Il est alors improbable que la valeur de de cette constante soit beaucoup plus petite que la valeur critique, car seule une petite proportion des nombres dans le « fameux chapeau » seront aussi petits. On doit s’attendre à ce que la constante cosmologique de notre univers soit du même ordre de grandeur que la valeur critique parce qu’il y a beaucoup plus de nombres proches de cette valeur que de nombres plus petits. C’est ainsi que Weinberg prédit que la la constante cosmologique devait être inférieure à la valeur critique, mais d’un ordre de grandeur au plus. Et ce qui est remarquable, c’est que quand elle fut mesurée 10 ans plus tard, on trouva qu’elle valait 5% de la valeur critique« .

Par ce raisonnement, on trouve que « si on tirait la valeur d’un chapeau » cela se produirait une fois sur 20 environ.

(voir note 21 page 311: par Adam G. Riess et al:  Alexei V. Filippenko , Peter Challis , Alejandro Clocchiattia , Alan Diercks , Peter M. Garnavich , Ron L. Gilliland , Craig J. Hogan ,Saurabh Jha , Robert P. Kirshner , B. Leibundgut , MM Phillips , David Reiss , Brian P. Schmidt , Robert A. Schommer , R. Chris Smith , J. Spyromilio ,Christopher Stubbs , Nicholas B. Suntzeff , John Tonry « Observational Evidence from Supernovae for an accelerating Universe and a Cosmological Constant » 15 mai 1998 (https://arxiv.org/pdf/astro-ph/9805201v1.pdf).


     -Certains cosmologistes en ont déduit que la prédiction de Weinberg est une preuve en faveur de l’hypothèse sur laquelle elle est fondée, c’est à dire que nous vivons dans un multivers. Analyse de cette conclusion.  Le problème est que la valeur critique dont il est question est celle au-delà aucune galaxie ne se forme si la constante cosmologique est le seul paramètre pouvant varier. Et si on fait varier certains autres paramètres en même temps que la constante cosmologique, l’argument perd sa force. (Voir aussi note 22 page 311: En affirmant que Weinberg apporte la preuve qu’il existe d’autres univers, attention de ne pas faire le raisonnement erroné que le fait que la constante cosmologique prenne une valeur si improbablement petite est en soi la preuve que notre univers est un membre d’une collection d’univers dont chacun voit sa constante cosmologique « attribuée » au hasard. Cela ressemble à l’erreur du pari à l’envers que la philosophe Ian Hacking  a expliqué: supposons qu’en entrant dans une pièce, nous voyons quelqu’un lancer des dés et obtenir un double six. On peut être tenté de conclure que les dés ont été lancés de nombreuses fois auparavant ou en de nombreux endroits simultanément. Mais ce seraient des conclusions erronées car la probabilité d’obtenir un double six est chaque fois la même. Nous pouvons voir cela (dans wikipédia) par la règle de mise à jour bayésienne:  U désignant l’issue peu probable du processus aléatoire et M la proposition selon laquelle le processus a eu lieu à maintes reprises, nous avonsP (M | U) = P (M) {\ frac {P (U | M)} {P (U)}} et étant donné que P ( U | M ) = P ( U ) (qui signifie quel’issue du procédé est affectée par les événements précédents), il en résulte que P ( M | U ) = P ( M ); qui est, notre confiance en M devrait être inchangée lorsque nous apprenons U . Cf « The inverse Gambler’s Fallacy: The argument from design. The anthropic principle applied to Wheeler universes » (Mind 96 (383): pp.331-340 (1987DOI 10.1093/mind/XCVI.383.331)

A cela Jonh Leslie a objecté que l’erreur ne s’applique pas à l’argument anthropique , car nous devons être dans univers hospitalier à la vie dans mind.oxfordjournals.org, voir No Inverse Gambler’s Fallacy in Cosmology par John Leslie

En fait, l’argument de Weinberg ne se préoccupe pas d’hospitalité pour la vie mais uniquement que l’univers soit plein de galaxies.  Nous pourrions vivre dans un univers où une seule galaxie se soit formée et être toujours en vie, donc le fait que l’univers soit plein de galaxies n’est pas nécessaire à la vie). 
 -Prenons maintenant le cas où on fait varier la taille des fluctuations de densité. 

Nous avons évoqué cet aspect au chapitre 3 au paragraphe  -Une autre prédiction de la S.N.C: « Pourquoi l’univers n’a t-il pas commencé avec de grandes variations de densité? S’il y en avait eu, des régions très denses se seraient aussitôt pour former des trous noirs, les trous noirs primordiaux.formés non pas par effondrement gravitationnel mais par la présence de régions extrêmement denses de l’Univers primitif. Dans ses premiers instants, selon la théorie du Big Bang, la pression et la température étaient si élevées que de simples fluctuations de densité de la matière suffisaient pour amorcer un effondrement gravitationnel très rapide. Alors que la plupart des régions de hautes densités furent dispersées dans l’expansion qui suivit, les trous noirs primordiaux restèrent stables, et devraient être encore présents aujourd’hui« . 

La taille des fluctuations de densité détermine le degré d’uniformité de la distribution de matière dans le jeune univers. Si elles étaient plus grandes, la constante cosmologique pourrait être très supérieure à la valeur critique et les galaxies pourraient se former dans les régions très denses crées par les fluctuations. Il y a certes une valeur critique pour la constante {\displaystyle \Lambda }, mais celle-ci augmente avec la taille des fluctuations primordiales de densité. Si on laisse maintenant la constante cosmologique et la fluctuation de densité varier dans la population des univers, on peut « tirer du chapeau » deux nombres pour chaque univers au lieu d’un seul: l’un pour la constante cosmologique, l’autre pour la taille des fluctuations de densité et choisit ces nombres au hasard à l’intérieur du domaine permettant la formation des galaxies. Et on trouve que la probabilité pour obtenir ces deux nombres par le hasard n’est plus de une chance sur 20 comme nous l’avons vu dans le chapitre précédent (-l’hypothèse de Weinberg peut se décliner de la manière suivante), mais quelques chances sur 100 000. (voir note 24 page312: « Anthropic Distribution for Cosmological Constant and Primordial Density Perturbations » par Michael L. Graesser , Stephen Hsu DH , Alejandro Jenkins , Mark B. Wise)  (Soumis le 21 juillet 2004 ( v1 ), dernière révision le 29 septembre 2004 (arxiv.org/pdf/hep-th/0407174v3.pdf)

Voir aussi la note 23 page 311: Jaume Garriga , Alexander Vilenkin dans « Anthropic Perdiction for Lambda and the Q Catastrophe » 1 août 2005 (https://arxiv.org/pdf/hep-th/0508005v1.pdf). Ils ont mis en lumière qu’une combinaison particulière des deux constantes est plus pertinente quand on l’applique à l’argument de Weinberg: (constance cosmologique/taille de fluctuation)au cube. Mais deux questions se posent: a) qu’est ce qui fixe la taille des fluctuations? b) On sait déjà que l’argument fonctionne quand on ne considère que la constante cosmologique. On peut essayer de nombreuses combinaisons des deux constantes. Le fait que l’une d’entre-elles marche mieux que les autres n’est pas surprenant et même s’il y a une raison à cela, ce n’est pas une preuve de l’hypothèse que notre univers est un monde dans un gigantesque multivers.

     -L’argument de Weinberg s’écroule? Le problème avec l’argument de Weinberg est que nous ne pouvons observer d’autres univers et donc il est impossible de savoir quelles constantes varient dans l’hypothétique multivers. En supposant que c’est la seule constante cosmologique qui varie, alors l’argument de Weinberg tient la route. Mais si à la fois la constante cosmologique et les fluctuations varient, l’argument est à revoir. On peut donc dire que l’affirmation disant que l’argument de Weinberg prédit correctement la valeur de la constante cosmologique s’écroule en raison d’une erreur subtile survenant lorsqu’on tire avantage en théorie des probabilités de choisir arbitrairement une distribution de probabilité pour décrire des entités non observables, qui ne peut donc être vérifiée indépendamment. Ce qui pousse à dire que l’argument de Weinberg n’a aucune force logique car on peut parvenir à une conclusion différente en faisant une autre hypothèse sur les entités non observables. C’est ce qu’on obtenu Raphael Sorkin et ses collaborateurs à partir de la théorie des ensembles causaux. 

(voir note 25 page 312: Maqbool Ahmed , Scott Dodelson , Patrick B. Greene , Rafael Sorkin « EverPresent Lambda » (https://arxiv.org/pdf/astro-ph/0209274v1.pdf 2002 Une variété d’observations indique que l’univers est dominé par l’énergie noire avec une pression négative, une possibilité pour laquelle la constante cosmologique est constante. Si l’énergie sombre est une constante cosmologique, une question fondamentale est: Pourquoi est-il devenu pertinent si tardivement, aujourd’hui pour la première fois dans l’histoire de l’univers, que la constante cosmologique soit de l’ordre de la densité ambiante. Nous explorons une réponse à à inscrire sur des idées de gravité unimodulaire, qui prédit les fluctuations de la constante cosmologique (et l’ampleur de ces fluctuations), et la théorie des ensembles causaux. L’ansatz (établissement d’une équation) résultant donne une cosmologique fluctuante  »constante  » qui est toujours de l’ordre de la densité) ambiante.   et voir aussi EverPresent Lambda II Stabilité structurelle  (https://arxiv.org/pdf/1210.2589v3.pdf: Idées venant de la théorie des ensembles causaux conduisent à un temps fluctuant, dépendant de la constante cosmologique de l’ordre de magnitude en accord avec les valeurs de  l’«énergie noire» couramment cirées)

https://www.researchgate.net/publication/51945622_Anthropic_Likelihood_for_the_Cosmological_Constant_and_the_PrimordialDensity_Perturbation_Amplitude (Vraisemblance Anthropique pour la constante cosmologique et l’amplitude de la Densité de fluctuations Primordiales. Weinberg et al. calculated the anthropic likelihood of the cosmological constant using a model assuming that the number of observers is proportional to the total mass of gravitationally collapsed objects, with mass greater than a certain threshold, at t \rightarrow \infty. We argue that Weinberg’s model is biased toward small \Lambda, and to try to avoid this bias we modify his model in a way that the number of observers is proportional to the number of collapsed objects, with mass and time equal to certain preferred mass and time scales. Compared to Weinberg’s model, this model gives a lower anthropic likelihood of \Lambda_0 (T_+(\Lambda_0) ~ 5%). On the other hand, the anthropic likelihood of the primordial density perturbation amplitude from this model is high, while the likelihood from Weinberg’s model is low. Furthermore, observers will be affected by the history of the collapsed object, and we introduce a method to calculate the anthropic likelihoods of \Lambda and Q from the mass history using the extended Press-Schechter formalism. The anthropic likelihoods for $\Lambda$ and Q from this method are similar to those from our single mass constraint model, but, unlike models using the single mass constraint which always have degeneracies between \Lambda and Q, the results from models using the mass history are robust even if we allow both \Lambda and Q to vary. In the case of Weinberg’s flat prior distribution of \Lambda (pocket based multiverse measure), our mass history model gives T_+(\Lambda_0) ~ 10%, while the scale factor cutoff measure and the causal patch measure give T_+(\Lambda_0) \geq 30%.)

https://scholars.opb.msu.edu/en/publications/anthropic-distribution-for-cosmological-constant-and-primordial-d-4 (distribution anthropique pour la constante cosmologique et les fluctuations primordiales de densité. Le principe anthropique a été proposée comme une explication de la valeur observée de la constante cosmologique. Ici, nous revisitons cette proposition en permettant des variations entre les univers invariantes d’échelle de l’amplitude des fluctuations de densité primordiales cosmologiques. Nous dérivons a priori des distributions de probabilités pour cette amplitude à partir de modèles de jouets inflationnistes dans lequel le paramètre du potentiel inflaton est répartie uniformément sur les univers possibles. Nous constatons que de telles distributions de probabilité, la probabilité pour que nous vivions dans univers typique anthropique-autorisé est généralement assez faible)

     -La sélection naturelle cosmologique fait mieux pour expliquer les mêmes observations explique lee Smolin. En effet, elle donne une raison pour fixer à la fois la taille des fluctuations et la constante cosmologique. Dans certains modèles d’inflation, la taille des fluctuations est fortement « anti-corrélée »avec la taille de l’univers: plus la taille des fluctuations est petite, plus la taille de l’univers est grand et plus y aura de trous noirs (toutes choses étant égales par ailleurs). La taille des fluctuations devrait donc être proche de la limite inférieure nécessaire à la formation des galaxies ce qui implique en retour une petite valeur critique de la constante cosmologique cohérente avec la formation des galaxies. La S N C, combinée avec ce modèle simple d’inflation, prédit que la taille des fluctuations et la constante cosmologique doivent être petites toutes les deux, ce qui colle bien avec les observations disponibles.

Le principe anthropique, en revanche, est compatible avec un univers beaucoup petit, car une seule galaxie suffit sans doute à faire émerger une vie intelligente, mais il est tel que qu’on peut ajuster des caractéristiques non observables du scénario pour permettre d’en choisir un qui corresponde le mieux à l’hypothèse envisagée. Mais en S N C, notre notre univers est un membre typique de la population des univers, et on ne peut y insérer un principe ajustable pour sélectionner des cas atypiques.

—&&&—

7) Conclusion de cet article « Les lois évolutives ». 

     7-1) Nous avons commencé cet article 4 concernant le chapitre 11 du livre de lee Smolin « la renaissance du temps » en affirmant que pour progresser, la physique doit abandonner l’idée que les lois sont éternelles et intemporelles. Il faut partir de l’idée qu’il y a un temps réel dans lequel les lois évoluent. Nous pourrons peut-être ainsi arriver à une théorie cosmologique qui explique le choix des lois et de conditions initiales, qui soit testable et même vulnérable par des expériences réalisables. Pour le démontrer, Lee Smolin propose de partir de deux théories, l’une intemporelle et l’autre avec des lois évolutives, pour expliquer et prédire des résultats observationnels. La première sera La sélection naturelle cosmologique, une théorie dans laquelle les lois évoluent. Cette théorie a été développée à la fin des années 1980 et publiée en 1992 (« Did the Universe Evolve? »). La deuxième théorie, exemple de théorie intemporelle, sera une version du scénario de multivers appelée inflation éternelle, proposée dans les années 1980 par Andreï Linde et Alexander vilenkin.

     7-2) La sélection naturelle cosmologique,  le premier sujet du livre de lee Smolin « La vie du Cosmos » pose la question: y a t-il une évolution darwinienne du cosmos? Smolin détaille les univers féconds et applique les principes de la sélection naturelle à la naissance des univers et en particulier celui qui est basé sur les méthodes et les lois de l’évolution en biologie. Il postule que l’effondrement d’un trou noir pourrait conduire à la création d’un nouvel univers. Appliquer la sélection naturelle à un système pour expliquer sa complexité nécessite plusieurs conditions et mécanismes: – Un espace pour les paramètres qui varient au sein d’une population. – Un mécanisme de reproduction, issu de l’idée de Bryce de Witt, qui est que les trous noirs donnent naissance à de nouveaux univers -Un mécanisme de variation similaire à la variation génétique pour la sélection naturelle des espèces -Typicalité:  il est supposé aussi que notre univers est un membre typique de la population des univers.

      la sélection naturelle cosmologique, à la différence du principe anthropique, offre une véritable explication selon Lee  Smolin, à comparer aussi au darwinisme quantique évoqué aussi par Jean Paul Baquiast. On a vu avec Vilenkin et « On cosmic natural selection«  que cela rend la S N C scientifique car falsifiable, mais on est encore loin d’une théorie cosmologique le l’univers. Elle a fait plusieurs prévisions véritables, qui sont aussi falsifiables par des observations couramment réalisables comme par exemple pour les étoiles à neutronsUne autre prédiction de la S.N.C est faite à partir de l’extrême régularité de l’univers primordial et des observations du CMB (le fond diffus cosmologique) qui montrent que la distribution de matière varie très peu de région en région: pourquoi l’univers n’a t-il pas commencé avec de grandes variations de densité? Nous avons vu aussi que tout ceci implique que la S.N.C. est compatible uniquement avec une théorie simple qui ne produira pas un excès de trous noirs primordiaux. Si des observations amenaient à conclure que l’inflation est due à un scénario qui exige une théorie beaucoup plus complexe, la S.N.C. serait éliminée des explications. Une prédiction de la S.N.C. est peut être le fait qu’il n’y a jamais eu une telle observation. Cela ne veut pas dire que l’inflation est le bonne théorie de l’univers primitif, mais cela montre bien que la S.N.C. est vulnérable à la réfutation et au démenti pour ce qui concerne les découvertes de mécanismes agissant sur l’univers primordial qui pourrait avoir produit de nombreux trous noirs primordiaux.

      7-3) La S-N-C est inconcevable si le temps n’est pas réel, et de plus, ce scénario implique que le temps soit universel en plus d’être réel. Comme pour les populations en biologie, il n’y a pas d’état final dans lequel, une fois atteint, le « cocktail d’univers » resterait le même, ayant un équilibre qu’on pourrait qualifier d’intemporel. Le temps cesserait d’avoir de l’importance. Mais le scénario de sélection naturelle ne le suppose pas ni ne l’implique. Ce qui fait que le temps est toujours présent et que la S-N-C est inconcevable si le temps n’est pas réel.
7-4) Nous avons ensuite comparé au chapitre 5 la S-N-C (scénario avec lois évolutives dans le temps)  avec l’inflation éternelle (lois intemporelles).
 

         -Nous avons remarqué que La Sélection Naturelle Cosmologique a déjà fourni quelques prédictions réelles alors que le principe anthropique en tant qu’explication des lois et des conditions initiales de notre univers n’a pas encore proposé de prédiction réfutable. 

L’inflation éternelle elle, fait une prédiction potentiellement testable: la courbure de l’espace dans chaque univers-bulle est légèrement négative, mais même si on parvenait à vérifier que la courbure spatiale de notre univers est légèrement négative, cela ne serait pas la preuve qu’il fait partie d’un multivers, car il existe de nombreux scénarios pour lesquels la courbure est légèrement négative. 

Il reste que l’hypothèse  de la sélection naturelle cosmologique est testable et scientifique.
          -Le scénario de l’inflation éternelle, lui, nécessite un ensemble de théories possibles, qui peuvent être fournies par l’énorme nombre de théories des cordes possibles, et nous avons vu  de l’article 3 de mon blog  que  les manières de recourber les dimensions supplémentaires sur elles-mêmes sont si nombreuses (environ 10 puissance 500) et pis encore, en 2005, Whashington Taylor purent démontrer qu’il existait un nombre infini de théories des cordes avec des constantes cosmologiques de valeur négative et faible. Ce qui fait dire à Lee Smolin que ce résultat pourrait prêter à rire, surtout pour une théorie en quête d’une équation unique qui décrirait l’univers dans son ensemble, même si une conséquence prédictive a été soulignée par George F. R. Ellis et Lee Smolin: Si réellement il y a un nombre infini de théories des cordes avec de petites valeurs négatives pour la constante cosmologique, mais un nombre fini de qui ont des valeurs positives, alors on peut prédire que la constante cosmologique est négative avec une petite valeur. Mais, prise au pied de la lettre » elle indique que la théorie est fausse puisque la valeur mesurée est >0. 

 7-5) Les théories & cosmologies anthropiques et la Sélection naturelle cosmologique face à la Constante cosmologique: l’argument de weinberg.

Nous avons vu q’en 1987, Steven Weinberg  proposa une explication « possible de la petite, mais non nulle, valeur de la constante cosmologique en suivant le principe  anthropique. Cette hypothèse peut se décliner de la manière suivante: faisons l’hypothèse que notre hypothèse que notre univers soit « un » au sein d’un vaste multivers, où les valeurs de la constante cosmologique sont aléatoirement distribuées entre 0 et 1. Certains cosmologistes en ont déduit que la prédiction de Weinberg est une preuve en faveur de l’hypothèse sur laquelle elle est fondée, c’est à dire que nous vivons dans un multivers. Certains cosmologistes en ont déduit que la prédiction de Weinberg est une preuve en faveur de l’hypothèse sur laquelle elle est fondée, c’est à dire que nous vivons dans un multivers.

La sélection naturelle cosmologique fait mieux pour expliquer les mêmes observations explique lee Smolin. En effet, elle donne une raison pour fixer à la fois la taille des fluctuations et la constante cosmologique. 


Toute cette discussion, conclut Lee Smolin en fin de ce chapitre n’est pas tant la création d’univers à partir de trous noirs ou à partir de bulles durant l’inflation que du rôle joué par le temps et la dynamique dans la logique par laquelle les scénarios expliquent des propriétés connues de l’univers et en prédisent de nouvelles. Une théorie qui postule une évolution continue au cours du temps fait mieux que la théorie intemporelle pour expliquer les éléments de preuve observationnels. Elle fait une prédiction propre, tandis que les prédications de l’argument anthropique sont ajustables, comme on l’a vu, selon l’utilisation que nous voulons en faire. Les hypothèses basées sur l’idée que les lois de la nature évoluent avec le temps sont plus vulnérables à la falsification que les scénarios de cosmologie intemporelle, donc plus scientifiques au sens de Popper.

Pour Smolin, la réalité du temps est donc la clef pour affronter le mystère de « CE » qui sélectionne les lois de la physique. Nous allons maintenant voir, en commençant par le domaine quantique comment s’y prendre pour relever le défi lancé par le « rien ne va plus en physique » et comment Lee Smolin ose affronter un nouveau paradigme qu’il appelle de ses voeux dans ce nouvel article: La renaissance du temps article 5 (Lee Smolin: Partie II chap. 12) – La mécanique quantique et la libération de l’atome

liens:

La sélection naturelle cosmologique    sélection naturelle cosmologique (cosmogate .free.fr)

S N C     http://ljaeger.ibnogent.org/uploads/articles/0803.smolin.pdf (la sélection naturelle cosmologique)

http://www.admiroutes.asso.fr/larevue/2015/153/multivers.htm (lee smolin et l’hypothèse du multivers) http://www.drgoulu.com/2015/01/28/la-renaissance-du-temps/#.WDVRZ9ThA_6 (dr goulu: la renaissance du temps 1/2)

http://www.drgoulu.com/2015/12/31/la-renaissance-du-temps-22/ (la renaissance du temps 2/2)

http://medias.dunod.com/document/9782100706679/Feuilletage.pdf (la renaissance du temps Dunod: feuilletage)

http://www.drgoulu.com/2008/12/24/la-nature-du-temps-2/#.WDV7KdThA_4 (dr goulu la nature du temps et l’univers-bloc)

http://guillemant.net/index.php?cate=articles&part=physique_temps&page=Le_temps_existe-t-il.htm#deb(philippe guillement: Le temps existe-t-il ? Ce qu’en disent les physiciens Le futur influence-t-il le présent ? Peut-on changer le passé ? Peut-on changer le passé ?)

http://www.doublecause.net/index.php?page=Thibault_Damour.htm (double causalité, thibaud damour , le temps et l’univers-bloc)

http://www.danielmartin.eu/Physique/Inflation.pdf (Inflation, Big Bang et Multivers L’Univers selon nos connaissances début 2014 Mise à jour : 19/08/2016)

http://ipag.osug.fr/~desertf/cosmologie/cours/coursv2.pdf (cours de cosmologie)

http://www.apc.univ-paris7.fr/APC_CS/fr/la-cosmologie (laboratoies astroparticules & cosmologie: la cosmologie)

https://amis-univ-reunion.fr/wp-content/uploads/2015/02/Univers-origine-et-%C3%A9volution.pdf (Univers : origine et évolution Les récents développements autour de la cosmologie et de la gravité quantique par Laurent Gautret , docteur en astrophysique. Transposons cela à la théorie de Sélection naturelle cosmique :  Ce qu’on appellera l’espèce dominante (on l’espère), c’est la famille des univers porteurs de vie, c’est-à-dire ayant une Energie noire viable (valeur faible positive, proche de 0, comme la nôtre). La capacité à se reproduire en de nouveaux univers c’est la présence de Trous noirs, dans l’hypothèse Big-Bounce vue précédemment : effectivement des Univers tels que le nôtre possèdent des trous noirs.  L’abondance de progéniture et donc de géniteurs dans notre type d’Univers, relativement à des Univers non viables : pour cela il nous faudrait avoir des indices comme quoi les Univers à faible Λ génèrent plus de trous noirs que les Univers autres. A ce sujet il est clair que dans l’immense gamme des valeurs de Λ de 0 à 10120, c’est la gamme des faibles valeurs de Λ qui sont capables de produire des trous-noirs. Néanmoins il n’y a pas encore consensus sur le faite que notre valeur précise de Λ serait un optimum. Il y a donc a minima une réduction drastique de la gamme des Univers possibles dans le cadre de la CNS.  Transmission de caractères héréditaires (en ce qui concerne les Univers, les caractères héréditaires ne sont pas l’ADN mais la valeur des constantes universelles, en particulier Λ). On ne sait rien de ce que peuvent être ces mécanismes : en quoi un Trou noir connaissant un Big-Bounce ferait-il varier Λ dans l’Univers qu’il génère ? Cette hérédité doit être suffisamment stable pour que la filiation d’Univers viables soit efficace, mais elle ne doit pas être trop stricte, sinon comment expliquer une convergence progressive vers les bonnes valeurs de Λ, au cours de l’Evolution du Multivers ?)

lien inflation cosmique:

http://dictionnaire.sensagent.leparisien.fr/Inflation%20cosmique/fr-fr/ (L’inflation cosmique est un modèle cosmologique s’insérant dans le paradigme du Big Bang lors duquel une région de l’universcomprenant l’univers observable a connu une phase d’expansion très violente qui lui aurait permis de grossir d’un facteur considérable : au moins 1026 et probablement immensément plus (de l’ordre de 101000000, voire plus encore dans certains modèles). Ce modèle cosmologique offre, à la fois, une solution au problème de l’horizon ainsi qu’au problème de la platitude. Cette phase d’expansion se serait produite très tôt dans l’histoire de l’univers, à l’issue de l’ère de Planck, ou relativement peu après (de l’ordre de 10-35 seconde) l’ère de Planck. À l’issue de l’inflation, l’univers était encore extrêmement dense et chaud. On pense que sa masse volumique devait être de l’ordre de 1086, voire 1094 kilogrammes par mètre cube, et sa température de 1026, voire 1028 degrés)

liens sélection naturelle cosmologique ( S.N.C. ):

https://tkececi.files.wordpress.com/2009/12/the-life-of-the-cosmos.pdf (the life of the cosmos lee smolin, texte)

http://www.crm.umontreal.ca/~durand/carnetsinsolites_extrait5a208.pdf (1. La sélection naturelle de Darwin s’appliquerait à l’échelle du cosmos 2. Notre société pourrait s’effondrer du jour au lendemain 3. Le libre arbitre est une illusion 4. Nous pourrons augmenter notre créativité sur commande 5. L’Univers semble ajusté pour que la vie y apparaisse 6.La réalité est-elle bien réelle ? 7. Les ordinateurs du futur seront prodigieux. 8. Vous pourriez avoir un cerveau de rechange 9. Votre vieillissement pourrait être ralenti 10. Vous disposerez d’un album de tous vos rêves 11. Vous pourriez bientôt sauvegarder tous vos souvenirs 12. Il existerait des milliards d’univers 13. Les sauts dans le futur seront possibles 14. Pourra-t-on un jour se téléporter? 15. Les ordinateurs vont devenir plus intelligents que nous 16. Il sera possible de créer un univers en laboratoire 17. Notre Univers pourrait avoir dix dimensions 18. Il sera possible d’augmenter son intelligence sur commande 19. Toute notre mémoire tiendrait sur une clé USB. Le monde matériel n’est qu’une chimère)

http://ljaeger.ibnogent.org/uploads/articles/0803.smolin.pdf (lee smolin: les lois issues de l’évolution)

http://www.gurumed.org/2013/05/09/thorie-et-si-lunivers-tait-fait-pour-crer-des-trous-noirs/ (et si l’univers était fait pour créer des trous noirs?

https://arxiv.org/ftp/gr-qc/papers/0205/0205119.pdf (Is there a Darwinian Evolution of the Cosmos? Some Comments on Lee Smolinüs Theory of the Origin of Universes by Means of Natural Selection par Ru diger Vaas)

http://www.futura-sciences.com/sciences/actualites/univers-visitez-multivers-max-tegmark-inflation-eternelle-54426/ (max tegmark; l’inflation éternelle)http://www.futura-sciences.com/sciences/actualites/espace-planck-t-il-vu-traces-multivers-eternel-48904/ (planck a t-il vu des traces du multivers éternel?)

http://automatesintelligent.blog.lemonde.fr/2009/06/17/lee-smolin-contre-le-multivers-le-temps-retrouve/ (Lee Smolin. Contre le multivers. Le temps retrouvé (Article. Contre l’hypothèse du multivers.

Lee Smolin ou le temps retrouvé) par Jean-Paul Baquiast 17/06/2009)

http://www.automatesintelligents.com/echanges/2014/avr/vide_cosmologique.html (par Jean-Paul Baquiast: Du vide cosmologique aux mythes sur l’éternité)

https://blogs.mediapart.fr/jean-paul-baquiast/blog/120414/du-vide-cosmologique-aux-mythes-sur-leternite (Du vide cosmologique aux mythes sur l’éternité 12 AVR. 2014 PAR JEAN-PAUL BAQUIAST)

http://www.lacosmo.com/anthro.html (REMARQUES SUR LE PRINCIPE ANTHROPIQUE par Christian Magnan Collège de France, Paris Université de Montpellier II)

http://www.editions-bayol.com/PMF/anthropique.php (le rejet du principe anthropique par christian magnan)

http://wasdarwinwrong.com/kortho17.htm (le principe anthropique, un examen par Gert Korthof

http://www.astrosurf.com/luxorion/principe-anthropique.htm (le principe anthropique par astrosurf.com)

http://luth2.obspm.fr/~luthier/carter/trav/CielEspace.pdf (brandon carter et le principe anthropique)

http://www.pseudo-sciences.org/spip.php?article2266 (le principe anthropique (rem. Steven Weinberg avait d’ailleurs estimé il y a plus de trente ans que la constante cosmologique devait avoir une valeur très petite car si elle était plus grande, l’Univers n’aurait pas pu produire d’étoiles ou de galaxies. Il déduisait une valeur très proche de celle que l’on a observée quinze ans plus tard ! On peut donc considérer que c’était une véritable « prédiction anthropique »))

http://www.lps.ens.fr/~santolin/Publications_files/rapportLOPHISS.pdf (Le Principe Anthropique La place de l’homme dans l’Univers – It is not only that man is adapted to the universe. The universe is adapted to man. John Archibald Wheeler)

http://oncle-dom.fr/idees/anthropique/anthropique.htm (le principe anthropique – La « contrainte anthropique », elle, permet d’éviter les fausses questions, du genre « par quel miracle sommes nous là ». Des questions qui relèvent de la confusion entre probabilités a priori et a postériori. Nous allons en examiner quelques exemples)

http://protostarmonsite.blogspot.fr/2013/05/lunivers-pourrait-avoir-ete-porte.html#.WIC6t9ThA_4 (l’univers pourrait avoir été porté à l’intérieur d’un trou noir)

http://www.academia.edu/20848579/Le_Principe_Anthropique_-_La_place_de_lhomme_dans_lunivers (marc santolini sous la direction de marc lachièze rey: le principe anthropique et des considérations épistémologiques et philosophiques)

http://www.sceptiques.qc.ca/dictionnaire/anthropic.html (Le principe anthropique est une croyance 3 selon laquelle il est presque impossible que certains facteurs, qui étaient présents lors des premiers instants de l’univers et qui semblent avoir été réglés de façon à produire un univers pouvant soutenir des formes de vie avancées, puissent être le fruit du hasard. Cette croyance constitue pour certains une preuve que l’univers fut créé par un être puissant et intelligent (probablement nommé Dieu). Si la masse de l’univers et les intensités relatives des quatre forces fondamentales (électromagnétique, gravitationnelle et forces nucléaires forte et faible) étaient différentes ou n’étaient pas « réglées » aussi « précisément » pour leur permettre d’interagir comme elles le font présentement, l’univers tel qu’on le connait n’existerait pas. Un équilibre fragile entre les constantes physiques est « requis afin que le carbone et les autres éléments chimiques au-delà du lithium dans le tableau périodique puissent subir des réactions dans les étoiles ».* En résumé, beaucoup de choses différentes ont dû se passer afin que nous existions (les soi-disant « coïncidences anthropiques »). Certains physiciens trouvent étrange, apparemment, que nous n’existions qu’à l’instant même de l’histoire où nous puissions exister)

http://www.asmp.fr/travaux/gpw/philosc/rapport1/anthropique.pdf (Le principe anthropique – Débat Intervenants : Bernard d’Espagnat, Jean-Michel Alimi, Trinh Xuan Thuan, Jean Bricmont, Jacques Vauthier, Bassarab Nicolescu, Pierre Perrier, Lucien Israël, Hervé Zwirn, Bruno Guiderdoni, Jean Staune, Jean-François Lambert et Éric Bois)

https://inspirehep.net/record/1089144/references (liste de références: A Perspective on the landscape problemSmolin, Lee Found.Phys. 43 (2013) 21 arXiv:1202.3373 [physics.hist-ph] )
http://lpsc.in2p3.fr/barrau/aurelien/multivers_lpsc.pdf (Quelques éléments de physique et de philosophie des multivers)

https://fr.wikipedia.org/wiki/Densit%C3%A9_critique (La densité critique {\displaystyle \rho _{\rm {c}}\equiv {\frac {3c^{2}H^{2}}{8\pi G}}}  ,{\displaystyle \rho _{\mathrm {c} }={\frac {3H^{2}}{8\pi {G}}}}Equations de la relativité géhérale: équations de Friedmann-Lemaître.{\displaystyle \left({H^{2}}+{\frac {Kc^{2}}{a^{2}}}\right)={\frac {8\pi G}{3c^{2}}}\rho } H est le taux d’expansion (dont la dimension est l’inverse d’un temps), K/a2 la courbure spatiale, \rho  la densité d’énergie, c la vitesse de la lumière et G la constante de Newton.

http://www.counterbalance.org/cq-jpsw/index-frame.html (Stephen Weinberg et John Polkinghorne . Engagés dans une discussion sur les questions de la science et de la religion et de la conception)

http://law2.umkc.edu/faculty/projects/ftrials/conlaw/weinberg.html (S. Weinberg à propos de la science et de la religion)

https://arxiv.org/pdf/hep-th/0407213.pdf (Scientific alternatives to the anthropic principle Lee Smolin)

Abhay Ashtekar: New variables for classical quantum gravity

Ted Jacobson et Lee Smolin: Nonperturbative quantum geometries par Daniel Krefl

Non perturbative quantum geometries par Daniel Krefl

Carlo Rovelli et Lee Smolin: Knot Theory and Quantum Gravity

Thomas Tiemann: Quantum Spin Dynamics (QSD): II The Kernel of the Wheeler-DeWitt Constraint Operator.


les équations de strominger: https://en.wikipedia.org/wiki/Strominger’s_equationshttps://sciencetonnante.wordpress.com/2015/07/06/cosmologie-3-la-constante-cosmologique/ (la constante cosmologique)
http://www.cpt.univ-mrs.fr/~cosmo/EcoleCosmologie/DossierCours9/Bernardeau.pdf(de la constante cosmologique à l’énergie noire)
http://www.matierevolution.fr/spip.php?article3650 
(L’Histoire à l’envers – Le « Principe Anthropique », celui d’un monde conçu d’avance pour produire la matière des galaxies de façon à rendre possibles la vie, l’homme et sa conscience…Lee Smolin dans « Rien ne va plus en physique » )

Autres liens: 

La renaissance du temps article 3 (Lee Smolin Partie II chap. 10) Nouveaux principes de cosmologie


La renaissance du temps (Lee Smolin Partie II chap. 10)

Nouveaux principes de cosmologie 

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)


Préambule: Dans ces article que je consacre à Lee Smolin, j’écris la suite des articles de mon blog à propos des univers multiples d’Aurélien Barrau pour les quels je retiens quelques commentaires qui vont orienter mes réflexions nouvelles.

Dans l’article « D’après Aurélien Barrau, Univers multiples Chap 1)« : les propositions nouvelles face aux problèmes et paradoxes de la physique « peuvent constituer une « pulsion inchoactive » qui poussera vers une découverte sans précédent ou bien vers un réenchantement de ce que l’on savait déjà sans en avoir pris la « dé-mesure » et finalement vers une nouvelle sacralisation du « monde ».
Dans « D’après Aurélien Barrau, Univers multiples. La gravitation quantique chp. 9« : au chapitre L ConclusionCet article fait suite à l’article « D’après Aurélien Barrau, Univers multiples Chap 1)« : « Aujourd’hui, la physique est en crise, le monde est en crise. Avec Lee Smolin et son « rien ne va plus en physique« , Carlo rovelli parle de la schizophrénie bipolaire des physiciens (voir une révolution inachevée). La vision anthropique de Trin Xhuan Thuan et ma vision évangélique du monde, qui s’origine dans les mythes de l’Un et de l’ordre émergeant du Chaos initial, semblent exclus de la vision de bien des physiciens et cosmologues qui découvrent, comme l’a fait Jean Pierre Luminet, que l’Univers ne peut avoir été infiniment dense et donc que le big bang ne peut avoir été tel qu’on se l’imaginait depuis de nombreuses décennies. La possibilité d’un avant big bang a été mise en évidence avec un univers précédent qui se serait condensé jusqu’à une taille extrêmement petite mais non nulle et qui aurait « rebondi » en un big bounce pour donner notre Univers actuel en expansion après le phénomène d’inflation cosmique. Un des derniers rebondissements de ces recherches, avec Lee Smolin, pourrait bien aboutir avec sa « renaissance du temps » à une solution de la contradiction entre la physique quantique et la théorie de la relativité. A priori, ce serait une théorie unifiée des interactions fondamentales.

-&&&-

Nous avons vu , au cours du long article consacré au chapitre 9 du livre « les mpndes multiples« , de nombreuses théories nouvelles ou hypothèses qui proposent l’unification de la physique ou tout au moins des explications aux dilemmes et paradoxes que la cosmologie moderne a mis en évidence. Mais, dans « la renaissance du temps« , au chapitre 8, Lee Smolin prévient: Le paradigme newtonien ne peut même pas apporter un embryon de réponse à ces questions et dilemmes: Pourquoi ces lois? Pourquoi ces conditions initiales de l’univers? Quel mécanisme les a t-il sélectionnées parmi une multitude infinie de possibilités? etc. Il appelle ceci « l’erreur cosmologique »: appliquer à l’Univers entier dans sa globalité des lois établies et vérifiées sur des sous-systèmes. Dans le paradigme newtonien, ce que nous appelons une loi doit s’appliquer dans tous les cas. Mais l’application d’une loi à n’importe quel morceau d’univers implique une approximation, parce que nous devons négliger toutes les interactions entre ce morceau et le reste de l’univers. Donc les applications vérifiables d’une loi sont toutes des approximations. Smolin fait remarquer en particulier que les lois se vérifient sur beaucoup de sous-systèmes. Mais si on veut appliquer une loi de la nature sans approximation, c’est à l’univers entier qu’il faudrait l’appliquer, alors que nous n’avons qu’un seul Univers sous la main. Et un seul cas n’apporte pas suffisamment d’indices pour justifier l’affirmation qu’une loi particulière de la nature s’applique. C’est ce que Lee Smolin appelle le dilemme cosmologique (faire de la physique dans une boite: « on considère un petit sous-système isolé du reste de l’univers dans lequel on néglige certains effets pour ne s’intéresser qu’à certaines variables qui définissent un espace de configuration, atemporel »). Et pourquoi cette loi et pas une autre? De plus, beaucoup de théories cosmologiques (théorie des cordeséquation d’Einstein …) admettent en réalité une infinité de solutions, parmi lesquelles une seule correspond à notre univers. Doit-on se résoudre à admettre l’existence d’une infinité d’Univers inaccessibles pour pouvoir justifier le notre par un principe anthropique

Nous pensions, dit Lee Smolin, savoir comment répondre à ces questions. Une théorie unique mathématiquement cohérente pourrait incorporer les 4 lois fondamentales de la nature. Mais cet espoir a été anéanti. On se trouve face à ce qu’il appelle « le défi cosmologique ». On vient de voir qu’il faudrait étendre la science à une théorie de l’Univers entier. Le défi est qu’il ne peut pas exister de composante statique qui puisse servir de cadre de référence, car tout dans l’Univers change et il n’existe aucun extérieur, rien qui puisse être qualifié de fond par rapport auquel les mouvements du reste de l’Univers (que nous négligeons). Or, toutes les théories physiques divisent le monde en deux parties, une partie « dynamique », qui change, et une statique, qui contient un « fond » de choses immuables, comme les constantes fondamentales.  Le « défi cosmologique » consiste à formuler une théorie de l’univers « indépendante du fond », purement dynamique afin de ne rien supposer d’extérieur à l’Univers:  » Lorsqu’on fait de la « physique dans une boite », le « fond » comprend notamment les conditions initiales, et la méthode expérimentale permet de contrôler les conditions initiales afin de s’assurer que les lois sont indépendantes de ces conditions. En cosmologie, cette distinction entre « lois » et « conditions initiales » aggrave le problème qu’elle résout « dans une boite »: si nos observations du fond diffus cosmologique ne correspondent pas bien à la théorie de l’inflation cosmologique, faudra-il corriger la loi ou les conditions initiales? Smolin critique aussi les théories effectives qui décrivent bien ce qui se passe à une certaine échelle de grandeur, mais en négligeant l’influence de ce qui est beaucoup plus grand ou plus petit. » Pour Smolin, la théorie issue du défi cosmologique doit tenir compte de tout, sans rien négliger. »

Je vais maintenant retracer « ma lecture » plus complète du livre de Lee Smolin d’une manière peu orthodoxe en ne commençant pas par la partie I (« le poids: le mort du temps), mais par la partie II « Lumière: la renaissance du temps ». La partie I fera l’objet d’autre articles. Cette « mort du temps » est comme l’épilogue de la constatation de Lee Smolin traduite par son livre « rien ne va plus en physique (l’échec de la théorie des cordes)« . Cette partie I explique pourquoi depuis la naissance de la science moderne, avec l’effet Copernic et Galilée, le paradigme newtonien sous-tend toutes les théories y compris les théories quantiques et  la relativité  (le « paradigme newtonien » et ce qu’il a impliqué, dont l’hypothèse des multivers, Il est utile pour décrire l’évolution d’un système dans un laboratoire, mais il perd tout sens appliqué à l’univers entier. Il n’explique pas pourquoi telles ou telles lois sont choisies parmi l’infinité de lois possibles.Selon ce paradigme, un système, quel qu’il soit, pourrait être décrit par un ensemble d’états initiaux qui lui sont attribués, puis par les lois présidant à son évolution en fonction du temps. Mais si ces données sont utilisées initialement pour décrire le système, il n’est pas possible de considérer qu’elles pourraient aussi être le résultat de son évolution. Il faut rechercher d’autres lois, ce que je vais tenter de faire maintenant en commentant celui qui ose affronter un nouveau paradigme, Lee Smolin.

http://www.wearealgerians.com/up/uploads/139910915883722.pdf

Rien ne va plus en physique ! – L’échec de la théorie des cordes 

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)

http://www.agoravox.fr/actualites/technologies/article/la-renaissance-du-temps-pour-en-151868 (par Bernard Dugué (La renaissance du temps : pour en finir avec la crise de la physique ?)

http://medias.dunod.com/document/9782100706679/Feuilletage.pdf (la renaissance du temps Dunod: quelques pages à feuilleter)

http://www.paris8philo.com/article-33714241.html: à propos de rien ne va plus en physique: billet de Jean Zin, pour une physique pluraliste, qui nous paraît essentiel pour comprendre les enjeux des théories physiques actuelles qui souvent tendent vers l’impossible, hors toute avancée, toute brèche se fait par dissymétrie, sans souci du qu’en-dira-t-on il suffit de voir l’attitude de Grigori Perelman, si non-chalante vis-à-vis de la communauté scientifique, ou devrait-on dire l’etablishment. Jean Zin reste un grand guetteur de ce qui se passe en science, nous vous recomandonsses articles.


1) Rappels.

Nous avons vu dans l’article II donnant ma lecture de la renaissance du temps chapitre 8, que pour Lee Smolin, la seule manière d’échapper aux problèmes, dilemmes et paradoxes qui se présentent devant la physique actuelle, c’est d’adopter une méthodologie qui va au-delà du paradigme newtonien (le partage du monde en ses composantes dynamiques et un fond qui « le cerne » est  la caractéristique géniale du paradigme newtonien) c’est à dire chercher un nouveau paradigme applicable à la physique à l’échelle de l’univers. On l’a vu, l’application d’une loi à n’importe quel morceau de l’univers implique une approximation  parce que c’est faire de la physique dans une boiteet il faut alors négliger toutes les interactions entre ce morceau et le reste de l’univers. Mais il n’existe qu’un univers, ce qui signifie qu’appliquer une loi particulière à ce cas unique ne peut apporter suffisamment d’indices pour affirmer qu’elle s’y applique. c’est ce que Lee Smolin appelle le dilemme cosmologique.

Puis dans l’article II traitant du chapitre 9  de la renaissance du temps, nous avons vu qu’il ne peut pas exister de composante statique car tout dans l’univers change et il n’existe aucun extérieur, rien par rapport à quoi les mouvements du reste puissent être mesurés si l’univers est ce qui contient TOUT. Surmonter ce obstacle est ce que Lee Smolin appelle le défi cosmologique. Mais comment surmonter cet obstacle et relever le défi? Nous devons formuler une théorie nouvelle, que nous pourrons appliquer de façon consistante,   (sans incohérence) à TOUT l’univers.

Mais le succès actuel de la physique repose sur l’étude des subdivisions de la nature, modélisées par des théories effectivesDans l’histoire de la physique, on n’a jamais pu comparer les prévisions d’une théorie voulant être « vraiment fondamentale » avec l’expérience (une théorie « fondamentale » ne peut comprise comme une théorie effective). Cependant, ainsi Lee Smolin conclue t-il le chapitre 9, »il n’est pas interdit de cultiver l’ambition d’inventer une théorie fondamentale qui décrira enfin la nature sans approximation. Mais la logique comme l’histoire nous disent que ceci sera impossible tant que nous resterons dans le paradigme newtonien. Aussi admirables que soient la physique newtonienne, le relativité générale, la mécanique quantique et le modèle standard, ils ne pourront nous servir de canevas pour une théorie fondamentale en cosmologie. Le seul chemin possible vers une telle théorie nous force à relever le défi cosmologique et à façonner une théorie hors du monde du paradigme newtonien, pouvant être appliquée à l’univers entier sans aucune approximation »

C’est ce qui va être envisagé dans la suite de cet article.


2) Nouveaux principes de cosmologie (« La renaissance du temps » chapitre 10).

planete.gaia.free.fr -vers une Révolution Cosmologique?

2-1) Commençons cette recherche qui pourra peut-être déboucher sur une vraie théorie de l’univers entier, qui englobe tout. Comme on l’a vu au chapitre 1) une telle théorie doit éviter le dilemme cosmologique et être indépendante du fond, ne supposant donc aucune division du monde en deux parties, l’une contenant les variables dynamiques en évolution, et l’autre le fond, c’est à dire les structures fixes qui constituent l’arrière-plan donnant du sens aux parties en évolution. Une théorie de l’univers « indépendante du fond », est purement dynamique afin de ne rien supposer d’extérieur à l’Univers:  » Lorsqu’on fait de la «physique dans une boite», le «fond » comprend notamment les conditions initiales, et la méthode expérimentale permet de contrôler les conditions initiales afin de s’assurer que les lois sont indépendantes de ces conditions. La réalité que considère la théorie est donc définie non par rapport à un fond qui serait « le reste » fixe et non changeant, mais en considérant ce reste comme lui-aussi sujet au changement. Alors que doit être cette théorie de l’univers, la théorie vraiment cosmologique inconnue qu’on recherche?     *La nouvelle théorie doit contenir ce que nous savons déjà sur la nature. Les théories actuelles (le modèle standard, la relativité générale et la physique quantique) doivent en émerger en tant qu’approximations dès qu’on se restreint aux échelles de distance et de temps plus petites que le cosmos.

     *La nouvelle théorie doit être scientifique et donc impliquer des prédictions spécifiques qu’on peut anticiper et mettre en test avec des expériences réalistes (le Dr Goulu commente dans La Renaissance du Temps 1/2 au chap. 10: J’ai adoré ça !)

     *La nouvelle théorie devrait répondre à la question que nous avons évoquée dans l’article I au chapitre 2: l’erreur cosmologique -Pourquoi le paradigme newtonien ne pourra pas nous apporter de réponse?): « Pourquoi ces lois »? Qu’est-ce qui a les a sélectionnées au détriment d’autres lois qui auraient pu gouverner le monde? Comment et pourquoi les particules élémentaires et les 4 forces (et y a t-il une 5ème force?) décrites dans le modèle standard ont été sélectionnées? La théorie doit pouvoir expliquer les valeurs (extrêmement improbables) des constantes fondamentales de notre univers et les paramètres comme les masses des particules élémentaires et les intensités des forces fondamentales.

     *La nouvelle théorie devrait répondre à la question « Pourquoi ces conditions initiales »? L’univers commence au big bang avec un ensemble particulier de conditions initiales. Pourquoi ces conditions initiales? En effet quand les lois sont fixées, il y a toujours un nombre infini de conditions initiales pour le commencement de l’univers. Quel mécanisme les a t-il sélectionnées parmi le nombre infini de possibilités?


     2-2) Pour répondre à ces exigences minimales, observons attentivement l’histoire de la physique au cours des 4 siècles précédents!  Tel est le conseil de David Finkelstein à Lee Smolin pour avoir un bon départ pour l’énorme saut conceptuel dont la physique a besoin. Pour réfléchir sur l’univers entier, il faut aller au-delà de ce que la sagesse collective contenue dans les écrits des grands esprits qui ont inventé les théories du monde naturel nous a appris, depuis Leibniz, Kepler, Galilée, Newton, Mach, Einstein et les autres…Que nous en dit Lee Smolin?

     -Nous devons exiger un principe de fermeture explicative pour que les explications que donnera notre théorie soient des aspects de notre univers qui dépendent uniquement des choses qui existent ou se produisent dans l’univers. Aucune chaîne d’explication ne doit aboutir hors de l’univers. Les limites et les confusions avec le « principe de complétude » sont à examiner avec attention. En effet, « …Avons-nous besoin de recruter un événement non physique pour expliquer causalement un événement physique ? Est-il concevable de faire entrer dans les lois physiques, des forces ou des entités qui ne seraient pas physiques ? Si de telles forces ou entités non physiques causaient des événements dans le monde physique, elles violeraient un principe à la base même de notre conception des lois naturelles, à savoir que tout événement physique doit recevoir une étiologie physique complète. » Cela revient à se reposer la question qu’est-ce que l’univers? Concerne t-il uniquement les aspects physiques et mesurables? La nouvelle théorie ne devra t-elle pas s’engager sur « qu’est ce que le réel »?

     -La nouvelle théorie et le principe de raison suffisante. 

La fermeture explicative implique que « Pour être scientifique, une théorie n’a pas à donner une réponse précise à n’importe quelle question que vous pouvez imaginer, mais il devrait y avoir un grand nombre de questions auxquelles nous pensons pouvoir répondre si nous connaissons plus de détails sur l’univers… » Mais le principe de raison suffisante de Leibniz  dans sa formulation originelle, par Leibniz, affirme que « jamais rien n’arrive sans qu’il y ait une cause ou du moins une raison déterminante, c’est-à-dire qui puisse servir à rendre raison a priori pourquoi cela est existant plutôt que non existant et pourquoi cela est ainsi plutôt que de toute autre façon ». Ce principe postule qu’il devrait y avoir une réponse à toute question raisonnable qu’on pourrait se poser en réfléchissant pourquoi l’univers a certaines particularités. Pour une nouvelle théorie scientifique un test est de voir si elle augmente le nombre de questions auxquelles on sait répondre. Et si elle permet de trouver des raisons à des aspects de l’univers que les précédentes théories ne permettaient pas d’expliquer on peut dire que c’est un progrès. Donc la nouvelle théorie doit être conforme au principe au principe de raison suffisante.
-Conséquences qui devraient contraindre une théorie cosmologique.
      

     * Principe d’absence d’actions sans réciproque: rien dans l’univers ne peut agir sur d’autres choses sans en être affecté. Toutes les forces et les influences devraient être mutuelles (action = réaction). Comme on le voit, ce principe est évident dans la mécanique newtonienne. De façon plus subtile, c’est lui qu’Einstein invoqua pour justifier le remplacement de la gravitation de Newton par la relativité générale. L’argument est que l’espace absolu de Newton dicte aux corps comment se déplacer mais il n’y a rien qui soit réciproque. « L’espace de Newton est pensé comme intemporel universel et absolu. L’espace est une sorte de substance, qui est indépendant de toute matière et possède une structure d’espace euclidien à trois dimensions. Cet espace persiste à travers le temps sans aucun changement« . L’espace absolu est, c’est tout et il ne dicte pas aux corps comment se déplacer. Alors que dans la théorie de la relativité générale, la relation entre la matière et la géométrie est réciproque: la géométrie dit à la matière comment se déplacer et, en retour, la matière influence (par le tenseur énergie-impulsion) la courbure de l’espace-temps représentée par le tenseur d’Einstein. Le temps, pour Newton  est, comme l’espace, un absolu. Il s’écoule de la même façon, que l’univers soit vide ou rempli de matière. Mais Einstein a changé le concept du temps et,en relativité générale, la matière a un effet sur le comportement des horloges. TThibaud Damour explique: « Dans l’espace plat d’avant Einstein, la somme des angles d’un triangle vaut deux angles droits. Avec Einstein, si l’espace est déformé par une masse dans l’espace, la somme des angles n’est plus égale à deux angles droits ! Avant lui, deux horloges tictaquent toujours de la même façon même si elles bougent ou sont proches de corps massifs. Dans la théorie d’Einstein, si vous placez une horloge à la surface de la Terre et une autre dans le ciel, elles ne tictaquent plus à la même vitesse. Le temps est ralenti par le champ de gravitation. Si vous poussez les choses et comprimez une masse, cela devient plus violent encore. Comprimons le Soleil jusqu’à lui donner un rayon de 3 kilomètres : le temps ne s’écoule plus à sa surface ! Il s’arrête ! Dans l’exemple des jumeaux de la relativité restreinte (celui qui voyage à grande vitesse vieillit moins vite que celui resté sur Terre), la vitesse ralentit le temps. Mais la masse ralentit aussi le temps. Et peut même l’arrêter ! »

     *Ce principe d’absence d’action sans réciproque, par ailleurs, interdit toute référence à une structure de fond. Nous l’avons vu dans l’article 1 au chapitre 1 avec « Le défi cosmologique ». Pour relever ce défi, il est nécessaire que la nouvelle théorie soit « indépendantes du fond« , de ce fond dont les propriétés sont fixées pour toujours, que Lee Smolin voit comme une persistance des idées platoniciennes. (La « théorie des formes intelligibles est la doctrine de Platon selon laquelle les concepts, notions, ou idées abstraites, existent réellement, sont immuables et universels et forment les modèles (archétypes) des choses et formes que nous percevons avec nos organes sensoriels« ). Pour Lee Smolin, ces structures de fond  » sont l’inconscient de la physique »qui ont façonné silencieusement la pensée humaine pour donner du sens aux concepts qui sont utilisés pour « voir », imaginer et re-présenter le monde. Par exemple, le concept de position semble aller de soi parce que nous formulons des hypothèses inconscientes sur l’existence d’une référence absolue. Kant, lui, nous dit que le temps comme l’espace sont des formes pures de notre sensibilité. Ce sont des catégories de notre entendement. Ils permettent un classement, donc sont utiles à l’action. Mais l’esprit est au-delà du temps et de l’espace. Sans ces concepts purs de l’entendement, aucune expérience ne serait possible. Aucun objet ne nous apparaîtrait. Ce sont les conditions de toute expérience possible. Ils ne sont donc pas formés grâce à l’expérience, c’est bien au contraire grâce à eux qu’une expérience se forme. C’est pourquoi ce sont des concepts a priori. Mais pour Smolin, ces hypothèses inconscientes sur l’existence d’une référence absolue n’ont pas lieu d’être. L’histoire de la physique montre que plusieurs étapes fondamentales qui ont reconnu l’existence d’un fond fixe ont consisté à l’enlever et à la remplacer par une cause dynamique. Un exemple bien connu est celui de Ernst Mach par sa réfutation de newton en suggérant que l’impression de vertige que nous ressentons en tournant sur nous-mêmes est dû au fait que notre mouvement s’effectue par rapport à la matière dans l’univers et non par rapport à un espace absolu. C’est le principe de Mach, « qui est une conjecture selon laquelle l’inertie des objets matériels serait induite par « l’ensemble des autres masses présentes dans l’univers », par une interaction non spécifiée. L’idée de Mach a influencé Einstein dans son idée que la matière « engendrait par nature » l’espace qui était autour d’elle, et qu’un espace vide de matière n’existait pas. Bien que cette idée ait guidé Einstein dans la découverte de la relativité générale, cette théorie n’a pu amener à une preuve explicite de ce principe. Cependant, bien que non explicitement démontré, ce principe n’est pas non plus infirmé par les théories physiques actuellement admises ».

     *Ceci constitue en fait l’essence de la philosophie du « relationalisme ». Chaque entité dans l’univers évolue dynamiquement, en étant en interaction avec tout le reste de l’univers.

Un débat ancien a opposé les relationalistes, qui pensent que l’espace n’est rien de plus que la façon dont les choses physiques sont arrangées, leurs relations, si bien que s’il n’y avait plus de matière dans l’univers, il n’y aurait pas lieu de parler d’espace non plus, aux Philosophes substantialistes, pour qui l’espace est une substance, dans le sens où c’est une entité qui pourrait subsister indépendamment de ce qui s’y trouve (les objets matériels). Ce débat, dont un des premiers protagonistes en faveur du relationalisme est Leibniz, tourna à la victoire de la vision absolue de New ton avec son espace absolu. Cette vision fut détrônée par la théorie de la relativité, établissant une vision relationnelle. Mais le débat n’est pas terminé comme on peut le voir dans la théorie de la relativité générale et le statut ontologique de l’espace-temps: « l’espace-temps substantiel: c’est l’espace-temps avec le champ métrique (= la structure géométrique) qui définit l’espace-temps absolu. Les points de l’espace-temps sont des substances uniquement avec leurs propriétés métriques » . Mais reste « Les problème :

      Quel est le rapport entre les propriétés métriques et les propriétés de l’énergie-matière non gravitationnelle ? 

     Le substantialisme: Il y a deux types d’entités distinctes. Pourquoi ? 

     Le relationnalisme: Les points matériels possèdent les deux types de propriétés. Quel rapport y a t-il entre elles ? → structure dynamique, régissant le changement des relations spatiales entre des points matériels »

Lee Smolin relance donc le débat en affirmant que toutes les propriétés dans une théorie cosmologique devraient refléter des relations en évolution parmi des entités dynamiques, consacrant ainsi une revanche de Leibniz sur Newton. 

     -Conséquences de ce relationalisme: l’identité des indiscernables.
« Si les propriétés 
d’un corps (les propriétés par lesquelles nous l’identifions et le distinguons des autres corps) sont des relations avec ces autres corps, alors il ne peut y avoir deux corps ayant le même ensemble de relations avec le reste de l’univers. Si deux choses ont exactement les mêmes relations avec tout le reste de l’univers, c’est qu’elles sont une seule et même chose ». Ceci est un autre principe, l’identité des indiscernablesun principe posé par Leibniz d’aptitude à concevoir les choses comme discernables les unes des autres.

 Il stipule que « si deux particuliers possèdent les mêmes propriétés, alors ils sont identiques« . Comment Leibniz voit t-il l’identité des indiscernables? « Il faut toujours qu’outre la différence du temps et du lieu, il y ait un principe interne de distinction et, quoiqu’il y ait plusieurs choses de même espèce, il est pourtant vrai qu’il n’yen a jamais de parfaitement semblables: ainsi, quoique le temps et le lieu (c’est-à-dire le rapport avec le dehors) nous servent à distinguer les choses que nous ne distinguons pas bien par elles-mêmes, les choses ne manquent pas d’être distinguables en soi. Le précis de l’identité et de la diversité ne consiste donc pas dans le temps et dans le lieu, quoiqu’il soit vrai que la diversité des choses est accompagnée de celle de temps ou du lieu, par ce qu’ils amènent avec eux des impressions différentes sur la chose. Pour ne point dire que c’est plutôt par les choses qu’il faut discerner un lieu ou un temps de l’autre, car d’eux-mêmes ils sont parfaitement semblables, mais aussi ce ne sont pas des substances ou des réalités complètes ».

D‘abord posé par Leibniz, ce principe est « hautement controversé et ne doit pas être confondu avec sa converse, beaucoup plus largement acceptée : le principe de l’indiscernabilité des identiques, qui dit que si deux entités sont identiques, alors elles possèdent toutes leurs propriétés en commun1« . Il y a donc des doutes quant à la validité du principe d’identité des indiscernables: « L’argument en faveur du principe de l’identité des indiscernables serait alors que des doubles indiscernables, s’il en existait, ne serait pas individués. Il s’agirait alors de choisir entre sauver le principe d’individuation ou sauver celui d’identité des indiscernables. Le choix semble difficile. Un argument classique dû à Max Black offre lui à choisir entre la validité de la théorie des faisceaux et celle du principe d’identité des indiscernables ». selon Black « On doit à Leibniz d’avoir avec le plus de succès attiré l’attention des philosophes sur la question de métaphysique suivante : deux objets numériquement distincts peuvent-ils être identiques à tous les égards, i.e., être parfaitement semblables ? Leibniz répond à cette question par la négative. Il n’est pas vrai, dit-il, que deux substances se ressemblent entièrement, et soient différentes solo numero [Leibniz 1880, 433] » Pour le dire autrement, il ne saurait y avoir de différence numérique sans au moins une différence qualitative (i.e., une différence à l’égard d’au moins une propriété). Il souscrit ainsi au principe connu aujourd’hui sous le nom de principe de l’identité des indiscernables (désormais PII). Il est notoire que ce principe, capital pour Leibniz, est l’objet de vives controverses. On le trouve en effet au cœur d’une série de divergences radicales touchant aux notions les plus fondamentales de la logique et de la métaphysique : l’identité, l’individu, la propriété, la relation ou encore l’espace et le temps ». C’est cette « dispute philosophique » que met en scène le dialogue de Black.

L’identité des indiscernables est encore une conséquence du principe de raison suffisante de Leibniz, car s’il y a deux entités distinctes ayant les mêmes relations au reste de l’univers, il n’y a aucune raison pour qu’elles soient telles qu’elles sont et ne puissent pas être échangées. Cela voudrait dire que ce fait n’aurait aucune explication rationnelle. Cette longue digression autour de Leibniz montre la profondeur de la philosophie de ce dernier.

lien: http://www.phys.ens.fr/cours/cours-mip/MagCh02.pdf (particules identiques)


     

serge.mehl.free.fr -symétrie, vitrail

2-3) Pour la nouvelle théorie cosmologique encore inconnue), il ne peut y avoir de symétries fondamentales.
Il résulte de ce « relationisme » et de ses conséquences qu’il ne peut y a avoir aucune symétrie fondamentale dans la nature.  Wikipedia nous dit: « 
En physique la notion de symétrie, qui est intimement associée à la notion d’invariance, renvoie à la possibilité de considérer un même système physique selon plusieurs points de vue distincts en termes de description mais équivalents quant aux prédictions effectuées sur son évolution« . Quel rôle joue la symétrie dans la nature ? « La symétrie dévoile l’existence de lois au sein de l’apparent désordre général de la nature. Elle signifie que, pour une phase, pour un état, pour un niveau d’organisation de la matière, existent des lois d’équilibre. Mais, il y a aussi des passages d’une phase à une autre, d’un état à un autre, d’un niveau d’organisation à un autre et les lois sont limitées par l’existence de sauts que sont les transitions de phase, les changements d’état et les interactions d’échelle qui, eux, sont décrits par des brisures de symétrie.

Donc, en fait, la symétrie que la science étudie permet de trouver des lois à partir des régularités qu’on observe,  mais il ne s’agit pas de celles des objets naturels. Il s’agit en fait de la symétrie des lois de la physique. La nature se caractérise par des brisures de symétrie. 

Un exemple de symétrie est la translation d’un sous-système d’un endroit de l’espace à un autre. Etant donné que les lois de la physique ne dépendent pas du lieu où se trouve un système. Les prédictions qu’on peut faire sont inchangées si le laboratoire, et tout ce qui pourrait affecter les résultats expérimentaux est déplacé d’une distance quelconque vers une direction quelconque. L’indépendance des résultats expérimentaux par rapport à la position dans l’espace se traduit en disant que la physique est invariante par la translation des systèmes dans l’espace. La physique moderne exploite et utilise ces symétries avec en particulier la théorie des groupes qui permet de déterminer sans les calculer si des intégrales sont attendues nulles ou pas. Le théorème de Noether, « qui exprime l’équivalence qui existe entre les lois de conservation et l’invariance des lois physiques en ce qui concerne certaines transformations (typiquement appelées symétries) » peut être considéré comme « le couteau suisse de la physique« . Sa relation avec le lagrangien nous amène en particulier du lagrangien au mécanisme de Higgs. par le modèle standard.

Pourtant, si les principes de Leibniz sont corrects, les symétries ne doivent pas être fondamentales. Elles découlent de la manière de traiter un sous-système de l’univers comme s’il était le seule chose existante. Elles ont permis les fantastiques victoires et succès de la physique moderne, mais en même temps, elle conduisent aux paradoxes et dilemmes qui ont amené Lee Smolin a écrire « rien ne va plus en physique« . Et c’est parce que nous ignorons les interactions entre les particules qui composent le laboratoire (le système que nous observons) et le reste de l’univers qu’il est si peu important de déplacer le laboratoire dans l’espace. Et cela explique que c’est la même chose (isotropie ou invariance par rotation) si nous faisons tourner le sous-système, mais si nous prenions en compte ces interactions, le fait de tourner le sous-système aurait certainement une importance.

En effet, que se passe t-il si c’est l’univers lui-même qui est translaté ou qui a tourné? Ce n’est pas une symétrie du système, car l’univers étant un Tout unique, aucune position relative n’est modifiée. Dans une perspective relationnelle, cela n’a aucune signification de faire tourner ou translater l’univers. Ces symétries ne sont donc pas fondamentales, elle ne se produisent que dans la division du monde en deux parties, le système observé et le reste de l’univers. Ces symétries ne sont que des aspects de lois approchées appliquées à des sous-systèmes de l’univers. Mais alors, si ces symétries sont approchées, il en va de même des lois de conservation (certaines de ces lois n’ont jamais été mises en défaut). Elles expriment, comme nous venons de le voir, le théorème de Noether, c’est à dire l’équivalence qui existe entre les lois de conservation et l’invariance des lois physiques en ce qui concerne certaines transformations, les symétries. Ce théorème ne s’applique qu’aux systèmes descriptibles par un lagrangien. Il existe un théorème analogue pour la mécanique hamiltonienne. Ce théorème fondamental (https://arxiv.org/pdf/physics/0503066v2.pdf), établi par Emmy Noether en 1918 est un des piliers de la physique et pourtant Lee Smolin affirme que la théorie cosmologique inconnue ne devra contenir ni symétries, ni lois de conservation et que ce raisonnement général est confirmé dans le cadre de la relativité générale qui, lorsqu’on l’applique à un univers fermé, n’a plus ni symétries, ni lois de conservation. Beaucoup de physiciens, impressionnés par le succès du modèle standard, aiment pourtant dire que plus une théorie est fondamentale, plus elle devrait contenir de symétries. C’est donc apparemment la mauvaise leçon à en tirer. En effet, il est visible à partir des théories des cordes, que plus une théorie possède de symétries, moins elle possède de pouvoir explicatif.


     2-4) Qu’aura à dire la nouvelle théorie sur la nature du temps?

lapressegalactique.com conscience quantique et nature du temps

La théorie de la relativité générale a déjà dissous le temps en liant intimement espace et temps. Le temps disparaîtra t-il (et émergera t-il seulement lorsque ce sera nécessaire) comme dans la cosmologie quantique de Julian Barbour? Pour ce dernier, le temps n’existe pas et la dynamique des formes et des configurations y bouscule quelque peu Einstein! Ou alors contrairement à toutes les théories depuis Newton et comme le pense Lee Smolin, le temps y jouera t-il un rôle essentiel? En effet, pour toute théorie qui aura l’ambition de répondre à la question « pourquoi ces lois« ? et pour laquelle elles doivent être expliquées, ces lois devront évoluer. Et en s’appuyant sur la philosophie de Charles Sanders Peirce (Philosophe et Logicien, 1839-1914), il amorce son raisonnement: « Supposer que les lois universelles de la nature puissent être appréhendées par l’esprit et cependant ne disposer d’aucune explication pour leur forme, autre qu’inexplicable et irrationnelle, est une position difficile à justifier ». Le principe de raison suffisante de Leibniz implique que la science devrait être capable de répondre à la question pourquoi ces lois plutôt que d’autres? Pierce le souligne bien en écrivant: « Les uniformités font précisément partie de de ces faits ayant besoin de d’être expliqués…La loi est par excellence la chose qui exige une raison« . D’où la nécessité de répondre à la question: pourquoi ces lois? Puis il affirme que « la seule manière possible de rendre compte des lois de la nature et de l’uniformité en général est de supposer qu’elles sont le fruit de l’évolution« . Donc le fruit de leur rapport au temps.

Pierce n’a pas argumenté ni justifié cette dernière affirmation. Mais la tâche de le science est d’expliquer pourquoi un objet, ici l’univers, possède la propriété particulière que les particules élémentaires interagissent « via » des processus décrits par le modèle standard de la physique des particules. Et ses 18 paramètres particuliers ne représentent qu’une possibilité parmi un nombre énorme de choix pour les lois de la nature (En affinant la théorie des cordes,l es manières de recourber ces dimensions supplémentaires sur elles-mêmes sont si nombreuses (environ 10 puissance 500) que la Théorie des cordes conduit à une quasi-infinité de lois physiques possibles). 

Voir aussi: http://www.doublecause.net/index.phppage=Conference_Institut.htm (Les théories de GU (grande unification) font vibrer l’espace-temps) « Le problème est que Stephen Hawking ne dit pas ça du tout, lui. Il dit que nous ne vivons que dans une seule branche du multivers, or il n’a aucune preuve de cela. Il y a en fait 10 à la puissance 500 possibilités de faire varier les vibrations des cordes, et vivre dans une seule branche du multivers signifierait que cette vibration est toujours la même : aucune raison à cela, c’est arbitraire) ».

Alors, comment expliquons-nous pourquoi une entité peut avoir une propriété particulière parmi un nombre aussi invraisemblablement vaste d’alternatives? Puisque ces alternatives existent, il n’y a pas de raison nécessaire pour ce choix et aucun principe ne spécifie les lois exactes que nous constatons. Il doit donc certainement y avoir une raison échappant à la nécessité logique et il y sans doute eu des cas où le choix aura été différent. Comment expliquer la manière dont le choix a été fait dans le cas de notre univers? Cette question ne se pose pas si nous sommes en présence d’un cas unique, car dans ce cas, il n’y aura jamais d’explication suffisante et aucun principe logique ne peut déterminer le choix. Pour qu’il puisse y avoir une explication suffisante, il faut qu’il y ait d’autres univers initialement dotés de lois, donc plus d’un événement semblable au big bang où des lois de la nature ont dû être choisies. La question est alors de savoir comment ces événements, qui choisissent les lois, sont distribués. On peut faire l’hypothèse que l’univers doit contenir toutes les chaînes causales nécessaires à l’explication de tout ce qui s’y trouve, c’est à dire que l’univers doit être fermé sur les plans explicatif et causal (les explications des aspects de notre univers dépendent uniquement des choses qui existent ou se produisent dans l’univers. Aucune chaîne d’explication ne doit aboutir hors de l’univers). Pour expliquer comment les lois effectives ont été choisies lors de notre big bang, nous ne pouvons faire appel qu’à des événements survenus dans le passé (causal)  du big bang. On peut alors appliquer la même logique aux causes des choix des lois qui ont été faits lors des bigs bangs antérieurs aux nôtres, ce qui laisse supposer qu’il existe une séquence de bangs s’étendant sans fin dans le passé. Si nous prenons un point de départ arbitraire et si nous suivons le choix le choix des lois par le suite, nous verrons ces lois évoluer lorsque nous nous rapprochons de notre univers actuel. Ainsi cela permet de rejoindre la conclusion de Peirce disant que si nous espérons expliquer les lois, celles-ci doivent avoir évolué. Pierce était très influencé par Darwin, mais on peut seulement supposer (si dit Smolin, on s’en tient au texte), qu’il comprenait évolution dans son sens plus général d’un changement dans le temps selon un certain processus dynamique. Ainsi, il apparaît que la réponse à la question « Pourquoi ces lois? » ne peut expliquée scientifiquement que si le temps est réel.

Dans toutes les hypothèses sur la séquentialité des bangs et leurs ramifications dans le passé ou dans le futur et sur ce qui se passe durant ces événements, on ne peut expliquer le choix des lois effectué dans le big-bang le plus récent qu’en termes d’événements situés dans son passé causal. Ce type de scénario pourrait même être vérifié expérimentalement à travers l’information laissée dans les résidus qui auraient survécu à la naissance de notre univers. Mais si le big bang n’a aucun passé, le choix des lois et des conditions initiales est arbitraire et il n’y a aucun test possible. De même il n’y aura pas non plus de test possible pour les scénarios dans lesquels existeraient une population vaste, voire infinie d’univers dont les big- bangs seraient déconnectés du notre. Ce postulat d’univers parallèles qui seraient causalement déconnectés du notre ne peut en rien, dit Lee Smolin, nous aider nous aider à expliquer les propriétés de notre univers. Pour avoir une prédiction qui soit falsifiable (au sens de Popper, c’est à dire que l’on peut contredire au moyen d’une expérience réalisable), il faut que les lois évoluent avec le temps. 

En réponse à la question « Qu’aura à dire la nouvelle théorie sur la nature du temps? » ,on peut résumer par par la formulation de Roberto Mangabeira Unger (voir l’univers singulier et la réalité du temps, écrit avec Lee Smolin): ou bien le temps est réel, ou bien il ne l’est pas! S’il ne l’est pas, alors les lois sont intemporelles, mais le choix de ces lois est inexplicable. Mais si le temps est réel, rien ne dure toujours, pas même les lois. Si les lois agissent pour toujours, on est dans le paradigme newtonien et on peut réduire toute propriété du monde d’un moment ultérieur à celle d’un moment antérieur. Cela signifie de manière équivalente qu’on peut remplacer n’importe quelle relation causale par une relation logique.Donc le fait que le temps soir réel signifie bien que les lois ne durent pas pour l’éternité, et donc qu’elles doivent évoluer. 

La notion de loi intemporelle telle que la physique l’a envisagée jusqu’à présent viole le principe du « relationnel », principe qui devrait contraindre la nouvelle théorie cosmologique comme nous l’avons vu en 2-2). Il résulte du principe d’absence d’actions sans réciproque  selon lequel rien dans l’univers n’agit sans qu’on puisse agir dessus. Si on fait le choix que les lois dérogent à ce principe, en les voyant comme « extérieures à l’univers », on les place alors hors du domaine de l’explication rationnelle. Pour rendre ces lois explicables, il faut les considérer comme faisant partie du monde comme tout objet sur lesquelles elles agissent comme les particules élémentaires. Elles deviennent alors du ressort de la causalité en participant du changement et de l’influence mutuelle qui font du monde un tout.. 


3) Conclusion de ce chapitre « nouveaux principes de cosmologie ».

La théorie cosmologique recherchée n’est pas encore là, mais nous savons quelque chose sur elle avec les principes que nous avons vus au cours de ce chapitre.

*La nouvelle théorie devrait contenir ce que nous savons déjà sur la nature, mais en tant qu’approximation.
*Elle devrait être scientifique et donc impliquer des prédictions spécifiques qu’on peut anticiper et mettre en test avec des expériences réalistes.

*Elle devrait résoudre le problème de « Pourquoi ces lois« .

*Elle devrait répondre à la question « Pourquoi ces conditions initiales »?

*Elle ne contiendra ni symétries fondamentales ni lois de conservation. « L’argument de Smolin est basé sur le théorème de Noether qu’il considère extrêmement important, et sur l’idée que les symétries ne sont valables que « dans une boîte », et parfois imparfaites. Donc il ne dit pas que les symétries ou les lois de conservation sont fausses, mais plutôt qu’elles devraient résulter de la théorie (selon le point 1) au lieu d’en être le fondement comme dans les théories basées sur la supersymétrie par exemple ».

*Elle devrait être fermée causalement et répondre à l’exigence d’un principe de fermeture explicative pour que les explications que donnera notre théorie soient des aspects de notre univers qui dépendent uniquement des choses qui existent ou se produisent dans l’univers. Rien hors de l’univers ne doit être requis pour expliquer quoi que ce soit à l’intérieur de l’univers.

*Elle devrait satisfaire le principe de raison suffisante, le principe d’absence d’actions sans réciproque et le principe d’identité des indiscernables.

*Ses variables physiques devraient décrire des relations évolutives entre entités dynamiques. On ne devrait y trouver aucune référence à une structure de fond fixe avec des lois figées de la nature.  Les lois de la nature évoluent et impliquent que le temps est réel.


Nous verrons dans le prochain article « les lois évolutives » comment ces hypothèses peuvent conduire à des théories pouvant permettre des prédictions testables.

contrepoints.org la renaissance du temps

liens symétrie:

https://fr.wikipedia.org/wiki/Sym%C3%A9trie_(physique) (symétrie)

https://philosophiascientiae.revues.org/787 (Principes d’invariance et lois de la nature d’après Weyl et Wigner par Christophe Eckes)

http://feynman.phy.ulaval.ca/marleau/pp/10cpt/sym_fondamentales.html (symétries P C T)
http://www.phys.ens.fr/cours/notes-de-cours/fl-dea/chap-1.pdf (les transformations de symétrie en mécaniques classique et quantique)

http://webinet.blogspot.fr/2009/09/le-theoreme-de-noether-couteau-suisse.html (Le théorème de Noether: couteau suisse de la physique)

https://www.matierevolution.fr/spip.php?article1635 Quel rôle joue la symétrie dans la nature ? par Robert Paris: La symétrie dévoile l’existence de lois au sein de l’apparent désordre général de la nature)

http://www.matierevolutioner/Cours/M1_09/chap3.pdf (brisure spontanée de symétrie)

https://fr.wikipedia.org/wiki/Th%C3%A9or%C3%A8me_de_Noether_(physique) (Le théorème de Noether exprime l’équivalence qui existe entre les lois de conservation et l’invariance des lois physiques en ce qui concerne certaines transformations (typiquement appeléessymétries)

http://physiquepcsimoreggia.hautetfort.com/media/02/01/3951904845.pdf (symétries et invariance, théorème de gauss)

https://www.phys.ens.fr/~dbernard/Publications/PolyGroupSym2012.pdf (D. BERNARD, Y. LASZLO et D. RENARD ELÉMENTS DE THÉORIE DES GROUPES ET SYMÉTRIES QUANTIQUES)

http://www.fsr.ac.ma/cours/chimie/jouhari/ELJouhariTheorieGroupes.pdf (théorie des groupes)

https://etudesplatoniciennes.revues.org/269 (Un univers excessivement mathématique : Platon et la cosmologie moderne Les leçons de l’histoire Les défis de la cosmologie scientifique Une cosmologie purement mathématique ? Sauver les phénomènes, ou se sauver ? Une sensibilité cosmique Les leçons de la cosmologie spéculative)

http://blog.rechercheshumanistes.org/tag/jean-francois-robredo/(Le Big Bang, mythe? : écoutez l’entrevue!

par Mario)

.fr/spip.php?article606  (La rupture de symétrie est devenue une image reconnue depuis qu’elle décrit l’évolution de la matière et de l’univers. En fait, elle est aussi une constatation de notre vie de tous les jours)

http://www.implications-philosophiques.org/actualite/une/face-a-face-avec-la-symetrie-12/ (face à face avec la symétrie 1/2)

http://www.implications-philosophiques.org/actualite/une/face-a-face-avec-la-symetrie-22/ (face à face avec la symétrie 2/2)

http://lewebpedagogique.com/physique/quest-ce-que-la-brisure-de-symetrie/ (La symétrie des objets naturels (les flocons de neige, certaines fleurs) a quelque chose de fascinant car relativement rare. Lorsqu’on parle de symétrie en physique, il ne s’agit pas de celles des objets naturels. Il s’agit en fait de la symétrie des lois de la physique. Mais que vient faire la symétrie dans ces lois ?)

http://www.lpthe.jussieu.fr/~zubhttp://lastethese.free.fr/node1.html (la physique des particules)

Autres liens:

https://www.contrepoints.org/2015/01/30/196215-la-renaissance-du-temps (Une recension du dernier ouvrage de vulgarisation du spécialiste de physique théorique Lee Smolin par Philippe Guglielmetti (Le site de l’auteur))

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm (par Jean-Paul Baquiast: Time Reborn: From the Crisis in Physics to the Future of the Universe)http://bdugue.typepad.com/a/2015/04/la-relativit%C3%A9-et-les-sciences-en-crise-quelle-est-cette-r%C3%A9volution-qui-advient.html  (La relativité et les sciences en crise. Quelle est cette révolution qui advient ? par bernard dugué)

http://www.agoravox.fr/actualites/technologies/article/en-finir-avec-la-relativite-181663 (En finir avec la relativité générale ! Du séisme scientifique aux enjeux politiques et religieux avec la nouvelle théorie de la Matière par bernard dugué)

https://www.unil.ch/philo/files/live/sites/philo/files/shared/philosophie_des_sciences/enseignement/bachelor_unil/Cours-nature-ch6.pdf (La théorie de la relativité générale et le statut ontologique de l’espacetemps ch. 6)

http://www.2012un-nouveau-paradigme.com/article-nature-de-l-espace-temps-une-decouverte-qui-pourrait-bouleverser-la-physique-moderne-78576061.html (Nature de l’Espace-Temps : Une découverte qui pourrait bouleverser la physique moderne. Des théories suggèrent que la nature quantique de l’espace-temps devrait se manifester à l’échelle de Planck Des théories suggèrent que la nature quantique de l’espace-temps devrait se manifester à l’échelle de Planck (10-35m). Cependant, les observations de Integral qui sont environ 10 000 fois plus précises que les précédentes montrent que la granularité de l’Espace-temps devrait se situer à une échelle de 10-48m ou moins.« C’est un résultat très important en physique fondamentale et il exclura certaines théories des cordes et théories de gravitation quantique à boucles » a déclaré le Philippe Laurent)

http://www.philipmaulion.com/article-bouts-de-chemin-124135271.html (trois exemples sont illustrés par des rencontres avec les positions de Max Tegmark qui sont exprimées dans une interview dans ‘La Recherche’ de juillet-aout 2014 : « La Réalité n’existe pas », ensuite avec Lee Smolin dont son livre « La Renaissance du Temps » vient d’être publié en français chez Dunod, enfin avec Jean-François Robredo (philosophe et historien des sciences) qui vient de publier un livre : « Le Big Bang est-il un Mythe ? »)

http://densite-zero.e-monsite.com/blog/articles/la-theorie-du-dedoublement-jean-pierre-garnier-malet.html   (La théorie du dédoublement – Jean-Pierre Garnier Malet)

http://www.agoravox.fr/actualites/technologies/article/en-finir-avec-la-relativite-181663 (bernard dugué: en finir avec la relativité générale! Du séisme scientifique aux enjeux politiques et religieux avec la nouvelle théorie de la matière)

http://www.agoravox.fr/actualites/technologies/article/einstein-bouscule-par-de-jeunes-152944 (bernard dugué: Einstein bousculé par de jeunes physiciens : la dynamique des configurations, interprétation du principe de Mach (ni espace ni temps absolu ; tout est relation) par Julian Barbour selon lequel la gravité pourrait être reformulée comme une théorie dynamique des formes géométriques tridimensionnelles, la relativité du temps a été remplacée par la relativité d’échelle)

http://lepaysoeuvredart.ca/index.php/2016/11/03/wow-t2-7k-dans-la-foulee-des-recherches-cosmologiques-et-quantiques-du-physicien-britannique-julien-barbour/ («WOW-T=2.7K?»… DANS LA FOULÉE DES RECHERCHES COSMOLOGIQUES ET QUANTIQUES DU PHYSICIEN BRITANNIQUE JULIEN BARBOUR)

http://www.admiroutes.asso.fr/larevue/2015/153/multivers.htm (Lee Smolin postule que l’Univers est unique et qu’il existe un Temps, également unique, dans lequel s’inscrivent les lois fondamentales de la physique et les phénomènes ayant donné naissance à notre univers)

http://www.automatesintelligents.com/biblionet/2014/oct/univers_est_il_unique.html (L’Univers est-il unique ? Ou non ?Et notre cerveau, quel est-il ? Présentation de 3 ouvrages: Aurélien Barrau Des univers multiples. A l’aube d’une nouvelle cosmologie, Carlo Rovelli Et si le Temps n’existait pas, Roberto Mangabeira Unger et Lee Smolin, The Singular Universe and the Reality of Time)

http://www.automatesintelligents.com/biblionet/2006/fev/bioscom.html (bioscom, la nouvelle théorie scientifique de l’évolution. L’hypothèse anthropique: Mais pourquoi l’univers s’est-il construit ainsi, bien avant que la vie et que l’homme soient possibles ? Etait-il déjà programmé, dès le Big Bang ou même avant, pour pouvoir héberger la vie ? Les lois et constantes de la nature sont constamment rebattues à cette occasion, comme un jeu de cartes. En termes de probabilités, si l’on raisonne sur des séries de tailles presque illimitées, il n’y a aucune raison de penser qu’un univers, même aussi complexe que le nôtre, n’aurait pas pu émerger. Il n’y aurait, selon les calculs de Leonard Susskind, un des pères de la théorie des cordes, qu’une chance sur 10 puissance 500 pour qu’un tel événement se produise. Des explications qui n’expliquent rien Or pour James Gardner, ces deux façons d’expliquer pourquoi les constantes de l’univers paraissent miraculeusement adaptées à l’apparition de la vie et de l’intelligence n’expliquent rien. Les biocosmos Il se place ainsi dans une perspective darwinienne en l’appliquant à un méta-cosmos comportant des univers en évolution soumis à une compétition darwinienne pour la survie du plus apte. Il ne s’agirait plus alors de décrire l’apparition de formes de vie de plus en plus complexes  Des bébés-univers plus intelligents que leurs géniteurs)

Dans le site,philipmaulion.com: avec trois exemples je vais montrer qu’il peut arriver de partager le point de vue de physiciens sur un sujet spécifique alors que sur tout le reste on peut être en complet désaccord. rencontres avec les positions de Max Tegmark qui sont exprimées dans une interview dans ‘La Recherche’ de juillet-aout 2014 : « La Réalité n’existe pas », ensuite avec Lee Smolin dont son livre « La Renaissance du Temps » vient d’être publié en français chez Dunod, enfin avec Jean-François Robredo (philosophe et historien des sciences) qui vient de publier un livre : « Le Big Bang est-il un Mythe ? »

liens « la renaissance du temps.

http://www.agoravox.fr/actualites/technologies/article/la-renaissance-du-temps-pour-en-151868 (par Bernard Dugué (La renaissance du temps : pour en finir avec la crise de la physique ?)

http://oiapmm.neowordpress.fr/2015/08/10/la-renaissance-du-temps/ (Claude Hespel, métaphysicien dans la revue Espace et Astrophysique de Juillet 2015)
https://sciencetonnante.wordpress.com/2012/05/14/la-plus-grosse-erreur-de-toute-lhistoire-de-la-physique/ (la plus grosse erreur de toute l’histoire de toute la physique. l’énergie du vide, si on compare le calcul fait en physique quantique à la valeur mesurée en astrophysique, on se rend compte que les deux diffèrent d’un facteur « 10 puissance 120 ». pourquoi est-elle si petite (en pratique), alors qu’elle devrait être si grosse (en théorie) ?)

http://www.revue-klesis.org/pdf/Loth-Klesis.pdf (POURQUOI LA PHILOSOPHIE DE L’ESPRIT ? François Loth (Université de Rennes I))

http://www.francoisloth.com/ (françois loth: métaphysique, ontologie, esprit)
http://www.les-philosophes.fr/kant-critique-de-la-raison-pure/Page-10.html (Voici comment est définie la sensibilité : la capacité de recevoir (réceptivité) des représentations par la manière dont nous sommes affectés par des objets s’appelle sensibilité. Tandis que l’intuition qui se rapporte à l’objet à travers une sensation s’appelle empirique.)

http://www.les-philosophes.fr/kant-critique-de-la-raison-pure/Page-2.html (Sans ces concepts purs de l’entendement, aucune expérience ne serait possible. Aucun objet ne nous apparaîtrait. Ce sont les conditions de toute expérience possible. Ils ne sont donc pas formés grâce à l’expérience, c’est bien au contraire grâce à eux qu’une expérience se forme. C’est pourquoi ce sont des concepts a priori. Il y a donc un ensemble de concepts a priori, qui constituent la forme de notre entendement, et c’est ce que n’ont pas vu les empiristes).
http://seulsdanslecosmos.hautetfort.com/tag/seau+de+newton (expérience de pensée, le seau de newton) 

http://www.astrosurf.com/luxorion/cosmos-quantique.htm(la cosmologie quantique -l’univers à l’échelle de planck)

http://www.astrosurf.com/luxorion/cosmos-quantique2.htm (la cosmologie quantique -l’instabilité du vide)

http://www.astrosurf.com/luxorion/cosmos-quantique3.htm (la cosmologie quantique et les multivers)
http://www.astrosurf.com/luxorion/cosmos-quantique4.htm (la cosmologiq quantique -les classes d’équivalence d’histoires)

http://www.astrosurf.com/luxorion/cosmos-quantique5.htm (la cosmologie quantique -de l’utilité du temps imaginaire) http://physique.quantique.free.fr/chapitre%2012.htm (les 4 interactions fondamentales tentative d’unification)  

https://actualite.housseniawriting.com/science/2016/07/28/un-debat-sur-la-physique-du-temps/16984/ (débat sur la physique du temps: Selon nos meilleures théories de la physique, l’univers est un bloc fixe où le temps ne fait que passer. Mais quelques physiciens veulent remplacer cet univers-bloc avec une théorie physique du temps)

http://www.einstein-online.info/spotlights/causal_sets (Géométrie de l’ordre: des ensembles de causalité)

http://www.agoravox.fr/tribune-libre/article/l-univers-est-il-unique-ou-non-et-160727 (L’Univers est-il unique ? Ou non ? Et notre cerveau, quel est-il ? par Automates Intelligents (JP Baquiast))



Parution de « L’épreuve du savoir » (Katrin Solhdju)


A voir avec cette parution le livre d’isabelle stenger (qui a travaillé avec ilya prigogine, le père de la théorie du chaos ») une autre science est possible. Elle contre la toute puissance et l’arrogance de ceux qui prétendent imposer ce qui est scientifique contre ce qui ne l’est pas.

GECo - Groupe d'études constructivistes

L'épreuve du savoir

Certains diagnostics médicaux transforment la personne qui s’y prête, scindant sa vie en deux. C’est particulièrement le cas des maladies incurables, pour lesquelles la médecine ne peut se présenter comme art curatif – à l’exemple de la maladie de Huntington, avec son test génétique présymptomatique qui prétend annoncer leur avenir aux descendants de ses malades : les personnes « à risque ».

Comment construire différemment de telles pratiques de diagnostic, afin de leur permettre d’être à la hauteur de cette « connaissance de l’avenir » que la génétique donne désormais aux médecins ?

Rayonnant à partir de la situation particulière de la maladie de Huntington, ce livre puise ses réflexions depuis les oracles antiques jusqu’aux sources de notre médecine contemporaine, pour tenter de renouveler les manières d’appréhender ces gestes prédictifs, qui, du fait des progrès en génétique, pourraient bien tous nous concerner.

Voir le livre sur le site de Dingdingdong

View original post

Article 2: La renaissance du temps (Lee Smolin) (Partie II chap. 9) Le défi cosmologique


(Partie II chap. 9): Le défi cosmologique 

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)


Préambule: Dans ces article que je consacre à Lee Smolin, j’écris la suite des articles de mon blog à propos des univers multiples d’Aurélien Barrau pour les quels je retiens quelques commentaires qui vont orienter mes réflexions nouvelles.

Dans l’article « D’après Aurélien Barrau, Univers multiples Chap 1)« : les propositions nouvelles face aux problèmes et paradoxes de la physique « peuvent constituer une « pulsion inchoactive » qui poussera vers une découverte sans précédent ou bien vers un réenchantement de ce que l’on savait déjà sans en avoir pris la « dé-mesure » et finalement vers une nouvelle sacralisation du « monde ».
Dans « D’après Aurélien Barrau, Univers multiples. La gravitation quantique chp. 9« : au chapitre L) Conclusion: Cet article fait suite à l’article « D’après Aurélien Barrau, Univers multiples Chap 1)« : « Aujourd’hui, la physique est en crise, le monde est en crise. Avec Lee Smolin et son « rien ne va plus en physique« , Carlo rovelli parle de la schizophrénie bipolaire des physiciens (voir une révolution inachevée). La vision anthropique de Trin Xhuan Thuan et ma vision évangélique du monde, qui s’origine dans les mythes de l’Un et de l’ordre émergeant du Chaos initial, semblent exclus de la vision de bien des physiciens et cosmologues qui découvrent, comme l’a fait Jean Pierre Luminet, que l’Univers ne peut avoir été infiniment dense et donc que le big bang ne peut avoir été tel qu’on se l’imaginait depuis de nombreuses décennies. La possibilité d’un avant big bang a été mise en évidence avec un univers précédent qui se serait condensé jusqu’à une taille extrêmement petite mais non nulle et qui aurait « rebondi » en un big bounce pour donner notre Univers actuel en expansion après le phénomène d’inflation cosmique. Un des derniers rebondissements de ces recherches, avec Lee Smolin, pourrait bien aboutir avec sa « renaissance du temps » à une solution de la contradiction entre la physique quantique et la théorie de la relativité. A priori, ce serait une théorie unifiée des interactions fondamentales.

-&&&-

Nous avons vu , au cours du long article consacré au chapitre 9 du livre « les mpndes multiples« , de nombreuses théories nouvelles ou hypothèses qui proposent l’unification de la physique ou tout au moins des explications aux dilemmes et paradoxes que la cosmologie moderne a mis en évidence. Mais, dans « la renaissance du temps« , au chapitre 8 qui fait l’objet de cet article, Lee Smolin prévient: Le paradigme newtonien ne peut même pas apporter un embryon de réponse à ces questions et dilemmes: Pourquoi ces lois? Pourquoi ces conditions initiales de l’univers? Quel mécanisme les a t-il sélectionnées parmi une multitude infinie de possibilités? etc. Il appelle ceci « l’erreur cosmologique »: appliquer à l’Univers entier dans sa globalité des lois établies et vérifiées sur des sous-systèmes. Dans le paradigme newtonien, ce que nous appelons une loi doit s’appliquer dans tous les cas. Mais l’application d’une loi à n’importe quel morceau d’univers implique une approximation, parce que nous devons négliger toutes les interactions entre ce morceau et le reste de l’univers. Donc les applications vérifiables d’une loi sont toutes des approximations. Smolin fait remarquer en particulier que les lois se vérifient sur beaucoup de sous-systèmes. Mais si on veut appliquer une loi de la nature sans approximation, c’est à l’univers entier qu’il faudrait l’appliquer, alors que nous n’avons qu’un seul Univers sous la main. Et un seul cas n’apporte pas suffisamment d’indices pour justifier l’affirmation qu’une loi particulière de la nature s’applique. C’est ce que Lee Smolin appelle le dilemme cosmologique (faire de la physique dans une boite: « on considère un petit sous-système isolé du reste de l’univers dans lequel on néglige certains effets pour ne s’intéresser qu’à certaines variables qui définissent un espace de configuration, atemporel »). Et pourquoi cette loi et pas une autre? De plus, beaucoup de théories cosmologiques (théorie des cordeséquation d’Einstein …) admettent en réalité une infinité de solutions, parmi lesquelles une seule correspond à notre univers. Doit-on se résoudre à admettre l’existence d’une infinité d’Univers inaccessibles pour pouvoir justifier le notre par un principe anthropique

Nous pensions, dit Lee Smolin, savoir comment répondre à ces questions. Une théorie unique mathématiquement cohérente pourrait incorporer les 4 lois fondamentales de la nature. Mais cet espoir a été anéanti. On se trouve face à ce qu’il appelle « le défi cosmologique ». On vient de voir qu’il faudrait étendre la science à une théorie de l’Univers entier. Le défi est qu’il ne peut pas exister de composante statique qui puisse servir de cadre de référence, car tout dans l’Univers change et il n’existe aucun extérieur, rien qui puisse être qualifié de fond par rapport auquel les mouvements du reste de l’Univers (que nous négligeons). Or, toutes les théories physiques divisent le monde en deux parties, une partie « dynamique », qui change, et une statique, qui contient un « fond » de choses immuables, comme les constantes fondamentales.  Le « défi cosmologique » consiste à formuler une théorie de l’univers « indépendante du fond », purement dynamique afin de ne rien supposer d’extérieur à l’Univers:  » Lorsqu’on fait de la « physique dans une boite », le « fond » comprend notamment les conditions initiales, et la méthode expérimentale permet de contrôler les conditions initiales afin de s’assurer que les lois sont indépendantes de ces conditions. En cosmologie, cette distinction entre « lois » et « conditions initiales » aggrave le problème qu’elle résout « dans une boite »: si nos observations du fond diffus cosmologique ne correspondent pas bien à la théorie de l’inflation cosmologique, faudra-il corriger la loi ou les conditions initiales? Smolin critique aussi les théories effectives qui décrivent bien ce qui se passe à une certaine échelle de grandeur, mais en négligeant l’influence de ce qui est beaucoup plus grand ou plus petit. » Pour Smolin, la théorie issue du défi cosmologique doit tenir compte de tout, sans rien négliger. »

Je vais maintenant retracer « ma lecture » plus complète du livre de Lee Smolin d’une manière peu orthodoxe en ne commençant pas par la partie I (« le poids: le mort du temps), mais par la partie II « Lumière: la renaissance du temps ». La partie I fera l’objet d’autre articles. Cette « mort du temps » est comme l’épilogue de la constatation de Lee Smolin traduite par son livre « rien ne va plus en physique (l’échec de la théorie des cordes)« . Cette partie I explique pourquoi depuis la naissance de la science moderne, avec l’effet Copernic et Galilée, le paradigme newtonien sous-tend toutes les théories y compris les théories quantiques et  la relativité  (le « paradigme newtonien » et ce qu’il a impliqué, dont l’hypothèse des multivers, Il est utile pour décrire l’évolution d’un système dans un laboratoire, mais il perd tout sens appliqué à l’univers entier. Il n’explique pas pourquoi telles ou telles lois sont choisies parmi l’infinité de lois possibles.Selon ce paradigme, un système, quel qu’il soit, pourrait être décrit par un ensemble d’états initiaux qui lui sont attribués, puis par les lois présidant à son évolution en fonction du temps. Mais si ces données sont utilisées initialement pour décrire le système, il n’est pas possible de considérer qu’elles pourraient aussi être le résultat de son évolution. Il faut rechercher d’autres lois, ce que je vais tenter de faire maintenant en commentant celui qui ose affronter un nouveau paradigme, Lee Smolin).

http://www.wearealgerians.com/up/uploads/139910915883722.pdf

Rien ne va plus en physique ! – L’échec de la théorie des cordes 

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)

http://medias.dunod.com/document/9782100706679/Feuilletage.pdf (la renaissance du temps Dunod: quelques pages à feuilleter)

http://www.paris8philo.com/article-33714241.html: à propos de rien ne va plus en physique: billet de Jean Zin, pour une physique pluraliste, qui nous paraît essentiel pour comprendre les enjeux des théories physiques actuelles qui souvent tendent vers l’impossible, hors toute avancée, toute brèche se fait par dissymétrie, sans souci du qu’en-dira-t-on il suffit de voir l’attitude de Grigori Perelman, si non-chalante vis-à-vis de la communauté scientifique, ou devrait-on dire l’etablishment. Jean Zin reste un grand guetteur de ce qui se passe en science, nous vous recomandonsses articles.

1) Le défi cosmologique.

     -Rappel: dans l’article II donnant ma lecture de la renaissance du temps chapitre 8, nous avons vu que pour Lee Smolin, la seule manière d’échapper aux problèmes, dilemmes et paradoxes qui se présentent devant la physique actuelle, c’est d’adopter une méthodologie qui va au-delà du paradigme newtonien, c’est à dire chercher un nouveau paradigme applicable à la physique à l’échelle de l’univers. Sinon, on se place face au risque que la physique finisse dans l’irrationalité et le mysticisme. Mais tous arguments de la première partie qui poussent à éradiquer le temps hors de la physique sont basés sur le paradigme newtonien  et sur l’hypothèse qu’il peut être étendu à l’univers dans son entier. Mais si c’est faux, ces arguments pour éliminer le temps s’écroulent, et quand nous abandonnons le paradigme newtonien, il devient possible de croire que le temps est réel et on peut envisager la construction d’une « vraie(?) » théorie cosmologique dont on espère qu’elle fera mieux que les théories actuelles. 

C’est ce que nous allons voir maintenant en poursuivant l’aventure vers un au-delà des problèmes et paradoxes auxquels se confronte la connaissance actuelle. On l’a vu, l’application d’une loi à n’importe quel morceau de l’univers implique une approximation  parce que c’est faire de la physique dans une boite, et il faut alors négliger toutes les interactions entre ce morceau et le reste de l’univers. Donc, les applications vérifiables d’une loi de la nature sont toutes des approximations et si on veut appliquer une loi sans approximation, c’est à l’univers entier qu’il faudrait l’appliquer. Mais il n’existe qu’un univers, ce qui signifie qu’appliquer une loi particulière à un cas unique et cela ne peut apporter suffisamment d’indices pour affirmer qu’une loi particulière s’y applique. Lee Smolin suggère d’appeler ceci le dilemme cosmologique.

Ce dilemme va nous amener au défi cosmologique, qu’il faudra relever pour sortir de l’impasse.

    -Rien dans la  chair des théories existantes ne peut nourrir une théorie vraiment fondamentale affirme donc Lee Smolin avec force. C’est une idée bien audacieuse quand on sait les succès des théories dominantes, que soit la physique quantique ou la relativité générale. Rappelons une caractéristique que partagent toutes ces théories bien établies qui rend délicate leur extension à l’univers dans son entier: elles divisent toutes le monde en 2 parties, l’une qui est changeante et dont les degrés de liberté évoluent dans le temps, le système étudié, et l’autre qui est supposée immobile, le reste de l’univers, le « fond ».  Cette partie, qui ne nécessite pas qu’on la décrive explicitement, se trouve de manière implicite dans ce qui donne sa signification au mouvement décrit dans la première partie qu’on observe: la distance entre les objets mesurés fait implicitement appel à des points fixes (le cadre de référence qui permet la description du système, le référentiel) et le temps par rapport auquel on décrit le mouvement implique l’existence d’une horloge extérieure au système (décrit par l’espace des configurations) et qui permet justement la mesure du temps. C’est sont ces points de référence fixes qui permettent de relier les prédictions de la théorie aux résultats des expériences.

Cette partition du monde en deux parties, l’une dynamique et l’autre statique) est une fiction, mais elle est précieuse quand il s’agit de décrire de petites portions d’espace. La deuxième partie, supposée statique, est en réalité elle aussi constituée de parties dynamiques, et en faisant fi de la dynamique de leur évolution, nous fixons une cadre à l’intérieur duquel nous avons des lois simples. A l’exception de la relativité générale, la géométrie de l’espace-temps est inclus dans le fond de toutes les théories. Le fond inclue aussi le choix des lois puisque celles-ci sont supposées immuables. Et même la relativité générale, qui décrit une géométrie dynamique, considère d’autres structures fixes comme la topologie et la dimension de l’espace. (voir note 1 page 305: D’autres structures à fond fixe incluent la géométrie des espaces  où vivent les états quantiques, dans lesquels est définie une notion de distance. Les structures de fond en relativité générale incluent la structure différentielle de l’espace-temps et, souvent, la géométrie des frontières asymptotiques).

Ce partage du monde en ses composantes dynamiques et un fond qui « le cerne » est comme on vient de la voir la caractéristique géniale du paradigme newtonien. C’est elle qui a contribué au succès fulgurants des modèles scientifiques relativiste et quantique. Mais c’est paradoxalement ce qui rend ce paradigme inapplicable dans sa globalité. En effet, il ne peut pas exister de composante statique car tout dans l’univers change et il n’existe aucun extérieur, rien par rapport les mouvements du reste puissent être mesurer si l’univers est ce qui contient TOUT. Surmonter ce obstacle est ce que Lee Smolin appelle le défi cosmologique.     

     -Mais comment surmonter cet obstacle et relever le défi? Nous devons formuler une théorie nouvelle, que nous pourrons appliquer de façon consistante (sans incohérence) à TOUT l’univers. Dans une telle théorie, chaque « acteur » dynamique doit être défini en terme d’autres acteurs (et non en fonction de paramètres extérieurs tels que le temps t). Dans cette théorie il n’ a nul besoin et pas de place pour un fond fixe. On dit que de telles théories sont « indépendantes du fond« . Remarque, voir note 2 Page 305: « les termes « dépendantes du fond » et « indépendantes du fond » ont un usage plus limité dans les théories quantiques de la gravitation; dans ce contexte, une théorie dépendante du fond est une théorie qui suppose un fond d’espace-temps classique fixe. Les théories des perturbations, telles la relativité générale quantique par perturbations et la théorie des cordes par perturbation, sont dépendantes du fond. Les approches indépendantes du fond de la gravitation quantique incluent la gravitation quantique à boucles, les ensembles causaux, les triangulations causales dynamiques et la gravité quantique. »

Le dilemme cosmologique, qui a été présenté déjà dans l’article 1 est constitutif du paradigme newtonien puisque ce sont précisément les caractéristiques qui ont conduit à son succès qui deviennent la raison de son échec à jouer un rôle de base pour une théorie de la cosmologie. Il n’est pas surprenant qu’une des réponses au dilemme cosmologique soit l’hypothèse des multivers où on pose que l’univers n’est qu’un dans une vaste multitude, car toutes nos théories ne sont applicables qu’à des systèmes beaucoup plus vastes. Alors comment sortir de cette fuite en avant qui n’est pas sans rappeler l’empilement de tortues à l’infini soutenant la Terre pour expliquer (avant Galilée) pourquoi les corps tombent t’ils? Continuons donc avec Lee Smolin!



2) Quelle est la différence entre la cosmologie et des expériences en laboratoire?

     -Pour les expériences en laboratoire ou concernant une partie de l’univers, nous contrôlons les conditions initiales et nous les faisons varier afin de tester différentes hypothèses sur les lois. Mais en cosmologie, nous ne pouvons atteindre les conditions initiales car elles ont conditionné l’univers dans sa prime jeunesse et nous ne pouvons qu’émettre des hypothèses sur ce qu’elles furent. Par conséquent, en tentant d’expliquer une observation cosmologique en utilisant le paradigme newtonien, on fait 2 hypothèses, une sur les conditions initiales et l’autre sur les lois qui ont agi sur elles; D’ordinaire, en faisant « de la physique dans une boite », en contrôlant les conditions initiales de l’expérience, nous pouvons par la même occasion tester les hypothèses concernant les lois. Mais  en cosmologie, il faut tester simultanément le hypothèses sur les lois et les conditions initiales, ce qui affaiblit l’efficacité de chaque test. Supposons que nous fassions une prédiction, mais que l’observation soit en désaccord. Alors, nous pouvons soit modifier l’hypothèse sur les lois, soit modifier notre hypothèse sur les conditions initiales, chaque attitude pouvant modifier le résultat de l’expérience. Mais nous sommes face à un nouveau problème, car comment savoir laquelle des deux hypothèses a besoin d’être corrigée? Tant que les observations concernent seulement une partie de l’univers (étoile, galaxie, ensemble même grand de galaxies), le test de la loi que nous pouvons faire est basé sur des cas, nombreux la plupart du temps). Les hypothèses sont toutes soumises à la même loi, donc une différence entre elles doit être attribuée à des différences dans leurs conditions initiales. Mais lorsqu’il s’agit de l’univers dans sont entièreté, il devient impossible de distinguer entre les effets d’un changement d’hypothèse et sur une loi ou d’un changement d’hypothèse sur les conditions initiales. 

    

     

http://www.darksideofgravity.com/CMB.htm (le CMB)

-Ce problème « s’invite » donc dans les recherches en cosmologie.Depuis qu’on sait que l’univers a une origine et même si cela est contesté, les tests de l’univers primordial, doivent en particulier rendre compte des structures vues dans le fond diffus cosmologique (CMB). Ce rayonnement micro-ondes, est un reliquat de l’univers primitif, dont Wmap nous a donné un instantané des conditions existantes 380 000 ans après le big bang. On sait que le modèle du big-bang a posé des problèmes (problème de l’horizon, de l’homogénéité…) qui semblent explicables par la théorie de l’inflation cosmologique qui fut proposée par Allan Guth en 1979. L’inflation a étiré et aplani toutes les fluctuations initiales qui pouvaient être présentes et prédit dans le CMB des motifs très similaires à ce qui a été observé. Mais depuis quelques années, des observateurs ont rapporté la présence d’une nouvelle structure dans le CMB non prédite par la théorie courante de l’inflation. Il s’agit de la « non-gaussianité » du CMB, une particularité que la théorie standard de l’inflation devrait exclure.

(voir Amit P. S. Yadav et Benjamin D. Wandelt: Détection de la non-gaussianité « non-Gaussianité » (fNL) dans les données WMAP 3-year à plus 99.5% de confiance en 2008)  https://arxiv.org/pdf/0712.1148.pdf) , voir aussi Xingang Chen , Min-xin Huang , Shamit Kachru , Gary ShiuSignatures observationnelles et non Gaussianities de l’inflation générale Champ unique – https://arxiv.org/pdf/hep-th/0605045v4.pdf).

Comme dans le chapitre précédent, si cette observation se confirme, il y a deux options pour l’expliquer: modifier la théorie ou bien modifier les conditions initiales. Juste après le premier article présentant la possibilité de cette non-gaussianité, il y eu des tentatives pour expliquer ces observations. Certains modifièrent les lois, d’autres les conditions initiales. Par exemple, Ivan Agullo dans  https://arxiv.org/abs/1507.04703  écrivit: « Nous soutenons que l’asymétrie de puissance anormale observée dans le fond diffus cosmologique (CMB) peut avoir son origine dans un rebond précédant l’inflation cosmique. Dans la cosmologie quantique à boucles (LQC) la grande singularité bang est génériquement remplacé par un rebond en raison des effets gravitationnels quantiques« . Une autre tentative a été faite par R. Holman et Andrew J. Tolley pour l’amélioration de non-gaussianité des États initiaux ExcitésLes deux stratégies expliquent en fait les observations qui ont été annoncées en les « rétro-prédisant »  Il était prévisible que les deux tentatives marcheraient, car elle obéissent au paradigme newtonien. Mais, comme cela est souvent le cas pour la science observationnelle et comme pour les ondes gravitationnelles, des observations ultérieures ont échoué. Et il semble que les chercheurs na savent toujours pas s’il existe véritablement une non-gaussianité. Voir note 4 page 306: Mais cela ne veut pas dire que les effets des conditions initiales sur le CMB ne peuvent jamais être distinguées de changements dans la théorie de l’inflationau moins à l’intérieur de catégories fixées de modèles. Voir Enhanced local-type inflationary trispectrum from a non-vacuum initial state par Ivan Agullo , Jose Navarro-Salas , Leonard Parker  (https://arxiv.org/pdf/1112.1581v2.pdf 2008).

Quand il y a deux manières différentes d’accorder une théorie aux données, on parle de dégénérescence (En physique quantique, la dégénérescence est le fait pour plusieurs états quantiques distincts de se retrouver au même niveau d’énergie. Un niveau d’énergie est dit dégénéré s’il correspond à plusieurs états distincts d’un atome, molécule ou autre système quantique. Le nombre d’états différents qui correspond à un niveau donné est dit son degré de dégénérescence). Dans le cas présent, sachant que les lois et les conditions initiales sont décrites par certains paramètres, il y a deux ajustements distincts de paramètres permettant de reproduire les données, ce qui explique la dégénérescence. Habituellement dans de tels cas, on effectue de nouvelles observations pour déterminer quel est l’ajustement correct. 
Avec un tel événement qui ne s’est produit qu’une seule fois, il n’est pas possible de résoudre la dégénérescence. (Voir note 6 page 306: Le caractère unique de l’univers se dresse en obstacle contre d’autres tentatives de tester l’univers primordial. En physique de laboratoire ordinaire, nous devons toujours gérer le bruit qui survient des incertitudes statistiques dans les données. Ceci peut souvent être diminué en effectuant de nombreuses mesures.Du fait que l’univers ne s’est produit qu’une fois, ceci est impossible dans certaines observations cosmologiques.  Ces incertitudes statistiques sont connues sus le nom de variance cosmique = incertitude statistique inhérente aux observations de l’univers à des distances extrêmes.)


3) Le  paradigme newtonien vu comme reflet mathématique de la nature est t-il un fantasme métaphysique?

     3-1) Ré-évaluation des théories. Mais, si on ne peut pas séparer le rôle des lois et et conditions initiales, le paradigme newtonien ne perd t-il pas son pouvoir explicatif des causes des phénomènes physiques. La mécanique newtonienne ou la physique quantique étaient pourtant de bonnes candidates pour être des théories fondamentales, miroirs parfaits du monde naturel où tout ce qui est vrai de la nature trouverait un écho dans un fait mathématique qui serait vrai pour la théorie. Le paradigme de newton, basé sur des lois « intemporelles »  agissant sur un espace de configuration intemporel est dans ce cadre, essentiel à cet effet miroir. 

Au vu des difficultés rencontrées par la physique, Lee Smolin suggère rien moins que voir dans cet effet miroir un fantasme métaphysique qui mène aux problèmes, dilemmes et confusions constatés dès qu’on essaye d’appliquer le paradigme newtonien à l’ensemble de l’univers. Cela nécessite de  revoir la signification des théories au sein de ce paradigme et une ré-évaluation pour distinguer les candidates aux théories fondamentales des descriptions approchées des petits sous-systèmes de l’univers. Selon Smolin, cette ré-évaluation a déjà été faite, aboutissant à deux changements de perspective simultanés:

     * »Toutes les théories avec lesquelles nous travaillons, incluant le modèle standard de la physique des particules élémentaires et la relativité générale sont des théories approchées, s’appliquant à des subdivisions de la nature qui incluent seulement un sous-ensemble de degrés de liberté de l’univers. Nous appelons une telle théorie approchée théorie effective ».

     *Dans toutes nos expériences et observations impliquant des subdivisions de la nature, nous enregistrons les valeurs d’un sous-ensemble de degrés de liberté et ignorons le reste. Les enregistrements qui en résultent sont comparés aux prédictions des théories effectives ».Ainsi, le succès actuel de la physique repose sur l’étude de ces subdivisions de la nature, modélisées par des théories effectives. Dans l’histoire de la physique, on n’a jamais pu comparer les prévisions d’une théorie voulant être « vraiment fondamentale » avec l’expérience (une théorie « fondamentale » ne peut comprise comme une théorie effective). Pour quelques compléments, voir futura-sciences.com; « la démarche des théories effectives est la même pour tous les phénomènes. À partir d’une théorie adéquate à une échelle donnée, on cherche à comprendre l’origine des paramètres pertinents de cette théorie effective en fonction de paramètres plus fondamentaux apparaissant dans une autre théorie effective valable à plus petite échelle. Cette approche de type « poupées russes » s’applique à la physique atomique, la physique nucléaire et enfin culmine avec le modèle standard de la physique des particules. Ce modèle est une théorie effective possédant 20 paramètres pertinents. Dans le monde de l’infiniment petit, les paramètres pertinents sont de trois types : l’énergie du vide, les masses des particules et les couplages entre particules ».

Voyons ces points plus en détail.


     3-2) Point 1: La physique expérimentale est l’étude des subdivisions de la nature.

     -Le sous-système modélisé par une théorie approchée comme s’il existait seul dans l’univers, en négligeant tout ce qui lui est extérieur, s’appelle un système isolé (L’univers dans son ensemble est considéré pour l’instant comme un système isolé, ce qui reste un postulat à démontrer). Mais il ne faut pas oublier que l’isolement du reste de l’univers, qui est négligé, n’est jamais complet. Il y a toujours des interactions entre entre tout sous-système et les choses qui lui sont extérieures. De fait, ce sont toujours des « systèmes ouverts« .  (système qui interagit en permanence avec son environnement. L’interaction peut se faire via des informations, de l’énergie ou des matières transférées vers ou depuis les frontières du système, en fonction de la discipline qui définit le concept. La notion de système ouvert s’oppose à celle de système isolé qui n’échange ni énergie, ni matière, ni information avec son environnement). Quand on fait « de la physique dans une boite » on fait l’approximation qu’un système ouvert est un système isolé. Il n’y a que l’univers qui puisse être un système isolé. « L’art » de l’expérimentation consiste à transformer un système ouvert en un système « approximativement » isolé, ce qui ne peut jamais se faire parfaitement.  En premier lieu, les mesures effectuées sur un système (en particulier un système quantique) interfèrent avec lui. Pour chaque expérience, c’est une véritable gageure que d’extraire les données qui sont intéressantes du bruit extérieur au sein d’un système imparfaitement isolé. C’est bien ce qui s’est passé pour la prétendu découverte des ondes gravitationnelles primitives3) A-t-on vu les ondes gravitationnelles primordiales ? Non. Il y a peu de temps, eut lieu une grande effervescence autour des mesures de l’expérience BICEP2 qui pensait avoir mesuré les ondes gravitationnelles primordiales

     -Principe de non-isolation des systèmes.

Les scientifiques font tout ce qu’ils peuvent pour protéger leurs expériences de la contamination par des vibrations, des champs, des rayonnements venus de l’extérieur. Cela suffit dans beaucoup de cas, mais certaines expériences  délicates sont affectées par le bruit issu des rayons cosmiques, ou cesses pour détecter les neutrinos du soleil. On peut enfouit le laboratoire dans une mine à des km de profondeur. On réduit ainsi le bruit de fond aléatoire dû aux autres rayonnements à des niveaux gérables, mais les neutrinos passent toujours. Il n’existe aucun moyen pratique d’isoler un laboratoire des neutrinos, les détecteurs enterrés en profondeur sous le pôle sud enregistrent des neutrinos entrés par le pôle nord et qui ont donc traversé la planète (« La difficulté de mise en œuvre d’IceCube vient du fait que les 5160 sphères photosensibles «ne doivent détecter que les neutrinos extrasolaires», dit Mathieu Ribordy. En effet, des neutrinos sont aussi générés dans le Soleil ou lors de l’interaction des rayons cosmiques avec l’atmosphère terrestre. Dès lors comment faire le tri? La Terre fait office de filtre, et seuls les neutrinos cosmiques provenant du ciel septentrional, qui auront donc d’abord traversé toute la planète, sont analysés en Antarctique ».) Et, même si on pouvait construire des murs de béton immensément épais, il y a encore quelque chose qui passerait, la gravitation. En effet, rien ne peut nous en protéger ni stopper la propagation des ondes gravitationnelles, donc rien ne peut être parfaitement isolé. C’est ce qu’a découvert Lee Smolin en voulant modéliser une boite contenant des ondes gravitationnelles rebondissant contre ses parois, mais cela ne marchait jamais, car elles passaient à travers ces parois. Si on augmente la densité des parois en les faisant devenir de plus en plus hautes afin qu’elles puissent réfléchir le rayonnement gravitationnel, elles s’effondre en trous noirs avant d’avoir pu atteindre une limite. Après de nombreuses tentatives et hypothèses, Smolin put démontrer qu’aucun mur ne peut contrer la pénétration des ondes gravitationnelles, quelle que soit la matière dont le mur est fait, son épaisseur ou sa densité.

Voir 1) The thermodynamics of gravitationnal radiation (mars 1984): 

« Je conjecture, et je montre que, pour une large classe de cas , étant donné une hypersurface de type espace sur laquelle existe une distribution arbitraire de gravitons linéarisés et de matière, laquelle répond à la condition d’énergie positive, la valeur moyenne du nombre d’événements dans lesquels un graviton est absorbé ou dispersés de façon inélastique par la matière dans le temps t , est toujours inférieure à la valeur moyenne du nombre de gravitons dans l’état initial (sauf pour un ensemble de configurations initiales de mesure nulle). Les conséquences de ce résultat sont: (1) l’impossibilité pour tout système contenant la radiation gravitationnelle d’atteindre l’ équilibre thermique dans un temps fini, (2) l’absence d’une catastrophe ultraviolette pour le rayonnement gravitationnel, (3) l’impossibilité de mesurer avec précision l’état quantique du champ gravitationnel linéarisé, et (4) l’impossibilité de construire un laser à ondes gravitationnelles. »

Voir 2) Sur l’entropie intrinsèque du champ de gravitation (mai 1985) « Je montre que dans la relativité générale linéarisée il est impossible de construire un détecteur par l’utilisation duquel l’état quantique du champ gravitationnel linéarisé peut être déterminée de manière fiable. Ceci parce qu’il n’y a pas de matériau satisfaisant à la condition de l’énergie positive qui puisse servir de bon conducteur ou absorbeur de rayonnement gravitationnel au-delà d’une gamme limitée de fréquences. Si cette propriété est vraie de la théorie complète, alors on peut conclure qu’une certaine proportion de l’énergie et de l’information portée par une onde gravitationnelle est irréversiblement perdue, ce qui correspond à l’entropie intrinsèque associée à une distribution de rayonnement gravitationnel. »

Voir aussi: http://link.springer.com/article/10.1007/BF00770328 (par John Dell: Sur l’impossibilité de contenir le rayonnement gravitationnel en équilibre thermique dans une boîte) )

Au contraire, David Garfinkle et Robert M. Wald affirment:  dans http://link.springer.com/article/10.1007/BF00761904): « Nous montrons qu’il est possible, en principe, de construire une boîte qui contiendra le rayonnement gravitationnel pour un temps assez long pour thermaliser il. La boîte est une coquille sphérique mince de matière chargée avec un grand décalage vers le rouge à la surface de la coquille. Le rayonnement est maintenu dans la boîte par le potentiel gravitationnel de la coque et est thermalisée par la transformation entre le rayonnement électromagnétique et gravitationnelle. Nous calculons le temps d’échapper du rayonnement et de montrer qu’il est plus long que le temps de conversion. »

De même, T. Padmanabhan , TP Singh  écrivent dans Une note sur la thermodynamique du rayonnement gravitationnel « Il est montré que la radiation gravitationnelle linéarisé confiné dans une cavité peut atteindre un équilibre thermique si la densité moyenne du rayonnement et de la taille de la cavité satisfont à certaines contraintes. » (https://arxiv.org/pdf/gr-qc/0305030v2.pdf)

Pour obtenir les résultats précédents de Lee Smolin, il n’y a que 3 suppositions à faire: les lois de la relativité générale sont vraies, l’énergie contenue dans la matière est positive et le son ne peut se propager plus vite que la vitesse de la lumière. Sur un plan fondamental, cela signifie qu’il n’existe rien dans la nature qui puisse être un système isolé des influences du reste de l’univers. C’est ce que Lee Smolin appelle le principe de non isolation des systèmes.

Une autre raison pour laquelle modéliser un système ouvert comme si c’était un système isolé est toujours une approximation, c’est que nous ne pouvons anticiper ce qui peut arriver à tout système sur lequel on fait une mesure ou une expérience. On peut mesurer le bruit, et faire avec, mais n’importe quel événement aléatoire peut arriver à notre système de la part du monde extérieur: un avion qui s’écrase sur le laboratoire, un astéroïde qui entre en collision avec la Terre, une coupure de courant intempestive qui interrompt l’expérience etc etc… Il faudrait même envisager une transition de phase tandis que le faux vide dans lequel nous vivons se dissipe (voir Sidney Coleman & Frank de Luccia « Gravitational Effects on and Vaccum Decay »  ou https://arxiv.org/pdf/hep-th/0211160.pdf (Heretics of the False Vacuum: Gravitational Effects On and Of Vacuum Decay. 2). Stephen Hawking reprend aussi une idée similaire: « le boson de Higgs peut détruire l’univers« .

En modélisant une expérience comme si c’était un système isolé, nous excluons de fait toutes ces possibilités du modèle. Pour les incorporer, il faudrait modéliser l’univers dans son entièreté. Mais il est impossible de faire de la physique sans les exclure, ce qui implique que notre physique est basée sur des approximations.

3-2) Point 2: Théories effectives mais approchées.

     –Ainsi donc, toutes les théories importantes de la physique sont des modèles de subdivisions de la nature produites par les expérimentateurs. Si on a pu les considérer comme fondamentales par le passé, maintenant les théoriciens viennent à comprendre qu’elles sont seulement des descriptions efficaces mais ne concernent qu’un nombre réduit de degrés de libertés. On peut le mettre en évidence avec une théorie qui marche bien, celle de la physique des particules dont l’idée remonte pourtant au moins au vie siècle av. J.-C.. À l’époque, elle reposait au fond sur l’incapacité à maîtriser la notion de continu : voir les paradoxes de Zénon d’Élée. Les expériences montrent que nous ne pouvons atteindre que jusqu’à certaine échelles de longueur et la plus petite est actuellement d’environ 10 -17 cm atteinte au LHC au CERN alors que la limite au-delà de laquelle la notion de longueur perd une partie de son sens est la longueur de planck {\displaystyle \ell _{P}=1{,}616\ 252\times 10^{-35}}m. Cela veut dire que le modèle standard, qui s’accorde pourtant avec toutes les expériences réalisées jusqu’ici, doit être considéré comme une approximation, d’autant plus qu’il ne peut rien dire sur la gravitation. Il néglige des phénomènes actuellement inconnus qui pourraient éventuellement le mettre en défaut s’il était possible de sonder les distances plus courtes que celles que permet la technologie actuelle.    

  

Principe d’incertitude et relation distance/énergie.

Le principe d’incertitude de Heisenberg, désigne toute inégalité mathématique affirmant qu’il existe une limite fondamentale à la précision avec laquelle il est possible de connaître simultanément deux propriétés physiques d’une même particule ; ces deux variables dites complémentaires peuvent être sa position et sa quantité de mouvement:  {\displaystyle \sigma _{x}\sigma _{p}\geq {\frac {\hbar }{2}}}Le site « chercheursduvrai.fr » précise: « De façon imagée, on peut dire qu’une particule ayant une onde avec une grande longueur d’onde n’est pas bien localisée et donc son comportement est plutôt celui d’une onde (une onde est un phénomène non localisé). Lorsque la longueur d’onde se raccourcit, la particule apparaît de plus en plus localisée et se comporte de plus en plus comme un corpuscule (un corpuscule est une entité ayant une dimension et une position bien déterminées). En fait, Werner Heisenberg a étudié de près cette question et en a déduit des relations liant la précision que l’on peut obtenir de la vitesse et de la position d’une particule d’une part, et la précision de la mesure de son énergie en fonction de la durée de la mesure d’autre part. Ces relations sont connues sous le nom de relations d’incertitude d’Heisenberg ».

Cela signifie qu’il existe une relation inverse entre l’échelle de longueur et l’énergie (par la vitesse) en physique quantique. Pour pouvoir sonder à une certaine échelle de longueur, il faut des particules ou un rayonnement dont l’énergie dépasse un certain seuil. Pour explorer les distances de plus en plus courtes, il faut donc sonder avec des particules ayant de plus en plus d’énergie. La limite atteinte aujourd’hui au CERN correspond à un maximum pour les énergies des processus que nous pouvons (savons) observer. Mais, la Relativité Générale dit qu’énergie et masse c’est la même chose. Par conséquent quand on a sondé seulement jusqu’à une certaine échelle d’énergie, comment savoir si nous n’avons pas ignoré des particules trop massives pour avoir été crées dans un accélérateur de particules? Les phénomènes qui nous échappent encore pourraient concerner toutes sortes de particules, mais aussi des forces encore inconnues. Et même, les principes de la mécanique quantique pourraient s’avérer faux (tout comme les épicycles de Ptolémée) et nécessiter des modifications pour décrire les phénomènes pour des longueurs plus courtes et des énergies plus élevées que celles que les scientifiques expérimentent actuellement.


     -Notion de théorie effective. Cela porte certainement un coup à certaines idées devenues clichés comme celle citée par Richard Feynman selon laquelle « la simplicité et la beauté sont les signes distinctifs de la vérité« . En effet, comment parler de la vérité du modèle standard autrement que comme une théorie effective, c’est à dire compatible avec l’expérience mais fiable seulement à l’intérieur d’un certain domaine puisque on ne sait pas ce qui peut se cacher aux très hautes énergies où de nombreuses hypothèses peuvent être cohérentes avec une théorie ou une autre. Certes elles possèdent une simplicité intrinsèque car elles doivent être cohérentes de la manière la plus simple et élégante que possible avec une extension possible de la théorie actuelle dans des domaines inconnus. L’élégance de la relativité générale et du modèle standard s’explique lorsqu’on les considère comme théories effectives et leur beauté est une conséquence du fait qu’elles sont effectives et approchées. Ce sont des signes non de la vérité, mais d’un modèle approché pour un domaine (limité) de phénomènes. Voir note 9 page 306: Ceci explique pourquoi les corps en chute libre voyagent le long  de paraboles. Ces courbes satisfont à des équations qui sont simples parce qu’elles ne nécessitent que 2 éléments d’information pour les définir: l’accélération due à la gravitation et la vitesse initiale avec la direction du mouvement.

Cette notion de théorie effective reflète une plus grande maturité des théoriciens et de la théorie. Comme dans la vie réelle où avec l’âge on ne cherche plus le seul idéal (la théorie fondamentale), mais nous gagnons en confiance sur ce que nous connaissons vraiment et acceptons plus facilement notre ignorance sur ce que nous ne connaissons pas. Cela peut sembler décevant. Depuis Galilée (pour qui les mathématiques, ce « langage décrivant la nature » qu’il appelait de ses vœux pour « l’écriture mathématique du livre de l’Univers ») en passant par Newton avec son oeuvre monumentale « Philosophiae naturalis principia mathematica puis par Einstein avec la Relativité Générale, la physique était censée être la quête des lois fondamentales de la nature. Une théorie effective n’est pas que cela. Elle doit permettre la compréhension de ce qu’est la progrès en construisant des théories approchées toujours meilleures qui mettent en mesure de pousser les expériences toujours plus loin aux distances toujours plus courtes et aux énergies plus élevées. Comme le modèle standard, ce sera une théorie effective mais qui sera applicable au sein d’un domaine de plus en plus élargi. On peut considérer la physique newtonienne comme théorie effective s’appliquant à un domaine où les vitesses sont beaucoup plus faibles que celles de la lumière et où les effets quantiques peuvent être négligés. La relativité générale qui l’a supplantée a augmenté le domaine de validité de la physique newtonienne et fut candidate à devenir la description fondamentale de la nature. Mais elle laisse de côté les phénomènes quantiques et elle est maintenant comprise comme une théorie effective, au mieux l’approximation d’une théorie quantique unifiée de la nature. De même, la théorie quantique est l’approximation d’une théorie plus fondamentale. Un indice en est que ses équations sont linéaires, c’est à dire que les effets sont toujours directement proportionnels à leurs causes alors que dans la nature la plupart des effets du monde réel sont non-linéaires, ce qui est la raison de la difficulté à reproduire fidèlement des informations par des techniques analogiques. « Maintenant on s’occupe de plus en plus, et à juste titre, de physique non-linéaire et bifurcations. C’est en fait la physique préférée de la nature, mais elle n’admet que rarement de solutions analytiques, d’où sa mise à l’écart dont elle sort à peine. Et pourtant quelle richesse de comportements nous apporte-t-elle ! ».

Comme l’écrit Lee Smolin, « il y a fort à parier que que ce sera également le cas pour la mécanique quantique« .

4) Conclusion.  Nous avons vu dans l’article II donnant ma lecture de la renaissance du temps chapitre 8, que pour Lee Smolin, la seule manière d’échapper aux problèmes, dilemmes et paradoxes qui se présentent devant la physique actuelle, c’est d’adopter une méthodologie qui va au-delà du paradigme newtonien, c’est à dire chercher un nouveau paradigme applicable à la physique à l’échelle de l’univers. Sinon, on se place face au risque que la physique finisse dans l’irrationalité et le mysticisme.On l’a vu, l’application d’une loi à n’importe quel morceau de l’univers implique une approximation  parce que c’est faire de la physique dans une boite, et il faut alors négliger toutes les interactions entre ce morceau et le reste de l’univers. Donc, les applications vérifiables d’une loi de la nature sont toutes des approximations et si on veut appliquer une loi sans approximation, c’est à l’univers entier qu’il faudrait l’appliquer. Mais il n’existe qu’un univers, ce qui signifie qu’appliquer une loi particulière à un cas unique et cela ne peut apporter suffisamment d’indices pour affirmer qu’une loi particulière s’y applique. Lee  Smolin suggère d’appeler ceci le dilemme cosmologique. Rien dans la  chair des théories existantes ne peut nourrir une théorie vraiment fondamentale affirme t-il avec force.

Ce partage du monde en ses composantes dynamiques et un fond qui « le cerne » est comme on vient de la voir la caractéristique géniale du paradigme newtonien. C’est elle qui a contribué au succès fulgurants des modèles scientifiques relativiste et quantique. Mais c’est paradoxalement ce qui rend ce paradigme inapplicable dans sa globalité. En effet, il ne peut pas exister de composante statique car tout dans l’univers change et il n’existe aucun extérieur, rien par rapport les mouvements du reste puissent être mesurer si l’univers est ce qui contient TOUT. Surmonter ce obstacle est ce que Lee Smolin appelle le défi cosmologique.     

Mais comment surmonter cet obstacle et relever le défi? 

Nous devons formuler une théorie nouvelle, que nous pourrons appliquer de façon consistante (sans incohérence) à TOUT l’univers. Dans une telle théorie, chaque « acteur » dynamique doit être défini en terme d’autres acteurs (et non en fonction de paramètres extérieurs tels que le temps t). 

La mécanique newtonienne ou la physique quantique étaient pourtant de bonnes candidates pour être des théories fondamentales, miroirs parfaits du monde naturel où tout ce qui est vrai de la nature trouverait un écho dans un fait mathématique qui serait vrai pour la théorie. Le paradigme de newton, basé sur des lois « intemporelles »  agissant sur un espace de configuration intemporel est dans ce cadre, essentiel à cet effet miroir. Au vu des difficultés actuelles rencontrées par la physique, Lee Smolin suggère rien moins que de voir dans cet effet miroir un fantasme métaphysique qui mène aux problèmes, dilemmes et confusions constatés dès qu’on essaye d’appliquer le paradigme newtonien à l’ensemble de l’univers. Une ré-évaluation, déjà effective chez les physiciens, aboutit à deux changements de perspective simultanés:

     * »Toutes les théories avec lesquelles nous travaillons, incluant le modèle standard de la physique des particules élémentaires et la relativité générale sont des théories approchées, s’appliquant à des subdivisions de la nature qui incluent seulement un sous-ensemble de degrés de liberté de l’univers. Nous appelons une telle théorie approchée théorie effective ».

     *Dans toutes nos expériences et observations impliquant des subdivisions de la nature, nous enregistrons les valeurs d’un sous-ensemble de degrés de liberté et ignorons le reste. Les enregistrements qui en résultent sont comparés aux prédictions des théories effectives »


Ainsi, le succès actuel de la physique repose sur l’étude de ces subdivisions de la nature, modélisées par des théories effectives. Dans l’histoire de la physique, on n’a jamais pu comparer les prévisions d’une théorie voulant être « vraiment fondamentale » avec l’expérience (une théorie « fondamentale » ne peut comprise comme une théorie effective). Examinons ces points.

     Point 1: La physique expérimentale est l’étude des subdivisions de la nature. Le sous-système modélisé par une théorie approchée comme s’il existait seul dans l’univers, en négligeant tout ce qui lui est extérieur, s’appelle un système isoléSur un plan fondamental, cela signifie qu’il n’existe rien dans la nature qui puisse être un système isolé des influences du reste de l’univers. C’est ce que Lee Smolin appelle le principe de non isolation des systèmes.

     Point 2): Théories effectives mais approchéesAinsi donc, toutes les théories importantes de la physique sont des modèles de subdivisions de la nature produites par les expérimentateurs. Ceci est une prise de conscience qui a son prix à payer: le prix du succès de nos théories actuelles est qu’elles sont des approximations. 


Conclusion de Lee Smolin:  « il n’est pas interdit de cultiver l’ambition d’inventer une théorie fondamentale qui décrira enfin la nature sans approximation. Mais la logique comme l’histoire nous disent que ceci sera impossible tant que nous resterons dans le paradigme newtonien. Aussi admirables que soient la physique newtonienne, le relativité générale, la mécanique quantique et le modèle standard, ils ne pourront nous servir de canevas pour une théorie fondamentale en cosmologie. Le seul chemin possible vers une telle théorie nous force à relever le défi cosmologique et à façonner une théorie hors du monde du paradigme newtonien, pouvant être appliquée à l’univers entier sans aucune approximation.
C’est ce qui va être envisagé dans le prochain article qui sera consacré à « ma lecture » du chapitre 10 du livre le Lee Smolin: NOUVEAUX PRINCIPES DE COSMOLOGIE.


liens:  https://www.jp-petit.org/science/smolin/SmolinLivre.pdf (Sur le livre de Lee Smolin Michel Mizony juillet 2007) https://www.unil.ch/files/live/sites/philo/files/shared/philosophie_des_sciences/Lam/Aspects_structuraux_de_l_espace-temps.pdf (Aspects structuraux de l’espace-temps dans la théorie de la relativité générale par Vincent Lam Université de Lausanne)
http://planet-terre.ens-lyon.fr/article/histoire-gravite-1-Aristote-Descartes.xml (Pourquoi les corps tombent-ils ? Une histoire de la gravité d’Aristote à Einstein (1/3))

http://planet-terre.ens-lyon.fr/article/histoire-gravite-2-Hooke-Newton.xml  (Pourquoi les corps tombent-ils ? Une histoire de la gravité d’Aristote à Einstein (2/3))

http://planet-terre.ens-lyon.fr/article/histoire-gravite-3-Huygens-Einstein.xml (Pourquoi les corps tombent-ils ? Une histoire de la gravité d’Aristote à Einstein (3/3))

http://www.lesaviezvous.net/nature/animaux/de-nombreuses-cultures-croient-que-la-terre-repose-sur-le-dos-dune-tortue-geante.html (de nombreuses cultures croient que nous vivons sur le dos d’une tortue géante)

http://www.sartoretti.org/display.php?id1=1786 (Les premiers maîtres de la gravitation D’Aristote à Poincaré, il a fallu des siècles pour tirer de l’observation des pommes qui tombent une description mathématique de leur chute. Et parvenir enfin à une théorie scientifique)

http://www.aim.ufr-physique.univ-paris7.fr/CHARNOZ/homepage/GRAVITATION/gravitation.html   (L’HISTOIRE DU CONCEPT DE GRAVITATION Par Sébastien Charnoz )
http://www.la-bible-sur-le-net.org/etudes/La_bible/labible13.htm (Les hindous se figuraient que la terre reposait sur plusieurs fondements successifs : D’abord sur quatre éléphants, les éléphants sur une tortue géante, et la tortue sur un gigantesque serpent enroulé qui flottait sur les eaux de l’univers)
https://www.cairn.info/revue-de-metaphysique-et-de-morale-2004-3-page-399.htm (marc lachièze-rey: cosmologie scientifique)

http://www2.iap.fr/users/pitrou/publi/tapuscrit.pdf (Thèse Cyril PITROU: Dynamique non-linéaire et anisotropie primordiale en cosmologie)

http://lptms.u-psud.fr/nicolas_pavloff/files/2010/03/cours_cmplx.pdf (champ moyen et théories effectives)

http://itp.epfl.ch/webdav/site/itp/users/114207/public/RelGen-v3.pdf (Prof. Hervé Kunz Institut de Théorie des Phénomènes Physiques Faculté des Sciences de Base, Physique CH-1015 Lausanne)


relativité générale:

http://etienneklein.fr/wp-content/uploads/2016/05/coursRG-version-10-mai-2016.pdf (dans etienneklein.frINTRODUCTION A LA RELATIVITE GENERALE Luc BLANCHET GRεCO, Institut d’Astrophysique de Paris, UMR 7095 du CNRS, Université Pierre & Marie Curie)

https://hal.archives-ouvertes.fr/cel-00092961/document (relativité générale pour débutants)

http://www-cosmosaf.iap.fr/MIT-RG1F.pdf (Cours de Relativité Générale D’après “ lecture notes on General relativity ” De Sean M. Carroll http://preposterousuniverse.com/grnotes)

http://itp.epfl.ch/webdav/site/itp/users/114207/public/RelGen-v3.pdf (Relativité Générale Prof. Hervé Kunz Institut de Théorie des Phénomènes Physiques)

http://www.bourbaphy.fr/damour4.pdf (séminaire poincaré: La Relativité générale aujourd’hui Thibault Damour Institut des Hautes Etudes Scientifiques)

http://homepages.ulb.ac.be/~gbarnich/Relatgene.pdf (Introduction à la relativité générale par Christiane Schomblond et Glenn Barnich Universit´e Libre de Bruxelles)


autres liens: https://tel.archives-ouvertes.fr/tel-01165379/document (Géométrie des espaces de tenseurs Une approche effective appliquée à la mécanique des milieux continus par Marc Olive)

problème des neutrinos solaires: Le problème des neutrinos solaires est apparu récemment avec la création de structures permettant la détection des neutrinos, et en particulier Super-Kamiokande dans les années 1990 au Japon.

Résolution du problème:  Il provient d’une quantité trop faible de neutrinos détectés par rapport à la valeur théorique

Le problème du manque de neutrinos solaires détectés est à présent attribué à des oscillations des neutrinos. La physique quantique prédit en effet la possibilité que les neutrinos puissent changer de nature (‘osciller’), si leur masse n’est pas rigoureusement nulle, c’est-à-dire qu’un neutrino électronique puisse spontanément au bout d’un certain temps se transformer en neutrino muonique ou tauique, et vice-versa, ceci même dans le vide. Le déficit en neutrinos électroniques détectés serait donc dû selon cette hypothèse au fait que parmi les neutrinos émis par le soleil, tous de type électronique, un certain nombre se transformerait pendant le trajet Soleil-Terre en neutrinos muoniques ou tauiques, que les détecteurs actuels ne perçoivent pas.

Accessoirement la validation de ce phénomène dit d’oscillation a par ailleurs conduit à déduire que le neutrino a bien une masse non nulle.

https://www-fourier.ujf-grenoble.fr/~faure/enseignement/meca_q/cours_chap8.pdf (méthodes d’approximation, résolution approchée)



article 1: La renaissance du temps (Lee Smolin)(Partie II chap. 8) Einstein insatisfait – L’erreur et le dilemme cosmologique


Einstein insatisfait – L’erreur et le dilemme cosmologique (Partie II chap. 8)

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)


Préambule: Dans ces articles que je consacre maintenant à Lee Smolin, j’écris la suite des articles de mon blog à propos des univers multiples d’Aurélien Barrau pour les quels je retiens quelques commentaires qui vont orienter mes réflexions nouvelles.

Dans l’article « D’après Aurélien Barrau, Univers multiples Chap 1)« : les propositions nouvelles face aux problèmes et paradoxes de la physique « peuvent constituer une « pulsion inchoactive » qui poussera vers une découverte sans précédent ou bien vers un réenchantement de ce que l’on savait déjà sans en avoir pris la « dé-mesure » et finalement vers une nouvelle sacralisation du « monde ».
Dans « D’après Aurélien Barrau, Univers multiples. La gravitation quantique chp. 9« : au chapitre L) Conclusion: Cet article fait suite à l’article « D’après Aurélien Barrau, Univers multiples Chap 1)« : « Aujourd’hui, la physique est en crise, le monde est en crise. Avec Lee Smolin et son « rien ne va plus en physique« , Carlo rovelli parle de la schizophrénie bipolaire des physiciens (voir une révolution inachevée). La vision anthropique de Trin Xhuan Thuan et ma vision évangélique du monde, qui s’origine dans les mythes de l’Un et de l’ordre émergeant du Chaos initial, semblent exclus de la vision de bien des physiciens et cosmologues qui découvrent, comme l’a fait Jean Pierre Luminet, que l’Univers ne peut avoir été infiniment dense et donc que le big bang ne peut avoir été tel qu’on se l’imaginait depuis de nombreuses décennies. La possibilité d’un avant big bang a été mise en évidence avec un univers précédent qui se serait condensé jusqu’à une taille extrêmement petite mais non nulle et qui aurait « rebondi » en un big bounce pour donner notre Univers actuel en expansion après le phénomène d’inflation cosmique. Un des derniers rebondissements de ces recherches, avec Lee Smolin, pourrait bien aboutir avec sa « renaissance du temps » à une solution de la contradiction entre la physique quantique et la théorie de la relativité. A priori, ce serait une théorie unifiée des interactions fondamentales.

-&&&-

Nous avons vu , au cours du long article consacré au chapitre 9 du livre « les mpndes multiples« , de nombreuses théories nouvelles ou hypothèses qui proposent l’unification de la physique ou tout au moins des explications aux dilemmes et paradoxes que la cosmologie moderne a mis en évidence. Mais, dans « la renaissance du temps« , au chapitre 8 qui fait l’objet de cet article, Lee Smolin prévient: Le paradigme newtonien ne peut même pas apporter un embryon de réponse à ces questions et dilemmes: Pourquoi ces lois? Pourquoi ces conditions initiales de l’univers? Quel mécanisme les a t-il sélectionnées parmi une multitude infinie de possibilités? etc. Il appelle ceci « l’erreur cosmologique »: appliquer à l’Univers entier dans sa globalité des lois établies et vérifiées sur des sous-systèmes. Dans le paradigme newtonien, ce que nous appelons une loi doit s’appliquer dans tous les cas. Mais l’application d’une loi à n’importe quel morceau d’univers implique une approximation, parce que nous devons négliger toutes les interactions entre ce morceau et le reste de l’univers. Donc les applications vérifiables d’une loi sont toutes des approximations. Smolin fait remarquer en particulier que les lois se vérifient sur beaucoup de sous-systèmes. Mais si on veut appliquer une loi de la nature sans approximation, c’est à l’univers entier qu’il faudrait l’appliquer, alors que nous n’avons qu’un seul Univers sous la main. Et un seul cas n’apporte pas suffisamment d’indices pour justifier l’affirmation qu’une loi particulière de la nature s’applique. C’est ce que Lee Smolin appelle le dilemme cosmologique (faire de la physique dans une boite: « on considère un petit sous-système isolé du reste de l’univers dans lequel on néglige certains effets pour ne s’intéresser qu’à certaines variables qui définissent un espace de configuration, atemporel »). Et pourquoi cette loi et pas une autre? De plus, beaucoup de théories cosmologiques (théorie des cordes, équation d’Einstein …) admettent en réalité une infinité de solutions, parmi lesquelles une seule correspond à notre univers. Doit-on se résoudre à admettre l’existence d’une infinité d’Univers inaccessibles pour pouvoir justifier le notre par un principe anthropique

Nous pensions, dit Lee Smolin, savoir comment répondre à ces questions. Une théorie unique mathématiquement cohérente pourrait incorporer les 4 lois fondamentales de la nature. Mais cet espoir a été anéanti. On se trouve face à ce qu’il appelle « le défi cosmologique ». On vient de voir qu’il faudrait étendre la science à une théorie de l’Univers entier. Le défi est qu’il ne peut pas exister de composante statique qui puisse servir de cadre de référence, car tout dans l’Univers change et il n’existe aucun extérieur, rien qui puisse être qualifié de fond par rapport auquel les mouvements du reste de l’Univers (que nous négligeons). Or, toutes les théories physiques divisent le monde en deux parties, une partie « dynamique », qui change, et une statique, qui contient un « fond » de choses immuables, comme les constantes fondamentales. Le « défi cosmologique » consiste à formuler une théorie de l’univers « indépendante du fond », purement dynamique afin de ne rien supposer d’extérieur à l’Univers:  » Lorsqu’on fait de la « physique dans une boite », le « fond » comprend notamment les conditions initiales, et la méthode expérimentale permet de contrôler les conditions initiales afin de s’assurer que les lois sont indépendantes de ces conditions. En cosmologie, cette distinction entre « lois » et « conditions initiales » aggrave le problème qu’elle résout « dans une boite »: si nos observations du fond diffus cosmologique ne correspondent pas bien à la théorie de l’inflation cosmologique, faudra-il corriger la loi ou les conditions initiales? Smolin critique aussi les théories effectives qui décrivent bien ce qui se passe à une certaine échelle de grandeur, mais en négligeant l’influence de ce qui est beaucoup plus grand ou plus petit. » Pour Smolin, la théorie issue du défi cosmologique doit tenir compte de tout, sans rien négliger. »

Je vais maintenant retracer « ma lecture » plus complète du livre de Lee Smolin d’une manière peu orthodoxe en ne commençant pas par la partie I (« le poids: le mort du temps), mais par la partie II « Lumière: la renaissance du temps ». La partie I fera l’objet d’autre articles. Cette « mort du temps » est comme l’épilogue de la constatation de Lee Smolin traduite par son livre « rien ne va plus en physique (l’échec de la théorie des cordes) » Cette partie I explique pourquoi depuis la naissance de la science moderne, avec l’effet Copernic et Galilée, le paradigme newtonien sous-tend toutes les théories y compris les théories quantiques et  la relativité  (le « paradigme newtonien » et ce qu’il a impliqué, dont l’hypothèse des multivers, est utile pour décrire l’évolution d’un système dans un laboratoire, mais il perd tout sens appliqué à l’univers entier. Il n’explique pas pourquoi telles ou telles lois sont choisies parmi l’infinité de lois possibles.Selon celui-ci, un système, quel qu’il soit, pourrait être décrit par un ensemble d’états initiaux qui lui sont attribués, puis par les lois présidant à son évolution en fonction du temps. Mais si ces données sont utilisées initialement pour décrire le système, il n’est pas possible de considérer qu’elles pourraient aussi être le résultat de son évolution. Il faut rechercher d’autres lois, ce que je vais tenter de faire maintenant en commentant celui qui ose affronter un nouveau paradigme, Lee Smolin.

http://www.wearealgerians.com/up/uploads/139910915883722.pdf

Rien ne va plus en physique ! – L’échec de la théorie des cordes 

http://www.admiroutes.asso.fr/larevue/2013/136/smolin.htm

(Time Reborn: From the Crisis in Physics to the Future of the Universe)

http://medias.dunod.com/document/9782100706679/Feuilletage.pdf (la renaissance du temps Dunod: quelques pages à feuilleter)

http://www.paris8philo.com/article-33714241.html: à propos de rien ne va plus en physique: billet de Jean Zin, pour une physique pluraliste, qui nous paraît essentiel pour comprendre les enjeux des théories physiques actuelles qui souvent tendent vers l’impossible, hors toute avancée, toute brèche se fait par dissymétrie, sans souci du qu’en-dira-t-on il suffit de voir l’attitude de Grigori Perelman, si non-chalante vis-à-vis de la communauté scientifique, ou devrait-on dire l’etablishment. Jean Zin reste un grand guetteur de ce qui se passe en science, nous vous recomandonsses articles.

1) Commençons la lecture de cette partie II par le chapitre 8: « Einstein insatisfait ».


    

      -Pour Lee Smolin, l’Univers-bloc des théories de la relativité d’Einstein fut l’étape ultime de l’éradication du temps (de la physique) hors de la physique.

Mais Einstein lui-même, qui s’était donné tant de mal à construire sa conception de la nature et dont les théories aboutissaient à un temps disparaissant dans un univers-bloc, n’était semble t-il pas heureux de ses implications. On trouve dans les citations de  Etienne Klein dans Le facteur temps ne sonne jamais deux fois: « A la fin de sa vie, Einstein se disait lui-même troublé par ce problème du « statut du maintenant » dans la théorie qu’il avait élaborée. Dans son Autobiographie intellectuelle, Rudolf Carnap rapporte à ce propos une anecdote intéressante : « Un jour, Einstein me confia que le problème du Maintenant le tracassait sérieusement. Il m’expliqua que l’expérience du Maintenant (par le sujet (1/2) et 2/2) a pour l’homme une signification à part qui la différencie radicalement de celle du passé et du futur, mais que cette différence n’est pas et ne peut être mise en évidence au sein de la physique. Qu’une telle expérience ne puisse être prise en charge par la science lui semblait aussi navrant qu’inévitable. Je lui fis remarquer que tout ce qui a effectivement lieu devrait pouvoir être décrit par la science : d’un côté, la succession temporelle des événements par la physique ; de l’autre, l’expérience particulière que l’homme a du temps, y compris ses appréhensions différentes du passé, du présent et du futur, qui peuvent être décrites et (en principe) expliquées par la psychologie. » 

Lee Smolin ne peut savoir ce à quoi songeait Carnap, sachant qu’il ne connait aucun moyen qui permettrait aux science de la psychologie ou de la biologie de rendre compte de notre expérience du temps dans un monde intemporel (voir Note 1 page 305: « Jim Brown (son ami adepte du platonisme) me dit que Carnap avait à l’esprit quelque chose comme la distinction entre les grandeurs primaires et secondaires. Nous faisons l’expérience du rouge, mais ce qui se passe vraiment c’est que les atomes vibrent et émettent de la lumière à une certaine fréquence. Nous faisons l’expérience du temps qui passe, mais la réalité est que nous sommes un bouquet de lignes d’univers dans un univers-bloc, avec une capacité à percevoir et à stocker des souvenirs. Pour moi (L. Smolin), ceci est une façon de poser le problème, mais en aucun cas de le résoudre.).

Et Etienne Klein précise: « Mais Einstein pensait que les descriptions scientifiques ne sont pas faites pour combler nos attentes d’êtres humains ; qu’il y a quelque chose d’essentiel à propos du Maintenant qui demeure hors de portée de la science. » (voir note 2: page 305: « The philosophy of Rudolf Carnap: Intellectual Autobiography ».

L’insatisfaction d’Einstein n’est-elle pas naturelle? Notre observation de la nature est organisée par le temps et notre expérience du monde structurée en tant qu’instants ne devraient t-elles pas être incorporées par une théorie fondamentale de la physique? Tout ce dont nous faisons l’expérience, pensée, impression, action, intention, fait partie d’un instant. Et nous n’avons pas le choix sur l’instant que nous occupons maintenant, ni pour faire un bond et avancer ou reculer dans le temps. Le temps est radicalement différent de l’espace pour lequel nous avons la choix de nous y déplacer à notre gré. Faire l’expérience de la nature sous la forme d’une série de moments présents ne fait pas partie de la conception de la nature chez les physiciens, et sur ce point, Einstein et Carnap sont d’accord. Alors le futur de la physique doit-il être réduit à un choix? Accepter avec Carnap que le présent n’ait aucune place dans la science ou s’ouvrir à l’intuition et à la réticence d’Einstein pour que sa résignation douloureuse ne soit pas une fatalité? On peut alors suivre ce grand scientifique pour qui le moment présent est réel et devrait faire partie d’une description objective de la réalité. On vient de voir que Carnap dit bien que pour Einstein, le moment présent est réel et devrait d’une façon ou d’une autre faire partie d’une description objective de la réalité. Il dit aussi « qu’il y a quelque chose d’essentiel à propos du Maintenant qui reste simplement hors de portée de la science. » Depuis plus de 60 ans qu’a eu lieu cette conversation, notre connaissance de la physique et de la cosmologie s’est beaucoup enrichie. N’en savons-nous pas assez pour intégrer enfin le Maintenant dans la description de la nature? C’est ce que Lee Smolin propose et que nous allons découvrir dans la partie II de son livre 


     -Dans la première partie du livre, ont été retracées 9 étapes de l’éradication du temps hors des conceptions des théories physiques, de Galilée puis Newton jusqu’à la cosmologie quantique de Julien Barbour. Il faut commencer par déconstruire ces arguments apparemment erronés. Ceux-ci se rangent en 3 groupes:

     *Les arguments newtoniens (issus de la physique de Newron ou du paradigme newtonien). Ces arguments sont caractérisés par: 1) Le gel du mouvement par une représentation graphique des observations passées. 2) L’invention et la mise en oeuvre de la configuration d’espace intemporelle. 3) Le paradigme newtonien lui-même. 4) L’argument du déterminisme (dont Valéry disait Le “déterminisme” est la seule manière de se représenter le monde. Et l’indéterminisme, la seule manière d’y exister” : . 5) La réversibilité du temps.

     *Les arguments einsteiniens (issus de la relativité restreinte et générale). Ils sont caractérisés par: 1) La relativité de la   simultanéité. 2) La vision de l’espace temps sous forme univers-bloc. 3) Le temps a eu un début dans le big-bang. 

     *Les arguments cosmologiques venant de l’extension de la physique à l’univers entier: cosmologie et la fin du temps. 

Remarque: La flèche du temps, que le sens commun postule à partir de l’expérience ordinaire, est devenue incertaine avec la science classique, dont les lois fondamentales font fi d’une telle direction. Seule la thermodynamique maintenait cette direction, avec la croissance gé- nérale de l’entropie, mais c’était à certaines conditions, qui ne se décrivent pas par les moyens de la physique. La Relativité a semblé longtemps bannir le problème de la science physique, puisqu’elle ne fait plus de distinction fondamentale entre l’espace et le temps. Pourtant son application à la cosmologie a rendu nécessaire la réintroduction de cette distinction qui s’est révélée féconde. Avec le temps cosmique, l’accord entre le temps du sens commun et le temps scientifique se trouve rétabli.

Ces 9 arguments conduisent à une vision de la nature qui nie la réalité du moment présent où, dans l’univers-bloc, ce qui est réel est seulement l’histoire complète de l’univers. Dans cette image, le temps est traité comme une dimension d’espace et la relation cause-effet dans le temps peut être remplacée par une inférence logique intemporelle. Les théories newtonienne et la relativité parlaient d’histoires évoluant dans le temps, mais ce temps était un simple ordre mathématique « débarrassé de toute notion de création ex nihilo des instants présents« . Ces théories où le temps n’est pas réel peuvent être qualifiées d’intemporelles. 

Le bannissement du temps serait t-il le prix à payer pour le progrès (faut t-il accepter le progrès à tout prix ?) de la science? Dans les chapitre suivants (chap. 8 à 11), Lee Smolin en montre les failles des arguments précédents. En effet, ils entretiennent la même erreur, celle que le paradigme newtonien peut être étendu pour produire une théorie de l’univers, sous prétexte que nous pouvons prédire l’état futur de n’importe quel système à partir de ses conditions initiales et des loi qui opèrent sur lui. Mais, bien que la méthode soit puissante lorsqu’il s’agit de faire de la physique dans une boite; dans laquelle « on considère un petit sous-système isolé du reste de l’univers dans lequel on néglige certains effets pour ne s’intéresser qu’à certaines variables qui définissent un espace de configuration, atemporel. De plus, en général on considère l’horloge comme extérieure au sous-système : l’évolution du système est mesurée en référence à une horloge extérieure, et rien de ce qui se produit dans le système n’est supposé influer sur l’horloge. » Mais, comme on va le voir dans les chapitres suivants, aucune extension du paradigme ne peut mener à une théorie de l’univers dans sa totalité et selon Smolin, elle n’est d’aucun pouvoir pour affronter les questions cosmologiques.

liens: http://www.admiroutes.asso.fr/larevue/2015/153/multivers.htm (lee smolin et  l’hypothèse du multivers) http://www.drgoulu.com/2015/01/28/la-renaissance-du-temps/#.WDVRZ9ThA_6 (dr goulu: la renaissance du temps 1/2)

http://www.drgoulu.com/2015/12/31/la-renaissance-du-temps-22/ (la renaissance du temps 2/2)

http://medias.dunod.com/document/9782100706679/Feuilletage.pdf (la renaissance du temps Dunod: feuilletage)

http://www.implications-philosophiques.org/actualite/une/einstein-et-le-temps-du-sujet-ambiguites-en-physique-relativiste/ [einstein et le temps du sujet : ambiguïtés en physique relativiste (1/2)]

http://www.implications-philosophiques.org/actualite/une/einstein-et-le-temps-du-sujet-ambiguites-en-physique-relativiste-22/Einstein et le temps du sujet : ambiguïtés en physique relativiste (2/2))

http://www.drgoulu.com/2008/12/24/la-nature-du-temps-2/#.WDV7KdThA_4 (dr goulu la nature du temps et l’univers-bloc)

http://guillemant.net/index.php?cate=articles&part=physique_temps&page=Le_temps_existe-t-il.htm#deb  (philippe guillement: Le temps existe-t-il ? Ce qu’en disent les physiciens Le futur influence-t-il le présent ? Peut-on changer le passé ? Peut-on changer le passé ?)

http://www.doublecause.net/index.php?page=Thibault_Damour.htm (double causalité, thibaud damour , le temps et l’univers-bloc)

http://www.doublecause.net/index.php?page=modele.htm (Le modèle d’univers de la théorie de la double causalité)

http://www.theorie-de-tout.fr/2015/03/30/univers-ouvert-ferme-existence-temps/ christian magnan: (l’univers n’existe pas, il passe, est-il un système ouvert ou un système fermé ? La cosmologie ne se fourvoie-t-elle pas en tentant de répondre à cette question obsessionnelle ?)

http://www.baglis.tv/ame/psychologie-mythes/2953-nombre-et-temps-unus-mundus-et-mecanique-quantique.html?utm_source=newsletter_80&utm_medium=email&utm_campaign=nombre-et-temps-unus-mundus-et-mecanique-quantique (NOMBRE ET TEMPS, carl jung, UNUS MUNDUS ET MÉCANIQUE QUANTIQUE)

http://etienneklein.fr/wp-content/uploads/2016/04/Le-temps-est-il-une-affaire-de-conscience-.pdf (étienne Klein: le temps est-il une affaire de conscience?)

https://www.matierevolution.fr/spip.php?article3379 (L’Univers, un calculateur géant ? par Daniel Shechtman, Nobel de chimie en 2011 : « Oui, les mathématiques décrivent l’Univers)

http://www.hatem.com/neant.htm (DU NEANT A L’ENERGIE UNIVERSELLE. EPISTEMOLOGIE METAPHYSIQUE par Frank HATEM DSD)

http://lepaysoeuvredart.ca/index.php/2016/11/03/wow-t2-7k-dans-la-foulee-des-recherches-cosmologiques-et-quantiques-du-physicien-britannique-julien-barbour/  (WOW-T=2.7K?»… DANS LA FOULÉE DES RECHERCHES COSMOLOGIQUES ET QUANTIQUES DU PHYSICIEN BRITANNIQUE JULIEN BARBOUR)

2) l’erreur cosmologique (chapitre I 8).

     -Dans la première partie, nous avons vu que la science a « transcendé l’expérience liée au temps en prônant l’existence du monde platonicien des mathématiques, atemporel, dans lequel existeraient les équations décrivant notre univers sensible. Pour Smolin, cette approche est du même ordre que le mysticisme religieux ». Cela a abouti, comme on vient de le voir au chapitre 1, à l’éradication du temps en 9 étapes hors des théories physiques et aux succès fulgurants de la physique, succès dus à l’utilisation d’une méthode: le paradigme newtonien. Mais l’éradication du temps, qui est le prix à payer pour ces succès des théories physiques n’a pas de raison d’être. En effet, on l’a signalé au chapitre 1, la tentative d’appliquer le paradigme newtonien à l’univers entier est une tâche impossible. Et pour étendre la science à la compréhension de l’univers entier, nous avons besoin, insiste Lee Smolin, d’une théorie neuve dans laquelle le temps est un élément central.

     -Revenons aux premiers balbutiements de la science. C’est le philosophe pré-socratique anaximandre que Carlo Rovelli présente comme le premier scientifique. En effet, comme il l’écrit dans un livre récent, le premier scientifique: Anaximandre et son héritage, il « fut le premier à chercher les causes au phénomènes naturels dans la nature elle-même plutôt que dans les désirs capricieux des dieux« . A cette époque, il était naturel de penser que si les choses tombent c’est parce que la loi fondamentale de la nature, confirmée expérimentalement est que « tout corps possède un « lieu naturel « qu’il tend à rejoindre, une pierre tombe car il est dans sa nature de tendre vers le bas« , la seule exception étant le ciel et les corps qui y sont établis. Mais pour étendre cette loi, si efficace pour les corps terrestres, à l’univers entier (la terre et le ciel), apparut un paradoxe. Si tout ce qui n’est pas fixé au ciel tombe, alors pourquoi la Terre elle-même ne tombe t-elle pas? Un hypothèse était que quelque chose la retient, une des propositions étant que la Terre repose sur le dos d’une tortue géante. Mais alors, qu’est-ce qui retient la tortue? Pourrait t-il y avoir un empilement infini de tortues? Anaximandre réalisa qu’une révolution conceptuelle était nécessaire pour éviter cet absurde amoncellement de tortues. Anaximandre proposa, ce qui semble évidant aujourd’hui mais pas à l’époque, que la direction « en-bas » n’est pas universelle, mais simplement la direction vers la Terre. La bonne formulation de la loi, ce n’est pas « les choses tombent », mais que « les choses tombent vers la Terre ». Cette formulation ouvrait la porte à d’autre révolutions et rendre possible la découverte que la Terre n’est pas plate mais ronde. Anaximandre ne franchit pas cette étape, mais sa redéfinition « d’en bas » lui permit de voir la Terre comme un corps flottant dans l’espace  et de faire l’étonnante suggestion que le ciel s’étendait autour de la terre, sous nos pieds aussi bien qu’au-dessus de nos têtes. A partir de cette intuition, on comprit que les astre se couchant à l’ouest et se levant à l’est, était du à une rotation journalière du ciel, sans avoir besoin de créer un nouveau soleil chaque matin. Cette nouvelle compréhension permit d’enlever une anxiété, la crainte que la divinité, responsable de créer un nouveau soleil chaque matin, puisse ne pas se réveiller ou abandonner son poste.

La révolution d’Anaximandre fut sans doute plus importante que celle de Copernic car; peut-être pour la première fois, l’attitude scientifique fut pensée et rendit discutable le besoin d’expliquer (ce qui devait soutenir la Terre). On mit en oeuvre la première méthode de « falsification ».  

     -L’erreur cosmologique. 

Les premiers philosophes qui cherchaient à comprendre ce qui retient la Terre de tomber comme tous les objets terrestres, commettaient simplement l’erreur à l’ensemble de l’univers une applicable localement. A l’époque, l’univers était la Terre et le Ciel alors que le notre est un vaste cosmos rempli de galaxies, mais une même erreur se trouve dans les spéculations actuelles en cosmologie. Comme à l’époque des présocratiques où il était naturel de penser que si les choses tombent c’est parce qu’elles sont attirées vers le bas, aujourd’hui il est naturel de penser que si une loi est universelle, elle devrait s’appliquer à l’univers. La tentation est alors grande d’utiliser une loi ou un principe que nous savons utiliser avec succès à tous les sous-systèmes du monde (par exemple la mécanique quantique), pour l’appliquer à l’univers dans sa globalité. Mais c’est commettre une erreur que Lee Smolin appelle « l’erreur cosmologique »  L’univers est une entité, différente par nature de n’importe laquelle de ses parties et ce n’est pas non plus simplement l’addition de ses parties.  Dans l’univers, les propriétés d’un objet ou d’un système sont définies par ses relations avec d’autre objets. Mais l’univers étant la somme de ses relations, ne peut avoir lui-même de propriétés définies par ses relations avec une autre entité similaire, puisque c’est l’univers, supposé être la totalité. Ainsi, dans l’univers d’Anaximandre, la Terre est la seule chose (terrestre) qui ne tombe pas, parce que c’est la chose vers laquelle les objets tombent. On peut faire l’analogie avec notre univers qui est l’unique chose qui ne peut être expliquée par quelque chose qui lui soit extérieure puisqu’il est la somme de toutes les causes. Alors, par analogie avec la Grèce antique, quand nous cherchons à étendre les lois valables à petite échelle ou à échelle locale à l’univers dans sa totalité, nous aboutirons à des paradoxes et à des questions sans réponse.
-Pourquoi le paradigme newtonien ne pourra pas nous apporter de réponse?
Rappelons qu’il est la source de toutes les théories modernes, quantiques ou relativistes. Il nous conduit à deux questions auxquelles aucune théorie basée sur ces paradigmes ne pourra  jamais répondre.
*Pourquoi ces lois? Qu’est-ce qui a les a sélectionnées au détriment d’autres lois qui auraient pu gouverner le monde? 

*L’univers commence au big bang avec un ensemble particulier de conditions initiales. Pourquoi ces conditions initiales? En effet quand les lois sont fixées, il y a toujours un nombre infini de conditions initiales pour le commencement de l’univers. Quel mécanisme les a t-il sélectionnées parmi le nombre infini de possibilités?

C’est parce que les lois et conditions initiales sont les données d’entrée du paradigme newtonien qu’il ne peut apporter un embryon de réponse à ces questions fondamentales et si la physique doit rester formulée au sein de ce paradigme, ces grandes questions resteront un mystère pour toujours. 

     -L’échec des théories actuelles.

Lee Smolin montre la désillusion de son « rien ne va plus en physique » en écrivant: « nous pensions savoir comment répondre à cette question « Pourquoi ces lois?« . De nombreux théoriciens ont cru qu’une unique théorie mathématique cohérente pourrait incorporer les 4 lois fondamentales de la nature […]. Si tel avait été le cas, la réponse […] aurait été qu’une seule loi de physique  serait capable de donner naissance à un monde grosso modo comme le nôtre ».  Mais cet espoir a été anéanti. Il semble qu’il n’y a pas de théorie unique, une théorie du tout qui incorpore tout ce que nous connaissons de la nature en réconciliant physique quantique et relativité générale. De grands progrès on été accomplis au cours des 30 dernières années et de nombreuses tentatives on été proposées, mais il s’avère que ce n’est jamais selon un scénario unique. Parmi les approches de la gravitation quantique, la mieux étudiée selon Smolin est la gravitation quantique à boucles, qui semble autoriser un large gamme pour les forces et les particules. Une autre approche, celle de la théorie des cordes (ou le rêve d’Einstein réalisé?) aboutit au même constat. Il y a un bonnes raisons de penser qu’il y a un nombre infini de théories des cordes, dont un grand nombre dépend de larges ensembles de paramètres (nombres qu’on peut ajuster à la main à n’importe quelle valeur voulue). Beaucoup d’entre elle décrivent des mondes avec des particules et des forces proches du notre, mais aucune n’a encore permis d’inclure le modèle standard de la physique des particules. C’est Andrew Strominger qui a découvert en 1986 (superstring with torsion), que la théorie des cordes aboutit à un grand nombre de versions, tuant l’espoir originel d’une théorie ultime, théorie du tout.  Edgar Witten aussi a modéré l’enthousiasme des physiciens qui semblait être allé trop loin car ils n’avaient pas produit une seule mais 5 Théories des Cordes différentes avec la théorie M.

     -Le dilemme cosmologique.

Après les questions sans réponse, examinons les dilemmes (raisonnement menant à un choix de deux conclusions, inacceptables l’une comme l’autre). La notion de loi de la physique exprimée par le paradigme newtonien en présente un en son sein, car ce qu’on veut dire par loi, c’est qu’elle s’applique dans tous les cas sinon ce serait seulement une observation. Mais l’application d’une loi à n’importe quel morceau de l’univers implique une approximation  parce que, comme cela est dit dans le chapitre 4 (faire de la physique dans une boite), il faut alors négliger toutes les interactions entre ce morceau et le reste de l’univers. Donc, les applications vérifiables d’une loi de la nature sont toutes des approximations et si on veut appliquer une loi sans approximation, c’est à l’univers entier qu’il faudrait l’appliquer. Mais il n’existe qu’un univers, ce qui signifie appliquer une loi particulière à un cas unique et cela ne peut apporter suffisamment d’indices pour affirmer qu’une loi particulière s’y applique. Lee suggère d’appeler ceci le dilemme cosmologique.

 Mais cela ne doit pas nous décourager d’appliquer les lois de la nature, la relativité générale comme les lois de Newton, car, appliquées aux sous-systèmes, elles marchent pratiquement dans tous les cas et c’est pourquoi nous les appelons des lois. Mais, chaque cas où ces lois s’appliquent est une approximation basée sur la fiction de traiter un sous-système de l’univers comme s’il n’y avait que lui et rien d’autre. On pourrait (voir note 4 page 305)  « objecter que lorsque « nous » construisons des modèles cosmologiques en relativité générale, nous appliquons les équations d’Einstein à l’univers entier. Mais ce n’est pas vrai. Ce que nous appliquons est une troncation des équations d’Einstein à un sous-système qui est le rayon de courbure de l’univers? Tout ce qui est petit, y compris nous , les observateurs, est exclu du système modélisé »Cela ne nous empêche pas non plus de penser que l’histoire de notre univers est une solution d’une loi (du type de la relativité générale) où la matière est décrite par le modèle standard. Mais (et on en on revient à la suite des questions pourquoi?), pourquoi cette solution plutôt qu’une autre a t-elle été celle que la nature a concrétisé? 

Quoiqu’il en soit, le dilemme subsiste car en cosmologie, il n’y a véritablement qu’un cas unique. Et dans une discussion scientifique, on ne peut pas considérer l’univers comme un cas unique parmi une catégorie générale, car aucune assertion concernant les caractéristiques d’un élément de cette catégorie n’est testable. C’est vraiment un cas unique.

     -Un exemple pour illustrer le dilemme cosmologique.

Le point central du dilemme cosmologique est le fait que les lois qui s’appliquent à des sous-systèmes doivent être des approximations. Prenons par exemple la première loi de Newton. Elle dit que toutes les particules libres se déplacent selon des lignes droites, ce qu a été testé et confirmé dans de nombreux cas. Mais dans chacun des cas, il y a une approximation: aucune particule n’est jamais vraiment libre dans notre univers où toute particule ressent une force gravitationnelle de la part de toutes les autres. Si nous voulions vérifier cette loi avec exactitude, il n’y aurait strictement aucun cas auquel l’appliquer. La première loi de newton ne peut, au mieux, qu’être une approximation d’une autre loi plus exacte. Et d’ailleurs, elle est une approximation de la deuxième loi de Newton, qui décrit comment le mouvement d’une particule est influencé par par les forces auxquelles elle est soumise. De plus, chaque particule subit l’attraction gravitationnelle de toutes les autres et aussi leur attraction électromagnétique. Pour vérifier si cette deuxième loi est exacte, il faut prendre en compte plus de 18 puissance 80 forces dans la prédiction du mouvement d’une seule particule de l’univers. Alors comment fait-on dans la pratique? En fait, on prend en compte seulement une ou deux forces causées par les objets les plus proches et on ignore tout le reste. Dans le cas de la gravitation, cela semble se justifier car l’influence des corps lointains sont beaucoup faibles. Mais c’est loin d’être évident car il y énormément plus de particules lointaines que de particules proches. En réalité, personne ne s’aventure à vérifier si la seconde loi de Newton est rigoureusement exacte. On vérifie seulement son approximation dans des cas limite.       -Un autre problème de l’extrapolation de cette notion newtonienne de « loi » à l’univers entier est que même si l’univers est unique, il y a un choix infini de conditions initiales, qui correspondent à un nombre infini de solutions aux équations de cette loi dite « cosmologique ». Ces solutions décrivent un ensemble infini d’univers possibles alors qu’il y a un seul univers en réalité. Ce fait (une loi a un nombre infini de solutions possibles décrivant un nombre infini d’histoires possibles) montre qu’elle est adaptée à des sous-systèmes de l’univers qui viennent dans la nature en de multiples versions. « La foultitude de la nature est donc en accord avec la foultitude des solutions » écrit Smolin et il peut dire « donc lorsque nous appliquons uns loi à un petit sous-système de l’univers, la liberté de spécifier les conditions initiales fait partie de ce qui fait le succès de cette loi« . Mais d’un autre côté, quand nous appliquons une loi qui a un nombre infini de solutions à un système unique, en l’occurrence l’univers, nous laissons beaucoup  de choses inexpliquées. La liberté de choisit les conditions initiales signifie qu’il y a des questions essentielles concernant l’univers auxquelles la théorie, que la loi exprime, ne fournit aucune réponse dont les caractéristiques de l »univers qui doivent dépendre des conditions initiales.
 -Que penser alors de toutes les autres histoires, solutions des lois cosmologiques, mais que l’univers ne suit pas?
Que signifie l’extravagance d’un nombre infini de solutions si une seule d’entre elles au plus, peut avoir un rapport avec la nature? Lee Smolin nous prévient: ces considérations mènent à une conclusion, nous nous méprenons sur ce qu’une loi de la nature pourrait être à l’échelle cosmologique. Pour trois raisons:

     1) Supposer qu’une loi s’applique à l’échelle cosmologique implique une grande quantité d’informations sur des prédictions concernant des cas inexistante (d’autres univers).A t-on besoin d’une explication extravagante qui fasse des prédictions sur un nombre infini de cas qui ne se produiront jamais? Une explication sur ce qui se passe vraiment dans cet univers-ci suffirait.
2) Le type de loi habituel ne peut pas expliquer pourquoi la solution qui décrit notre univers est celle dont nous faisons l’expérience. 

     3) La loi le peut rendre compte d’elle-même (problème de l’autoréférenceEn 1931Kurt Gödel, pour démontrer son théorème d’incomplétude, utilise un énoncé inspiré du paradoxe d’Épiménide dont il tire une contradiction conduisant à l’incomplétude). La loi n’offre aucune raison pour laquelle c’est cette loi plutôt qu’une autre qui est en vigueur.  

Il en résulte que toute loi de la nature appliquée à l »univers explique beaucoup de choses et en même temps pas assez. 


3)  Conclusion.

La seule manière d’échapper à ces problèmes, dilemmes et paradoxes, est d’adopter une méthodologie qui va au-delà du paradigme newtonien, c’est à dire chercher un nouveau paradigme applicable à la physique à l’échelle de l’univers. Sinon prévient Lee Smolin, on se place face au risque que la physique finisse dans l’irrationalité et le mysticisme. Mais tous arguments de la première partie qui poussent à éradiquer le temps hors de la physique sont basés sur le paradigme newtonien  et sur l’hypothèse qu’il peut être étendu à l’univers dans son entier. Mais si c’est faux, ces arguments pour éliminer le temps s’écroulent, et quand nous abandonnons le paradigme newtonien, il devient possible de croire que le temps est réel et on peut envisager la construction d’une « vraie(?) » théorie cosmologique dont on espère qu’elle fera mieux que les théories actuelles. C’est ce que nous verrons dès le prochain article où se poursuivra l’aventure vers un au-delà des problèmes et paradoxes auxquels se confronte la connaissance actuelle avec « ma lecture » du chapitre 9 de « La renaissance du temps »: « le défi cosmologique ».

liens:

http://www.lesaviezvous.net/nature/animaux/de-nombreuses-cultures-croient-que-la-terre-repose-sur-le-dos-dune-tortue-geante.html (de nombreuses cultures croient que nous vivons sur le dos d’une tortue géante)

https://cosmologik.wordpress.com/2009/03/05/le-monde-danaximandre/ (le monde d’anaximandre)

http://www.sartoretti.org/display.php?id1=1786 (Les premiers maîtres de la gravitation D’Aristote à Poincaré, il a fallu des siècles pour tirer de l’observation des pommes qui tombent une description mathématique de leur chute. Et parvenir enfin à une théorie scientifique de la gravitation. Une théorie dont Einstein sapera plus tard les fondements les plus solides…)

gravité quantique: https://fr.wikipedia.org/wiki/Gravit%C3%A9_quantique (la gravitation quantique)

https://philosophiascientiae.revues.org/692 (la disparition du temps en gravitation quantique)

https://sciencetonnante.wordpress.com/2016/09/02/la-gravite-quantique-a-boucles/ (la gravitation quantique à boucles)

https://fr.wikipedia.org/wiki/Gravitation_quantique_%C3%A0_boucles wikipédia: la gravitation quantique à boucles)

http://www.cnrs.fr/publications/imagesdelaphysique/couv-PDF/IdP2011/06_Rovelli.pdf (de la gravitation quantique à boucles)

cordes:  http://www.cnrs.fr/publications/imagesdelaphysique/couv-PDF/IdP2010/13_theorie_cordes.pdf

https://fr.wikipedia.org/wiki/Th%C3%A9orie_des_cordes (wikipédia: théorie des cordes)

http://fbon.free.fr/cordes.html (l’unification de la physique et la théorie des cordes)

http://www.refletsdelaphysique.fr/articles/refdp/pdf/2010/05/refdp201022p8.pdf (histoire de la théorie des cordes)

http://randall.physics.harvard.edu/RandallCV/Recherce.pdf (lisa Randall: l’équation ultime pour la physique?)

https://fr.wikipedia.org/wiki/Edward_Witten (des super cordes à la théorie M)

D’après Aurélien Barrau, Univers multiples. La gravitation quantique chapitre 9)


D’après Aurélien Barrau, Univers multiples. La gravitation quantique chapitre 9)

http://evelyne.bouquet.free.fr/WebAlain/particules/910_gravitation.htm  (relativité générale, pourquoi quantifier la gravitation?)

https://lire.amazon.fr/?asin=B00GZ9HIV4 (l’équation bogdanov Lecture)

https://actualite.housseniawriting.com/science/2016/08/18/lequation-deinstein-les-trous-de-ver-et-la-gravitation-quantique/17499/L’équation ER = EPR propose des indices pour comprendre l’intrication et l’espace-temps et elle propose une méthode pour unifier la relativité générale et la mécanique quantique.

Aurélien Barrau: https://fr.wikipedia.org/wiki/Aur%C3%A9lien_Barrau

Des univers multiples par Aurélien Barrau: 

Vidéo Aurélien barrau: des univers multiples, à l’aube d’une nouvelle cosmologie

https://www.youtube.com/watch?v=3Zukurf0VJk Vidéo: BIG BANG, UNIVERS MULTIPLES ET ONDES GRAVITATIONNELLES.

1) Introduction

Dans l’article « d’après Aurélien Barrau, Univers multiples Chap 1)« , j’ai donné ma lecture du prologue et du premier chapitre du livre « des mondes multiples », en partant de la question « qu’est-ce qu’un univers? ». Elle a été étendue pour inclure ce que j’ai compris de la vision d’Alain Barrau sur les multivers et sur sa philosophie. Je reste toutefois fidèle à la vision anthropique de Trin Xhuan Thuan qui satisfait ma recherche de valeurs en mon âme et conscience et oriente mon éthique et mes comportements. Je reste fidèle aux valeurs évangéliques et je pense que la fragilité humaine permet de faire face à la démesure, la glorification de la sur-performance, de la sur-compétition et à la seule mise en valeur de la performance économique. Je recherche un équilibre fragile loin de la certitude dogmatique. C’est pour cela que le questionnement à l’ordre du jour dans la science face aux paradoxes et problèmes des modèles standard de la cosmologie et de la physique des particules m’interroge. Il a conduit à de nouvelles hypothèses et à des théories souvent spéculatives. Le site actualite.housseniawriting.com a ainsi pu écrire: « une réflexion dérangeante et très polémique est apparue dans la communauté des physiciens. C’est l’idée que nous approchons de la limite absolue de ce que nous sommes capables de comprendre avec la science« . Il est donc nécessaire d’examiner avec soin, prudence et clairvoyance toutes ces réflexions même si elles sont perturbantes pour nos certitudes ou comme l’écrit Aurélien Barrau, « d’interroger l’ensemble de l’édifice. Moins pour tenter de l’effondrer ou de le défaire que pour en sonder de nouvelles ramifications, le prolonger au-delà même du visible ou du concevable. C’est l’enjeu du multivers » (voie que suit Aurélien Barrau). Et il ajoute: « elles peuvent constituer une « pulsion inchoactive » qui poussera vers une découverte sans précédent  ou bien (ce dont j’aspire la révélation), vers un réenchantement de ce que l’on savait déjà sans en avoir pris la « dé-mesure » et finalement vers une nouvelle sacralisation du « monde »

Les chapitres suivants Du livre d’Aurélien Barrau décrivent quelques aspects de notre univers: « si l’espace était infini », « Des mondes dans les trous noirs« , « La mécanique quantique et ses mondes parallèles« , « une brève histoire des mondes multiples« , « L’inflation éternelle« , « Le paysage des cordes« , »Est-ce encore de la science?« . 


Quelques liens pour ce chapitre.

http://www.astrosurf.com/luxorion/cosmos-modelesunivers2.htm (les modèles d’univers)

http://www.slate.fr/life/86203/trou-noir-univers-parallele (dans chaque trou noir… un univers parallèle) https://sciencetonnante.wordpress.com/2013/06/24/que-se-passe-t-il-quand-on-tombe-dans-un-trou-noir-ou-le-probleme-du-firewall/ (Que se passe-t-il quand on tombe dans un trou noir ? voir  le problème du firewall)

http://www.pourlascience.fr/ewb_pages/a/actu-i-firewall-i-a-l-horizon-des-trous-noirs-remis-en-causea-32647.php (Firewall : l’horizon des trous noirs remis en cause ? Que devient l’information dans un trou noir ? Stephen Hawking apporte une contribution étonnante à un débat qui dure depuis longtemps, en proposant de revoir la notion clé d’horizon des événements)

https://fr.wikipedia.org/wiki/Diagramme_de_Penrose-Carter (une façon de représenter plusieurs métriques spatio-temporelles (solutions de l’équation d’Einstein) en supprimant systématiquement deux dimensions d’espace : la figure résultante est donc plane, représentable facilement dans le plan euclidien (c’est-à-dire une banale feuille de papier)

http://lpsc.in2p3.fr/barrau/aurelien/multivers_lpsc.pdf (Quelques éléments de physique et de philosophie des multivers)

http://www.danielmartin.eu/Physique/Inflation.pdf (inflation big bang et multivers)

http://lpsc.in2p3.fr/barrau/aurelien/encyclopedia.pdf (une brève histoire des mondes multiples)

http://www.futura-sciences.com/sciences/actualites/univers-visitez-multivers-max-tegmark-inflation-eternelle-54426/ (Le célèbre cosmologiste Max Tegmark, dans son ouvrage: Notre univers mathématique, fait écho aux idées de Platon et y relate sa longue quête sur la nature fondamentale de la réalité en s’aidant de la cosmologie et de la physique modernes. Cette réflexion l’a conduit à une hypothèse vertigineuse : celles de plusieurs niveaux d’univers, dont le nôtre serait une minuscule partie.)

https://actualite.housseniawriting.com/science/2016/09/18/letrange-seconde-vie-de-la-theorie-des-cordes/18170/ (La théorie des cordes a échoué dans sa promesse à réunifier la gravitation et la mécanique quantique. Mais dans le même temps, elle a permis d’avoir l’un des ensembles d’outils les plus pratiques en science)

http://lpsc.in2p3.fr/barrau/aurelien/itv.pdf (AURÉLIEN BARRAU: «Les lois de la physique mènent aux multivers» Entretien Aussi spéculative et controversée soit-elle, l’idée d’une infinité d’univers est entrée dans le champ scientifique. Une évolution qui conduit à s’interroger sur les fondements et les frontières de la physique théorique)


2) Gravitation quantique et multivers temporel.

[http://man21.free.fr/web/biblio/cours/qg.htm (la gravitation quantique: ouvrages et liens)

http://bouteloup.pierre.free.fr/lica/relg/tabmat.html (cours relativité générale)

« Selon Lee Smolin, trois routes sont actuellement suivies par les chercheurs pour aboutir à la gravitation quantique: la première développée à partir de la mécanique quantique qui donne naissance à la théorie des cordes, la seconde développée à partir de la relativité générale qui donne la théorie de la gravité quantique en lacet (GQL) ou en boucles. Bien que différentes, ces deux approches, selon l’auteur, devraient se compléter et se rejoindre. L’une et l’autre décrivent le temps et l’espace à l’échelle dite de Planck, soit (pour ce qui concerne l’espace) une dimension 10 puissance 20 fois plus petite que celle du noyau de l’atome. Contrairement à Brian Greene, qui se présente comme l’homme de la théorie des cordes, Lee Smolin a surtout travaillé la gravité quantique en lacet.
La 3e voie vers la gravitation quantique est celle
(théorie des twisteurs de Penrose,voir plus loin), selon Smolin, de quelques individualités qui refusent les bases à la fois de la mécanique quantique et de la relativité générale, pour développer des concepts et formalismes entièrement nouveaux. Ils poseraient des questions telles que »qu’est-ce que le temps » et « Comment décrire un univers auquel nous participons »,questions  qui, toujours selon Smolin, devraient être à la source des avancées conceptuelles de l’avenir. Parmi eux se trouve le mathématicien français Alain Connes, qui a proposé une toute nouvelle géométrie non commutative, susceptible de rendre de grands services dans la mathématisation de la nouvelle vision. On y compte aussi David Finkelstein, Christopher Isham, Raphael Sorkin et le vétéran Roger Penrose. Lee Smolin, qui se dit d’un tempérament optimiste, estime que ces trois voies différentes devraient converger très vite, en donnant naissance à la nouvelle théorie physique que tous le monde attend depuis plus d’un demi-siècle ».

https://www.youtube.com/watch?v=Jd8FiWJ5v8M (le réel voilé de Bernard d’Espagnat : Physique quantique et réalité, la réalité c’est quoi ? le réel voilé, l’accord intersubjectif, l’émotion, l’intuition….)



http://www.cidehom.com/apod.php?_date=110510 (La gravité a-t-elle une contrepartie magnétique ? Faites tourner n’importe quelle charge électrique, et vous aurez un champ magnétique. Faites tourner n’importe quelle masse et, selon Einstein, vous devriez obtenir un très léger plissement de la trame de l’espace-temps)

https://fr.wikipedia.org/wiki/Effet_Lense-Thirring (en relativité générale, quand un corps est en rotation sur lui-même, en plus de l’effet gravitationnel qui modifie l’espace-temps, sa rotation modifie un peu la géométrie du champ de gravitation qu’il émet (et qui se propage un peu comme une onde à la vitesse de la lumière) : c’est l’effet Lense-Thirring.)

2-1 Quantifier la gravitation.

A l’heure actuelle toute notre physique repose sur deux théories magnifiques, mais étranges pour le sens commun de notre vie quotidienne: la relativité générale et la mécanique quantique (voir les vidéos ci-dessus). La Relativité générale a changé notre compréhension du contenant de notre monde (espace et temps). Dans la physique newtonnienne, l’espace est le « contenant » absolu, la scène dans laquelle se déroulent les événements concernant les objets du monde dans un temps qui est absolu. Les deux, temps et espace nous apparaissent continus et le sont encore dans la relativité générale. La mécanique quantique elle, a profondément changé et infléchi notre perception du « contenu » c’est à dire la matière et les interactions entre les corps en introduisant des champs dont le dernier apparu est le champ de Higgs. Einstein a montré que l’espace-temps est un champ comme les autres, qui eux, sont tous quantiques. Alors ce champ devrait être quantique c’est à dire obéir à une physique du discontinu et de l’aléatoire ou plutôt du probabiliste. Mais les difficultés sont considérables. C’est avec Carlo Rovelli (En 1988, Carlo Rovelli et Lee Smolin ont présenté la gravitation quantique à boucles). que nous poursuivrons cette approche de la gravité quantique. Il écrit dans son livre « et si le temps n’existait pas« :  « Or, ces deux théories mènent à deux manières très différentes de décrire le monde, qui apparaissent incompatibles. Chacune des deux semble décrite comme si l’autre n’existait pas […] La mécanique quantique utilise les anciennes notions de temps et d’espace, qui sont contredites par la théorie de la relativité générale. Et la relativité générale utilise les anciennes notions de matière et d’énergie, qui sont contredites par la mécanique quantique. Par bonheur il n’y a pas de situation physique courante (ce qui n’est pas le cas de situations extrêmes comme la fin de vie des trous noirs ou la « singularité » du big bang, situations inaccessibles à nos instruments, pour le moment) dans laquelle les deux théories s’appliquent simultanément. Il n’empêche que tant que nous ne savons pas comment articuler ces deux grandes découvertes, nous n’avons pas de cadre global pour penser le monde. Nous sommes dans une situation de schizophrénie, avec des explications morcelées et intrinsèquement inconsistantes. Au point que nous ne savons plus ce que sont l’Espace, le Temps et la Matière. la physique fondamentale d’aujourd’hui est donc dans un état lamentable. C’est aussi ce que pense Lee Smolin avec son « rien ne va plus en physique » commenté par Jean Zin. Pour ce dernier, même la théorie des cordes qui représentait un espoir de surmonter la contradiction entre les deux théories est encore un échec. Il parle des cinq grands problèmes non résolus de la physique contemporaineMais contrairement à Rovelli pour qui le temps pourrait ne pas exister, Lee Smolin, qui travaille aussi sur la gravité quantique à boucles, propose une « renaissance tu temps » qui pourrait permettre de sortir de l’impasse: « Rovelli cherche à retrouver dans les théories disponibles une image physique du monde alors que Smolin est insatisfait des théories actuelles, pointant une physique en crise et suggérant que le moment est venu pour écrire une autre page de la physique contemporaine en élaborant une super théorie qui puisse incorporer le temps comme élément fondamental permettant de rendre compte de l’univers et de son évolution. » 

Il nous rappelle que « cette situation s’est déjà produite dans l’histoire, par exemple avec l’oeuvre unificatrice de Newton. Pour Képler, qui observait les planètes et les étoiles, les objets décrivaient des ellipses. Pour Galilée, qui étudiait les mouvements des objets qui tombent, ces derniers suivaient des paraboles. Mais, ainsi que Copernic venait de le comprendre, la Terre est un endroit comme les autres dans l’Univers. Donc il n’était pas raisonnable d’avoir une théorie qui fonctionne sur Terre et une autre qui fonctionne dans le ciel. Newton est parvenu à réconcilier les deux visions dans une seule théorie, et cette très belle unité a prévalu pendant trois siècles. Jusqu’au début du XXe siècle, la physique a été un ensemble de lois assez cohérent, fondé sur un très petit nombre de notions clé comme le Temps, l’Espace, la Causalité et la Matière. Malgré des évolutions importantes, ces notions restaient plutôt stables. Mais vers la fin du XIXe siècle, la mécanique quantique et le relativité générale ont pulvérisé ces fondations. La belle unité newtonienne était perdue. »  

Il faut donc maintenant renouveler l’exploit et sortir de l’impasse dans laquelle se trouve la science. Mais quantifier la gravitation pose des difficultés immenses comme on l’a vu. Une des difficultés est le statut du Temps. En mécanique quantique, il est continu et a un statut externe, un simple paramètre. L’espace par contre est quantifié. Il ne représente plus, comme en mécanisme classique, une grandeur physique ordinaire, comme l’énergie ou la position, représentables par un nombre. La quantification associe à ces grandeurs un être mathématique plus compliqué, un opérateur quantique appelé observable, qui n’est plus un nombre précis, mais dont le résultat de la mesure est probabiliste. Les résultats possibles d’une mesure se distribuent dans un ensemble de valeurs qui se calculent à partir des propriétés mathématiques de l’opérateur (observable) en jeu, ses valeurs propres. On ne peut prédire mieux et il en découle les notions d’indétermination et de fluctuations quantiques d’où l’interrogation de Hervé Zwirn sur la mécanique quantique et la connaissance du réel.

Quantifier le temps, donc l’espace-temps de la relativité générale, doit donc mener à remplacer les grandeurs géométriques, ici le temps, par des opérateurs. On aurait en quelque sorte une géométrie fluctuante.


2-2) 1ère difficulté: Le problème du temps en gravitation quantique.

Le temps en relativité parJean-Philippe Philippe Uzan (institut d’astrophysique de Paris) :  http://uma.ensta-paristech.fr/conf/tipe/2006/talks/uzan.pdf


Carlo Rovelli pose le problème dans son livre « et si le temps n’existait pas » en pages 28 et 29 dans le chapitre « gravité quantique ». Une difficulté de quantification de la relativité générale est celle de l’espace, ou ce qui est équivalent du champ gravitationnel comme nous l’avons vu. Celui-ci doit présenter une structure granulaire, exactement comme le champ électro-magnétique. Il doit donc y avoir des « grains d’espace » dont la dynamique doit être probabiliste. C’est une conception encore plus éloignée de notre intuition usuelle que celle de l’espace-temps d’Einstein et qui donne le vertige. C’est pourtant celle qui découle des meilleures théories actuelles. L’espace-boite fixe de Newton n’existe plus. Mais qu’est-ce que cela peut signifier, des « grains d’espace »? comment les décrire, par quelles mathématiques et quelles sont les équations qui les gouvernent? Que signifie l’expression « nuages de probabilités de grains d’espace »? Quelles sont les conséquences sur ce que nous observons et mesurons? C’est là le problème de la gravitation quantique. Mais le problème ne s’arrête pas là, l’espace n’est pas seul en relativité générale, il est intimement lié au temps, c’est l’espace-temps. Qu’est-ce alors qu’un temps granulaire et surtout probabiliste? Pour en arriver là, il nous faut penser un monde dans lequel le temps n’est plus une variable continue qui s’écoule, mais devient quelque chose d’autre, fondé sur ce nuage de probabilité de grains d’espace-temps. 

Ce problème du temps a aussi été évoqué par Marc Lachièze-Rey en page 318 du livr: « Au-delà de l’espace et du temps« .chapitre « gravité quantique ». Pour résumer, le problème du temps est masqué dans toutes les démarches de quantification réussies, de la mécanique  classique à la mécanique quantique, ou de de la description des ondes à la théorie quantique des champs, qui supposent justement l’existence du temps  par rapport auquel on définit l’évolution. Mais dans l’espace-temps de la relativité générale, il n’est pas possible de définir le temps. Ou plutôt; il existe trop de manières différentes et non équivalentes de le définir, c’est à dire de découper l’espace-temps en temps + espace. Dans « la renaissance du temps », Lee Smolin précise que « vous pouvez définir le temps selon un réseau d’horloges distribuées à travers l’univers, mais les horloges peuvent être bizarres, c’est à dire battre à des rythmes différents en différents lieux, et chacun peut accélérer ou ralentir: on dit que le temps est ramifié en relativité générale. Ainsi, chaque point de l’espace a son temps propre, le temps noté t n’étant qu’un paramètre: voir les invariants de l’espace-temps plat par exemple (« Pour repérer une particule dans l’espace-temps, il faut cependant utiliser, dans un référentiel donné, un temps-coordonnée, que nous noterons en général par une lettre latine, , par exemple. Le temps propre ne balise pas tout l’espace; c’est un paramètre intrinsèque lié à chaque horloge. C’est un « temps personnel » qui ne doit pas être confondu avec le temps-coordonnée. La durée qui figure dans la formule (1.6) est la différence entre deux temps-coordonnées (t + dt) et t. Cette quantité est appelée durée impropre; c’est une grandeur mesurée entre le temps marqué par deux horloges placées à des endroits différents; dans le cas présent, ces lieux sont infiniment voisins »). Et tout découpage de ce type est arbitraire; il brise la covariance de la théorie, qui est pourtant la symétrie considérée comme un fondement essentiel. Et surtout, chaque découpage risque de mener à une théorie quantique différente et on n’a pas de critère pour en distinguer une plutôt qu’une autre. Mais il y a pire. Au départ d’une théorie de la gravité quantique, l’espace-temps lui-même n’est pas défini quant à sa structure métrique puisqu’elle s’identifie à la gravité, ce que l’on veut quantifier. On part donc d’une variété nue (variété topologique sans structure, sans métrique bien définie). De toute façon, les propriétés de la métrique n’ont pas à être définies au départ, puisque ses propriétés, celles de l’espace-temps, doivent résulter de la théorie que l’on cherche à construire. En fait, même si la covariance est brisée, tout l’édifice de la physique repose en grande partie sur la notion de causalité. Celle-ci est tout à fait bien définie dans l’espace-temps de la relativité générale ou de la cosmologie, même si le temps ne l’est pas, comme on vient de le voir. Les relations causales ne dépendent que de la « structure conforme«  de la métrique (celle-ci classe les segments et les courbes sur une variété et définit des angles, mais elle n’attribue pas des longueurs ou des durées propres par l’intermédiaire d’un intervalle quadrique)  et cette définition ne brise pas la covariance. Cependant l’idée même de gravité quantique suggère que la géométrie de l’espace-temps fluctue, comme toute réalité quantique, au moins aux échelles comparables ou inférieures à celles de Planck. Cela interdirait de parler de géométrie dans le sens habituel, celle-ci ne serait qu’une illusion, la manière dont notre vision imprécise enregistrerait une géométrie quantique qui aurait des caractéristiques plus complexes. La causalité elle-même pourrait fluctuer et il serait impossible de déterminer si un événement est causalement lié à un autre. C’est ainsi que Marc Lachièze Rey présente « le problème du temps », une des principales difficultés pour aborder la quantification de la gravitation. Elles conduisent à deux démarches qui correspondent à deux manières d’aborder la relativité générale et que nous examinerons plus tard:
          Les démarches canoniques (telles la gravitation quentique à boucles) traitent les aspects dynamiques. Mais elles obligent à un renoncement provisoire à la covariance par un arbitraire initial avec une définition du temps au sein de l’espace-temps. Cela permet , malgré de nombreuses difficultés, d’appliquer une démarche de quantification analogue à la quantification usuelle.
 La gravitation quantique à boucles est une tentative de formuler, sans espace de référence, une théorie de la gravitation quantique, et donc d’unifier la théorie de la relativité générale et les concepts de la physique quantique. Elle est basée sur la quantification canonique directe de la relativité générale dans une formulation hamiltonienne, les trois autres interactions fondamentales n’étant pas considérées dans un premier temps. Une difficulté de l’approche est que le temps joue un rôle singulier et que la covariance générale des équations n’est plus manifeste.

          Les démarches covariantes (telles les mousses de spin en gravité quantique) renoncent à définir arbitrairement le temps a priori, mais cette covariance n’est qu’illusoire.Une version covariante de la gravitation quantique à boucles, issue de recherches sur la dynamique des réseaux de spin est formalisée en 2008. Elle conduit à la définition d’une famille d’amplitudes de transition2 prouvée en 20113nécessite l’existence d’une constante cosmologique positive, ce qui est cohérent avec l’observation de l’accélération de l’expansion de l’Univers. Cette théorie est partiellement en concurrence avec la théorie des supercordes.

           http://casar.pagesperso-orange.fr/Gravitation%20quantique.htm (la gravitation quantique: deux approches, covariante et l’approche canonique)


Le problème du temps est aussi analysé par Philopmaulion.com de cosmosaf.iap.fr   Sa vision reste très einsteinienne et présente la celle de Lee Smolin avec sa « renaissance du temps« . Il conclut son article par: « En ce qui concerne la compréhension que peut avoir Lee Smolin de son ‘Moment Présent ’ »épiphanique », il est difficile de savoir quelles sont les modifications qu’il préconise à propos de la R.G. Sans spécifier ni plus, ni mieux, son ‘Moment Présent’, Il annonce qu’il exploite cette hypothèse dans des modèles simples de systèmes gouvernés par des lois qui sont irréversibles en temps mais desquels émergent des résultats symétriques en temps. Le fondement de sa pensée est que le temps est donné dans la Nature. Espérons qu’il puisse nous dire bientôt quelles sont les indications qui lui sont fournies par ses modèles. » A propos de Lee Smolin, philipmaulion.com/  précise: « il est temps que la physique reconnaisse que le temps est réel« 

Attendons donc d’en savoir plus et sur les apports et les conséquences de la vision nouvelle du monde de Smolin pour voir comment la science pourra en être bouleversée, voire révolutionnée. Je vais lire son livre avec avidité. 

http://www-cosmosaf.iap.fr/fin-humanit%C3%A9-30-8-15.pdf (la fin de l’humanité vue par csmosaf.iap.fr)

Lee Smolin à propos de l’élimination du temps en cosmologie quantique: Dans la note 6, en page 303 du livre « La renaissance du temps », Lee Smolin écrit:Certaines descriptions approximatives d’états quantiques cosmologiques correspondant à des univers en expansion mais reposent sur des choix extrêmement subtils pour les conditions initiales. L’état générique en est une superposition f’univers en expansion et en contraction. Cela n’est pas le seul argument en faveur de l’élimination du temps en cosmologie quantique. D’autres arguments sont donnés dans le contexte des approches de la gravitation quantique par les intégrales de chemin; Connes et Rovelli proposent que le temps émerge comme conséquence du fait que l’univers possède une température finie« . Nous retrouvons ici philipmaulion.com/ qui précise que « En 1994, A. Connes et C. Rovelli ont publié un article de 17 pages de calcul qui s’attelait au problème suivant : L’algèbre des automorphismes de Von Neumann et la relation du temps thermodynamique avec les théories quantiques généralement covariantes. 


L’émergence du temps des observateurs classiques à partir de la mécanique quantique (effet EPR) est un problème particulièrement important en cosmologie quantique. Une expérience menée sur des paires de photons polarisés intriqués vient de donner plus de poids à une hypothèse proposée en 1983 pour l’expliquer : le mécanisme de Page-Wootters. Le temps des horloges d’observateurs à l’intérieur de l’univers découlerait du fait que celles-ci sont intriquées avec le reste du cosmos observable. L’univers lui-même considéré comme un tout ne changerait pas avec le temps.


Le temps est la notion sur laquelle butent tous les physiciens depuis Galilée jusqu’à Prigogine, Smolin, Rovelli et les autres. Parfois, la conception du temps dévoile quelle est la signature du physicien qui pense la nature. Je crois avoir deviné que Rovelli reste ancré dans une conception moderniste (l’univers-bloc notamment) mais élargie à des options offertes par la mécanique quantique. L’allusion à la formule de Boltzmann n’est pas fortuite. Elle conclut en quelque sorte le patronage antique de cette réflexion qui est l’atomisme de Démocrite. L’auteur n’accorde pas une grande importance au principe holographique (patronage d’Anaxagore ou Hermès) et aussi un élément de la signature puisque ce principe intervient surtout dans le domaine de la théorie des cordes qui n’est pas l’option choisie car Rovelli n’est pas un cordiste mais un boucliste.


2-3) Autre difficulté: l’apparente impossibilité de renormaliser la gravitation

(Alain Connes évoque la renormalisation dans « renormalisation et ambiguïté galoisienne« 

Pourquoi la renormalisation? En mécanique quantique, l’apparition d’une boucle provenant de la création d’une paire particule/anti-particule virtuelle amène, d’après les règles de Feynman, une intégration sur l’impulsion des particules virtuelles. Un problème survient lors du calcul de cette intégrale car il faut intégrer sur toutes les valeurs d’impulsions possibles et cette intégrale diverge lorsque les bornes vont de zéro jusqu’à l’infini, rendant la probabilité d’un tel processus infini, C’est pourquoi le processus de renormalisation, très controversé lors de ses premières applications, a du être mis au point afin de faire disparaître ces divergences. Ces divergences, dues à la nature ponctuelle de l’électron, subsistaient, quoique moins sévères. Elles acquérirent même une signification beaucoup plus fondamentale, paraissant une conséquence inévitable de ce caractère ponctuel et de la conservation des probabilités. Il apparut également qu’il était très difficile de construire une théorie cohérente de particules non ponctuelles.

Comme conséquence d’un apport expérimental essentiel, et d’importants progrès théoriques, une procédure empirique appelée renormalisation, fut enfin dé-couverte qui conduisait à des résultats finis: Bien que toutes les observables physiques aient été données en termes d’expressions contenant des infinités, il était possible de trouver des relations entre ces observables dans lesquelles les infinis se compensaient. Cette méthode permit des calculs de précision croissante pour les processus physiques relevant de l’Électrodynamique Quantique. Depuis, le modèle standard, d’une précision inégalée n’a jamais été démenti. La théorie quantique des champs est une théorie renormalisable et fait intervenir « le groupe de renormalisation« .  « Les théories dites renormalisables, ont la propriété remarquable que…la somme sur les états énergétiques n’affecte pas les résultats! 1) C’est inattendu —pourquoi dans l’intégrale des chemins, les chemins fluctuant à courtes distances ne laissent pas de traces dans le résultat? 2) On s’est retrouvé avec une curieuse dépendance des paramètres (“constante” de couplage, etc) sur l’´échelle (de renormalisation). »

Pour approfondir la renormalisation et le groupe de renormalisation (points essentiels en résumé): « Qu’est-ce que le groupe de renormalisation? Découvert par hasard dans le cadre perturbatif de la théorie quantique des champs, le groupe de renormalisation exprime la variation des paramètres physiques avec l’échelle d’observation. Originellement, cette découverte est attachée à la mise au point d’un procédé minutieux et ingénieux, dit de renormalisation, permettant d’obtenir une théorie quantique des champs perturbative bien définie. A l’origine, en effet, tous les ordres du développement perturbatif contiennent des quantités infinies qu’il faut soustraire sans détruire l’harmonie de la théorie de départ, c’est l’objet de la renormalisation. Ce faisant, le procédé de soustraction impose l’introduction d’un paramètre (dimensionné) arbitraire: une échelle de référence obligatoire. L’indépendance des lois fondamentales de la physique relativement à la variation de cette échelle de référence arbitraire se traduit par une équation dite du groupe de renormalisation. En conséquence la charge de l’électron, par exemple, qui est une constante dans la théorie classique de l’électrodynamique devient variable avec l’énergie employée pour la mesurer lorsque l’on tient compte des effets quantiques. Cette dépendance continue dans l’échelle est une complication, mais elle atteint certaines limites intéressantes. Le vieux principe de découplage des échelles mis en défaut par la renormalisation. Ce large domaine de pertinence indique que le recours à la renormalisation ne peut-être considéré que d’un seul point de vue technique (élimination des infinis dans une théorie perturbative). En réalité, le véritable phénomène originel de la renormalisation est le couplage des échelles de pertinence, phénomène auquel nous ne sommes pas habitués. Il faut en effet bien réaliser que l’inverse, c’est à dire le découplage des échelles de pertinence, est fondateur de la physique. Ce principe, quasi implicite, nous autorise à distinguer les seuls paramètres pertinents d’un problème en éliminant tous ceux qui se rattachent à des phénomènes physiques relevant d’échelles beaucoup plus grandes ou beaucoup plus petites que celle à laquelle on s’intéresse. Le phénomène de découplage des échelles pertinentes dans une étude donnée, n’implique pas que la physique nous soit apparue comme indépendante de l’échelle d’observation. C’est le contraire qui est vrai, on connaît la classification des théories physiques selon leur domaine de pertinence : les théories classique, atomique, nucléaire, des particules élémentaires etc…, chacune se caractérise par un domaine d’application distinct des autres (conséquence du découplage des échelles). Dans chacun de ces domaines, cependant, nous sommes habitués à ce que les quantités physiques pertinentes soient constantes. Avec le groupe de renormalisation la loi est la variation continue des quantités physiques avec l’échelle considérée. 

Le groupe de renormalisation exacte (non perturbatif). Les transformations proposées par K. Wilson sont générales, elles ne sont plus liées à un cadre perturbatif. Tout d’abord exprimées pour une variation discrète de l’échelle de référence (la dimension linéaire du volume effectif v), elles ont pris le nom d’équations du groupe de renormalisation exacte (ou, peut-être plus correctement, équations exactes du …) lorsque la variation devient infinitésimale (continue). Ces équations sont compliquées (de type intégro-différentiel non linéaire dans un espace fonctionnel) et sont restées longtemps négligées au profit de l’utilisation des techniques perturbatives (pour celles-ci, voir le livre de Jean Zinn-Justin. l’idée que la correspondance AdS-CFT (entre une théorie gravitationnelle en dimension d+1 et une théorie de champs conformes, non gravitationnelle en dimension d) pourrait être liée à une reformulation géométrique du groupe de renormalisation. »
Qu’en est-il de la gravitation? Il s’avère qu’il est impossible de la renormaliser.

Les voies plus triviales pour combiner les deux théories, relativité générale et mécanique quantique  (telles que traiter la gravité comme un champ possédant une particule de médiation : le graviton) se heurtent au problème de renormalisation. En effet la gravité est sensible à la masse, donc d’après le principe d’équivalence de la masse et de l’énergie en relativité restreinte, elle est aussi sensible à l’énergie. Un graviton doit donc interagir avec lui-même, ce qui crée de nouveaux gravitons qui à leur tour interagissent à nouveau. Il apparaît donc des valeurs d’énergie infinies qui ne peuvent être éliminées. Quentin Pierre dans une étude de la renormalisabilité perturbative (voir ens-lyon.fr), conclut que la relativité générale n’est pas renormalisable et ne peut convenir comme modèle satisfaisant pour la gravitation quantique.


2-4) Alors comment quantifier la gravitation?

a) Au vu de telles difficultés (le problème est en effet ouvert depuis un siècle), Aurélien Barrau se demande si un tel requisit est bien fondé, car ne se pourrait t-il pas que le champ gravitationnel soit un phénomène « émergent » et qu’il ne constitue pas « une force fondamentale » et donc qu’il ne soit pas nécessaire de la quantifier? Cette piste signalée par Aurélien Barrau a été explorée avec la voie selon laquelle « La gravité serait une force émergente d’origine entropique ? » par Erik Verlinde frère jumeau de Herman Verlinde chercheur sur les trous noirs (publications). En effet, Selon cette théorie, la gravité est la conséquence d’une différence de quantité d’informations holographiques dans le vide entre deux masses. Erik verlinde extrapole cette conclusion à la relativité générale et à la mécanique quantique. Il refuse de considérer la gravité comme une force fondamentale : il la voit comme un phénomène émergent qui provient d’interactions microscopiques. Pour le moment, ce n’est qu’une piste.

b) Voyons maintenant un autre aspect de la question. A l’origine de l’univers, il y a le Big Bang : une expansion accélérée et exponentielle du cosmos. Pour l’instant, cette croissance gigantesque n’a jamais été prouvée. Les ondes gravitationnelles  primordiales pourraient toutefois apporter quelques réponses sur ce qui s’est produit juste après le Big Bang.l’expérience Bicep 2 aurait pu apporter la preuve de l’existence des ondes gravitationnelles primordiales en 2014, mais un démenti a été apporté:  « Les ondes gravitationnelles du Big-Bang n’ont toujours pas été détectées. Et l’annonce à ce sujet de l’équipe américaine utilisant le télescope Bicep-2, installé en Antarctique, à la station Amundsen-Scott, était donc plus que prématurée.«  Le but était de mesurer le rayonnement cosmologique fossile, en se focalisant sur une de ses propriétés spécifiques, la polarisation B, qui est un mode de vibration particulier qui révèle l’empreinte des ondes gravitationnelles primordiales (mémoire d’effets de gravitation quantique), vibration ténue de la géométrie de l’Univers dans ses premiers âges. Leur détection n’est pas encore avérée, mais, si elle l’est, elle confirmera encore plus le modèle inflationnaire que le satellite planck a largement renforcé en le complétant par le modèle lambda CDM. Ces ondes seraient sans doute le premier effet de gravitation quantique effectivement mesuré. Elles ne permettraient pas de dire quelle est la « bonne » théorie de la gravitation quantique (elles sondent un régime de champs faible dans lequel toutes les théories sont essentiellement équivalentes), mais elles permettrait de montrer que la gravitation quantique existe et qu’elle est nécessaire, ce qui est déjà une avancée immense. 

c) Comment quantifier la gravitation? Commençons par citer philipMaulion.com qui donne une description très intéressante: « La gravité quantique s’appuie sur les acquis de la RG, elle consiste en une démarche de quantification de la RG, selon la relation Matière = Courbure, et son objet est de considérer les états quantiques de la géométrie de l’espace-temps. Donc elle aboutit au développement d’une géométrie quantique c’est-à-dire mettre en évidence des quanta d’espace-temps. Avec cette géométrie qui prévaudrait aux dimensions de Planck la notion de point disparaîtrait.Une quantification de la géométrie de l’espace-temps conduit à remplacer les grandeurs géométriques – longueurs et surfaces, durées, courbure… – par des opérateurs ; puis à examiner leurs valeurs propres. C’est comme si on remplaçait une géométrie ordinaire par une géométrie fluctuante. Tout de suite émerge la difficulté suivante : dans quel cadre décrire cette géométrie qui doit aboutir à l’espace-temps? 

L’objet de la physique quantique que nous connaissons est la fonction d’onde de la particule, de l’objet quantique, (les attributs classiques : positions, vitesses, etc. n’ont plus de sens).
L’objet de la gravité quantique est la fonction d’onde de la géométrie de l’Univers, que l’on note : y(A,E) (les attributs classiques : distances, durées, courbures, etc. n’ont plus de sens.)
Le détour par une interprétation « géométrodynamique’ »de la relativité permet d’appliquer une procédure de quantification.
La détermination des variables d’A. Ashtekar (ses publications)ont ouvert la voie à cette quantification dite canonique. Ces variables A et E qui préservent la covariance permettent de s’émanciper de la variable temps et des variables spatiales, ainsi que celles de Courbure et de Métrique. A est un terme de connexion à l’analogue du potentiel électromagnétique  V pour la gravitation, la courbure en dérive (comme le champ magnétique dérive du potentiel).
E (variable conjuguée de A) est définie à partir de la courbure de la partie spatiale; elle joue un rôle analogue à celui d’un champ électrique.
Nous nous rapprochons du formalisme des théories de jauge, c’est un signe encourageant.
Le cadre dans lequel on considère y(A,E) se constitue de l’ensemble de toutes les configurations géométriques (de l’espace-temps) possibles, exprimées par toutes les valeurs possibles de A et E.
La résolution de tous les problèmes mathématiques, identifiées, permet d’aboutir à la théorie de la gravité en boucles ou en lacets.
Les résultats déjà obtenus (calcul de l’entropie et de la température d’un trou noir S=Akc3/4hG, T=hc3/8pkGM) permettent de considérer le succès de cette démarche comme déjà équivalent à celui de la théorie des cordes.
Les promoteurs de cette théorie (L. Smolin, C. Rovelli) considèrent qu’il y a la possibilité d’une vérification expérimentale dans les prochaines années avec les rayonnements émis par les sursauts gamma

Compléments, liens: http://www.cosmo-ufes.org/uploads/1/3/7/0/13701821/lect.notes-3.pdf (Ashtekar variables for general relativity (Courses in canonical gravity)

http://fma.if.usp.br/~amsilva/cq910902.pdf (carlo rovelli: Ashtekar formulation of general relativity and loop-space non-perturbative quantum gravity: a report)

 http://www.cnrs.fr/publications/imagesdelaphysique/couv-PDF/IdP2011/06_Rovelli.pdf (carlo rovellui: la gravitation quantique à boucles)

http://web.mit.edu/redingtn/www/netadv/Xashtekar.html (les variables d’ashtekar et la gravitation quantique à boucles)

 http://casar.pagesperso-orange.fr/Gravitation%20quantique.htm (la gravitation quantique: deux approches, covariante et l’approche canonique)

http://www-cosmosaf.iap.fr/Maulion%20D%C3%A9passer%20la%20RG%20et%20la%20TQC.htm (dépasser la relativité générale et la théorie quantique des champs)

http://man21.free.fr/web/biblio/cours/qg.htm la gravitation quantique: ouvrages et liens)


2-5) Principales recherches et théories au-delà de la relativité générale et gravitation quantique (précisions sur les mécanismes covariants et canoniques).

-Pour mémoire: théorie des cordes et supercordes (objet d’un autre article)

-Gravitation étendue : Quelques aspects et mises en perspective par Aurélien Barrau (http://lpsc.in2p3.fr/barrau/aurelien/gravite_etendue.pdf)

-Pour une physique pluraliste (Rien ne va plus en physique ! L’échec de la théorie des cordes, Lee Smoli:n)http://grit-transversales.org/article.php3?id_article=210

-Théories physiques : méthodes, modèles et applications Extrait de la déclaration adoptée par le Comité national de la recherche scientifique réuni en session plénière extraordinaire le 11 juin 2014 (http://rapports-du-comite-national.cnrs.fr/rapport-conjoncture/rapport-de-conjoncture-2014/acceder-au-texte-integral-de-la-section-02) 

a) Théorie de Brans et Dicke

La théorie complète en anglais: The complete Brans-Dicke theory par Georgios Kofinas et l‘équation de Friedmann pour la théorie de Brans et Dicke. Comment obtenir les équations de champ dans la théorie de Brans et Dicke?

Les motivations de la Théorie de Brans-Dicke: La Théorie de la relativité générale, bien qu’incorporant le principe de Mach, n’est pas complètement machienne. Dans la Théorie de Brans et Dicke, on a un champ scalaire φ (il n’a rien à voir avec le potentiel du champ de gravitation noté φ), qui prend une valeur en chaque point de l’espace-temps. Cette valeur est un nombre réel. 

Le rôle du principe de Mach en physique est discuté, en particulier sa compatibilité avec le principe d’équivalence. On a donc des difficultés d’intégration de ce principe en Relativité générale. Une théorie relativiste modifiée de la gravitation, apparemment compatible avec le principe de Mach est proposée par Brans et Dicke. Elle décrit la gravitation par des équations scalo- tensorielles (ce qui fait qu’elle n’est plus décrite de manière entièrement géométrique par des tenseurs) Elle inclue une constante gravitationnelle (φ) qui est différente en chaque point de l’espace temps et qui dépend de la distribution des masses par rapport à ce point. 

voir le chapitre 3: d’où vient la différence entre la Théorie de la Relativité générale et la Théorie de Brans-Dicke ? Chapitre 4La Théorie de Brans-Dicke est non locale. Chapitre 5: Les masses négatives en Relativité générale. chapitre 7: Les règles d’attraction-répulsion en Relativité générale. Chapitre 8: Impulsion et masses négatives Chapitre 10: analogie des formules entre l’électromagnétisme et la relativité générale.


b) Mond et le principe de Mach

Wikipedia explique: La théorie de la dynamique newtonienne modifiée, en anglais Modified Newtonian dynamics et usuellement abrégée en (théorie) MOND, est une théorie physique, adaptée de la mécanique classique, proposée pour expliquer le problème de la courbe de rotation plate des galaxies spirales. Elle constitue une alternative au concept de matière noire, dont l’existence n’a toujours pas pu être mise en évidence.
Il a été calculé que si la matière noire existait, alors elle aurait une abondance au moins cinq fois plus importante que la matière baryonique, pour constituer de 83 %1 à 90 %2 de la densité totale de l’Univers observable3, selon les modèles de formation et d’évolution des galaxies, ainsi que les modèles cosmologiques.
MOND repose sur une modification de la seconde loi de Newton aux accélérations très faibles. Elle est généralisée dans le cadre d’une théorie relativiste, la théorie tenseur-scalaire.


c) gravitation quantique à boucles, premier contact. (Principaux acteurs: Abhay AshtekarLee Smolin,   Thomas Thiemann5Carlo RovelliJorge Pullin6 Martin Bojowald pour la cosmologie quantique)

Version canoniqueGravitation quantique à boucles

Examinons ce qu’en dit wikipedia: La gravitation quantique à boucles est basée sur la  quantification canonique directe de la relativité générale dans une formulation hamiltonienne, les trois autres interactions fondamentales n’étant pas considérées dans un premier temps. Une difficulté de l’approche est que le temps joue un rôle singulier et que la covariance générale des équations n’est plus manifeste. Une première formulation hamiltonienne de la relativité générale avait été proposée par Arnowitt, Deser et Misner en 19621, mais la tentative de quantification canonique de leur théorie par Wheeler et DeWitt n’avait pas fourni de résultats concluants, les équations obtenues étant trop difficiles à résoudre.

Dans son livre « et si le temps n’existait pas », en page 31, Carlo Rovelli écrit: « La voie qui semblait la plus prometteuse était liée à l’étrange équation de Wheeler DeWitt qui était en principe « l’équation quantique complète du champ gravitationnel ». C’est l’équation qu’on obtient si on combine les équations d’Einstein et celles de la mécanique quantique. Mais elle présentait toutes sortes de difficultés: elle était mal définie d’un point de vue mathématique, sa signification physique restait des plus obscures et elle ne permettait pas de calculer grand chose. » la situation était donc très confuse.

C’est en 1988 qu’un progrès important a eu lieu, avec la découverte de nouvelles variables canoniques par Abhay Ashtekar. Ces variables ont rendu possible une quantification canonique. L’un des résultats fondamentaux (et spectaluraires selon « hyper-atheisme.hautetfort.com ») de cette théorie est que l’espace présente une structure discrète (par opposition au continuum espace-temps de la relativité générale) : les aires et les volumes d’espace sont quantifiés. La notion d’espace est en quelque sorte remplacée par la notion de grains primitifs, sortes d’« atomes » d’espace ou, plus exactement, de quanta du champ gravitationnel, reliés entre eux par des liens caractérisés par un spin (spin de lien) d’où le nom de réseau de spin (spin network). Une version covariante (voir ci-dessous) issue de recherches sur la dynamique des réseaux de spin est formalisée en 2008. Elle conduit à la définition d’une famille d’amplitudes de transition prouvée en 20113 nécessite l’existence d’une constante cosmologique positive, ce qui est cohérent avec l’observation de l’accélération de l’expansion de l’UniversCette théorie est partiellement en concurrence avec la théorie des supercordes.

https://sciencetonnante.wordpress.com/2016/09/02/la-gravite-quantique-a-boucles/ la gravitation quantique à boucles: gravité quantique et théorie du tout, les équations de la relativité générale Cosmologie 1 : Le Big Bang Cosmologie 2 : Forme et destin de l’univerCosmologie 3 : La constante cosmologique, la non renormalisabilité de la relativité générale, les réseaux de spin, la cosmologie quantique à boucles et les fluctuations du CMB)

Une approche des boucles présentée par Lee Smolin est la gravitation quantique en lacets . »L’avantage de cette solution (les boucles) est qu’elle fournit des solutions indépendantes d’un espace en arrière-plan (contrairement à l’ensemble de la physique excepté la relativité générale) et qui se réfère à tel ou tel type d’espace. Les lacets (c’est à dire les boucles), qui peuvent se nouer et se lier définissent à eux-seuls une géométrie dynamique de l’espace-temps, sans avoir besoin d’un cadre de référence déterminé et non-dynamique.

Version covariante de la quantification non-perturbative de la relativité générale:  Réseaux et mousses de spins

Le formalisme des variables de boucle ne fait déjà plus explicitement appel à la continuité de l’espace (il l’utilise pour les définir à partir des notions classiques, mais une fois la construction terminée, il est possible d’oublier l’échafaudage de construction). Mais on peut aller plus loin: au lieu de considérer seulement des boucles (ou des noeuds), il est possible d’utiliser des réseaux de spin. L’espace en 3 dimensions est remplacé par un réseau, ou un graphe, c’est à dire ensemble de points (les vertexs) reliés par des arêtes. Ces arêtes portent un opérateur du groupe d’holonomie SU(2), donc un indice de spin, et les vertexs assurent la cohérence de ces indices à la jonction des arêtes (Le groupe SU(2)XU(1) est à l’origine de l’interaction électro-faible).  Les boucles correspondent ainsi à un cas particulier de réseau.  Ces réseaux de spins ont été introduits par Penrose en 1964, bien avant la révolution d’Ashtekar, pour dégager la physique d’un espace-temps continu: seules importent les relations (arêtes) entre objets (vertexs), dans le droit fil des idées de Leibniz et Mach. C’est en fait en utilisant des réseaux de spins que Rovelli et Smolin ont montré en 1995 la quantification des aires et des volumes.
La notion de réseau de spins en 3 dimensions s’étend à la notion de mousse de spins en 4 dimensions. Le but est de décrire ainsi l’espace-temps et non seulement l’espace. Dans ce cas, on a des faces (portant des indices de spin), des arêtes et des vertexs (portant des opérateurs assurant la cohérence des indices de spin aux jonctions). En 4 dimensions, le groupe d’holonomie est SU(2)xSU(2), le recouvrement universel de SO(4), et chaque face devrait donc porter une paire d’indices de spins. Il semble toutefois que ces deux indices soient systématiquement égaux, sinon les amplitudes sont nulles. Mais nous arrivons là aux limites actuelles des recherches en cours.

compléments, liens gravitation quantique à boucles: 

https://fr.wikipedia.org/wiki/Bryce_DeWitt  : (un physicien américain connu pour avoir formulé la version canonique de la théorie de la gravitation quantique : une des premières approches pour quantifier la théorie de la relativité généralisée. Il est également connu pour avoir découvert avec John Archibald Wheeler l’équation de Wheeler-DeWitt (en) pour la fonction d’onde de l’univers ; et enfin pour ses contributions à l’interprétation en mécanique quantique des mondes multiples de Hugh Everett)

http://www.astrosurf.com/luxorion/gravite-quantique-boucles-lqg2.htm (la théorie de la gravité quantique à boucles)

http://www.cnrs.fr/publications/imagesdelaphysique/couv-PDF/IdP2011/06_Rovelli.pdf rovelli: à ptopos de la gravitation quantique à boucles)

https://sciencetonnante.wordpress.com/2016/09/02/la-gravite-quantique-a-boucles/ (gravité quantique à boucles et théorie du tout, non-renormalisabilité  de la relativité générale, cosmologie quantique)

https://actualite.housseniawriting.com/science/2016/01/18/la-theorie-des-cordes-rencontre-la-gravitation-quantique-a-boucles-pour-former-une-theorie-du-tout/12774/ (La théorie des cordes rencontre la gravitation quantique à boucles pour former une « théorie du Tout », il semble que la théorie des cordes et la gravitation quantique à boucles soient les 2 faces d’une même pièce)

http://forum.planete-astronomie.com/la-theorie-de-la-gravite-quantique-a-boucle-de-lee-smolin-t697.html (théorie de la gravitation quantique à boucles de lee smolin -vidéos)

http://www.automatesintelligents.com/echanges/2006/nov/garrettlisi.html (Garret Lisi a-t-il réinventé la Théorie du Tout ?)

http://www.automatesintelligents.com/biblionet/2002/oct/smolin.html (trois chemins vers la gravité quantique)

http://philippelopes.free.fr/GraviteQuantiqueLacet.htm (gravité quantique en lacets)

d) Alternatives à la théories des cordes.

Dans son livre « rien ne va plus en physique« ,  Lee Smolin, commenté par Jean Zin., écrit: « les théories alternatives à la théorie des cordes dont la caractéristique principale est l’indispensable « indépendance par rapport au fond » (voir Carlo Rovelli, qu’est-ce que le temps? qu’est ce que l’espace? et le commentaire ci-dessous)On ne peut faire beaucoup plus que citer le nom de ces théories.  gravitation quantique à boucles (voir b),  géométries non-commutatives  (Alain Connes), triangulations dynamiques causales (Renate Loll et Jan Ambjorn) ou même « l’espace des twisteurs » (Roger Penrose). Il faudrait citer aussi les théories de l’émergence de Robert B. Laughlin. Ce qui caractérise ces théories par rapport à la théorie des cordes, c’est de ne pas faire d’hypothèses sur l’espace sous-jacent qui doit émerger des interactions, y compris le nombre de dimensions qui pourrait même évoluer dans le temps (p126) ! Il n’y aurait que des impulsions, des charges et des interactions. Ces théories conformes à la relativité générale illustrent qu’il ne suffit pas de déduire l’existence d’un « graviton » mais qu’il faut rendre compte de la dynamique de l’espace, le graviton lui-même étant soumis à la gravitation puisqu’il porte de l’énergie (p 129) !

Nous allons par la suite détailler un peu ces théories alternatives.

Commentaire Invariance de jauge et indépendance de fond: « Une propriété fondamentale de la théorie de la relativité générale est son invariance sous les difféomorphismes actifs (propriété que, suivant Earman (2006), je nomme covariance générale substantielle).6 Ceci signifie que les équations du champ d’Einstein sont invariantes sous ces transformations et que si (M, g) est une solution de ces équations, c’est-à-dire représente un espace-temps (et une configuration du champ gravitationnel), alors (M, d*g) est aussi une solution et représente la même situation physique, avec d* la transformation agissant sur la métrique induite par un difféomorphisme actif d : M → M. Sans entrer dans les détails techniques, un difféomorphisme actif transforme de manière bijective chaque point de la variété en un autre de telle sorte que la structure topologique soit préservée et que certaines conditions de continuité et différentiabilité soient satisfaites ; une telle transformation active sur la variété détermine une transformation sur la métrique, aussi appelée difféomorphisme par abus de language, qui peut être comprise comme une redistribution des propriétés métriques sur les points de la variété satisfaisant les conditions mentionnées. L’ensemble des difféomorphismes actifs possède la structure mathématique d’un groupe, que l’on note Diff(M). Ainsi, à strictement parler, un espace-temps n’est pas représenté uniquement pas une seule paire (M, g), mais plutôt par une classe d’équivalence de telles paires reliées par des difféomorphismes actifs. De plus manière plus spécifique, il est possible de comprendre cet invariance sous Diff(M) comme une invariance de jauge dans le cadre des formalismes lagrangien et hamiltonien de la théorie.Les équations dynamiques de la théorie de la relativité générale, les équations du champ d’Einstein, comme pour la plupart des théories physiques fondamentales, peuvent être dérivées d’une fonctionnelle, appelée action, caractérisant la théorie, l’action de Einstein Hilbert dans le cas de la relativité générale. »

 e) La géométrie non-commutative

La géométrie non commutative développée par  Alain Connes, est un type de géométrie algébrique distincte de la géométrie algébrique telle qu’on l’entend habituellement (celle développée par Alexandre Grothendieck), car elle s’intéresse à des objets qui ne  commutent pas.  

La géométrie non commutative permet d’incorporer des notions quantiques en géométrie. « Elle semble donc l’outil idéal pour étudier le problème de la quantification de la relativité générale. Cette thèse a pour but d’introduire les notions de géométrie non commutative, de gravité quantique (approche des Mousses de Spin) et de donner des directions possibles sur l’utilisation des structures de la Géométrie Non Commutative (GNC) afin d’étudier la gravité quantique (non perturbative) ». Voir: sam-network.org/video le débat autour de la géométrie non-commutative (Qu’est ce que la géométrie non commutative peut apporter à l’unification de la gravité de la mécanique quantique? Qu »est ce que le formalisme de la mécanique quantique? est t-il possible d’unifier la gravitation avec le modèle standard? Le temps existe t-il vraiment? Le temps bouge t-il encore? …)

     -Le site repmus.ircam.fr explique: « Dans le formalisme de la mécanique quantique, les observables ne sont plus des grandeurs ou fonctions numériques, que l’on peut multiplier entre elles dans un ordre indifférent, mais des opérateurs, que l’on peut composer entre eux suivant un ordre qui n’est plus indifférent. Il en est de même dans la géométrie non commutative initiée par Alain Connes dans les années 1980, qui s’en inspire : au lieu du double mouvement de la géométrie des topo (espace des points ! site des ouverts ! topos des faisceaux), on a le double mouvement: espace des points ! algèbres de fonctions ! algèbres d’opérateurs. Le site automatesintelligents.com pense que ‘La géométrie non-commutative d’Alain Connes nous donne ainsi la façon de décrire un monde dans lequel le concept usuel d’espace a été brisé. Il n’y existe pas de points, donc cela n’a pas de sens de se demander s’il existe un nombre infini de points dans une région donnée. Ce qui est merveilleux, cependant, est que Connes a découvert que de nombreuses parties de la théorie de la relativité, de la théorie quantique et de la physique des particules élémentaires pouvaient être compatibles avec un tel monde.’

     –A l’université Paris-sud, th.u-psud.fr écrit: « la géométrie non commutative tire son origine de la mécanique quantique, dans laquelle les observables engendrent une algèbre non commutative. En géométrie différentielle non commutative, les algèbres de fonctions différentiables sur les variétés (voir les précisions sur ces termes en fin de ce chapitre) sont remplacées par des algèbres non commutatives que l’on interprète comme les algèbres de fonctions différentiables sur des « variétés non commutatives ». Le groupe de physique mathématique du LPT est l’un des groupes fondateurs de la géométrie non commutative. Dans cette nouvelle géométrie, il est possible de définir des champs de jauge sur un « espace non commutatif », ainsi que des métriques. Certaines de ces théories de jauge s’interprètent naturellement en termes de théories de jauge ordinaire avec champs de Higgs. Les travaux de recherche au LPT consistent à étudier ces nouvelles géométries (par ex théories de jauge en géométrie non commutative), à les enrichir de nouvelles structures, et à appliquer ces nouveaux outils à la physique fondamentale en ayant en vue la formulation d’une théorie quantique de l’espace-temps et de la matière.

Formuler une théorie quantique de la relativité générale et donc de la gravité reste un défi pour la physique théorique. Une voie d’approche nouvelle, dite des tenseurs aléatoires a été développée ces dernières années au LPT. Elle généralise l’approche à la gravité quantique à deux dimensions par les matrices aléatoires et se situe également à l’intersection de plusieurs autres approches, telles que théorie des champs de groupe (version seconde-quantifiée de la gravité à boucles), triangulations dynamiques et. Elle s’appuie sur une discrétisation de l’espace temps dans laquelle des triangulations aléatoires colorées apparaissent comme duales aux graphes de Feynman d’une théorie des champs tensorielle. A l’aide d’un nouveau type de développement dit 1/N, on a pu découvrir des modèles de théories des champs tensorielles renormalisables, qui généralisent la théorie non-commutative des champs et pourraient mener à la compréhension de notre espace-temps comme un phénomène émergent. »
     

Alain connes: la géométrie non-commutative

-Le livre de Marc Lachièze Rey « Au-delà de l’espace et du temps«  apporte des précisions supplémentaires dans le chapitre « Au-delà des variétés: abandonner les points » (pages 309 à 313). Tous les espaces physiques qu’on étudie généralement (espace et espace-temps, Fond, Internat; fibre et fibrés... – un espace fibré est, intuitivement, un espace topologique qui est localement le produit de deux espaces appelés la base et la fibre ) sont des variétés ou des variétés différentielles (voir aussi définition dans cosmosaf.iap.com), c’est à dire des ensembles de points munis de certaines structures. Un Internat (fibre) (page 256) est une variété constituée, en chaque point,  de l’ensemble des transformations du groupe de lie (de Poincaré) agissant dans l’espace des repères de l’espace tangent de l’espace-temps. Les transformations du groupe de Poincaré (P)  sont à la fois considérées comme externes (agissant sur l’espace-temps),  et internes (agissant sur l’Internat), ce qui les fait apparaître comme transformations de jauge. Deux structures sont ainsi soudées: celle de l’Internat, à peu près identifié à l’espace tangent, et celle de l’espace-temps lui-même. Le champ gravitationnel, (la courbure de l’espace-tempsl) est ainsi considéré comme un champ de jauge. La soudure exprime le lien entre l’Internat,(la fibre) et l’espace-temps (la base). On voit ainsi à nouveau apparaître une parenté entre la relativité générale et la physique quantique. Toutes deux sont liées aux notions de symétries et aux notions géométriques qui les accompagnent: groupes de lie, fibrés et connexions. Cela sert de départ aux tentatives d’unification quantique/gravitation et de recherche d’une nouvelle physique. Pourtant, du point de vue physique, le point est une entité paradoxale, limite, d’extension nulle, que personne n’a jamais vue. Modèle du questionnement leibneizien repris par Heidegger,   rien ne peut exister sans constitution, pas même le néant, cette question constitue le paradoxe de la singularité. A nos yeux, les points, bien qu’ils soient sans épaisseur, leur accumulation donne pourtant un espace, ou une variété continue. Mais la notion de point est à l’origine des plus importantes difficultés de la physique, que ce soient les divergences classiques ou quantiques, le singularités en relativité générale et en cosmologie. Le champ électrique engendré par un électron ou le champ gravitationnel engendré par une masse ponctuelle tendent tous deux vers l’infini. La théorie quantique des champs est parsemée d’infinis dont on ne se débarrasse qu’ai prix d’opérations de renormalisation, qui sont conceptuellement peu satisfaisantes (ce que nous avons évoquées en 2-3). Certes, nous avons appris à nous en accommoder et avec l’habitude à les oublier ou les négliger. Mais le problème devient plus aigu avec le rapprochement physique quantique/relativité générale, en faisant intervenir la quantification de l’espace. De plus, le principe d’incertitude rend le point inaccessible, car il interdit une localisation parfaite. Alors, ne perd t-il pas sa raison d’être? On essaye, notamment en gravité quantique, d’introduire non pas des points, mais des « atomes d’espace« , en espérant ainsi faire disparaître les singularités pas et les divergences. On voudrait considérer un espace (ou un espace-temps) discret et non pas continu. Mais des réseaux ou des grilles ne semblent pas convenir pour décrire la physique, ils font intervenir des mailles aux dimensions ou orientations arbitraires. Et donc les symétries de l’espace-temps (par rapport aux rotations, à la relativité…) disparaissent. Mais l’idée d’une géométries sans points a germé. Elle n’est pas neuve, elle a été proposée pas Elie Cartan avec Félix Klein et son proggramme d’Erlangen dans les années 30 et par Hartland Snyder en 1947. Maintenant, une telle géométrie est devenue effective avec Alain Connes et la géométrie non commutative. L’application des idées quantiques à la gravitation entraîne d’importantes modifications des propriétés de l’espace en-dessous de l’échelle de Plank. De plus, les fonctions habituelles (énergie, position, vitesse) doivent être remplacées par des opérateurs (les observables quantiques), ce qui les différencient des fonctions par le fait que leur produit est non-commutatif. Ainsi, de fait, de manière non-explicite, la non-commutativité apparaît comme une caractéristique de la quantification (celle de la géométrie de l’espace, mais celle de l’espace de phase qui serait non-commutative en mécanique quantique). Un espace flou (théorème d’incertitude) pourrait bien constituer une version quantique de la géométrie. Quantifier la gravitation, c’est quantifier la géométrie. C’est ce qu’accomplit la géométrie non-commutative comme nous allons le voir au chapitre suivant. Un des avantages fondamentaux de cette démarche, c’est qu’elle préserve toutes les symétries de l’espace-temps, tout en faisant disparaître les problèmes d’infinis liés à la notion de point. Et elle entraîne, par construction, des relations d’incertitude qui évoquent celles de la mécanique quantique. La relativité générale a englobé la gravitation dans la (chrono-)géométrie de l’espace temps d’Einstein et le prix à payer était que cette géométrie devait être non-euclidienne. Pour qu’une nouvelle théorie englobe « la quantique » dans la géométrie, le prix à payer est peut-être que que cette théorie devienne non-commutative.

-Dans la géométrie non commutative (vue par Marc Lachièze Rey dans au-delà de l’espace et du temps pages 311 à 313): L’espace ordinaire est constitué de points, muni de relations entre eux (la topologie, la métrique etc). Le terme d’espace se révélant trop pauvre pour exprimer la diversité de son contenu, les géomètres utilisent le terme général de variété: une ligne est une variété à 1 dimension, les espaces euclidiens ou non sont des variétés à 3 dimensions, l’espace-temps est une variété à 4 dimensions. Les géomètres étudient des variétés à n dimensions ou  n-variétés. Tous les ensembles de points qu’on peut définir ne sont pas des variétés mais la physique standard s’en contente. Un ensemble de points sans relations entre eux ne sont pas des variétés. Pour qu’ils le soient, un minimum de relations est exigé, qui constituent sa structure géométrique. On demande que chaque petit morceau « ressemble » à un petit morceau d’une variété euclidienne R(n) pour une n-variété. L’ensemble de propriétés minimales que possède une variété constitue sa topologie. On parle alors de variété nue ou topologique (assimilable localement à un espace euclidien).On ne sait pas y manipuler des vecteurs, ni y mesurer des longueurs et des angles, ni y définir une courbure. Mais on sait définir sa dimension, son caractère fermé ou ouvert, notions topologiques. Mais ces notions ne suffisent pas pour faire de la physique. On besoin, par exemple, d’équations différentielles impliquant des fonctions, sur la variété, et de les dériver. Pour cela, il faut que la variété possède une structure différentielle qui vient s’ajouter à sa structure topologique. On peut y considérer des équations différentielles, manipuler des vecteurs, des tenseurs. Mais cela ne permet pas encore d’effectuer des mesures: il faut maintenant introduire une structure supplémentaire, une métrique, qui permet de définir et mesurer des angles et des longueurs ainsi que des durées dans l’espace-temps. La variété devient alors une variété métrique , qui possède une courbure. Celle-ci se définit à partir des propriétés de la métrique, ce qui définit son caractère euclidien ou non (riemannien par exemple). Il existe cependant une autre structure, intermédiaire entre les variétés différentielle et métrique: la structure conforme, qui permet de définir les angles, mais pas les longueurs ou les durées. En relativité, dans l’espace-temps, variété à 4 dimensions, la structure conforme exprime les notions de causalité. Dans l’espace, on a donc la hiérarchie de structures qui peuvent « habiller » une variété: simple ensemble de points, sans structure géométrique, variété nue ou topologique, variété différentielle, variété conforme, variété métrique.

Revenons maintenant à la notion de variété. Il est toujours possible de repérer ses points par leurs coordonnées. Ce n’est rien d’autre qu’une fonction, puisqu’elle fait correspondre à chaque point un nombre (réel). Les fonctions qu’on peut définir sur une variété ont des propriétés qui dépendent de celles de la variété. Par exemple, si l’espace est renfermé dans un cylindre, les fonctions doivent être périodiques.On montre que l’ensemble des propriétés d’une variété (donc la variété elle-même) est caractérisé par l’ensemble des fonctions qu’on peut y définir. Parmi toutes ces fonctions, certaines possèdent la propriété de s’annuler en un point donné et en ce point seulement. Le sous-ensemble constitué par les fonctions de ce type se trouve associé à ce point. Les fonctions définies sur une variété peuvent être additionnées ou multipliées. Le produit de deux fonctions f et g s’écrit aussi bien fg que gf. Cette propriété s’appelle la commutativité et l’ensemble des fonctions constitue une algèbre (ensemble d’éléments obéissant à des règles précises de multiplication) commutative. Un  théorème de géométrie assure que toute algèbre commutative peut-être vue comme l’ensemble des fonctions définies sur une certaine variété, c’est à dire: à toute algèbre commutative (vérifiant les bonnes conditions) est associée une variété, « composée de points ». L’idée de la géométrie non-commutative est de généraliser ces propriétés en considérant une classe plus large d’algèbres, appelées non-commutatives. On peut toujours définir le produit de deux éléments, ce qui permet de la considérer effectivement comme une algèbre. Mais dans une algèbre non-commutative, ce produit dépendra de l’ordre des facteurs: FG est différent de GF. Les éléments de cette algèbre ne peuvent donc être des nombres dans le sens usuel. On ne peut plus identifier les produits FG et GF, mais on peut définir leur commutateur comme la quantité FG-GF qui appartient lui aussi à l’algèbre. Evidemment, on ne peut plus interpréter un élément F de l’algèbre comme une fonction sur un espace, sinon les produits seraient commutatifs. L’algèbre non-commutative ressemble tout de même à une algèbre commutative même si on ne peut considérer ses éléments comme une fonction sur une variété. Mais on peut considérer chaque élément comme un opérateur agissant sur une structure qui ressemble à une variété  et construire une géométrie non-commutative. Cette nouvelle structure généralise la notion d’espace ou de variété, la notion d’opérateur généralisant celle de fonction. Elle est appelée espace non-commutatif ou « espace flou, où les points sont indiscernables les uns des autres » selon alain Connes, espaces  « fuzzy » en anglais. Ces espaces partagent la plupart des espaces usuels comme la symétrie ou la possibilité de définir des dérivées. Cependant une propriété ne se généralise pas: la possibilité de considérer des points. Dans la géométrie commutative, un point est associé à un sous-ensemble de fonctions. Ici, il n’existe pas de tels sous-ensembles, donc pas de points. Dans cet espace flou, il est impossible de mesurer une position avec une précision meilleure qu’une certaine limite, ce qui constitue une relation d’incertitude géométrique qu’on peut rapprocher du principe d’incertitude de Heisenberg. Certains éléments de l’algèbre généralisent la notion de coordonnées. Mais ce sont des coordonnées non-commutatives, qui ne sont pas non plus des fonctions.

liens: https://arxiv.org/pdf/math-ph/9903047.pdf (géométrie non-commutative et interactions fondamentales)

https://hal.archives-ouvertes.fr/tel-00010487v3/file/video.pdf :Théories de jauge en géométrie non commutative et généralisation du modèle de Born-Infeld

http://www-cosmosaf.iap.fr/SAF_Cours_cosmo_2010_1.pdf (Espace temps et géométrie Variétés, Tenseurs)

http://www.apc.univ-paris7.fr/~mlr/fichiersMLR/articlesMLR/Continu.pdf (Le rejet de l’atomisme et la physique continue Par Marc Lachièze-Rey)

http://images.math.cnrs.fr/pdf2006/Julg.pdf (Alain Connes: une autre vision de l’espace, la non-commutativité)


f) triangulations dynamiques causales (Renate Loll et Jan Ambjorn, le principal fondateur de la théorie de la Triangulation Dynamique Causale)

Voir les publications De Renate Roll en fin de cet article, apres les liens concernant le temps.

     -Le site http://math-et-physique.over-blog.com/ donne son avis sur les triangulations dynamiques causales en se posant la question: Pourquoi vivons-nous dans espace-temps à 4 dimensions ? « C’est une question à laquelle il semble très difficile de répondre. Pour certains c’est une question plus métaphysique que physique, pour d’autres il est tout simplement trop tôt pour tenter d’y répondre. Cependant, plusieurs théories spéculatives de gravité quantique semblent avoir leur mot à dire : la théorie des supercordes, qui est la première historiquement à s’être confrontée au problème, et plus récemment la théorie des « triangulations dynamiques causales», et enfin la théorie des « équations d’Einstein quantiques ». La théorie des triangulations dynamiques causales (CDT), d’Ambjorn, Jurkiewicz et Loll est L’idée est de quantifier la relativité générale via les intégrales de Feynman. Pour évaluer ces dernières, qui sont très mal définies, on fait une triangulation de l’espace-temps par des 4-simplexes, ce qui est l’équivalent à 4 dimensions de la représentation d’une surface sur un écran d’ordinateur par une myriade de minuscules triangles, puis on fait tendre la taille des 4-simplexes vers zéro. Cette méthode permet des calculs numériques, en particulier on peut estimer quelles sont les configurations des 4-simplexes (les uns par rapport aux autres) les plus probables par des méthodes de Monte-CarloLa surprise est que ces configurations sont complètement pathologiques : tous les simplexes s’agglutinent, auquel cas ils ne forment pas un espace-temps macroscopique, ou au contraire ils se rangent les uns derrière les autres en une longue chaîne. Remarquons qu’un tel arrangement a une dimension macroscopique égale à 1 […] Ce résultat est évidemment inacceptable. Cependant, et de façon très remarquable, si on demande que les simplexes se recollent uniquement de façon à ce que la causalité soit respectée en passant d’un simplexe à l’autre, les configurations dominantes ont une dimension macroscopique égale à 4. […] On peut voir l’ébauche d’une convergence, sans qu’on puisse bien sûr en déduire qu’elle se fait dans la bonne direction.

     -Pour le site godiche.ru/ le plus grand défaut des triangulations dynamiques causales par rapport à la théorie des cordes est qu’il ne nous est rien dit d’où vient la matière alors que la question se pose naturellement dans la théorie des cordes .
Les triangulations dynamiques causales (CDT) est une approche qui consiste à prendre des petits blocs pour construire l’espace, appelés 4-simplexes (un peu comme des triangles multidimensionnels), et de les utiliser pour construire la géométrie de l’espace-temps.
Le résultat est une séquence de motifs géométriques qui sont causalement liés dans une séquence, un motif provoque le motif suivant. Un des aspects les plus importants de la CDT est que le temps devient un élément essentiel de l’espace-temps, parce que Loll comprend que le lien de causalité est un élément crucial de la théorie. La Relativité nous dit que le temps est nettement différent de l’espace, mais Stephen Hawking et d’autres ont suggéré que la différence entre le temps et l’espace pourrait peut-être ignoré et même que le temps peut être imaginaire.
Loll prend alors ses configurations causalement liés de 4-simplexes et sommes sur toutes les configurations possibles des formes. (Feynman utilisé une approche similaire dans la mécanique quantique, sommant sur tous les chemins possibles pour obtenir des résultats de physique quantique.) Le résultat est géométrie de l’espace-temps classique!)

     -Si cela est vrai, CDT montre qu’il est impossible d’ignorer la différence entre l’espace et le temps. Le lien de cause à effet de changements dans la géométrie d’espace-temps (“le temps ” est une partie de l’espace-temps) est absolument nécessaire pour obtenir la géométrie d’espace-temps classique de la relativité générale et ce que la science sait des modèles cosmologiques standards.

     -À des échelles plus petites, cependant, CDT montre que l’espace-temps est à seulement 2 dimensions. Le modèle se transforme en un motif de fractale, où les structures se répètent à des échelles plus en plus petites, et il n’y a aucune preuve que l’espace-temps réel se comporte de cette façon ».

Donc…à suivre!

lien: les équations d’Einstein quantiques: https://arxiv.org/pdf/hep-th/0508202v1.pdf


g) 
« L’espace des twisteurs » (Roger Penrose).

https://fr.wikipedia.org/wiki/Surface_de_Riemann

La théorie des twisteurs, introduite par Roger Penrose dans les années 1970, essaye d’engendrer l’espace-temps à partir de la structure des rayons lumineux, ou plus précisément de « particules » se déplaçant à la vitesse de la lumière. Et Wikipedia continue: « Aussi appelée supergravitation, la théorie des twisteurs a donné lieu à un nouveau formalisme permettant l’étude des solutions des équations de la relativité générale et à ce titre aurait pu offrir un meilleur point de départ pour la quantification de celle-ci. Elle a été laissée de côté depuis. Pourtant, elle simplifie les calculs à la fois en relativité générale et en théorie quantique des champs. Il était probable qu’à terme, elle serait devenue le formalisme à la base de cette théorie et que l’on voit une réflexion sur la géométrie de l’espace-temps, certains résultats sont démontrés pour la première fois dans cette théorie. Certains aspects de la théorie des twisteurs donnent une importance particulière à la causalité, traitée d’un point de vue fondamental, à l’aide d’un formalisme mathématique fondé sur la théorie des groupes, l’analyticité et des notions topologiques (transformations de Penrose, spineurs, cohomologies…). Mais les efforts dans ce sens n’ont pas abouti et le projet de quantification par cette voie est abandonné. Par contre le formalisme de twisteur reste utile dans le cadre de la relativité et a même retrouvé un regain d’intérêt dans le cadre de l’étude de la théorie de Yang-Mills via la théorie des cordes(travaux d’Edward Witten sur ce dernier point). Elle pourrait, tout comme la géométrie non commutative ou encore la théorie des cordes, permettre d’unifier la physique quantique et la théorie de la relativité générale

Examinons tout de même ce qui est dit de cette théorie.

Pour Roger Penrose, précise le site Astrosurf.com« les dimensions compactifiées (des théories des cordes) doivent être haute instables et doivent s’effondrer jusqu’à la singularité de la même manière que les trous noirs et le big bang dans la théorie de la Relativité Générale, mais à présent dans une échelle de temps caractéristique et aussi absurdement petite que le temps de 1043 secondes. Aussi, avec ces dimensions supplémentaires, nous sommes, pour l’essentiel, revenus au départ: face à des infinis, mais à présent – les infinis des singularités de l’espace-temps, pas uniquement celles de la théorie quantique des champs » . La théorie des twisteurs, qu’il proposa dans les années 1960, devait échapper à ces difficultés. Il faudrait modifier les règles de la physique quantique pour les appliquer à l’échelle macroscopique. Il semble qu’elles pourraient être subtilement modifiées lorsqu’elles s’appliquent à la géométrie de l’espace-temps. ce qui permettrait sans doute de résoudre les paradoxes le physique quantique, tels celui du chat de schrödinger. Penrose considère la sphère céleste comme une courbe complexe, une surface de Riemann. Ces surfaces complexes, de dimensions n, ne ressemblent pas aux surfaces habituelles que nous avons l’habitude de visualiser, car les nombres complexes, de la forme a+ib, contient l’information sur la somme de paires a et b. Les surfaces de Riemann peuvent présenter différentes topologies. La sphère céleste, « sphère de Riemann » est un cas particulier de topologie sphérique. Tout part de cette curiosité mathématique que la théorie des twisteurs considère comme fondamentale. Les rayons lumineux (par exemple ceux émis par une étoile en direction de la Terre), sont considérés par le théorie comme plus fondamentaux que les points de l’espace-temps. On définit « l’espace du rayon lumineux » (les points individuels de l’espace représentant la totalité des rayons lumineux dans l’espace-temps). dont les points sont plus fondamentaux que l’espace-temps lui-même. Dans la géométrie de la relativité générale, deux points peuvent être reliés par un rayon lumineux (une géodésique) évoluant dans l’espace-temps. Par contre , dans la théorie des twisteurs, en rayon lumineux est un simple point dans l’espace du rayon lumineux, tandis que dans l’espace-temps, un point P est représenté par la valeur des rayons lumineux passant par P dans la sphère céleste (une courbe complexe, une sphère de Riemann passant à travers l’espace du rayon lumineux. Philippe Maulion apporte quelques précisions bienvenues: « L’espace que nous nous représentons et le temps ne sont pas donnés dans la nature, ils sont le fruit d’opérations de fondations, nécessaires et vitales, de la part de l’être pensant. Par contre la lumière est donnée dans la nature de Notre univers […] la tentative de Penrose d’opérer dans, « l’espace des twistors » relève du projet de faire de la physique autrement (ailleurs) que dans l’espace-temps ordinaire. On sait par ailleurs que, en relativité, on peut considérer l’espace-temps comme tissé par l’ensemble de ses géodésiques. On peut alors comprendre que Penrose propose de considérer comme objet fondamental de sa théorie, non pas l’ensemble des événements susceptibles de se produire (c’est-à-dire l’espace-temps), mais plutôt l’ensemble des trajets possibles des rayons lumineux. De cette façon, l’espace-temps apparaît comme un concept secondaire (sic) et l’espace des twistors – initialement l’espace des rayons lumineux – comme l’espace le plus fondamental (sic). Ces deux espaces sont liés par une correspondance où les rayons lumineux dans l’espace-temps sont représentés par des points dans l’espace des twistors. Il est possible d’étudier les propriétés mathématiques (dont certaines sont voisines de celles des sphères) de cet ensemble et de le considérer comme un espace géométrique. C’est « l’espace des twistors », et Penrose propose de faire de la physique dans cet espace plutôt que dans l’espace-temps ordinaire. »

C’est à ce niveau que Hawking introduit une « fonction d’onde des twisteurs‘ », ce qui permet, soutient Penrose, une nouvelle approche de la théorie quantique des champs, où les problèmes d’infinis pourraient se régler plus facilement. Philip Maulion poursuit: «il se pourrait que cet outil offre une piste intéressante pour la mise en place d’une théorie des twistors qui pourrait être extrêmement puissante. Cette piste se place alors en concurrence avec d’autres approches aux ambitions synthétisantes, faisant en général également intervenir une géométrie complexe. On peut citer, par exemple, les théories des cordes, la supersymétrie, la gravitation quantique, la géométrie non commutative, etc. Toutes ces théories, ou ébauches de théories, se placent sur des plans différents, avec parfois, cependant, quelques points communs.»

La théorie des twisteurs: analyse d’Etienne Klein dans L’EVANESCENCE DE LA NOTION DE CAUSE EN PHYSIQUE: « il se pourrait que cette relation temps-causalité soit un jour inversée ou renversée, du moins si l’on en croit certaines théories à l’ébauche aujourd’hui, qui tentent de construire une théorie quantique de la gravitation ? S’agit-il d’appliquer les procédures de la physique quantique à la relativité générale ? Ou de procéder à un mariage qui impliquerait une modification de la physique quantique standard? Ou encore de mettre sur pied une nouvelle théorie qui dépasse, en les incluant, la physique quantique et la relativité générale? 

Ces différentes démarches se répartissent en trois groupes : 

• Les procédures qui appliquent les règles de quantification à la relativité générale ordinaire. Deux pistes : les approches « covariantes », qui renoncent à définir le temps a priori ; les approches « canoniques » (telle la gravité quantique à boucles) qui partent d’une définition a priori du temps au sein de l’espace-temps de la relativité générale. 

• La théorie des supercordes, qui envisagent un cadre radicalement neuf (les objets physiques sont des cordes, mais l’espace-temps fait partie du background) à partir duquel on espère retrouver la RG 10 comme limite à basse énergie (et les autres interactions fondamentales). L’ensemble des approches qui ne relèvent d’aucune des deux premières, par exemple la théorie des  twisteurs de Penrose ou les géométries non commutatives d’Alain Connes.   « Je m’attarderai seulement sur la théorie des twisters car elle est la plus démonstrative d’un éventuel renversement du lien entre cours du temps et causalité. Traditionnellement, on considère qu’un événement, représenté par un point dans l’espace-temps, est une donnée primaire, et que les relations qui lient deux événements entre eux ne sont, elles, que des données secondaires : l’événement est seul jugé réel, tandis que les relations causales ne sont jamais qu’accessoires. Mais ne pourrait-on inverser la donne, considérer que les relations causales sont les véritables éléments fondamentaux, et que les événements dans l’espace-temps peuvent ensuite être définis à partir d’elles ? Dans les années 1980, Roger Penrose a ouvert une voie en proposant justement une conception de l’espace-temps fondée sur ce qu’il dénomme la « structure causale de l’univers.

Dans la Relativité Générale, l’espace-temps est l’arène au sein de laquelle la causalité vient s’exprimer, il se construit à partir d’elle. La géométrie de l’espace-temps dicte à la lumière sa voie de propagation: les trajets qu’elle peut suivre sont les géodésiques de lumière. Pour que deux événements soient causalement reliés, il faut qu’une particule ait pu se propager de l’un à l’autre. Or aucune particule ne peut se déplacer plus vite que la lumière. Dès lors, connaître les géodésiques de lumière permet de déterminer quel(s) événement(s) a (ont) pu être causé(s) par un événement donné: ce sont tous ceux qui sont reliés à cet événement par un signal dont la vitesse est inférieure ou égale à celle de la lumière. Ainsi la géométrie de l’espace-temps contient-elle de l’information à propos des liens de causalité entre événements. Une information qui constitue la « structure causale de l’univers »Elle constitue une sorte de tissage de l’espace-temps qui indique tous les chemins par lesquels des liens de causalité peuvent se propager (La structure causale conduit à refuser que puissent exister dans l’univers des géodésiques de lumière ou de matière qui seraient comme des boucles refermées sur elles-mêmes, car cela impliquerait qu’une particule pourrait revenir dans son propre passé). 

Penrose postule alors que cette structure causale est la propriété la plus déterminante de l’Univers. Ce n’est plus l’ensemble des points-événements de l’espace-temps qui est fondamental, mais plutôt l’ensemble des trajets possibles des rayons lumineux, bras armés de la causalité, capables de connecter les événements entre eux. Cela conduit Penrose à un renversement complet de point de vue: ce n’est plus la géométrie spatio-temporelle qui détermine les relations causales, mais les relations causales qui déterminent la géométrie de l’espace-temps. En effet, la plupart des informations dont nous avons besoin pour définir la géométrie de l’espace-temps sont intégralement fixées dès qu’on sait comment la lumière y voyage. Penrose appelle l’ensemble des rayons lumineux l’« espace des twisteurs »: chaque rayon lumineux, qui correspond à une géodésique de lumière dans l’espace-temps, est représenté par un simple point dans l’espace des twisteurs; et réciproquement, chaque point de l’espace-temps peut être reconsidéré comme l’ensemble des rayons lumineux passant par lui, c’est-à-dire comme un ensemble de points dans l’espace des twisteurs. Il s’établit ainsi une relation de correspondance entre l’espace des twisteurs et l’espace-temps (Le nom de twisteur vient du fait que les nombres complexes peuvent être représentés dans un plan (le plan complexe) ou bien, si l’on ajoute un point à l’infini, sur une sphère, la sphère de Riemann. Cette sphère peut tourner sur elle-même, et ainsi devenir un twisteur (un torseur en français).

Ainsi Penrose pense que l’espace des twisteurs est une entité plus fondamentale que l’espace-temps, et que c’est à partir de lui qu’il faudrait reformuler les lois de la physique. Pendant le 20 années qui ont suivi la proposition initiale, a théorie s’est rapidement développée. On s’est aperçu que de nombreuses relations pouvaient être reformulées dans l’espace des twisteurs (voir le livre écrit avec Sephen Hawking: la nature de l’espace et du temps). C’était un argument qui amenait à considérer effectivement les rayons de lumière, c’est-à-dire les propagateurs de la causalité, comme des entités vraiment fondamentales, voire fondatrices. Nous retrouvons donc ce que nous avons vu précédemment avec le site astrosurf.com.

L’espace-temps n’étant plus alors qu’un aspect secondaire exprimant les relations mutuelles de ces rayons. Cela semblait également être une étape vers l’unification des quatre interactions fondamentales car, reformulées au sein de l’espace des twisteurs, les équations décrivant les divers types de particules prennent une même forme, qui est simple (les équations différentielles y deviennent de simples équations algébriques). Mais cette représentation de l’Univers pose de nouveaux problèmes, le principal d’entre-eux pouvant être rédhibitoire: l’espace des twisteurs ne serait encore concevable qu’en dehors du cadre de la physique quantique. Bien qu’il soit structurellement très différent de l’espace-temps, il correspond, comme lui, à une structure géométrique lisse, non quantifiée. Personne ne sait encore à quoi pourrait ressembler un espace des twisteurs qui serait de nature quantique, mais la théorie des twisteurs n’unifie pas encore la physique quantique et la relativité générale. Etienne en conclut: « Depuis lors, les travaux qui visent à comprendre la nature de l’espace et du temps utilisent tous la combinaison de trois idées fondamentales: l’espace-temps est émergent en non pas primitif; sa description la plus fondamentale est discrète; cette description fait intervenir la causalité de façon cruciale. »

Nous allons voir, dans la chapitre suivant, une théorie de l’émergence.

Note: « Brandon Carter: […] a découvert avec son directeur de thèse Roger Penrose un moyen de déterminer ce que l’on appelle la structure causale de l’espace-temps autour d’un trou noir ou dans un univers en expansion à l’aide de diagramme appelés diagrammes de Carter-Penrose (ou diagrammes de Penrose-Carter, ou diagrammes de Penrose, le nom de Brandon Carter étant parfois omis). http://www.astrosurf.com/luxorion/univers-11dimensions2.htm (voir la théorie des twisters de penrose) »


h) Théories de l’émergence de Robert B. Laughlin

Dans son ouvrage, a different universe, Robert Laughlin a voulu s’opposer à la philosophie de l’ouvrage de son collègue  Brian Greene ”L’univers élégant”, spécialiste la théorie des cordes. Ce dernier est adepte du réductionnisme, c’est à dire de la doctrine visant, comme le dit Michel Bitbol à rendre compte de la grande variété des phénoménes naturels par un petit nombre d’entités élémentaires et de lois fondamentales, soit selon la formule claire de Jean Perrin, ”expliquer le visible compliqué par de l’invisible simple”. Laughlin affirme que toutes les lois physiques sont uniquement de nature organisationnelle! Aucune ne peut être déduite de principes physiques plus fondamentaux, ce qui revient à ne pas hiérarchiser les lois! Du coup, la chimie lui apparaît comme ”un énorme livre de recettes”! Son argument principal vient du fait que l’importance des interactions entre les éléments constituants d’un système, de leur complexité et des difficultés à prédire le comportement des objets complexes. Jacques Friedel, ne partagerait pas cet avis ; en effet, le travail de ce dernier a consisté a faire émerger les propriétés collectives des solides, des interaction entre atomes ou ions régulièrement espacés.  Pour le réductionnisme, les résultats obtenus par ce dernier et par toute la communauté des physiciens du solide sont la preuve du succès de la méthode des physiciens sur le plan fondamental ainsi que sur le plan technique, tout comme ce fut le cas, pour Maxwell et Boltzmann, à la fin du XIXe siècle, dans le cas des gaz avec la création de la physique statistique. 

Mais c’est surtout en biologie que la complexité des interactions rend la prévision difficile. Dans ce domaine en effet, rien n’a pu jusqu’à maintenant être mis en équations Constatant cette grande difficulté dans la prédiction, (en raison de la complexité), Laughlin l’interprète comme la fin du réductionnisme, lequel consiste en une vision hiérarchisée des lois depuis le niveau fondamental microscopique jusqu’au niveau macroscopique, le lien se faisant par les interactions entre entités élémentaires et par la statistique. Mais cette fin du réductionnisme ne doit pas être confondue avec une fin de la physique, comme l’ont envisagé de grands physiciens, notamment Richard Feynman et Leon Cooper; dans ce contexte, certains envisagent la Théorie du Tout, dans laquelle s’achèverait la dernière synthèse, celle de la physique quantique et de la relativité Générale. Avec la théorie de l’émergence, Laughlin propose au contraire d’abandonner une fois pour toutes la piste réductionniste.  En Pages 262-263, 276, Gaughlin affirme: ”… la science est passée de l’`ere du réductionnisme `a l’ère de l’émergence… aujourd’hui, le paradigme dominant est organisationnel… Le passage à l’ère de l’émergence met fin au mythe du pouvoir absolu des mathématiques … Nous ne vivons pas la fin de la découverte mais la fin du réductionnisme”
Commentaire de Michel Bitbol sur l’ouvrage de Gaughlin:  Gaughlin pose le problème de la non-existence d’un niveau ultime et fondamental dans la théorie de l’émergence, d’où la question : ”l’émergence des lois n’implique-t-elle pas un niveau inférieur d’organisation d’où elles émergeraient?” La réponse des physiciens est: le comportement des systèmes élémentaires satisfait à des lois statistiques dans lesquelles les caractéristiques élémentaires ne jouent pas un rôle déterminant. Quelles conclusions Michel Bitbol nous incite-t-il à retenir de l’exposé qu’il fait de l’opposition entre réductionnisme et émergence? Ou bien l’on continue à espérer que l’on pourra un jour édifier une théorie unifiée fondamentale exprimant les lois ultimes de la nature, aujourd’hui théorie des cordes ou des supercordes, à la poursuite de laquelle on engloutira beaucoup d’argent sans guère progresser comme le déplore Lee Smolin…Ou bien l’on admet qu’il n’existe pas de niveau fondamental à atteindre, ni de lois ultimes à formuler, ni même d’éléments au sens strict. C’est dans ce deuxième camp que Michel Bitbol se range explicitement. Ainsi la théorie de l’émergence présente l’intérêt philosophique de transformer les questions ontologiques, relatives à l’existence ou non de lois fondamentales, en questions méthodologiques. On renonce à savoir ce qu’est la nature dans l’absolu. On s’intéresse seulement à ce qu’elle apparaît être ici et maintenant en fonction des recherches que l’on mène.
L’interview de Robert Laughlin, qui fait suite à l’article de Michel Bitbol, reprend les mêmes idées. Il rappelle que dans toutes les sciences, l’approche est « phénoménologique ». Ce qui est observé expérimentalement est utilisé pour reconstituer des lois physiques dites fondamentales, résultant davantage d’un travail d’observation et d’analyse que de prédiction. Ainsi l’univers ne serait que le produit d’événements contingents liés à des modes d’auto-organisation de la matière. Pour Laughlin, il est tout autant impossible d’écrire les équations qui prédiraient la structure d’un grain de pop corn afin de simuler et prédire son explosion que celles intéressant un phénomène tel que le Big Bang.
Finalement, ne tourne t-on pas en rond? La connaissance n’obéit t-elle pas aux théorèmes de Gödel, qui semblent prouver qu’il y a des vérités indémontrables, l’intuition humaine n’est pas formalisable 
et on peut se poser la question: est-ce que seule la connaissance scientifique est une véritable connaissance?

i) La nouvelle physique: Ether, relativité et quantum, nouvelles interprétations.

Certains sites contestent le modèle standard et les théories d’Einstein et exigent le retour aux conceptions plus classiques du début du 20ème siècle qui admettaient l’existence de l’éther comme milieu de propagation des ondes. Ils refusent le modèle standard et la théorie du Bigbang. ils admettent l’existence de l’éther comme milieu de propagation d’ondes et expliquant la limitation de la vitesse de la lumière. Ils contestent la relativité générale d’Einstein et sa conception du photon et même parfois celle de l’électron comme particule indépendante.  Ils reviennent aux conceptions dynamiques plus classiques des physiciens du 19ème et début du 20èmesiècle et expliquent la relativité par l’effet Doppler.
Ces théories ne remettent pas en cause les résultats obtenus par le modèle officiel de la physique mais en modifient fondamentalement l’interprétation, permettant de résoudre des contradictions, de faire la synthèse attendue des interactions physiques et d’éclairer ainsi de nombreuses questions demeurées obscures.
Théories fondées sur un flux tourbillonnaire de l’éther:

a) Jean-Claude Villame, physicien, présente une cosmologie complète, cohérente et chiffrée sur son site les « Découvertes et thèses« . Il conçoit l’espace qui est considéré comme vide par la physique relativiste, en réalité occupé par la substance de l’éther composée de particules minimales de la dimension de Planck qu’il appelle « brunos » en hommage à Giordano Bruno (voir la métaphysique de Giordarno Bruno), précurseur et concepteur des monades ou minima de matière/énergie dans la tradition des philosophies atomistes grecques. (Essai 2une synthèse des forces de la nature)

Comme Giordano Bruno, il considère que l’univers est infini et éternel. L’espace est animé de spirales  et tourbillons de l’éther cosmique (Com 2ces tourbillons ne sont pas sans rappeler ceux de Descartes) formant en leurs centres les agglomérations de matière, sous la forme de spiralisations multiples mais homologues depuis la particule  jusqu’à la galaxie. 

Il conçoit ainsi la formation des structures par condensation de brunos en une hiérarchie systémique de niveaux superposés dans le vortex de l’éther cosmique. Fondant la hiérarchie des particules sur la contrainte géométrique du maximum d’accumulation possible de billes de grandeur égale autour d’une bille centrale (conjecture de Kepler) et sur la différence de masse connue du proton et de l’électron, il a calculé la masse du bruno ainsi que le niveau hiérarchique de chaque particule connue. 

Prémonitions de Giordano Bruno: C’est un prédécesseur des sciences les plus modernes qu’il a même dépassées, mais dans un sens néoplatonicien bien différent de celui des conceptions du vingtième siècle qui restent héritières des principes aristotéliciens. 

-Cosmologie: L’univers immense (non mesurable) de Bruno est infini et éternel. Il n’est pas limité par un espace en expansion et un début du temps défini par un Big bang créateur.

-Le quantum: Bruno a eu l’intuition du minimum des mesures d’espace, de temps et de matière qui fut découvert expérimentalement par Planck. Mais il ne réduit pas ce minimum à la seule matière mesurable. Il le conçoit dans un sens global, métaphysique, comme référentiel et origine de toute existence physique et de toute connaissance mentale, quantitative et qualitative.
-Relativité Bruno avait l’intuition de la relativité, non pas d’une relativité de l’espace-temps mais bien au contraire de la relativité des observations et des mesures: L’égalité est dans ce qui demeure toujours [le minimum et maximum de l’univers]. Pour ce qui change toujours, soit de l’un à l’autre soit des autres à tous, les mesures sont inégales.
-Epistémologie: Bruno identifie le principe et modèle de Platon (eidos dans le sens du Noûs des philosophes grecs) à la monade qu’il place à l’origine et existence à la fois de l’ordre du monde et de l’ordre cognitif, selon la conception nouvelle de l’auto-organisation.

Villame conçoit aussi une relation d’équivalence généralisée matière/énergie – E. P. M. G sous la forme E² = M² + P² + g² = (1 + g²) x (M² + P²).

Le site de Jean-Claude Villame: http://jcvillame.free.fr/ (voir Ensemble des Découvertes et thèses de l’auteur) avec un Site cité: http://sys.them e.free.fr/ (PARADIGME SYSTEMIQUE  ET EPISTEMOLOGIE TRANSDISCIPLINAIRE)


b) Thierry De Mees  développe une théorie de la gravitation appelée le  gravitomagnétisme ou gyrotation par analogie aux lois de l’électromagnétisme (dans  sys.theme.free.fr/4_physique.html (4-2-1))

L’auteur se réfère à des travaux de Oliver Heaviside (1850-1925), qui a formulé à nouveau et simplifié les équations de Maxwell sous leur forme actuelle utilisée en calcul vectoriel.qui a expliqué la gravitation par les équations de Maxwell et aux travaux de Oleg Jefimenko (1922-2009) qui compléta et expliqua ces équations. De Mees applique les équations de Maxwell par analogie à la gravitation en y incluant l’effet Coriolis. Il donne une explication compréhensible sur la base de l’espace euclidien et de la dynamique classique (forces, vitesses, moments). Il parvient ainsi à expliquer tout ce que la RG d’Einstein ne parvient ni à expliquer ni même à formaliser mathématiquement:

-La gravitation et la rotation des planètes dans le même sens et le même plan de l’écliptique par un effet d’entraînement du champ commun (ou éther) par quoi il explique aussi le résultat réputé négatif de l’expérience de Michelson.

-La vitesse constante des étoiles (sans matière ou énergie « noire »)

-La forme en disque des galaxies spirales, les explosions des quasars.

-La précession du périhélie de Mercure

-L’anneau de Saturne.

-Les étoiles à rotation rapide considérés comme des trous noirs;

et bien d’autres observations jusqu’ici inexpliquées.

j) Nassim Haramein -Einstein des temps nouveaux (http://resonance.is/)

Nassim Haramein en Francais! Conférence à Bruxelles: 25 juin 2015

La Solution de masse holographique et la Source de la Conscience NASSIM HARAMEIN

Théorie du vide et du proton selon Nassim Haramein

Le rêve d’Einstein va t-il être enfin réalisé? Va t-on vers la théorie du champ unifié qui réconcilie la physique quantique et la théorie de la relativité Générale?

flyingtaurus.over-blog.com -le proton de schartzchildl

Les sites  messagesdelanature.ek.la et agoravox.tv présentent Nassim Haramein, la bombe cosmologique. Est-ce lui le nouvel Einstein? Il a passé plus de 30 ans de sa vie à chercher et découvrir des relations entre la physique, les mathématiques, la géométrie, la cosmologie, la mécanique quantique, la biologie, la chimie, ainsi que l’anthropologie et les civilisations anciennes. Les découvertes d’Haramein sont focalisées sur une géométrie fondamentale de l’espace qui nous connecte tous, et ce, à des échelles quantiques et moléculaires aussi bien qu’aux objets cosmologiques de l’univers. En 2004, Haramein a fondé la «Fondation Projet Resonance». Dans la publication de Nassim Haramein «gravité quantique et masse holographique », Il a donné le rayon de charge du proton avec une précision bien plus grande que toutes celles, issues d’autres théories. Une expérience réalisée en 2013 par une équipe de scientifiques de l’Institut Paul Scherrer, a confirmé l’exactitude de la prédiction d’Haramein. À l’automne 2014 Haramein a débuté Le programme des « Délégués de l’Académie Resonance ». C’est le premier et seul programme de physique unifiée du genre.

Nous baignons, explique Nassim Haramein dans terresacrée.org, dans une énergie fondamentale qui est à la source de la création du monde physique. Cette énergie c’est le vide, ou l’espace qui nous entoure. Cet espace cependant n’est pas vide dans le sens usuel du terme mais plein d’énergie, une énergie qui connecte absolument tout. Ces nouvelles découvertes en physique vont avoir un impact majeur, nous dit Nassim Haramein, sur notre façon de vivre individuellement et collectivement. De même le site http://yenamarredesconnards.blogspot.fr nous dit que « le travail d’Haramein montre que tout dans l’univers est connecté, de l’échelle la plus grande à la plus petite, grâce à une compréhension unifiée de la gravité. Il démontre que c’est l’espace qui définit la matière et non la matière qui définit l’espace. Il démontre que le vide qui nous entoure tous n’est jamais vide…Les expériences menées de longue date sur les fluctuations du vide quantique amènent à d’autres déductions et découvertes dans le domaine des résonances de la matière… » On est certes encore dans une vision où l’espace est un contenant. Est-on vraiment dans une théorie du tout? Qu’il y a t-il au-dehors de l’espace? demanderait Lee Smolin quand on sait que pour lui, l’espace pourrait s’avérer être aussi illusoire que la température et la pression? Pourtant, l’approche de Nassim Haramein est une approche holistique, holographique peut-être, mais celle d’un univers Holofractographique« . Et le site continue: « Les protons sont les blocs de construction initiaux de notre univers – ils sont au centre de tout atome et donc sont partout et en tout« , a dit Chris Almida, directeur exécutif de la Fondation Projet Résonance. flyingtaurus.over-blog.com écrit que, selon Nassim Haramein, le modèle standard  nous expliquait « jusqu’alors que  (ces) deux protons ne pouvaient rester en interaction que grâce à une force surpuissante (la « force forte« ). Or cette force n’existe pas. Elle n’est en réalité qu’un artefact de la gravitation » […] Ce que nous explique donc Nassim Haramein, c’est que le modèle standard peut être simplifié par un modèle : celui du proton de Schwarzchild. De plus, ce qui constituerait la matière en définitive, ce serait donc le vide, et sa manifestation serait la lumière. Les atomes seraient en quelque sorte des systèmes lumineux. Nous serions alors nous aussi, car étant constitués de ces atomes, des sortes d’êtres de lumière. Au sens propre du terme. Non plus par un dogme, ni par une philosophie, mais par certitude physique.

L’idée de génie de Nassim Haramein, c’est donc de faire du proton un trou noir et d’avoir découvert que l’attraction gravitationnelle de ce trou noir-proton correspond exactement à la force forte. Mais pourquoi cette force ne s’applique qu’à courte distance, à l’échelle atomique alors que la gravitation, pour un corps ordinaire s’applique jusqu’à l’infini? Haramein répond, c’est le principe holographique, « une conjecture spéculative dans le cadre de la théorie de la gravité quantique, proposée par Gerard ‘t Hooft  en 1993(1) puis améliorée par Leonard Susskind en 1995(2). Cette conjecture propose que toute l’information contenue dans un volume d’espace peut être décrite par une théorie qui se situe sur les bords de cette région ». Mais Nassim Haramein va plus loin en se demandant si l’information qui tombe dans le trou noir n’y est pas encodée holographiquement, et partagée avec tous les trous noirs de l’univers? La masse et la force de confinement pourraient être le résultat du réseau d »information mettant en relation le volume intérieur des fluctuations du vide, représentant holographiquement le reste des protons dans l’Univers et son horizon de surface à l’extérieur. L’influence holographique des 10 puissance 80 protons de l’Univers interagit avec un seul proton, produisant ainsi la masse au repos de ce proton, soit 10 puissance-24 grammes.

Pour cielterrefc.fr, cette théorie d’unification, et sa récente publication « Le Proton Schwarzschild » (voir 5 vidéos dans cielterre.fr), posent les bases de ce qui pourrait être un changement fondamental dans notre compréhension actuelle de la physique et de la conscience. Cielterre.fr résume la pensée de Nassim Haramein:

– Les trous noirs répondent à une distribution fractale : Ils sont répartis depuis l’infiniment petit jusqu’à l’Univers lui-même, qui n’est qu’un trou noir. Les galaxies et les étoiles contiennent un trou noir en leur centre.
– La matière noire n’existe pas, rejoignant dans cette idée l’ex directeur du CNRS, Jean-Pierre Petit, qui l’avait également annoncé dans le cadre de sa théorie sur les univers gémellaires : C’est une commodité inventée par la communauté par déficience d’explication. Les 95% de matière manquante de l’Univers s’expliquent par l’incomplétude des équations d’Einstein, qui ne prennent pas en compte la torsion de l’espace-temps.
– Il n’y a pas 4 interactions fondamentales, mais 2. Les interactions nucléaires fortes et faibles n’existent pas, et n’ont été inventées que pour convenir de la non-prise en compte de la distribution fractale des trous noirs, qui suffit à assurer les cohésions que devaient prendre en charge les interactions nucléaires.
– La gravitation est non seulement compatible avec la mécanique quantique, ce sur quoi la science s’est toujours cassé les dents, mais elle en est la continuité.
– Le vide a une structure, et l’énergie du vide, dont l’équivalent-masse du volume d’un proton est exactement celui de la masse de l’Univers, assure la cohésion de l’Univers.
– L’énergie noire n’existe pas, l’accélération de l’expansion trouve son pendant dans l’effondrement du vide sur lui-même, conformément à la loi fondamentale de la physique dite Action-Réaction.
– La structure du vide se réduit à un modèle de 64 tétraédres construits en symétrie inversée. Ce modèle nous a été laissé par d’anciennes civilisations datant d’au moins 10.000 ans et se retrouve sous forme de symboles sur toute la planète, comme en Egypte, Chine, Amérique centrale.

Tout ce que nous venons de voir pourrait amener une révolution dans la pensée, car les modèles scientifiques actuels deviendraient obsolètes. Cette vision pourrait être en concurrence avec la recherche de lee Smolin qui après son « rien ne va plus en physique » propose « la renaissance du temps« . L’approche de Haramein semble de plus pouvoir permettre une intégration l’esprit dans cet Univers connecté« Tout ce que l’on considère comme spirituel ou métaphysique est en général simplement de la physique que nous n’avons pas encore comprise »Nous allons maintenant passer à une autre vision, celle des frères Bogdanov.


liens:

Le Proton Schwarzschild     Le proton de schwarchild

http://www.revelessencedesoi.com/2015/08/l-univers-connecte-conference-en-francais-de-nassim-haramein-et-autres-liens-interessants.html (l’univers connecté de nassim haramein)

https://resistanceauthentique.net/tag/nassim-haramein/ (l’Univers connecté-the resonnance project)

https://resistanceauthentique.net/2013/10/31/en-cours/

http://lapressegalactique.com/category/themes/auteurs/n/nassim-haramein/ (La théorie de l’ univers connecté de Nassim Haramein révéle une source d’énergie potentiellement infinie

http://www.agoravox.fr/actualites/technologies/article/theorie-de-la-resonance-generale-150141 (théorie de la résonnance générale -La grande révolution paradigmatique promise au tournant du millénaire se fait attendre)

http://consciencecosmique.e-monsite.com/pages/nassim-haramein/ (consciencecosmique.e-monsite.com: nassim haramein)

http://www.cielterrefc.fr/exterieurs/la-terre-et-lunivers/sciences-et-au-dela/theorie-holofractographique-theorie-du-champ-unifie-de-nassim-haramein/ (théorie du champ unifié, holofractographique)

http://www.elishean.fr/lunivers-decode-ou-la-theorie-de-lunification-nassim-haramein/ (L’Univers décodé ou la théorie de l’unification: Nassim Haramein)

http://www.elishean.fr/lunivers-est-connecte-a-tout-ce-qui-est-vivant/ (l’univers est connecté à tout ce qui est vivant:  L’information est le tissu de connexion de notre Univers)

http://resonance.is/wp-content/uploads/2014/05/Nexus-Nov-Dec-2013-Black-Whole-Heart-of-Atom-French.pdf (un trou noir au coeur de l’atome….la force gravitationnelle de ce trou noir , c’est la force forte)

http://www.inexplique-endebat.com/2015/09/nassim-haramein-tout-dans-l-univers-est-connecte.html (tout dans l’univers est connecté)

http://hiup.org/wp-content/uploads/2013/05/quaternions_spinors_twistors_paper.pdf (SPINORS, TWISTORS, QUATERNIONS, AND THE “SPACETIME” TORUS TOPOLOGY Nassim Haramein† and Elizabeth A. Rauscher*


k) les frères bogdanovl’équation bogdanov.


K1) Introduction: La théorie de Nassim Haramein est-elle la théorie ultime que les physiciens appellent de leurs voeux. Trop tôt pour le dire. On l’a vu, Lee Smolin en disant « rien ne va plus en physique » souhaite une nouvelle physique avec la renaissance du temps, et ne croit plus en une théorie ultime.On trouve page 102 (en résumant) : « Si l’analogie entre notre époque actuelle et la science de la Grèce antique est valide, alors l’extension des lois valables à petite échelle à l’univers entier mènera à des paradoxes et des questions sans réponse. Or il y a l’un et l’autre (paradoxes et questions sans réponse). Notre foi dans l’épistémologie scientifique et le paradigme newtonien  nous a conduit à deux questions simples auxquelles aucune théorie basée sur ce paradigme ne pourra jamais répondre: 

Pourquoi ces lois, qu’est ce qui a sélectionné ces lois? 

-Pourquoi les conditions initiales avec lesquelles a commencé l’univers au big bang? Une fois les lois fixées, il y a toujours un nombre infini de conditions initiales possibles. Quel mécanisme a sélectionné ces conditions initiales?

Le paradigme newtonien ne peut pas même apporter un embryon de réponse à ces deux questions, parce que les lois et les conditions initiales sont ses données d’entrée. Si la physique doit être formulée au sein du paradigme newtonien, ces grandes questions demeureront des mystères pour toujours ». Et Lee Smolin rajoute: « Nous pensions savoir répondre à cette question Pourquoi ces lois? De nombreux théoriciens ont cru que qu’une unique théorie mathématiquement cohérente pourrait incorporer le quatre lois fondamentales […] mais cet espoir a été anéanti. »

Alors comment sortir de cette impasse? Après avoir examiné les nombreuses alternatives pour résoudre le dilemme et les paradoxes,  mon attention se retourne maintenant vers une hypothèse qui a défrayé le chronique dans les années 2000. L’affaire bogdanov est en effet,  selon le mot du physicienmathématicien John Baez, une controverse sur la validité des travaux scientifiques des producteurs et animateurs de télévision français Igor et Grichka Bogdanoff. En effet, le 22 octobre 2002, le physicien allemand Max Niedermaier en poste à l’université de Tours, envoie au physicien théoricien Ted Newman (codécouvreur de la structure du trou noir de Kerr-Newman) ainsi qu’à nombre de ses collègues et à plusieurs journalistes un message selon lequel les travaux d’Igor et Grichka Bogdanoff ne seraient qu’un canular, comme celui qu’avait effectué Alan SokalCeci a fait l’objet de deux de mes article: l’affaire Bogdanov et notes sur l’affaire Bogdanovet aussi Les Bogdanov répondent à vos questions Réagissez !. Mais j’y reviens pour examiner comment l’hypothèse des frères Bogdanov peut être une voie nouvelle vers une théorie unifiée, malgré ses détracteurs et la concurrence de l’hypothèse des multivers.  Pour Jean-Pierre Luminet L’idée d’un « code cosmologique » selon laquelle l’Univers au moment du big bang, voire avant, était déjà un réseau complexe d’informations contenant en germe tout ce qui existe aujourd’hui, idée soutenue par les Bogdanov et quelques autres, ne tient guère sur le plan scientifique. Etienne Klein, qui a évoqué Dieu, Hawking et la physique…hélas, se penche avec intelligence sur l’origine de l’univers mais il  insiste sur le côté « esbrouffe » (pour le côté «esbrouffe» dont parle Etienne Klein, voir dans le texte la série de notes sur les frères Bogdanov.)

En 11/2010, j’avais écrit un article pour donner « ma lecture » du livre Le visage de Dieu » avec mon commentaire: « Pourquoi tant de passions? de rejets? Sans doute parce qu’il contraint à un choix impossible: un univers sans cause d’un côté, et de l’autre ce vers quoi G. Smoot a attiré l’attention: « le visage de Dieu »?

Voir ci-dessous en référence les articles de mon blog où j’ai donné ma « lecture de deux livres des fréres Bogdanov: « Le visage de Dieu » et « Au commencement du temps« . La thèse des Bogdanov y monte en puissance pour arriver à « l’Univers information« . C’est le point focal de l’hypothèse des Bogdanov, « La singularité initiale (le big bang porterait donc une seule information: l’information initiale, c’est à dire les conditions initiales de l’univers ».

Dans mon article d’octobre 2015 sur l’équation bogdanov j’ai écrit: Dans « Dieu et la science » (Avec Jean Guitton), les Bogdanov avaient écrit : « il est possible d’appréhender l’univers comme un message exprimé dans un code secret, sorte de hiéroglyphe cosmique, qu’on commence juste à décrypter. Il semble inscrit dans la trame de l’univers primordial, où l’avenir de tout ce qui est semble déjà crypté dans la première lumière. Cela veut peut-être dire que l’origine profonde de la trame cosmologique pourrait se situer ailleurs que dans le monde physique. L’univers repose bien sur des lois physiques, mais leur origine semble curieusement située en-dehors de notre réalité, antérieure au big bang lui-même. »

Ma lecture de « le visage de Dieu » (1 article)

Ma lecture de « Aucommencement du temps« : 

Au commencement du temps 1) introduction

Au commencement du temps 2) En voiture vers l’origine (le graal de la physique)

Au commencement du temps 3-1) 2009-1979 le film du temps vu à l’envers: pour commencer le voyage, un rocher sur le ligne d’Univers étape 1.

Au-commencement du temps 3-2) 1979-1830 le film de l’univers vu à l’envers – étape 2

Au commencement du temps 3-3) Des figuiers Romains au Trocadéro: étape 3

Au commencement du temps -3-4) dans l’abime du temps (-15000 à -65 millions-d-années)

Au commencement du temps 3-5) des araignées géantes sur la colline de chaillot (-80 à 500 millions d’années)Au commencement du temps 3-6) paris au fond de l’océan (530 millions à 3,5 milliards d’années)

Au commencement du temps 3-7) vers la toute première lumière (5 milliards à 3,7 milliards d’années)

Au commencement du temps3-8) la première seconde de l’univers après-le-big-bang

Au commencement du temps 3-9) l’étincelle du big bang 10-puiss-43-secondes après le big bang

Au commencement du temps 3-10) avant le big-bang

Au commencement du temps 3-11) l’instant zéro

monblogdereflexions: l’affaire Bogdanov un de mes premiers articles

Au commencement du temps 4-1) comment tout cela est-il possible?

Au commencement du temps 4-2) Le passé peut-il encore exister?

Au commencement du temps 4-3) La cinquième dimension

Au commencement du temps 4-4) une première trace dans le feu du big bang

Au commencement du temps 4-5) l’univers est-t-il rond?

Au-commencement du temps 4-6) le secret de l’énergie noire

Au commencement du temps 4-7) l’étrange expérience d’Aspect

Au commencement du temps 4-8) Au fond d’un trou noir

Au commencement du temps 4-9) l’Univers information – première partie

Au commencement du temps 4-9) L’Univers information deuxième partie

http://sciences.blogs.liberation.fr/2011/01/10/lorigine-de-lunivers-lavis-detienne-klein/ (étienne Klein: l’origine de l’univers)

https://arxiv.org/a/motl_l_1.html (Lubos Motl’s articles on arXiv)


Cette lumière originelle peut-être celle que cherchent les scientifiques et qui pourrait expliquer le onde dans lequel nous vivons? Un des seuls scientifiques à avoir examiné les travaux des deux frères sans les rejeter a priori comme anti-scientifiques fut Luboš Motl   sur son site motls.blogspot.fr). Dans mon article à propos du livre de Motl sur l’équation Bogdanov, j’ai noté au chapitre 3): « Un scientifique a pourtant pris au sérieux les hypothèses des Bogdanov, le Pr Lubos MOTL comme on peut le voir dans le site delaportedominique.free.fr (Presses de la renaissance): « Le Professeur Lubos Motl, l’un des physiciens les plus réputés de la théorie des cordes et ancien professeur à Harvard s’est penché sur les travaux des frères Bogdanov. Science fiction ou véritable découverte scientifique, le professeur Lubos Motl tranche. […] le Pr Motl a fini par conclure que les Bogdanov proposent « rien de moins qu’une théorie alternative à la gravité quantique. » Dans cet article, j’ai aussi évoqué l’équation Bogdanov au chapitre 3  et je me suis étendu plus longuement aux chapitres 4 et 5 sur le code secret de l’Univers et sur la big bang.

Avant de préciser un peu plus le contenu l’hypothèse des Bogdanov, on peut se demander pourquoi un théoricien des cordes comme Motl a soutenu les deux frères? (Lubos Motl, jeune professeur de physique théorique, est l’un des chercheurs les plus réputés en théorie des cordes. Il a été admis dans la prestigieuse Société des Chercheurs de Harvard (2001-2004), l’un des cercles de recherche les plus fermés au monde. Il est l’auteur d’un article considéré aujourd’hui comme fondateur de la théorie matricielle des cordes. Très présent sur Internet, son blog « the Reference Frame » est devenu l’un des blogs scientifiques les plus célèbres sur la planète. Il a signé des articles avec les plus grands physiciens théoriciens d’aujourd’hui. (Cumrun Vafa, Andrew Strominger, Robbert Dijkgraaf etc…) parmi lesquels « Higher-order corrections to masscharge relation of extremal black holes” ou encore “Matrix string theory, contact terms and superstring field theory.”).  Je comprends mieux en lisant au chapitre 6 de l’équation Bogdanov ce que le Pr Motl a écrit a sujet de la thèse des deux frères: Shan Majid a écrit en 1999: « La physique à l »échelle de Planck suppose nécessairement des spéculations. cependant les idées des Bogdanov concernant la fluctuation de la signature de la métrique comptent, à mon avis, parmi les plus originales et intéressantes que j’ai eu l’occasion de rencontrer. » Au début de ce chapitre 6, Motl raconte ce que je résume maintenant.: … « Quelques soutenances de thèse inattendues… En avril 1905, à Zurich, un certain inconnu, nommé Albert Einstein,  lors modeste employé au bureau des brevets de Berne, était en train de soutenir devant un jury plutôt méfiant sa thèse de doctorat sur a taille des molécules. Or avant d’en arriver là il avait déjà subi bien des revers. Son premier Directeur de thèse était le Dr Heinrich Weber, physicien des plus conservateurs. Einstein lui avait proposé en 1901 un sujet de thèse audacieux portant sur la mesure de la vitesse de la lumière par interférométrie: Weber refusera ce projet sans ménagements. Pas découragé, Einstein va alors suggérer d’étudier les effets de la chaleur sur la conductivité électrique d’un matériau. Nouveau refus. Enfin, il soumettra un troisième manuscrit, nettement plus orthodoxe, sur les processus de diffusion de la chaleur. Et Weber refusera tout net… parce qu’Einstein avait rédigé son projet de thèse sur un papier qui ne correspondait pas aux standards officiels de l’université. Furieux, Einstein refusera de reprendre son sujet sur le papier exigé et … il ne sera jamais publié. En 1901, Alfred Kleiner deviendra son nouveau Directeur de thèse. Einstein se lancera dans un sujet totalement différent et,  plein d’espoir présentera son nouveau texte à Kleiner. Son document sera finalement rejeté par Kleiner, qui fut étonné d’y trouver d’y voir apparaître des critiques sur les travaux de Boltzmann et d’autre chercheurs? Finalement Einstein devra renoncer à sa thèse…. En réalité, loin de l’image qu’on se fait du glorieux physicien, Einstein se heurtera à quantité d’obstacles inattendus avant d’obtenir son diplôme. Pourquoi? Parce que ses idées étaient très en avance par rapport aux idées admises à l’époque, et en conséquence difficiles à assimiler. »  On connait maintenant la suite et la façon dont Einstein a bouleversé les conceptions du monde.

Un autre cas est celui de Werner Heisenberg, un des pères de la mécanique quantique. Il a obtenu sa thèse en 1923, la même année que Louis de Broglie. Mais, tout comme le père de la mécanique ondulatoire, Heisenberg était très en avance sur son temps et allait également rencontrer de sérieux « problèmes » pour obtenir son diplôme. En fait, le jury faillit refuser sa thèse. Il était composé de quatre professeurs, parmi lesquels figuraient Wilhem Wien, chargé de superviser les aspects expérimentaux et.Arnold Sommerfeld, codirecteur en charge de la physique. Au cours de la première partie, Heisenberg répondit sans hésitation à toutes les questions à propos des outils mathématiques employés. Mais cela tourna au vinaigre quand Wien posa des questions sur le fonctionnement du microscope ou sur celui d’une batterie. Heisenberg balbutia des réponses incohérentes et sombra dans la plus grande confusion. Ce n’est alors qu’à l’issue d’un débat houleux qu’Heisenberg décrocha « in extremis » son doctorat (tout comme les Bogadnov d’ailleurs!). Et que dire de Galileo Galilei qui a dû également subir toutes sortes de difficultés pour avoir soutenu une théorie héliocentrique « politiquement incorrecte ».

Voici maintenant les thèses des Bogdanov. 

Thèse de Grichka bogdanov: http://www.theses.fr/1999DIJOS073 –Sous la direction de Daniel Sternheimer. Soutenue en 1999 à Dijon.

Résumé.  « Nous proposons de montrer que la signature Lorentzienne de la métrique d’espace-temps (+++-) n’est plus fixe à l’échelle de Planck lp et présente des « oscillations quantiques » entre les formes Lorentzienne et Euclidienne (+++±) jusqu’à l’échelle 0 où elle prend la forme Euclidienne (+ + + +). 1- Au plan algébrique, nous suggérons l’existence d’un « chemin de fluctuation » (3, 1)-(4, 0) excluant la signature ultra-hyperbolique (2, 2). Nous construisons l’espace topologique quotient *top décrivant la superposition des métriques Lorentzienne et Riemannienne. Nous montrons que *top comporte un point singulier S correspondant à l’origine de l’espace de superposition. En termes de groupes quantiques, nous établissons le lien entre q-déformation et « déformation » de la signature, notre principal résultat étant la construction du nouveau produit bicroisé cocyclique Mc(H).« 

https://tel.archives-ouvertes.fr/tel-00001502/document (Grichka Bogdanov -mathématiques FLUCTUATIONS QUANTIQUES DE LA SIGNATURE DE LA METRIQUE A L’ECHELLE DE PLANCK )

Résumé : « Nous proposons dans cette recherche une solution nouvelle quant à l’existence et à la nature de la singularité initiale d’espace-temps. Dans le contexte de la supergravité N=2 et de la théorie topologique des champs, nous considérons que la singularité initiale d’espace-temps correspond à un instanton gravitationnel singulier de taille zéro caractérisé par une configuration Riemanienne de la métrique (++++) en dimension D = 4. Associée à un état topologique correspondant à l’échelle zéro de l’espace-temps, la singularité initiale n’est pas ici considérée en termes de divergences des champs physiques, mais peut être résolue dans la cadre de la théorie topologique des champs. Nous obtenons ce résultat à partir de l’observation physique selon laquelle le pré espace-temps doit être considéré en équilibre thermique à l’échelle de Planck. En conséquences, nous suggérons de manière naturelle qu’à l’échelle de Planck l’espace-temps à l’équilibre doit être soumis à la condition KMS. Dans ce contexte, l’état KMS dans lequel se trouve le pré espace-temps à l’échelle de Planck pourrait être interprété comme le résultat d’une unification entre  » état physique » (métrique lorentzienne +++-) et « état topologique » (métrique riemanienne ++++). Ceci correspond à la phase d’oscillation quantique de la signature de la métrique déjà mise en évidence dans des travaux antérieurs. Nous suggérons alors que « la singularité d’échelle zéro » doit être comprise en termes d’invariants topologiques, en particulier le premier invariant de Donaldson. En conséquences, nous proposons ici un nouvel invariant topologique, asssocié à l’échelle 0 et de la forme Z = TR (-1)s, que nous appelons « invariant de singularité ». Enfin, dans ce contexte, nous proposons la conjecture selon laquelle le problème de l’interaction inertielle pourrait être expliqué en termes d’amplitude topologique liée à l’instanton gravitationnel singulier caractérisant, dans notre approche, l’échelle zéro de l’espace-temps. »
liens: https://tel.archives-ouvertes.fr/tel-00001503v1/document (Igor Bogdanov –
ETAT TOPOLOGIQUE DE L’ESPACE TEMPS A ECHELLE 0). »

https://tel.archives-ouvertes.fr/tel-00012196/document (Théories des champs topologiques et mécanique quantique en espace non-commutatif M. Lefrançois)

https://webusers.imj-prg.fr/~christian.blanchet/enseignement/2009-10/M2/ch4_tqft.pdf (théorie quantique des champs topologique)

http://smf4.emath.fr/en/Publications/Gazette/2010/124/smf_gazette_124_7-14.pdf (TQFT : de la théorie des champs à la topologie quantique Christian Blanchet)

https://fr.wikipedia.org/wiki/Th%C3%A9orie_quantique_des_champs (théorie quantique des champs)

k3) La thèse des Bogdanov est t-elle une alternative à la gravité quantique.?
Comme on l’a vu précédemment, Lubos Motl a pris très au sérieux l’hypothèse des Bogdanov au point de les soutenir et d’écrire son livre intitulé « l’équation Bogdanov ». Dans le livre « avant le big bang, on trouve l’annexe VIII en page 298« SERIEUSEMENT AU SUJET DES ARTICLES DES BOGDANOV » par le professeur Lubos Motl. Ce dernier écrit en substance: « On m’a récemment demandé de donner mon opinion à propos des articles des Bogdanov et j’ai donc répondu par un commentaire neutre« . Mais il est surpris de constater que des chercheurs comme Peter Voit, tout en clamant que tout le monde devrait travailler à des alternatives à la théorie des cordes, soient si incroyablement négatifs au sujet des articles des Bogdanov. Pourquoi? Parce que les frères Bogdanov  proposent quelque chose qui, d’un point de vue spéculatif, a le potentiel pour être une alternative à la gravité quantique. 
Motl est un  cordiste et il pense que cette approche est « une nouvelle description duale de la gravité quantique, c’est à dire de la théorie des cordes ou théorie M » de Witten. Il faut savoir que la construction mathématique de la théorie des cordes reste incomplète et ses ingrédients physiques – supersymétrie, unification, dimensions supplémentaires – n’ont pas encore été vus. Affaire donc à suivre sur les deux plans. Pour Motl, ce qu les Bogdanov proposent est un nouveau cadre possible pour la gravité quantique et qu’il est peu probable que cela fonctionne, mais c’est vraisemblablement plus probable que la gravité quantique à boucles ou toutes ces approches discrètes de quantification de la gravité dont « les difficultés mortelles ont été identifiées en détail. » Comme on le sait, la géométrie classique. Dans son article précédent, Motl parlait de la fabrication de légendes concernant l’hypothèse des Bogdanov d’une fluctuation de signature de l’espace-temps. Face à ces dénégations et rejets, Luboš Motl fait une proposition spéculative humoristique: On admet habituellement que la géométrie classique s’effondre totalement en deçà du mur de Planck, de même que la topologie de l’espace-temps etc

Mais supposons que la géométrie reste une représentation utile et qu’on commence avec une action généralisée en gravité (sur le modèle de l’action d’Einstein-Hilbert ou comme Doug Sweetser). A courtes distances, le problème des infinis fait que la métrique n’est plus un degré de liberté pertinent dans la mesure où nous devons réellement rajouter tout « une tour » (ou un empilement) de nouveaux états, prédits par la théorie des cordes. Mais, dit Motl, essayons de supposer, avec les frères Bogdanov, que ce n’est pas le cas. La tâche sera alors d’achever leur travail et commencer par trouver une théorie gravitationnelle adéquate qui traitera toute les difficultés rencontrées. Ce sera là une théorie duale de l’expansion de l’univers en deçà du mur de Planck, ou peut-être est t-il possible d’arriver à des quantités importantes en gravité quantique? Sinon, il faut prouver que cette proposition des Bogdanov est inapplicable dans toute théorie de la gravitation. Quant à moi, dit Luboš Motl, je ne peux faire ni l’un ni l’autre.

En conclusion, vu l’état actuel de la physique et du besoin qui semble se manifester d’une nouvelle physiquefaut t-il rejeter à priori ce qu’écrivent le Bogdanov sous prétexte que c’est valider l’hypothèse d’un créateur. Pourquoi alors ne pas rejeter  la position de la vision anthropique de Trin Xhuan Thuan? Elle, qui satisfait ma recherche de valeurs en mon âme et conscience et oriente mon éthique et mes comportements et qui est considérée.par ses pairs comme scientifique!

K4) Pour terminer ce chapitre:

Je vais citer ce que les Bogdanov écrivent dans « avant le big bang annexe XI pages 307 à 311 […] « La grande unification des trois forces (électromagnétisme, radio-activité ou force faible), force nucléaire ou force forte)dans le modèle standard (physique des particules) a donc donné lieu à une formule célèbre, aujourd’hui acceptée dans le monde entier: SU(3)XSU(2)XU(1) (qu’on appelle symétries internes). A présent, lorsqu’on rajoute la dernière force, à savoir la gravité, à l’union des trois premières, on réalise l’unité complète de toutes les interactions de l’espace-temps. Comme la symétrie d’espace-temps s’écrit SL(2,C) ou SL(2,C) -voir chap 5, la supersymétrie complète prend la forme suivante: SL(2,C)XSU(3)XSU(2)XU(1). Or, nous avons démontré que l’équation ci-dessus est strictement équivalente décrivant l’unification sous supersymétrie, entre le groupe de Lorentz et le groupe euclidien à 4 dimensions.Autrement dit, l’unification des 4 forces de l’univers est réalisée, à l’échelle de Planck, dans le cadre de la fluctuation de signature. Pour mettre les spécialistes sur la piste de notre résultat, il suffit d’observer que le nombre de générateurs du modèle standard d’unification des 4 forces (au niveau local, est de 18). Or, notre propre « espace d’unification » [qui est en fait l’espace homogène symétrique SO(3,1)XSOX4 quotienté diagonalement par SO(3)] est également, dans la mesure où la théorie est supersymétrique, de dimension 18. Un tel résultat ouvre de fantastiques perspectives, puisque , pour la première fois, se trouve réalisée, en dimension 5 la fameuse unification de toutes les forces de l’univers. Et probablement que si celle-ci n’avait pas pu être obtenue jusqu’ici, c’est parce que toutes les tentatives ont toujours été effectuées dans le cadre d’une signature fixe. Or, aucune unification à basse dimension n’est possible, justement, si on ne considère pas la fluctuation de signature. C’est donc l’un des nouveaux « trésors »  que l’on peut trouver dans la fluctuation de la direction du temps à l’échelle de Planck ».

liens: 

Symmetry Transformations, the Einstein-Hilbert Action, and Gauge Invariance

https://fr.wikipedia.org/wiki/Michio_Kaku http://www.ipcms.unistra.fr/wp-content/uploads/2014/06/spehler-cpts-2010.pdf (Symétrie Chirale et Théorie unifiée sous forme spinorielle par Dominique Spehler IPHC Groupe de Physique Théorique)

http://www.lpthe.jussieu.fr/~zuber/Cours/global_12.pdf (symétries globaales en physiqu des particules)

https://www.researchgate.net/profile/C_De_Matos/publications (clovis jacento de matos) http://65.54.113.26/Author/7026431/clovis-jacinto-de-matos (clovis jacento de matos publications)

https://arxiv.org/vc/math/papers/0211/0211337v1.pdf (CONSTRUCTION OF COCYCLE BICROSSPRODUCTS BY TWISTING G. BOGDANOV)

http://www.tapir.caltech.edu/~chirata/ph236/2011-12/lec33.pdf (le lagrangien de la relativité générale)

L) Conclusion:

Cet article fait suite à mon article « D’après Aurélien Barrau, Univers multiples Chap 1) » que j’avais conclu par: Aujourd’hui, la physique est en crise, le monde est en crise. Avec Lee Smolin et son « rien ne va plus en physique« , Carlo rovelli Parle de la schizophrénie bipolaire des physiciens (voir une révolution inachevée). La vision anthropique de Trin Xhuan Thuan et ma vision évangélique du monde, qui s’origine dans les mythes de l’Un et de l’ordre, émergeant du Chaos initial, semblent  exclus de la vision de bien des physiciens et cosmologues qui découvrent, comme l’a fait Jean Pierre Luminet, que l’Univers ne peut avoir été infiniment dense et donc que le big bang ne peut avoir été tel qu’on se l’imaginait depuis de nombreuses décennies. La possibilité d’un avant big bang a été mise en évidence avec un univers précédent qui se serait condensé jusqu’à une taille extrêmement petite mais non nulle et qui aurait « rebondi » en un big bounce pour donner notre Univers actuel en expansion après le phénomène d’inflation cosmique. Un des derniers rebondissements de ces recherches, avec Lee Smolin, pourrait bien aboutir avec sa « renaissance du temps »  à une solution de la contradiction entre la physique quantique et la théorie de la relativité. A priori, ce serait une théorie unifiée des interactions fondamentales. Mais souvenons-nous qu’Aurélien Barrau envisageait au chapitre 3 b) de mon article 1):  les propositions nouvelles face aux problèmes et paradoxes« peuvent constituer une « pulsion inchoactive » qui poussera vers une découverte sans précédent  ou bien vers un réenchantement de ce que l’on savait déjà sans en avoir pris la « dé-mesure » et finalement vers une nouvelle sacralisation du « monde »Je crois plutôt que les multivers de Barrau et « la renaissance tu temps » de Lee Smolin vont achever le mouvement entamé par la remise en cause des mythes de l’Un et d’Ordre, une remise en cause de fait d’un « Créateur » générée par l’effet Copernic.


Nous avons vu , au cours de ce long article, de nombreuses théories nouvelles ou hypothèses qui proposent l’unification de la physique ou tout au moins des explications aux dilemmes et paradoxes que la cosmologie moderne a mis en évidence. Mais, au chapitre 8, dans « la renaissance du temps« , Lee Smolin prévient: Le paradigme newtonien ne peut même pas apporter un embryon de réponse à ces questions et dilemmes: Pourquoi ces lois? Pourquoi ces conditions initiales de l’univers? Quel mécanisme les a t-il sélectionnées parmi une multitude infinie de possibilités? etc. Il appelle ceci « l’erreur cosmologique« : appliquer à l’Univers entier dans sa globalité des lois établies et vérifiées sur des sous-systèmes. Dans le paradigme newtonien, ce que nous appelons une loi doit s’appliquer dans tous les cas. Mais l’application d’une loi à n’importe quel morceau d’univers implique une approximation, parce que nous devons négliger toutes les interactions entre ce morceau et le reste de l’univers. Donc les applications vérifiables d’une loi sont toutes des approximations. Smolin fait remarquer en particulier que les lois se vérifient sur beaucoup de sous-systèmes. Mais si on veut appliquer une loi de la nature sans approximation, c’est à l’univers entier qu’il faudrait l’appliquer, alors que nous n’avons qu’un seul Univers sous la main. Et un seul cas n’apporte pas suffisamment d’indices pour justifier l’affirmation qu’une loi particulière de la nature s’applique. C’est ce que Lee Smolin appelle le dilemme cosmologique. Et pourquoi cette loi et pas une autre? De plus, beaucoup de théories cosmologiques (théorie des cordes, équation d’Einstein …) admettent en réalité une infinité de solutions, parmi lesquelles une seule correspond à notre univers. Doit-on se résoudre à admettre l’existence d’une infinité d’Univers inaccessibles pour pouvoir justifier le notre par un principe anthropique

Nous pensions, dit Lee Smolin, savoir comment répondre à ces questions. Une théorie unique mathématiquement cohérente pourrait incorporer les 4 lois fondamentales de la nature. Mais cet espoir a été anéanti. On se trouve face à ce qu’il appelle « le défi cosmologique« . On vient de voir qu’il faudrait étendre la science à une théorie de l’Univers entier. Le défi est qu’il ne peut pas exister de composante statique qui puisse servir de cadre de référence, car tout dans l’Univers change et il n’existe aucun extérieur., rien qui puisse être qualifié de fond par rapport auquel les mouvements du reste de l’Univers (que nous négligeons). Or, toutes les théories physiques divisent le monde en deux parties, une partie « dynamique », qui change, et une statique, qui contient un « fond » de choses immuables, comme les constantes fondamentales.  Le « défi cosmologique » consiste à formuler une théorie de l’univers « indépendante du fond », purement dynamique afin de ne rien supposer d’extérieur à l’Univers:  » Lorsqu’on fait de la « physique dans une boite », le « fond » comprend notamment les conditions initiales, et la méthode expérimentale permet de contrôler les conditions initiales afin de s’assurer que les lois sont indépendantes de ces conditions. En cosmologie, cette distinction entre « lois » et « conditions initiales » aggrave le problème qu’elle résout « dans une boite » : si nos observations du fond diffus cosmologique ne correspondent pas bien à la théorie de l’inflation cosmologique, faut-il corriger la loi ou les conditions initiales? Smolin critique aussi les théories effectives qui décrivent bien ce qui se passe à une certaine échelle de grandeur, mais en négligeant l’influence de ce qui est beaucoup plus grand ou plus petit. » Pour Smolin, la théorie issue du défi cosmologique doit tenir compte de tout, sans rien négliger. »

Tout est parti dans la civilisation occidentale de la Grèce antique, de sa cosmogonie et ses dieux qui sont à la source de sa mythologie avec les philosophes et la naissance des sciences occidentales. Les théoriciens comme Lee Smolin ou Rovelli citent volontiers Anaximandre pour évoquer l’émergence de la science moderne qui se libère des dieux. Elle a vraiment pris son essor avec  avec Copernic et Galilée. C’est ici la source du paradigme newtonien d’où sont issues toutes nos théories modernes, de la physique newtonienne aux théories quantiques et à la Relativité. Mais, comme on l’a vu précedemment, elles nous mènent aux paradoxes et dilemmes et qui on fait dire à Smolin: « rien ne va plus en physique. Comment dépasser le paradigme newtonien et qui va relever le défi? Les hypothèses de Nassim Haramein ou celle des Bogdanov sont peut-être folles, mais n’y a t-il pas là un indice précurseur? Et si dans un nouveau paradigme il y avait des incursions de la conscience ou de la spiritualité Bernard Dugué écrit dans le site: « la stratégie de Smolin n’est pas seulement scientifique, elle couvre le sens de notre existence. Penser dans le temps (et non hors du temps comme la science actuelle), consiste à accepter l’incertitude de la vie. Smolin fustige ceux qui pensent hors du temps, n’acceptant pas la précarité de la vie, en adoptant la tolérance zéro, en imaginant que l’objectif de l’humanité est d’éliminer tous les risques. Mais non, être humain, c’est vivre suspendu entre le danger et la science. »


Epilogue:

Bernard Dugué dans agoravox.fr avait aussi affirmé qu’Einstein s’est trompé sur la gravité: « la relativité générale d’Einstein n’est pas la bonne théorie car elle manque de sens physique, ce qui assez étonnant car Einstein était un vrai physicien, bien plus qu’un mathématicien, mais il n’a pas pu accéder aux secrets de l’univers. L’énigme du cosmos est dans la matière quantique. L’échec d’Einstein face aux questions et dévoilements suggérés par la mécanique quantique est un symbole fort, celui d’un possible basculement de la physique moderne vers une physique de l’information qui n’est pas encore aboutie, loin s’en faut. L’aventure physique du 21ème siècle est tracée sous le signe de l’échec de la cosmologie relativiste. Qui avec ses succès expérimentaux est une victoire à la Pyrrhus. La vérité a été sacrifiée sur l’autel de l’efficacité. Le grand Einstein n’a pas compris comment la mécanique quantique marque l’avènement d’une nouvelle physique.« 

Etienne Klein, dans le site clio-cr.clionautes.org, pose « la question de l’origine entre pourquoi et pour quoi ?, entre physique et philosophie.

Aujourd’hui, nombre de physiciens se sont engagés dans une quête, celle de l’unification, celle de la théorie ultime, c’est-à-dire un formalisme mathématique réunissant les quatre interactions fondamentales. Le but d’une telle théorie ? Embrasser la totalité du réel, rien de moins. Et c’est ici, une fois de plus, qu’Etienne Klein nous met en garde contre les dérapages plus ou moins contrôlés de certains scientifiques [14] qui ont vite fait de quitter le champs de la physique pour celui de la métaphysique et, emportés par leur plume et parfois leur lyrisme agnostique ou non, de nous vendre de l’absolu…Quelque soit le destin de cette hypothétique théorie, aucune équation mathématique ne dévoilera le sens du monde, aucune nous dira pourquoi et pour quoi il y a quelque chose plutôt que rien [15] .
La physique ne peut traiter que les questions de physiques et ne peut donc traiter la totalité des questions qui se rapportent à l’origine de l’univers car celles-ci, comme celle du sens, ne sont pas toutes d’ordre physique. La science peut éclairer des questions d’ordre philosophique mais en aucun cas prétendre les résoudr
e.Étienne Klein précise aussi qu’une « théorie du tout » ne permettra sans doute pas de tout expliquer : elle nous apprendra peut-être comment l’univers est apparu mais la question du pourquoi restera entière. »

 Alors, attendons la Révélation!

FIN DE CE LONG ARTICLE


liens pour ce chapitre: http://www.agoravox.fr/actualites/technologies/article/la-renaissance-du-temps-pour-en-151868 (lee smolin : la renaissance du temps, pour en finir avec la crise de la physique)

http://www.drgoulu.com/2015/12/31/la-renaissance-du-temps-22/#.WBJDgdSLTDc (la renaissance du temps deuxième partie)

http://www.drgoulu.com/2015/01/28/la-renaissance-du-temps/#.WBJEotSLTDc (la renaissance du temps preière partie)

http://www.doublecause.net/index.php?page=Revolution_Incomplete.htm (Calo rovelli: La schizophrénie bipolaire des physiciens)

http://www.doublecause.net/index.php?page=Pensee_Magique.htm (carlo rovelli: Réconcilier le fou (pensée absurde) et l’illuminé (pensée magique) -Le fou = celui qui pense que la réalité se crée dans le présent (réduction d’état quantique). L’illuminé = celui qui pense que la réalité est déjà créée dans le futur de façon inchangeable (déterministe) Le fou illuminé = l’auteur de cet article qui tente de réconcilier les deux

http://www.admiroutes.asso.fr/larevue/2015/153/multivers.htm ((Lee Smolin et l’hypothèse du multiversJean-Paul Baquiast 24/01/2015)

http://automatesintelligent.blog.lemonde.fr/2009/06/17/lee-smolin-contre-le-multivers-le-temps-retrouve/   (Lee Smolin. Contre l’hypothèse du multivers. Le temps retrouvé Jean-Paul Baquiast 06/2009)

http://www.futura-sciences.com/sciences/dossiers/cosmologie-dela-big-bang-balade-cosmologie-1679/page/9/ (aurélien barrau:  Au-delà du Big Bang : théorie des cordes et gravitation quantique)

https://leseditionsdeschavonnes.com/2013/12/01/2013-12-j-a-lu-pour-vous-discours-sur-l-origine-de-l-univers-d-etienne/   http://quantumfuture.net/quantum_future/bogdanov1.htm (The Bogdanov Affaire started with a rumor that two brothers published at least 4 bogus papers in physics journals as a hoax)

Garret Lisi:

https://fr.wikipedia.org/wiki/Antony_Garrett_Lisi (Garett lisi et sa théorie du tout:  https://arxiv.org/pdf/0711.0770v1.pdf)

http://motls.blogspot.fr/2007/11/exceptionally-simple-theory-of.html (une théorie du tout exeptionnellement simple)

http://motls.blogspot.fr/2013/11/state-of-art-non-susy-so10-grand.html (état de l’art: modèles de grande unification non SUSY SO(10) voir connes

http://transcyberphysix.blogspot.fr/2012/06/supersymetrie-contre-geometrisation-non.html (Supersymétrie versus Géométrisation Non-Commutative : échec(s) ou(et) pa(t)s dans la description de l’infiniment petit? le billet d’Alain Connes qui annonce lui même la réfutation expérimentale d’une des prédictions de son modèle.http://noncommutativegeometry.blogspot.fr/2008/08/irony.html voir la réaction de motl: http://motls.blogspot.fr/2006/10/alain-connes-et-al-predictions-for.html

http://www.pansemiotique.com/bojowald-et-l%E2%80%99eternel-retour/ (bojowald et l’éternel retour: cette théorie pourrait bien être la théorie unifiée de la physique)

le temps et le problème du temps:

http://www.parutions.com/pages/1-85-428-4047.html (Le rêve des physiciens: Stephen Hawking Roger Penrose La Nature de l’espace et du temps – voir une bréve histoire du temps)

https://www.youtube.com/watch?v=Ple3bXSSHFg (étienne klein: le temps est t-il un cas de conscience?)</