Tout petit résumé de physique fondamentale.
Le titre aurait pu être aussi « la physique pour les super nuls »... En effet, avec l'article d’aujourd’hui, je souhaite juste dire à quoi correspondent les grandes théories physiques actuelles, en toute modestie. Je ne veux pas les expliquer dans le détail mais simplement rappeler de quoi on parle quand on prononce les mots « modèle standard », « mécanique quantique » ou autre nom barbare. C'est tout. Ma source d'information n'a pas été seulement wikipédia. Le livre de Brian Greene, L'univers élégant, m'a apporté une aide précieuse.
La physique fondamentale est une science qui, comme son nom l'indique, tente de percer le secret de la nature fondamentale de la matière. Évidemment, pour un blog qui s'appelle dieuexiste.com et qui donc a pour vocation de comprendre la nature profonde de tout ce qui existe, c'est une discipline passionnante, et pas du tout hors sujet.
Tout d'abord, il faut savoir qu'étudier le fonctionnement de la matière c'est d'abord étudier les interactions entre particules élémentaires qui entraînent la formation des objets qui nous entourent. D'ailleurs, l'histoire de la découverte des particules élémentaires est intimement liée à celle de leurs interactions.
A. Les interactions fondamentales.
Pour l'instant, il est communément admis qu'il existe quatre types d'interaction fondamentale : l'interaction gravitationnelle, l'interaction électromagnétique, l'interaction forte et l'interaction faible.
1. L'interaction gravitationnelle est une force de faible intensité uniquement attractive qui s'exerce entre les masses. La pesanteur est en la plus manifestation la plus évidente.
2. L'interaction électromagnétique s'exerce entre particules chargées électriquement. Elle peut être attractive et répulsive, ce qui explique qu'à grande échelle, elle a tendance à s'annuler et n'a donc pas le même effet que la gravitation.
3. L'interaction forte permet la cohésion des particules du noyau atomique. Cette force n'agit que sur les particules ayant ce qu'on appelle une couleur. Il existe trois ''couleurs'' : le rouge, le bleu et le vert.
Ce ne sont que des étiquettes, sans aucun rapport avec la couleur au sens visuel du terme, évidemment : la ''couleur d'une particule'', c'est à dire sa charge sous l'interaction forte, mesure sa réaction à la force nucléaire forte, de même que sa charge électrique mesure sa réponse à la force électromagnétique.
4. L'interaction faible est une force peu intense de très courte portée. Il s'agit vraiment de la petite dernière, que personne ne connaît sauf les physiciens. Elle provoque ce qu'on appelle la désintégration bêta qui est la transformation d'un proton en un neutron, un électron et un neutrino.
Nous savons donc maintenant, grâce à l'inventaire des interactions fondamentales, qu'une particule élémentaire de matière peut avoir une masse, une charge électrique, une charge forte ou ''couleur'', mais aussi une charge faible... Très bien. Maintenant voyons comment se comportent ces interactions ou plutôt comment les théories actuelles disent que les interactions fondamentales et les particules élémentaires se comportent : les plus connues et les plus utilisées de ces théories sont la gravitation classique et l'électromagnétisme dont tout le monde connaît les pères, à savoir Newton et Maxwell, mais aussi la thermodynamique, la relativité restreinte, la relativité générale, la mécanique quantique et le modèle standard.
B. La mécanique classique et les relativités restreinte et générale.
Newton (1643-1727) était un grand savant. Il a formalisé les lois de la gravitation et de la mécanique classique. D'ailleurs le principe d'inertie est appelé la première loi de Newton et le principe fondamental de la dynamique, la deuxième loi de Newton. Le fait de comprendre que les masses s'attirent avec une intensité inversement proportionnelle à la distance qui les sépare est évidemment génial. Tout ce qu'il a découvert nous permet maintenant de faire des calculs dans des domaines variées.
Ainsi, au XVIIIème siècle, Euler a déduit du principe fondamental de la dynamique appliqué à une particule fluide sa fameuse équation d'Euler, laquelle permet par exemple de calculer des lignes d'eau. Plus tard ont été établies les équations de Navier-Stokes, plus générales : elles sont censées décrire le mouvement des fluides newtoniens pour des milieux continus. De fait, la mécanique classique a de nombreuses applications : la mécanique du point, la mécanique des milieux continus, la thermodynamique, la résistance des matériaux... Bref, que des disciplines passionnantes, cela va sans dire. Et qui m'ont effectivement passionnées quand je les ai étudiées. Même si j'en ai envie, je ne vais pas m'éterniser sur elles, ce n'est pas l'objet de cet article.
Par contre, je me dois maintenant de signaler que toute cette mécanique newtonienne n'est qu'une approximation. Une approximation certes très précise et largement suffisante dans notre quotidien terrestre, mais une approximation quand même. En effet, Albert Einstein (1879-1955) a démontré que les équations de Newton ne correspondaient pas aux observations faites sur la vitesse de la lumière. Ce génie a prouvé que celle-ci est une donnée ''absolue'' et en d'abord déduit, en 1905, la relativité restreinte.
La relativité restreinte est assez facile à comprendre : quelques équations suffisent à l'appréhender. D'ailleurs je me permets de vous remontrer la petite animation interactive que j'avais publié en janvier 2008.
Elle est très simple d'utilisation : le premier curseur bleu, que l'on peut manipuler soi-même, fixe la vitesse maximale de votre vaisseau. L'unité choisie est GAMMA, facteur exprimant le caractère relativiste de la vitesse choisie. En effet, il faut savoir que lorsque GAMMA vaut 2, le temps passe deux fois moins vite dans le vaisseau que sur Terre. L'expression mathématique de GAMMA se trouve dans l'article de 2008.
Comme je l'indiquais à l'époque, lors de ce voyage spatial virtuel, il y a trois phases : une phase d'accélération d'intensité équivalente à la pesanteur terrestre, une phase d'apesanteur et une phase de décélération là encore d'intensité équivalente à la pesanteur terrestre. Avant de cliquer sur le bouton « Voyage ! », il faut choisir la vitesse de déroulement du temps dans l'animation en choisissant un des trois boutons suivants : « Faire passer le temps pas trop vite. », « Faire passer le temps très vite. », « Faire passer le temps très vite. » On peut changer en cours de route.
Le deuxième curseur bleu fixe l'objectif qui doit se trouver entre 100 et 900 années-lumière. Un petit exemple : imaginons que l'on souhaite se rendre sur Kepler 22-b, une exoplanète possiblement habitable située à environ 620 années-lumière de la Terre. Supposons que l'on dispose d'un vaisseau capable d'atteindre une vitesse relativiste équivalente à un GAMMA de 50.
Et bien les calculs issus des formules de la relativité restreinte nous disent que nous atteindrons alors Kepler 22-b en 19 ans et 105 jours. Sauf que lorsque nous poserons le pied sur cette planète sans doute plein de surprises, 622 ans se seront écoulées sur Terre ! Un sacré voyage dans le futur n'est ce pas ?
Voilà en tout cas une belle illustration de la principale conséquence de la relativité restreinte. Einstein est allé plus loin que cela, bien évidemment. Avec la relativité générale, il nous explique ce qu'est vraiment la gravitation. Grâce à cette théorie, on apprend notamment que nous sommes en réalité dans un espace à 4 dimensions appelé ''l'espace-temps'', que celui-ci peut être courbe et qu'il est déformé par la matière.
On sait maintenant que plus le champ gravitationnel dans lequel on se trouve est puissant, moins le temps passe vite. Encore faut-il supporter les effets de marée... On sait aussi que l'univers est régulièrement traversé par des ondes gravitationnelles voyageant à la vitesse de la lumière. Et on peut discuter de cosmologie, de taux d'expansion et de constante de Hubble grâce aux équations de Friedmann, cas particulier des équations de la relativité générale (voir à ce propos cet article passionnant de juin sur la topologie). Il y aurait tant à dire sur le sujet... Mais ce n'est pas l'objectif de l'article.
C. L'électromagnétisme.
Je ne peux pas parler de l'électromagnétisme classique sans évoquer James Maxwell (1831-1879), le fameux physicien écossais. Cet homme brillant est principalement connu pour avoir unifié en un seul ensemble d'équations, les équations de Maxwell, l'électricité, le magnétisme et l'induction, en incluant une importante modification du théorème d'Ampère. Ce fut à l'époque le modèle le plus unifié de l'électromagnétisme. Il est également célèbre pour avoir découvert que la lumière est un phénomène électromagnétique. Il a de plus démontré que les champs électriques et magnétiques se propagent dans l'espace sous la forme d'une onde et à la vitesse de la lumière. Quelques mots sur les équations de Maxwell :
L'équation de Maxwell-Gauss décrit comment un champ électrique est généré par des charges électriques : cette loi relie le flux électrique à travers n'importe quelle surface de Gauss fermée avec la charge électrique contenue dans le volume délimité par cette surface.
L'équation de Maxwell-Thomson énonce qu'il n'existe aucune "charge magnétique" analogue à une charge électrique. Au contraire, le champ magnétique est généré par une configuration nommée dipôle, qui n'a pas de charge magnétique mais regroupe une charge positive et une charge négative reliées entre elles et inséparables. À titre d'exemple, cela permet de montrer que le flux magnétique total à travers n'importe quelle surface de Gauss est nul, ou que le champ magnétique est un champ solénoïdal.
L'équation de Maxwell-Faraday décrit comment la variation d'un champ magnétique peut induire un champ électrique. Ce principe est bien sûr utilisé dans les générateurs électriques.
L'équation de Maxwell-Ampère énonce que les champs magnétiques peuvent être générés de deux manières : par les courants électriques et par la variation d'un champ électrique.
Dans ma jeunesse, j'aimais manipuler ces équations de Maxwell. C'était un bon exercice et cela introduisait les calculs d'électricité que l'on faisait ensuite.
D. La mécanique quantique.
Il faut savoir que la mécanique quantique est née avec un problème très concret : celui du corps noir. Je ne vais pas le décrire en détail, mieux vaut lire le livre de Brian Greene pour ça, mais j'aimerais au moins dire qu'il s'agit de calculer l'énergie produite par un four allumé.
Au XIXème siècle, grâce à la thermodynamique, les physiciens ont pu déterminer la quantité d'énergie que les parois chaudes du four cèdent aux ondes électromagnétiques, pour chaque longueur d'onde possible. Le résultat obtenu est simple : chacune des ondes autorisées, quelque soit sa longueur d'onde, transporte la même quantité d'énergie. Celle-ci est déterminée par la température du four. Mais alors quelles sont ces ondes autorisées ?
La théorie de l'électromagnétisme de Maxwell implique que les ondes engendrées par les parois chaudes du four doivent présenter un nombre entier de bosses et de creux, s'ajustant parfaitement entre les parois opposées : cela ne correspond pas à toutes les ondes possibles et imaginables, mais néanmoins cela correspond à un nombre infini d'ondes, donc à une énergie dégagée par le four INFINIE.
Résultat ridicule : il y a clairement un problème quelque part, qui est donc le fameux problème du corps noir. Que le célèbre Max Planck (1858-1947) a résolu. Il a supposé puis vérifié que l'énergie que peuvent fournir ces ondes n'est pas une fonction continue, de la température en l'occurrence, mais une fonction discrète : elle ne peut prendre que certaines valeurs. Comme si l'énergie était livrée par paquets, par quanta. D'où le nom de la discipline ainsi inventée : la mécanique quantique.
Ceci implique qu'il existe une valeur minimale de l'énergie qu'une onde est censée fournir. Si on suppose que cette valeur minimale augmente avec la fréquence de l'onde, on résout le problème. En effet, lorsque la fréquence de l'onde est telle que cette valeur minimale dépasse la valeur que l'onde est censée fournir, alors cela signifie que l'onde en question ne peut fournir aucune contribution au calcul de l'énergie totale. Or le nombre d'ondes présentant un nombre entier de bosses et de creux pour le four en question et dont la fréquence est inférieure à la fréquence limite évoquée dans la phrase précédente est FINIE : problème résolu. Une autre contribution importante au problème de la nature de l'électromagnétisme a été l'explication de l'effet photoélectrique par Einstein, encore lui, en 1905.
« Mais qu'est ce que l'effet photoélectrique ? » me demanderez vous sûrement... C'est le physicien allemand Heinrich Herz qui a été le premier à découvrir, en 1887, que lorsque la lumière éclairait certains métaux, ceux-ci émettaient des électrons : c'est l'effet photoélectrique.
Son caractère étrange se manifeste lorsque l'on étudie certaines propriétés des électrons expulsés.
À première vue, on pourrait penser qu'en augmentant l'intensité de la lumière, on devrait augmenter la vitesse des électrons éjectés, puisque l'onde électromagnétique a plus d'énergie. Or ce n'est pas le cas. En fait, c'est le nombre d'électrons éjectés qui augmentent, tandis que leur vitesse reste constante. Par ailleurs, on a observé que la vitesse des électrons expulsés n'augmente que lorsque la fréquence de la lumière incidente augmente : pour une raison inconnue à l'époque, c'est la couleur du faisceau de lumière incident qui détermine si les électrons sont éjectés et, s'ils le sont, avec quelle énergie.
Einstein a suggéré d'intégrer la conception de Planck de l'énergie ondulatoire ''morcelée'' à une nouvelle description de la lumière : pour lui, celle-ci devrait en fait être considérée comme un jet de petits paquets de lumière, les fameux photons. Il a alors expliqué qu'un électron est éjecté d'une surface métallique lorsqu'il est heurté par un photon suffisamment énergétique.
Einstein a suggéré que l'énergie de chaque photon est proportionnelle à la fréquence de l'onde lumineuse, le facteur de proportionnalité étant la constante de Planck : E = h*v.
C'est ainsi que le savant a établi que l'intuition qu'avait eue Planck du ''morcellement'' de l'énergie révélait un aspect fondamental des ondes électromagnétiques : celles-ci sont composées de particules, petits paquets, ou quanta de lumière. Le ''morcellement'' de l'énergie de chacune de ces ondes est dû au fait qu'elles sont constituées de ces petits ''paquets''.
La découverte d'Einstein a représenté un progrès immense. Et c'est le même gars qui découvre, la même année, la fabuleuse relativité restreinte que l'on a vu un peu plus haut... Génial. Néanmoins, néanmoins... Les choses ne sont pas si simples...
Il est temps pour moi de vous parler d'une troisième expérience, fondamentale dans l'histoire de la mécanique quantique : celle de la double fente de Young. Je ne pense pas qu'il serait opportun de décrire ici tout le processus. Mais en tout cas, cette expérience montre que les particules de lumière d'Einstein sont bien différentes de celles de Newton. Si l'effet photoélectrique nous montre que la lumière possède des caractéristiques corpusculaires, l'expérience de Young révèle que la lumière exhibe des propriétés d'interférence propre aux ondes. Ensemble, elles indiquent que la lumière a en même temps des propriétés ondulatoires et corpusculaires : il nous faut admettre qu'il est possible d'être une onde et une particule à la fois.
C'est ici que la remarque de Feynman selon laquelle « personne ne comprend la théorie quantique » prend tout son sens. Certes on peut élaborer des expressions comme « dualité onde/corpuscule », on peut même traduire ces mots en langage mathématique qui décrit le résultat de ces expériences avec une précision incroyable. Mais il est extrêmement difficile de comprendre, de façon vraiment intuitive, ces propriétés fascinantes du monde microscopique.
En 1923, un jeune aristocrate français, le prince Louis de Broglie, a suggéré que la dualité onde/corpuscule s'appliquait non seulement à la lumière, mais aussi à la matière. La relation E=mc² relie la masse à l'énergie. Planck et Einstein ont relié l'énergie des ondes à leur fréquence ; donc en combinant les deux, la masse doit elle aussi avoir une incarnation ondulatoire. Il y a eu confirmation expérimentale.
En 1929, le physicien allemand Max Born a postulé que l'onde d'un électron doit se comprendre en termes de probabilités. En réalité, on s'est rendu compte qu'il est impossible de prédire l'issue exacte d'une expérience (comme la mesure de la position) : le mieux que l'on puisse faire est de donner la probabilité d'occurrence de telle issue ou de telle autre.
Cela dit, si l'on peut déterminer mathématiquement la forme précise des ondes de probabilité, on est en mesure de tester leurs prédictions probabilistes, en répétant de nombreuses fois une même expérience.
Quelques mois à peine après la proposition de De Broglie, Schrödinger a franchi le pas décisif dans cette direction et établi l'équation qui régit la forme et l'évolution des ondes de probabilité ou, comme on a fini par les baptiser, des fonctions d'onde. Il n'a pas fallu longtemps avant que l'équation de Schrödinger et l'interprétation probabiliste soient mises à contribution pour obtenir des prédictions extraordinairement précises. Ce qui est vraiment étrange dans tout ça, c'est que les électrons, et tout le reste d'ailleurs, ne peuvent pas être décrits à la fois comme se trouvant à tel endroit et ayant telle vitesse.
Einstein a tenté de minimiser l'importance de cette entorse à la théorie classique en argumentant que, même si le raisonnement quantique limite manifestement notre connaissance de la position et de la vitesse, l'électron, lui, a toujours une position et une vitesse précises. Et bien le plus incroyable est que c'est faux !!!
Là pour une fois, le grand Einstein s'est trompé.
Heisenberg a prouvé qu'il existe un compromis entre la précision des mesures de position et de vitesse, mais il a montré aussi qu'il existe un arrangement du même type entre la précision des mesures d'énergie et la durée de ces mesures. Selon la théorie quantique, on ne peut pas dire qu'une particule a précisément telle ou telle énergie à tel ou tel instant. Cela a une conséquence pittoresque : du fait du principe d'incertitude, l'univers se révèle être un milieu effervescent si on l'examine sur des distances de plus en plus courtes et des échelles de temps de plus en plus petites.
Bref, globalement, la mécanique quantique se démarque de la physique classique par deux aspects : des règles différentes quant à l'additivité des probabilités, et l'existence de grandeurs physiques ne pouvant se manifester que par multiples de quantités fixes, appelés quantas, qui donnent leur nom à la théorie. Je ne peux m'empêcher de rappeler que selon moi, les étranges caractéristiques de la mécanique quantique prouvent que la matière est fondamentalement de l'information.
Je pense m'être très bien justifié dans cet article d'octobre 2012. Comme je le disais à l'époque, supposons que l'on essaie d'en savoir davantage sur un petit élément fondamental de matière qui serait donc une information : cela reviendrait à essayer d'avoir plusieurs informations sur quelque chose qui n'est fondamentalement qu'une seule information. Intuitivement, on comprend bien que c'est impossible : on ne peut pas découper une information fondamentale en plusieurs informations, car sinon cela signifierait qu'elle n'est pas fondamentale... Le principe d'incertitude d'Heisenberg, qui explique en fait qu'il est impossible d'avoir trop d'informations à la fois sur les constituants microscopiques de la matière, est selon moi une confirmation expérimentale de ce raisonnement simple mais logique.
Même le grand Einstein ne comprenait pas son collègue Heisenberg. Pourtant, les bizarreries de la mécanique quantique pourraient sans doute s'avérer compréhensibles et même naturelles une fois que l'on aura admis que le constituant fondamental de la matière est en fait l'information !
L'INFORMATION, mes amis !!
E. Le modèle standard, et la théorie des cordes.
Dans les années 30 et 40, sous l'influence de figures marquantes telles que Dirac, Pauli, Schwinger, Dyson, Tomonaga et Feynman, les théoriciens n'ont eu de cesse de trouver un cadre mathématique permettant de décrire la turbulence de l'univers microscopique. L'équation de Schrödinger n'a pu fournir qu'une description approchée de la physique microscopique. Cette approximation marche tant que l'on ne se penche pas sur l'agitation microscopique, mais elle s'effondre dès que l'on s'en approche. L'ingrédient physique essentiel qu'il a négligé d'inclure dans son formalise, c'est la relativité restreinte. Les efforts pour concilier relativité restreinte et théorie quantique se sont d'abord concentrés sur la force électromagnétique et ses interactions avec la matière.
Ainsi, une succession d'avancées astucieuse a donné naissance à l'électrodynamique quantique, la plus simple des théories quantiques des champs relativistes :
Théorie quantique car aspects probabilistes et incertitude font partie de ses ingrédients de base.
Théorie des champs car elle relie les principes quantiques à la notion classique du champ de forces, ici, le champ électromagnétique de Maxwell.
L'électrodynamique quantique est sans doute la plus précise des théories de la nature. L'accord entre prédiction théorique et réalité physique est véritablement stupéfiant : ample confirmation expérimentale au milliardième près.
Après un tel succès, au cours des années 60 et 70, les physiciens ont cherché à s'en inspirer pour développer une compréhension analogue des forces faible, forte et gravitationnelle. Cette voie s'est révélée très fructueuse pour les interactions faible et forte. Deux théories très semblables à l'électrodynamique quantique ont ainsi vu le jour : la chromodynamique quantique et la théorie électrofaible.
La théorie électrofaible est l'unification des interactions faible et électromagnétique : Glashow, Salam et Weinberg ont reçu le prix Nobel en 1979 pour avoir établi qu'à des températures et à des énergies suffisamment élevées, ces champs fusionnent. Dans notre univers froid, par brisure de symétrie, les forces électromagnétique et faible ont des formes différentes.
La théorie électrofaible est capable de prédire les masses des bosons W et Z, vecteurs de la force faible, tandis que le photon, vecteur de l'interaction électromagnétique a une masse nulle. Ces différences de masse expliquent la différence considérable de comportement de ces interactions à basse énergie.
La chromodynamique quantique décrit l’interaction forte. Elle utilise la théorie quantique des champs pour rendre compte de l’interaction entre quarks et gluons. D’après cette théorie, les quarks et les antiquarks sont confinés dans les particules qu’ils constituent et possèdent une propriété nommée « couleur » qui peut être bleue, verte ou rouge, et qui est analogue à la charge électrique de la force électrostatique. Un autre principe fondamental de la théorie est qu’une particule constituée de quarks doit toujours avoir une couleur résultante blanche.
Le confinement des quarks provient du fait que la force qui les lie croît avec la distance. Lorsque celle-ci est très faible, les quarks n’interagissent presque pas entre eux, tandis que plus ils s’écartent et plus l’interaction s’intensifie.
Au cours des vingt dernières années, de multiples expériences ont été réalisées pour tester les théories quantiques des trois forces non gravitationnelles : elles ont passé toutes les épreuves haut la main. Concrètement les expérimentateurs mesurent tout d'abord la bagatelle de 19 paramètres : masses, charges, intensités, etc.. Les chercheurs insèrent ces données dans leurs théories quantiques des particules matérielles et de leurs interactions. Les résultats expérimentaux confirment de façon spectaculaire les prédictions théoriques ainsi obtenues. En raison de ce succès, les physiciens ont baptisé cette théorie des trois interactions non gravitationnelles et des trois familles de particules matérielles « modèle standard de la physique des particules ».
Le tableau suivant permet d'avoir une vue globale des composants de la matière et des bosons de jauge selon ce fameux modèle standard :
Les composants de la deuxième et troisième famille sont instables à nos énergies. Voici maintenant les caractéristiques des composants de la première famille vis à vis des trois forces fondamentales concernées par le modèle standard :
Un paramètre n'est pas évoqué par ce tableau : le spin. Le spin est la version quantique du mouvement de rotation sur soi : les particules élémentaires possèdent une quantité de spin intrinsèque qui est soit un nombre entier, soit un nombre demi-entier (multiple de la constante de Planck) et qui ne change jamais. L'électron, le positron, les neutrinos, les quarks ont tous un spin de ½. Les porteurs de forces non gravitationnelles à savoir le photon, le gluon et les bosons W et Z ont un spin de 1. Le boson de Higgs a un spin de 0 et le graviton, hypothétique particule vecteur de la gravitation, a un spin de 2.
À ce propos, le graviton n'est pas la seule particule élémentaire hypothétique. Si ce qu'on appelle la supersymétrie est valable, alors devraient également exister les superpartenaires : le sélectron, particule de spin 0 superpartenaire de l'électron, le sneutrino et les squark, également de spin 0. De même, les particules d'interaction devraient avoir des superpartenaires de spin 1/2 : les photinos pour les photons, les gluinos pour les gluons et, pour les bosons Z et W, les zinos et les winos. Pour l'instant ces particules n'ont pas encore été détectés. Quel bordel ce modèle standard !!
Mais revenons à la star de l'année 2012, l'héroïne du prix Nobel de physique 2013, qui, elle, a, semble-t-il, bien été détectée : j'ai nommé bien sûr... Le boson de Higgs !!
Quelques mots d'explication... Nous remarquons que les bosons W et Z ont une masse, exprimée en GeV dans le premier des deux tableaux, alors que le photon non. Or les symétries de jauge requièrent que les transmetteurs de force, c'est à dire les bosons de jauge, soient de masse nulle.
Pour contourner le problème, les scientifiques ont dû inventer un mécanisme pour briser la symétrie de jauge permettant aux bosons W et Z d'acquérir une masse : ils ont postulé l'existence d'un nouveau champ, surnommé champ de Higgs.
Le champ de Higgs différerait des autres champs en ce qu'à basse température, donc à basse énergie, l'espace ''préférerait'' être rempli de particules de Higgs que de ne pas l'être. Les bosons W et Z interagissent avec ce champ, contrairement au photon, et avancent à travers l'espace comme s'ils se mouvaient dans une mélasse épaisse. De cette manière, ils acquièrent une masse effective. À haute énergie, les interactions dans le champ de Higgs sont telles que l'espace n'est plus rempli de cette mélasse Higgsienne, les bosons W et Z perdent leur masse et la symétrie entre eux et le photon n'est plus brisée, elle est ''restaurée''. La masse d'un boson électrofaible, MAIS a priori PAS celle des quarks attention, ne serait donc qu'une manifestation de cette interaction des particules avec le champ de Higgs dans lequel elles ''baignent''.
Le champ de Higgs permet de préserver la symétrie à haute énergie et d'expliquer la brisure de la symétrie à basse énergie. Ce n'est donc pas le boson de Higgs qui donne directement une masse aux autres bosons : le boson BEH est une manifestation du champ de Higgs et du mécanisme de Higgs. Le mécanisme de Higgs pourrait exister sans lui.
Si vous ne comprenez rien à ce que je viens de raconter, vous pouvez toujours essayer de regarder cette petite vidéo, qui simplifie bien trop les choses, à mon goût :
On croit d'ailleurs y comprendre que le mécanisme de Higgs est responsable de la masse de toutes les particules. Ce qui est faux. Voilà, voilà... Ce n'est pas super clair ni super simple, mais c'est déjà quelque chose. En tout cas, mon article est presque terminé. Il est hélas long, trop long, beaucoup trop long. Tant pis... Mais avant de mettre un point final à ce rappel quelque peu saugrenu sur un site du style de dieuexiste.com, j'aimerais dire quelques mots sur la théorie des cordes, pour le plaisir...
Cette dernière a été forgée pour expliquer à la fois le modèle standard et la relativité générale dans une même formulation mathématique : il s'agissait donc de trouver une sorte de théorie du tout, unifiant la gravitation et le modèle standard. D'abord, il n'y a pas une mais des théories des cordes. Pour chacune d'entre elles, notre monde, serait non pas constitué de trois dimensions spatiales, mais de 10, 11, ou même 26 dimensions. Ces dimensions, qui ne sont pas les trois grandes que nous connaissons, resteraient invisibles parce qu'elles seraient, selon la théorie, enroulées à une échelle microscopique, de l'ordre de la longueur de Planck, ce qui ne nous permettrait pas de les détecter : impossible de vérifier expérimentalement le modèle donc...
Les constituants fondamentaux de la matière seraient alors des cordes pouvant vibrer dans toutes les dimensions imaginées, ce qui expliquerait leur grande variété. L'une de ces théories, celle dite des supercordes, propose de prendre en compte 10 dimensions spatiales avec une variété bien particulière pour jouer le rôle des dimensions enroulées : les espaces de Calabi-Yau. Ces espaces sont des objets mathématiques particulièrement complexes, que les scientifiques ont bien du mal à maîtriser.
De telles difficultés pourraient augurer de résultats impressionnants. Pourtant ce n'est pas le cas. Les déceptions sont nombreuses : description imparfaite du modèle standard, problèmes pour expliquer l'existence de l'énergie noire, irréfutabilité comme nous l'avons vu plus haut, absence de prédictions, etc...
Bref ce n'est pas super-génial...
D'autant qu'il n'y a pas que pour la relativité générale, c'est à dire la gravitation, que le modèle standard reste muet : il n'explique ni l’hypothétique matière noire ni la très étrange énergie noire évoquée dans cet article de juin et dont l'origine reste un mystère. Rien non plus sur l'énigmatique inflaton, supposé être à la cause de l'inflation cosmique. Un modèle qui ne concerne que 4% du contenu de l'univers, et seulement à basse énergie, ne peut prétendre à être la Grande Explication sans sombrer dans le ridicule. Il y a visiblement encore beaucoup de boulot à faire...
Et si on ne prenait pas le problème par le bon bout ? Je ne suis pas physicien, mais pourquoi ne pas partir de ce qui, comme je l'ai expliqué plus haut, semble évident : le composant fondamental de l'univers, c'est tout simplement l'information.
Dans l'histoire, les hommes ont successivement affirmé que la petite brique fondamentale à la base de tout ce qui existe était l'atome, puis le proton ou le quark, l'électron, maintenant la corde. Cette fuite en avant, ce jeu sémantique absurde, n'a guère de sens. Par contre dès que l'on dit que cette petite brique c'est l'information, on apporte enfin une vraie définition : l'information, c'est le pixel de l'écran, l'information, c'est ce qu'on ne peut découper en deux informations. Ce qui, comme je l'ai déjà écrit, nous explique pourquoi la mécanique quantique existe. Voilà une conclusion intéressante et ouverte pour ce gigantesque article : et si l'information était le constituant fondamental du monde dit ''matériel'', comme la lettre est le constituant fondamental du mot et comme Dieu est l'origine de toute chose ??
J'essaierai, dans un tout prochain article, d'expliquer plus précisément quelle est ma théorie. Quoiqu'il en soit, il faut d'ores et déjà savoir qu'en partant de cette déduction toute simple - car il me semble que c'est davantage une déduction naturelle qu'une hypothèse - on arrive a priori à expliquer tout un tas de phénomènes physiques de manière complètement logique, comme je l'expliquais en 2011.
Et surtout on comprend de mieux en mieux que l'univers a été créé pour la conscience : comme s'il fallait partir de ce phénomène en grande partie métaphysique qu'est l'esprit pour trouver les clés des mystères de l'univers.
Incroyable non ?
La conscience n'est pas un accident malheureux comme le pensait Jean-Paul Sartre, mais l'objectif du monde. Ça change certaines choses, vous en conviendrez...
À suivre !!!