Overblog
Suivre ce blog Administration + Créer mon blog

best of 2011-2014

Le Grand Mystère de la conscience.

Publié le par Miteny

Comme vous le savez sûrement, ce blog a été créé et continue de vivre dans le seul but de m'aider à résoudre le délicat et épineux problème de la conscience. A-t-il réussi ? En grande partie oui puisqu’il m'a permis de comprendre un fait important : l’insuffisance du corps. Les causes biologiques, c'est à dire le fonctionnement de cette fabuleuse machine qu’est le corps humain, ne peuvent pas suffire à expliquer l'existence de la conscience de soi. Je pense que c’est clair. Clair et irréfutable. Mais est-ce suffisant ? Ne serait-ce pas là au contraire qu'une introduction ? En effet, quand on dit que quelque chose manque mais qu'on ne dit rien sur ce qui manque, il est indéniable que le travail n'est pas terminé...

Pour tenter d'aller plus loin, je vais prendre un exemple en imaginant que je suis un des Jack Harper du film Oblivion . Comme vous le savez, je ne suis donc qu'un clone, une copie de l'original, un peu comme le sont les copies de Bob de l'expérience de pensée que j'avais imaginé dans cet article et reprise dans cet article. Je ne suis qu'une copie, un énième exécutable, quelconque parmi la foule des Jack Harper. Tech72 par exemple. Qu'est ce qui me différencie des autres Tech à part le numéro ?

  • Pas le corps puisque nous avons tous le même corps.

  • Pas l'histoire puisque nous avons tous la même histoire, les mêmes souvenirs.

Dans ces conditions, comme définir le ''moi'', comment Tech72 peut-il définir son ''moi'' ? Par le lien métaphysique me répondrez vous probablement tous en chœur... C'est le lien métaphysique qui est censé faire la différence. Pourtant tous les clones ne sont-ils pas censés avoir le même lien métaphysique ? Ce lien ne serait-il donc qu'un artifice inutile due à l'illusion que serait l'insuffisance du corps ??

Pour répondre à cette question, il faut d'abord rappeler que, comme je l'ai déjà expliqué plusieurs fois, ce lien n'est pas n'importe quoi : il n'est pas juste une fonction supplémentaire comme pourrait l'être un organe ou un bout de cerveau... En fait, il définit carrément ce qu'est la réalité. Dans mes posts précédents, j'ai dû admettre l'existence de plusieurs réalités pour résoudre le problème que me posait l'existence de plusieurs consciences. Attardons-nous un peu sur ce point bien étrange... Plusieurs réalités... Qu'est ce que cela peut bien signifier ? De prime abord, il est naturel de penser qu'il n'y a qu'une réalité. Un certain corps va produire de la douleur quand il est frappé ou ne va pas en produire : c'est soit l'un, soit l'autre. C'est bien ce que la logique semble nous suggérer. Eh bien non !! Aussi étonnant que cela paraisse, les deux affirmations contradictoires sont réelles en même temps. Impossible et absurde ? Vous êtes sûr ?

Reprenons donc la définition du mot réalité par wikipédia : « Le mot réalité désigne l’ensemble des phénomènes considérés comme existant effectivement par un sujet conscient. Ce concept désigne donc ce qui est perçu comme concret, par opposition à ce qui est imaginé, rêvé ou fictif. » Par un sujet conscient !! C'est écrit noir sur blanc dans le dictionnaire !!

C'est une précision très importante, car selon le sujet conscient, telle ou telle douleur sera ou ne sera pas réelle : c'est clair. Et d'ailleurs, je n'ai pas arrêté de l'expliquer sur ce blog. La définition même du mot réalité implique ainsi nécessairement la prise en compte de plusieurs réalités. Considérons maintenant l'affirmation A : ce corps produit de la douleur quand il est frappé. Cette affirmation est-elle vraie ou fausse ? Pour être sûr de bien répondre, continuons à adopter une démarche rigoureuse et assurons-nous de la définition du concept de vérité. D'après le dictionnaire, est vrai ce qui est conforme à la réalité ou ce qui se déduit logiquement, comme, par exemple, un théorème mathématique.

Dans ce cas là, c'est évidemment la première partie de la définition qui est pertinente. Pour avoir la réponse à notre question, il faut donc se demander si l'affirmation A est conforme à la réalité. Or la réponse est oui.. et non !! Cela dépend de la réalité dont on parle. Ce qui implique que l'affirmation A est à la fois vraie et fausse... Étonnant non ?!!

Étonnant et vertigineux. Car on peut alors se poser les questions suivantes : l'existence de plusieurs réalités est-elle vraie ? Est-elle réelle ? Est-il possible qu'une affirmation soit à la fois vraie et fausse ? La réponse à cette question peut-elle être vraie et fausse en même temps ?? Ce vertige rejoint celui que ressent Tech72 lorsqu'il essaie de définir ce qui le distingue des autres alors même qu'il comprend que rien ne peut le distinguer des autres.... Puisqu'il n'est qu'un clone quelconque. Pourtant quelque chose doit le distinguer des autres puisqu'il se sait distinct !!

En fait, c'est simple... À condition d'être rigoureux dans la définition des mots que l'on emploie. Il y a plusieurs réalités mais il n'y a qu'une seule logique. Si on définit la vérité comme l'ensemble des affirmations/propositions qui se déduisent logiquement, alors il n'y a qu'une vérité, laquelle englobe l'existence de plusieurs réalités. Bien sûr, les gens pensent généralement qu'il n'y a qu'une réalité... Simplement parce qu'ils confondent réalité et vérité. Tout cela n'est qu'une question de définition en fin de compte. Comme souvent.

On peut comprendre que cette confusion soit faite. Comment ne pas confondre vérité et réalité lorsqu'on considère que l'affirmation A citée plus haut ne peut avoir qu'une réponse ? Et on ne peut pas voir les choses autrement quand on pense qu'il n'y a que la matière. En effet tout processus physique qui engendre des phénomènes ne peut pas à la fois faire son boulot et ne pas faire son boulot : une seule solution est possible, il ne saurait en être autrement. Et cette solution est la réalité, qui du coup, ne peut être qu'unique. Autrement dit, lorsque l'on est matérialiste, on pense obligatoirement que la réalité est créée par la matière et que donc il n'y en a qu'une. Seulement, il faut voir les choses autrement et sortir de son ornière : l'affirmation A peut être à la fois vraie et fausse parce que le lien métaphysique crée une réalité supplémentaire à chaque fois qu'il ''agit'' sur la matière. C'est inévitable.

En vérité, la physique est incapable de fabriquer la moindre ''réalité'', telle que définie officiellement. Cette dernière est avant tout un concept MÉTAphysique : constituée de l'ensemble des quale, à savoir le plaisir, la douleur, ce qu'on voit, ce qu'on entend, ce qu'on touche, elle est issue des informations issues du monde extérieur qui sont traitées par le cerveau puis affectées par une sorte de substance ''divine'' que j'avais déjà évoquée dans cet article. Cette substance, ce lien métaphysique donne une sorte de valeur aux informations traitées et leur confèrent ainsi un statut de réalité. La nature de ce lien métaphysique correspond à la façon dont la personne appréhende le monde qui l'entoure... comme je l'ai expliqué dans cet article. En fait les deux s'influencent mutuellement : le côté matériel, c'est à dire l'environnement, la culture, les gènes, l'histoire personnelle, vont très profondément dicter ce que sera le lien d'une personne même si l'inverse n'est pas exclu. Ce qui rend le problème de la définition de la liberté encore plus complexe... Mais c'est un autre sujet.

Quoi qu’il en soit, la question principale de cet article vient de prendre une autre forme. Il s'agit maintenant de s'interroger sur la nature de cette substance divine, ce lien métaphysique, qui permet de ''fabriquer'' des réalités. Pourrait-on par exemple modéliser mathématiquement celui-ci ?? Le ''réduire'' en équations ?? En toute logique non, car sinon il serait modélisable et donc reproductible. Ce qui, vous le savez maintenant si vous avez été attentif à l'histoire de Jack Harper, est totalement impossible. Il faut donc imaginer qu'il fasse partie d'une autre sorte de ''choses''...

Oblivion-01.jpg

Reprenons calmement : Nous avons déjà vu que l'organisation de la matière est un langage mathématique, je l'ai expliqué moult fois. Les briques élémentaires de la matière sont des ''objets'', des concepts, assimilables à des 0 et 1 : voir cet article de 2012. Appelons les concepts de type L. Considérons maintenant que l'ensemble des liens métaphysiques existants, car il y en a beaucoup, soient des concepts de type S. La question que j'ai amenée par cet article est donc en fait la suivante : quelle est la différence entre un concept L et un concept S ?

Eh bien, je l'ai presque pratiquement déjà dit en fait : le concept L est le nom qu'on lui donne, le concept S non. Le concept L se réduit à sa notation ou à son expression mathématique, le concept S non... Alors bien sûr, les mots de Dieu ne sont pas comme les nôtres, ils sont plus précis. Mais l'idée reste la même : l'important pour un concept L n'est pas ce qu'il est en lui-même mais ce qu'il est par rapport aux autres concepts L. Et dans ce cas là, une notation, un code, une formule, suffit à recouvrir tout ce qu'il est. Au contraire, un concept S est inconnaissable par nature. Il sera donc toujours bien plus que n'importe quel nom qu'on pourrait lui donner. On peut lui en donner un, certes : c'est d'ailleurs ce que je fais en l'appelant ''concept S'' ou ''lien métaphysique''. Mais on ne pourra jamais dire qu'il EST ce nom et RIEN D'AUTRE. Une description ne pourra jamais être suffisamment précise pour envelopper l'entièreté de sa nature.

« Mais pour la matière non plus !! » me rétorquerez vous sans doute en beuglant comme un veau. Eh bien si... La matière est une organisation de concepts L, et rien d'autre. Elle est un ensemble de briques fondamentales, qui sont en fait des notations, des noms et des relations : des informations nommées ou formulées. C'est à dire un langage mathématique assimilable par exemple à la notion de groupe, mais en très élaboré. C'est d'ailleurs ce que j'ai répété à longueur d'articles en 2012 : l'univers est un langage... Certes sophistiqué, comme je l'ai illustré une nouvelle fois la semaine dernière, mais langage tout de même, ou code informatique si vous préférez cette métaphore. Or le langage, par définition, est constitué de mots qui sont leurs noms. C'est fort, c'est très fort. Vous n'allez pas nier qu'un mot est son nom, non ?

Par contre, au contraire du concept L, le concept S sera toujours plus que son nom. Ou que sa description, laquelle ne sera toujours qu'une suite de mots, donc aussi un concept L. Les concepts L formant un groupe au sens mathématique du terme : toute combinaison de concepts L fera partie du groupe des concepts L... J'espère que vous suivez.

Maintenant, tout en admettant l'évidente existence des concepts L, vous seriez sans doute tentés de me demander si l'existence des concepts S est possible, ne serait-ce que théoriquement. Et j'aurais tendance à vous répondre que non seulement elle est possible mais qu'elle est aussi nécessaire à l'existence des concepts L. Car après tout, qu'est ce qu'un nom ?

Un nom est une information. D'ailleurs j'ai souvent expliqué que la matière est information, ne serait-ce que le mois dernier par exemple, confirmant ainsi que la matière est une organisation mathématique, et rien d'autre. Le langage complexe qu'est la matière organisée représente toutes les formes que peut prendre l'existence. Autrement dit, tout ce que le concept S pourrait être. Les noms qu'il pourrait avoir... Tout ce qu'il ne sera jamais, car par définition le concept S ne peut pas se réduire à une description. Sinon il ferait partie du groupe des concepts L et donc serait incapable d'être la touche finale qui permet à la conscience de soi d'exister.

Dieu a besoin des concepts L pour tenter de se définir. Et, de la même façon, l'existence des noms n'a pas de sens s'il n'y a rien à nommer. On comprend pourquoi le type S est nécessaire à l'existence du type L. Et inversement. Un nom n'a de sens que par rapport aux autres noms : le 0 ne signifie rien sans le 1. Un concept L n'existe réellement qu'au sein d'une organisation de concepts L, au contraire du concept S, qui lui, peut exister par lui-même. Le concept S, le lien métaphysique, cherche à savoir ce qu'il est à partir des concepts L mais ne pourra jamais être satisfait. Au contraire, le concept L ne pourra jamais savoir qu'il n'est qu'un nom, car il est incapable de prendre conscience de lui-même seul, comme cela a été expliqué plus d'une fois sur ce blog. Et répété ici. Tout cela est bien étrange, bien mystérieux. Mais n'est ce pas la nature même de Dieu d'être un Grand Mystère ? N'est ce pas là ce que l'on a toujours entendu sur Lui ? Je crois qu'il est grand temps de faire le point sur ce qu'apporte cet article trop complexe pour être compris par le commun des mortels :

  • Au début de cet article je me demandais une nouvelle fois comment un clone pouvait réussir à se distinguer des autres clones alors même que rien ne peut le distinguer des autres.

  • J'en déduisais que le lien métaphysique avait seul ce pouvoir de ''créer la réalité'', cette dernière étant considérée dans la perspective de sa définition officielle.

  • Approfondissant le problème de la nature de ce fameux lien métaphysique, je me suis rendu compte qu'il fallait vraiment distinguer les concepts L, qui, dans leur forme élémentaire, sont leur nom et forment la matière, et les concepts S, inconnaissables par nature, qui constituent l'essence du lien. Qui dit inconnaissable dit incommunicable bien sûr et donc fondamentalement unique. Comme le sont les qualia...

  • Conclusion logique : le concept S peut, du fait de sa nature on ne peut plus mystérieuse, créer des réalités.

Il manque des développements, ça saute aux yeux : le travail n'est pas terminé. Comment une entité ''inconnaissable par nature'' pourrait-elle créer des réalités ? Quelle peut bien être le rapport entre ces deux propositions ? Pour le savoir, il faudrait creuser l'idée du concept inconnaissable par nature. Difficile, même si on peut d'ores et déjà affirmer pratiquement sans se tromper qu'un concept S possède certainement en lui bien plus de richesse, bien plus de puissance qu'un concept L qui n'est qu'un nom ou une organisation de noms : voilà sans doute pourquoi lui seul peut créer des réalités. Alors bien sûr, tout ce que je viens d'expliquer est bien trop ardu et bien trop abstrait pour un article aussi court. D'autant que celui-ci ne sera lu que par quelques internautes dont la débilité dépasse régulièrement les limites de mon imagination pourtant féconde. Je n'ai donc aucun espoir d'être compris là, malgré mes efforts. Vraiment aucun... J'ai par contre la certitude que je serai insulté.

Néanmoins, je me dois d'insister : je tiens là quelque chose. Ne serait-ce le fait que les briques fondamentales de la matière ne sont rien d'autre que des noms organisés mathématiquement entre eux, des informations fondamentales avec leurs interactions. La matière est un langage mathématique, informatique... Cela avait déjà été dit, mais là, l'idée se précise et c'est à mon humble avis une avancée fondamentale pour la science.

À suivre...

Petite vidéo musicale ayant un lien ténu avec le sujet de l'article.

Partager cet article
Repost0

Tout petit résumé de physique fondamentale.

Publié le par Miteny

Le titre  aurait pu être aussi « la physique pour les super nuls »... En effet, avec l'article d’aujourd’hui, je souhaite juste dire à quoi correspondent les grandes théories physiques actuelles, en toute modestie. Je ne veux pas les expliquer dans le détail mais simplement rappeler de quoi on parle quand on prononce les mots « modèle standard », « mécanique quantique » ou autre nom barbare. C'est tout. Ma source d'information n'a pas été seulement wikipédia. Le livre de Brian Greene, L'univers élégant, m'a apporté une aide précieuse.
La physique fondamentale est une science qui, comme son nom l'indique, tente de percer le secret de la nature fondamentale de la matière. Évidemment, pour un blog qui s'appelle dieuexiste.com et qui donc a pour vocation de comprendre la nature profonde de tout ce qui existe, c'est une discipline passionnante, et pas du tout hors sujet.
Tout d'abord, il faut savoir qu'étudier le fonctionnement de la matière c'est d'abord étudier les interactions entre particules élémentaires qui entraînent la formation des objets qui nous entourent. D'ailleurs, l'histoire de la découverte des particules élémentaires est intimement liée à celle de leurs interactions.


A. Les interactions fondamentales.
Pour l'instant, il est communément admis qu'il existe quatre types d'interaction fondamentale : l'interaction gravitationnelle, l'interaction électromagnétique, l'interaction forte et l'interaction faible.
1. L'interaction gravitationnelle est une force de faible intensité uniquement attractive qui s'exerce entre les masses. La pesanteur est en la plus manifestation la plus évidente.
2. L'interaction électromagnétique s'exerce entre particules chargées électriquement. Elle peut être attractive et répulsive, ce qui explique qu'à grande échelle, elle a tendance à s'annuler et n'a donc pas le même effet que la gravitation.
3. L'interaction forte permet la cohésion des particules du noyau atomique. Cette force n'agit que sur les particules ayant ce qu'on appelle une couleur. Il existe trois ''couleurs'' : le rouge, le bleu et le vert.
Ce ne sont que des étiquettes, sans aucun rapport avec la couleur au sens visuel du terme, évidemment : la ''couleur d'une particule'', c'est à dire sa charge sous l'interaction forte, mesure sa réaction à la force nucléaire forte, de même que sa charge électrique mesure sa réponse à la force électromagnétique.
4. L'interaction faible est une force peu intense de très courte portée. Il s'agit vraiment de la petite dernière, que personne ne connaît sauf les physiciens. Elle provoque ce qu'on appelle la désintégration bêta qui est la transformation d'un proton en un neutron, un électron et un neutrino.
Nous savons donc maintenant, grâce à l'inventaire des interactions fondamentales, qu'une particule élémentaire de matière peut avoir une masse, une charge électrique, une charge forte ou ''couleur'', mais aussi une charge faible... Très bien. Maintenant voyons comment se comportent ces interactions ou plutôt comment les théories actuelles disent que les interactions fondamentales et les particules élémentaires se comportent : les plus connues et les plus utilisées de ces théories sont la gravitation classique et l'électromagnétisme dont tout le monde connaît les pères, à savoir Newton et Maxwell, mais aussi la thermodynamique, la relativité restreinte, la relativité générale, la mécanique quantique et le modèle standard.
 

B. La mécanique classique et les relativités restreinte et générale.
Newton (1643-1727) était un grand savant. Il a formalisé les lois de la gravitation et de la mécanique classique. D'ailleurs le principe d'inertie est appelé la première loi de Newton et le principe fondamental de la dynamique, la deuxième loi de Newton. Le fait de comprendre que les masses s'attirent avec une intensité inversement proportionnelle à la distance qui les sépare est évidemment génial. Tout ce qu'il a découvert nous permet maintenant de faire des calculs dans des domaines variées.
Ainsi, au XVIIIème siècle, Euler a déduit du principe fondamental de la dynamique appliqué à une particule fluide sa fameuse équation d'Euler, laquelle permet par exemple de calculer des lignes d'eau. Plus tard ont été établies les équations de Navier-Stokes, plus générales : elles sont censées décrire le mouvement des fluides newtoniens pour des milieux continus. De fait, la mécanique classique a de nombreuses applications : la mécanique du point, la mécanique des milieux continus, la thermodynamique, la résistance des matériaux... Bref, que des disciplines passionnantes, cela va sans dire. Et qui m'ont effectivement passionnées quand je les ai étudiées. Même si j'en ai envie, je ne vais pas m'éterniser sur elles, ce n'est pas l'objet de cet article.
Par contre, je me dois maintenant de signaler que toute cette mécanique newtonienne n'est qu'une approximation. Une approximation certes très précise et largement suffisante dans notre quotidien terrestre, mais une approximation quand même. En effet, Albert Einstein (1879-1955) a démontré que les équations de Newton ne correspondaient pas aux observations faites sur la vitesse de la lumière. Ce génie a prouvé que celle-ci est une donnée ''absolue'' et en d'abord déduit, en 1905, la relativité restreinte.
La relativité restreinte est assez facile à comprendre : quelques équations suffisent à l'appréhender. D'ailleurs je me permets de vous remontrer la petite animation interactive que j'avais publié en janvier 2008.

Elle est très simple d'utilisation : le premier curseur bleu, que l'on peut manipuler soi-même, fixe la vitesse maximale de votre vaisseau. L'unité choisie est GAMMA, facteur exprimant le caractère relativiste de la vitesse choisie. En effet, il faut savoir que lorsque GAMMA vaut 2, le temps passe deux fois moins vite dans le vaisseau que sur Terre. L'expression mathématique de GAMMA se trouve dans l'article de 2008.
Comme je l'indiquais à l'époque, lors de ce voyage spatial virtuel, il y a trois phases : une phase d'accélération d'intensité équivalente à la pesanteur terrestre, une phase d'apesanteur et une phase de décélération là encore d'intensité équivalente à la pesanteur terrestre. Avant de cliquer sur le bouton « Voyage ! », il faut choisir la vitesse de déroulement du temps dans l'animation en choisissant un des trois boutons suivants : « Faire passer le temps pas trop vite. », « Faire passer le temps très vite. », « Faire passer le temps très vite. » On peut changer  en cours de route.
Le deuxième curseur bleu fixe l'objectif qui doit se trouver entre 100 et 900 années-lumière. Un petit exemple : imaginons que l'on souhaite se rendre sur Kepler 22-b, une exoplanète possiblement habitable située à environ 620 années-lumière de la Terre. Supposons que l'on dispose d'un vaisseau capable d'atteindre une vitesse relativiste équivalente à un GAMMA de 50.
Et bien les calculs issus des formules de la relativité restreinte nous disent que nous atteindrons alors Kepler 22-b en 19 ans et 105 jours. Sauf que lorsque nous poserons le pied sur cette planète sans doute plein de surprises, 622 ans se seront écoulées sur Terre ! Un sacré voyage dans le futur n'est ce pas ?
Voilà en tout cas une belle illustration de la principale conséquence de la relativité restreinte. Einstein est allé plus loin que cela, bien évidemment. Avec la relativité générale, il nous explique ce qu'est vraiment la gravitation. Grâce à cette théorie, on apprend notamment que nous sommes en réalité dans un espace à 4 dimensions appelé ''l'espace-temps'', que celui-ci peut être courbe et qu'il est déformé par la matière.
On sait maintenant que plus le champ gravitationnel dans lequel on se trouve est puissant, moins le temps passe vite. Encore faut-il supporter les effets de marée... On sait aussi que l'univers est régulièrement traversé par des ondes gravitationnelles voyageant à la vitesse de la lumière. Et on peut discuter de cosmologie, de taux d'expansion et de constante de Hubble grâce aux équations de Friedmann, cas particulier des équations de la relativité générale (voir à ce propos cet article passionnant de juin sur la topologie). Il y aurait tant à dire sur le sujet... Mais ce n'est pas l'objectif de l'article.

 

C. L'électromagnétisme.
Je ne peux pas parler de l'électromagnétisme classique sans évoquer James Maxwell (1831-1879), le fameux physicien écossais. Cet homme brillant est principalement connu pour avoir unifié en un seul ensemble d'équations, les équations de Maxwell, l'électricité, le magnétisme et l'induction, en incluant une importante modification du théorème d'Ampère. Ce fut à l'époque le modèle le plus unifié de l'électromagnétisme. Il est également célèbre pour avoir découvert que la lumière est un phénomène électromagnétique. Il a de plus démontré que les champs électriques et magnétiques se propagent dans l'espace sous la forme d'une onde et à la vitesse de la lumière. Quelques mots sur les équations de Maxwell :
L'équation de Maxwell-Gauss décrit comment un champ électrique est généré par des charges électriques : cette loi relie le flux électrique à travers n'importe quelle surface de Gauss fermée avec la charge électrique contenue dans le volume délimité par cette surface.
L'équation de Maxwell-Thomson énonce qu'il n'existe aucune "charge magnétique" analogue à une charge électrique. Au contraire, le champ magnétique est généré par une configuration nommée dipôle, qui n'a pas de charge magnétique mais regroupe une charge positive et une charge négative reliées entre elles et inséparables. À titre d'exemple, cela permet de montrer que le flux magnétique total à travers n'importe quelle surface de Gauss est nul, ou que le champ magnétique est un champ solénoïdal.
L'équation de Maxwell-Faraday décrit comment la variation d'un champ magnétique peut induire un champ électrique. Ce principe est bien sûr utilisé dans les générateurs électriques.
L'équation de Maxwell-Ampère énonce que les champs magnétiques peuvent être générés de deux manières : par les courants électriques et par la variation d'un champ électrique.
Dans ma jeunesse, j'aimais manipuler ces équations de Maxwell. C'était un bon exercice et cela introduisait les calculs d'électricité que l'on faisait ensuite.


D. La mécanique quantique.
Il faut savoir que la mécanique quantique est née avec un problème très concret : celui du corps noir. Je ne vais pas le décrire en détail, mieux vaut lire le livre de Brian Greene pour ça, mais j'aimerais au moins dire qu'il s'agit de calculer l'énergie produite par un four allumé.
Au XIXème siècle, grâce à la thermodynamique, les physiciens ont pu déterminer la quantité d'énergie que les parois chaudes du four cèdent aux ondes électromagnétiques, pour chaque longueur d'onde possible. Le résultat obtenu est simple : chacune des ondes autorisées, quelque soit sa longueur d'onde, transporte la même quantité d'énergie. Celle-ci est déterminée par la température du four. Mais alors quelles sont ces ondes autorisées ?
La théorie de l'électromagnétisme de Maxwell implique que les ondes engendrées par les parois chaudes du four doivent présenter un nombre entier de bosses et de creux, s'ajustant parfaitement entre les parois opposées : cela ne correspond pas à toutes les ondes possibles et imaginables, mais néanmoins cela correspond à un nombre infini d'ondes, donc à une énergie dégagée par le four INFINIE.
Résultat ridicule : il y a clairement un problème quelque part, qui est donc le fameux problème du corps noir. Que le célèbre Max Planck (1858-1947) a résolu. Il a supposé puis vérifié que l'énergie que peuvent fournir ces ondes n'est pas une fonction continue, de la température en l'occurrence, mais une fonction discrète : elle ne peut prendre que certaines valeurs. Comme si l'énergie était livrée par paquets, par quanta. D'où le nom de la discipline ainsi inventée : la mécanique quantique.
Ceci implique qu'il existe une valeur minimale de l'énergie qu'une onde est censée fournir. Si on suppose que cette valeur minimale augmente avec la fréquence de l'onde, on résout le problème. En effet, lorsque la fréquence de l'onde est telle que cette valeur minimale dépasse la valeur que l'onde est censée fournir, alors cela signifie que l'onde en question ne peut fournir aucune contribution au calcul de l'énergie totale. Or le nombre d'ondes présentant un nombre entier de bosses et de creux pour le four en question et dont la fréquence est inférieure à la fréquence limite évoquée dans la phrase précédente est FINIE : problème résolu. Une autre contribution importante au problème de la nature de l'électromagnétisme a été l'explication de l'effet photoélectrique par Einstein, encore lui, en 1905.
« Mais qu'est ce que l'effet photoélectrique ? » me demanderez vous sûrement... C'est le physicien allemand Heinrich Herz qui a été le premier à découvrir, en 1887, que lorsque la lumière éclairait certains métaux, ceux-ci émettaient des électrons : c'est l'effet photoélectrique.
Son caractère étrange se manifeste lorsque l'on étudie certaines propriétés des électrons expulsés.
À première vue, on pourrait penser qu'en augmentant l'intensité de la lumière, on devrait augmenter la vitesse des électrons éjectés, puisque l'onde électromagnétique a plus d'énergie. Or ce n'est pas le cas. En fait, c'est le nombre d'électrons éjectés qui augmentent, tandis que leur vitesse reste constante. Par ailleurs, on a observé que la vitesse des électrons expulsés n'augmente que lorsque la fréquence de la lumière incidente augmente : pour une raison inconnue à l'époque, c'est la couleur du faisceau de lumière incident qui détermine si les électrons sont éjectés et, s'ils le sont, avec quelle énergie.
Einstein a suggéré d'intégrer la conception de Planck de l'énergie ondulatoire ''morcelée'' à une nouvelle description de la lumière : pour lui, celle-ci devrait en fait être considérée comme un jet de petits paquets de lumière, les fameux photons. Il a alors expliqué qu'un électron est éjecté d'une surface métallique lorsqu'il est heurté par un photon suffisamment énergétique.
Einstein a suggéré que l'énergie de chaque photon est proportionnelle à la fréquence de l'onde  lumineuse, le facteur de proportionnalité étant la constante de Planck : E = h*v.
C'est ainsi que le savant a établi que l'intuition qu'avait eue Planck du ''morcellement'' de l'énergie révélait un aspect fondamental des ondes électromagnétiques : celles-ci sont composées de particules, petits paquets, ou quanta de lumière. Le ''morcellement'' de l'énergie de chacune de ces ondes est dû au fait qu'elles sont constituées de ces petits ''paquets''.
La découverte d'Einstein a représenté un progrès immense. Et c'est le même gars qui découvre, la même année, la fabuleuse relativité restreinte que l'on a vu un peu plus haut... Génial. Néanmoins, néanmoins... Les choses ne sont pas si simples...
Il est temps pour moi de vous parler d'une troisième expérience, fondamentale dans l'histoire de la mécanique quantique : celle de la double fente de Young. Je ne pense pas qu'il serait opportun de décrire ici tout le processus. Mais en tout cas, cette expérience montre que les particules de lumière d'Einstein sont bien différentes de celles de Newton. Si l'effet photoélectrique nous montre que la lumière possède des caractéristiques corpusculaires, l'expérience de Young révèle que la lumière exhibe des propriétés d'interférence propre aux ondes. Ensemble, elles indiquent que la lumière a en même temps des propriétés ondulatoires et corpusculaires : il nous faut admettre qu'il est possible d'être une onde et une particule à la fois.
C'est ici que la remarque de Feynman selon laquelle « personne ne comprend la théorie quantique » prend tout son sens. Certes on peut élaborer des expressions comme « dualité onde/corpuscule », on peut même traduire ces mots en langage mathématique qui décrit le résultat de ces expériences avec une précision incroyable. Mais il est extrêmement difficile de comprendre, de façon vraiment intuitive, ces propriétés fascinantes du monde microscopique.
En 1923, un jeune aristocrate français, le prince Louis de Broglie, a suggéré que la dualité onde/corpuscule s'appliquait non seulement à la lumière, mais aussi à la matière. La relation E=mc² relie la masse à l'énergie. Planck et Einstein ont relié l'énergie des ondes à leur fréquence ; donc en combinant les deux, la masse doit elle aussi avoir une incarnation ondulatoire. Il y a eu confirmation expérimentale.
En 1929, le physicien allemand Max Born a postulé que l'onde d'un électron doit se comprendre en termes de probabilités. En réalité, on s'est rendu compte qu'il est impossible de prédire l'issue exacte d'une expérience (comme la mesure de la position) : le mieux que l'on puisse faire est de donner la probabilité d'occurrence de telle issue ou de telle autre.
Cela dit, si l'on peut déterminer mathématiquement la forme précise des ondes de probabilité, on est en mesure de tester leurs prédictions probabilistes, en répétant de nombreuses fois une même expérience.
Quelques mois à peine après la proposition de De Broglie, Schrödinger a franchi le pas décisif dans cette direction et établi l'équation qui régit la forme et l'évolution des ondes de probabilité ou, comme on a fini par les baptiser, des fonctions d'onde. Il n'a pas fallu longtemps avant que l'équation de Schrödinger et l'interprétation probabiliste soient mises à contribution pour obtenir des prédictions extraordinairement précises. Ce qui est vraiment étrange dans tout ça, c'est que les électrons, et tout le reste d'ailleurs, ne peuvent pas être décrits à la fois comme se trouvant à tel endroit  et ayant telle vitesse.
Einstein a tenté de minimiser l'importance de cette entorse à la théorie classique en argumentant que, même si le raisonnement quantique limite manifestement notre connaissance de la position et de la vitesse, l'électron, lui, a toujours une position et une vitesse précises. Et bien le plus incroyable est que c'est faux !!!
Là pour une fois, le grand Einstein s'est trompé.
Heisenberg a prouvé qu'il existe un compromis entre la précision des mesures de position et de vitesse, mais il a montré aussi qu'il existe un arrangement du même type entre la précision des mesures d'énergie et la durée de ces mesures. Selon la théorie quantique, on ne peut pas dire qu'une particule a précisément telle ou telle énergie à tel ou tel instant. Cela a une conséquence pittoresque : du fait du principe d'incertitude, l'univers se révèle être un milieu effervescent si on l'examine sur des distances de plus en plus courtes et des échelles de temps de plus en plus petites.
Bref, globalement, la mécanique quantique se démarque de la physique classique par deux aspects : des règles différentes quant à l'additivité des probabilités, et l'existence de grandeurs physiques ne pouvant se manifester que par multiples de quantités fixes, appelés quantas, qui donnent leur nom à la théorie. Je ne peux m'empêcher de rappeler que selon moi, les étranges caractéristiques de la mécanique quantique prouvent que la matière est fondamentalement de l'information.
Je pense m'être très bien justifié dans cet article d'octobre 2012. Comme je le disais à l'époque, supposons que l'on essaie d'en savoir davantage sur un petit élément fondamental de matière qui serait donc une information : cela reviendrait à essayer d'avoir plusieurs informations sur quelque chose qui n'est fondamentalement qu'une seule information. Intuitivement, on comprend bien que c'est impossible : on ne peut pas découper une information fondamentale en plusieurs informations, car sinon cela signifierait qu'elle n'est pas fondamentale... Le principe d'incertitude d'Heisenberg, qui explique en fait qu'il est impossible d'avoir trop d'informations à la fois sur les constituants microscopiques de la matière, est selon moi une confirmation expérimentale de ce raisonnement simple mais logique.
Même le grand Einstein ne comprenait pas son collègue Heisenberg. Pourtant, les bizarreries de la mécanique quantique pourraient sans doute s'avérer compréhensibles et même naturelles une fois que l'on aura admis que le constituant fondamental de la matière est en fait l'information !
L'INFORMATION, mes amis !!

 

E. Le modèle standard, et la théorie des cordes.
Dans les années 30 et 40, sous l'influence de figures marquantes telles que Dirac, Pauli, Schwinger, Dyson, Tomonaga et Feynman, les théoriciens n'ont eu de cesse de trouver un cadre mathématique permettant de décrire la turbulence de l'univers microscopique. L'équation de Schrödinger n'a pu fournir qu'une description approchée de la physique microscopique. Cette approximation marche tant que l'on ne se penche pas sur l'agitation microscopique, mais elle s'effondre dès que l'on s'en approche. L'ingrédient physique essentiel qu'il a négligé d'inclure dans son formalise, c'est la relativité restreinte. Les efforts pour concilier relativité restreinte et théorie quantique se sont d'abord concentrés sur la force électromagnétique et ses interactions avec la matière.

Ainsi, une succession d'avancées astucieuse a donné naissance à l'électrodynamique quantique, la plus simple des théories quantiques des champs relativistes :
Théorie quantique car aspects probabilistes et incertitude font partie de ses ingrédients de base.
Théorie des champs car elle relie les principes quantiques à la notion classique du champ de forces, ici, le champ électromagnétique de Maxwell.
L'électrodynamique quantique est sans doute la plus précise des théories de la nature. L'accord entre prédiction théorique et réalité physique est véritablement stupéfiant : ample confirmation expérimentale au milliardième près.
Après un tel succès, au cours des années 60 et 70, les physiciens ont cherché à s'en inspirer pour développer une compréhension analogue des forces faible, forte et gravitationnelle. Cette voie s'est révélée très fructueuse pour les interactions faible et forte. Deux théories très semblables à l'électrodynamique quantique ont ainsi vu le jour : la chromodynamique quantique et la théorie électrofaible.
La théorie électrofaible est l'unification des interactions faible et électromagnétique : Glashow, Salam et Weinberg ont reçu le prix Nobel en 1979 pour avoir établi qu'à des températures et à des énergies suffisamment élevées, ces champs fusionnent. Dans notre univers froid, par brisure de symétrie, les forces électromagnétique et faible ont des formes différentes.
La théorie électrofaible est capable de prédire les masses des bosons W et Z, vecteurs de la force faible, tandis que le photon, vecteur de l'interaction électromagnétique a une masse nulle. Ces différences de masse expliquent la différence considérable de comportement de ces interactions à basse énergie.

La chromodynamique quantique décrit l’interaction forte. Elle utilise la théorie quantique des champs pour rendre compte de l’interaction entre quarks et gluons. D’après cette théorie, les quarks et les antiquarks sont confinés dans les particules qu’ils constituent et possèdent une propriété nommée « couleur » qui peut être bleue, verte ou rouge, et qui est analogue à la charge électrique de la force électrostatique. Un autre principe fondamental de la théorie est qu’une particule constituée de quarks doit toujours avoir une couleur résultante blanche.
Le confinement des quarks provient du fait que la force qui les lie croît avec la distance. Lorsque celle-ci est très faible, les quarks n’interagissent presque pas entre eux, tandis que plus ils s’écartent et plus l’interaction s’intensifie.
Au cours des vingt dernières années, de multiples expériences ont été réalisées pour tester les théories quantiques des trois forces non gravitationnelles : elles ont passé toutes les épreuves haut la main. Concrètement les expérimentateurs mesurent tout d'abord la bagatelle de 19 paramètres : masses, charges, intensités, etc.. Les chercheurs insèrent ces données dans leurs théories quantiques des particules matérielles et de leurs interactions. Les résultats expérimentaux confirment de façon spectaculaire les prédictions théoriques ainsi obtenues. En raison de ce succès, les physiciens ont baptisé cette théorie des trois interactions non gravitationnelles et des trois familles de particules matérielles « modèle standard de la physique des particules ».
Le tableau suivant permet d'avoir une vue globale des composants de la matière et des bosons de jauge selon ce fameux modèle standard :

 

model-standard1

 

Les composants de la deuxième et troisième famille sont instables à nos énergies. Voici maintenant les caractéristiques des composants de la première famille vis à vis des trois forces fondamentales concernées par le modèle standard :

particules1

Un paramètre n'est pas évoqué par ce tableau : le spin. Le spin est la version quantique du mouvement de rotation sur soi : les particules élémentaires possèdent une quantité de spin intrinsèque qui est soit un nombre entier, soit un nombre demi-entier (multiple de la constante de Planck) et qui ne change jamais. L'électron, le positron, les neutrinos, les quarks ont tous un spin de ½. Les porteurs de forces non gravitationnelles à savoir le photon, le gluon et les bosons W et Z ont un spin de 1. Le boson de Higgs a un spin de 0 et le graviton, hypothétique particule vecteur de la gravitation, a un spin de 2.
À ce propos, le graviton n'est pas la seule particule élémentaire hypothétique. Si ce qu'on appelle la supersymétrie est valable, alors devraient également exister les superpartenaires : le sélectron, particule de spin 0 superpartenaire de l'électron, le sneutrino et les squark, également de spin 0. De même, les particules d'interaction devraient avoir des superpartenaires de spin 1/2 : les photinos pour les photons, les gluinos pour les gluons et, pour les bosons Z et W, les zinos et les winos. Pour l'instant ces particules n'ont pas encore été détectés. Quel bordel ce modèle standard !!
Mais revenons à la star de l'année 2012, l'héroïne du prix Nobel de physique 2013, qui, elle, a, semble-t-il, bien été détectée : j'ai nommé bien sûr... Le boson de Higgs !!
Quelques mots d'explication... Nous remarquons que les bosons W et Z ont une masse, exprimée en GeV dans le premier des deux tableaux, alors que le photon non. Or les symétries de jauge requièrent que les transmetteurs de force, c'est à dire les bosons de jauge, soient de masse nulle.
Pour contourner le problème, les scientifiques ont dû inventer un mécanisme pour briser la symétrie de jauge permettant aux bosons W et Z d'acquérir une masse : ils ont postulé l'existence d'un nouveau champ, surnommé champ de Higgs.
Le champ de Higgs différerait des autres champs en ce qu'à basse température, donc à basse énergie, l'espace ''préférerait'' être rempli de particules de Higgs que de ne pas l'être. Les bosons W et Z interagissent avec ce champ, contrairement au photon, et avancent à travers l'espace comme s'ils se mouvaient dans une mélasse épaisse. De cette manière, ils acquièrent une masse effective. À haute énergie, les interactions dans le champ de Higgs sont telles que l'espace n'est plus rempli de cette mélasse Higgsienne, les bosons W et Z perdent leur masse et la symétrie entre eux et le photon n'est plus brisée, elle est ''restaurée''. La masse d'un boson électrofaible, MAIS a priori PAS celle des quarks attention, ne serait donc qu'une manifestation de cette interaction des particules avec le champ de Higgs dans lequel elles ''baignent''.
Le champ de Higgs permet de préserver la symétrie à haute énergie et d'expliquer la brisure de la symétrie à basse énergie. Ce n'est donc pas le boson de Higgs qui donne directement une masse aux autres bosons : le boson BEH est une manifestation du champ de Higgs et du mécanisme de Higgs. Le mécanisme de Higgs pourrait exister sans lui.
Si vous ne comprenez rien à ce que je viens de raconter, vous pouvez toujours essayer de regarder cette petite vidéo, qui simplifie bien trop les choses, à mon goût :

 

 

On croit d'ailleurs y comprendre que le mécanisme de Higgs est responsable de la masse de toutes les particules. Ce qui est faux. Voilà, voilà... Ce n'est pas super clair ni super simple, mais c'est déjà quelque chose. En tout cas, mon article est presque terminé. Il est hélas long, trop long, beaucoup trop long. Tant pis... Mais avant de mettre un point final à ce rappel quelque peu saugrenu sur un site du style de dieuexiste.com, j'aimerais dire quelques mots sur la théorie des cordes, pour le plaisir...

espacesenroules.jpg

Cette dernière a été forgée pour expliquer à la fois le modèle standard et la relativité générale dans une même formulation mathématique : il s'agissait donc de trouver une sorte de théorie du tout, unifiant la gravitation et le modèle standard. D'abord, il n'y a pas une mais des théories des cordes. Pour chacune d'entre elles, notre monde, serait non pas constitué de trois dimensions spatiales, mais de 10, 11, ou même 26 dimensions. Ces dimensions, qui ne sont pas les trois grandes que nous connaissons, resteraient invisibles parce qu'elles seraient, selon la théorie, enroulées à une échelle microscopique, de l'ordre de la longueur de Planck, ce qui ne nous permettrait pas de les détecter : impossible de vérifier expérimentalement le modèle donc...
Les constituants fondamentaux de la matière seraient alors des cordes pouvant vibrer dans toutes les dimensions imaginées, ce qui expliquerait leur grande variété. L'une de ces théories, celle dite des supercordes, propose de prendre en compte 10 dimensions spatiales avec une variété bien particulière pour jouer le rôle des dimensions enroulées : les espaces de Calabi-Yau. Ces espaces sont des objets mathématiques particulièrement complexes, que les scientifiques ont bien du mal à maîtriser.
De telles difficultés pourraient augurer de résultats impressionnants. Pourtant ce n'est pas le cas. Les déceptions sont nombreuses : description imparfaite du modèle standard, problèmes pour expliquer l'existence de l'énergie noire, irréfutabilité comme nous l'avons vu plus haut, absence de prédictions, etc...
Bref ce n'est pas super-génial...
D'autant qu'il n'y a pas que pour la relativité générale, c'est à dire la gravitation, que le modèle standard reste muet : il n'explique ni l’hypothétique matière noire ni la très étrange énergie noire évoquée dans cet article de juin et dont l'origine reste un mystère. Rien non plus sur l'énigmatique inflaton, supposé être à la cause de l'inflation cosmique. Un modèle qui ne concerne que 4% du contenu de l'univers, et seulement à basse énergie, ne peut prétendre à être la Grande Explication sans sombrer dans le ridicule. Il y a visiblement encore beaucoup de boulot à faire...
Et si on ne prenait pas le problème par le bon bout ? Je ne suis pas physicien, mais pourquoi ne pas partir de ce qui, comme je l'ai expliqué plus haut, semble évident : le composant fondamental de l'univers, c'est tout simplement l'information.
Dans l'histoire, les hommes ont successivement affirmé que la petite brique fondamentale à la base de tout ce qui existe était l'atome, puis le proton ou le quark, l'électron, maintenant la corde. Cette fuite en avant, ce jeu sémantique absurde, n'a guère de sens. Par contre dès que l'on dit que cette petite brique c'est l'information, on apporte enfin une vraie définition : l'information, c'est le pixel de l'écran, l'information, c'est ce qu'on ne peut découper en deux informations. Ce qui, comme je l'ai déjà écrit, nous explique pourquoi la mécanique quantique existe. Voilà une conclusion intéressante et ouverte pour ce gigantesque article : et si l'information était le constituant fondamental du monde dit ''matériel'', comme la lettre est le constituant fondamental du mot et comme Dieu est l'origine de toute chose ??
J'essaierai, dans un tout prochain article, d'expliquer plus précisément quelle est ma théorie. Quoiqu'il en soit, il faut d'ores et déjà savoir qu'en partant de cette déduction toute simple - car il me semble que c'est davantage une déduction naturelle qu'une hypothèse - on arrive a priori à expliquer tout un tas de phénomènes physiques de manière complètement logique, comme je l'expliquais en 2011.
Et surtout on comprend de mieux en mieux que l'univers a été créé pour la conscience : comme s'il fallait partir de ce phénomène en grande partie métaphysique qu'est l'esprit pour trouver les clés des mystères de l'univers.
Incroyable non ?
La conscience n'est pas un accident malheureux comme le pensait Jean-Paul Sartre, mais l'objectif du monde. Ça change certaines choses, vous en conviendrez...
À suivre !!!

Publié dans Best of 2011-2014

Partager cet article
Repost0

<< < 1 2 3 4 5 6 7 8 9 10 > >>