La physique est la théorie de tout. Intrication quantique : théorie, principe, effet. La physique quantique n'est pas locale

La physique est la théorie de tout.  Intrication quantique : théorie, principe, effet.  La physique quantique n'est pas locale
La physique est la théorie de tout. Intrication quantique : théorie, principe, effet. La physique quantique n'est pas locale

Le feuillage doré des arbres brillait de mille feux. Les rayons du soleil du soir touchaient les cimes amincies. La lumière traversait les branches et créait un spectacle de figures bizarres clignotant sur le mur du « camping-car » de l’université.

Le regard pensif de Sir Hamilton glissa lentement, observant le jeu du clair-obscur. Un véritable creuset de pensées, d'idées et de conclusions se déroulait dans la tête du mathématicien irlandais. Il a parfaitement compris que l'explication de nombreux phénomènes par la mécanique newtonienne est comme un jeu d'ombres sur un mur, entrelaçant trompeusement des figures et laissant de nombreuses questions sans réponse. "Peut-être s'agit-il d'une onde... ou peut-être d'un flux de particules", pensa le scientifique, "ou bien la lumière est une manifestation des deux phénomènes. Comme des figures tissées d’ombre et de lumière.

Le début de la physique quantique

Il est intéressant d’observer des gens formidables et d’essayer de comprendre comment naissent de grandes idées qui changent le cours de l’évolution de toute l’humanité. Hamilton fait partie de ceux qui sont à l’origine de la physique quantique. Cinquante ans plus tard, au début du XXe siècle, l'étude particules élémentaires de nombreux scientifiques l’ont étudié. Les connaissances acquises étaient contradictoires et non compilées. Cependant, les premiers pas hésitants ont été franchis.

Comprendre le micromonde au début du XXe siècle

En 1901, le premier modèle de l’atome fut présenté et son incohérence fut démontrée du point de vue de l’électrodynamique conventionnelle. Durant la même période, Max Planck et Niels Bohr publient de nombreux ouvrages sur la nature de l’atome. Malgré leur compréhension complète de la structure de l'atome, ils n'existaient pas.

Quelques années plus tard, en 1905, le scientifique allemand peu connu Albert Einstein publia un rapport sur la possibilité de l'existence d'un quantum de lumière dans deux états : onde et corpusculaire (particules). Dans son travail, des arguments ont été avancés pour expliquer la raison de l’échec du modèle. Cependant, la vision d'Einstein était limitée par l'ancienne compréhension du modèle atomique.

Après de nombreux travaux de Niels Bohr et de ses collègues, une nouvelle direction est née en 1925 : une sorte de mécanique quantique. L’expression courante « mécanique quantique » est apparue trente ans plus tard.

Que savons-nous des quanta et de leurs bizarreries ?

Aujourd’hui, la physique quantique a beaucoup progressé. De nombreux phénomènes différents ont été découverts. Mais que sait-on réellement ? La réponse est présentée par un scientifique moderne. « Vous pouvez soit croire en la physique quantique, soit ne pas la comprendre », telle est la définition. Pensez-y par vous-même. Il suffira de mentionner un phénomène tel que l'intrication quantique des particules. Ce phénomène a plongé le monde scientifique dans un état de perplexité totale. Un choc encore plus grand fut que le paradoxe qui en résulta était incompatible avec Einstein.

L’effet de l’intrication quantique des photons a été discuté pour la première fois en 1927 lors du cinquième congrès Solvay. Une vive dispute a éclaté entre Niels Bohr et Einstein. Le paradoxe de l’intrication quantique a complètement changé la compréhension de l’essence du monde matériel.

On sait que tous les corps sont constitués de particules élémentaires. En conséquence, tous les phénomènes de la mécanique quantique se reflètent dans le monde ordinaire. Niels Bohr a dit que si nous ne regardons pas la Lune, alors elle n'existe pas. Einstein considérait cela comme déraisonnable et croyait qu'un objet existe indépendamment de l'observateur.

Lorsqu'on étudie les problèmes de la mécanique quantique, il faut comprendre que ses mécanismes et ses lois sont interconnectés et n'obéissent pas à la physique classique. Essayons de comprendre le domaine le plus controversé : l'intrication quantique des particules.

Théorie de l'intrication quantique

Pour commencer, il convient de comprendre que la physique quantique est comme un puits sans fond dans lequel on peut trouver n’importe quoi. Le phénomène de l'intrication quantique au début du siècle dernier a été étudié par Einstein, Bohr, Maxwell, Boyle, Bell, Planck et de nombreux autres physiciens. Tout au long du XXe siècle, des milliers de scientifiques du monde entier ont activement étudié et expérimenté ce sujet.

Le monde est soumis aux lois strictes de la physique

Pourquoi un tel intérêt pour les paradoxes de la mécanique quantique ? C'est très simple : nous vivons selon certaines lois monde physique. La capacité de « contourner » la prédestination ouvre une porte magique derrière laquelle tout devient possible. Par exemple, le concept de « chat de Schrödinger » conduit au contrôle de la matière. La téléportation d'informations provoquée par l'intrication quantique deviendra également possible. La transmission des informations deviendra instantanée, quelle que soit la distance.
Cette question est encore à l'étude, mais connaît une tendance positive.

Analogie et compréhension

Qu’est-ce qui est unique dans l’intrication quantique, comment la comprendre et que se passe-t-il lorsqu’elle se produit ? Essayons de le comprendre. Pour ce faire, vous devrez effectuer quelques expérience de pensée. Imaginez que vous avez deux boîtes entre les mains. Chacun d'eux contient une balle avec une rayure. Maintenant, nous donnons une boîte à l'astronaute et il s'envole vers Mars. Une fois que vous ouvrez une boîte et constatez que la bande sur la balle est horizontale, la balle dans une autre boîte aura automatiquement une bande verticale. Ce sera l’intrication quantique exprimée en termes simples : un objet prédétermine la position d’un autre.

Il faut cependant comprendre qu’il ne s’agit là que d’une explication superficielle. Pour obtenir une intrication quantique, les particules doivent avoir la même origine, comme des jumelles.

Il est très important de comprendre que l'expérience sera perturbée si quelqu'un avant vous avait l'occasion de regarder au moins un des objets.

Où peut-on utiliser l’intrication quantique ?

Le principe de l’intrication quantique peut être utilisé pour transmettre instantanément des informations sur de longues distances. Une telle conclusion contredit la théorie de la relativité d’Einstein. Il dit que la vitesse de déplacement maximale n'est inhérente qu'à la lumière - trois cent mille kilomètres par seconde. Un tel transfert d’informations permet la téléportation physique.

Tout dans le monde est information, y compris la matière. Les physiciens quantiques sont arrivés à cette conclusion. En 2008, sur la base d’une base de données théorique, il était possible de voir l’intrication quantique à l’œil nu.

Cela suggère une fois de plus que nous sommes à la veille de grandes découvertes : le mouvement dans l'espace et le temps. Le temps dans l'Univers est discret, donc un mouvement instantané sur de grandes distances permet d'entrer dans différentes densités temps (basé sur les hypothèses d’Einstein et Bohr). Peut-être qu'à l'avenir, ce sera une réalité, tout comme téléphone mobile Aujourd'hui.

Étherdynamique et intrication quantique

Selon certains éminents scientifiques, intrication quantique expliqué par le fait que l'espace est rempli d'un certain éther - matière noire. Toute particule élémentaire, comme on le sait, existe sous la forme d'une onde et d'un corpuscule (particule). Certains scientifiques pensent que toutes les particules résident sur une « toile » d’énergie sombre. Ce n’est pas facile à comprendre. Essayons de le comprendre d'une autre manière - par association.

Imaginez-vous au bord de la mer. Brise légère et vent faible. Voyez-vous les vagues ? Et quelque part au loin, dans les reflets des rayons du soleil, un voilier est visible.
Le navire sera notre particule élémentaire, et la mer sera notre éther ( énergie noire).
La mer peut être en mouvement sous la forme vagues visibles et des gouttes d'eau. De la même manière, toutes les particules élémentaires peuvent être simplement la mer (sa partie intégrante) ou une particule distincte - une goutte.

Ceci est un exemple simplifié, tout est un peu plus compliqué. Les particules sans la présence d'un observateur se présentent sous la forme d'une onde et n'ont pas de localisation précise.

Un voilier blanc est un objet distinct ; il diffère de la surface et de la structure de l’eau de mer. De la même manière, il existe des « pics » dans l’océan d’énergie, que nous pouvons percevoir comme une manifestation des forces que nous connaissons et qui ont façonné la partie matérielle du monde.

Le micromonde vit selon ses propres lois

Le principe de l'intrication quantique peut être compris si l'on prend en compte le fait que les particules élémentaires se présentent sous forme d'ondes. N'ayant ni emplacement ni caractéristiques spécifiques, les deux particules résident dans un océan d'énergie. Au moment où l’observateur apparaît, l’onde « se transforme » en un objet accessible au toucher. La deuxième particule, observant le système d'équilibre, acquiert des propriétés opposées.

L'article décrit ne vise pas à des descriptions scientifiques succinctes du monde quantique. La capacité d'une personne ordinaire à comprendre repose sur l'accessibilité à la compréhension du matériel présenté.

La physique des particules étudie l'intrication des états quantiques basée sur le spin (rotation) d'une particule élémentaire.

En langage scientifique (simplifié) - l'intrication quantique est définie par différents spins. En observant des objets, les scientifiques ont constaté que seuls deux spins peuvent exister : le long et le travers. Curieusement, dans d’autres positions, les particules ne « posent » pas à l’observateur.

Une nouvelle hypothèse - une nouvelle vision du monde

L’étude du microcosme – l’espace des particules élémentaires – a donné lieu à de nombreuses hypothèses et hypothèses. L’effet de l’intrication quantique a incité les scientifiques à réfléchir à l’existence d’une sorte de micro-réseau quantique. Selon eux, à chaque nœud – le point d’intersection – se trouve un quantum. Toute énergie est un réseau intégral, et la manifestation et le mouvement des particules ne sont possibles qu'à travers les nœuds du réseau.

La taille de la « fenêtre » d’un tel réseau est assez petite et la mesure avec un équipement moderne est impossible. Cependant, afin de confirmer ou d'infirmer cette hypothèse, les scientifiques ont décidé d'étudier le mouvement des photons dans un réseau quantique spatial. Le fait est qu'un photon peut se déplacer soit en ligne droite, soit en zigzags - le long de la diagonale du réseau. Dans le second cas, après avoir parcouru une plus grande distance, il dépensera plus d'énergie. En conséquence, il sera différent d’un photon se déplaçant en ligne droite.

Peut-être qu’avec le temps, nous apprendrons que nous vivons dans un réseau quantique spatial. Ou cela peut s'avérer incorrect. Cependant, c'est le principe de l'intrication quantique qui indique la possibilité de l'existence d'un réseau.

En termes simples, dans un hypothétique « cube » spatial, la définition d’une face entraîne une signification clairement opposée à celle de l’autre. C'est le principe de préservation de la structure de l'espace-temps.

Épilogue

Pour comprendre la magie et monde mystérieux En physique quantique, il convient d’examiner de près l’évolution de la science au cours des cinq cents dernières années. Auparavant, on croyait que la Terre avait Forme plate, pas sphérique. La raison est évidente : si vous prenez sa forme ronde, alors l'eau et les gens ne pourront pas retenir.

Comme nous pouvons le constater, le problème résidait dans l’absence d’une vision complète de toutes les forces en jeu. Il est possible que la science moderne n’ait pas une vision suffisante de toutes les forces agissantes pour comprendre la physique quantique. Les lacunes de vision donnent lieu à un système de contradictions et de paradoxes. Peut-être que le monde magique de la mécanique quantique contient les réponses aux questions posées.

Ce texte présente de nouveaux résultats dans le domaine des neurosciences et la solution à de nombreux problèmes non résolus en physique. Il ne traite pas de questions de métaphysique et s'appuie sur des données scientifiquement vérifiables, mais il aborde des sujets philosophiques liés à la vie, à la mort et à l'origine de l'univers.
Compte tenu de la multiplicité et de la richesse des informations, il faudra peut-être les lire plusieurs fois pour les comprendre, malgré tous nos efforts pour simplifier des concepts scientifiques complexes.




Chapitre 1
Dieu est dans les neurones








Le cerveau humain est un réseau d’environ cent milliards de neurones. Différentes sensations forment des connexions neuronales qui reproduisent différentes émotions. En fonction de la stimulation des neurones, certaines connexions deviennent plus fortes et plus efficaces, tandis que d’autres s’affaiblissent. On l'appelle neuroplasticité.

Ceux qui apprennent la musique créent des connexions neuronales plus fortes entre les deux hémisphères du cerveau pour développer la créativité musicale. Grâce à la formation, vous pouvez développer presque n’importe quel talent ou compétence.

Rudiger Hamm se considérait comme un étudiant désespéré et ne pouvait même pas faire face à mathématiques élémentaires. Il a commencé à développer ses capacités et s'est transformé en un calculateur humain, capable de faire des choses extrêmement calculs complexes. La rationalité et stabilité émotionnelle fonctionnent exactement de la même manière. Les connexions neuronales peuvent être renforcées.

Lorsque vous faites quelque chose, vous modifiez physiquement votre cerveau pour réaliser meilleurs résultats. Puisqu’il s’agit du mécanisme principal et fondamental du cerveau, la conscience de soi peut grandement enrichir notre expérience de vie.



Neurosciences sociales



Des neurones et neurotransmetteurs spéciaux, comme la noradrénaline, déclenchent un mécanisme de défense lorsque nous sentons que nos pensées doivent être protégées des influences extérieures. Si l'opinion de quelqu'un diffère de la nôtre, les mêmes produits chimiques sont libérés dans le cerveau et assurent notre survie dans des situations dangereuses.








Dans cet état protecteur, plus partie primitive du cerveau interfère avec la pensée rationnelle, et Système limbique peut bloquer notre mémoire de travail, provoquant physiquement une « pensée verrouillée ».

Cela peut être observé lors d'intimidations, lorsque vous jouez au poker ou lorsque quelqu'un s'entête dans une dispute.

Quelle que soit la valeur d’une idée, dans cet état, le cerveau n’est pas capable de la traiter. Au niveau neuronal, il le perçoit comme une menace, même s’il s’agit d’opinions ou de faits inoffensifs avec lesquels nous pourrions autrement être d’accord.

Mais lorsque nous nous exprimons et que nos opinions sont valorisées, les niveaux de produits chimiques protecteurs dans le cerveau diminuent et la transmission de dopamine active les neurones de récompense, et nous nous sentons responsabilisés et confiants. Nos croyances influencent considérablement la chimie de notre corps. C’est sur cela que repose l’effet placebo. L’estime de soi et la confiance en soi sont liées au neurotransmetteur sérotonine.

Un manque grave de cette substance conduit souvent à la dépression, à des comportements autodestructeurs et même au suicide. Lorsque la société nous valorise, elle augmente les niveaux de dopamine et de sérotonine dans le cerveau et nous permet de nous libérer de la fixation émotionnelle et d'augmenter notre niveau de conscience de soi.



Neurones miroirs et conscience



La psychologie sociale fait souvent référence au besoin humain fondamental de « trouver sa place » et qualifie cela de « normatif ». influence sociale". À mesure que nous vieillissons, notre boussole morale et éthique se forme presque complètement. environnement externe. Ainsi, nos actions sont souvent basées sur la façon dont la société nous évalue.








Mais les nouvelles découvertes en neurosciences nous permettent de mieux comprendre la culture et la personnalité. De nouvelles recherches neurologiques ont confirmé l’existence de neurones miroirs empathiques.

Lorsque nous ressentons des émotions ou effectuons des actions, certains neurones se déclenchent. Mais lorsque nous voyons quelqu'un d'autre le faire ou l'imaginons, bon nombre de ces mêmes neurones se déclenchent comme si nous le faisions nous-mêmes. Ces neurones d’empathie nous connectent aux autres et nous permettent de ressentir ce que ressentent les autres.

Parce que ces mêmes neurones répondent à notre imagination, nous recevons un retour émotionnel de leur part de la même manière que celui d’une autre personne. Ce système nous donne la possibilité de nous analyser nous-mêmes.

Les neurones miroirs ne font pas de différence entre eux et les autres. C’est pourquoi nous sommes si dépendants de l’évaluation des autres et du désir de nous conformer.

Nous sommes constamment soumis à une dualité entre la façon dont nous nous percevons et la façon dont les autres nous perçoivent. Cela peut interférer avec notre individualité et notre estime de soi.






L’imagerie cérébrale montre que nous ressentons ces émotions négatives avant même d’en avoir conscience. Mais lorsque nous sommes conscients de nous-mêmes, nous pouvons changer les mauvaises émotions parce que nous pouvons contrôler les pensées qui les provoquent.

Il s’agit d’une conséquence neurochimique de la façon dont les souvenirs sont affaiblis et dont ils sont restaurés grâce à la synthèse des protéines.

La conscience de soi a un effet profond sur le fonctionnement du cerveau. Elle active les zones néocorticales d’autorégulation, qui nous permettent de contrôler clairement nos propres sentiments. Chaque fois que nous faisons cela, notre rationalité et notre stabilité émotionnelle sont renforcées. Sans maîtrise de soi, la plupart de nos pensées et actions sont impulsives, et le fait que nous réagissons de manière aléatoire et ne faisons pas de choix conscients

nous irrite instinctivement.






Pour éliminer cela, le cerveau cherche à justifier notre comportement et réécrit physiquement les souvenirs grâce à une reconsolidation mnésique, nous faisant croire que nous contrôlons nos actions. C'est ce qu'on appelle la rationalisation rétrospective, qui laisse la plupart de nos émotions négatives non résolus et ils peuvent éclater à tout moment. Ils alimentent l’inconfort interne tandis que le cerveau continue de justifier notre comportement irrationnel. Tout ce comportement complexe et presque schizophrénique du subconscient est le travail de vastes systèmes distribués parallèlement dans notre cerveau.



La conscience n'a pas de centre spécifique. L'unité apparente est due au fait que chaque circuit individuel est activé et se manifeste à un moment précis. Nos expériences modifient constamment nos connexions neuronales, modifiant physiquement le système parallèle de notre conscience. Intervenir directement sur ce sujet peut avoir des effets surréalistes, soulevant la question de savoir ce qu’est la conscience et où elle se situe.



Si l’hémisphère gauche du cerveau est séparé du droit, comme c’est le cas chez les patients à cerveau divisé, vous conserverez la capacité de parler et de penser en utilisant l’hémisphère gauche, tandis que les capacités cognitives de l’hémisphère droit seront sévèrement limitées. L’hémisphère gauche ne souffrira pas de l’absence du droit, même si cela modifiera sérieusement votre perception.

Par exemple, vous ne pourrez peut-être pas décrire le côté droit du visage de quelqu'un, mais vous le remarquerez et ne le considérerez pas comme un problème ni même ne réaliserez que quelque chose a changé. Puisque cela affecte non seulement votre perception du monde réel, mais aussi vos images mentales, il ne s’agit pas seulement d’un problème de perception, mais d’un changement fondamental de conscience.



Dieu est dans les neurones



Chaque neurone a une tension électrique qui change lorsque les ions

entrer ou sortir de la cellule. Lorsque la tension atteint un certain niveau, le neurone envoie un signal électrique aux autres cellules, où le processus se répète.

Lorsque plusieurs neurones émettent un signal en même temps, nous pouvons le mesurer sous forme d’onde.

Les ondes cérébrales sont responsables de presque tout ce qui se passe dans notre cerveau, notamment la mémoire, l’attention et même l’intelligence.

Les oscillations de différentes fréquences sont classées en ondes alpha, bêta et gamma. Chaque type de vague est associé à des tâches différentes. Les ondes permettent aux cellules cérébrales de se régler sur la fréquence appropriée à la tâche, ignorant les signaux étrangers.

Tout comme un récepteur radio syntonise une station de radio. Le transfert d'informations entre neurones devient optimal lorsque leur activité est synchronisée.

C’est pourquoi nous éprouvons une dissonance cognitive – l’irritation provoquée par deux idées incompatibles. La volonté est le désir de réduire la dissonance entre chacun des circuits neuronaux actifs.



L’évolution peut être considérée comme le même processus par lequel la nature tente de s’adapter, c’est-à-dire de « résonner » avec l’environnement. Elle s’est donc développée au point où elle a pris conscience d’elle-même et a commencé à réfléchir à sa propre existence.

Lorsqu'une personne est confrontée au paradoxe de la recherche d'un objectif et à la pensée que l'existence n'a pas de sens, une dissonance cognitive se produit.






Par conséquent, de nombreuses personnes se tournent vers la spiritualité et la religion, rejetant la science, qui n'est pas en mesure de répondre aux questions existentielles : qui suis-je ? et pourquoi suis-je ici ?



JE...



« Les neurones miroirs ne font pas la différence entre eux et les autres. "

L’hémisphère gauche est en grande partie responsable de la création d’un système de croyances cohérent qui maintient un sentiment de continuité dans nos vies.

La nouvelle expérience est comparée au système de croyance existant, et si elle ne s'y intègre pas, elle est simplement rejetée. L'équilibre est l'hémisphère droit du cerveau, qui joue le rôle inverse.



Tandis que l'hémisphère gauche s'efforce de maintenir le modèle, l'hémisphère droit continue

remet en question le statu quo. Si les écarts sont trop importants, l’hémisphère droit nous oblige à reconsidérer notre vision du monde. Mais si nos convictions sont trop fortes, l’hémisphère droit risque de ne pas surmonter notre refus. Cela peut créer de grandes difficultés pour repousser les autres.

Lorsque les voies neuronales qui définissent nos croyances ne sont pas développées ou actives, notre conscience, l'unité de tous les circuits actifs, est remplie d'activité de neurones miroirs, tout comme lorsque nous avons faim, notre conscience est remplie de processus neuronaux associés à la nutrition.



Ceci n’est pas le résultat d’un « je » central émettant des ordres divers domaines cerveau

Toutes les parties du cerveau peuvent être actives ou inactives et communiquer sans noyau central. Tout comme les pixels d’un écran peuvent s’organiser en une image reconnaissable, un groupe d’interactions neuronales peut s’exprimer sous forme de conscience.

À tout moment, nous présentons une image différente. Quand nous réfléchissons aux autres, quand nous avons faim, quand nous regardons ce film. Chaque seconde, nous devenons une personne différente, passant par différents états.

Lorsque nous nous regardons à travers les neurones miroirs, nous créons l’idée d’individualité.

Mais lorsque nous faisons cela avec une compréhension scientifique, nous voyons quelque chose de complètement différent.






Les interactions neuronales qui créent notre conscience vont bien au-delà de nos neurones. Nous sommes le résultat d’interactions électrochimiques entre les hémisphères du cerveau et nos sens reliant nos neurones aux autres neurones de notre environnement. Il n'y a rien d'extérieur. Ce n’est pas une philosophie hypothétique, c’est une propriété fondamentale des neurones miroirs qui nous permet de nous comprendre à travers les autres.



Considérer cette activité neuronale comme sienne, à l’exclusion de l’environnement, serait une erreur. L’évolution reflète également notre côté super-organisme, où notre survie en tant que primates dépendait de nos capacités collectives.

Au fil du temps, les aires néocorticales ont évolué pour modifier les instincts et supprimer les impulsions hédoniques au profit du groupe. Nos gènes ont commencé à se développer mutuellement comportement social dans les structures du superorganisme, abandonnant ainsi l’idée de « survie du plus fort ».



Le cerveau fonctionne plus efficacement lorsqu’il n’y a pas de dissonance entre les zones avancées du cerveau et les zones plus anciennes et plus primitives. Ce que nous appelons « tendances égoïstes » n'est qu'une interprétation limitée du comportement égoïste, lorsque les caractéristiques d'une personne sont perçues à travers un paradigme incorrect de l'individualité...

... au lieu d'une vision scientifique de qui nous sommes - une image instantanée et en constante évolution

un tout unique sans centre.



La conséquence psychologique de ce système de croyances est la conscience de soi sans attachement à un « je » imaginaire, ce qui conduit à une clarté mentale, une conscience sociale, une maîtrise de soi accrues et à ce qu'on appelle souvent « être ici et maintenant ».






Il existe une opinion selon laquelle nous avons besoin de l'histoire, d'une vision chronologique de nos vies, pour former des valeurs morales.

Mais le nôtre compréhension moderne La nature empathique et sociale du cerveau montre qu’une vision purement scientifique, sans référence à l’individualité et à « l’histoire », fournit un système de concepts beaucoup plus précis, constructif et éthique que nos valeurs fragmentées.



Cela a du sens parce que notre tendance habituelle à nous définir comme une constante individuelle imaginaire pousse le cerveau vers des troubles cognitifs tels que des stéréotypes obsessionnels et la nécessité de fixer des attentes.






Le besoin de classer sous-tend toutes nos formes d’interaction. Mais en classant l’ego comme interne et l’environnement comme externe, nous limitons nos propres processus neurochimiques et expérimentons un sentiment imaginaire de séparation.

La croissance personnelle et ses effets secondaires, comme le bonheur et la satisfaction, sont stimulés lorsque nous ne sommes pas sujets à des stéréotypes dans nos interactions.



Nous pouvons avoir des points de vue différents et être en désaccord les uns avec les autres, mais les interactions qui nous acceptent tels que nous sommes sans jugement deviennent des catalyseurs neuropsychologiques qui stimulent le cerveau.

accepter les autres et accepter des systèmes de croyance rationnellement démontrables sans dissonance cognitive.

Stimuler cette activité neuronale et cette interaction nous libère du besoin de distractions et de divertissement et crée des cycles de comportements constructifs dans notre environnement. Les sociologues ont découvert que des choses comme le tabagisme et la suralimentation, les émotions et les idées se propagent dans la société de la même manière que les signaux électriques des neurones sont transmis lorsque leur activité est synchronisée.






Nous sommes un réseau mondial de réactions neurochimiques. Le cycle auto-propagé d’évaluation et de reconnaissance, soutenu par les décisions quotidiennes, est une réaction en chaîne qui détermine en fin de compte notre capacité collective à surmonter les différences perçues et à considérer la vie dans sa structure universelle.

Chapitre 2
Structure universelle




Au cours des recherches de Chiren, j'ai fourni un aperçu simplifié mais complet de ses découvertes actuelles.

C'est une interprétation du travail d'unification physique quantique et théorie de la relativité.

Ce sujet est complexe et peut être difficile à comprendre. Il contient également quelques implications philosophiques qui seront abordées dans l'épilogue.



Au cours du siècle dernier, de nombreuses avancées étonnantes ont conduit à des changements dans la manière scientifique dont nous comprenons le monde. La théorie de la relativité d'Einstein a montré que le temps et l’espace forment un seul tissu. UN Niels Bohr a révélé les composants fondamentaux de la matière grâce à la physique quantique, un domaine qui n'existe que comme une « description physique abstraite ».








Après cela Louis de Broglie découvert que toute matière, et pas seulement les photons et les électrons, possède des propriétés quantiques dualité onde-particule . Celles-ci ont conduit à l’émergence de nouvelles écoles de pensée sur la nature de la réalité, ainsi que de théories métaphysiques et pseudoscientifiques populaires.

Par exemple, l’esprit humain peut contrôler l’univers grâce à la pensée positive. Ces théories sont séduisantes, mais elles ne sont pas testables et peuvent entraver le progrès scientifique.



Les lois d'Einstein sur la relativité restreinte et générale sont appliquées dans technologies modernes, par exemple les satellites GPS, où la précision des calculs peut s'écarter de plus de 10 km par jour si des conséquences telles que la dilatation du temps ne sont pas prises en compte. Autrement dit, pour une horloge en mouvement, le temps avance plus lentement que pour une horloge stationnaire.








D'autres effets de la relativité sont la contraction de la longueur des objets en mouvement et la relativité de la simultanéité, qui rend impossible de dire avec certitude que deux événements se produisent en même temps s'ils sont séparés dans l'espace.

Rien ne bouge vitesse plus rapide Sveta. Cela signifie que si un tube de 10 secondes-lumière est poussé vers l'avant, 10 secondes s'écouleront avant que l'action ne se produise de l'autre côté. Sans un intervalle de temps de 10 secondes, le tuyau n'existe pas dans son intégralité.

Il ne s’agit pas des limites de nos observations, mais d’une conséquence directe de la théorie de la relativité, où le temps et l’espace sont interconnectés et où l’un ne peut exister sans l’autre.

La physique quantique fournit une description mathématique de nombreux problèmes liés à la dualité onde-particule et à l'interaction de l'énergie et de la matière. Elle diffère de la physique classique principalement aux niveaux atomique et subatomique. Ces formulations mathématiques sont abstraites et leurs conclusions sont souvent peu intuitives.



Un quantum est l'unité minimale de toute entité physique participant à une interaction. Particules élémentaires - les principales composantes de l'univers. Ce sont les particules à partir desquelles toutes les autres particules sont constituées. En physique classique, nous pouvons toujours diviser un objet en parties plus petites, mais en physique quantique, cela est impossible.

Par conséquent, le monde quantique représente de nombreux phénomènes uniques inexplicables par les lois classiques. Par exemple, intrication quantique, effet photoélectrique , diffusion Compton et bien plus encore.








Le monde quantique a de nombreuses interprétations inhabituelles. Parmi les plus reconnus figurent Interprétation de Copenhague et une interprétation multi-mondes. Actuellement, des interprétations alternatives telles que « l’univers holographique » prennent de l’ampleur.



Les équations de De Broglie



Bien que la physique quantique et les lois de la relativité d'Einstein soient également nécessaires pour compréhension scientifique l’univers, il existe de nombreux problèmes scientifiques non résolus et il n’existe pas encore de théorie unificatrice.

Certaines des questions actuelles : Pourquoi y a-t-il plus de matière observable dans l'univers que d'antimatière ? Quelle est la nature de l’axe du temps ? Quelle est l'origine de la masse ?

Les équations de De Broglie, pour lesquelles il a reçu le prix Nobel de physique, sont parmi les indices les plus importants de ces problèmes.

Cette formule montre que toute matière a une dualité onde-particule, c'est-à-dire que dans certains cas, elle se comporte comme une onde et dans d'autres, comme une particule. La formule combine l'équation d'Einstein E = mc^2 avec la nature quantique de l'énergie.



Les preuves expérimentales incluent l'interférence des molécules de fullerène C60 dans une expérience à double fente. Le fait que notre conscience elle-même soit constituée de particules quantiques fait l’objet de nombreuses théories mystiques.



Et bien que la relation entre la mécanique quantique et la conscience ne soit pas aussi magique que le prétendent les films et les livres ésotériques, les implications sont tout à fait sérieuses.

Puisque les équations de Broglie s'appliquent à toute matière, nous pouvons affirmer que C = hf, où C est la conscience, h est la constante de Planck et f est la fréquence. « C » est responsable de ce que nous percevons comme « maintenant », quantique, c'est-à-dire. , l'unité minimale d'interaction.

La somme de tous les moments « C » jusqu’au moment présent est ce qui façonne notre vision de la vie. Il ne s’agit pas d’une déclaration philosophique ou théorique, mais d’une conséquence directe de la nature quantique de toute matière et énergie.

La formule montre que la vie et la mort sont des agrégats abstraits « C ».

Une autre conséquence des équations de Broglie est que le taux de vibration de la matière ou de l'énergie et son comportement en tant qu'onde ou particule dépendent de la fréquence du référentiel.

Les augmentations de fréquence dues à la vitesse sont en corrélation avec d'autres et conduisent à des phénomènes tels que la dilatation du temps.

La raison en est que la perception du temps ne change pas par rapport au cadre de référence, où l'espace et le temps sont des propriétés des quanta, et non l'inverse.



Antimatière et temps imperturbable



Le grand collisionneur de hadrons. Suisse

Les antiparticules sont créées partout dans l'univers où se produisent des collisions à haute énergie entre particules. Ce processus est artificiellement simulé dans des accélérateurs de particules.

En même temps que la matière, l'antimatière est créée. Ainsi, le manque d’antimatière dans l’univers reste toujours l’un des plus grands problèmes non résolus en physique.

En capturant les antiparticules dans des champs électromagnétiques, on peut étudier leurs propriétés. Les états quantiques des particules et des antiparticules sont mutuellement interchangeables si l'on leur applique les opérateurs de conjugaison de charges ©, de parité (P) et d'inversion du temps (T).

Autrement dit, si un certain physicien de l'antimatière mène des expériences dans un laboratoire également constitué d'antimatière, en utilisant des composés chimiques et des substances constituées d'antiparticules, il obtiendra exactement les mêmes résultats que son homologue « matière ». Mais s’ils se combinent, il y aura une énorme libération d’énergie proportionnelle à leur masse.

Récemment, le laboratoire Fermi a découvert que des quanta tels que les mésons se déplacent de la matière à l'antimatière et inversement à une vitesse de trois mille milliards de fois par seconde.

Lorsqu’on considère l’univers dans le référentiel quantique « C », il est nécessaire de prendre en compte tous les résultats expérimentaux applicables aux quanta. Y compris comment la matière et l’antimatière sont créées dans les accélérateurs de particules et comment les mésons passent d’un état à un autre.



Dans le cas de « C », cela a de graves conséquences. D'un point de vue quantique, chaque instant « C » possède également un anti-C. Ceci explique le manque de symétrie, c'est-à-dire l'antimatière dans l'univers, et est également associé au choix arbitraire de l'émetteur et de l'absorbeur dans la théorie de l'absorption de Wheeler-Feynman.

Le temps non perturbé T dans le principe d'incertitude est le temps ou cycle nécessaire à l'existence des quanta.

Tout comme dans le cas des mésons, la limite de notre perception personnelle du temps, c'est-à-dire l'étendue du moment présent, est la transition de « C » à « anti-C ». Ce moment d’auto-annihilation et son interprétation du « S » s’inscrivent dans l’axe abstrait du temps.



Si nous définissons l’interaction et considérons les propriétés fondamentales de la dualité onde-particule d’un quantum, toutes les interactions consistent en interférences et résonances.

Mais comme cela ne suffit pas à expliquer les forces fondamentales, il faut utiliser divers modèles. Cela inclut le modèle standard, qui sert d'intermédiaire entre la dynamique des particules subatomiques connues via des porteurs de force et la théorie de la relativité générale, qui décrit des phénomènes macroscopiques tels que les orbites des planètes, qui suivent une ellipse dans l'espace et une spirale dans l'espace-temps. Mais le modèle d'Einstein ne s'applique pas au niveau quantique, et le modèle standard a besoin de porteurs de force supplémentaires pour expliquer l'origine de la masse. Combiner deux modèles ou La Théorie du Tout

fait l’objet de nombreuses études, jusqu’ici infructueuses.



Théorie de tout



La mécanique quantique est une description purement mathématique dont les implications pratiques sont souvent contre-intuitives. Les concepts classiques tels que la longueur, le temps, la masse et l’énergie peuvent être décrits de la même manière.

En nous basant sur les équations de de Broglie, nous pouvons remplacer ces concepts par des vecteurs abstraits. Cette approche probabiliste des concepts fondamentaux existants en physique nous permet de combiner la mécanique quantique avec la théorie de la relativité d'Einstein.



Les équations de De Broglie montrent que tous les systèmes de référence sont quantiques, y compris toute la matière et l'énergie. Les accélérateurs de particules ont montré que la matière et l'antimatière sont toujours créées simultanément.

Le paradoxe de la façon dont la réalité émerge de composants abstraits qui s’annihilent mutuellement peut être expliqué en utilisant les quanta comme cadre de référence.

En termes simples, nous devons regarder les choses à travers les yeux du photon. Le cadre de référence est toujours quantique et détermine la manière dont l'espace-temps est quantifié.

Lorsqu’un système « augmente » ou « diminue », l’espace-temps aussi. En mécanique quantique, cela est décrit mathématiquement comme l'amplitude de probabilité d'une fonction d'onde, et dans la théorie d'Einstein comme la dilatation du temps et la contraction de la longueur.

Pour un cadre de référence quantique, la masse et l'énergie ne peuvent être définies que comme des probabilités abstraites ou, pour être plus précis et créer une base mathématique, comme des vecteurs qui n'existent que lorsque nous supposons un axe du temps. Ils peuvent être définis comme une interférence ou une résonance avec un cadre de référence qui définit l'unité minimale ou constante espace-temps « c », équivalente à la constante de Planck en mécanique quantique.

Les expériences montrent que la conversion de la matière en énergie via l'antimatière produit des rayons gamma d'impulsion opposée. Ce qui semble être une transformation est une relation entre des vecteurs opposés, interprétée comme la distance et le temps, la matière et l'antimatière, la masse et l'énergie, ou l'interférence et la résonance au sein de l'axe temporel abstrait « C ».

La somme des vecteurs opposés est toujours nulle. C'est la raison pour laquelle les lois de symétrie ou de conservation en physique ou pourquoi à la vitesse "c" le temps et l'espace sont nuls en raison de la contraction de la longueur et de la dilatation du temps. Un corollaire de ceci est le principe d'incertitude de Heisenberg, qui stipule que certaines paires de propriétés physiques, telles que la position et la quantité de mouvement, ne peuvent pas être connues simultanément avec une grande précision.



En un sens, une particule individuelle constitue son propre champ. Cela n'explique pas notre sentiment de continuité, où « C » s'annihile dans sa propre plage nécessaire. Mais lorsque ces vecteurs sont amplifiés ou accélérés de manière exponentielle par rapport à et dans l’axe du temps, les algorithmes mathématiques de base qui décrivent les forces fondamentales peuvent donner naissance à une réalité continue.

à partir de composants abstraits.

Par conséquent, les équations du mouvement harmonique sont utilisées dans de nombreux domaines de la physique traitant de phénomènes périodiques, tels que la mécanique quantique et l'électrodynamique. Ainsi, le principe d'équivalence d'Einstein, dont est dérivé le modèle espace-temps, stipule qu'il n'y a pas de différence entre la gravité et l'accélération.

Parce que la gravité n’est une force que lorsqu’elle est vue dans un cadre de référence oscillant.

Ceci est illustré par une spirale logarithmique, qui se réduit à une spirale hélicoïdale dans un référentiel qui fait tourner et déplacer les objets sur des orbites. Par exemple, deux pommes en croissance dans un cadre de référence croissant semblent s'attirer l'une l'autre, alors que leur taille semble constante.

Le contraire se produit avec les interférences. En termes simples, l'augmentation ou la diminution de la taille des objets à mesure que nous nous rapprochons ou nous éloignons est déterminée par le déplacement du référentiel, comme une radio qui s'accorde sur différentes ondes pour capter une station de radio.



Cela s'applique également à la gravité. Essentiellement, quel que soit le cadre de référence, forces fondamentales n'existe pas. Toutes les interactions dans notre continuité abstraite peuvent être décrites mathématiquement par l’interférence et la résonance si l’unité minimale ou le quantum, en constante évolution et oscillant, est pris en compte.

Les preuves expérimentales impliquent un effet invisible dans le modèle standard, où nous voyons les effets des forces mais pas les porteurs de la force.



Superposition quantique



La continuité de la réalité n’exige pas que les quanta aient une séquence dans le temps. Un quantum n’est l’objet d’aucune notion d’espace et de temps et peut occuper simultanément tous ses états quantiques possibles. C'est ce qu'on appelle la superposition quantique et est démontrée, par exemple, dans l'expérience à double fente ou téléportation quantique, où chaque électron de l'univers peut être le même électron. La seule exigence pour un axe temporel abstrait et une continuité séquentielle de la réalité est un algorithme pour décrire le modèle ou une séquence abstraite de vecteurs.

Puisque cette continuité détermine notre capacité de conscience de soi, elle nous soumet à ses conséquences mathématiques : les lois fondamentales de la physique.

L'interaction est simplement l'interprétation d'un modèle abstrait. C’est pourquoi la mécanique quantique ne fournit que des descriptions mathématiques : elle ne peut décrire que des modèles avec des probabilités infinies.

Lorsque la probabilité est exprimée par « C », les informations nécessaires pour décrire le moment actuel, ou la plage probabiliste de « C », incarnent également l'axe du temps. La nature de l’axe du temps est l’une des plus grandes questions non résolues en physique, qui a conduit à de nombreuses nouvelles interprétations populaires.

Par exemple, le principe holographique – la partie gravitationnelle quantique de la théorie des cordes – suggère que l’univers entier peut être considéré comme une simple structure d’information bidimensionnelle.



Temps



Nous associons traditionnellement le concept d'axe temporel à la séquence d'événements que nous vivons à travers une séquence de souvenirs à court et à long terme. Nous ne pouvons avoir que des souvenirs du passé, pas du futur, et nous avons toujours pensé que cela reflétait le passage du temps.

Les scientifiques ont commencé à remettre en question cette logique seulement lorsque les découvertes en mécanique quantique ont démontré que certains phénomènes ne sont pas liés à notre conception du temps et que nos conceptions du temps ne sont que des perceptions de changements dans des paramètres observables.

Cela se reflète également dans la dilatation du temps et la contraction des longueurs, qui sont l’une des raisons pour lesquelles Einstein a établi que le temps et l’espace formaient un seul tissu.

Dans l’absolu, la notion de temps n’est pas différente de la notion de distance.

Les secondes sont égales aux secondes-lumière, mais s’excluent mutuellement. En termes simples : puisque la distance et le temps sont opposés, le passage du temps peut être interprété comme la distance parcourue par les aiguilles d’une horloge lorsqu’elles se déplacent dans le sens opposé du temps.

En avançant dans la distance, ils reculent en réalité dans ce qu’on appelle le temps. C’est pourquoi chaque unité minimale d’expérience est immédiatement absorbée dans l’éternel « maintenant ».

Cette interprétation résout le désaccord entre l’effondrement de la fonction d’onde et la décohérence quantique. Des concepts tels que « vie » et « mort » sont des constructions purement intellectuelles. Et toute spéculation religieuse sur une vie après la mort se déroulant dans un monde non soumis aux lois mathématiques de cette réalité est également fictive.



Une autre conséquence importante est que la théorie Big Bang L'origine de l'univers à partir d'un point est un malentendu. La représentation traditionnelle de l’espace-temps, où l’espace est tridimensionnel et le temps joue le rôle de quatrième dimension, est incorrecte. Si nous voulons étudier l'origine de l'univers, nous devons regarder en avant, puisque le vecteur temps "C" est opposé au vecteur distance à partir duquel nous percevons l'univers en expansion. Bien que cette carte temporelle de l'univers ne donne que des concepts abstraits sans tenir compte de sa base quantique.



Les preuves expérimentales incluent l'accélération de l'expansion de l'univers, ainsi que la métrique inverse ou régressive des trous noirs et de nombreux problèmes associés.

avec la théorie du Big Bang, par exemple, le problème de l'horizon.



Conséquences neurologiques



Ces déductions peuvent soulever des questions sur le libre arbitre, puisque dans notre expérience du temps, l'action semble se produire en premier, et la conscience en second.

La plupart des recherches qui éclairent cette question montrent que l’action se produit effectivement avant la prise de conscience. Mais la vision déterministe repose sur une conception erronée du temps, comme le démontrent les descriptions mathématiques des probabilités en mécanique quantique.



Ces interprétations seront importantes pour les futures recherches neurologiques, car elles montrent que tout circuit neuronal est un vecteur qui détermine la dissonance cognitive et l'interférence ou la résonance en « C ». La capacité de comprendre et de modifier consciemment ces vecteurs, acquise au cours de milliards d'années d'évolution, confirme l'importance de nos systèmes de croyances dans l'expansion de notre conscience et la manière dont ils influencent notre mémoire de travail, responsable de notre capacité à établir des liens, et à processus neuronaux qui forment le sens. Cela explique également que pour conscience artificielle besoin d'un réseau

processeurs indépendants, plutôt qu’une séquence linéaire d’algorithmes complexes.



Interprétation limitée



La théorie unifiée d’Athène est une solution qui combine physique quantique et relativité. Bien qu’il réponde à de nombreuses questions de physique énumérées ici, ceci constitue mon interprétation limitée des premiers mois de ses recherches scientifiques.

Quel que soit le résultat, il est clair que nous sommes entrés dans une ère dans laquelle la science est ouverte à tous. Et si nous maintenons Internet accessible et neutre, nous pouvons tester la validité de nos idées, développer notre imagination en créant de nouvelles connexions et continuer à développer notre compréhension.

l'univers et l'esprit.



Épilogue



En mécanique quantique, nous avons appris une approche différente de la réalité et à tout considérer comme des probabilités plutôt que des certitudes. D'un point de vue mathématique, tout est possible.

Tant en science que dans notre vie quotidienne, notre capacité à calculer ou à deviner des probabilités est déterminée par notre capacité intellectuelle à reconnaître des modèles.

Plus nous sommes ouverts, plus nous pouvons voir clairement ces schémas et baser nos actions sur des probabilités raisonnables.

Puisque c’est la nature même de notre cerveau gauche de rejeter les idées qui ne correspondent pas à nos points de vue actuels, plus nous sommes attachés à nos croyances, moins nous sommes capables de faire des choix conscients pour nous-mêmes. Mais en contrôlant ce processus, nous élargissons notre conscience de soi et augmentons notre libre arbitre.

On dit que la sagesse vient avec l’âge. Mais avec l’ouverture et le scepticisme – principes clés de la science – nous n’avons pas besoin de décennies d’essais et d’erreurs pour déterminer laquelle de nos croyances pourrait être fausse.

La question n’est pas de savoir si nos croyances sont vraies ou non, mais si notre attachement émotionnel à elles nous sera bénéfique ou nuisible.



Le libre choix n’existe pas tant que nous sommes émotionnellement attachés à un système de croyance. Une fois que nous aurons suffisamment conscience de nous-mêmes pour comprendre cela, nous pourrons travailler ensemble pour comprendre les probabilités de ce qui nous bénéficiera le plus.

« Le développement de la mécanique quantique a soumis nos visions scientifiques classiques à des critiques sans précédent. La conscience de soi et la volonté de reconsidérer nos hypothèses, qui sont constamment testées par la science et l'humanité, détermineront dans quelle mesure nous parviendrons à une compréhension plus profonde de l'esprit et de l'univers.


Je suppose qu'on pourrait dire que personne ne comprend la mécanique quantique

Physicien Richard Feynman

Il n’est pas exagéré de dire que l’invention des dispositifs semi-conducteurs a été une révolution. Non seulement il s’agit d’une réussite technologique impressionnante, mais elle a également ouvert la voie à des développements qui changeront à jamais. la société moderne. Les dispositifs semi-conducteurs sont utilisés dans toutes sortes de dispositifs microélectroniques, notamment les ordinateurs, certains typeséquipement de diagnostic et de traitement médical, appareils de télécommunication populaires.

Mais derrière cette révolution technologique il y a bien plus encore, une révolution dans la science générale : le domaine théorie des quanta. Sans cette avancée dans la compréhension du monde naturel, le développement de dispositifs à semi-conducteurs (et les dispositifs électroniques les plus avancés en cours de développement) n’aurait jamais réussi. La physique quantique est une branche scientifique incroyablement complexe. Ce chapitre ne fournit qu’un bref aperçu. Lorsque des scientifiques de la stature de Feynman disent que « personne ne le comprend », vous pouvez être sûr qu’il s’agit d’un sujet véritablement complexe. Sans une compréhension de base de la physique quantique, ou du moins une compréhension découvertes scientifiques qui a conduit à leur développement, il est impossible de comprendre comment et pourquoi fonctionnent les appareils électroniques à semi-conducteurs. La plupart des manuels d'électronique tentent d'expliquer les semi-conducteurs en termes de « physique classique », ce qui les rend encore plus déroutants à comprendre.

Beaucoup d’entre nous ont vu des diagrammes de modèles atomiques qui ressemblent à la figure ci-dessous.

Atome de Rutherford : électrons négatifs en orbite autour d'un petit noyau positif

De minuscules particules de matière appelées protons Et neutrons, forment le centre de l’atome ; électrons tournent comme des planètes autour d'une étoile. Le noyau porte une charge électrique positive en raison de la présence de protons (les neutrons n'ont pas de charge électrique), tandis que la charge négative d'équilibrage de l'atome se trouve dans les électrons en orbite. Les électrons négatifs sont attirés par les protons positifs, tout comme les planètes sont attirées par la gravité vers le Soleil, mais les orbites sont stables en raison du mouvement des électrons. Nous devons cela modèle populaire travaux sur les atomes d'Ernest Rutherford qui, vers 1911, détermina expérimentalement que les charges positives des atomes étaient concentrées dans un noyau minuscule et dense, plutôt que réparties uniformément sur tout le diamètre, comme le chercheur J. J. Thomson l'avait supposé auparavant.

L'expérience de diffusion de Rutherford consiste à bombarder une fine feuille d'or avec des particules alpha chargées positivement, comme le montre la figure ci-dessous. Les jeunes étudiants diplômés H. Geiger et E. Marsden ont obtenu des résultats inattendus. La trajectoire de certaines particules alpha a été déviée d’un grand angle. Certaines particules alpha étaient diffusées dans la direction opposée, sous un angle de près de 180°. La plupart des particules ont traversé la feuille d’or sans changer de trajectoire, comme s’il n’y avait pas de feuille du tout. Le fait que plusieurs particules alpha aient connu de grandes déviations dans leur trajectoire indique la présence de noyaux avec une petite charge positive.

Diffusion Rutherford : un faisceau de particules alpha est diffusé par une fine feuille d'or

Même si le modèle de l'atome de Rutherford était mieux étayé par des données expérimentales que celui de Thomson, il n'était toujours pas idéal. D’autres tentatives ont été faites pour déterminer la structure de l’atome, et ces efforts ont contribué à ouvrir la voie aux étranges découvertes de la physique quantique. Aujourd’hui, notre compréhension de l’atome est un peu plus complexe. Cependant, malgré la révolution de la physique quantique et ses contributions à notre compréhension de la structure atomique, l'image de Rutherford du système solaire en tant que structure d'un atome s'est tellement enracinée dans la conscience populaire qu'elle persiste dans les domaines de l'éducation, même si c'est inapproprié.

Considérons ceci brève descriptionélectrons dans un atome, tiré d'un manuel d'électronique populaire :

Les électrons négatifs en rotation sont attirés par le noyau positif, ce qui nous amène à nous demander pourquoi les électrons ne volent pas dans le noyau de l'atome. La réponse est que les électrons en rotation restent sur leur orbite stable en raison de deux forces égales mais opposées. La force centrifuge agissant sur les électrons est dirigée vers l’extérieur et la force d’attraction entre les charges tente d’attirer les électrons vers le noyau.

Selon le modèle de Rutherford, l'auteur considère les électrons comme des morceaux de matière solides occupant des orbites circulaires, leur attraction vers un noyau de charge opposée étant équilibrée par leur mouvement. L'utilisation du terme « force centrifuge » est techniquement incorrecte (même pour les planètes en orbite), mais cela est facilement pardonné en raison de l'acceptation populaire du modèle : en fait, la force n'existe pas. repoussantn'importe lequel un corps en rotation depuis le centre de son orbite. Il semble que cela soit dû au fait que l'inertie du corps s'efforce de maintenir son mouvement en ligne droite, et comme l'orbite est une déviation (accélération) constante du mouvement rectiligne, il y a une réaction inertielle constante à toute force attirant le corps vers le centre de l'orbite (centripète), qu'il s'agisse alors de la gravité, de l'attraction électrostatique, ou encore de la tension d'une liaison mécanique.

Cependant, le véritable problème de cette explication réside en premier lieu dans l’idée selon laquelle les électrons se déplacent sur des orbites circulaires. Il est prouvé que les charges électriques accélérées émettent un rayonnement électromagnétique, un fait qui était déjà connu à l'époque de Rutherford. Puisque le mouvement de rotation est une forme d’accélération (un objet en rotation dans accélération constante, qui éloigne l'objet du mouvement linéaire normal), les électrons en rotation devraient émettre un rayonnement, comme la saleté d'une roue qui patine. Les électrons accélérés le long de trajectoires circulaires dans des accélérateurs de particules appelés synchrotrons sont connus pour faire cela, et le résultat est appelé rayonnement synchrotron. Si les électrons perdaient de l’énergie de cette manière, leurs orbites finiraient par être perturbées, ce qui les amènerait à entrer en collision avec un noyau chargé positivement. Toutefois, cela ne se produit généralement pas à l’intérieur des atomes. En effet, les « orbites » électroniques sont remarquablement stables dans une large gamme de conditions.

De plus, des expériences avec des atomes « excités » ont montré que l'énergie électromagnétique n'est émise par un atome qu'à certaines fréquences. Les atomes sont « excités » par des stimuli externes tels que la lumière, comme on le sait, pour absorber de l'énergie et renvoyer des ondes électromagnétiques à certaines fréquences, comme un diapason qui ne sonne pas à une certaine fréquence jusqu'à ce qu'il soit frappé. Lorsque la lumière émise par un atome excité est divisée en fréquences (couleurs) par un prisme, des raies de couleur individuelles dans le spectre sont détectées, un motif de raies spectrales unique à l'élément chimique. Ce phénomène est couramment utilisé pour identifier des éléments chimiques, et même pour mesurer les proportions de chaque élément dans un composé ou un mélange chimique. Selon système solaire Selon le modèle atomique de Rutherford (relatif aux électrons comme morceaux de matière tournant librement sur une orbite avec un certain rayon) et les lois de la physique classique, les atomes excités doivent restituer de l'énergie dans une gamme presque infinie de fréquences, et non à des fréquences sélectionnées. En d’autres termes, si le modèle de Rutherford était correct, il n’y aurait pas d’effet « diapason » et le spectre de couleurs émis par n’importe quel atome apparaîtrait comme une bande continue de couleurs plutôt que comme plusieurs lignes individuelles.


Le modèle Bohr de l'atome d'hydrogène (avec des orbites dessinées à l'échelle) suppose que les électrons ne se trouvent que sur des orbites discrètes. Les électrons passant de n=3,4,5 ou 6 à n=2 sont affichés sur une série de raies spectrales de Balmer

Un chercheur nommé Niels Bohr a tenté d'améliorer le modèle de Rutherford après l'avoir étudié dans le laboratoire de Rutherford pendant plusieurs mois en 1912. En essayant de concilier les résultats d'autres physiciens (notamment Max Planck et Albert Einstein), Bohr a proposé que chaque électron possédait une quantité d'énergie spécifique et spécifique, et que leurs orbites étaient réparties de telle manière que chacun d'eux puisse occuper des endroits spécifiques autour de lui. le noyau, comme les billes, est fixé sur des trajectoires circulaires autour du noyau, et non comme des satellites se déplaçant librement, comme on le supposait précédemment (figure ci-dessus). Par respect pour les lois de l'électromagnétisme et des charges accélératrices, Bohr qualifiait les « orbites » de états stationnaires pour éviter l’interprétation selon laquelle ils étaient mobiles.

Bien que la tentative ambitieuse de Bohr visant à repenser la structure de l'atome afin qu'elle soit plus cohérente avec les données expérimentales ait constitué une étape importante dans le domaine de la physique, elle n'a pas été achevée. Son analyse mathématique était meilleure pour prédire les résultats des expériences que les analyses effectuées selon les modèles précédents, mais des questions restaient sans réponse sur Pourquoi les électrons doivent se comporter de cette manière étrange. L'affirmation selon laquelle les électrons existaient dans des états quantiques stationnaires autour du noyau correspondait mieux aux données expérimentales que le modèle de Rutherford, mais ne précisait pas ce qui avait poussé les électrons à adopter ces états spéciaux. La réponse à cette question devait venir d’un autre physicien, Louis de Broglie, une dizaine d’années plus tard.

De Broglie a proposé que les électrons, comme les photons (particules de lumière), possèdent à la fois les propriétés des particules et celles des ondes. Partant de cette hypothèse, il suggère que l'analyse des électrons en rotation en termes d'ondes était mieux adaptée qu'en termes de particules et pourrait donner plus de compréhension sur leur nature quantique. Et en effet, une autre avancée a été réalisée dans la compréhension.


Une corde vibrant à une fréquence de résonance entre deux points fixes produit une onde stationnaire

L'atome, selon de Broglie, était constitué d'ondes stationnaires, un phénomène bien connu des physiciens sous diverses formes. Comme la corde pincée d'un instrument de musique (photo ci-dessus), vibrant à une fréquence de résonance, avec des « nœuds » et des « anti-nœuds » à des endroits stables sur toute sa longueur. De Broglie a imaginé les électrons autour des atomes comme des ondes courbées en cercle (image ci-dessous).


Électrons « en rotation », comme une onde stationnaire autour du noyau, (a) deux cycles sur une orbite, (b) trois cycles sur une orbite

Les électrons ne peuvent exister que sur certaines « orbites » spécifiques autour du noyau, car ce sont les seules distances auxquelles les extrémités de l’onde coïncident. À tout autre rayon, l’onde entrera en collision de manière destructrice avec elle-même et cessera ainsi d’exister.

L'hypothèse de De Broglie fournissait à la fois les mathématiques et une analogie physique pratique pour expliquer les états quantiques des électrons dans un atome, mais son modèle de l'atome était encore incomplet. Pendant plusieurs années, les physiciens Werner Heisenberg et Erwin Schrödinger, travaillant indépendamment l'un de l'autre, ont travaillé sur le concept de dualité onde-particule de De Broglie pour créer des modèles mathématiques plus rigoureux de particules subatomiques.

Cette progression théorique du modèle primitif d'ondes stationnaires de Broglie aux modèles de matrice de Heisenberg et d'équations différentielles de Schrödinger a reçu le nom de mécanique quantique et a introduit une caractéristique plutôt choquante dans le monde des particules subatomiques : le signe de probabilité, ou d'incertitude. Selon la nouvelle théorie quantique, il était impossible de déterminer la position exacte et l’impulsion exacte d’une particule à un moment donné. Une explication populaire de ce "principe d'incertitude" était qu'il y avait une erreur de mesure (c'est-à-dire qu'en essayant de mesurer avec précision la position d'un électron, vous interférez avec son élan et ne pouvez donc pas savoir ce qu'il y avait avant de commencer à mesurer la position). et vice versa). La conclusion sensationnelle de la mécanique quantique est que les particules n’ont pas de positions ni d’impulsions exactes et qu’en raison de la relation entre ces deux quantités, leur incertitude combinée ne diminuera jamais en dessous d’une certaine valeur minimale.

Cette forme de connexion « d'incertitude » existe dans des domaines autres que la mécanique quantique. Comme indiqué dans le chapitre « Signaux CA à fréquences mixtes » dans le volume 2 de cette série de livres, il existe des relations mutuellement exclusives entre la confiance dans les données du domaine temporel d'une forme d'onde et ses données dans le domaine fréquentiel. En termes simples, plus nous connaissons les fréquences de ses composantes, moins nous connaissons avec précision son amplitude dans le temps, et vice versa. Je me cite :

Un signal de durée infinie (nombre infini de cycles) peut être analysé avec précision absolue, mais moins l'ordinateur dispose de cycles pour l'analyse, moins l'analyse est précise... Moins il y a de périodes du signal, moins sa fréquence est précise. En poussant ce concept à son extrême logique, une impulsion courte (pas même un cycle complet du signal) n’a pas réellement de fréquence spécifique, c’est une gamme infinie de fréquences. Ce principe est commun à tous les phénomènes ondulatoires, et pas seulement à tensions alternatives et les courants.

Pour déterminer avec précision l’amplitude d’un signal changeant, nous devons la mesurer sur une période de temps très courte. Cependant, cela limite notre connaissance de la fréquence de l’onde (une onde en mécanique quantique n’est pas censée être comme une onde sinusoïdale ; une telle similitude est un cas particulier). En revanche, pour déterminer la fréquence d’une onde avec une grande précision, il faut la mesurer sur un grand nombre de périodes, ce qui fait que l’on perd de vue son amplitude à un instant donné. Ainsi, nous ne pouvons pas connaître simultanément l’amplitude instantanée et toutes les fréquences d’une onde avec une précision illimitée. Une autre chose étrange est que cette incertitude est bien plus grande que celle de l'observateur ; c'est dans la nature même de la vague. Ce n’est pas vrai, même s’il serait possible, avec la technologie appropriée, de fournir simultanément des mesures précises de l’amplitude et de la fréquence instantanées. Littéralement, une onde ne peut pas avoir à la fois une amplitude instantanée précise et une fréquence précise.

L'incertitude minimale sur la position et l'impulsion des particules exprimée par Heisenberg et Schrödinger n'a rien à voir avec une limitation de la mesure ; il s’agit plutôt d’une propriété intrinsèque de la nature de la dualité particule-onde. Par conséquent, les électrons n’existent pas réellement sur leurs « orbites » en tant que particules de matière précisément définies, ni même en tant que particules de matière précisément définies. certaines formes vagues, mais plutôt comme des "nuages" - un terme technique fonction d'onde distributions de probabilité comme si chaque électron était « dispersé » ou « réparti » sur une gamme de positions et d'impulsions.

Cette vision radicale des électrons comme de vagues nuages ​​contredit initialement le principe original des états quantiques électroniques : les électrons existent sur des « orbites » discrètes et définies autour du noyau d’un atome. Après tout, cette nouvelle idée est la découverte qui a conduit à la formation et à l’explication de la théorie quantique. Il semble étrange qu’une théorie créée pour expliquer le comportement discret des électrons finisse par déclarer que les électrons existent sous forme de « nuages ​​» plutôt que de morceaux individuels de matière. Cependant, le comportement quantique des électrons ne dépend pas du fait que les électrons aient certaines valeurs de coordonnées et de quantité de mouvement, mais d'autres propriétés appelées nombres quantiques. Essentiellement, la mécanique quantique supprime les concepts courants de position absolue et de moment absolu et les remplace concepts absolus types qui n’ont pas d’analogues en médecine générale.

Même si l’on sait que les électrons existent dans des « nuages ​​» éthérés de probabilité distribuée plutôt que sous forme de morceaux individuels de matière, ces « nuages ​​» ont des caractéristiques légèrement différentes. Tout électron dans un atome peut être décrit par quatre mesures numériques (les nombres quantiques mentionnés précédemment), appelées principal (radial), orbitale (azimutale), magnétique Et rotation Nombres. Vous trouverez ci-dessous un bref aperçu de la signification de chacun de ces nombres :

Nombre quantique principal (radial): indiqué par une lettre n, ce numéro décrit la coquille dans laquelle réside l'électron. La « coquille » électronique est une région de l'espace autour du noyau d'un atome dans laquelle des électrons peuvent exister, correspondant aux modèles stables de « onde stationnaire » de de Broglie et Bohr. Les électrons peuvent « sauter » d’une coquille à l’autre, mais ne peuvent pas exister entre eux.

Le nombre quantique principal doit être un entier positif (supérieur ou égal à 1). En d’autres termes, le nombre quantique principal de l’électron ne peut pas être 1/2 ou -3. Ces nombres entiers n'ont pas été choisis arbitrairement, mais grâce à des preuves expérimentales du spectre lumineux : les différentes fréquences (couleurs) de la lumière émise par les atomes d'hydrogène excités suivent une relation mathématique en fonction des valeurs entières spécifiques, comme le montre la figure ci-dessous.

Chaque couche a la capacité de contenir plusieurs électrons. Une analogie avec les coques électroniques est celle des rangées concentriques de sièges dans un amphithéâtre. Tout comme une personne assise dans un amphithéâtre doit choisir une rangée dans laquelle s'asseoir (elle ne peut pas s'asseoir entre les rangées), les électrons doivent « choisir » une coquille spécifique pour « s'asseoir ». Comme les rangées d’un amphithéâtre, les coquilles les plus extérieures contiennent plus d’électrons que les coquilles plus proches du centre. Les électrons ont également tendance à trouver la plus petite coque disponible, tout comme les personnes dans un amphithéâtre recherchent le siège le plus proche de la scène centrale. Plus le numéro de couche est élevé, plus les électrons qu’elle contient ont d’énergie.

Le nombre maximum d'électrons qu'une couche peut contenir est décrit par l'équation 2n 2, où n est le nombre quantique principal. Ainsi, la première couche (n = 1) peut contenir 2 électrons ; deuxième couche (n = 2) - 8 électrons ; et la troisième couche (n = 3) - 18 électrons (photo ci-dessous).


Nombre quantique principal n et quantité maximale les électrons sont liés par la formule 2(n 2). Les orbites ne sont pas à l'échelle.

Les couches électroniques d’un atome étaient désignées par des lettres plutôt que par des chiffres. La première coque (n = 1) a été désignée K, la deuxième coque (n = 2) L, la troisième coque (n = 3) M, la quatrième coque (n = 4) N, la cinquième coque (n = 5) O, la sixième coque ( n = 6) P et la septième coque (n = 7) B.

Nombre quantique orbital (azimutal): une coque composée de sous-coques. Certains trouveront peut-être plus pratique de considérer les sous-shells comme sections simples des coquillages, comme des rayures séparant la route. Les sous-coquilles sont beaucoup plus étranges. Les sous-couches sont des régions de l'espace où des « nuages ​​» d'électrons peuvent exister, et en fait différentes sous-couches ont des formes différentes. La première sous-couche est sphérique (figure ci-dessous (s)), ce qui est logique lorsqu'elle est visualisée comme un nuage d'électrons entourant le noyau atomique en trois dimensions.

La deuxième sous-coquille ressemble à un haltère, constitué de deux « pétales » reliés en un point près du centre de l’atome (image ci-dessous (p)).

La troisième sous-couche ressemble généralement à un ensemble de quatre « pétales » regroupés autour du noyau de l’atome. Ces formes de sous-coquilles ressemblent à des représentations graphiques de diagrammes d'antenne avec des lobes en forme d'oignon s'étendant de l'antenne dans différentes directions (figure ci-dessous (d)).


Orbitales :
(s) triple symétrie ;
(p) Montré : p x , l'une des trois orientations possibles (p x , p y , p z ), le long des axes correspondants ;
(d) Montré : d x 2 -y 2 est similaire à d xy , d yz , d xz . Montré : d z 2 . Nombre d'orbitales d possibles : cinq.

Les valeurs valides pour le nombre quantique orbital sont des entiers positifs, comme pour le nombre quantique principal, mais incluent également zéro. Ces nombres quantiques pour les électrons sont désignés par la lettre l. Le nombre de sous-couches est égal au nombre quantique principal de la coquille. Ainsi, le premier shell (n = 1) a un sous-shell numéroté 0 ; le deuxième shell (n = 2) a deux sous-shell portant les numéros 0 et 1 ; le troisième shell (n = 3) possède trois sous-shells numérotés 0, 1 et 2.

L'ancienne convention pour décrire les sous-shells utilisait des lettres plutôt que des chiffres. Dans ce format, le premier sous-shell (l = 0) était noté s, le deuxième sous-shell (l = 1) était noté p, le troisième sous-shell (l = 2) était noté d et le quatrième sous-shell (l = 3) était noté f. Les lettres provenaient des mots : pointu, principal, diffuser Et fondamental. Vous pouvez encore voir ces notations dans de nombreux tableaux périodiques, utilisés pour représenter la configuration électronique de l'extérieur ( valence) coquilles d'atomes.


(a) Représentation Bohr de l'atome d'argent,
(b) représentation orbitale de Ag avec des coquilles divisées en sous-couches (numéro quantique orbital l).
Ce diagramme n’implique rien sur la position réelle des électrons, mais représente uniquement les niveaux d’énergie.

Nombre quantique magnétique: Le nombre quantique magnétique d'un électron classe l'orientation de la forme de la sous-couche de l'électron. Les « pétales » des sous-coquilles peuvent être dirigés dans plusieurs directions. Ces différentes orientations sont appelées orbitales. Pour la première sous-coque (s; l = 0), qui ressemble à une sphère, la « direction » n'est pas précisée. Pour la deuxième sous-coque (p ; l = 1) dans chaque coque, qui ressemble à un haltère pointant dans trois directions possibles. Imaginez trois haltères se croisant à l'origine, chacun pointant le long de son propre axe dans un système de coordonnées triaxiales.

Les valeurs valides pour un nombre quantique donné sont constituées d'entiers allant de -l à l, et ce nombre est noté m l en physique atomique et je z en physique nucléaire. Pour calculer le nombre d'orbitales dans n'importe quelle sous-couche, vous devez doubler le numéro de sous-couche et ajouter 1, (2∙l + 1). Par exemple, le premier sous-shell (l = 0) de n'importe quel shell contient une orbitale numérotée 0 ; la deuxième sous-coque (l = 1) dans n'importe quelle coquille contient trois orbitales portant les numéros -1, 0 et 1 ; la troisième sous-couche (l = 2) contient cinq orbitales portant les numéros -2, -1, 0, 1 et 2 ; et ainsi de suite.

Comme le nombre quantique maître, le nombre quantique magnétique est directement issu de données expérimentales : l'effet Zeeman, la division des raies spectrales en exposant un gaz ionisé à un champ magnétique, d'où le nom de nombre quantique « magnétique ».

Nombre quantique de rotation: Comme le nombre quantique magnétique, cette propriété des électrons d'un atome a été découverte grâce à des expériences. Une observation minutieuse des raies spectrales a montré que chaque raie était en réalité une paire de raies très rapprochées. On a supposé que ce qu'on appelle structure fineétait le résultat de la « rotation » de chaque électron sur son axe, comme une planète. Des électrons avec un « spin » différent produiraient des fréquences de lumière légèrement différentes lorsqu’ils seraient excités. Le concept d'électron en rotation est désormais obsolète, étant plus adapté à la vision (incorrecte) des électrons comme des particules individuelles de matière plutôt que comme des « nuages ​​», mais le nom demeure.

Les nombres quantiques de spin sont notés MS en physique atomique et s z en physique nucléaire. Chaque orbitale de chaque sous-couche peut avoir deux électrons dans chaque couche, un avec un spin +1/2 et un avec un spin -1/2.

Le physicien Wolfgang Pauli a développé un principe qui explique l'ordre des électrons dans un atome selon ces nombres quantiques. Son principe, appelé Le principe d'exclusion de Pauli, stipule que deux électrons dans le même atome ne peuvent pas occuper les mêmes états quantiques. Autrement dit, chaque électron d’un atome possède un ensemble unique de nombres quantiques. Cela limite le nombre d’électrons pouvant occuper une orbitale, une sous-couche et une couche.

Ceci montre la disposition des électrons dans un atome d’hydrogène :


Avec un proton dans le noyau, l'atome accepte un électron pour son équilibre électrostatique (la charge positive du proton est exactement équilibrée par la charge négative de l'électron). Cet électron est situé dans la couche inférieure (n = 1), la première sous-couche (l = 0), dans la seule orbitale (orientation spatiale) de cette sous-couche (m l = 0), avec une valeur de spin de 1/2. La méthode générale de description de cette structure consiste à lister les électrons selon leurs couches et sous-couches selon une convention appelée désignation spectroscopique. Dans cette notation, le numéro de coque est affiché sous forme d'entier, le sous-couche sous forme de lettre (s,p,d,f) et totalélectrons dans une sous-couche (toutes les orbitales, tous les spins) en exposant. Ainsi, l’hydrogène, avec son seul électron placé au niveau de base, est décrit comme 1s 1.

En passant à l'atome suivant (par ordre de numéro atomique), nous obtenons l'élément hélium :

Un atome d'hélium a deux protons dans le noyau, ce qui nécessite deux électrons pour équilibrer la double charge électrique positive. Étant donné que deux électrons - l'un de spin 1/2 et l'autre de spin -1/2 - sont sur la même orbitale, la structure électronique de l'hélium ne nécessite pas de sous-couches ou de couches supplémentaires pour contenir le deuxième électron.

Cependant, un atome nécessitant trois électrons ou plus aura besoin de sous-couches supplémentaires pour contenir tous les électrons, puisque seuls deux électrons peuvent être trouvés dans la couche inférieure (n = 1). Considérons l’atome suivant dans la séquence de numéros atomiques croissants, le lithium :


L'atome de lithium utilise une partie de la capacité de la couche L (n = 2). Cette coquille a en réalité une capacité totale de huit électrons (capacité maximale de la coquille = 2n 2 électrons). Si l'on considère la structure d'un atome avec une coquille L complètement remplie, nous voyons comment toutes les combinaisons de sous-couches, d'orbitales et de spins sont occupées par des électrons :

Souvent, lors de l'attribution d'une désignation spectroscopique à un atome, toutes les coquilles complètement remplies sont ignorées, et les coquilles non remplies et les coquilles remplies de niveau supérieur sont désignées. Par exemple, l'élément néon (illustré dans la figure ci-dessus), qui possède deux coques complètement remplies, peut être décrit spectralement simplement comme 2p 6 plutôt que 1s 22 s 22 p 6. Le lithium, avec sa couche K entièrement remplie et un seul électron dans la couche L, peut être décrit simplement comme 2s 1 plutôt que 1s 22 s 1 .

Sauter des coques de niveau inférieur complètement remplies n'est pas seulement pour des raisons de commodité d'enregistrement. Il illustre également un principe de base de la chimie : le comportement chimique d’un élément est principalement déterminé par ses coquilles non remplies. L’hydrogène et le lithium ont tous deux un électron dans leur couche externe (respectivement 1 et 2s 1), c’est-à-dire que les deux éléments ont des propriétés similaires. Les deux sont très réactifs et réagissent presque de la même manière (en se liant à des éléments similaires dans des conditions similaires). Peu importe que le lithium ait une coque K complètement remplie sous une coque L presque vide : la coque L non remplie est celle qui détermine son comportement chimique.

Les éléments dont l'enveloppe extérieure est complètement remplie sont classés comme nobles et se caractérisent par une absence presque totale de réaction avec les autres éléments. Ces éléments ont été classés comme inertes alors qu’on pensait qu’ils ne réagissaient pas du tout, mais on sait qu’ils forment des composés avec d’autres éléments dans certaines conditions.

Étant donné que les éléments ayant les mêmes configurations électroniques dans leur couche externe ont des caractéristiques similaires. Propriétés chimiques, Dmitri Mendeleev a organisé les éléments chimiques dans le tableau en conséquence. Ce tableau est connu sous le nom , et les tableaux modernes suivent cette forme générale, illustrée dans la figure ci-dessous.


Tableau périodique des éléments chimiques

Dmitri Mendeleïev, un chimiste russe, fut le premier à élaborer le tableau périodique des éléments. Même si Mendeleïev organisait sa table selon masse atomique, plutôt que le numéro atomique, et a créé un tableau qui n'était pas aussi utile que les tableaux périodiques modernes, son développement constitue un excellent exemple preuve scientifique. Après avoir observé des modèles de périodicité (propriétés chimiques similaires en fonction de la masse atomique), Mendeleïev a émis l'hypothèse que tous les éléments devraient s'inscrire dans ce modèle ordonné. Lorsqu'il découvrit des places « vides » dans le tableau, il suivit la logique de l'ordre existant et supposa l'existence d'éléments encore inconnus. La découverte ultérieure de ces éléments a confirmé l'exactitude scientifique de l'hypothèse de Mendeleev, et d'autres découvertes ont conduit au type de tableau périodique que nous utilisons aujourd'hui.

Comme ça doit science du travail : les hypothèses conduisent à des conclusions logiques et sont acceptées, modifiées ou rejetées en fonction de la cohérence des données expérimentales avec leurs conclusions. N’importe quel imbécile peut formuler une hypothèse après coup pour expliquer les données expérimentales disponibles, et beaucoup le font. Ce qui distingue une hypothèse scientifique de la spéculation ex post facto est la prédiction de données expérimentales futures qui n'ont pas encore été collectées, et la réfutation possible de ces données en conséquence. Poursuivre hardiment une hypothèse jusqu’à ses conclusions logiques, et tenter de prédire les résultats d’expériences futures n’est pas un acte de foi dogmatique, mais plutôt un test public de cette hypothèse, un défi ouvert aux opposants à l’hypothèse. En d’autres termes, les hypothèses scientifiques sont toujours « risquées » car elles tentent de prédire les résultats d’expériences qui n’ont pas encore été réalisées et peuvent donc être falsifiées si les expériences ne se déroulent pas comme prévu. Ainsi, si une hypothèse prédit correctement les résultats d’expériences répétées, elle est considérée comme fausse.

La mécanique quantique, d’abord comme hypothèse puis comme théorie, s’est avérée extrêmement efficace pour prédire les résultats des expériences, acquérant ainsi un haut degré de crédibilité scientifique. De nombreux scientifiques ont des raisons de croire qu’il s’agit d’une théorie incomplète, puisque ses prédictions sont plus vraies aux échelles microphysiques qu’aux échelles macroscopiques, mais il s’agit néanmoins d’une théorie extrêmement utile pour expliquer et prédire les interactions des particules et des atomes.

Comme vous l'avez déjà vu dans ce chapitre, la physique quantique a important lors de la description et de la prévision de nombreux phénomènes différents. Dans la section suivante, nous verrons son importance dans la conductivité électrique. solides, y compris les semi-conducteurs. En termes simples, rien en chimie ou en physique du solide ne donne de sens à la structure théorique populaire des électrons existant sous forme de particules individuelles de matière en orbite autour du noyau d’un atome comme des satellites miniatures. Lorsque les électrons sont considérés comme des « fonctions d’onde » existant dans des états spécifiques, discrets, réguliers et périodiques, le comportement de la matière peut alors être expliqué.

Résumons-le

Les électrons dans les atomes existent dans des « nuages ​​» de probabilité distribuée, plutôt que sous forme de particules discrètes de matière en orbite autour d'un noyau comme des satellites miniatures, comme le suggèrent des exemples courants.

Les électrons individuels autour du noyau d’un atome ont tendance à atteindre des « états » uniques décrits par quatre nombres quantiques : nombre quantique principal (radial), connu comme coquille; nombre quantique orbital (azimutal), connu comme sous-shell; nombre quantique magnétique, décrivant orbital(orientation de la sous-coque) ; Et nombre quantique de spin, ou simplement rotation. Ces états sont quantiques, c'est-à-dire qu'« entre eux », il n'y a aucune condition pour l'existence d'un électron, à l'exception des états qui s'inscrivent dans le schéma de numérotation quantique.

Nombre quantique glaciaire (radial) (n) décrit le niveau de base ou la couche dans laquelle réside un électron. Plus ce nombre est grand, plus le rayon du nuage électronique à partir du noyau atomique est grand et plus l'énergie de l'électron est grande. Les nombres quantiques principaux sont des entiers (entiers positifs)

Nombre quantique orbital (azimutal) (l) décrit la forme du nuage d'électrons dans une couche ou un niveau particulier et est souvent appelé « sous-couche ». Dans toute coque, il y a autant de sous-couches (formes de nuages ​​d'électrons) que de nombre quantique principal de la coque. Les nombres quantiques azimutaux sont des nombres entiers positifs commençant à zéro et se terminant par un nombre inférieur de un au nombre quantique principal (n - 1).

Nombre quantique magnétique (m l) décrit l'orientation de la sous-couche (forme du nuage d'électrons). Les sous-coquilles peuvent autoriser autant d'orientations différentes que deux fois le numéro de sous-coque (l) plus 1, (2l+1) (c'est-à-dire pour l=1, m l = -1, 0, 1), et chaque orientation unique est appelée une orbitale. . Ces nombres sont des nombres entiers commençant par la valeur négative du numéro de sous-shell (l) jusqu'à 0 et se terminant par la valeur positive du numéro de sous-shell.

Nombre quantique de spin (ms) décrit une autre propriété d'un électron et peut prendre des valeurs +1/2 et -1/2.

Le principe d'exclusion de Pauli dit que deux électrons dans un atome ne peuvent pas partager le même ensemble de nombres quantiques. Par conséquent, il ne peut y avoir plus de deux électrons dans chaque orbitale (spin=1/2 et spin=-1/2), 2l+1 orbitales dans chaque sous-couche et n sous-couches dans chaque coquille, et pas plus.

Désignation spectroscopique est une convention pour indiquer la structure électronique d'un atome. Les coquilles sont représentées sous forme de nombres entiers, suivis de lettres de sous-couches (s, p, d, f) avec des nombres en exposant indiquant le nombre total d'électrons trouvés dans chaque sous-couche correspondante.

Le comportement chimique d’un atome est déterminé uniquement par les électrons contenus dans des coquilles non remplies. Les coques de bas niveau complètement remplies n’ont que peu ou pas d’effet sur les caractéristiques de liaison chimique des éléments.

Les éléments dont la couche électronique est complètement remplie sont presque complètement inertes et sont appelés nobleéléments (anciennement appelés inertes).

La physique est la plus mystérieuse de toutes les sciences. La physique nous permet de comprendre le monde qui nous entoure. Les lois de la physique sont absolues et s’appliquent à chacun sans exception, quelle que soit sa personne ou son statut social.

Cet article est destiné aux personnes de plus de 18 ans

As-tu déjà 18 ans ?

Découvertes fondamentales dans le domaine de la physique quantique

Isaac Newton, Nikola Tesla, Albert Einstein et bien d'autres sont les grands guides de l'humanité dans le monde merveilleux de la physique, qui, tels des prophètes, ont révélé à l'humanité les plus grands secrets de l'univers et les possibilités de contrôler les phénomènes physiques. Leurs têtes brillantes traversaient les ténèbres de l'ignorance de la majorité déraisonnable et, comme une étoile directrice, montraient la voie à l'humanité dans l'obscurité de la nuit. L'un de ces guides dans le monde de la physique était Max Planck, le père de la physique quantique.

Max Planck n'est pas seulement le fondateur de la physique quantique, mais aussi l'auteur de la théorie quantique de renommée mondiale. La théorie quantique est la composante la plus importante de la physique quantique. En mots simples, cette théorie décrit le mouvement, le comportement et l'interaction des microparticules. Le fondateur de la physique quantique nous a également apporté de nombreux autres travaux scientifiques qui sont devenus les pierres angulaires de la physique moderne :

  • théorie du rayonnement thermique;
  • théorie spéciale de la relativité ;
  • recherche en thermodynamique;
  • recherche dans le domaine de l'optique.

Les théories de la physique quantique sur le comportement et les interactions des microparticules sont devenues la base de la physique de la matière condensée, de la physique des particules et de la physique des hautes énergies. La théorie quantique nous explique l'essence de nombreux phénomènes de notre monde - du fonctionnement des ordinateurs électroniques à la structure et au comportement des corps célestes. Max Planck, le créateur de cette théorie, grâce à sa découverte, nous a permis de comprendre la véritable essence de nombreuses choses au niveau des particules élémentaires. Mais la création de cette théorie est loin d’être le seul mérite du scientifique. Il est devenu le premier à découvrir la loi fondamentale de l'Univers - la loi de conservation de l'énergie. La contribution de Max Planck à la science ne peut guère être surestimée. Bref, ses découvertes sont inestimables pour la physique, la chimie, l'histoire, la méthodologie et la philosophie.

Théorie quantique des champs

En un mot, théorie des quanta les champs sont une théorie permettant de décrire les microparticules, ainsi que leur comportement dans l'espace, leur interaction les unes avec les autres et leur interconversion. Cette théorie étudie le comportement des systèmes quantiques au sein de ce qu'on appelle les degrés de liberté. Ce nom magnifique et romantique ne veut vraiment rien dire pour beaucoup d’entre nous. Pour les nuls, les degrés de liberté sont le nombre de coordonnées indépendantes nécessaires pour indiquer le mouvement. Système mécanique. En termes simples, les degrés de liberté sont des caractéristiques du mouvement. Des découvertes intéressantes dans le domaine de l'interaction des particules élémentaires ont été faites par Steven Weinberg. Il a découvert ce qu'on appelle le courant neutre - le principe d'interaction entre les quarks et les leptons, pour lequel il a reçu prix Nobel en 1979.

La théorie quantique de Max Planck

Dans les années 1990, le physicien allemand Max Planck commença à étudier le rayonnement thermique et obtint finalement une formule pour la répartition de l'énergie. L'hypothèse quantique, née au cours de ces études, a jeté les bases de la physique quantique, ainsi que de la théorie quantique des champs, découverte en 1900. La théorie quantique de Planck est que lorsque Radiation thermique l'énergie produite n'est pas émise et absorbée de manière constante, mais de manière épisodique et quantique. L'année 1900, grâce à cette découverte faite par Max Planck, devient l'année de la naissance de la mécanique quantique. Il convient également de mentionner la formule de Planck. En bref, son essence est la suivante : elle repose sur la relation entre la température corporelle et son rayonnement.

Théorie de la mécanique quantique de la structure atomique

La théorie de la mécanique quantique de la structure atomique est l'une des théories fondamentales des concepts de la physique quantique et de la physique en général. Cette théorie nous permet de comprendre la structure de toutes les choses matérielles et lève le voile du secret sur la composition réelle des choses. Et les conclusions fondées sur cette théorie sont assez inattendues. Considérons brièvement la structure de l'atome. Alors, de quoi est réellement constitué un atome ? Un atome est constitué d'un noyau et d'un nuage d'électrons. La base d'un atome, son noyau, contient presque toute la masse de l'atome lui-même, soit plus de 99 pour cent. Le noyau a toujours une charge positive, ce qui détermine l’élément chimique dont fait partie l’atome. La chose la plus intéressante à propos du noyau d'un atome est qu'il contient presque toute la masse de l'atome, mais n'occupe en même temps qu'un dix millième de son volume. Qu’est-ce qui en découle ? Et la conclusion qui en ressort est assez inattendue. Cela signifie qu’il n’y a qu’un dix millième de la substance dense dans un atome. Et qu’est-ce qui occupe tout le reste ? Et tout le reste dans l’atome est un nuage d’électrons.

Un nuage électronique n’est pas une substance permanente ni même matérielle. Un nuage d’électrons n’est que la probabilité que des électrons apparaissent dans un atome. Autrement dit, le noyau n'occupe qu'un dix millième dans l'atome et le reste est du vide. Et si l’on considère que tous les objets qui nous entourent, des grains de poussière aux corps célestes, en passant par les planètes et les étoiles, sont constitués d’atomes, alors il s’avère que tout ce qui est matériel est en réalité composé à plus de 99 % de vide. Cette théorie semble tout à fait incroyable, et son auteur, pour le moins, se trompe, car les choses qui existent autour ont une consistance solide, ont du poids et peuvent être touchées. Comment peut-il être constitué de vide ? Une erreur s’est-elle glissée dans cette théorie de la structure de la matière ? Mais il n’y a pas d’erreur ici.

Toutes les choses matérielles semblent denses uniquement en raison de l’interaction entre les atomes. Les choses n'ont une consistance solide et dense qu'en raison de l'attraction ou de la répulsion entre les atomes. Cela garantit la densité et la dureté du réseau cristallin des substances chimiques, à partir duquel tout matériau est constitué. Mais point intéressant, lorsque par exemple les conditions de température changent environnement, les liens entre les atomes, c'est-à-dire leur attraction et leur répulsion, peuvent s'affaiblir, ce qui conduit à un affaiblissement du réseau cristallin et même à sa destruction. Ceci explique le changement des propriétés physiques des substances lorsqu'elles sont chauffées. Par exemple, lorsque le fer est chauffé, il devient liquide et peut prendre n’importe quelle forme. Et lorsque la glace fond, la destruction du réseau cristallin entraîne un changement d'état de la substance, et de solide, elle se transforme en liquide. Ce sont des exemples clairs d’affaiblissement des liaisons entre atomes et, par conséquent, d’affaiblissement ou de destruction du réseau cristallin, et permettent à la substance de devenir amorphe. Et la raison de ces métamorphoses mystérieuses est précisément que les substances ne sont constituées que d'un dix millième de matière dense, et le reste est du vide.

Et les substances semblent solides uniquement à cause des liens forts entre les atomes ; lorsqu'ils s'affaiblissent, la substance change. Ainsi, la théorie quantique de la structure atomique nous permet de regarder le monde qui nous entoure d’une manière complètement différente.

Le fondateur de la théorie atomique, Niels Bohr, a avancé un concept intéressant selon lequel les électrons d'un atome n'émettent pas d'énergie en permanence, mais seulement au moment de la transition entre les trajectoires de leur mouvement. La théorie de Bohr a contribué à expliquer de nombreux processus intra-atomiques et a également réalisé des percées dans le domaine scientifique comme la chimie, expliquant les limites du tableau créé par Mendeleïev. Selon , le dernier élément capable d'exister dans le temps et l'espace a un numéro de série de cent trente-sept, et les éléments commençant à cent trente-huit ne peuvent pas exister, car leur existence contredit la théorie de la relativité. En outre, la théorie de Bohr expliquait la nature d'un phénomène physique tel que le spectre atomique.

Ce sont les spectres d’interaction des atomes libres qui apparaissent lorsque de l’énergie est émise entre eux. De tels phénomènes sont typiques des substances gazeuses, vaporeuses et des substances à l'état plasma. Ainsi, la théorie quantique a révolutionné le monde de la physique et a permis aux scientifiques de progresser non seulement dans le domaine de cette science, mais également dans le domaine de nombreuses sciences connexes : chimie, thermodynamique, optique et philosophie. Et a également permis à l’humanité de pénétrer dans les secrets de la nature des choses.

Il y a encore beaucoup de choses que l’humanité doit réfléchir dans sa conscience afin de comprendre la nature des atomes et de comprendre les principes de leur comportement et de leur interaction. Après avoir compris cela, nous serons en mesure de comprendre la nature du monde qui nous entoure, car tout ce qui nous entoure, des grains de poussière au soleil lui-même, et nous-mêmes, est constitué d'atomes dont la nature est mystérieuse et étonnante. et cache bien des secrets.

Comment les physiciens théoriciens modernes développent-ils de nouvelles théories décrivant le monde ? Qu’ajoutent-ils à la mécanique quantique et à la relativité générale pour créer une « théorie du tout » ? À propos de quelles restrictions nous parlons de dans des articles parlant de l’absence de « nouvelle physique » ? Toutes ces questions peuvent trouver une réponse si vous comprenez ce que c'est action- un objet qui sous-tend toutes les théories physiques existantes. Dans cet article, j'expliquerai ce que les physiciens entendent par action, et je montrerai également comment cela peut être utilisé pour construire une véritable théorie physique en utilisant seulement quelques hypothèses simples sur les propriétés du système en question.

Je vous préviens tout de suite : l'article contiendra des formules et même des calculs simples. Cependant, ils peuvent être ignorés sans trop nuire à la compréhension. D'une manière générale, je présente ici des formules uniquement pour les lecteurs intéressés qui souhaitent certainement les découvrir par eux-mêmes.

Équations

La physique décrit notre monde à l’aide d’équations qui relient diverses grandeurs physiques : vitesse, force, intensité du champ magnétique, etc. Presque toutes ces équations sont différentielles, c'est-à-dire qu'elles contiennent non seulement des fonctions qui dépendent de quantités, mais également leurs dérivées. Par exemple, l'une des équations les plus simples décrivant le mouvement d'un corps ponctuel contient la dérivée seconde de sa coordonnée :

Ici, j'ai noté la dérivée seconde par rapport au temps par deux points (en conséquence, un point désignera la dérivée première). Bien entendu, il s’agit de la deuxième loi de Newton, qu’il a découverte à la fin du XVIIe siècle. Newton fut l'un des premiers à reconnaître la nécessité d'écrire les équations du mouvement sous cette forme et développa également le calcul différentiel et intégral nécessaire pour les résoudre. Bien entendu, la plupart des lois physiques sont beaucoup plus complexes que la deuxième loi de Newton. Par exemple, le système d’équations de l’hydrodynamique est si complexe que les scientifiques ne savent toujours pas s’il est résoluble ou non dans le cas général. Le problème de l'existence et de la fluidité des solutions à ce système est même inclus dans la liste des « problèmes du millénaire », et le Clay Mathematical Institute a décerné un prix d'un million de dollars pour sa solution.

Mais comment les physiciens trouvent-ils ces équations différentielles ? Pendant longtemps, la seule source de nouvelles théories était l’expérimentation. En d’autres termes, le scientifique a d’abord mesuré plusieurs grandeurs physiques, puis a essayé de déterminer comment elles étaient liées. C’est par exemple ainsi que Kepler découvrit les trois fameuses lois de la mécanique céleste, qui conduisirent plus tard Newton à son théorie classique la gravité. Il s’est avéré que l’expérience semblait « en avance sur la théorie ».

Dans la physique moderne, les choses se déroulent un peu différemment. Bien entendu, l’expérience joue toujours un rôle très important en physique. Sans confirmation expérimentale, toute théorie n'est qu'un modèle mathématique - un jouet pour l'esprit, sans rapport avec monde réel. Cependant, les physiciens obtiennent désormais des équations qui décrivent notre monde non pas par une généralisation empirique de faits expérimentaux, mais les dérivent « de principes premiers », c'est-à-dire basées sur des hypothèses simples sur les propriétés du système décrit (par exemple, l'espace-temps ou l'espace). Champ électromagnétique). En fin de compte, seuls les paramètres de la théorie sont déterminés à partir de l’expérience – des coefficients arbitraires qui entrent dans l’équation dérivée par le théoricien. Dans ce cas, le rôle clé en physique théorique est joué par principe moindre action , formulé pour la première fois par Pierre Maupertuis au milieu du XVIIIe siècle et finalement généralisé par William Hamilton dans début XIX siècle.

Action

Qu’est-ce qu’agir ? Dans la formulation la plus générale, une action est une fonctionnelle qui associe la trajectoire du système (c'est-à-dire une fonction de coordonnées et de temps) à un certain nombre. Et le principe de moindre action stipule que vrai trajectoire, l'action sera minime. Pour comprendre la signification de ces mots à la mode, considérons l’exemple illustratif suivant, tiré des Feynman Lectures on Physics.

Disons que nous voulons savoir quelle trajectoire suivra un corps placé dans un champ gravitationnel. Pour simplifier, nous supposerons que le mouvement est entièrement décrit par la hauteur X(t), c’est-à-dire que le corps se déplace le long d’une ligne verticale. Supposons que nous connaissions le mouvement uniquement lorsque le corps commence au point X 1 à la fois t 1 et vient au point X 2 à la fois t 2, un à temps plein en route est T = t 2 − t 1 . Considérez la fonction L, égal à la différence d'énergie cinétique À et énergie potentielle P.: L = ÀP.. Nous supposerons que l'énergie potentielle dépend uniquement de la coordonnée de la particule X(t), et cinétique - uniquement à partir de sa vitesse (t). Nous définissons également action- Fonctionnalité S, égal à la valeur moyenne L pendant tout le mouvement : S = ∫ L(X, , t) d t.

évidemment le sens S cela dépendra grandement de la forme de la trajectoire X(t) - en fait, c'est pourquoi nous appelons cela une fonctionnalité, pas une fonction. Si le corps s'élève trop haut (trajectoire 2), l'énergie potentielle moyenne augmentera, et s'il commence à boucler trop souvent (trajectoire 3), l'énergie cinétique augmentera - nous avons supposé que le temps total de mouvement est exactement égal à T, ce qui signifie que le corps doit augmenter sa vitesse pour pouvoir franchir tous les virages. En réalité la fonctionnalité S atteint un minimum sur une trajectoire optimale, qui est une section d'une parabole passant par les points X 1 et X 2 (trajectoire 1). Par une heureuse coïncidence, cette trajectoire coïncide avec la trajectoire prédite par la deuxième loi de Newton.


Exemples de trajectoires reliant des points X 1 et X 2. La trajectoire obtenue par variation de la trajectoire vraie est marquée en gris. La direction verticale correspond à l'axe X, axe horizontal t

Est-ce une coïncidence ? Bien sûr, ce n’est pas une coïncidence. Pour le montrer, supposons que nous connaissons la véritable trajectoire et considérons-la variantes. Variation δ X(t) est un ajout à la trajectoire X(t), qui change de forme, mais laisse les points de départ et d'arrivée à leur place (voir photo). Voyons quelle signification prend l'action sur des trajectoires qui diffèrent de la trajectoire réelle par une variation infinitésimale. Fonction de dépliage L et en calculant l'intégrale par parties, nous constatons que le changement S proportionnel à la variation δ X:


Ici, nous bénéficions du fait que la variation aux points X 1 et X 2 est égal à zéro - cela a permis d'écarter les termes qui apparaissent après intégration par parties. L’expression résultante est très similaire à la formule de la dérivée, écrite en termes de différentielles. En effet, l’expression δ SX parfois appelée dérivée variationnelle. Poursuivant cette analogie, nous concluons qu'en ajoutant un petit additif δ Xà la vraie trajectoire, l'action ne devrait pas changer, c'est-à-dire δ S= 0. Puisque l’addition peut être presque arbitraire (nous n’avons fixé que ses extrémités), cela signifie que l’intégrande disparaît également. Ainsi, connaissant l'action, nous pouvons obtenir une équation différentielle qui décrit le mouvement du système : l'équation d'Euler-Lagrange.

Revenons à notre problème avec un corps se déplaçant dans un champ de gravité. Permettez-moi de vous rappeler que nous avons défini la fonction L comme la différence entre l’énergie cinétique et potentielle d’un corps. En substituant cette expression dans l'équation d'Euler-Lagrange, on obtient en fait la deuxième loi de Newton. En fait, notre hypothèse sur la forme de la fonction L s'est avéré très réussi :


Il s'avère qu'avec l'aide de l'action, vous pouvez écrire les équations du mouvement de manière très simple. forme abrégée, comme si « empaquetait » toutes les fonctionnalités du système dans une fonction L. C’est en soi assez intéressant. Cependant, l’action n’est pas seulement une abstraction mathématique ; elle a une signification physique profonde. En général, un physicien théoricien moderne écrit d’abord l’action, puis dérive les équations du mouvement et les étudie. Dans de nombreux cas, une action pour un système peut être construite en faisant uniquement les hypothèses les plus simples sur ses propriétés. Voyons comment cela peut être réalisé avec quelques exemples.


Particule relativiste libre

Lorsqu’Einstein a construit sa théorie de la relativité restreinte (STR), il a postulé plusieurs affirmations simples sur les propriétés de notre espace-temps. Premièrement, il est homogène et isotrope, c’est-à-dire qu’il ne change pas avec des déplacements et des rotations finis. En d’autres termes, peu importe où vous vous trouvez – sur Terre, sur Jupiter ou dans la galaxie du Petit Nuage de Magellan – les lois de la physique fonctionnent de la même manière en tous ces points. De plus, vous ne remarquerez aucune différence si vous vous déplacez uniformément en ligne droite - c'est le principe de relativité d'Einstein. Deuxièmement, aucun corps ne peut dépasser la vitesse de la lumière. Cela conduit au fait que les règles habituelles de recalcul des vitesses et du temps lors de la transition entre différents systèmes de référence - les transformations galiléennes - doivent être remplacées par des transformations de Lorentz plus correctes. En conséquence, la grandeur véritablement relativiste, la même dans tous les systèmes de référence, devient non pas la distance, mais l’intervalle – le temps propre de la particule. Intervalle s 1 − s 2 entre deux points donnés peut être trouvé en utilisant la formule suivante où c- vitesse de la lumière:


Comme nous l’avons vu dans la partie précédente, il suffit d’écrire l’action d’une particule libre pour trouver son équation de mouvement. Il est raisonnable de supposer que l’action est un invariant relativiste, c’est-à-dire qu’elle se présente de la même manière dans différents cadres de référence, puisque les lois physiques qu’ils contiennent sont les mêmes. De plus, nous aimerions que l'action soit écrite le plus simplement possible (nous laisserons les expressions complexes pour plus tard). L’invariant relativiste le plus simple pouvant être associé à une particule ponctuelle est la longueur de sa ligne d’univers. Choisir cet invariant comme action (pour que la dimension de l'expression soit correcte, on la multiplie par le coefficient − MC) et en la faisant varier, on obtient l'équation suivante :


En termes simples, la 4-accélération d'une particule relativiste libre doit être égale à zéro. La 4-accélération, comme la 4-vitesse, sont des généralisations des concepts d'accélération et de vitesse à un espace-temps à quatre dimensions. En conséquence, une particule libre ne peut se déplacer que le long d’une ligne droite donnée avec une vitesse constante de 4. Dans la limite des faibles vitesses, le changement d'intervalle coïncide pratiquement avec le changement de temps, et donc l'équation que nous avons obtenue entre dans la deuxième loi de Newton, déjà évoquée plus haut : moi= 0. D'autre part, la condition pour que la 4-accélération soit nulle est remplie pour une particule libre dans la théorie de la relativité générale, seulement dans celle-ci l'espace-temps commence déjà à se plier et la particule ne se déplacera pas nécessairement le long d'une ligne droite même en l'absence de forces extérieures.

Champ électromagnétique

Comme on le sait, le champ électromagnétique se manifeste en interaction avec des corps chargés. Généralement, cette interaction est décrite à l’aide des vecteurs d’intensité des champs électrique et magnétique, qui sont liés par un système de quatre équations de Maxwell. L'apparence presque symétrique des équations de Maxwell suggère que ces champs ne sont pas des entités indépendantes : ce qui nous apparaît comme un champ électrique dans un référentiel peut se transformer en champ magnétique si nous passons à un autre référentiel.

En fait, considérons un fil le long duquel les électrons circulent à la même vitesse constante. Dans le référentiel associé aux électrons, il n'existe qu'un champ électrique constant, que l'on peut trouver grâce à la loi de Coulomb. Cependant, dans le référentiel d'origine, le mouvement des électrons crée une constante électricité, qui, à son tour, induit un champ magnétique constant (loi de Bio-Savart). Parallèlement, conformément au principe de relativité, dans les systèmes de référence que nous avons choisis, les lois de la physique doivent coïncider. Cela signifie que les champs électriques et magnétiques font tous deux partie d’une entité plus générale.

Tenseurs

Avant de passer à la formulation covariante de l’électrodynamique, il convient de dire quelques mots sur les mathématiques de la relativité restreinte et générale. Le rôle le plus important dans ces théories est joué par le concept de tenseur (et dans d'autres théories modernes aussi, pour être honnête). Pour le dire très grossièrement, le tenseur de rang ( n, m) peut être considéré comme ( n+m)-matrice dimensionnelle dont les composantes dépendent des coordonnées et du temps. De plus, le tenseur doit changer d'une certaine manière astucieuse lors du passage d'un système de référence à un autre ou lorsque la grille de coordonnées change. Comment exactement, détermine le nombre d'indices contravariants et covariants ( n Et m respectivement). Dans le même temps, le tenseur lui-même en tant qu'entité physique ne change pas sous de telles transformations - tout comme le vecteur 4, qui est un cas particulier d'un tenseur de rang 1, ne change pas sous elles.

Les composants tensoriels sont numérotés à l'aide d'indices. Pour plus de commodité, les indices supérieurs et inférieurs sont distingués afin de voir immédiatement comment le tenseur se transforme lors d'un changement de coordonnées ou d'un système de référence. Ainsi, par exemple, la composante tensorielle T le rang (3, 0) s'écrit Tαβγ , et le tenseur U rang (2, 1) - comme Uα β γ . Selon la tradition établie, les composants des tenseurs à quatre dimensions sont numérotés avec des lettres grecques et ceux à trois dimensions avec des lettres latines. Cependant, certains physiciens préfèrent faire le contraire (par exemple Landau).

De plus, par souci de concision, Einstein a suggéré de ne pas écrire le signe somme « Σ » lors du repliement des expressions tensorielles. La convolution est la sommation d'un tenseur sur deux indices donnés, dont l'un doit être « supérieur » (contravariant) et l'autre « inférieur » (covariant). Par exemple, pour calculer la trace d'une matrice - un tenseur de rang (1, 1) - il faut la replier selon deux indices disponibles : Tr[ UN μ ν ] = Σ UN μ μ = UNμμ . Vous pouvez augmenter et diminuer les indices à l'aide du tenseur métrique : T αβ γ = T αβμ g μγ .

Enfin, il convient d'introduire un pseudotenseur absolument antisymétrique ε μνρσ - un tenseur qui change de signe pour toute permutation d'indices (par exemple, ε μνρσ = −ε νμρσ) et dont la composante ε 1234 = +1. On l'appelle aussi tenseur de Levi-Civita. Lors de la rotation du système de coordonnées ε μνρσ se comporte comme un tenseur ordinaire, mais lors des inversions (remplacement comme X → −X) il est converti différemment.

En effet, les vecteurs de champ électrique et magnétique sont combinés en une structure invariante sous les transformations de Lorentz, c'est-à-dire qui ne change pas lors de la transition entre différents systèmes de référence (inertiel). C'est ce qu'on appelle le tenseur du champ électromagnétique Fμν. Il serait plus clair de l’écrire sous la forme de la matrice suivante :


Ici les composantes du champ électrique sont indiquées par la lettre E, et les composantes du champ magnétique - la lettre H. Il est facile de voir que le tenseur du champ électromagnétique est antisymétrique, c'est-à-dire que ses composantes se situent à différents côtés de la diagonale, sont de même grandeur et ont signes opposés. Si nous voulons obtenir les équations de Maxwell « à partir des premiers principes », nous devons écrire l’action de l’électrodynamique. Pour ce faire, nous devons construire la combinaison scalaire la plus simple des objets tensoriels dont nous disposons, liée d’une manière ou d’une autre au champ ou aux propriétés de l’espace-temps.

Si vous y réfléchissez, nous n'avons pas le choix : seul le tenseur de champ peut agir comme des « éléments de base ». Fμν, tenseur métrique gμν et le tenseur absolument antisymétrique ε μνρσ. À partir d'eux, seules deux combinaisons scalaires peuvent être assemblées, et l'une d'elles est une dérivée totale, c'est-à-dire qu'elle peut être ignorée lors de la dérivation des équations d'Euler-Lagrange - après intégration, cette partie ira simplement à zéro. En choisissant la combinaison restante comme action et en la faisant varier, nous obtenons une paire d'équations de Maxwell - la moitié du système (première ligne). Il semblerait qu’il nous manque deux équations. Cependant, nous n'avons pas réellement besoin d'écrire l'action pour dériver les équations restantes - elles découlent directement de l'antisymétrie du tenseur. Fμν (deuxième ligne) :


Une fois de plus, nous avons obtenu les équations correctes du mouvement en choisissant la combinaison la plus simple possible comme action. Certes, comme nous n'avons pas pris en compte l'existence de charges dans notre espace, nous avons obtenu des équations pour un champ libre, c'est-à-dire pour une onde électromagnétique. Lors de l’ajout de charges à la théorie, leur influence doit également être prise en compte. Cela se fait en activant le vecteur à 4 courants en action.

La gravité

Le véritable triomphe du principe de moindre action en son temps fut la construction de la théorie de la relativité générale (GTR). Grâce à lui, les lois du mouvement ont été déduites pour la première fois, ce que les scientifiques ne pouvaient pas obtenir en analysant des données expérimentales. Ou alors ils auraient pu, mais ils n’en avaient pas le temps. Au lieu de cela, Einstein (et Hilbert, si vous préférez) a dérivé les équations en métriques, en partant d’hypothèses sur les propriétés de l’espace-temps. Désormais, physique théorique a commencé à « dépasser » l'expérimental.

En relativité générale, la métrique cesse d'être constante (comme en relativité restreinte) et commence à dépendre de la densité de l'énergie qui y est placée. Notons qu'il est plus correct de parler d'énergie plutôt que de masse, bien que ces deux quantités soient liées par la relation E = MC 2 dans son propre cadre de référence. Permettez-moi de vous rappeler que la métrique précise les règles selon lesquelles la distance entre deux points (à proprement parler, des points infiniment proches) est calculée. Il est important que la métrique ne dépende pas du choix du système de coordonnées. Par exemple, un espace tridimensionnel plat peut être décrit à l’aide d’un système de coordonnées cartésiennes ou sphériques, mais dans les deux cas, la métrique spatiale sera la même.

Pour écrire l'action de la gravité, nous devons construire un invariant à partir de la métrique qui ne changera pas lorsque la grille de coordonnées change. L’invariant le plus simple est le déterminant de la métrique. Cependant, si nous incluons uniquement cela dans l'action, nous n'obtiendrons pas différentieléquation, puisque cette expression ne contient pas de dérivées de la métrique. Et si l’équation n’est pas différentielle, elle ne peut pas décrire des situations dans lesquelles la métrique évolue au fil du temps. Par conséquent, nous devons ajouter à l’action l’invariant le plus simple, qui contient des dérivées gμν. Un tel invariant est ce qu'on appelle le scalaire de Ricci R., qui est obtenu par convolution du tenseur de Riemann R.μνρσ, décrivant la courbure de l'espace-temps :


Robert Couse-Baker / flickr.com

Théorie de tout

Enfin, il est temps de parler de la « théorie du tout ». C'est le nom de plusieurs théories qui tentent d'unifier la Relativité Générale et le Modèle Standard - les deux principales théories physiques actuellement connues. Les scientifiques font de telles tentatives non seulement pour des raisons esthétiques (moins il y a de théories nécessaires pour comprendre le monde, mieux c’est), mais aussi pour des raisons plus impérieuses.

Le GTR et le modèle standard ont tous deux des limites d’applicabilité, après quoi ils cessent de fonctionner. Par exemple, GTR prédit l'existence de singularités - des points auxquels la densité d'énergie, et donc la courbure de l'espace-temps, tend vers l'infini. Non seulement les infinis en eux-mêmes sont désagréables - en plus de ce problème, le modèle standard stipule que l'énergie ne peut pas être localisée en un point, elle doit être répartie sur un certain volume, bien que petit. Par conséquent, à proximité de la singularité, les effets de la relativité générale et du modèle standard devraient être importants. Dans le même temps, la relativité générale n’a toujours pas pu être quantifiée et le modèle standard est construit sous l’hypothèse d’un espace-temps plat. Si nous voulons comprendre ce qui se passe autour des singularités, nous devons développer une théorie qui inclut ces deux théories.

Ayant à l’esprit le succès du principe de moindre action dans le passé, les scientifiques fondent toutes leurs tentatives pour construire une nouvelle théorie sur ce principe. Rappelez-vous, nous n'avons pris en compte que les combinaisons les plus simples lorsque nous avons construit l'action pour diverses théories ? Ensuite, nos actions ont été couronnées de succès, mais cela ne veut pas du tout dire que l'action la plus simple est la plus correcte. D’une manière générale, la nature n’est pas obligée d’ajuster ses lois pour nous simplifier la vie.

Par conséquent, il est raisonnable d’inclure les quantités invariantes suivantes, plus complexes, en action et de voir à quoi cela conduit. Cela rappelle un peu l’approximation successive d’une fonction par des polynômes de degrés de plus en plus élevés. Le seul problème ici est que toutes ces corrections entrent en jeu avec certains coefficients inconnus qui ne peuvent pas être calculés théoriquement. De plus, étant donné que le modèle standard et la relativité générale fonctionnent toujours bien en général, ces coefficients devraient être très faibles. Ils sont donc difficiles à déterminer à partir de l'expérience. De nombreux travaux portant sur les « contraintes de la nouvelle physique » visent précisément à déterminer les coefficients aux ordres supérieurs de la théorie. Jusqu’à présent, ils n’ont pu trouver que des limites supérieures.

De plus, il existe des approches qui introduisent de nouveaux concepts non triviaux. Par exemple, la théorie des cordes suggère que les propriétés de notre monde peuvent être décrites à l'aide de vibrations non pas d'objets ponctuels, mais d'objets étendus - des cordes. Malheureusement, aucune confirmation expérimentale de la théorie des cordes n’a encore été trouvée. Par exemple, elle a prédit des excitations au niveau des accélérateurs, mais celles-ci ne se sont jamais manifestées.

De manière générale, il ne semble pas encore que les scientifiques soient sur le point de découvrir une « théorie du tout ». Les théoriciens devront probablement encore proposer quelque chose de considérablement nouveau. Cependant, il ne fait aucun doute que la première chose qu’ils feront sera d’écrire l’action de la nouvelle théorie.

***

Si tous ces arguments vous ont semblé compliqués et que vous avez parcouru l’article sans le lire, voici un bref résumé des faits qui y ont été abordés. Premièrement, toutes les théories physiques modernes s'appuient d'une manière ou d'une autre sur le concept Actions- une grandeur qui décrit à quel point le système « aime » une trajectoire de mouvement particulière. Deuxièmement, les équations du mouvement du système peuvent être obtenues en recherchant la trajectoire sur laquelle se déroule l'action. moins signification. Troisièmement, une action peut être construite en utilisant seulement quelques hypothèses de base sur les propriétés du système. Par exemple, les lois de la physique coïncident dans des systèmes de référence qui se déplacent à des vitesses différentes. Quatrièmement, certains des candidats à la « théorie du tout » sont obtenus en ajoutant simplement des termes à l'action du modèle standard et de la relativité générale qui violent certaines des hypothèses de ces théories. Par exemple, l'invariance de Lorentz. Si après avoir lu l’article vous vous souvenez des affirmations énumérées, c’est déjà bien. Et si vous comprenez aussi d’où ils viennent, c’est tout simplement génial.

Dmitri Trunine