Mécanique quantique et théorie quantique des champs. Que dit réellement la théorie quantique de la réalité ? Attention! Passons maintenant à un problème plus subtil

Mécanique quantique et théorie quantique des champs.  Que dit réellement la théorie quantique de la réalité ?  Attention!  Passons maintenant à un problème plus subtil
Mécanique quantique et théorie quantique des champs. Que dit réellement la théorie quantique de la réalité ? Attention! Passons maintenant à un problème plus subtil

Et surtout, nous refusons de remarquer qu'ils ne sont applicables que dans certaines situations de routine et qu'ils s'avèrent tout simplement incorrects pour expliquer la structure de l'Univers.

Bien que quelque chose de similaire ait été exprimé il y a des siècles par des philosophes et des mystiques orientaux, Einstein a été le premier à en parler dans la science occidentale. C'était une révolution que notre conscience n'acceptait pas. Nous répétons avec condescendance : « tout est relatif », « le temps et l’espace ne font qu’un », en gardant toujours à l’esprit qu’il s’agit d’une hypothèse, d’une abstraction scientifique qui a peu de points communs avec notre réalité stable habituelle. En fait, ce sont précisément nos idées qui correspondent mal à la réalité - étonnantes et incroyables.

Après dans Plan général La structure de l'atome a été découverte et son modèle « planétaire » a été proposé, les scientifiques ont été confrontés à de nombreux paradoxes, pour expliquer lesquels est apparue toute une branche de la physique - la mécanique quantique. Il s'est développé rapidement et a fait de grands progrès dans l'explication de l'Univers. Mais ces explications sont si difficiles à comprendre que jusqu’à présent, peu de gens peuvent les comprendre, au moins en termes généraux.

En effet, la plupart des réalisations mécanique quantique sont accompagnés d’un appareil mathématique si complexe qu’il ne peut tout simplement pas être traduit dans un langage humain. Les mathématiques, comme la musique, sont un sujet extrêmement abstrait, et les scientifiques ont encore du mal à exprimer de manière adéquate la signification, par exemple, de la convolution des fonctions ou des séries de Fourier multidimensionnelles. Le langage mathématique est strict, mais n’a que peu de rapport avec notre perception directe.

De plus, Einstein a démontré mathématiquement que nos concepts de temps et d’espace sont illusoires. En réalité, l’espace et le temps sont indissociables et forment un seul continuum quadridimensionnel. Il est difficilement possible de l’imaginer, car nous sommes habitués à n’avoir affaire qu’à trois dimensions.

Théorie planétaire. Vague ou particule

Avant fin XIX Pendant des siècles, les atomes étaient considérés comme des « éléments » indivisibles. La découverte des rayonnements a permis à Rutherford de pénétrer sous la « coquille » de l'atome et de formuler une théorie planétaire de sa structure : la majeure partie de l'atome est concentrée dans le noyau. La charge positive du noyau est compensée par des électrons chargés négativement, dont la taille est si petite que leur masse peut être négligée. Les électrons tournent autour du noyau sur des orbites similaires à la rotation des planètes autour du Soleil. La théorie est très belle, mais un certain nombre de contradictions surgissent.

Premièrement, pourquoi les électrons chargés négativement ne « tombent »-ils pas sur le noyau positif ? Deuxièmement, dans la nature, les atomes entrent en collision des millions de fois par seconde, ce qui ne leur nuit pas du tout - comment expliquer la force incroyable de l'ensemble du système ? Selon les mots de l’un des « pères » de la mécanique quantique, Heisenberg, « aucun système planétaire obéissant aux lois de la mécanique newtonienne ne reviendra jamais à son état d’origine après une collision avec un autre système similaire ».

De plus, les dimensions du noyau, dans lequel est collectée presque toute la masse, sont extrêmement petites par rapport à l’atome entier. On peut dire qu’un atome est un vide dans lequel les électrons tournent à une vitesse vertigineuse. Dans ce cas, un tel atome « ​​vide » apparaît comme une particule très solide. L’explication de ce phénomène dépasse la compréhension classique. En effet, au niveau subatomique, la vitesse d’une particule augmente à mesure que l’espace dans lequel elle se déplace est plus limité. Ainsi, plus un électron est attiré près du noyau, plus il se déplace vite et plus il en est repoussé. La vitesse de déplacement est si élevée que « de l'extérieur » l'atome « ​​semble solide », tout comme les pales d'un ventilateur en rotation ressemblent à un disque.

Des données qui ne rentrent pas bien dans le cadre de l’approche classique sont apparues bien avant Einstein. Pour la première fois, un tel « duel » a eu lieu entre Newton et Huygens, qui tentaient d'expliquer les propriétés de la lumière. Newton affirmait qu'il s'agissait d'un flux de particules, Huygens considérait la lumière comme une onde. Dans le cadre de la physique classique, il est impossible de concilier leurs positions. Après tout, pour elle, une onde est une excitation transmise de particules du milieu, concept applicable uniquement à de nombreux objets. Aucune des particules libres ne peut se déplacer le long d’une trajectoire ondulatoire. Mais un électron se déplace dans un vide profond et ses mouvements sont décrits par les lois du mouvement ondulatoire. Qu'est-ce qui est excité ici s'il n'y a pas de support ? La physique quantique propose une solution salomonienne : la lumière est à la fois une particule et une onde.

Nuages ​​électroniques probabilistes. Structure nucléaire et particules nucléaires

Peu à peu, cela est devenu de plus en plus clair : la rotation des électrons en orbite autour du noyau d'un atome est complètement différente de la rotation des planètes autour d'une étoile. De nature ondulatoire, les électrons sont décrits en termes de probabilité. On ne peut pas dire d'un électron qu'il se situe en tel ou tel point de l'espace, on ne peut que décrire approximativement dans quelles zones il peut se situer et avec quelle probabilité. Autour du noyau, les électrons forment des « nuages ​​» de probabilités allant des formes sphériques les plus simples aux formes les plus bizarres, semblables à des photographies de fantômes.

Mais quiconque veut enfin comprendre la structure de l’atome doit se tourner vers sa base, vers la structure du noyau. Les grosses particules élémentaires qui le composent - des protons chargés positivement et des neutrons neutres - ont également une nature quantique, ce qui signifie qu'elles se déplacent d'autant plus vite que le volume dans lequel elles sont enfermées est petit. Les dimensions du noyau étant extrêmement petites, même en comparaison avec un atome, ces particules élémentaires se déplacent à des vitesses tout à fait décentes, proches de la vitesse de la lumière. Pour une explication finale de leur structure et de leur comportement, il faudra « croiser » la théorie quantique avec la théorie de la relativité. Malheureusement, une telle théorie n’a pas encore été créée et nous devrons nous limiter à quelques modèles généralement acceptés.

La théorie de la relativité a montré (et les expériences l’ont prouvé) que la masse n’est qu’une forme d’énergie. L'énergie est une quantité dynamique associée aux processus ou au travail. Ainsi, une particule élémentaire doit être perçue comme une fonction dynamique probabiliste, comme des interactions associées à la transformation continue de l'énergie. Cela donne une réponse inattendue à la question de savoir comment sont les particules élémentaires et si elles peuvent être divisées en blocs « encore plus simples ». Si nous accélérons deux particules dans un accélérateur puis les heurtons, nous obtiendrons non pas deux, mais trois particules, complètement identiques. Le troisième naîtra simplement de l’énergie de leur collision – ainsi, ils se sépareront et ne se sépareront pas en même temps !

Participant au lieu d’observateur

Dans un monde où les concepts d’espace vide et de matière isolée perdent leur sens, une particule n’est décrite qu’à travers ses interactions. Pour en dire quelque chose, nous devrons l'« arracher » aux interactions initiales et, après l'avoir préparé, le soumettre à une autre interaction : la mesure. Alors, que mesure-t-on au final ? Et dans quelle mesure nos mesures sont-elles légitimes en général si notre intervention modifie les interactions auxquelles la particule participe - et donc change la particule elle-même ?

En physique moderne particules élémentaires La figure même du scientifique-observateur suscite de plus en plus de critiques. Il serait plus approprié de l’appeler un « participant ».

Un observateur-participant est nécessaire non seulement pour mesurer les propriétés d'une particule subatomique, mais aussi pour déterminer ces mêmes propriétés, car elles ne peuvent être discutées que dans le contexte d'une interaction avec l'observateur. Une fois qu'il a choisi la méthode dans laquelle il effectuera les mesures, et en fonction de cela, les propriétés possibles de la particule sont réalisées. Si vous changez de système d'observation, les propriétés de l'objet observé changeront également.

Ce moment important révèle l’unité profonde de toutes choses et phénomènes. Les particules elles-mêmes, qui se transforment continuellement les unes en les autres et en d'autres formes d'énergie, n'ont pas de caractéristiques constantes ou précises ; ces caractéristiques dépendent de la manière dont nous choisissons de les voir. Si vous devez mesurer une propriété d’une particule, une autre changera certainement. Une telle limitation n’est pas liée à l’imperfection des appareils ou à d’autres choses totalement corrigibles. C'est une caractéristique de la réalité. Essayez de mesurer avec précision la position d'une particule et vous ne pourrez rien dire sur la direction et la vitesse de son mouvement - tout simplement parce qu'elle ne les aura pas. Décrivez le mouvement exact d'une particule - vous ne le trouverez pas dans l'espace. Donc physique moderne nous pose des problèmes d’ordre tout à fait métaphysique.

Le principe d'incertitude. Lieu ou impulsion, énergie ou temps

Nous avons déjà dit que nous ne pouvons pas parler de particules subatomiques dans les termes précis auxquels nous sommes habitués ; dans le monde quantique, il ne nous reste que des probabilités. Bien entendu, ce n’est pas le genre de probabilité dont parlent les gens lorsqu’ils parient sur des courses de chevaux, mais une propriété fondamentale des particules élémentaires. Ce n’est pas qu’ils existent, mais ils peuvent exister. Ce n’est pas qu’ils aient des caractéristiques, mais plutôt qu’ils puissent les avoir. Scientifiquement parlant, une particule est un circuit probabiliste dynamique, et toutes ses propriétés sont en équilibre en mouvement constant, s'équilibrant comme le Yin et le Yang dans l'Antiquité. symbole chinois Taï chi.

Ce n’est pas pour rien que le prix Nobel Niels Bohr, élevé au rang de noblesse, a choisi ce signe et cette devise pour son blason : « Les opposés se complètent ». Mathématiquement, la distribution de probabilité représente des oscillations d'ondes inégales. Plus l'amplitude d'une onde est grande à un certain endroit, plus la probabilité qu'une particule y existe est élevée. De plus, sa longueur n'est pas constante - les distances entre les crêtes adjacentes ne sont pas les mêmes, et plus l'amplitude de la vague est élevée, plus la différence entre elles est grande. Alors que l'amplitude correspond à la position de la particule dans l'espace, la longueur d'onde est liée à l'impulsion de la particule, c'est-à-dire à la direction et à la vitesse de son mouvement. Plus l'amplitude est grande (plus la particule peut être localisée avec précision dans l'espace), plus la longueur d'onde devient incertaine (moins on peut en dire sur l'impulsion de la particule). Si nous pouvons déterminer la position d’une particule avec une extrême précision, elle n’aura aucun élan défini.

Cette propriété fondamentale est dérivée mathématiquement des propriétés des ondes et est appelée principe d'incertitude. Le principe s'applique également à d'autres caractéristiques des particules élémentaires. Une autre paire interconnectée est l’énergie et le temps des processus quantiques. Plus le processus est rapide, plus la quantité d'énergie impliquée est incertaine, et vice versa - l'énergie ne peut être caractérisée avec précision que pour un processus d'une durée suffisante.

Nous comprenons donc : rien de précis ne peut être dit sur une particule. Il se déplace par ici, ou pas par là, ou plutôt ni par ici ni par là. Ses caractéristiques sont ceci ou cela, ou plutôt pas ceci ou cela. Il est ici, mais il se peut qu'il soit là ou qu'il ne soit nulle part. Alors, est-ce que ça existe ?

Cet effondrement de la fonction d'onde, apparemment induit par des mesures, a été à l'origine de nombreuses difficultés conceptuelles en mécanique quantique. Avant l’effondrement, il n’y a aucun moyen de savoir avec certitude où finira le photon ; cela peut être n'importe où avec une probabilité non nulle. Il n’existe aucun moyen de retracer le chemin d’un photon de la source au détecteur. Un photon est irréel, tout comme un avion volant de San Francisco à New York est réel.

Werner Heisenberg, entre autres, a interprété ces mathématiques comme signifiant que la réalité n'existe pas tant qu'elle n'est pas observée. "L'idée d'un monde réel objectif, dont les plus petites particules existent objectivement dans le même sens que les pierres ou les arbres, que nous les observions ou non, est impossible", a-t-il écrit. John Wheeler a également utilisé une variante de l’expérience à double fente pour affirmer qu’« aucun phénomène quantique élémentaire n’est un phénomène jusqu’à ce qu’il devienne un phénomène enregistré (« observable », « enregistré de manière fiable »).

Mais la théorie quantique ne donne absolument aucun indice sur ce qui constitue une « mesure ». Il postule simplement que l’appareil de mesure doit être classique, sans définir où se situe la frontière entre classique et quantique, et en laissant la porte ouverte à ceux qui croient que l’effondrement est causé par la conscience humaine. En mai dernier, Henry Stapp et ses collègues annonçaient que l'expérience de la double fente et ses options modernes suggèrent qu'« un observateur conscient peut être nécessaire » pour donner un sens au domaine quantique, et que fondamentalement monde matériel réside l’esprit transpersonnel.

Mais ces expériences ne fournissent pas de preuves empiriques pour de telles affirmations. L’expérience à double fente, réalisée avec des photons uniques, ne peut tester que les prédictions probabilistes des mathématiques. Si des probabilités émergent du processus d’envoi de dizaines de milliers de photons identiques à travers une double fente, la théorie affirme que la fonction d’onde de chaque photon s’est effondrée – grâce à un processus vaguement défini appelé mesure. C'est tout.

De plus, il existe d’autres interprétations de l’expérience de la double fente. Prenons par exemple la théorie de Broglie-Bohm, qui affirme que la réalité est à la fois une onde et une particule. Le photon est dirigé vers la double fente avec une certaine position à tout moment et passe par l'une ou l'autre fente ; donc chaque photon a une trajectoire. Il traverse une onde pilote qui pénètre dans les deux fentes, interfère puis dirige le photon vers le site d'interférence constructive.

En 1979, Chris Dewdney et ses collègues du Brickbeck College de Londres ont modélisé la prédiction de cette théorie sur les trajectoires des particules qui passeraient par la double fente. Au cours des dix dernières années, les expérimentateurs ont confirmé l’existence de telles trajectoires, bien qu’ils aient utilisé la technique controversée des mesures dites faibles. Bien que controversée, des expériences ont montré que la théorie de Broglie-Bohm est toujours capable d'expliquer le comportement du monde quantique.

Plus important encore, cette théorie ne nécessite ni observateurs, ni mesures, ni conscience immatérielle.

Tout comme les théories dites d'effondrement ne sont pas nécessaires, d'où il résulte que les fonctions d'onde s'effondrent de manière aléatoire : plus le nombre de particules dans un système quantique est grand, plus l'effondrement est probable. Les observateurs enregistrent simplement le résultat. L'équipe de Markus Arndt de l'Université de Vienne en Autriche a testé ces théories en envoyant des molécules de plus en plus grosses à travers une double fente. Les théories de l’effondrement prédisent que lorsque les particules de matière deviennent plus massives qu’un certain seuil, elles ne peuvent plus rester en superposition quantique et traverser les deux fentes simultanément, ce qui détruit le motif d’interférence. L'équipe d'Arndt a envoyé une molécule de 800 atomes à travers une double fente et a quand même vu des interférences. La recherche du seuil se poursuit.

Roger Penrose avait sa propre version de la théorie de l'effondrement, dans laquelle plus la masse d'un objet en superposition est élevée, plus il s'effondre rapidement dans un état ou un autre en raison des instabilités gravitationnelles. Encore une fois, cette théorie ne nécessite ni observateur ni conscience. Dirk Bouwmeester, de l'Université de Californie à Santa Barbara, teste l'idée de Penrose en utilisant une version de l'expérience à double fente.

Conceptuellement, l'idée n'est pas seulement de mettre un photon en superposition en passant par deux fentes en même temps, mais de mettre l'une des fentes en superposition et de la forcer à se trouver à deux endroits en même temps. Selon Penrose, l'espace remplacé restera en superposition ou s'effondrera avec le photon en vol, conduisant à différents modèles d'interférence. Cet effondrement dépendra de la masse des fissures. Bouwmeester travaille sur cette expérience depuis dix ans et pourrait bientôt confirmer ou infirmer les affirmations de Penrose.

Quoi qu’il en soit, ces expériences montrent que nous ne pouvons encore faire aucune déclaration sur la nature de la réalité, même si ces affirmations sont bien étayées mathématiquement ou philosophiquement. Et étant donné que les neuroscientifiques et les philosophes de l'esprit ne peuvent s'entendre sur la nature de la conscience, l'affirmation selon laquelle elle conduit à l'effondrement fonctions d'onde, sera au mieux prématuré et au pire erroné.

Quel est ton opinion? Dites-nous dans notre

THÉORIE QUANTIQUE DES CHAMPS.

1. Champs quantiques.................... 300

2. Champs libres et dualité onde-particule.................................. 301

3. Interaction des champs.........302

4. Théorie des perturbations............... 303

5. Divergences et renormalisations......... 304

6. Groupe asymptotique UV et renormalisation......... 304

7. Champs d'étalonnage........................ 305

8. Vue d'ensemble.............. 307

9. Perspectives et problèmes............ 307

Théorie quantique des champs(QFT) - théorie quantique des systèmes relativistes avec un nombre infini de degrés de liberté (champs relativistes), qui est une théorie la base pour décrire les microparticules, leurs interactions et interconversions.

1. Champs quantiques Le champ quantique (sinon quantifié) est une sorte de synthèse de concepts classiques. des domaines tels que l'électromagnétique et le champ de probabilité de la mécanique quantique. Selon le moderne idées, le champ quantique est la forme la plus fondamentale et la plus universelle de la matière, sous-jacente à toutes ses manifestations spécifiques. L'idée d'un classique le domaine est né dans les profondeurs de la théorie de Faraday-Maxwell de l'électromagnétisme et s'est finalement cristallisé dans le processus de création spéciale. théorie de la relativité, qui a nécessité l'abandon éther comme support matériel d'el-magn. processus. Dans ce cas, le champ ne devait pas être considéré comme une forme de mouvement de la cellule. environnement, mais spécifique. une forme de matière aux propriétés très inhabituelles. Contrairement aux particules, les classiques le champ est continuellement créé et détruit (émis et absorbé par des charges), possède un nombre infini de degrés de liberté et n'est pas localisé de manière spécifique. points de l'espace-temps, mais peut s'y propager, transmettant un signal (interaction) d'une particule à une autre avec une vitesse finie ne dépassant pas Avec. L'émergence des idées quantiques a conduit à une révision du classique. des idées sur la continuité du mécanisme d'émission et la conclusion que ces processus se produisent discrètement - à travers l'émission et l'absorption de quanta électro-magnétiques. champs - photons. Surgit contradictoire du point de vue du classique. image physique avec el-magn. les photons étaient comparés par le champ et certains phénomènes ne pouvaient être interprétés qu'en termes d'ondes, tandis que d'autres - uniquement à l'aide de l'idée de quanta, appelés dualité onde-particule. Cette contradiction a été résolue par la suite. application des idées de la mécanique quantique au domaine. Dynamique variable el-magn. champs - potentiels UN , j et l'intensité électrique. et mag. des champs E , N - devenir opérateurs quantiques, sous réserve de définition. relations de commutation et agissant sur la fonction d'onde (amplitude, ou vecteur d'état)systèmes. Ainsi, une nouvelle science physique est née. objet - un champ quantique qui satisfait les équations classiques. , mais qui a des significations en mécanique quantique. les opérateurs. La deuxième source du concept général de champ quantique était la fonction d'onde de la particule y ( x, t), Edge n'est pas une entité physique indépendante. magnitude, et l'amplitude de l'état de la particule : les probabilités de tout lien avec la physique de la particule. les quantités sont exprimées par des expressions bilinéaires en y. Ainsi, en mécanique quantique, un nouveau champ – un champ d’amplitudes de probabilité – était associé à chaque particule matérielle. La généralisation relativiste de la fonction y a conduit P. A. M. Dirac (R. A. M. Dirac) à la fonction d'onde à quatre composantes de l'électron y a (a = 1, 2, 3, 4), se transformant selon la représentation du spineur Groupe Lorentz. On s'est vite rendu compte qu'en général, chaque département. une microparticule relativiste doit être associée à un champ local qui implémente une certaine représentation du groupe de Lorentz et possède un champ physique. signification de l’amplitude de probabilité. Généralisation au cas pluriel. les particules ont montré que si elles satisfont au principe d'indiscernabilité ( identité avec le principe), alors pour décrire toutes les particules, un champ dans l'espace-temps à quatre dimensions suffit, ce qui est un opérateur au sens de . Ceci est réalisé grâce à la transition vers une nouvelle mécanique quantique. représentation - représentation des nombres de remplissage (ou représentation des nombres secondaires quantification). Le champ opérateur ainsi introduit s’avère tout à fait analogue au champ électrique quantifié. champ, n'en différant que par le choix de la représentation du groupe de Lorentz et, éventuellement, par la méthode de quantification. Comme El-Magn. champ, un de ces champs correspond à l'ensemble des particules identiques d'un type donné, par exemple, un opérateur Champ de Dirac décrit tous les électrons (et positrons !) de l’Univers. C'est ainsi qu'apparaît une image universelle de la structure uniforme de toute matière. Pour remplacer les champs et les particules du classique les physiciens viennent unis en physique. objets - champs quantiques dans un espace-temps à quatre dimensions, un pour chaque type de particule ou de champ (classique). L'acte élémentaire de toute interaction est l'interaction de plusieurs. champs en un point de l'espace-temps, ou - en langage corpusculaire - transformation locale et instantanée de certaines particules en d'autres. Classique L'interaction sous forme de forces agissant entre particules s'avère être un effet secondaire résultant de l'échange de quanta du champ porteur de l'interaction.
2. Champs libres et dualité onde-particule Conformément à l’image physique générale brièvement décrite ci-dessus. image de manière systématique. La présentation de QFT peut être basée à la fois sur des concepts de terrain et corpusculaires. Dans l’approche de terrain, il faut d’abord construire une théorie à partir de la théorie classique correspondante. champ, puis le soumettre à une quantification [sur le modèle de quantification d'el-magn. champs par W. Heisenberg et W. Pauli] et, enfin, développer une interprétation corpusculaire du champ quantifié résultant. Le principal concept initial ici sera le champ et un(X) (indice UN numérote les composants du champ) définis à chaque point spatio-temporel x=(ct,x) et en exécutant k--l. une représentation assez simple du groupe de Lorentz. La théorie ultérieure peut être construite plus facilement en utilisant Formalisme lagrangien ; choisissez local [c.-à-d. c'est-à-dire en fonction uniquement des composants du champ et un(X) et leurs premières dérivées d m et un(X)=du a / dx m = et un m( X) (m=0, 1, 2, 3) à un moment donné X] quadratique invariant de Poincaré (voir. Groupe Poincaré) Lagrangien L(x) = L(u a , d m tu b) et de principe de moindre action obtenir les équations du mouvement. Pour un lagrangien quadratique, ils sont linéaires – les champs libres satisfont au principe de superposition. En vertu de Théorème de Noether de l’invariance de l’action S par rapport à chaque paramètre. le groupe suit la conservation (indépendance du temps) de l'un, explicitement indiquée par le théorème, fonction intégrale de et un Et d m tu b. Puisque le groupe de Poincaré lui-même est à 10 paramètres, QFT préserve nécessairement 10 quantités, parfois appelées fundams. dynamique quantités : de l'invariance par rapport à quatre déplacements dans l'espace-temps à quatre dimensions, découle la conservation de quatre composantes du vecteur énergie-impulsion R. m , et de l'invariance sous six rotations dans l'espace 4, il s'ensuit que six composantes du moment sont conservées - trois composantes du moment cinétique tridimensionnel M je = 1/2E ijk M jk et trois soi-disant booste N je =c - je M 0je(je, j, k= 1, 2, 3, E ijk- un seul tenseur totalement antisymétrique ; la sommation est implicite sur les indices apparaissant deux fois). Avec les mathématiques. point de vue dix fonds. quantités - R. moi, M je, N je- essence générateurs de groupe Poincaré. Si l'action reste invariante même lorsque certaines autres transformations continues sont effectuées sur le domaine considéré qui ne sont pas incluses dans le groupe de Poincaré - transformations internes. symétrie, - du théorème de Noether il découle donc l'existence de nouvelles dynamiques conservées. quantités Ainsi, ils supposent souvent que les fonctions de champ sont complexes et imposent la condition hermitienne au lagrangien (voir. Opérateur hermitien) et nécessitent l'invariance de l'action par rapport au global transformation de jauge(la phase a ne dépend pas de X) et un(X)""e je un et un(X), tu*a(X)""e - je un tu*a(X). Il s’avère alors (suite au théorème de Noether) que la charge est conservée

Par conséquent, des fonctions complexes et un peut être utilisé pour décrire la charge. des champs. Le même objectif peut être atteint en élargissant la gamme de valeurs couvertes par les indices UN, de sorte qu'ils indiquent la direction dans l'isotope. l'espace, et exigeant que l'action soit invariante par rapport aux rotations dans celui-ci. Notez que la charge Q n’est pas nécessairement électrique. charge, il peut s'agir de toute caractéristique de champ conservée non associée au groupe Poincaré, par exemple, nombre de leptons, étrangeté, nombre de baryons et ainsi de suite. Quantification canonique,selon principes généraux la mécanique quantique, est-ce que les coordonnées généralisées [c.-à-d. c'est-à-dire un ensemble (infini) de valeurs de tous les composants du champ toi 1 , . . ., u N en tous points X l'espace à un moment donné t(dans une présentation plus sophistiquée - en tous points d'une certaine hypersurface spatiale s] et impulsions généralisées p b(X, t)=dL/dub(x, t) sont déclarés comme des opérateurs agissant sur l'amplitude d'état (vecteur d'état) du système, et les relations de commutation leur sont imposées :

Par ailleurs, les signes « + » ou « - » correspondent à une quantification selon Fermi - Dirac ou Bose - Einstein (voir ci-dessous). Ici d un B - Symbole Kronecker,d( xy) - fonction delta Dirac. En raison du rôle mis en évidence du temps et de la référence inévitable à un système de référence spécifique, les relations de permutation (1) violent la symétrie explicite de l'espace et du temps, et la préservation de l'invariance relativiste nécessite des exigences particulières. preuve. De plus, les relations (1) ne disent rien sur la commutation. propriétés des champs dans des paires de points espace-temps de type temps - les valeurs des champs en ces points sont causalement dépendantes et leurs permutations ne peuvent être déterminées qu'en résolvant l'équation du mouvement avec (1). Pour les champs libres, pour lesquels les équations du mouvement sont linéaires, un tel problème est résoluble sous forme générale et permet d'établir - et, de plus, sous une forme relativistement symétrique - des relations de permutation de champs en deux points arbitraires X Et à.

Ici D t - fonction de permutation Pauli - Jordana, satisfaisante Klein - L'équation de Gordon Pab- un polynôme qui assure la satisfaction du membre droit (2) des équations du mouvement le long X et par à, - Opérateur D-Alembert, t- masse du champ quantique (ci-après le système d'unités h= Avec= 1). Dans l'approche corpusculaire de la description quantique relativiste des particules libres, les vecteurs d'état de la particule doivent former une représentation irréductible du groupe de Poincaré. Cette dernière est fixée en précisant les valeurs des opérateurs Casimir (opérateurs qui font la navette avec l'ensemble des dix groupes électrogènes du groupe). R. m M je Et N je), dont le groupe Poincaré en possède deux. Le premier est l’opérateur de masse au carré m 2 =R. m R. m. À m 2 n° 0 le deuxième opérateur de Casimir est le carré du spin ordinaire (tridimensionnel), et à masse nulle - l'opérateur d'hélicité (projection du spin sur la direction du mouvement). Gamme m 2 est continu - le carré de la masse peut avoir n'importe quel nombre non négatif. significations, m 20 ; le spectre de spin est discret, il peut avoir des valeurs entières ou semi-entières : 0, 1 / 2, 1, ... De plus, il faut préciser le comportement du vecteur d'état à la réflexion nombre impair axes de coordonnées. Si aucune autre caractéristique n’est requise, on dit que la particule n’a aucune propriété interne. degrés de liberté et ce qu'on appelle vraie particule neutre. Sinon, la particule a des charges d'une sorte ou d'une autre. Pour fixer l'état d'une particule au sein d'une représentation, en mécanique quantique il est nécessaire de spécifier les valeurs d'un ensemble complet d'opérateurs de navettage. Le choix d'un tel ensemble est ambigu ; pour une particule libre, il convient de prendre trois composantes de sa quantité de mouvement R. et la projection revient je c'est sur k--l. direction. Ainsi, l'état d'une particule libre véritablement neutre est complètement caractérisé en spécifiant les nombres t, l s, р x, p y, р z, s, dont les deux premiers déterminent la représentation, et les quatre suivants déterminent l'état qui s'y trouve. Pour charger plus de particules seront ajoutées ; Désignons-les par la lettre t. Dans la représentation des nombres d'occupation, l'état d'une collection de particules identiques est fixé remplir les nombres n p,s, t de tous les états d'une seule particule (les indices caractérisant la représentation, en général, ne sont pas écrits). À son tour, le vecteur d'état | np,s, t > s'écrit comme le résultat de l'action sur l'état de vide |0> (c'est-à-dire un état dans lequel il n'y a aucune particule) des opérateurs de création une + (p, s,t):

Opérateurs de naissance UN+ et ses opérateurs d'annihilation hermitiens conjugués UN - satisfaire les relations de commutation

où les signes «+» et «-» correspondent respectivement à la quantification Fermi - Dirac et Bose - Einstein, et les nombres d'occupation sont les bons. valeurs des opérateurs de nombre de particules Ainsi, le vecteur d'état d'un système contenant chacune une particule avec des nombres quantiques p 1 , s 1, t 1 ; p 2 , s 2, t 2 ; . . ., écrit comme

Pour prendre en compte les propriétés locales de la théorie, il faut traduire les opérateurs un B dans une représentation coordonnée. Il est pratique d'utiliser les fonctions classiques comme fonctions de transformation. résoudre les équations de mouvement d'un champ libre approprié avec des indices tensoriels (ou spineurs) UN et index symétrie interne q. Alors les opérateurs de création et d'annihilation dans la représentation coordonnée seront :


Ces opérateurs sont cependant encore inadaptés à la construction d'un QFT local : leur commutateur et leur anticommutateur sont proportionnels à la fonction de Pauli-Jordan. D t, et ses parties de fréquence positives et négatives D 6 m(xy)[ré m = ré + m + ré - m], qui pour des paires de points de type spatial X Et à ne va pas à zéro. Pour obtenir un champ local, il faut construire une superposition des opérateurs de création et d'annihilation (5). Pour les particules véritablement neutres, cela peut être fait directement en définissant le champ covariant de Lorentz local comme
tu es un(X)=tu es un(+ ) (X) + et un(-) (X). (6)
Mais pour charger. les particules ne peuvent pas faire cela : opérateurs un + t et un- t dans (6) l'un augmentera et l'autre diminuera la charge, et leur combinaison linéaire n'aura pas de définition à cet égard. propriétés. Ainsi, pour former un champ local il faut s'associer avec les opérateurs de création un + t les opérateurs d'annihilation ne sont pas les mêmes particules, mais de nouvelles particules (marquées d'un tilde en haut), implémentant la même représentation du groupe de Poincaré, c'est-à-dire ayant exactement la même masse et le même spin, mais différant de celles d'origine par la charge signez (signes de toutes les charges t) et écrivez :

Depuis Les théorèmes de Pauli Il s'ensuit maintenant que pour les champs de spin entier, dont les fonctions de champ fournissent une représentation unique du groupe de Lorentz, lors de la quantification de Bose-Einstein les commutateurs [ Et(X), Et(à)]_ ou [ Et(X), v*(à)]_ proportionnel les fonctions DM(xy) et disparaissent en dehors du cône de lumière, tandis que pour ceux qui implémentent des représentations à deux valeurs de champs de spin demi-entiers, la même chose est obtenue pour les anticommutateurs [ Et(X), Et(à)] + (ou [ v(X), v* (oui)] +) pour la quantification Fermi-Dirac. La connexion exprimée par les formules (6) ou (7) entre les fonctions de champ covariantes de Lorentz satisfaisant les équations linéaires Et ou v,v* et opérateurs de création et de destruction de particules libres en mécanique quantique stationnaire. déclare qu'il existe un calcul exact. description de la dualité onde-particule. Les nouvelles particules « nées » par les opérateurs, sans lesquelles il était impossible de construire des champs locaux (7), sont appelées - par rapport aux originales - antiparticules. L'inévitabilité de l'existence d'une antiparticule pour chaque charge. particules - l'un des ch. conclusions théorie des quanta champs libres.
3. Interactions sur le terrain Solutions (6) et (7) des équations proportionnelles en champ libre. opérateurs de création et d'annihilation de particules dans des états stationnaires, c'est-à-dire qu'ils ne peuvent décrire que de telles situations où rien n'arrive aux particules. Afin de considérer également les cas où certaines particules influencent le mouvement des autres ou se transforment en d'autres, il est nécessaire de rendre les équations du mouvement non linéaires, c'est-à-dire d'inclure dans le Lagrangien, en plus des termes quadratiques dans les champs, également des termes avec des diplômes supérieurs. Du point de vue de la théorie développée jusqu’à présent, une telle interaction Lagrangienne Peluche pourrait être n'importe quelle fonction de corps et ses dérivées premières, satisfaisant uniquement la série conditions simples: 1) localité d'interaction, exigeant que Peluche(X) dépendait de diff. des champs et un(X) et leurs dérivées premières en un seul point de l'espace-temps X; 2) invariance relativiste, pour remplir la coupe Peluche doit être un scalaire par rapport aux transformations de Lorentz ; 3) invariance sous transformations à partir de groupes de symétrie internes, si le modèle considéré en a. Pour les théories à champs complexes, cela inclut, en particulier, les exigences pour que le lagrangien soit hermitien et invariant par rapport aux transformations de jauge admissibles dans de telles théories. De plus, on peut exiger que la théorie soit invariante sous certaines transformations discrètes, telles que inversion spatiale P, inversion temporelle T Et conjugaison de charges C(en remplaçant les particules par des antiparticules). Prouvé ( Théorème CPT), que toute interaction satisfaisant aux conditions 1)-3) doit nécessairement être invariante par rapport au même temps. effectuer ces trois transformations discrètes. La variété des Lagrangiens d'interaction satisfaisant les conditions 1)-3) est aussi large que, par exemple, la variété des fonctions de Lagrange dans le classique. mécanique, et sur certains Au stade de développement de QFT, il semblait que la théorie ne répondait pas à la question de savoir pourquoi certains d'entre eux, et pas d'autres, se réalisent dans la nature. Cependant, après que l'idée est née renormalisations Divergations UV (voir section 5 ci-dessous) et sa brillante mise en œuvre dans électrodynamique quantique(QED), une classe prédominante d’interactions a émergé – celles renormalisables. Condition 4) - la renormalisabilité s'avère très restrictive, et son ajout aux conditions 1)-3) ne laisse que les interactions avec Peluche la forme de polynômes de faible degré dans les champs considérés et les champs de spins élevés sont généralement exclus de la considération. Ainsi, l'interaction dans un QFT renormalisable ne permet pas - une différence frappante par rapport au classique. et mécanique quantique - pas de fonctions arbitraires : dès qu'un ensemble spécifique de champs est choisi, l'arbitraire dans Peluche limité à un nombre fixe constantes d'interaction(constantes de couplage). Un système complet d'équations QFT avec interaction (en Représentation Heisenberg) sont les équations du mouvement obtenues à partir du lagrangien complet ( système connecté différentiel équations aux dérivées partielles avec termes non linéaires d'interaction et d'auto-action) et canoniques. relations de commutation (1). Une solution exacte à un tel problème ne peut être trouvée que dans un petit nombre de substances physiquement peu contenantes. cas (par exemple pour certains modèles en espace-temps bidimensionnel). Par contre, canon. les relations de commutation violent, comme nous l'avons déjà mentionné, une symétrie relativiste évidente, qui devient dangereuse si, au lieu d'une solution exacte, on se contente d'une solution approchée. Donc pratique la valeur de la quantification sous la forme (1) est petite. Naïb. une méthode basée sur le passage à représentation des interactions, dans lequel les champs et une(x) satisfont les équations linéaires du mouvement pour les champs libres, et toute l'influence de l'interaction et de l'auto-action est transférée à l'évolution temporelle de l'amplitude de l'état Ф, qui n'est plus constante, mais change conformément à une équation du Type Schrödinger :

et Hamiltonien interaction Indice(t) dans cette représentation dépend du temps à travers les champs et un(x), soumis à des équations libres et à des relations de permutation relativiste-covariante (2) ; Ainsi, l’utilisation explicite de termes canoniques s’avère inutile. interrupteurs (1) pour champs en interaction. Pour comparaison avec l'expérience, la théorie doit résoudre le problème de la diffusion des particules, dans la formulation on suppose que asymptotiquement, à t""- :(+ :) le système était dans un état stationnaire (atteindra un état stationnaire) Ф_ : (Ф + :), et Ф b : sont tels que les particules qu'ils contiennent n'interagissent pas en raison des grandes distances mutuelles (voir également Hypothèse adiabatique), de sorte que toute influence mutuelle des particules ne se produit qu'à des temps finis proches de t = 0 et transforme Ф_ : en Ф + : = S F_: . Opérateur S appelé matrice de diffusion(ou S-matrice); à travers les carrés de ses éléments matriciels

les probabilités de transitions à partir d'un début donné sont exprimées. état F je dans un état final F F, c'est-à-dire eff. sections transversales différentes processus. Que., S-matrix vous permet de trouver les probabilités physiques. processus sans entrer dans les détails de l’évolution temporelle décrite par l’amplitude Ф( t). Néanmoins S-la matrice est généralement construite sur la base de l'équation (8), qui permet une solution formelle sous forme compacte :
.

en utilisant l'opérateur T chronologique ordonner, organiser tous les opérateurs de terrain par ordre décroissant de temps t = x 0 (voir Travail chronologique).L’expression (10) est cependant plutôt symbolique. procédure d'enregistrement séquentielle intégration de l'équation (8) de - : à + : sur des intervalles de temps infinitésimaux ( t, t+D t), plutôt qu’une solution utilisable. Cela peut être vu au moins par le fait que pour le calcul fluide des éléments de la matrice (9), il est nécessaire de présenter la matrice de diffusion sous la forme non pas chronologique, mais produit normal, dans lequel tous les opérateurs de création sont à gauche des opérateurs de destruction. La tâche de transformer une œuvre en une autre constitue la véritable difficulté et ne peut être résolue de manière générale.
4. Théorie des perturbations Pour cette raison pour solution constructive problème, nous devons recourir à l'hypothèse que l'interaction est faible, c'est-à-dire que l'interaction lagrangienne est petite Peluche. Ensuite, vous pouvez décomposer chronologiquement. exponentielle dans l'expression (10) d'affilée théorie des perturbations, et les éléments matriciels (9) seront exprimés dans chaque ordre de la théorie des perturbations à travers des éléments matriciels non chronologiques. exposants et des exposants chronologiques simples. produits du nombre correspondant de Lagrangiens d'interaction :

(P.- théorie de l'ordre des perturbations), c'est-à-dire qu'il faudra transformer non pas des exponentielles, mais de simples polynômes sous forme normale type spécifique. Cette tâche est pratiquement accomplie grâce à la technologie Diagrammes de Feynman et Feynman a gouverné. Dans la technique de Feynman, chaque champ et une(x) est caractérisé par sa fonction causale de Green ( propagateur ou fonction de propagation), D c aa"(x-y), représenté dans les diagrammes par une ligne, et chaque interaction - par une constante de couplage et un multiplicateur matriciel du terme correspondant dans Peluche montré dans le diagramme haut. La popularité de la technique du diagramme de Feynman, outre sa facilité d'utilisation, est due à sa clarté. Les diagrammes permettent de visualiser les processus de propagation (lignes) et d'interconversion (sommets) des particules - réels au départ. et états finaux et virtuels dans les états intermédiaires (sur lignes internes). Des expressions particulièrement simples sont obtenues pour les éléments matriciels de tout processus dans ordre inférieur théorie des perturbations, qui correspondent à ce qu'on appelle des diagrammes arborescents qui n'ont pas de boucles fermées - après la transition vers la représentation impulsionnelle, il ne reste plus du tout d'intégrations. Pour la base Processus QED, de telles expressions pour les éléments matriciels ont été obtenues à l'aube de l'émergence du QFT à la fin des années 1960. 20s et s'est avéré être en accord raisonnable avec l'expérience (le niveau d'accord est de 10 - 2 - 10 - 3, c'est-à-dire de l'ordre de la constante de structure fine a). Cependant, les tentatives de calcul corrections de rayonnement(c'est-à-dire des corrections associées à la prise en compte d'approximations supérieures) à ces expressions, par exemple à Klein - Nishina - Tamm f-le (voir. Klein - Formule Nishina) pour la diffusion Compton, je suis tombé sur du spécifique. des difficultés. De telles corrections correspondent à des diagrammes avec des boucles fermées de lignes particules virtuelles, dont les impulsions ne sont pas fixées par des lois de conservation, et la correction totale est égale à la somme des contributions de toutes les impulsions possibles. Il s'est avéré que dans la plupart des cas, les intégrales sur l'impulsion des particules virtuelles qui surviennent lors de la somme de ces contributions divergent dans la région UV, c'est-à-dire que les corrections elles-mêmes s'avèrent non seulement non petites, mais infinies. Selon la relation d'incertitude, les grandes impulsions correspondent aux petites distances. On pourrait donc penser que c’est physique. Les origines des divergences résident dans l’idée de localité d’interaction. À cet égard, on peut parler d'une analogie avec énergie infinie el-magn. champs d'une charge ponctuelle en classique. électrodynamique.
5. Divergences et renormalisations Formellement, mathématiquement, l'apparition de divergences est due au fait que les propagateurs DC(x) sont des fonctions singulières (plus précisément généralisées) qui ont au voisinage du cône lumineux à X 2 ~ 0 fonctionnalités telles que les pôles et les fonctions delta X 2. Par conséquent, leurs produits apparaissant dans les éléments matriciels, qui correspondent à des boucles fermées dans les diagrammes, sont mal définis en mathématiques. points de vue. Les images de Fourier impulsionnelles de tels produits n'existent peut-être pas, mais - formellement - sont exprimées par des intégrales d'impulsions divergentes. Ainsi, par exemple, l'intégrale de Feynman
(Où R.- externe 4 impulsions, k- impulsion d'intégration), correspondant au schéma à une boucle le plus simple avec deux internes. lignes scalaires (Fig.), n'existe pas.

Il est proportionnel. Transformée de Fourier du propagateur carré DC(x) champ scalaire et diverge de manière logarithmique à la limite supérieure (c'est-à-dire dans la région UV des impulsions virtuelles | k|"":, donc, par exemple, si vous coupez l'intégrale à la limite supérieure à | k|=L, alors

je escroquer ( R.) est l'expression finale.
Le problème des divergences UV a été résolu (au moins du point de vue de l'obtention d'expressions finales pour les quantités les plus physiquement intéressantes) au cours de la 2ème moitié. années 40 basé sur l'idée de renormalisations (renormalisations). L'essence de cette dernière est que les effets infinis des fluctuations quantiques correspondant aux boucles fermées des diagrammes peuvent être isolés en facteurs qui ont la nature de corrections à apporter. caractéristiques originales systèmes. En conséquence, les masses et les constantes de couplage g changement dû à l’interaction, c’est-à-dire qu’ils sont renormalisés. Dans ce cas, en raison des divergences UV, les additifs renormalisants s'avèrent infiniment grands. Par conséquent, les relations de renormalisation

m 0 ""m=m 0 + D m=m 0 Zm (. . .),

g 0 ""g = g 0 +D g = g 0 Zg(. . .)

(Où Zm, Zg- facteurs de renormalisation) reliant ceux d'origine, les soi-disant. masses de graines m 0 et charges de départ (c'est-à-dire constantes de couplage) g 0 avec physique t, g, s'avèrent être singulier. Afin de ne pas avoir affaire à des expressions sans fin et dénuées de sens, l'un ou l'autre auxiliaire est introduit. régularisation des divergences(similaire au seuil utilisé dans (13) à | k|=L. Dans les arguments (indiqués à droite de (14) par des ellipses) rayonnement. amendements D m, D g, ainsi que les facteurs de renormalisation Z je, en plus T 0 et g 0, contient des dépendances singulières sur les paramètres auxiliaires. régularisation. L'élimination des divergences se produit en identifiant les masses et les charges renormalisées m Et g avec leur physique valeurs. En pratique, pour éliminer les divergences, la technique de l'introduction dans le lagrangien original est souvent utilisée : contre-membres et exprimer T 0 et g 0 dans le Lagrangien par physique m Et g relations formelles inverses à (14). Développer (14) en séries selon la physique. paramètre d'interaction :

T 0 = T + GM 1 + g 2 M 2 + ..., g 0 = g + g 2 g 1 + g 3 g 2 + ...,

sélectionner des coefficients singuliers M l, G je ainsi, afin de compenser exactement les divergences survenant dans les intégrales de Feynman. Une classe de modèles QFT pour laquelle un tel programme peut être exécuté de manière cohérente dans tous les ordres de théorie des perturbations et dans laquelle, c'est-à-dire, sans exception, toutes les divergences UV peuvent être « supprimées » dans les facteurs de renormalisation des masses et les constantes de couplage, appelées classe de théories renormalisables. Dans les théories de ce type, tous les éléments matriciels et les fonctions de Green finissent par être exprimés de manière non singulière à travers la physique. masses, charges et cinématique. variables. Dans les modèles renormalisables, on peut donc, si on le souhaite, faire complètement abstraction des simples paramètres et des divergences UV, considérés séparément, et caractériser pleinement les résultats théoriques. calculs en spécifiant un nombre fini de physiques valeurs des masses et des charges. Mathématiques. la base de cette déclaration est Bogolyubov - Théorème de Parasyuk sur la renormalisabilité. Il en résulte suffisamment recette simple obtenir des expressions finies sans ambiguïté pour les éléments matriciels, formalisées sous la forme de ce qu'on appelle. Opérations R Bogolyubova. En même temps, dans les modèles non renormalisables, dont un exemple est la formulation désormais obsolète sous la forme d'un lagrangien de Fermi local à quatre fermions, il n'est pas possible de « collecter » toutes les divergences en « agrégats » qui renormalisent les masses. et les frais. Les modèles QFT renormalisables sont caractérisés, en règle générale, par des constantes de couplage sans dimension, des contributions logarithmiquement divergentes à la renormalisation des constantes de couplage et des masses de fermions, et des rayons quadratiquement divergents. corrections des masses des particules scalaires (le cas échéant). Pour de tels modèles, suite à la procédure de renormalisation, nous obtenons théorie des perturbations renormalisées, bords et sert de base pour la pratique. calculs. Dans les modèles QFT renormalisables, un rôle important est joué par les fonctions de Green renormalisées (propagateurs habillés) et parties apicales, y compris les effets d’interaction. Ils peuvent être représentés par des sommes infinies de termes correspondant à des diagrammes de Feynman de plus en plus complexes avec un nombre et un type d'extension fixes. lignes. Pour de telles quantités, on peut donner des définitions formelles soit par milieu sous vide chronologique produits d'opérateurs de champ dans la représentation d'interaction et la matrice S (qui équivaut aux moyennes sous vide des produits T des opérateurs complets, c'est-à-dire Heisenberg), ou via des dérivées fonctionnelles de générer fonctionnel Z(J), exprimé à travers ce qu'on appelle matrice de diffusion étendue S( J.), fonctionnellement dépendant de l'auxiliaire. classique sources J une (x)des champs et un(x). Le formalisme de génération de fonctionnelles dans QFT est un analogue du formalisme correspondant de la théorie statistique. la physique. Il permet d'obtenir des équations complètes de fonctions de Green et de fonctions de sommet en dérivées fonctionnelles - Équations de Schwinger, à partir de laquelle on peut à son tour obtenir une chaîne infinie d'intégro-différentielles. niveau - -Équations de Dyson. Ces dernières s’apparentent à une chaîne d’équations de corrélations. fonctions statistiques la physique.
6. Groupe asymptotique UV et renormalisation Les divergences à haute énergie sont étroitement liées aux divergences UV dans QFT. comportement asymptotique des expressions renormalisées. Par exemple, logarithmique divergence (12) de l'intégrale de Feynman la plus simple Je(p) répond de manière logarithmique. asymptotique

intégrale régularisée finie (13), ainsi que l'expression renormalisée correspondante. Puisque dans les modèles renormalisables avec constantes de couplage sans dimension, les divergences sont principalement logarithmiques. caractère, asymptotique UV je-intégrales de boucle, en règle générale (à l'exception du cas asymptotiques deux fois logarithmiques), ont ici une structure typique ( GL)je, Où L= ln(- R. 2/m2), p est une « grande » impulsion, et m est un certain paramètre de la dimension de masse qui apparaît dans le processus de renormalisation. Par conséquent, avec suffisamment grandes valeurs |R. 2 | la croissance du logarithme compense la petitesse de la constante de couplage g et le problème se pose de déterminer un terme arbitraire de la série de la forme

et en résumant une telle série ( un film- coefficients numériques). La résolution de ces problèmes est facilitée par l'utilisation de la méthode groupe de renormalisation, qui est basé sur la nature de groupe des transformations finies similaires aux fonctions de renormalisation singulières (14) et aux transformations qui les accompagnent des fonctions de Green. De cette manière, il est possible de résumer efficacement certains ensembles infinis de contributions des diagrammes de Feynman et, en particulier, de représenter des doubles développements (15) sous la forme de simples :

où sont les fonctions f l avoir aspect caractéristique géom. progression ou une combinaison d'une progression avec son logarithme et son exposant. Ce qui est très important ici, c'est la condition d'applicabilité type f-l(15), ayant la forme g<<1, GL<< 1, est remplacé par un beaucoup plus faible : - soi-disant. charge invariante, qui dans l'approximation la plus simple (une boucle) a la forme d'une somme de geoms. progression par argument GL : (b 1 - coefficient numérique). Par exemple, en QED, la charge invariante est proportionnelle à la partie transversale du propagateur de photons. d, dans l'approximation à une boucle s'avère égal

et avec k 2 /m 2 >0 L=ln( k 2 /m 2)+ je p( k- 4 impulsions d'un photon virtuel). C'est une expression représentant la somme de ch. logarithmes de la forme a(a L)n, a ce qu'on appelle poteau fantôme à k 2 = -m 2 e 3 p/a, ainsi appelé car sa position et surtout le signe du résidu contredisent un certain nombre de propriétés générales de QFT (exprimées, par exemple, représentation spectrale pour propagateur de photons). La présence de ce pôle est étroitement liée au problème de ce qu'on appelle. zéro frais,T. c'est-à-dire que la charge renormalisée devient nulle à une valeur finie de la charge « graine ». La difficulté liée à l’apparition du poteau fantôme a même parfois été interprétée comme une preuve d’interne. incohérences du QED, et le transfert de ce résultat au traditionnel. modèles renormalisables de forte interaction des hadrons - comme indication de l'incohérence de l'ensemble du QFT local dans son ensemble. Cependant, ces conclusions cardinales sont tirées du chapitre. logarithmique les approches se sont révélées précipitées. En prenant déjà en compte les contributions « suivantes les principales » ~a 2 (a L)m, conduisant à l'approximation à deux boucles, montre que la position du pôle se déplace sensiblement. Une analyse plus générale dans le cadre de la méthode de renormalisation. groupe conduit à la conclusion que la formule (16) n'est applicable que dans la région c’est-à-dire l’impossibilité de prouver ou de réfuter l’existence d’une « contradiction polaire » sur la base de l’une ou l’autre récapitulation de séries (15). Ainsi, le paradoxe du phénomène d'un pôle fantomatique (ou du renversement d'une charge renormalisée à zéro) s'avère illusoire - il ne serait possible de décider si cette difficulté apparaît réellement en théorie que si l'on pouvait obtenir des résultats sans ambiguïté Jusque-là Pour l'instant, la seule conclusion qui reste est que - lorsqu'elle est appliquée au spinor QED - la théorie des perturbations n'est pas, malgré la petitesse inconditionnelle du paramètre d'expansion a, une théorie logiquement fermée. Pour le QED, cependant, ce problème pourrait être considéré comme purement académique, puisque, selon (16), même aux énergies gigantesques ~(10 15 -10 16) GeV, considérées à l'époque moderne. modèles d'interactions combinées, la condition n'est pas violée. La situation en mésodynamique quantique - la théorie de l'interaction des champs de mésons pseudoscalaires avec les champs de fermions des nucléons, présentée au début - semblait beaucoup plus grave. années 60 unité candidat pour le rôle d’un modèle renormalisable d’interaction forte. Dans ce document, la constante de couplage effective était élevée aux énergies ordinaires, et la prise en compte - clairement non autorisée - de la théorie des perturbations conduisait aux mêmes difficultés que celles de la charge nulle. À la suite de toutes les études décrites, une vision quelque peu pessimiste s’est dégagée. point de vue sur les perspectives futures du QFT renormalisable. Purement théorique. d'un point de vue il me semblait que les qualités. la variété de ces théories est négligeable : pour tout modèle renormalisable, tous les effets d'interaction - pour de petites constantes de couplage et des énergies modérées - se limitaient à un changement inobservable dans les caractéristiques des particules libres et au fait que des transitions quantiques se produisaient entre les états avec de telles particules, aux probabilités de l'approximation la plus basse dont il était désormais possible de calculer de (petites) corrections des plus élevées. Pour les grandes constantes de couplage ou les énergies asymptotiquement grandes, la théorie existante – encore une fois quel que soit le modèle spécifique – était inapplicable. La seule application (certes brillante) au monde réel qui satisfaisait à ces restrictions était QED. Cette situation a contribué au développement de méthodes non hamiltoniennes (telles que théorie axiomatique des champs quantiques, approche algébrique en KTP, théorie quantique constructive des champs). De grands espoirs étaient placés sur méthode des relations de dispersion et recherche analytique. propriétés de la matrice S. Mn. les chercheurs ont commencé à chercher une issue aux difficultés en révisant les principes de base. dispositions de QFT renormalisé local avec l'aide du développement de non canoniques. directions : essentiellement non linéaires (c'est-à-dire non polynomiales), non locales, non définies (voir. Théories quantiques des champs non polynomiaux, Théorie des champs quantiques non locaux, Métrique indéfinie) etc. La source de nouvelles vues sur la situation générale du QFT a été la découverte de nouvelles théories théoriques. faits liés aux non-abéliens champs de jauge. 7. Champs d'étalonnage Champs de jauge (y compris non abéliens Champ Young-Mills) sont associés à l'invariance par rapport à un groupe g transformations de jauge locales. L’exemple le plus simple d’un champ de jauge est un aimant électrique. champ UN m en QED associé au groupe abélien U(l). Dans le cas général d'une symétrie ininterrompue, les champs de Yang-Mills, comme un photon, ont une masse au repos nulle. Ils sont convertis par la représentation de groupe ci-jointe g, portent les indices correspondants Bab m( X) et obéissent à des équations de mouvement non linéaires (linéarisables uniquement pour le groupe abélien). Leur interaction avec les champs de matière sera invariante de jauge si elle est obtenue en étendant les dérivées (voir. Dérivée covariante): dans le lagrangien libre du champ et avec la même constante sans dimension g, qui est inclus dans le Lagrangien du champ DANS. Comme El-Magn. champ, les champs Yang-Mills sont des systèmes avec des connexions. Ceci, ainsi que l'absence apparente de particules vectorielles sans masse (autres que les photons) dans la nature, ont limité l'intérêt pour de tels domaines et, pendant plus de 10 ans, ils ont été considérés davantage comme un modèle élégant sans rapport avec le monde réel. La situation a changé au 2ème étage. années 60, lorsqu'ils ont pu être quantifiés grâce à la méthode d'intégration fonctionnelle (voir. Méthode intégrale fonctionnelle) et découvrez que le champ de Yang-Mills pur sans masse et le champ interagissant avec les fermions sont renormalisables. Suite à cela, une méthode a été proposée pour introduire « en douceur » des masses dans ces champs en utilisant l'effet rupture spontanée de symétrie. Basé sur cela Mécanisme de Higgs permet de conférer une masse aux quanta des champs de Yang-Mills sans violer la renormalisabilité du modèle. Sur cette base, en con. années 60 une théorie unifiée renormalisable du faible et de l'el-magnétique a été construite. interactions (voir Interaction électrofaible), dans lequel les porteurs d'interaction faible sont des quanta lourds (avec des masses ~ 80-90 GeV) de champs de jauge vectorielle du groupe de symétrie électrofaible ( Bosons vecteurs intermédiaires W 6 et Z 0, observé expérimentalement en 1983). Enfin, au début. années 70 a été découvert avis. propriété des QFT non abéliens - liberté asymptotique Il s'est avéré que, contrairement à tous les QFT renormalisables étudiés jusqu'à présent, le champ de Yang-Mills est à la fois pur et interagissant avec des restrictions. nombre de fermions, ch. logarithmique les contributions à la charge invariante ont un signe total opposé au signe de ces contributions au QED :

Par conséquent, à la limite | k 2 |" : charge invariante et aucune difficulté ne survient lors du passage à la limite UV. Ce phénomène d'auto-extinction de l'interaction à petites distances (liberté asymptotique) a permis d'expliquer naturellement dans la théorie de jauge de l'interaction forte - chromodynamique quantique(QCD) structure partonique des hadrons (voir. Les Partons), qui s'était manifesté à cette époque dans des expériences sur la diffusion profondément inélastique des électrons sur les nucléons (voir. Des processus profondément inélastiques). La base symétrique de QCD est le groupe S.U.(3) c, agissant dans l'espace dit. variables de couleur. Des nombres quantiques de couleurs non nuls sont attribués à quarks Et gluons. La spécificité des états de couleur est leur inobservabilité à des distances spatiales asymptotiquement grandes. Dans le même temps, les baryons et les mésons qui apparaissent clairement expérimentalement sont des singulets du groupe des couleurs, c'est-à-dire que leurs vecteurs d'état ne changent pas lors des transformations dans l'espace colorimétrique. En inversant le signe b [cf. (17) avec (16)] la difficulté du pôle fantôme passe des hautes énergies aux petites. On ne sait pas encore ce que donne la QCD pour les énergies ordinaires (de l'ordre des masses de hadrons), il existe une hypothèse selon laquelle avec une distance croissante (c'est-à-dire avec une énergie décroissante), l'interaction entre les particules colorées augmente si fortement qu'elle est précisément ce qui ne permet pas aux quarks et gluons de se disperser à une distance de /10 - 13 cm (hypothèse de non-vol, ou confinement ; voir Rétention de la couleur Une grande attention est accordée à l'étude de ce problème. Ainsi, l’étude des modèles quantiques de champs contenant des champs de Yang-Mills a révélé que les théories renormalisables peuvent avoir une richesse de contenu inattendue. En particulier, la croyance naïve selon laquelle le spectre d'un système en interaction est qualitativement similaire au spectre d'un système libre et n'en diffère que par un déplacement de niveaux et, éventuellement, l'apparition d'un petit nombre d'états liés. Il s'est avéré que le spectre d'un système en interaction (hadrons) peut n'avoir rien de commun avec le spectre des particules libres (quarks et gluons) et peut donc même ne pas en donner une indication. domaines dans lesquels les variétés doivent être incluses dans le microscope élémentaire. Lagrangien. Établir ces qualités essentielles. fonctionnalités et détenant la grande majorité des quantités. Les calculs QCD sont basés sur une combinaison de calculs de théorie des perturbations avec l'exigence d'invariance du groupe de renormalisation. En d’autres termes, la méthode des groupes de renormalisation est devenue, avec la théorie des perturbations renormalisées, l’un des principaux outils informatiques modernes. KTP. Dr. Méthode QFT, moyens reçus. Le développement depuis les années 70, notamment dans la théorie des champs de jauge non-abéliens, est, comme déjà noté, une méthode qui utilise la méthode intégrale fonctionnelle et constitue une généralisation à la mécanique quantique QFT. méthode intégrale de chemin. Dans QFT, ces intégrales peuvent être considérées comme des formules de moyenne des formules classiques correspondantes. expressions (par exemple, la fonction de Green classique pour une particule se déplaçant dans un champ externe donné) basées sur des fluctuations quantiques de champs. Initialement, l'idée de transférer la méthode intégrale fonctionnelle vers QFT était associée à l'espoir d'obtenir des expressions fermées compactes pour les fondamentaux. quantités de champ quantique adaptées aux calculs constructifs. Cependant, il s'est avéré qu'en raison de difficultés, les calculs ont été difficiles. nature, une définition stricte ne peut être donnée que pour les intégrales de type gaussien, qui seules peuvent être calculées avec précision. Par conséquent, la représentation intégrale fonctionnelle a longtemps été considérée comme une représentation formelle compacte de la théorie quantique des perturbations de champ. Plus tard (pour détourner l’attention du problème mathématique de la justification), ils ont commencé à utiliser cette représentation de diverses manières. tâches générales. Ainsi, la représentation de l'intégrale fonctionnelle a joué un rôle important dans les travaux sur la quantification des champs de Yang-Mills et la preuve de leur renormalisabilité. Des résultats intéressants ont été obtenus en utilisant la procédure de calcul de l'intégrale fonctionnelle du fonctionnel méthode de réussite, similaire à la méthode du point selle dans la théorie des fonctions d'une variable complexe. Pour un certain nombre de modèles assez simples, cette méthode a permis de constater que les grandeurs de champ quantique considérées comme des fonctions constantes de couplage g, je suis proche du point g=0 élément de type caractéristique exp(- 1 /g) et que (en pleine conformité avec cela) les coefficients fn extensions de puissance S f n g n les théories des perturbations se multiplient P. factorielle : fn~n!. Ainsi, ce qui avait été dit au début a été confirmé de manière constructive. années 50 hypothèse sur la non-analyticité de la théorie des charges. L'analyse joue un rôle important dans cette méthode. solutions au classique non linéaire niveaux ayant un caractère localisé ( solitons et - dans la version euclidienne - instantons) et des actions qui fournissent un minimum de fonctionnalités. En 2ème mi-temps. années 70 dans le cadre de la méthode d'intégration fonctionnelle, une direction de recherche est apparue sur les champs de jauge non abéliens en utilisant ce qu'on appelle. contour, en k-poii comme arguments au lieu de points à quatre dimensions X les contours fermés Г dans l'espace-temps sont considérés. De cette manière, il est possible de réduire d'une unité la dimension de l'ensemble des variables indépendantes et, dans un certain nombre de cas, de simplifier considérablement la formulation du problème du champ quantique (voir. Approche contour). Des études réussies ont été réalisées à l'aide de calculs numériques sur ordinateur d'intégrales fonctionnelles, représentées approximativement sous la forme d'intégrales répétées de grande multiplicité. Pour une telle représentation, un réseau discret est introduit dans l’espace original des variables de configuration ou de quantité de mouvement. Semblables, comme on les appelle, aux « calculs de réseau » pour le réalisme. les modèles nécessitent l’utilisation d’ordinateurs particulièrement puissants, c’est pourquoi ils commencent tout juste à être disponibles. Ici, en particulier, un calcul encourageant des masses et des champs magnétiques anormaux a été réalisé à l'aide de la méthode de Monte Carlo. moments de hadrons basés sur la chromodynamique quantique. représentations (voir Méthode en treillis).
8. Vue d'ensemble Le développement de nouvelles idées sur le monde des particules et leurs interactions révèle de plus en plus deux grands principes. les tendances. Il s'agit d'abord d'une transition progressive vers des concepts de plus en plus médiatisés et des images de moins en moins visuelles : symétrie de jauge locale, impératif de renormalisabilité, idée de symétries brisées, ainsi que de bris de symétrie spontanée, et des gluons au lieu des hadrons réellement observés. , la couleur inobservable des nombres quantiques, etc. Deuxièmement, parallèlement à la complication de l'arsenal de techniques et de concepts utilisés, il existe une manifestation incontestable de caractéristiques de l'unité des principes sous-jacents à des phénomènes qui semblent très éloignés les uns des autres, et comme une conséquence de cela, cela veut dire. simplifiant l’image globale. Trois principaux les interactions étudiées à l'aide des méthodes QFT ont reçu une formulation parallèle basée sur le principe d'invariance de jauge locale. La propriété connexe de renormalisabilité donne la possibilité de quantités. calculer les effets des interactions électro-magnétiques, faibles et fortes en utilisant la méthode de la théorie des perturbations. (Puisque l'interaction gravitationnelle peut également être formulée sur la base de ce principe, elle est probablement universelle.) D'un point de vue pratique. Les points de vue du calcul de la théorie des perturbations sont établis depuis longtemps dans le QED (par exemple, le degré d'accord entre la théorie et l'expérience pour moment magnétique anormal l'électron Dm est Dm/m 0 ~10 - 10, où m 0 est le magnéton de Bohr). Dans la théorie de l’interaction électrofaible, de tels calculs se sont également révélés avoir des prédictions remarquables. force (par exemple, les masses ont été correctement prédites W 6 - et Z 0-bosons). Enfin, en QCD dans la région des énergies suffisamment élevées et des transferts de Q à 4 impulsions (|Q| 2 / 100 GeV 2) basés sur la théorie des perturbations renormalisables, améliorée par la méthode de renormalisation. groupe, il est possible de décrire quantitativement un large éventail de phénomènes de physique des hadrons. En raison du paramètre de décomposition insuffisamment petit : la précision des calculs ici n'est pas très élevée. De manière générale, on peut dire que, contrairement au pessimisme de la con. Dans les années 1950, la méthode de la théorie des perturbations renormalisées s’est avérée fructueuse pour au moins trois des quatre fondations. interactions. Dans le même temps, il convient de noter que max. des progrès significatifs, réalisés principalement dans les années 60-80, concernent spécifiquement la compréhension du mécanisme d'interaction des champs (et des particules). Les succès obtenus dans l'observation des propriétés des particules et des états de résonance ont fourni une matière abondante, qui a conduit à la découverte de nouveaux nombres quantiques (étrangeté, charme, etc.) et à la construction de soi-disant nombres correspondant à ceux-ci. symétries brisées et taxonomies de particules correspondantes. Ceci, à son tour, a donné une impulsion à la recherche de la sous-structure des multiples. hadrons et finalement - la création de QCD. En conséquence, les « 50 » comme les nucléons et les pions ont cessé d'être élémentaires et il est devenu possible de déterminer leurs propriétés (valeurs de masse, moments magnétiques anormaux, etc.) grâce aux propriétés des quarks et aux paramètres de l'interaction quark-gluon. Ceci est illustré par exemple par le degré de perturbation isotopique. symétrie, manifestée par la différence de masse D M charge et des mésons et baryons neutres dans un seul isotopique. multiplet (par exemple, p et n ; au lieu de l'original, du point de vue moderne, idée naïve que cette différence (due à la relation numérique D M/M~ a) a un el-magn. origine, on a cru que cela était dû à la différence de masse Et- Et d-quarks. Cependant, même si les chiffres sont réussis. Dans la mise en œuvre de cette idée, le problème n'est pas complètement résolu - il est simplement déplacé plus profondément du niveau des hadrons au niveau des quarks. La formulation de la vieille énigme du muon est transformée de la même manière : « Pourquoi un muon est-il nécessaire et pourquoi, étant semblable à un électron, est-il deux cents fois plus lourd ? Cette question, transférée au niveau quark-lepton, a acquis une plus grande généralité et ne s'applique plus à un couple, mais à trois générations de fermions, cependant, n'a pas changé son essence. 9. Perspectives et problèmes De grands espoirs étaient placés dans ce soi-disant programme. grande unification interactions - combinant l'interaction forte QCD avec l'interaction électrofaible à des énergies de l'ordre de 10 15 GeV et plus. Le point de départ ici est l’observation (théorique) du fait que l’extrapolation vers la région des ultra-hautes énergies de la formule (17) est asymptotique. liberté pour la chromodynamique des constantes de couplage et des formules de type (16) pour la charge invariante de QED conduisent au fait que ces grandeurs à des énergies de l'ordre de |Q| = M X~10 15 b 1 GeV sont comparés les uns aux autres. Les valeurs correspondantes (ainsi que la valeur de la deuxième charge de la théorie de l'interaction électrofaible) s'avèrent égales Fondamment. physique l'hypothèse est que cette coïncidence n'est pas fortuite : dans le domaine énergétique, de grands M X, il existe une symétrie supérieure décrite par le groupe g, les bords aux énergies inférieures sont divisés en symétries observées en raison des termes de masse, et les masses violant les symétries sont de l'ordre M X. Concernant la structure du groupe fédérateur g et la nature des termes brisant la symétrie peut être rendue différente. hypothèses [max. la réponse simple est la réponse G=SU(5 )], mais avec qualité. point de vue Une caractéristique importante de l'association est le fonds. groupe vue (vue - colonne) g combine les quarks et les leptons du fundam. représentations de groupe S.U.(3 )c Et S.U.(2), de sorte qu'à des énergies plus élevées M X les quarks et les leptons deviennent « égaux en droits ». Le mécanisme d'interaction de jauge locale entre eux contient des champs de vecteurs dans la représentation adjointe (représentation - matrice) du groupe g, dont les quanta, avec les gluons et les bosons intermédiaires lourds de l'interaction électrofaible, contiennent de nouvelles particules vectorielles qui relient les leptons et les quarks. La possibilité de transformation des quarks en leptons conduit à la non conservation du nombre de baryons. En particulier, la désintégration des protons s'avère autorisée, par exemple, selon le schéma p""e + +p 0. Il convient de noter que le programme de grande unification s’est heurté à un certain nombre de difficultés. L'un d'eux est purement théorique. caractère (le soi-disant problème de hiérarchie - l'impossibilité de maintenir des théories de perturbation d'échelles d'énergie incommensurables dans des ordres supérieurs M X~10 15 GeV et M. W.~10 2 GeV). Dr. La difficulté est liée à la divergence entre les expériences. données sur la désintégration des protons par rapport à la théorie. prédictions. Une direction très prometteuse du développement moderne. QTP est associé à supersymétrie, c'est-à-dire avec symétrie par rapport aux transformations qui « confondent » les champs bosoniques j ( X) (spin entier) avec des champs fermioniques y( X) (spin demi-entier). Ces transformations forment un groupe qui est une extension du groupe Poincaré. L'algèbre correspondante des générateurs du groupe, ainsi que les générateurs habituels du groupe de Poincaré, contiennent des générateurs de spineurs, ainsi que des anticommutateurs de ces générateurs. La supersymétrie peut être considérée comme une union non triviale du groupe de Poincaré avec l'intrinsèque. symétries, une unification rendue possible par l'inclusion de générateurs anti-navetteurs dans l'algèbre. Les représentations du groupe de supersymétrie - superchamp Ф - sont données sur superespaces, y compris en plus des coordonnées habituelles X algébrique spéciale objets (ce qu'on appelle former Algèbre de Grassmann avec involution) sont exactement des éléments anti-navetteurs qui sont spineurs par rapport au groupe de Poincaré. En raison de l'anticommutativité exacte, toutes les puissances de leurs composants, à partir de la seconde, disparaissent (l'algèbre de Grassmann correspondante est appelée nilpotente), et donc les expansions en série des superchamps se transforment en polynômes. Par exemple, dans le cas le plus simple d'un superchamp chiral (ou analytique), selon la définition. base uniquement à partir de q,

(s est la matrice de Pauli) sera :

Chances UN(X), et un ( X), F(X ) sont déjà des champs quantiques ordinaires - scalaires, spineurs, etc. champs de composant ou de constituant. Du point de vue des champs composants, un superchamp est simplement composé par définition. règle un ensemble d'un nombre fini de champs de Bose et de Fermi différents avec les règles de quantification habituelles. Lors de la construction de modèles supersymétriques, il est nécessaire que les interactions soient également invariantes sous les transformations supersymétriques, c'est-à-dire qu'elles représentent des produits superinvariants des superchamps dans leur ensemble. D'un point de vue ordinaire, cela signifie l'introduction de toute une série d'interactions de champs composants, interactions dont les constantes ne sont pas arbitraires, mais sont rigidement liées les unes aux autres. Cela laisse espérer une compensation précise de toutes, ou du moins de certaines, divergences UV provenant de différents termes d'interaction. Nous soulignons qu'une tentative de mettre en œuvre une telle compensation simplement pour un ensemble de domaines et d'interactions non limités par les exigences du groupe serait vaine car une fois établie, la compensation serait détruite lors des renormalisations. Les modèles supersymétriques contenant des champs de vecteurs de jauge non abéliens comme composants sont particulièrement intéressants. De tels modèles, qui présentent à la fois une symétrie de jauge et une supersymétrie, sont appelés. super calibré. Dans les modèles de supercalibrage, une différence notable est observée. fait de réduction des divergences UV. Des modèles ont été découverts dans lesquels le lagrangien d'interaction, exprimé en termes de champs de composants, est représenté par une somme d'expressions, dont chacune est renormalisable individuellement et génère une théorie de perturbation avec un logarithme. divergences, mais les divergences correspondant à la somme des diagrammes de Feynman avec les contributions de décomp. les membres du superchamp virtuel se compensent. Cette propriété de réduction complète de la divergence peut être mise en parallèle avec le fait bien connu d'une diminution du degré de divergence UV du propre. masse électronique dans QED dans la transition par rapport aux calculs non covariants originaux de la fin des années 20. à une théorie des perturbations virtuellement covariantes qui prend en compte les positrons dans les états intermédiaires. L'analogie est renforcée par la possibilité d'utiliser les règles supersymétriques de Feynman, alors que de telles divergences n'apparaissent pas du tout. La réduction complète des divergences UV dans les ordres arbitraires de la théorie des perturbations, établie pour un certain nombre de modèles de superjauge, a fait naître l'espoir de résultats théoriques. Possibilité de piscine superfund. interactions, c'est-à-dire construites en tenant compte de la supersymétrie, l'unification des quatre interactions, y compris gravitationnelle, dans laquelle non seulement les effets non renormalisables de la gravité quantique « ordinaire » disparaîtront, mais aussi l'interaction complètement unifiée sera exempte d'UV divergences. Phys. l'arène des superunifications est à des échelles de l'ordre de l'échelle de Planck (énergie ~10 19 GeV, distances de l'ordre de la longueur de Planck R. Pl ~10 - 33 cm). Pour mettre en œuvre cette idée, des modèles de superjauge sont considérés, basés sur des superchamps disposés de telle manière que max. le spin de leurs champs ordinaires constitutifs est égal à deux. Le champ correspondant est identifié avec celui gravitationnel. Des modèles similaires sont appelés supergravité (voir Supergravité).Moderne les tentatives de construction de supergravités finies utilisent des idées sur les espaces de Minkowski avec un nombre de dimensions supérieur à quatre, ainsi que sur les cordes et les supercordes. En d’autres termes, le QFT local « habituel » à des distances inférieures à la distance de Planck se transforme en une théorie quantique d’objets étendus unidimensionnels intégrés dans des espaces d’un nombre de dimensions plus élevé. Dans le cas où une telle superunification serait basée sur la supergravité. Un modèle pour lequel l'absence de divergences UV sera prouvée se produit, alors une théorie unifiée des quatre fondements sera construite. interactions, libres des infinis. Ainsi, il s'avère que les divergences UV ne se produiront pas du tout et que tout l'appareil d'élimination des divergences par la méthode de renormalisation s'avérera inutile. Quant à la nature des particules elles-mêmes, il est possible que la théorie se rapproche de nouvelles qualités. une étape importante associée à l'émergence d'idées sur un niveau d'élémentaire supérieur au niveau quark-lepton. Il s'agit du regroupement de quarks et de leptons en générations de fermions et des premières tentatives pour poser la question des différentes échelles de masses de différentes générations en s'appuyant sur la prédiction de l'existence de particules plus élémentaires que les quarks et les leptons. Lit. : Akhiezer A.I., Berestetsky V.B., Électrodynamique quantique, 4e éd., M., 1981 ; Bogolyubov N.N., III et r à propos de D.V., Introduction à la théorie des champs quantifiés, 4e éd., M., 1984 ; eux, Quantum Fields, M., 1980 ; Berestetsky V.B., Lifshits E.M., Pitaevsky L.P., Électrodynamique quantique, 2e éd., M., 1980 ; Weiskopf V.F., Comment nous avons grandi avec la théorie des champs, trad. de l'anglais, "UFN", 1982, vol. 138, p. 455 ; I ts i kson K., 3 yu b e r J--B., Théorie quantique des champs, trans. de l'anglais, vol. 1-2, M., 1984 ; Bogolyubov N. N., Logunov A. A., Oksak A. I., Todorov I. T., Principes généraux de la théorie quantique des champs, M., 1987. B.V. Medvedev, D.V. Shirkov.

Principes de base de la théorie quantique des champs : 1). État de vide. La mécanique quantique non relativiste permet d'étudier le comportement d'un nombre constant de particules élémentaires. La théorie quantique des champs prend en compte la naissance et l’absorption ou la destruction des particules élémentaires. La théorie quantique des champs contient donc deux opérateurs : l’opérateur de création et l’opérateur d’annihilation des particules élémentaires. Selon la théorie quantique des champs, un état dans lequel il n’y a ni champ ni particules est impossible. Le vide est un champ dans son état énergétique le plus bas. Le vide n’est pas caractérisé par des particules indépendantes observables, mais par des particules virtuelles qui apparaissent puis disparaissent après un certain temps. 2.) Mécanisme virtuel d'interaction de particules élémentaires. Les particules élémentaires interagissent les unes avec les autres en raison de champs, mais si une particule ne modifie pas ses paramètres, elle ne peut pas émettre ou absorber un véritable quantum d'interaction, une telle énergie et un tel élan et pendant un tel temps et une telle distance, qui sont déterminés par le rapports ∆E∙∆t≥ħ, ∆рх∙∆х≥ħ( constante quantique) relation d’incertitude. La nature des particules virtuelles est telle qu'elles apparaissent après un certain temps, disparaissent ou sont absorbées. Amer. Le physicien Feynman a développé une manière graphique de représenter l'interaction de particules élémentaires avec des quanta virtuels :

Émission et absorption d'un quantum virtuel d'une particule libre

Interaction de deux éléments. particules au moyen d’un quantum virtuel.

Interaction de deux éléments. particules au moyen de deux quantiques virtuels.

Sur les données de la Fig. Graphique image des particules, mais pas de leurs trajectoires.

3.) Le spin est la caractéristique la plus importante des objets quantiques. Il s’agit du moment cinétique de la particule, et si le moment cinétique du sommet coïncide avec la direction de l’axe de rotation, alors le spin ne détermine aucune direction privilégiée spécifique. Le spin donne la direction, mais de manière probabiliste. Spin existe sous une forme qui ne peut pas être visualisée. Le spin est noté s=I∙ħ, et I prend à la fois des valeurs entières I=0,1,2,... et des valeurs semi-numériques I = ½, 3/2, 5/2, ... En physique classique, les particules identiques ne sont pas spatialement différentes, car occupent la même région de l’espace, la probabilité de trouver une particule dans n’importe quelle région de l’espace est déterminée par le carré du module de la fonction d’onde. La fonction d'onde ψ est une caractéristique de toutes les particules. ‌‌. correspond à la symétrie des fonctions d'onde, lorsque les particules 1 et 2 sont identiques et que leurs états sont les mêmes. le cas de l'antisymétrie des fonctions d'onde, lorsque les particules 1 et 2 sont identiques entre elles, mais diffèrent par l'un des paramètres quantiques. Par exemple : tourner. Selon le principe d’exclusion de Paul, les particules ayant un spin demi-entier ne peuvent pas être dans le même état. Ce principe permet de décrire la structure des coques électroniques des atomes et des molécules. Les particules qui ont un spin entier sont appelées bosons. I =0 pour les mésons Pi ; I = 1 pour les photons ; I = 2 pour les gravitons. Les particules à spin semi-numérique sont appelées fermions. Pour un électron, positron, neutron, proton I = ½. 4) Spin isotopique. La masse d'un neutron n'est que de 0,1 % supérieure à la masse d'un proton ; si l'on fait abstraction (ignorons) la charge électrique, alors ces deux particules peuvent être considérées comme deux états d'une même particule, le nucléon. De même, il existe des mésons, mais ce ne sont pas trois particules indépendantes, mais trois états d'une même particule, qui sont simplement appelés Pi - méson. Pour prendre en compte la complexité ou la multiplicité des particules, un paramètre appelé spin isotopique est introduit. Il est déterminé à partir de la formule n = 2I+1, où n est le nombre d'états des particules, par exemple pour un nucléon n=2, I=1/2. La projection isospin est désignée Iз = -1/2 ; Iз = ½, c'est-à-dire un proton et un neutron forment un doublet isotopique. Pour les mésons Pi, le nombre d'états = 3, soit n=3, I=1, Iз=-1, Iз=0, Iз=1. 5) Classification des particules : la caractéristique la plus importante des particules élémentaires est la masse au repos ; sur cette base, les particules sont divisées en baryons (trans. lourd), mésons (du grec : moyen), leptons (du grec : léger). Selon le principe d'interaction, les baryons et les mésons appartiennent également à la classe des hadrons (du grec fort), puisque ces particules participent à une interaction forte. Les baryons comprennent : les protons, les neutrons, les hypérons, parmi ces particules, seul le proton est stable, tous les baryons sont des fermions, les mésons sont des bosons, sont des particules instables, participent à tous types d'interactions, tout comme les baryons, les leptons comprennent : l'électron, le neutron, ces particules sont des fermions et ne participent pas à des interactions fortes. Le photon se démarque particulièrement, qui n'appartient pas aux leptons, ni à la classe des hadrons. Son spin = 1 et sa masse au repos = 0. Parfois, les quanta d'interaction sont classés dans une classe spéciale, le méson est un quantum d'interaction faible et le gluon est un quantum d'interaction gravitationnelle. Parfois, les quarks sont classés dans une classe spéciale, ayant une charge électrique fractionnaire égale à 1/3 ou 2/3 de la charge électrique. 6) Types d'interactions. En 1865, la théorie du champ électromagnétique (Maxwell) est créée. En 1915, la théorie du champ gravitationnel est créée par Einstein. La découverte des interactions fortes et faibles remonte au premier tiers du XXe siècle. Les nucléons sont étroitement liés dans le noyau par des interactions fortes, appelées fortes. En 1934, Fermet crée la première théorie des interactions faibles suffisamment adaptée à la recherche expérimentale. Cette théorie est née après la découverte de la radioactivité, il fallait supposer que des interactions mineures se produisent dans les noyaux d'un atome, qui conduisent à la désintégration spontanée d'éléments chimiques lourds comme l'uranium, et que des rayons sont émis. Un exemple frappant d'interactions faibles est la pénétration de particules neutroniques à travers le sol, alors que les neutrons ont une capacité de pénétration beaucoup plus modeste ; ils sont retenus par une feuille de plomb de plusieurs centimètres d'épaisseur. Fort : électromagnétique. Faible : gravitationnel = 1 : 10-2 : 10-10 : 10-38. La différence entre électromagnétique et gravitationnel Les interactions diminuent progressivement avec l'augmentation de la distance. Les interactions fortes et faibles sont limitées à de très petites distances : 10-16 cm pour les faibles, 10-13 cm pour les fortes. Mais à distance< 10-16 см слабые взаимодействия уже не являются малоинтенсивными, на расстоянии 10-8 см господствуют электромагнитные силы. Адроны взаимодействуют с помощью кварков. Переносчиками взаимодействия между кварками являются глюоны. Сильные взаимодействия появляются на расстояниях 10-13 см, т. Е. глюоны являются короткодействующими и способны долететь такие расстояния. Слабые взаимодействия осуществляются с помощью полей Хиггса, когда взаимодействие переносится с помощью квантов, которые называются W+,W- - бозоны, а также нейтральные Z0 – бозоны(1983 год). 7) Fission et synthèse de noyaux atomiques. Les noyaux des atomes sont constitués de protons, désignés par Z et de neutrons par N, le nombre total de nucléons est désigné par la lettre - A. A = Z + N. Pour retirer un nucléon d'un noyau, il est nécessaire de dépenser de l'énergie, donc la masse et l'énergie totales du noyau sont inférieures à la somme des culs et des énergies de tous ses composants. La différence d'énergie est appelée énergie de liaison : Eb=(Zmp+Nmn-M)c2 énergie de liaison des nucléons dans le noyau – Eb. L’énergie de liaison transmise par nucléon est appelée énergie de liaison spécifique (Eb/A). L'énergie de liaison spécifique prend une valeur maximale pour les noyaux des atomes de fer. Dans les éléments qui suivent le fer, il y a une augmentation du nombre de nucléons et chaque nucléon acquiert de plus en plus de voisins. Les interactions fortes sont à courte portée, cela conduit au fait qu'avec la croissance des nucléons et avec une croissance importante des nucléons, des produits chimiques l'élément a tendance à se désintégrer (radioactivité naturelle). Écrivons les réactions dans lesquelles l'énergie est libérée : 1. Lors de la fission de noyaux avec un grand nombre de nucléons: n+U235→ U236→139La+95Mo+2n un neutron se déplaçant lentement est absorbé par l'U235 (uranium) entraînant la formation d'U236, qui est divisé en 2 noyaux La(laptam) et Mo(molybdène), qui s'envolent à des vitesses élevées et 2 neutrons sont formés, ce qui peut provoquer 2 de ces réactions. La réaction prend un caractère en chaîne de sorte que la masse du carburant initial atteint une masse critique.2. Réaction de fusion de noyaux légers.d2+d=3H+n, si les gens étaient capables d’assurer une fusion stable des noyaux, ils s’épargneraient des problèmes énergétiques. Le deutérium contenu dans l'eau des océans représente une source inépuisable de combustible nucléaire bon marché, et la synthèse d'éléments légers ne s'accompagne pas de phénomènes radioactifs intenses, comme c'est le cas pour la fission des noyaux d'uranium.

Nos tentatives pour décrire la réalité ne sont-elles rien d’autre que jouer aux dés et essayer de prédire le résultat souhaité ? James Owen Weatherall, professeur de logique et de philosophie des sciences à l'Université d'Irvine, a réfléchi dans les pages de Nautil.us sur les mystères de la physique quantique, le problème de l'état quantique et dans quelle mesure cela dépend de nos actions, de nos connaissances et de nos subjectivités. perception de la réalité, et pourquoi, en prédisant différentes probabilités, nous avons tous raison.

Les physiciens savent très bien comment appliquer la théorie quantique – votre téléphone et votre ordinateur en sont la preuve. Mais savoir comment utiliser quelque chose est loin de comprendre pleinement le monde décrit par la théorie, ou même ce que signifient les différents outils mathématiques utilisés par les scientifiques. L’un de ces outils mathématiques, dont les physiciens débattent depuis longtemps, est « l’état quantique ». Un état quantique est tout état possible dans lequel peut se trouver un système quantique. Dans ce cas, « l'état quantique » doit également être compris comme toutes les probabilités potentielles d'obtenir l'une ou l'autre valeur en jouant aux « dés ». - Environ. éd..

L’une des caractéristiques les plus frappantes de la théorie quantique est que ses prédictions sont probabilistes. Si vous menez une expérience en laboratoire et utilisez la théorie quantique pour prédire les résultats de diverses mesures, au mieux, la théorie ne peut prédire que la probabilité du résultat : par exemple, 50 % pour le résultat prédit et 50 % pour qu'il soit différent. . Le rôle d’un état quantique est de déterminer la probabilité des résultats. Si l’état quantique est connu, vous pouvez calculer la probabilité d’obtenir n’importe quel résultat possible pour n’importe quelle expérience possible.

Un état quantique représente-t-il un aspect objectif de la réalité ou est-ce simplement une manière de nous caractériser, c'est-à-dire ce que l'on sait de la réalité ? Cette question a été activement discutée au tout début de l'étude de la théorie quantique et est récemment redevenue d'actualité, inspirant de nouveaux calculs théoriques et des tests expérimentaux ultérieurs.

"Si vous changez simplement vos connaissances, les choses ne vous sembleront plus étranges."

Pour comprendre pourquoi un état quantique illustre les connaissances de quelqu'un, imaginez un cas dans lequel vous calculez une probabilité. Avant que votre ami ne lance les dés, vous devinez dans quelle direction il va atterrir. Si votre ami lance un dé à six faces ordinaire, votre estimation aura environ 17 % (un sixième) de chances d'être correcte, quelle que soit votre estimation. Dans ce cas, la probabilité dit quelque chose sur vous, à savoir ce que vous savez du dé. Supposons que vous tourniez le dos en lançant et que votre ami voie le résultat - que ce soit six, mais ce résultat vous est inconnu. Et jusqu'à ce que vous vous retourniez, l'issue du lancer reste incertaine, même si votre ami le sait. La probabilité, qui représente l'incertitude humaine même si la réalité est certaine, est appelée épistémique, du mot grec signifiant connaissance.

Cela signifie que vous et votre ami pouvez déterminer différentes probabilités sans qu’aucun de vous ne se trompe. Vous direz que la probabilité d'obtenir un six sur le dé est de 17 %, et votre ami, qui connaît déjà le résultat, l'appellera 100 %. En effet, vous et votre ami savez des choses différentes et les probabilités que vous nommez représentent différents degrés de vos connaissances. La seule prédiction incorrecte serait celle qui exclurait complètement la possibilité d’obtenir un six.

Depuis une quinzaine d’années, les physiciens se demandent si un état quantique pourrait se révéler épistémique de la même manière. Supposons qu'un état de la matière, tel que la répartition des particules dans l'espace ou le résultat d'un jeu de dés, soit certain mais inconnu de vous. L’état quantique, selon cette approche, n’est qu’une façon de décrire le caractère incomplet de vos connaissances sur la structure du monde. Dans différentes situations physiques, il peut exister plusieurs façons de déterminer un état quantique en fonction des informations connues.

Lire aussi :

Il est tentant de concevoir un état quantique de cette manière, car il devient différent lorsque les paramètres d'un système physique sont mesurés. Prendre des mesures change cet état d’un état où chaque résultat possible a une probabilité non nulle à un état où un seul résultat est possible. Ceci est similaire à ce qui se passe dans un jeu de dés lorsque vous découvrez le résultat que vous obtenez. Il peut paraître étrange que le monde puisse changer simplement parce que l’on prend des mesures. Mais s’il s’agit simplement d’un changement dans vos connaissances, ce n’est plus surprenant.

Une autre raison de croire qu’un état quantique est épistémique est qu’il est impossible de déterminer, à partir d’une seule expérience, à quoi ressemblait l’état quantique avant sa réalisation. Cela rappelle également le fait de jouer aux dés. Disons que votre ami propose de jouer et prétend que la probabilité d'obtenir un six n'est que de 10 %, alors que vous insistez sur 17 %. Une seule expérience peut-elle montrer lequel d’entre vous a raison ? Non. Le fait est que le résultat obtenu est comparable aux deux estimations de probabilité. Il n’y a aucun moyen de savoir lequel de vous deux a raison dans un cas donné. Selon l’approche épistémique de la théorie quantique, la raison pour laquelle la plupart des états quantiques ne peuvent pas être déterminés expérimentalement s’apparente à un jeu de dés : pour chaque situation physique, il existe plusieurs probabilités cohérentes avec la multiplicité des états quantiques.

Rob Spekkens, physicien à l'Institut de physique théorique de Waterloo, en Ontario, a publié un article en 2007 présentant une « théorie du jouet » conçue pour simuler la théorie quantique. Cette théorie n’est pas entièrement analogue à la théorie quantique, puisqu’elle est simplifiée en un système extrêmement simple. Le système n'a que deux options pour chacun de ses paramètres : par exemple, « rouge » et « bleu » pour la couleur et « haut » et « bas » pour la position dans l'espace. Mais, comme la théorie quantique, elle incluait des états qui pouvaient être utilisés pour calculer des probabilités. Et les prédictions faites avec son aide coïncident avec les prédictions de la théorie quantique.

La « théorie du jouet » de Spekkens était passionnante parce que, comme la théorie quantique, ses états étaient « indéterminables » – et cette indétermination s’expliquait entièrement par le fait que la théorie épistémique concernait en réalité des situations physiques réelles. En d’autres termes, la théorie du jouet était comme la théorie quantique, et ses états étaient uniquement épistémiques. Puisque, si la vision épistémique est abandonnée, l’incertitude des états quantiques n’a pas d’explication claire, Spekkens et ses collègues ont considéré cela comme une raison suffisante pour considérer les états quantiques également épistémiques, mais dans ce cas la « théorie du jouet » doit être étendue à des situations plus complexes. systèmes (c'est-à-dire sur les systèmes physiques expliqués par la théorie quantique). Depuis lors, cela a donné lieu à une série d’études dans lesquelles certains physiciens ont tenté d’expliquer tous les phénomènes quantiques avec son aide, tandis que d’autres ont tenté de montrer son erreur.

"Ces hypothèses sont cohérentes, mais cela ne veut pas dire qu'elles sont vraies."

Ainsi, les opposants à la théorie lèvent la main plus haut. Par exemple, un résultat largement discuté publié en 2012 dans Nature Physics a montré que si une expérience physique peut être réalisée indépendamment d’une autre, alors il ne peut y avoir aucune incertitude quant à l’état quantique « correct » décrivant cette expérience. Que. Tous les états quantiques sont « normaux » et « vrais », à l’exception de ceux qui sont complètement « irréels », à savoir les états « faux » comme ceux dans lesquels la probabilité d’obtenir un six est nulle.

Une autre étude, publiée dans Physical Review Letters en 2014 par Joanna Barrett et d'autres, a montré que le modèle Spekkens ne peut pas être appliqué à un système dans lequel chaque paramètre a trois degrés de liberté ou plus - par exemple, « rouge », « bleu » et « vert » pour les couleurs, pas seulement « rouge » et « bleu » – sans violer les prédictions de la théorie quantique. Les partisans de l’approche épistémique proposent des expériences qui pourraient montrer la différence entre les prédictions de la théorie quantique et les prédictions faites par n’importe quelle approche épistémique. Ainsi, toutes les expériences menées dans le cadre de l’approche épistémique pourraient être dans une certaine mesure cohérentes avec la théorie quantique standard. À cet égard, il est impossible d'interpréter tous les états quantiques comme épistémiques, car il existe davantage d'états quantiques et les théories épistémiques ne couvrent qu'une partie de la théorie quantique, car ils donnent des résultats différents de ceux quantiques.

Ces résultats excluent-ils l’idée selon laquelle un état quantique indique les caractéristiques de notre esprit ? Oui et non. Les arguments contre l’approche épistémique sont des théorèmes mathématiques prouvés à partir d’une structure spéciale utilisée pour les théories physiques. Développé par Spekkens pour expliquer l'approche épistémique, ce cadre contient plusieurs hypothèses fondamentales. L’une d’elles est que le monde est toujours dans un état physique objectif, indépendant de notre connaissance du monde, qui peut ou non coïncider avec l’état quantique. Une autre raison est que les théories physiques font des prédictions qui peuvent être représentées à l’aide de la théorie des probabilités standard. Ces hypothèses sont cohérentes, mais cela ne veut pas dire qu’elles sont vraies. Les résultats montrent que dans un tel système, il ne peut y avoir de résultats épistémiques au même sens que la « théorie du jouet » de Spekkens tant qu’elle est cohérente avec la théorie quantique.

La question de savoir si cela peut être mis de côté dépend de votre vision du système. Ici, les avis diffèrent.

Par exemple, Ouee Maroney, physicien et philosophe à l'Université d'Oxford et l'un des auteurs d'un article publié en 2014 dans Physical Review Letters, a déclaré dans un courrier électronique que « les modèles psi-épistémiques les plus plausibles » (c'est-à-dire ceux qui peuvent être montés sur un système Speckens) sont exclus. Matt Leifer, physicien à l'Université de Champagne et auteur de nombreux articles sur l'approche épistémique des états quantiques, a également déclaré que la question avait été close en 2012 - à condition, bien sûr, d'accepter l'indépendance des états initiaux. (ce que Leifer est enclin à faire).

Speckens est plus vigilant. Il reconnaît que ces résultats limitent considérablement l’application de l’approche épistémique aux états quantiques. Mais il souligne que ces résultats ont été obtenus au sein de son système et, en tant que créateur du système, il souligne ses limites, telles que les hypothèses sur les probabilités. Ainsi, une approche épistémique des états quantiques reste appropriée, mais si tel est le cas, nous devons alors reconsidérer les hypothèses de base des théories physiques que de nombreux physiciens acceptent sans aucun doute.

Néanmoins, il est clair que des progrès significatifs ont été réalisés sur les questions fondamentales de la théorie quantique. De nombreux physiciens ont tendance à considérer la question de la signification de l’état quantique comme simplement interprétative ou, pire, philosophique, mais seulement jusqu’à ce qu’ils soient obligés de développer un nouvel accélérateur de particules ou d’améliorer le laser. En qualifiant un problème de « philosophique », nous semblons l’emmener au-delà des frontières des mathématiques et de la physique expérimentale.

Mais les travaux sur l’approche épistémique montrent que cela n’est pas vrai. Spekkens et ses collègues ont pris l'interprétation des états quantiques et en ont fait une hypothèse précise, qui a ensuite été remplie de résultats mathématiques et expérimentaux. Cela ne veut pas dire que l’approche épistémique elle-même (sans mathématiques ni expériences) est morte, cela signifie que ses défenseurs doivent avancer de nouvelles hypothèses. Et c’est un progrès indéniable, tant pour les scientifiques que pour les philosophes.

James Owen Weatherall est professeur de logique et de philosophie des sciences à l'Université d'Irvine, en Californie. Son dernier livre, The Strange Physics of Empty Space, examine l’histoire de l’étude de la structure de l’espace vide en physique du XVIIe siècle à nos jours.