Mechanika kwantowa i kwantowa teoria pola. Co tak naprawdę teoria kwantów mówi o rzeczywistości? Uwaga! Przejdźmy teraz do bardziej subtelnego zagadnienia.

Mechanika kwantowa i kwantowa teoria pola.  Co tak naprawdę teoria kwantów mówi o rzeczywistości?  Uwaga!  Przejdźmy teraz do bardziej subtelnego zagadnienia.
Mechanika kwantowa i kwantowa teoria pola. Co tak naprawdę teoria kwantów mówi o rzeczywistości? Uwaga! Przejdźmy teraz do bardziej subtelnego zagadnienia.

A co najważniejsze, nie zauważamy, że mają one zastosowanie tylko w pewnych rutynowych sytuacjach i są po prostu niepoprawne w wyjaśnianiu budowy Wszechświata.

Chociaż coś takiego zostało wyrażone wieki temu przez wschodnich filozofów i mistyków, to Einstein jako pierwszy mówił o tym w zachodniej nauce. To była rewolucja, której nasza świadomość nie zaakceptowała. Z protekcjonalnością powtarzamy: „wszystko jest względne”, „czas i przestrzeń to jedno”, zawsze pamiętając, że jest to założenie, naukowa abstrakcja, która ma niewiele wspólnego z naszą zwykłą, stabilną rzeczywistością. W rzeczywistości tylko nasze pomysły są słabo skorelowane z rzeczywistością - niesamowite i niesamowite.

Po odkryciu budowy atomu w sposób ogólny i zaproponowaniu jego „planetarnego” modelu, naukowcy stanęli w obliczu wielu paradoksów, wyjaśniających, jaka pojawiła się cała gałąź fizyki - mechanika kwantowa. Rozwinął się szybko i daleko posunął się w wyjaśnianiu wszechświata. Ale te wyjaśnienia są tak trudne do zrozumienia, że ​​jak dotąd niewiele osób potrafi je zrozumieć, przynajmniej ogólnie.

Rzeczywiście, większości osiągnięć mechaniki kwantowej towarzyszy tak złożony aparat matematyczny, że po prostu nie da się tego przetłumaczyć na żaden z ludzkich języków. Matematyka, podobnie jak muzyka, jest tematem niezwykle abstrakcyjnym, a naukowcy wciąż zmagają się z adekwatnym wyrażaniem znaczeń, na przykład składaniem funkcji czy wielowymiarowymi szeregami Fouriera. Język matematyki jest ścisły, ale ma niewielki związek z naszą bezpośrednią percepcją.

Ponadto Einstein wykazał matematycznie, że nasze koncepcje czasu i przestrzeni są iluzoryczne. W rzeczywistości przestrzeń i czas są nierozłączne i tworzą jedno czterowymiarowe kontinuum. Trudno to sobie wyobrazić, ponieważ przywykliśmy do czynienia tylko z trzema wymiarami.

teoria planetarna. fala lub cząstka

Do końca XIX wieku atomy uważano za niepodzielne „pierwiastki”. Odkrycie promieniowania pozwoliło Rutherfordowi przeniknąć pod „powłokę” atomu i sformułować planetarną teorię jego budowy: większość atomu jest skoncentrowana w jądrze. Dodatni ładunek jądra jest kompensowany przez elektrony naładowane ujemnie, których wymiary są tak małe, że można pominąć ich masę. Elektrony krążą wokół jądra po orbitach, podobnie do rotacji planet wokół Słońca. Teoria jest bardzo piękna, ale istnieje wiele sprzeczności.

Po pierwsze, dlaczego ujemnie naładowane elektrony nie „spadają” na dodatnie jądro? Po drugie, w naturze atomy zderzają się miliony razy na sekundę, co w niczym im nie szkodzi – jak wytłumaczyć niesamowitą siłę całego układu? Mówiąc słowami jednego z „ojców” mechaniki kwantowej, Heisenberga, „żaden układ planetarny, który przestrzega praw mechaniki Newtona, nigdy nie powróci do swojego pierwotnego stanu po zderzeniu z innym podobnym układem”.

Ponadto wymiary jądra, w którym zgromadzona jest prawie cała masa, są niezwykle małe w porównaniu z całym atomem. Można powiedzieć, że atom jest pustką, w której elektrony wirują z szaloną prędkością. W tym przypadku taki „pusty” atom jawi się jako bardzo solidna cząsteczka. Wyjaśnienie tego zjawiska wykracza poza klasyczne rozumienie. W rzeczywistości, na poziomie subatomowym, prędkość cząstki wzrasta im bardziej, im bardziej ograniczona jest przestrzeń, w której się porusza. Więc im bliżej elektron jest przyciągany do jądra, tym szybciej się porusza i tym bardziej się od niego odpycha. Prędkość ruchu jest tak duża, że ​​„z zewnątrz” atom „wygląda solidnie”, a łopatki obracającego się wentylatora wyglądają jak dysk.

Dane, które nie pasują dobrze do ram podejścia klasycznego, pojawiły się na długo przed Einsteinem. Po raz pierwszy do takiego „pojedynku” doszło między Newtonem a Huygensem, którzy próbowali wyjaśnić właściwości światła. Newton twierdził, że jest to strumień cząstek, Huygens uważał światło za falę. Nie da się pogodzić ich stanowisk w ramach fizyki klasycznej. Przecież dla niej fala jest przenoszonym wzbudzeniem cząstek ośrodka, pojęciem mającym zastosowanie tylko do różnych obiektów. Żadna z wolnych cząstek nie może poruszać się po trajektorii fali. Ale elektron porusza się w głębokiej próżni, a jego ruchy są opisane prawami ruchu falowego. Co jest tutaj podekscytowane, jeśli nie ma środowiska? Fizyka kwantowa oferuje rozwiązanie Salomona: światło jest zarówno cząsteczką, jak i falą.

Probabilistyczne chmury elektronowe. Struktura jądra i cząstek jądrowych

Stopniowo stawało się coraz bardziej jasne: rotacja elektronów na orbitach wokół jądra atomu jest zupełnie inna niż rotacja planet wokół gwiazdy. Elektrony, które mają charakter falowy, są opisane w kategoriach prawdopodobieństwa. Nie możemy powiedzieć o elektronie, że znajduje się on w takim a takim punkcie przestrzeni, możemy jedynie w przybliżeniu opisać, w jakich obszarach może się on znajdować iz jakim prawdopodobieństwem. Wokół jądra elektrony tworzą „chmury” takich prawdopodobieństw, od najprostszych kulistych do bardzo dziwacznych kształtów, podobnych do zdjęć duchów.

Ale każdy, kto chce wreszcie zrozumieć strukturę atomu, musi zwrócić się do jego podstawy, do struktury jądra. Tworzące go duże cząstki elementarne – dodatnio naładowane protony i neutralne neutrony – również mają charakter kwantowy, co oznacza, że ​​poruszają się szybciej niż są zamknięte w mniejszej objętości. Ponieważ wymiary jądra są niezwykle małe nawet w porównaniu z atomem, te cząstki elementarne są unoszone z całkiem przyzwoitymi prędkościami, zbliżonymi do prędkości światła. Aby ostatecznie wyjaśnić ich strukturę i zachowanie, musimy „skrzyżować” teorię kwantową z teorią względności. Niestety taka teoria jeszcze nie powstała i będziemy musieli ograniczyć się do kilku ogólnie przyjętych modeli.

Teoria względności wykazała (a eksperymenty wykazały), że masa jest tylko jedną z form energii. Energia to dynamiczna wielkość związana z procesami lub pracą. Dlatego cząstkę elementarną należy postrzegać jako probabilistyczną funkcję dynamiczną, jako oddziaływania związane z ciągłą przemianą energii. Daje to nieoczekiwaną odpowiedź na pytanie, jak wyglądają cząstki elementarne, czy można je podzielić na „jeszcze prostsze” bloki. Jeśli rozproszymy w akceleratorze dwie cząstki, a następnie zderzymy się, otrzymamy nie dwie, ale trzy cząstki i są one dokładnie takie same. Trzecia po prostu powstanie z energii ich zderzenia - w ten sposób rozdzielą się i nie rozdzielą w tym samym czasie!

Uczestnik zamiast obserwatora

W świecie, w którym koncepcje pustej przestrzeni, wyizolowanej materii tracą znaczenie, cząsteczka jest opisana tylko poprzez swoje interakcje. Aby coś o nim powiedzieć, będziemy musieli go „wyciągnąć” z początkowych oddziaływań i po przygotowaniu poddać kolejnemu oddziaływaniu - pomiarowi. Więc co ostatecznie mierzymy? I jak uzasadnione są nasze pomiary w ogóle, jeśli nasza interwencja zmienia interakcje, w których uczestniczy cząstka - a zatem zmienia samą cząstkę?

We współczesnej fizyce cząstek elementarnych coraz większą krytykę wywołuje… sama postać naukowca-obserwatora. Bardziej słusznie byłoby nazwać go „uczestnikiem”.

Obserwator-uczestnik jest niezbędny nie tylko do zmierzenia właściwości cząstki subatomowej, ale także do określenia tych właśnie właściwości, ponieważ można je omówić tylko w kontekście interakcji z obserwatorem. Gdy tylko wybierze sposób, w jaki przeprowadzi pomiary i w zależności od tego realizowane są możliwe właściwości cząstki. Warto zmienić system obserwacji, zmienią się też właściwości obserwowanego obiektu.

Ten ważny punkt ujawnia głęboką jedność wszystkich rzeczy i zjawisk. Same cząstki, nieustannie przechodzące w siebie i w inne formy energii, nie mają stałych ani precyzyjnych cech charakterystycznych - te cechy zależą od tego, w jaki sposób je postrzegamy. Jeśli chcesz zmierzyć jedną właściwość cząstki, druga musi się zmienić. Takie ograniczenie nie jest związane z niedoskonałością instrumentów lub innymi całkowicie możliwymi do naprawienia rzeczami. To cecha rzeczywistości. Spróbuj dokładnie zmierzyć położenie cząstki, a nie będziesz w stanie nic powiedzieć o kierunku i prędkości jej ruchu – po prostu dlatego, że ich nie będzie. Opisz dokładnie ruch cząstki - nie znajdziesz jej w przestrzeni. Fizyka współczesna stawia więc przed nami problemy o charakterze całkowicie metafizycznym.

Zasada niepewności. Miejsce lub pęd, energia lub czas

Powiedzieliśmy już, że nie da się mówić o cząstkach subatomowych dokładnie takimi terminami, do jakich przywykliśmy, w świecie kwantowym pozostaje nam tylko prawdopodobieństwo. Oczywiście nie jest to prawdopodobieństwo, o którym mówi się obstawiając wyścigi, ale podstawowa właściwość cząstek elementarnych. Tak naprawdę nie istnieją, ale raczej mogą istnieć. Nie chodzi o to, że mają cechy, ale raczej mogą je mieć. Z naukowego punktu widzenia, cząstka jest dynamicznym schematem probabilistycznym, a wszystkie jej właściwości są w stałej, ruchomej równowadze, balansując, jak Yin i Yang na starożytnym chińskim symbolu taiji.

Nic dziwnego, że noblista Niels Bohr, podniesiony do rangi szlacheckiej, wybrał ten znak i motto na swój herb: „Przeciwieństwa się uzupełniają”. Matematycznie rozkład prawdopodobieństwa jest niejednorodną oscylacją fali. Im większa amplituda fali w określonym miejscu, tym większe prawdopodobieństwo istnienia w nim cząstki. Jednocześnie jego długość nie jest stała - odległości między sąsiednimi grzbietami nie są takie same, a im wyższa amplituda fali, tym większa różnica między nimi. Podczas gdy amplituda odpowiada położeniu cząstki w przestrzeni, długość fali jest powiązana z pędem cząstki, czyli kierunkiem i prędkością jej ruchu. Im większa amplituda (im dokładniej można zlokalizować cząstkę w przestrzeni), tym bardziej niepewna staje się długość fali (im mniej można powiedzieć o pędzie cząstki). Jeśli potrafimy określić położenie cząstki z największą precyzją, nie będzie ona miała w ogóle określonego pędu.

Ta podstawowa właściwość jest matematycznie wyprowadzona z właściwości fali i nazywana jest zasadą nieoznaczoności. Zasada dotyczy również innych cech cząstek elementarnych. Inną taką wzajemnie połączoną parą jest energia i czas procesów kwantowych. Im szybciej przebiega proces, tym bardziej niepewna jest ilość zaangażowanej w to energii i odwrotnie - możliwe jest dokładne scharakteryzowanie energii tylko dla procesu o wystarczającym czasie trwania.

Tak więc zrozumieliśmy: nic konkretnego nie można powiedzieć o cząstce. Porusza się tam lub nie tam, a raczej ani tu, ani tam. Jego cechy są takie lub takie, a raczej nie takie i nie takie. Jest tutaj, ale może tam być, a może nie być nigdzie. Czy w ogóle istnieje?

To pozorne, wywołane pomiarami załamanie funkcji falowej było źródłem wielu trudności koncepcyjnych w mechanice kwantowej. Przed upadkiem nie ma sposobu, aby z całą pewnością stwierdzić, gdzie trafi foton; może być gdziekolwiek z niezerowym prawdopodobieństwem. Nie ma możliwości prześledzenia drogi fotonu od źródła do detektora. Foton jest nierealny w tym sensie, że samolot lecący z San Francisco do Nowego Jorku jest prawdziwy.

Między innymi Werner Heisenberg zinterpretował tę matematykę w ten sposób, że rzeczywistość nie istnieje, dopóki nie zostanie zaobserwowana. „Idea obiektywnego świata rzeczywistego, którego najmniejsze cząstki istnieją obiektywnie w tym samym sensie, w jakim istnieją kamienie czy drzewa, niezależnie od tego, czy je obserwujemy, czy nie” – napisał. John Wheeler użył również wariantu eksperymentu z podwójną szczeliną, aby stwierdzić, że „żadne elementarne zjawisko kwantowe nie jest zjawiskiem, dopóki nie zostanie zarejestrowane („obserwowalne”, „na pewno zarejestrowane”).

Ale teoria kwantowa nie daje absolutnie żadnej wskazówki co do tego, co liczy się jako „pomiar”. Po prostu postuluje, że urządzenie pomiarowe musi być klasyczne, nie precyzując, gdzie leży ta granica między klasyką a kwantem, i pozostawiając otwarte drzwi dla tych, którzy wierzą, że upadek powoduje ludzką świadomość. W maju zeszłego roku Henry Stapp i jego koledzy stwierdzili, że eksperyment z podwójną szczeliną i jego obecne warianty sugerują, że „świadomy obserwator może być niezbędny”, aby zrozumieć sferę kwantową, a świat materialny opiera się na umyśle transpersonalnym.

Ale te eksperymenty nie są empirycznym dowodem takich twierdzeń. W eksperymencie z podwójną szczeliną, przeprowadzonym z pojedynczymi fotonami, można przetestować jedynie probabilistyczne przewidywania matematyczne. Jeśli prawdopodobieństwa pojawiają się w trakcie wysyłania dziesiątek tysięcy identycznych fotonów przez podwójną szczelinę, teoria mówi, że funkcja falowa każdego fotonu uległa załamaniu – dzięki nieprecyzyjnie określonemu procesowi zwanemu pomiarem. To wszystko.

Ponadto istnieją inne interpretacje eksperymentu z podwójną szczeliną. Weźmy na przykład teorię de Broglie-Bohma, która mówi, że rzeczywistość jest zarówno falą, jak i cząstką. Foton w dowolnym momencie przechodzi do podwójnej szczeliny w określonej pozycji i przechodzi przez jedną lub drugą szczelinę; dlatego każdy foton ma trajektorię. Przechodzi przez falę pilotującą, która przechodzi przez obie szczeliny, interferuje, a następnie kieruje foton w miejsce konstruktywnej interferencji.

W 1979 roku Chris Dewdney i jego koledzy z Brickbeck College w Londynie opracowali model przewidywania trajektorii cząstek przechodzących przez podwójną szczelinę. W ciągu ostatniej dekady eksperymentatorzy potwierdzili istnienie takich trajektorii, aczkolwiek wykorzystując kontrowersyjną technikę tzw. słabych pomiarów. Chociaż kontrowersyjne eksperymenty wykazały, że teoria de Broglie-Bohma wciąż jest w stanie wyjaśnić zachowanie świata kwantowego.

Co ważniejsze, ta teoria nie potrzebuje obserwatorów, pomiarów ani niematerialnej świadomości.

Nie ma też tak zwanych teorii zawalenia, z których wynika, że ​​funkcje falowe zapadają się losowo: im większa liczba cząstek w układzie kwantowym, tym większe prawdopodobieństwo załamania. Obserwatorzy po prostu rejestrują wynik. Zespół Markusa Arndta z Uniwersytetu Wiedeńskiego w Austrii przetestował te teorie, przesyłając coraz większe molekuły przez podwójną szczelinę. Teorie załamania przewidują, że gdy cząstki materii stają się masywniejsze niż określony próg, nie mogą dłużej pozostawać w superpozycji kwantowej i przechodzić przez obie szczeliny w tym samym czasie, co niszczy wzorzec interferencji. Zespół Arndta wysłał 800-atomową cząsteczkę przez podwójną szczelinę i nadal widział interferencję. Wyszukiwanie progów jest kontynuowane.

Roger Penrose miał swoją własną wersję teorii zapadania się, w której im wyższa masa obiektu w superpozycji, tym szybciej zapada się w taki czy inny stan z powodu niestabilności grawitacyjnej. Ponownie, ta teoria nie wymaga obserwatora ani żadnej świadomości. Dirk Boumeester z Uniwersytetu Kalifornijskiego w Santa Barbara testuje pomysł Penrose'a z wersją eksperymentu z podwójną szczeliną.

Koncepcyjnie chodzi nie tylko o umieszczenie fotonu w superpozycji przechodzącej przez dwie szczeliny jednocześnie, ale także o umieszczenie jednej ze szczelin w superpozycji i sprawienie, by znajdowała się w dwóch miejscach jednocześnie. Według Penrose'a zastąpiona luka albo pozostanie w superpozycji, albo zapadnie się wraz z lecącym fotonem, powodując różne wzorce interferencji. To załamanie będzie zależeć od masy szczelin. Bowmeister pracował nad tym eksperymentem od dziesięciu lat i może wkrótce potwierdzić lub obalić twierdzenia Penrose'a.

W każdym razie eksperymenty te pokazują, że nie możemy jeszcze wypowiedzieć żadnych twierdzeń o naturze rzeczywistości, nawet jeśli twierdzenia te są dobrze poparte matematycznie lub filozoficznie. A biorąc pod uwagę, że neuronaukowcy i filozofowie umysłu nie mogą zgodzić się co do natury świadomości, twierdzenie, że prowadzi ona do załamania się funkcji falowej, jest w najlepszym razie przedwczesne, aw najgorszym mylące.

A jaka jest twoja opinia? powiedz w naszym

KWANTOWA TEORIA POLA.

1. Pola kwantowe ............. 300

2. Swobodne pola i dualizm falowo-cząsteczkowy .............................. 301

3. Interakcja pól .............302

4. Teoria perturbacji.............................. 303

5. Dywergencje i renormalizacje ............. 304

6. Asymptotyki UV i grupa renormalizacji .......... 304

7. Pola kalibracyjne............... 305

8. Pełny obraz ........... 307

9. Perspektywy i problemy ............. 307

kwantowa teoria pola(QFT) - kwantowa teoria układów relatywistycznych o nieskończenie dużej liczbie stopni swobody (pola relatywistyczne), która jest teoretyczna. podstawa opisu mikrocząstek, ich oddziaływań i przemian.

1. Pola kwantowe Pole kwantowe (inaczej - skwantowane) jest rodzajem syntezy pojęć klasycznych. pola typu elektromagnetycznego i pole prawdopodobieństw mechaniki kwantowej. Według współczesnego Zgodnie z pojęciami pole kwantowe jest najbardziej fundamentalną i uniwersalną formą materii leżącą u podstaw wszystkich jej konkretnych przejawów. Idea klasyka pole powstało w głębi teorii elektromagnetyzmu Faradaya - Maxwella i ostatecznie skrystalizowało się w procesie tworzenia specjalnego. teorię względności, która wymagała porzucenia eter jako materialny nośnik e-magn. procesy. Jednocześnie pole musiało być uważane za nie formę ruchu dla -l. środowisko, ale specyficzne. forma materii o bardzo nietypowych właściwościach. W przeciwieństwie do cząstek, klasyczny pole jest nieustannie tworzone i niszczone (jest emitowane i pochłaniane przez ładunki), ma nieskończoną liczbę stopni swobody i nie jest zlokalizowane w pewnym. punkty czasoprzestrzeni, ale mogą się w niej rozchodzić, przesyłając sygnał (interakcję) z jednej cząstki do drugiej ze skończoną prędkością nieprzekraczającą z. Pojawienie się idei kwantowych doprowadziło do rewizji klasyki. wyobrażenia o ciągłości mechanizmu emisji n i do wniosku, że procesy te zachodzą dyskretnie - poprzez emisję i absorpcję kwantów e-magn. pola - fotony. Powstał sprzeczny z punktu widzenia klasyka. obraz fizyki w przypadku e-magna. fotony porównywano z polem i niektóre zjawiska można było interpretować tylko w kategoriach falowych, a inne tylko za pomocą pojęcia kwantów, tzw. dualizm falowo-cząsteczkowy. Ta sprzeczność została rozwiązana w dalszej części. zastosowanie idei mechaniki kwantowej w terenie. Dynamiczny zmienna el-magn. pola - potencjały ALE , j i siłę elektryczną. i magn. pola mi , H - stały się operatorami kwantowymi, z zastrzeżeniem def. relacje permutacyjne i działając na funkcję falową (amplituda lub wektor stanu) systemy. W ten sposób nowy fizyczny obiekt - pole kwantowe spełniające równania klasyczne. , ale mający własne wartości mechaniki kwantowej. operatorów. Drugim źródłem ogólnej koncepcji pola kwantowego była funkcja falowa cząstki y ( x, t), która nie jest samodzielnym fizycznym. wielkość i amplitudę stanu cząstki: prawdopodobieństwo jakiegokolwiek związanego z fizyczną cząstką. ilości są wyrażone w postaci wyrażeń, które są dwuliniowe w y. Tak więc w mechanice kwantowej okazało się, że z każdą cząstką materialną związane jest nowe pole, pole amplitud prawdopodobieństwa. Relatywistyczne uogólnienie funkcji y doprowadziło P. A. M. Diraca (RA M. Diraca) do czteroskładnikowej funkcji falowej elektronu y a (a=1, 2, 3, 4), która jest przekształcana zgodnie z reprezentacją spinorową Grupa Lorenza. Szybko zorientowano się, że w ogóle każdy wydział. relatywistyczna mikrocząstka powinna być powiązana z lokalnym polem, które implementuje pewną reprezentację grupy Lorentza i ma fizyczność. znaczenie amplitudy prawdopodobieństwa. Uogólnienie na przypadek wielu cząstki wykazały, że jeśli spełniają zasadę nierozróżnialności ( zasada tożsamości), to do opisania wszystkich cząstek wystarczy jedno pole w czterowymiarowej czasoprzestrzeni, będące operatorem w sensie . Osiąga się to poprzez przejście do nowej mechaniki kwantowej. reprezentacja - reprezentacja numerów wypełnienia (lub reprezentacja drugorzędnej kwantyzacja). Wprowadzone w ten sposób pole operatora okazuje się całkowicie analogiczne do skwantyzowanego el-magna. pola, różniące się od niego jedynie wyborem reprezentacji grupy Lorentza i ewentualnie metodą kwantyzacji. Jak e-mag. pole, jedno takie pole odpowiada całemu zbiorowi identycznych cząstek danego typu, np. jednemu operatorowi Pole Diraca opisuje wszystkie elektrony (i pozytony!) Wszechświata. W ten sposób powstaje uniwersalny obraz jednolitej struktury całej materii. Zastąpić pola i cząstki klasyczne. fizycy przychodzą zjednoczeni nat. obiekty są polami kwantowymi w czterowymiarowej czasoprzestrzeni, po jednym dla każdego rodzaju cząstki lub (klasycznego) pola. Elementarny akt jakiejkolwiek interakcji staje się interakcją kilku. pola w jednym punkcie czasoprzestrzeni lub - w języku korpuskularnym - lokalne i natychmiastowe przekształcenie jednych cząstek w inne. Klasyczny oddziaływanie w postaci sił działających między cząstkami okazuje się efektem wtórnym wynikającym z wymiany kwantów pola przenoszącego oddziaływanie.
2. Wolne pola i dualizm falowo-cząsteczkowy Zgodnie z ogólnym opisem fizycznym powyżej. obraz w systematyczny Prezentację QFT można rozpocząć zarówno od reprezentacji terenowych, jak i korpuskularnych. W podejściu polowym należy najpierw skonstruować teorię odpowiedniej klasyki pola, a następnie poddaj je kwantyzacji [podobnie jak kwantyzacja e-mag. pola W. Heisenberga i W. Pauliego] i wreszcie opracować interpretację korpuskularną dla powstałego pola skwantowanego. Główną początkową koncepcją będzie tutaj pole i(X) (indeks a wylicza składniki pola) zdefiniowane w każdym punkcie czasoprzestrzeni x=(ct,x) i wykonanie to-l. dość prosta reprezentacja grupy Lorentz. Dalszą teorię buduje się najprościej za pomocą formalizm Lagrange'a; wybierz lokalną [tj. e. w zależności tylko od komponentów terenowych i(X) i ich pierwsze pochodne d m i(X)=du a /dx m = i m ( X) (m=0, 1, 2, 3) w jednym punkcie X] kwadratowy Niezmienny Poincaré (patrz Grupa Poincare) Lagrange'a L(x) = L(u a , q m ty jesteś) i od zasada najmniejszego działania uzyskać równania ruchu. Dla kwadratowego Lagrange'a są one liniowe - pola swobodne spełniają zasadę superpozycji. Na mocy Twierdzenie Noether z niezmienności działania S względem każdego jednego parametru. grupa wynika z zachowania (niezależności od czasu) jednej, wyraźnie wskazanej przez twierdzenie, funkcji całkowej i oraz d m ty jesteś. Ponieważ sama grupa Poincaré jest 10-parametryczna, QFT koniecznie zachowuje 10 wielkości, które są czasami nazywane fundams. dynamiczny ilości: z niezmienności względem czterech przesunięć w czterowymiarowej czasoprzestrzeni wynika zasada zachowania czterech składowych wektora energii-pędu R m M i = 1/2E ijk M jk oraz trzy tzw. dopalacze N i = c - ja M 0i(ja, j, k= 1, 2, 3, E ij- pojedynczy w pełni antysymetryczny tensor; podwójnie występujące indeksy implikują sumowanie). Z matką. z punktu widzenia dziesięć funtów. wartości - R m , M ja , N ja- esencja generatory grup Poincarego. Jeżeli akcja pozostaje niezmienna i wykonując na rozważanym polu jakieś inne ciągłe przekształcenia, które nie są zawarte w grupie Poincarégo - przekształcenia wew. symetria, - z twierdzenia Noether to istnienie nowej zachowanej dynamiki. wielkie ilości. Dlatego często przyjmuje się, że funkcje pola są złożone, a warunek bycia hermitem jest narzucony na lagranżjan (por. Operator hermitowski) i wymagają niezmienności działania względem globalnego transformacja miernika(faza a nie zależy od X) i(X)""e ja a i(X), ty* a(X)""mi - i a ty* a(X). Następnie okazuje się (jako konsekwencja twierdzenia Noether), że ładunek jest zachowany

Dlatego złożone funkcje i może służyć do opisu ładunku. pola. Ten sam cel można osiągnąć poprzez rozszerzenie zakresu wartości, przez które przechodzą indeksy a, tak aby wskazywały również kierunek w izotopie. przestrzeni i wymaga, aby akcja była niezmienna w stosunku do zawartych w niej obrotów. Zauważ, że ładunek Q niekoniecznie jest elektryczny. ładunek, może to być dowolna zachowana cecha dziedziny niezwiązana z grupą Poincaré, na przykład liczba leptonowa, obcość, liczba barionowa itp. Kwantyzacja kanoniczna, zgodnie z ogólnymi zasadami mechaniki kwantowej, jest to, że uogólnione współrzędne [tj. e. (nieskończony) zbiór wartości wszystkich składowych pola ty 1 , . . ., u N we wszystkich punktach x przestrzeń w pewnym momencie t(w bardziej wyrafinowanej prezentacji - we wszystkich punktach niektórych hiperpowierzchni przestrzennych s) i uogólnione pędy p b(x, t)=dL/du b(x, t) są deklarowane jako operatory działające na amplitudzie stanu (wektora stanu) układu i narzuca się im relacje komutacyjne:

ponadto znaki „+” lub „-” odpowiadają kwantyzacji Fermiego - Diraca lub Bosego - Einsteina (patrz niżej). Tutaj d ab - Symbol Kroneckera,d( x-y) - funkcja delta Dirac. Ze względu na wyróżnioną rolę czasu i nieuchronne odwoływanie się do określonego układu odniesienia, relacje permutacyjne (1) naruszają jawną symetrię przestrzeni i czasu, a zachowanie relatywistycznej niezmienności wymaga szczególnego. dowodem. Ponadto relacje (1) nie mówią nic o komutacji. własności pól w parach czasopodobnych punktów czasoprzestrzennych - wartości pól w takich punktach są zależne przyczynowo, a ich permutacje można określić jedynie rozwiązując równania ruchu wraz z (1). Dla ciał swobodnych, dla których równania ruchu są liniowe, problem taki jest rozwiązywalny w postaci ogólnej i pozwala ustalić - a ponadto w postaci relatywistycznie symetrycznej - relacje permutacyjne pól w dwóch dowolnych punktach X oraz w.

Tutaj D t - funkcja permutacji Pauli - Jordan Satisfying Klein - równanie Gordona Pab- wielomian zapewniający spełnienie prawej strony (2) równań ruchu wzdłuż X i przez w, - Operator D-Alamber, t jest masą kwantu pola (dalej układ jednostek h= z= 1). W korpuskularnym podejściu do relatywistycznego opisu kwantowego cząstek swobodnych wektory stanu cząstek muszą tworzyć nieredukowalną reprezentację grupy Poincarégo. Ten ostatni jest naprawiany poprzez ustawienie wartości operatorów Casimir (operatorów dojeżdżających ze wszystkimi dziesięcioma generatorami grupy R m M i oraz N i), które grupa Poincare ma dwa. Pierwszym z nich jest operator kwadratu masy m 2 =R m R m . Na m 2 nr 0 drugi operator Casimira jest kwadratem zwykłego (trójwymiarowego) spinu, a przy zerowej masie operator helikacji (rzut wiru na kierunek ruchu). Zakres m 2 jest ciągła - kwadrat masy może mieć dowolną liczbę nieujemną. wartości, m 20; widmo spinowe jest dyskretne, może mieć wartości całkowite lub połówkowe: 0, 1 / 2 , 1, ... Ponadto konieczne jest również określenie zachowania wektora stanu przy odzwierciedlaniu nieparzystej liczby osi współrzędnych . Jeśli nie są wymagane żadne inne cechy, mówi się, że cząstka nie ma wartości wewnętrznej. stopnie swobody i tzw. prawdziwa neutralna cząsteczka. W przeciwnym razie cząsteczka ma taki czy inny rodzaj ładunku. Aby ustalić stan cząstki wewnątrz reprezentacji, w mechanice kwantowej konieczne jest ustawienie wartości pełnego zestawu operatorów komutujących. Wybór takiego zestawu jest niejednoznaczny; dla cząstki swobodnej wygodnie jest wziąć trzy składowe jej pędu R i projekcja z tyłu ja s na to-l. kierunek. Tak więc stan jednej wolnej, prawdziwie obojętnej cząstki jest całkowicie scharakteryzowany podanymi liczbami t, l s , p x, p y , p z , s, z których pierwsze dwa definiują widok, a kolejne cztery - stan w nim. Do ładowania. cząstki zostaną dodane inne; oznaczmy je literą t. W reprezentacji liczb okupacji stan zbioru identycznych cząstek jest ustalony liczby wypełniające n p,s, t wszystkich stanów jednocząstkowych (wskaźniki charakteryzujące reprezentację jako całość nie są wypisywane). Z kolei wektor stanu | np. s, t > jest zapisywany jako wynik działania na stan próżni |0> (tzn. stan, w którym w ogóle nie ma cząstek) operatorów kreacji a + (p, s, t):

Operatorzy narodzin a+ i jego hermitowskie sprzężone operatory anihilacji a - zadowolić relacje permutacyjne

gdzie znaki „+” i „-” odpowiadają odpowiednio kwantyzacji Fermiego - Diraca i Bosego - Einsteina, a liczby obsadzeń są prawidłowe. wartości operatorów dla liczby cząstek T. o., wektor stanu układu zawierającego po jednej cząstce każda z liczbami kwantowymi p 1 , s 1 , t 1 ; p 2 , s 2, t2; . . ., jest napisane jako

Aby uwzględnić lokalne właściwości teorii, konieczne jest przetłumaczenie operatorów b na reprezentację współrzędnych. Jako funkcję transformacji wygodnie jest używać klasyki. rozwiązywanie równań ruchu odpowiedniego pola swobodnego za pomocą indeksów tensorowych (lub spinorowych) a i indeks symetria wewnętrzna q. Wówczas operatorami tworzenia i niszczenia w reprezentacji współrzędnych będą:


Operatory te jednak nadal nie nadają się do konstruowania lokalnego QFT: zarówno ich komutator, jak i antykomutator są proporcjonalne do funkcji innych niż Pauli-Jordan D t I jego dodatnie i ujemne części częstotliwości D 6 m(x-y)[Dm = D + m + D - m], co dla przestrzennych par punktów X oraz w nie znikaj. Aby uzyskać pole lokalne, konieczne jest skonstruowanie superpozycji operatorów kreacji i anihilacji (5). W przypadku prawdziwie neutralnych cząstek można to zrobić bezpośrednio, definiując lokalne pole kowariantne Lorentza jako
ty a(x)=ty a(+ ) (X) + i(-) (X). (6)
Ale do ładowania. cząstki, nie możesz tego zrobić: operatory + t i a- t w (6) zwiększy jedno, a drugie zmniejszy ładunek, a ich liniowa kombinacja nie będzie miała pod tym względem określonej. nieruchomości. Dlatego, aby utworzyć pole lokalne, należy sparować z operatorami kreacji + t są operatorami anihilacji nie tych samych cząstek, ale nowych cząstek (oznaczonych tyldą na górze), które realizują tę samą reprezentację grupy Poincarégo, tj. mają dokładnie taką samą masę i spin, ale różnią się od pierwotnych o znak ładunku (znaki wszystkich ładunków t) i napisz:

Od Twierdzenia Pauliego teraz wynika z tego, że dla pól o spinie całkowitym, których funkcje pól wykonują unikalną reprezentację grupy Lorentza, po skwantowaniu zgodnie z komutatorami Bose-Einstein [ oraz(X), oraz(w)]_ lub [ oraz(X), v*(w)]_ proporcjonalny Funkcje Dm(x-y) i znikają poza stożkiem świetlnym, podczas gdy dla dwuwartościowych reprezentacji pól o spinie półcałkowitym to samo osiąga się dla antykomutatorów [ oraz(X), oraz(w)] + (lub [ v(x), v* (tak)] +) w kwantyzacji Fermi±Diraca. Wyrażony przez f-lams (6) lub (7) związek między funkcjami kowariancji Lorentza pola spełniającego równania liniowe oraz lub v, v* oraz operatorzy kreacji i anihilacji cząstek swobodnych w stacjonarnej mechanice kwantowej. stany to dokładna mata. opis dualizmu korpuskularno-falowego. Nowe cząstki „zrodzone” przez operatorów, bez których nie można było skonstruować lokalnych pól (7), nazwanych – w stosunku do oryginału – antycząstki. Nieuchronność istnienia antycząstki dla każdego ładunku. cząstki - jedna z Ch. wnioski z kwantowej teorii pól swobodnych.
3. Interakcja pól Rozwiązania (6) i (7) ur-cja swobodnego pola proporcji. operatorzy kreacji i anihilacji cząstek w stanach stacjonarnych, czyli potrafią opisać tylko takie sytuacje, w których cząstkom nic się nie dzieje. Aby również rozważyć przypadki, w których jedne cząstki wpływają na ruch innych lub zamieniają się w inne, konieczne jest uczynienie równań ruchu nieliniowymi, tj. uwzględnienie w Lagrange'u, oprócz wyrazów kwadratowych w polach, również wyrazy z wyższymi stopnie. Z punktu widzenia opracowanej dotychczas teorii, takie oddziaływanie Lagrange'ów L wewn mogą być dowolnymi funkcjami ciał i ich pierwszych pochodnych, spełniającymi tylko szereg prostych warunków: 1) lokalizacja oddziaływania, wymagająca tego L wewn(x) zależał od diff. pola i(X) i ich pierwsze pochodne tylko w jednym punkcie czasoprzestrzeni X; 2) relatywistyczna niezmienniczość, aby wykonać cięcie L wewn musi być skalarem w odniesieniu do transformacji Lorentza; 3) niezmienniczość przy przekształceniach z wewnętrznych grup symetrii, jeśli występują, dla rozważanego modelu. W przypadku teorii ze złożonymi polami obejmuje to w szczególności wymagania, aby lagranżan był hermitowski i niezmienny pod względem przekształceń cechowania dopuszczalnych w takich teoriach. Ponadto można wymagać, aby teoria była niezmienna pod pewnymi dyskretnymi przekształceniami, takimi jak inwersja przestrzenna P, odwrócenie czasu T oraz koniugacja ładunku C(zastąpienie cząstek antycząstkami). Sprawdzone ( Twierdzenie CPT), że każda interakcja spełniająca warunki 1)-3) musi koniecznie być niezmienna w odniesieniu do tego samego czasu. wykonując te trzy dyskretne przekształcenia. Różnorodność interakcji Lagrange'ów spełniających warunki 1)-3) jest tak duża, jak np. różnorodność funkcji Lagrange'a w klasycznym mechanika, a na pewno Na etapie rozwoju QFT wydawało się, że teoria nie odpowiadała na pytanie, dlaczego niektóre z nich, a inne nie, są realizowane w przyrodzie. Jednak po pomyśle renormalizacje Rozbieżności UV (patrz sekcja 5 poniżej) i ich genialna implementacja w elektrodynamika kwantowa(QED) wyróżniono dominującą klasę interakcji — renormalizowalnych. Warunek 4) - renormalizacja okazuje się bardzo restrykcyjna, a jej dodanie do warunków 1)-3) pozostawia tylko interakcje z L wewn forma wielomianów niskiego stopnia w rozważanych polach, a pola o dowolnych wysokich spinach są generalnie wyłączone z rozważań. Zatem interakcja w renormalizowalnym QFT nie pozwala - w uderzającym kontraście do klasycznego. mechaniki kwantowej - żadnych arbitralnych funkcji: jak tylko zostanie wybrany określony zbiór pól, arbitralność w L wewn ograniczona do ustalonej liczby stałe interakcji(stałe sprzężenia). Kompletny układ równań QFT z interakcją (w Reprezentacja Heisenberga) stanowią równania ruchu otrzymane z pełnego Lagrange'a (spójny układ równań różniczkowych w pochodnych cząstkowych z nieliniowymi warunkami oddziaływania i samodziałania) i kanoniczne. relacje permutacyjne (1). Dokładne rozwiązanie takiego problemu można znaleźć tylko w niewielkiej liczbie fizycznie niskiej zawartości. przypadki (na przykład dla niektórych modeli w dwuwymiarowej czasoprzestrzeni). Z drugiej strony kanoniczny Relacje permutacyjne naruszają, jak już wspomniano, jawną relatywistyczną symetrię, która staje się niebezpieczna, jeśli zamiast dokładnego rozwiązania zadowala się przybliżone rozwiązanie. Dlatego praktyczny wartość kwantyzacji w postaci (1) jest niewielka. Naib. metoda oparta na przejściu do widok interakcji, w którym pole i (x) spełniają liniowe równania ruchu dla pól swobodnych, a cały wpływ interakcji i samodziałania przenosi się na czasową ewolucję amplitudy stanu Ф, która teraz nie jest stała, ale zmienia się zgodnie z równaniem takim jak Schrödinger równanie:

oraz hamiltonian interakcje wskazówka(t) w tej reprezentacji zależy od czasu przez pola i(x), przestrzegając swobodnych równań i relatywistyczno-kowariancyjnych relacji permutacyjnych (2); w związku z tym nie jest konieczne jawne używanie kanonicznego komutatory (1) dla pól oddziałujących. Dla porównania z eksperymentem teoria musi rozwiązać problem rozpraszania cząstek, w którego sformułowaniu zakłada się, że asymptotycznie, jako t""-:(+:) układ był w stanie stacjonarnym (przejdzie w stan stacjonarny) Ф_ : (Ф + :), a Ф b: są takie, że cząstki w nich nie oddziałują ze względu na duże wzajemne odległości (Zobacz też Hipoteza adiabatyczna), tak że wszystkie wzajemne oddziaływania cząstek występują tylko w skończonych czasach w pobliżu t=0 i przekształcają Ф_ : w Ф + : = S F_ : . Operator S nazywa macierz rozpraszania(lub S-matryca); poprzez kwadraty jej elementów macierzowych

wyrażane są prawdopodobieństwa przejść od podanego początku. stan F i w pewnym stanie końcowym Ф f, czyli eff. sekcja rozn. procesy. To., S-macierz pozwala znaleźć prawdopodobieństwa fizyczne. procesy bez zagłębiania się w szczegóły ewolucji czasowej opisanej przez amplitudę Ф( t). Jednakże S-macierz jest zwykle budowana na podstawie równania (8), które dopuszcza rozwiązanie formalne w postaci zwartej:
.

za pomocą operatora T chronologiczny uporządkowanie, które porządkuje wszystkie operatory pól w malejącej kolejności czasu t=x 0 (patrz Praca chronologiczna Wyrażenie (10) jest jednak raczej symboliczne. Zapis procedury następuje. równanie całkowania (8) od -: do +: w nieskończenie małych przedziałach czasu ( t, t+D t) zamiast użytecznego rozwiązania. Widać to choćby z faktu, że do płynnego obliczenia elementów macierzy (9) konieczne jest przedstawienie macierzy rozproszenia w postaci nie chronologicznej, ale normalny produkt, w którym wszystkie operatory kreacji znajdują się na lewo od operatorów anihilacji. Zadanie przekształcenia jednego dzieła w drugie jest prawdziwą trudnością i nie da się go ogólnie rozwiązać.
4. Teoria zaburzeń Z tego powodu dla konstruktywnego rozwiązania problemu należy odwołać się do założenia, że ​​oddziaływanie jest słabe, tj. małość oddziaływania Lagrange'a L wewn. Następnie możesz rozłożyć chronologicznie. wykładnik w wyrażeniu (10) w szeregu teoria perturbacji, a elementy macierzowe (9) zostaną wyrażone w każdym porządku teorii perturbacji w kategoriach elementów macierzowych nie chronologicznie. wykładniki i proste chronologiczne. produkty o odpowiedniej liczbie interakcji Lagrange'ów:

(P jest rządem teorii perturbacji), tj. konieczne będzie przekształcenie do postaci normalnej nie wykładniczej, ale prostych wielomianów określonego typu. To zadanie jest praktycznie realizowane przy pomocy technologii Diagramy Feynmana i zasady Feynmana. W technice Feynmana każde pole i (x) charakteryzuje się funkcją przyczynową Greena ( propagator lub funkcja rozrzutu) DC aa"(x-y), przedstawione na wykresach za pomocą linii, a każda interakcja - przez stałą sprzężenia i współczynnik macierzy z odpowiedniego wyrazu w L wewn pokazane na schemacie szczyt. Popularność techniki diagramów Feynmana, oprócz łatwości użycia, wynika z ich przejrzystości. Diagramy pozwalają niejako na własne oczy przedstawić procesy propagacji (linii) i interkonwersji (wierzchołków) cząstek - na początku rzeczywistych. i stany końcowe i wirtualne w pośrednich (na liniach wewnętrznych). Szczególnie proste wyrażenia uzyskuje się dla elementów macierzowych dowolnego procesu w najniższym rzędzie teorii zaburzeń, które odpowiadają tzw. diagramy drzewa, które nie mają zamkniętych pętli - po przejściu do reprezentacji impulsowej nie ma w nich w ogóle żadnych integracji. Dla głównych Procesy QED, takie wyrażenia dla elementów macierzy uzyskano na początku QFT w kon. 20s i okazał się zgodny z eksperymentem (poziom zgodności 10 - 2 -10 - 3 , tj. rzędu stałej struktury subtelnej a). Jednak próby obliczenia korekty radiacyjne(tj. poprawki związane z uwzględnieniem wyższych przybliżeń) do tych wyrażeń, na przykład do Klein - Nishina - Tamm f-le (zob. Formuła Klein - Nishina) dla rozpraszania Comptona, napotkano na konkretne. trudności. Takim poprawkom odpowiadają diagramy z zamkniętymi pętlami linii cząstki wirtualne, których pędy nie są ustalone przez prawa zachowania, a całkowita korekta jest równa sumie wkładów wszystkich możliwych pędów. Okazało się, że w większości przypadków całki po pędach cząstek wirtualnych wynikające z sumowania tych wkładów rozchodzą się w obszarze UV, czyli same poprawki okazują się nie tylko niemałe, ale nieskończone. Zgodnie z zależnością niepewności, małe odległości odpowiadają dużym impulsom. Dlatego można pomyśleć, że fizyczne Początki rozbieżności tkwią w idei lokalizacji interakcji. W związku z tym możemy mówić o analogii z nieskończoną energią el-magna. pole ładunku punktowego w klasycznym. elektrodynamika.
5. Dywergencje i renormalizacje Formalnie, matematycznie pojawienie się rozbieżności wynika z faktu, że propagatorzy D c (x) są funkcjami osobliwymi (dokładniej uogólnionymi), które mają w pobliżu stożka światła at x 2 ~0 X 2. Dlatego ich produkty powstające w elementach macierzowych, które odpowiadają zamkniętym pętlom na diagramach, są słabo zdefiniowane za pomocą matematyki. punkty widzenia. Impulsowe obrazy Fouriera takich produktów mogą nie istnieć, ale - formalnie - wyrażać się jako całki rozbieżne. Na przykład całka Feynmana
(gdzie R- zewnętrzny 4-impulsowy, k- moment całkowania), odpowiadający najprostszemu schematowi jednopętlowemu z dwoma wewnętrznymi. linie skalarne (ryc.), nie istnieje.

Jest proporcjonalny. Transformata Fouriera kwadratu propagatora D c (x)pole skalarne i odbiega logarytmicznie w górnej granicy (tj. w obszarze UV ​​pędu wirtualnego | k|"":, więc na przykład, jeśli całka jest odcięta przy górnej granicy przy | k|=L, to

gdzie I przeciw ( R) jest wyrażeniem końcowym.
Problem rozbieżności UV został rozwiązany (przynajmniej z punktu widzenia uzyskania skończonych wyrażeń dla większości interesujących fizycznie wielkości) w II połowie. 40s w oparciu o ideę renormalizacji (renormalizacji). Istotą tych ostatnich jest to, że nieskończone efekty fluktuacji kwantowych odpowiadające zamkniętym pętlom diagramów można rozdzielić na czynniki mające charakter korekty początkowej charakterystyki układu. W rezultacie masy i stałe sprzężenia g zmiana spowodowana interakcją, tj. są one renormalizowane. W tym przypadku, ze względu na rozbieżności UV, dodatki renormalizujące okazują się nieskończenie duże. Dlatego relacje renormalizacji

m 0 ""m=m 0 + D m=m 0 Zm (. . .),

g 0 ""g = g 0+D g = g 0 Z G(. . .)

(gdzie Zm, Z G- czynniki renormalizacji), łączenie oryginału, tzw. masy nasion m 0 i ładunki nasion (tj. stałe sprzężenia) g 0 z fizycznym t, g, okazują się być w liczbie pojedynczej. Aby nie zajmować się bezsensownymi nieskończonymi wyrażeniami, wprowadza się jedno lub drugie pomocnicze. uregulowanie rozbieżności(podobne do wartości odcięcia użytej w (13) w | k|=L. W argumentach (wskazane w prawej części (14) kropkami) promieniuje. poprawki D m, D g, a także współczynniki renormalizacji Z i, oprócz t 0 i g 0 , zawiera osobliwe zależności od parametrów pomocniczych. regularyzacja. Rozbieżności są eliminowane poprzez identyfikację zrenormalizowanych mas i ładunków m oraz g z ich fizycznym wartości. W praktyce często w celu wyeliminowania rozbieżności stosuje się również metodę wprowadzania do oryginalnego Lagrange'a kontr-członkowie i ekspresowe t 0 i g 0 w Lagrange'u pod względem fizycznym m oraz g relacje formalne odwrotne do (14). Rozwijanie (14) w szeregi fizyczne. parametr interakcji:

t 0 = t + gM 1 + g 2 M 2 + ..., g 0 = g + g 2 G 1 + g 3 G 2 + ...,

wybierz współczynniki osobliwe M l, G ja w ten sposób dokładnie skompensować rozbieżności, które powstają w całkach Feynmana. Klasa modeli QFT, dla których taki program może być wykonywany sekwencyjnie we wszystkich rzędach perturbacji i w której w związku z tym wszystkie bez wyjątku rozbieżności UV można „usunąć” na współczynniki renormalizacji mas i stałe sprzężenia, zwane klasa teorii renormalizowalnych. W teoriach tej klasy wszystkie elementy macierzowe i funkcje Greena są w rezultacie wyrażane w sposób nieosobliwy w kategoriach fizycznych. masy, ładunki i kinematyka. zmienne. Dlatego w modelach renormalizowalnych, jeśli jest to pożądane, można całkowicie abstrahować od nagich parametrów i rozbieżności UV, rozpatrywanych oddzielnie, i całkowicie scharakteryzować wyniki teoretyczne. obliczenia poprzez ustalenie skończonej liczby fizycznych. wartości mas i opłat. Mata. podstawą tego twierdzenia jest Twierdzenie Bogolubowa - Parasiuka o renormalizacji. Wynika z niego dość prosta recepta na uzyskanie skończonych wyrażeń jednowartościowych dla elementów macierzowych, sformalizowana w postaci tzw. Operacje R Bogolubow. Jednocześnie w modelach nierenormalizowalnych, których przykładem jest przestarzałe już sformułowanie w postaci czterofermionowego lokalnego Fermiego Lagrange'a, nie jest możliwe „złożenie” wszystkich rozbieżności w „agregaty” renormalizujące masy i opłaty. Renormalizowalne modele QFT charakteryzują się z reguły bezwymiarowymi stałymi sprzężenia, logarytmicznie rozbieżnymi wkładami w renormalizację stałych sprzężenia i mas fermionów oraz kwadratowo rozbieżnymi promieniami. poprawki do mas cząstek skalarnych (jeśli występują). Dla takich modeli w wyniku procedury renormalizacji otrzymujemy zrenormalizowana teoria zaburzeń, do nieba i służy jako podstawa do praktyki. obliczenia. W renormalizowalnych modelach QFT ważną rolę odgrywają zrenormalizowane funkcje Greena (ubrane propagatory) i górne części, w tym efekty interakcji. Mogą być reprezentowane przez nieskończone sumy terminów, odpowiadające coraz bardziej złożonym diagramom Feynmana o stałej liczbie i typie ext. linie. Dla takich wielkości można podać formalne definicje albo poprzez medium próżniowe chronologiczny iloczyny operatorów pola w reprezentacji interakcji i macierzy S (która jest odpowiednikiem średnich próżni T-produktów zupełności, tj. operatorów Heisenberga) lub poprzez pochodne funkcjonalne generowanie funkcjonalnego Z(J), wyrażona poprzez tzw. rozszerzona macierz rozpraszania S( J), funkcjonalnie zależne od pomocniczego. klasyczny źródła Ja (x) pola i(x). Formalizm generowania funkcjonałów w QFT jest analogiczny do odpowiadającego mu formalizmu statystycznego. fizyka. Pozwala uzyskać dla pełnych funkcji Greena i funkcji wierzchołków ur-tions w pochodnych funkcjonalnych - równania Schwingera, z którego z kolei można otrzymać nieskończony łańcuch całko-różnic. ur-ny - -Równania Dysona. Te ostatnie są jak łańcuch wskazówek dotyczących korelacji. statystyka f-tsy. fizyka.
6. Asymptotyka UV i grupa renormalizacji Rozbieżności UV w QFT są ściśle związane z wysoką energią. asymptotyki zrenormalizowanych wyrażeń. Na przykład logarytm. rozbieżność (12) najprostszej całki Feynmana ja(p) odpowiada logarytmicznie. asymptotyki

końcowa całka regularyzowana (13), jak również odpowiednie wyrażenie renormalizowane. Ponieważ w modelach renormalizowalnych z bezwymiarowymi stałymi sprzężenia rozbieżności są głównie logarytmiczne. charakter, asymptotyka UV ja-całki pętlowe z reguły (wyjątkiem jest przypadek) podwójnie logarytmiczna asymptotyka), mają tutaj typową strukturę ( gL)ja, gdzie L=ln(- R 2/m2), p jest „dużym” pędem, a m jest jakimś parametrem wymiaru masy, który powstaje w procesie renormalizacji. Dlatego dla wystarczająco dużych | R 2 | wzrost logarytmu kompensuje małą stałą sprzężenia g i pojawia się problem określenia dowolnego wyrazu szeregu postaci

i sumując taką serię ( lm- współczynniki liczbowe). Rozwiązanie tych problemów ułatwia zastosowanie metody grupa renormalizacji, który opiera się na grupowym charakterze przekształceń skończonych analogicznych do osobliwych funkcji renormalizacji (14) i towarzyszących im przekształceń Greena. W ten sposób można skutecznie zsumować pewne nieskończone zbiory wkładów z diagramów Feynmana, a w szczególności przedstawić rozwinięcia podwójne (15) w postaci rozwinięć pojedynczych:

gdzie funkcje f ja mają charakterystyczny geom. progresje lub kombinacje progresji z jej logarytmem i wykładnikiem. Bardzo istotne okazuje się tutaj, że warunek stosowalności f-l typu (15), który ma postać g<<1, gL<< 1 zostaje zastąpiony znacznie słabszym: - tzw. opłata niezmienna, który w najprostszym (jednopętlowym) przybliżeniu ma postać sumy geom. progresje w argumentacji GL: (b 1 - współczynnik liczbowy). Na przykład w QED ładunek niezmienny jest proporcjonalny do poprzecznej części propagatora fotonów d, w przybliżeniu jednopętlowym okazuje się być równy

co więcej, w k 2 /m2 >0 L=ln( k 2/m2)+ i p( k- 4-pęd wirtualnego fotonu). To wyrażenie, które jest sumą Ch. logarytmy postaci a(a L)n, posiada tzw. słup duchów w k 2 =-m 2 e 3 p/a , tak zwane, ponieważ jego położenie, a zwłaszcza znak reszty, są sprzeczne z szeregiem ogólnych właściwości QFT reprezentacja widmowa dla propagatora fotonów). Obecność tego bieguna jest ściśle związana z problemem tzw. zero opłat,t. e. przywrócenie zrenormalizowanego ładunku do zera przy skończonej wartości ładunku „zarodkowego”. Trudność związana z pojawieniem się upiornego słupa była czasami interpretowana nawet jako dowód wew. niespójność QED i przeniesienie tego wyniku na tradycyjny. renormalizowalne modele silnego oddziaływania hadronów - jako wskazanie niespójności całego lokalnego QFT jako całości. Jednak takie kardynalne wnioski, wyciągnięte na podstawie fl Ch. logarytm. przybliżenia okazały się pochopne. Już biorąc pod uwagę „po głównych” wkładach ~a 2 (a L)m, prowadząc do przybliżenia dwupętlowego, pokazuje, że położenie bieguna zmienia się zauważalnie. Bardziej ogólna analiza w ramach metody renormalizacji. grupa prowadzi do wniosku o stosowalności much (16) tylko w regionie tj. o niemożności udowodnienia lub obalenia istnienia „biegunowej sprzeczności” na podstawie takiego lub innego podsumowania serii (15). Tym samym paradoks zjawiska bieguna widma (czyli renormalizacji ładunku do zera) okazuje się upiorny – aby rozstrzygnąć, czy ta trudność rzeczywiście występuje teoretycznie, byłoby to możliwe tylko wtedy, gdybyśmy byli w stanie uzyskać jednoznaczne wyniki w obszarze silnego sprzężenia.Na razie pozostaje tylko wniosek, że w odniesieniu do spinorowego QED teoria zaburzeń nie jest, pomimo bezwarunkowej małej wielkości parametru rozwinięcia a, teorią logicznie zamkniętą. Jednak dla QED problem ten można uznać za czysto akademicki, ponieważ według (16) nawet przy gigantycznych energiach ~(10 15 -10 16) GeV, rozważanych we współczesnym świecie. modele łączenia oddziaływań, warunek nie jest naruszony. Znacznie poważniej wyglądała sytuacja w mezodynamice kwantowej - teoria oddziaływania pseudoskalarnych pól mezonowych z fermionowymi polami nukleonów, którą zaprezentowano na początku. 60s jedność kandydat do roli renormalizowalnego modelu oddziaływania silnego. W nim efektywna stała sprzężenia była duża przy zwykłych energiach i – oczywiście nieuzasadnione – rozważanie przez teorię perturbacji prowadziło do tych samych trudności związanych z ładunkiem zerowym. W wyniku wszystkich opisanych badań wyłonił się nieco pesymistyczny pogląd. punktu widzenia na przyszłe perspektywy renormalizacji QFT. Od czysto teoretycznego z punktu widzenia wydawało się, że cechy. różnorodność takich teorii jest znikoma: dla każdego modelu renormalizowalnego wszystkie efekty oddziaływań – dla małych stałych sprzężenia i średnich energii – ograniczały się do nieobserwowalnej zmiany charakterystyk cząstek swobodnych oraz do tego, że zachodziły przejścia kwantowe między stanami z takimi cząstkami, do prawdopodobieństw o ​​najniższym przybliżeniu, do którego można było teraz obliczyć (małe) poprawki wyższych. Ale w przypadku dużych stałych sprzężenia lub asymptotycznie dużych energii dostępna teoria – znowu, niezależnie od konkretnego modelu – nie miała zastosowania. QED pozostał jedyną (naprawdę genialną) aplikacją do realnego świata, która spełnia te ograniczenia. Sytuacja ta przyczyniła się do rozwoju metod niehamiltonowskich (takich jak: aksjomatyczna kwantowa teoria pola, podejście algebraiczne w KPT, konstruktywna kwantowa teoria pola). Położono wielkie nadzieje metoda relacji dyspersji i analityki badawczej. właściwości macierzy S. Mn. badacze zaczęli szukać wyjścia z trudności na drodze rewizji głównej. przepisy lokalnej renormalizacji QFT przy pomocy rozwoju niekanonicznego. kierunki: zasadniczo nieliniowe (czyli nie wielomianowe), nielokalne, nieokreślone (patrz Niewielomianowe kwantowe teorie pola, Nielokalna kwantowa teoria pola, Nieokreślona metryka) itp. Źródłem nowych poglądów na ogólną sytuację w QFT było odkrycie nowych teorii. fakty związane z nonabelian pola kalibracyjne. 7. Pola kalibracyjne Pola miernika (w tym nieabelowe Yanga - Pola młyńskie) są związane z niezmiennością względem pewnej grupy G lokalne przekształcenia cechowania. Najprostszym przykładem pola cechowania jest el-magn. pole A mw QED związany z grupą abelową U(l). W ogólnym przypadku nieprzerwanej symetrii pola Yanga-Millsa, podobnie jak foton, mają zerową masę spoczynkową. Są konwertowane przez dołączoną reprezentację grupy G nosić odpowiednie indeksy Bab m ( x) i przestrzegać nieliniowych równań ruchu (które są linearyzowane tylko dla grupy abelowej). Ich oddziaływanie z polami materii będzie niezmiennikiem cechowania, jeśli zostanie uzyskane przez rozszerzanie pochodnych (patrz rys. pochodna kowariantna): w swobodnym Lagrange'u pola i przy tej samej bezwymiarowej stałej g, który wchodzi w Lagrange'a pola W. Jak e-mag. pola, pola Yang-Millsa są systemami z ograniczeniami. To, jak również pozorny brak w naturze bezmasowych cząstek wektorowych (innych niż fotony), ograniczały zainteresowanie takimi polami i przez ponad 10 lat uważano je raczej za elegancki model, który nie ma nic wspólnego ze światem rzeczywistym. Sytuacja zmieniła się na 2 piętrze. lat 60., kiedy można je było skwantować metodą całkowania funkcjonalnego (zob. Funkcjonalna metoda całkowa) i dowiedz się, że zarówno czyste, bezmasowe pole Yang-Millsa, jak i pole oddziałujące z fermionami podlegają renormalizacji. Następnie zaproponowano metodę „miękkiego” wprowadzania mas w te pola z wykorzystaniem efektu spontaniczne łamanie symetrii. Na podstawie tego Mechanizm Higgsa pozwala nam przekazać masę do kwantów pól Yanga-Millsa bez naruszania renormalizacji modelu. Na tej podstawie w kon. 60s zbudowano ujednoliconą renormalizowalną teorię słabego i el-magna. interakcje (patrz Oddziaływanie elektrosłabe), w której nośnikami oddziaływania słabego są ciężkie (o masach ~ 80–90 GeV) kwanty wektorowych pól cechowania grupy symetrii elektrosłabej ( pośrednie bozony wektorowe W 6 i Z 0 eksperymentalnie obserwowane w 1983 r.). Wreszcie na początku lata 70. notatka została znaleziona. własność nieabelowego QFT - asymptotyczna wolność.Okazało się, że w przeciwieństwie do wszystkich badanych do tej pory renormalizowalnych QFT, dla pola Yang-Millsa, zarówno czystego, jak i oddziałującego z ograniczonym liczba fermionów, Ch. logarytm. wkłady do opłaty niezmiennej mają znak sumaryczny przeciwny do znaku takich wkładów do QED:

Dlatego w limicie | k 2 |"": ładunek niezmienny i nie ma trudności z przejściem do granicy UV. To zjawisko samowyłączania się oddziaływań na małych odległościach (swoboda asymptotyczna) umożliwiło naturalne wyjaśnienie w teorii cechowania oddziaływań silnych - chromodynamika kwantowa(QCD) struktura partonowa hadronów (patrz Partonowie), która przejawiała się do tego czasu w eksperymentach dotyczących głębokiego nieelastycznego rozpraszania elektronów przez nukleony (zob. Głęboko nieelastyczne procesy). Podstawą symetrii QCD jest grupa SU(3) s, działając w przestrzeni tzw. zmienne kolorów. Niezerowe liczby kwantowe koloru są przypisywane do kwarki oraz gluony. Specyfiką stanów barwnych jest ich nieobserwowalność przy asymptotycznie dużych odległościach przestrzennych. Jednocześnie wyraźnie widoczne w eksperymencie bariony i mezony są singletami grupy kolorów, tj. ich wektory stanu nie zmieniają się podczas przekształceń w przestrzeni kolorów. Podczas odwracania znaku b [por. (17) z (16)] trudność bieguna widmowego przechodzi z wysokich energii na małe. Nie wiadomo jeszcze, co QCD daje dla zwykłych energii (rzędu mas hadronów), - istnieje hipoteza, że ​​wraz ze wzrostem odległości (czyli z malejącą energią) oddziaływanie między kolorowymi cząsteczkami narasta tak silnie, że właśnie to która nie pozwala kwarkom i gluonom na rozproszenie na odległość /10 - 13 cm (hipoteza nielatania, czyli uwięzienia; zob. Zachowanie koloru).Bardzo dużo uwagi poświęca się badaniu tego problemu. Tak więc badanie kwantowych modeli pola zawierających pola Yanga-Millsa ujawniło, że teorie renormalizowalne mogą mieć nieoczekiwane bogactwo treści. W szczególności zniszczone zostało naiwne przekonanie, że widmo układu oddziałującego jest jakościowo podobne do widma układu swobodnego i różni się od niego jedynie przesunięciem poziomów i ewentualnie pojawieniem się niewielkiej liczby stanów związanych . Okazało się, że widmo układu z oddziaływaniem (hadrony) może nie mieć nic wspólnego z widmem cząstek swobodnych (kwarków i gluonów), a zatem może nawet nie dawać na to żadnych wskazówek. pola, których odmiany należy zaliczyć do mikroskopu elementarnego. Lagrange'a. Ustanowienie tych podstawowych cech. cechy i posiadający zdecydowaną większość ilości. obliczenia w QCD są oparte na połączeniu obliczeń teorii perturbacji z wymogiem niezmienności grupy renormalizacji. Innymi słowy, metoda grup renormalizacji stała się, obok teorii perturbacji zrenormalizowanych, jednym z głównych narzędzi obliczeniowych współczesności. KTP. Dr. Metoda QFT, która otrzymała średnią. rozwój od lat 70., zwłaszcza w teorii nieabelowych pól cechowania, jest, jak już wspomniano, metodą wykorzystującą metodę całki funkcjonalnej i jest uogólnieniem mechaniki kwantowej QFT. metoda całkowania po ścieżce. W QFT takie całki mogą być traktowane jako uśrednianie f-ly odpowiedniego klasycznego. wyrażenia (np. klasyczne funkcje Greena dla cząstki poruszającej się w danym polu zewnętrznym) w kategoriach fluktuacji pola kwantowego. Początkowo pomysł przeniesienia metody całki funkcjonalnej do QFT wiązał się z nadzieją na uzyskanie zwartych wyrażeń zamkniętych dla podstawowych. wielkości pola kwantowego odpowiednie do obliczeń konstrukcyjnych. Okazało się jednak, że z powodu trudności matematycznych. rygorystyczną definicję można nadać tylko całkom typu gaussowskiego, które jako jedyne nadają się do dokładnego obliczenia. Dlatego też funkcjonalna reprezentacja całkowa była przez długi czas uważana za zwartą formalną reprezentację kwantowej teorii zaburzeń pola. Później (odwracając uwagę od matematycznego problemu uzasadnienia) zaczęto używać tej reprezentacji w rozkładaniu. zadania ogólne. Tak więc reprezentacja całki funkcjonalnej odegrała ważną rolę w pracach nad kwantyzacją pól Yanga-Millsa i dowodem ich renormalizacji. Ciekawe wyniki uzyskano stosując procedurę opracowaną nieco wcześniej dla problemów statystyki kwantowej do obliczania całki funkcjonalnej funkcjonału metoda podania, podobnie jak metoda punktu siodłowego w teorii funkcji zmiennej zespolonej. Dla szeregu dość prostych modeli, wykorzystujących tę metodę, stwierdzono, że wielkości pola kwantowego, rozpatrywane jako funkcje stałej sprzężenia g, miej blisko punktu g=0 osobliwość charakterystycznego typu exp(- 1 /g) i że (w pełnej zgodności z tym) współczynniki f n rozszerzenia mocy S f n g n teorie perturbacji narastają na dużą skalę P Factorial: f n~n!. Tym samym wygłoszone na początku oświadczenie zostało konstruktywnie potwierdzone. 50s hipoteza o nieanalityczności teorii w odniesieniu do ładunku. Analityczna odgrywa w tej metodzie ważną rolę. rozwiązania nieliniowych klasycznych ur-tions, które mają zlokalizowany charakter ( solitony oraz - w wersji euklidesowej - instantony) i dostarczanie do działania minimum funkcjonalnego. Na 2 piętrze. lata 70. w ramach metody integracji funkcjonalnej powstał kierunek badania nieabelowych pól cechowania za pomocą tzw. kontur , w k-poii jako argumenty zamiast punktów 4D X Rozważane są zamknięte kontury Г w czasoprzestrzeni. W ten sposób można zmniejszyć o jeden wymiar zbioru zmiennych niezależnych, aw wielu przypadkach znacznie uprościć sformułowanie kwantowego problemu pola (por. rozdz. podejście konturowe). Pomyślne badania przeprowadzono za pomocą obliczeń numerycznych na komputerze całek funkcyjnych, w przybliżeniu reprezentowanych w postaci całek iterowanych o dużej krotności. Dla takiej reprezentacji wprowadza się dyskretną sieć w przestrzeń początkową zmiennych konfiguracyjnych lub impulsowych. Podobne, jak się je nazywa, "obliczenia sieci" dla realistycznych. modele wymagają użycia komputerów o szczególnie dużej mocy, w wyniku czego dopiero zaczynają być dostępne. W tym przypadku w szczególności przeprowadzono zachęcające obliczenia mas i anomalnych magnesów przy użyciu metody Monte Carlo. momenty hadronów na podstawie chromodynamiki kwantowej. reprezentacje (patrz Metoda kratowa).
8. Duży obraz Rozwój nowych idei dotyczących świata cząstek i ich interakcji w coraz większym stopniu ujawnia dwie podstawy. trendy. Jest to, po pierwsze, stopniowe przejście do coraz bardziej pośrednich pojęć i coraz mniej wizualnych obrazów: lokalnej symetrii cechowania, imperatywu renormalizacji, pojęcia złamanych symetrii, a także spontanicznego łamania symetrii i gluonów zamiast faktycznie obserwowanych hadronów. nieobserwowalna liczba kwantowa koloru itp. Po drugie, wraz ze skomplikowaniem arsenału stosowanych metod i pojęć, niewątpliwym przejawem są cechy jedności zasad leżących u podstaw zjawisk, które wydają się być bardzo od siebie odległe , a co za tym idzie, oznacza. uproszczenie ogólnego obrazu. Trzy podstawowe interakcje badane przy użyciu metod QFT otrzymały równoległe sformułowanie oparte na zasadzie lokalnej niezmienności cechowania. Powiązana właściwość renormalizacji daje możliwość ilości. obliczanie efektów e-magn., oddziaływań słabych i silnych metodą teorii zaburzeń. (Ponieważ oddziaływanie grawitacyjne można również sformułować na podstawie tej zasady, jest ono prawdopodobnie uniwersalne.) Z praktycznym. z punktu widzenia teorii perturbacji, od dawna zadomowiły się w QED (na przykład stopień zgodności między teorią a eksperymentem dla anomalny moment magnetyczny elektron Dm to Dm/m 0 ~ 10 - 10 , gdzie m 0 to magneton Bohra). W teorii oddziaływania elektrosłabego takie obliczenia również okazały się mieć niezwykły efekt predykcyjny. siła (np. masy zostały prawidłowo przewidziane) W 6 - i Z 0 -bozony). Wreszcie, w QCD w obszarze wystarczająco wysokich energii i 4-pędowych transferów Q (|Q| 2/100 GeV 2) na podstawie renormalizowalnej teorii perturbacji wzmocnionej metodą renormalizacji. grupy, możliwe jest ilościowe opisanie szerokiego zakresu zjawisk w fizyce hadronów. Ze względu na niewystarczającą małość parametru rozszerzalności: dokładność obliczeń tutaj nie jest zbyt wysoka. Generalnie można tak powiedzieć, wbrew pesymizmowi con. W latach 50. metoda zrenormalizowanej teorii perturbacji okazała się owocna, przynajmniej dla trzech z czterech podstaw. interakcje. Jednocześnie należy zauważyć, że większość Znaczący postęp, osiągnięty głównie w latach 60-80, dotyczy właśnie zrozumienia mechanizmu oddziaływania pól (i cząstek). Sukcesy w obserwacji właściwości cząstek i stanów rezonansowych zaowocowały obfitością materiału, co doprowadziło do odkrycia nowych liczb kwantowych (dziwność, urok itp.) oraz do skonstruowania odpowiadających im tak zwanych liczb. złamane symetrie i odpowiednia systematyka cząstek. To z kolei dało impuls do licznych poszukiwań podbudowy. hadrony i ostatecznie stworzenie QCD. W rezultacie takie „50” jak nukleony i piony przestały być elementarne i stało się możliwe określenie ich właściwości (wartości mas, anomalnych momentów magnetycznych itp.) poprzez właściwości kwarków i parametry oddziaływania kwark-gluon. Ilustracją tego jest na przykład stopień zaburzenia izotopu. symetria, która przejawia się w różnicy mas D M opłata oraz neutralne mezony i bariony w jednym izotopie. multiplet (na przykład p i n; Zamiast oryginalnego, z nowoczesnego punktu widzenia naiwnego, pomysł, że ta różnica (ze względu na stosunek liczbowy D M/M~ a) posiada e-mag. pochodzenia, przyszło przekonanie, że wynika to z różnicy w masach oraz- oraz d-kwarki. Jednak nawet jeśli ilości się udają. W przypadku realizacji tego pomysłu kwestia nie jest do końca rozwiązana – jest jedynie zepchnięta głębiej z poziomu hadronów na poziom kwarków. W podobny sposób przekształca się sformułowanie dawnej zagadki o mionie: „Po co mion i dlaczego, będąc podobny do elektronu, jest od niego dwustukrotnie cięższy?”. To pytanie, przeniesione na poziom kwark-lepton, nabrało większej ogólności i nie odnosi się już do pary, ale do trzech pokolenia fermionów, ale nie zmienił jej istoty. 9. Perspektywy i wyzwania Wielkie nadzieje wiązano z programem tzw. wielkie zjednoczenie oddziaływania - łączenie oddziaływania silnego QCD z oddziaływaniem elektrosłabym o energiach rzędu 10 15 GeV i wyższych. Punktem wyjścia jest tutaj (teoretyczna) obserwacja, że ​​ekstrapolacja na obszar superwysokich energii f-ly (17) jest asymptotyczna. wolność dla chromodynamiki. stałe sprzężenia i typu f-ly (16) dla ładunku niezmiennego QED prowadzi do tego, że wartości te przy energiach rzędu |Q| = M X~10 15 b 1 GeV są porównywane ze sobą. Odpowiednie wartości (a także wartość drugiego ładunku teorii oddziaływania elektrosłabego) okazują się równe Fundament. fizyczny hipoteza jest taka, że ​​ten zbieg okoliczności nie jest przypadkowy: w obszarze energii większych niż M X, istnieje jakaś wyższa symetria opisana przez grupę G, który przy niższych energiach rozdziela się na obserwowalne symetrie ze względu na warunki masy, a masy, które łamią symetrie, są rzędu M X. Odnośnie struktury jednoczącej się grupy G a charakter terminów łamiących symetrię można określić jako dec. założenia [naib. prosta odpowiedź to G=SU(5 )], ale z cechami. punkt widzenia naib. Ważną cechą stowarzyszenia jest to, że fundusze. grupa widok (widok - kolumna) Głączy kwarki i leptony z fundamu. reprezentacje grupowe SU(3 )c oraz SU(2), w wyniku czego przy energiach wyższych niż M X kwarki i leptony stają się „równe”. Mechanizm lokalnej interakcji cechowania między nimi zawiera pola wektorowe w reprezentacji sprzężonej (reprezentacja - macierz) grupy G, którego kwanty, wraz z gluonami i ciężkimi bozonami pośrednimi oddziaływania elektrosłabego, zawierają nowe cząstki wektorowe, które łączą ze sobą leptony i kwarki. Możliwość przemiany kwarków w leptony prowadzi do braku zachowania liczby barionowej. W szczególności rozpad protonu okazuje się dozwolony, na przykład zgodnie ze schematem p""e + +p 0 . Należy zauważyć, że program wielkiej unifikacji napotkał szereg trudności. Jeden z nich ma charakter czysto teoretyczny. charakter (tzw. problem hierarchii - niemożność utrzymania teorii perturbacyjnych o niewspółmiernych skalach energii w wyższych rzędach M X~10 15 GeV i M W~10 2 GeV). Dr. trudność związana jest z niedopasowaniem eksperymentów. dane dotyczące rozpadu protonu z danymi teoretycznymi. przewidywania. Bardzo obiecujący kierunek rozwoju nowoczesności. QTP jest związane z supersymetria, czyli z symetrią względem przekształceń, które „splatają” pola bozonowe j ( X) (spin liczby całkowitej) z polami fermionowymi y( x) (wirowanie o połowę liczby całkowitej). Te przemiany tworzą grupę będącą przedłużeniem grupy Poincare. Odpowiednia algebra generatorów grup, wraz ze zwykłymi generatorami grupy Poincaré, zawiera generatory spinorowe, a także antykomutatory tych generatorów. Supersymetrię można postrzegać jako nietrywialne połączenie grupy Poincaré z wew. symetrie, połączenie możliwe dzięki włączeniu do algebry generatorów antykomutacyjnych. Reprezentacje grupy supersymetrii - superpole Ф - podane są na superprzestrzenie, w tym oprócz zwykłych współrzędnych X specjalna algebraiczna. obiekty (tzw. generatory) Algebra Grassmanna z inwolucją) są właśnie elementami antykomutacyjnymi, które są spinorami w stosunku do grupy Poincaré. Dzięki dokładnej antyprzemienności wszystkie potęgi ich składowych, począwszy od drugiej, znikają (odpowiednia algebra Grassmanna jest uważana za nilpotentną), a zatem rozwinięcia superpól w szeregi zamieniają się w wielomiany. Na przykład w najprostszym przypadku chiralnego (lub analitycznego) nadpola, które zależy od def. tylko na podstawie q,

(s to macierz Pauliego) będzie:

Szanse ALE(X), tak ( X), F(x ) są już zwykłymi polami kwantowymi - skalarnymi, spinorowymi itp. Nazywają się. pola składowe lub składowe. Z punktu widzenia pól składowych superpole składa się po prostu z definicji. rządzi zbiorem skończonej liczby różnych pól Bose i Fermi ze zwykłymi regułami kwantyzacji. Przy konstruowaniu modeli supersymetrycznych wymagane jest, aby oddziaływania były niezmiennicze również w przypadku przekształceń supersymetrii, tj. reprezentują superniezmiennicze iloczyny superpól jako całości. Ze zwykłego punktu widzenia oznacza to wprowadzenie całej serii oddziaływań pól składowych, oddziaływań, których stałe nie są arbitralne, lecz są ze sobą sztywno połączone. To otwiera nadzieję na dokładną kompensację wszystkich lub przynajmniej niektórych rozbieżności UV wynikających z różnych warunków interakcji. Podkreślamy, że próba wprowadzenia takiej kompensacji po prostu dla zbioru pól i oddziaływań nie ograniczonego wymaganiami grupowymi byłaby daremna ze względu na to, że raz ustalona kompensacja uległaby zniszczeniu podczas renormalizacji. Szczególnie interesujące są modele supersymetryczne zawierające jako składowe nieabelowe pola wektorowe z cechowaniem. Takie modele, które mają zarówno symetrię cechowania, jak i supersymetrię, są nazywane. superkalibracja. W modelach superkalibracyjnych obserwuje się zauważalną różnicę. fakt zmniejszenia rozbieżności UV. Znaleziono modele, w których interakcja Lagrange'a, wyrażona w postaci pól składowych, jest reprezentowana przez sumę wyrażeń, z których każdy jest indywidualnie renormalizowany i generuje teorię perturbacji z logarytmem. rozbieżności, jednak rozbieżności odpowiadające sumie diagramów Feynmana z udziałem diff. członkowie wirtualnego superpola kompensują się nawzajem. Tę właściwość całkowitej redukcji rozbieżności można powiązać z dobrze znanym faktem obniżenia stopnia rozbieżności UV wartości własnych. masa elektronów w QED w przejściu od pierwotnych obliczeń niekowariancyjnych z końca lat 20-tych. do praktycznie kowariantnej teorii perturbacji, która uwzględnia pozytony w stanach pośrednich. Analogię wzmacnia możliwość zastosowania supersymetrycznych reguł Feynmana, gdy takie rozbieżności w ogóle się nie pojawiają. Całkowite zniesienie rozbieżności UV w dowolnych porządkach teorii zaburzeń, ustalonej dla wielu modeli supergauge, dało początek nadziei na teorię. możliwość superunifikacji fundamentów. oddziaływania, czyli takie połączenie wszystkich czterech oddziaływań, w tym grawitacyjnego, skonstruowane z uwzględnieniem supersymetrii, dla którego nie tylko nierenormalizowalne efekty „zwykłej” grawitacji kwantowej znikną, ale całkowicie ujednolicone oddziaływanie będzie również wolne od Rozbieżności UV. Fiz. areną superunifikacji są skale rzędu skali Plancka (energie ~10 19 GeV, odległości rzędu długości Plancka R Pl ~10 - 33 cm). Aby zrealizować tę ideę, rozważane są modele supergauge oparte na superpolach ułożonych w taki sposób, że max. spin ich składowych zwykłych pól jest równy dwóm. Odpowiednie pole jest utożsamiane z polem grawitacyjnym. Podobne modele nazywają się supergrawitacja (por. supergrawitacja). próby skonstruowania skończonych supergrawitacji wykorzystują idee dotyczące przestrzeni Minkowskiego o więcej niż czterech wymiarach, a także strun i superstrun. Innymi słowy, „zwykły” lokalny QFT w odległościach mniejszych niż Planck zamienia się w teorię kwantową jednowymiarowych rozszerzonych obiektów osadzonych w przestrzeniach o większej liczbie wymiarów. W przypadku takiego superunifikacji opartej na supergrawitacji. Jeśli pojawi się model, dla którego zostanie udowodniony brak rozbieżności UV, zostanie zbudowana ujednolicona teoria wszystkich czterech podstaw. interakcje, wolne od nieskończoności. Tym samym okaże się, że rozbieżności w UV w ogóle nie powstaną, a cała aparatura do eliminowania rozbieżności metodą renormalizacji okaże się zbędna. Jeśli chodzi o naturę samych cząstek, niewykluczone, że teoria zbliża się do nowej jakości. kamień milowy związany z pojawieniem się idei o poziomie elementarności wyższym niż poziom kwark-lepton. Mówimy o grupowaniu kwarków i leptonów w generacje fermionów i pierwszych próbach postawienia pytania o różne skale mas różnych generacji w oparciu o przewidywanie istnienia cząstek bardziej elementarnych niż kwarki i leptony. Oświetlony.: Akhiezer A. I., Berestetsky V. B., Elektrodynamika kwantowa, wyd. 4, M., 1981; Bogolyubov N. N., III i rk about w D. V., Wprowadzenie do teorii pól skwantowanych, wyd. 4, M., 1984; ich, Pola kwantowe, Moskwa, 1980; Berestetsky V.B., Lifshitz E.M., Pitaevsky L.P., Elektrodynamika kwantowa, wyd. 2, M., 1980; Weisskopf, VF, Jak dorastaliśmy z teorią pola, przeł. z angielskiego, UFN, 1982, t. 138, s. 455; I tsikson K., 3 juber J-B., Kwantowa teoria pola, przeł. z angielskiego, t. 1-2, M., 1984; Bogolyubov N. N., Logunov A. A., Oksak A. I., Todorov I. T., Ogólne zasady kwantowej teorii pola, Moskwa, 1987. B. W. Miedwiediew, D. W. Szirkow.

Główne postanowienia kwantowej teorii pola: 1). stan próżni. Nierelatywistyczna mechanika kwantowa umożliwia badanie zachowania stałej liczby cząstek elementarnych. Kwantowa teoria pola uwzględnia powstawanie i absorpcję lub anihilację cząstek elementarnych. Zatem kwantowa teoria pola zawiera dwa operatory: operator stworzenia i operator anihilacji cząstek elementarnych. Zgodnie z kwantową teorią pola stan jest niemożliwy, gdy nie ma pola ani cząstek. Próżnia to pole w swoim najniższym stanie energetycznym. Próżnia charakteryzuje się nie niezależnymi, obserwowalnymi cząsteczkami, ale wirtualnymi cząsteczkami, które pojawiają się i znikają po pewnym czasie. 2.) Wirtualny mechanizm oddziaływania cząstek elementarnych. Cząstki elementarne oddziałują ze sobą w wyniku pól, ale jeśli cząsteczka nie zmienia swoich parametrów, to nie może wyemitować ani wchłonąć rzeczywistego kwantu oddziaływania, takiej energii i pędu oraz przez taki czas i odległość, które są określone przez zależności ∆E∙∆t≥ħ, ∆рх∙∆х≥ħ( stała kwantowa) zależność niepewności. Charakter wirtualnych cząstek jest taki, że po pewnym czasie pojawią się, znikną lub zostaną wchłonięte. Amer. Fizyk Feynman opracował graficzny sposób przedstawiania interakcji cząstek elementarnych z wirtualnymi kwantami:

Emisja i absorpcja wirtualnego kwantu cząstki swobodnej

Interakcja dwóch elementów. cząstki za pomocą jednego wirtualnego kwantu.

Interakcja dwóch elementów. cząstki za pomocą dwóch wirtualnych kwantów.

Na danych z ryc. Graficzny obraz cząstek, ale nie ich trajektorie.

3.) Spin jest najważniejszą cechą obiektów kwantowych. Jest to wewnętrzny moment pędu cząstki, a jeśli moment pędu wierzchołka pokrywa się z kierunkiem osi obrotu, to spin nie wyznacza żadnego szczególnego preferowanego kierunku. Spin wyznacza kierunek, ale w sposób probabilistyczny. Spin istnieje w formie, której nie można sobie wyobrazić. Spin oznaczamy jako s=I∙ħ i przyjmuję obie wartości całkowite I=0,1,2,… oraz otrzymane wartości liczbowe I = ½, 3/2, 5/2,… W klasycznym fizyki, identyczne cząstki nie różnią się przestrzennie, ponieważ zajmują ten sam obszar przestrzeni, prawdopodobieństwo znalezienia cząstki w dowolnym obszarze przestrzeni jest określone przez kwadrat modułu funkcji falowej. Funkcja falowa ψ jest cechą wszystkich cząstek. ‌‌. odpowiada symetrii funkcji falowych, gdy cząstki 1 i 2 są identyczne i ich stany są takie same. przypadek antysymetrii funkcji falowych, gdy cząstki 1 i 2 są identyczne, ale różnią się jednym z parametrów kwantowych. Na przykład: z powrotem. Zgodnie z zasadą wykluczania Paula cząstki o spinie połówkowym nie mogą znajdować się w tym samym stanie. Ta zasada umożliwia opisanie struktury powłok elektronowych atomów i cząsteczek. Te cząstki, które mają spin całkowity, nazywają się bozony. I = 0 dla mezonów Pi; I =1 dla fotonów; I = 2 dla grawitonów. Cząstki o danym spinie to fermiony. Dla elektronu, pozytonu, neutronu, protonu I = ½. 4) Spin izotopowy. Masa neutronu jest tylko o 0,1% większa od masy protonu, jeśli abstrahujemy (ignorujemy) ładunek elektryczny, to te dwie cząstki można uznać za dwa stany tej samej cząstki, nukleonu. Podobnie są mezony, ale nie są to trzy niezależne cząstki, ale trzy stany tej samej cząstki, które po prostu nazywamy pi – mezonem. Aby uwzględnić złożoność lub wielość cząstek, wprowadza się parametr, który nazywa się spinem izotopowym. Wyznacza się ją ze wzoru n = 2I+1, gdzie n to liczba stanów cząstek, np. dla nukleonu n=2, I=1/2. Rzut izospinowy jest oznaczony przez Iz = -1/2; Iz \u003d ½, tj. proton i neutron tworzą dublet izotopowy. Dla mezonów Pi liczba stanów = 3, czyli n=3, I=1, Iz=-1, Iz=0, Iz=1. 5) Klasyfikacja cząstek: najważniejszą cechą cząstek elementarnych jest masa spoczynkowa, na tej podstawie cząstki dzieli się na bariony (tłum. ciężkie), mezony (z gr. średnie), leptony (z gr. lekkie). Bariony i mezony, zgodnie z zasadą oddziaływania, również należą do klasy hadronów (z greckiego silne), gdyż cząstki te uczestniczą w oddziaływaniu silnym. Bariony obejmują: protony, neutrony, hiperony tych cząstek, tylko proton jest stabilny, wszystkie bariony są fermionami, mezony są bozonami, nie są cząstkami stabilnymi, uczestniczą we wszystkich rodzajach oddziaływań, podobnie jak bariony, leptony obejmują: elektron, neutron, cząstki są fermionami i nie uczestniczą w silnych oddziaływaniach. Szczególnie wyróżnia się foton, który nie należy do leptonów, a także nie należy do klasy hadronów. Jego spin = 1, a masa spoczynkowa = 0. Niekiedy kwanty oddziaływań wyróżnia się specjalną klasą, mezon to kwant oddziaływania słabego, gluon to kwant oddziaływania grawitacyjnego. Czasami kwarki dzieli się na specjalną klasę, której ułamkowy ładunek elektryczny jest równy 1/3 lub 2/3 ładunku elektrycznego. 6) Rodzaje interakcji. W 1865 powstała teoria pola elektromagnetycznego (Maxwell). W 1915 roku Einstein stworzył teorię pola grawitacyjnego. Odkrycie oddziaływań silnych i słabych datuje się na pierwszą trzecią część XX wieku. Nukleony są ściśle związane w jądrze między sobą poprzez oddziaływania silne, które nazywane są silnymi. W 1934 Fermet stworzył pierwszą teorię oddziaływań słabych, która była wystarczająco adekwatna do badań eksperymentalnych. Teoria ta powstała po odkryciu radioaktywności, konieczne było założenie, że w jądrach atomu zachodzą nieznaczne interakcje, które prowadzą do spontanicznego rozpadu ciężkich pierwiastków chemicznych, takich jak uran, podczas gdy emitowane są promienie. Uderzającym przykładem oddziaływań słabych jest przenikanie cząstek neutronów przez Ziemię, podczas gdy neutrony mają znacznie skromniejszą zdolność penetracji, są opóźnione przez kilkucentymetrową warstwę ołowianą. Silny: elektromagnetyczny. Słaby: grawitacyjny = 1:10-2:10-10:10-38. Różnica między elektromagiem. i grawitacja. Interakcje, polegające na tym, że stopniowo zmniejszają się wraz ze wzrostem odległości. Oddziaływania silne i słabe ograniczają się do bardzo małych odległości: 10-16 cm dla słabych, 10-13 cm dla silnych. Ale na odległość< 10-16 см слабые взаимодействия уже не являются малоинтенсивными, на расстоянии 10-8 см господствуют электромагнитные силы. Адроны взаимодействуют с помощью кварков. Переносчиками взаимодействия между кварками являются глюоны. Сильные взаимодействия появляются на расстояниях 10-13 см, т. Е. глюоны являются короткодействующими и способны долететь такие расстояния. Слабые взаимодействия осуществляются с помощью полей Хиггса, когда взаимодействие переносится с помощью квантов, которые называются W+,W- - бозоны, а также нейтральные Z0 – бозоны(1983 год). 7) Rozszczepienie i synteza jąder atomowych. Jądra atomów składają się z protonów, które są oznaczone jako Z i neutronów N, całkowita liczba nukleonów jest oznaczona literą - A. A \u003d Z + N. Aby wyciągnąć nukleon z jądra, należy wydać energię, dlatego całkowita masa i energia jądra jest mniejsza niż suma acc i energii wszystkich jego składników. Różnica energii nazywana jest energią wiązania: Eb=(Zmp+Nmn-M)c2 energia wiązania nukleonów w jądrze - Eb. Energia wiązania przechodząca przez jeden nukleon nazywana jest swoistą energią wiązania (Eb/A). Energia właściwa wiązania przyjmuje maksymalną wartość dla jąder atomów żelaza. Pierwiastki następujące po żelazie mają wzrost nukleonów, a każdy nukleon zyskuje coraz więcej sąsiadów. Oddziaływania silne są krótkozasięgowe, co prowadzi do tego, że przy wzroście nukleonów i przy znacznym wzroście nukleonów chemiczne. pierwiastek ma tendencję do rozpadu (promieniotwórczość naturalna). Zapisujemy reakcje, w których uwalniana jest energia: 1. W rozszczepieniu jąder z dużą liczbą nukleonów: n + U235 → U236 → 139La + 95Mo + 2n wolno poruszający się neutron jest pochłaniany przez U235 (uran) w wyniku czego powstaje U236, który dzieli się na 2 jądra La (laptam) i Mo (molibden), które rozpadają się przy dużych prędkościach powstają 2 neutrony, zdolne do wywołania 2 takich reakcji. Reakcja przybiera charakter łańcuchowy, aby masa początkowego paliwa osiągnęła masę krytyczną.2. Reakcja na fuzję lekkich jąder.d2+d=3H+n, gdyby ludzie mogli zapewnić stabilną fuzję jąder, uratowaliby się przed problemami energetycznymi. Zawarty w wodzie oceanicznej deuter jest niewyczerpanym źródłem taniego paliwa jądrowego, a syntezie pierwiastków lekkich nie towarzyszą intensywne zjawiska radioaktywne, jak przy rozszczepianiu jąder uranu.

Czy nasze wysiłki, aby opisać rzeczywistość, nie są niczym więcej niż grą w kości, próbującą przewidzieć pożądany wynik? James Owen Weatherall, profesor logiki i filozofii nauki na Uniwersytecie w Irvine, rozmyślał na łamach Nautil.us o tajemnicach fizyki kwantowej, problemie stanu kwantowego i jego zależności od naszych działań, wiedzy i subiektywnej percepcji rzeczywistości i dlaczego, przewidując różne prawdopodobieństwa, okazuje się, że wszyscy mamy rację.

Fizycy doskonale wiedzą, jak zastosować teorię kwantową - Twój telefon i komputer są tego dowodem. Ale umiejętność korzystania z czegoś jest daleka od pełnego zrozumienia świata opisanego przez teorię, ani nawet tego, co oznaczają różne narzędzia matematyczne, których używają naukowcy. Jednym z takich narzędzi matematycznych, o statusie którego od dawna dyskutują fizycy, jest „stan kwantowy” Stan kwantowy to dowolny możliwy stan, w którym może znajdować się układ kwantowy. W tym przypadku „stan kwantowy” należy również rozumieć jako wszystkie potencjalne prawdopodobieństwa wypadnięcia z tej lub innej wartości podczas gry w „kostki”. - Około. wyd..

Jedną z najbardziej uderzających cech teorii kwantowej jest to, że jej przewidywania są probabilistyczne. Jeśli przeprowadzasz eksperyment w laboratorium i używasz teorii kwantowej do przewidywania wyników różnych pomiarów, w najlepszym razie teoria może tylko przewidzieć prawdopodobieństwo wyniku: na przykład 50% w przypadku przewidywania wyniku i 50% w przypadku różnicy . Rolą stanu kwantowego jest określenie prawdopodobieństwa wyników. Jeśli stan kwantowy jest znany, możesz obliczyć prawdopodobieństwo uzyskania dowolnego możliwego wyniku w dowolnym możliwym eksperymencie.

Czy stan kwantowy reprezentuje obiektywny aspekt rzeczywistości, czy jest to tylko sposób na scharakteryzowanie nas, czyli tego, co dana osoba wie o rzeczywistości? Kwestia ta była aktywnie dyskutowana na samym początku badań nad teorią kwantów i ostatnio ponownie stała się aktualna, inspirując do nowych obliczeń teoretycznych i kolejnych weryfikacji eksperymentalnych.

„Jeśli zmienisz tylko swoją wiedzę, rzeczy nie będą już wydawać się dziwne”.

Aby zrozumieć, dlaczego stan kwantowy ilustruje czyjąś wiedzę, wyobraź sobie przypadek, w którym obliczasz prawdopodobieństwo. Zanim twój przyjaciel rzuci kostką, zgadnij, po której stronie wyląduje. Jeśli twój przyjaciel rzuci zwykłą kostką sześciościenną, prawdopodobieństwo, że twoje przypuszczenie będzie prawidłowe, wyniesie około 17% (jedna szósta), bez względu na to, co odgadniesz. W tym przypadku prawdopodobieństwo mówi coś o tobie, a mianowicie, co wiesz o kości. Powiedzmy, że podczas rzucania odwracasz się plecami, a Twój kolega widzi wynik - niech będzie sześć, ale nie znasz tego wyniku. I dopóki się nie odwrócisz, wynik rzutu pozostaje niepewny, nawet jeśli twój przyjaciel o tym wie. Prawdopodobieństwo reprezentujące ludzką niepewność, nawet jeśli rzeczywistość jest pewna, nazywa się epistemiczny, od greckiego słowa oznaczającego „wiedza”.

Oznacza to, że ty i twój przyjaciel możecie określić różne prawdopodobieństwa i żadne z was się nie pomyli. Powiesz, że prawdopodobieństwo wyrzucenia szóstki na kostce wynosi 17%, a twój przyjaciel, który już zna wynik, nazwie to 100%. Dzieje się tak, ponieważ ty i twój przyjaciel wiecie różne rzeczy, a prawdopodobieństwa, które wymieniliście, reprezentują różne stopnie waszej wiedzy. Jedyną nieprawidłową prognozą byłaby taka, która w ogóle wyklucza możliwość pojawienia się szóstki.

Przez ostatnie piętnaście lat fizycy zastanawiali się, czy stan kwantowy może być epistemiczny w ten sam sposób. Załóżmy, że pewien stan materii, taki jak rozkład cząstek w przestrzeni lub wynik gry w kości, jest pewny, ale nie wiesz. Stan kwantowy, zgodnie z tym podejściem, jest tylko sposobem na opisanie niekompletności twojej wiedzy o budowie świata. W różnych sytuacjach fizycznych może istnieć kilka sposobów zdefiniowania stanu kwantowego, w zależności od znanych informacji.

Przeczytaj także:

Kuszące jest myślenie o stanie kwantowym w ten sposób, ponieważ staje się on inny, gdy mierzone są parametry układu fizycznego. Dokonywanie pomiarów zmienia ten stan z jednego, w którym każdy możliwy wynik ma niezerowe prawdopodobieństwo, do takiego, w którym możliwy jest tylko jeden wynik. Jest to podobne do tego, co dzieje się w grze w kości, gdy znasz wynik. Może wydawać się dziwne, że świat może się zmienić tylko dlatego, że dokonujesz pomiarów. Ale jeśli to tylko zmiana w Twojej wiedzy, to już nie jest zaskakujące.

Innym powodem, dla którego uważa się stan kwantowy za epistemiczny, jest to, że niemożliwe jest określenie, jak wyglądał stan kwantowy przed przeprowadzeniem go za pomocą pojedynczego eksperymentu. Przypomina też grę w kości. Powiedzmy, że twój znajomy oferuje grę i twierdzi, że prawdopodobieństwo wyrzucenia szóstki wynosi tylko 10%, podczas gdy ty nalegasz na 17%. Czy jeden eksperyment może pokazać, który z was ma rację? Nie. Faktem jest, że otrzymany wynik jest porównywalny z obydwoma szacunkami prawdopodobieństwa. Nie ma sposobu, aby dowiedzieć się, który z was ma rację w konkretnym przypadku. Zgodnie z epistemicznym podejściem do teorii kwantów, powód, dla którego większości stanów kwantowych nie można określić doświadczalnie, przypomina grę w kości: dla każdej sytuacji fizycznej istnieje kilka prawdopodobieństw zgodnych z wielością stanów kwantowych.

Rob Speckens, fizyk z Instytutu Fizyki Teoretycznej w Waterloo, Ontario, opublikował w 2007 roku artykuł, w którym przedstawił „teorię zabawek” zaprojektowaną w celu naśladowania teorii kwantowej. Teoria ta nie jest dokładnie analogiczna do teorii kwantowej, ponieważ jest uproszczona do niezwykle prostego systemu. System ma tylko dwie opcje dla każdego ze swoich parametrów: na przykład „czerwony” i „niebieski” dla koloru oraz „góra” i „dół” dla położenia w przestrzeni. Ale, podobnie jak w przypadku teorii kwantowej, zawierała stany, które można wykorzystać do obliczenia prawdopodobieństw. A przewidywania dokonane za jego pomocą pokrywają się z przewidywaniami teorii kwantowej.

„Teoria zabawek” Speckensa była ekscytująca, ponieważ, podobnie jak w teorii kwantowej, jej stany były „niedefiniowalne” – a ta niepewność wynikała wyłącznie z faktu, że teoria epistemiczna rzeczywiście odnosi się do rzeczywistych sytuacji fizycznych. Innymi słowy, „teoria zabawek” była podobna do teorii kwantowej, a jej stany były wyjątkowo epistemiczne. Ponieważ w przypadku odrzucenia poglądu epistemicznego niepewność stanów kwantowych nie ma jednoznacznego wyjaśnienia, Speckens i jego współpracownicy uznali ten powód za wystarczający, aby uznać stany kwantowe również za epistemiczne, ale w tym przypadku „teoria zabawek” powinna być rozszerzone na bardziej złożone systemy (tj. systemy fizyczne wyjaśnione przez teorię kwantową). Od tego czasu doprowadziło to do szeregu badań, w których niektórzy fizycy próbowali za jego pomocą wyjaśnić wszystkie zjawiska kwantowe, podczas gdy inni próbowali wykazać jego błędność.

„Te założenia są spójne, ale to nie znaczy, że są prawdziwe”.

Tym samym przeciwnicy teorii podnoszą ręce wyżej. Na przykład jeden szeroko dyskutowany wynik z 2012 roku opublikowany w Nature Physics wykazał, że jeśli jeden eksperyment fizyczny może być przeprowadzony niezależnie od drugiego, to nie może być niepewności co do „prawidłowego” stanu kwantowego opisującego ten eksperyment. To. wszystkie stany kwantowe są „poprawne” i „poprawne”, z wyjątkiem tych, które są całkowicie „nierealne”, czyli: „niepoprawne” to stany takie jak te, w których prawdopodobieństwo wyrzucenia szóstki wynosi zero.

Inne badanie opublikowane w Physical Review Letters w 2014 r. przez Joannę Barrett i innych wykazało, że modelu Speckensa nie można zastosować do systemu, w którym każdy parametr ma trzy lub więcej stopni swobody — na przykład czerwony, niebieski i zielony dla kolorów oraz nie tylko „czerwony” i „niebieski” - bez naruszania przewidywań teorii kwantowej. Zwolennicy podejścia epistemicznego proponują eksperymenty, które mogą pokazać różnicę między przewidywaniami teorii kwantowej a przewidywaniami wynikającymi z dowolnego podejścia epistemicznego. W ten sposób wszystkie eksperymenty przeprowadzone w ramach podejścia epistemicznego mogłyby być w pewnym stopniu zgodne ze standardową teorią kwantową. W związku z tym nie można interpretować wszystkich stanów kwantowych jako epistemicznych, ponieważ stanów kwantowych jest więcej, a teorie epistemiczne obejmują tylko część teorii kwantowej, ponieważ dają wyniki inne niż kwantowe.

Czy te wyniki wykluczają pogląd, że stan kwantowy wskazuje na cechy naszego umysłu? Tak i nie. Argumenty przeciwko podejściu epistemicznemu to twierdzenia matematyczne, których dowodem jest konkretna struktura zastosowana do teorii fizycznych. Opracowany przez Speckensa jako sposób wyjaśnienia podejścia epistemicznego, ramy te zawierają kilka fundamentalnych założeń. Jednym z nich jest to, że świat jest zawsze w obiektywnym stanie fizycznym, niezależnie od naszej wiedzy o nim, który może, ale nie musi pokrywać się ze stanem kwantowym. Innym jest to, że teorie fizyczne tworzą przewidywania, które można przedstawić za pomocą standardowej teorii prawdopodobieństwa. Te założenia są spójne, ale to nie znaczy, że są poprawne. Wyniki pokazują, że w takim systemie nie może być wyników epistemicznych w tym samym sensie, co „teoria zabawek” Speckensa, o ile jest ona zgodna z teorią kwantową.

To, czy możesz położyć temu kres, zależy od Twojego poglądu na system. Tutaj opinie są różne.

Na przykład Owee Maroni, fizyk i filozof z Uniwersytetu Oksfordzkiego i jeden z autorów artykułu opublikowanego w 2014 roku w „Physical Review Letters”, powiedział w e-mailu, że „najbardziej prawdopodobne modele psi-epistemiczne” (tj. te, które mogą być zamontowane do systemu Speckens) są wykluczone. Również Matt Leifer, fizyk z University of Champagne, który napisał wiele artykułów na temat epistemicznego podejścia do stanów kwantowych, powiedział, że problem został zamknięty w 2012 roku – jeśli oczywiście zgodzisz się zaakceptować niezależność stanów początkowych (do czego skłania się Leifer).

Speckens jest bardziej czujny. Zgadza się, że wyniki te poważnie ograniczają zastosowanie podejścia epistemicznego do stanów kwantowych. Podkreśla jednak, że wyniki te są uzyskiwane w jego systemie, a jako twórca systemu wskazuje na jego ograniczenia, takie jak założenia dotyczące prawdopodobieństwa. Zatem epistemiczne podejście do stanów kwantowych pozostaje aktualne, ale jeśli tak, to musimy ponownie rozważyć podstawowe założenia teorii fizycznych, które wielu fizyków akceptuje bez wątpienia.

Niemniej jednak jasne jest, że poczyniono znaczne postępy w fundamentalnych kwestiach teorii kwantowej. Wielu fizyków ma tendencję do nazywania kwestii znaczenia stanu kwantowego jedynie interpretacją lub, co gorsza, filozofią, o ile nie muszą opracowywać nowego akceleratora cząstek ani ulepszać lasera. Nazywając problem „filozoficznym”, wydaje się, że wyjmujemy go z redystrybucji matematyki i fizyki eksperymentalnej.

Ale prace nad podejściem epistemicznym pokazują, że jest to nieuprawnione. Speckens i jego koledzy przekształcili interpretację stanów kwantowych w precyzyjną hipotezę, która została następnie wypełniona wynikami matematycznymi i eksperymentalnymi. Nie oznacza to, że samo podejście epistemiczne (bez matematyki i eksperymentów) jest martwe, oznacza to, że jego zwolennicy muszą stawiać nowe hipotezy. A to niezaprzeczalny postęp – zarówno dla naukowców, jak i dla filozofów.

James Owen Weatherall jest profesorem logiki i filozofii nauki na Uniwersytecie Irvine w Kalifornii. Jego najnowsza książka, Strange Physics of the Void, analizuje historię badań nad strukturą pustej przestrzeni w fizyce od XVII wieku do dnia dzisiejszego.