„Im lepiej rozumiemy Wszechświat – tym bardziej wydaje się on pozbawiony sensu.” - Steven Weinberg
Dotarliśmy poprzednio do najmniejszych cząstek budujących materię. Czas się zająć największym: całym Wszechświatem. Czy istniał zawsze, czy miał początek? Czy jest nieskończony? Czy jest niezmienny, czy ewoluuje?... Chociaż te pytania przez wieki należały do dziedziny religii i metafizyki, a w najlepszym wypadku, filozofii – obecnie odpowiedzi zaczyna udzielać nauka.
Wszechświat Kopernika i Galileusza nie był wiele większy od tego, który wyobrażali sobie starożytni. W ciągu ostatnich 150 lat rozszerzył się tak bardzo... powiedziałbym, że prawie tak, jak w pierwszej 10-33 sekundy swojego istnienia? Ale dla uzyskania pełnego obrazu, musimy się teraz cofnąć o ponad 200 lat.
Newton powiększył Wszechświat: przestrzeń aż do nieskończoności równomiernie wypełniona gwiazdami, niezmiennie trwająca w czasie. Wkrótce jednak zauważono, że dwa „szczegóły” psują ten wyidealizowany model:
– paradoksSeeligera (grawitacyjny) - w tej kwestii sam Newton nie zrozumiał do końca konsekwencji swojej teorii, więc nie przejmuj się, jeśli nie wiesz, o co chodzi?
– i paradoks Olbersa. Omówię ten drugi, gdyż jest łatwiejszy do wyjaśnienia (bez „katowania” wzorami): jeśli Wszechświat jest nieskończony i istnieje od nieskończonego czasu,to dlaczego w nocy niebo jest ciemne, skoro patrząc w każdym kierunku, patrzę na jakąś gwiazdę? Niebo powinno cały czas jaśnieć, jak tarcza Słońca. Skoro tak nie jest, to znaczy, że:
-
albo Wszechświat ma skończone wymiary przestrzenne, a więc zawiera skończoną liczbę gwiazd;
-
albo istnieje od skończonego czasu, (światło zbyt odległych gwiazd nie zdążyło jeszcze do nas dotrzeć);
-
albo jedno i drugie.
Wiadomo już było, że Słońce jest po prostu jedną z gwiazd – zupełnie przeciętnym żółtym karłem głównego ciągu – tyle, że najbliższą; i że układ słoneczny nie kończy się na Saturnie –
Pod koniec XVIIIw. Charles Messier zgromadził katalog zawierający 109 najjaśniejszych mgławic, później William Herschel wydał katalog 5000 mgławic. W roku 1845 William Parsons dzięki konstrukcji nowego teleskopu wyróżnił mgławice eliptyczne i spiralne. W XIXw. trwała dyskusja, czym one są. H. Shapley twierdził, mgławice spiralne są częścią naszej Galaktyki, która wypełnia cały Wszechświat. Postulował natomiast, że ma znacznie większe rozmiary, niż wtedy sądzono. H. Curtis bronił stanowiska, że są w one oddzielnymi galaktykami. Aż do czasów Edwina Hubble'a (lata 20. XXw.) spór ten pozostawał nierozstrzygnięty. Odkrycie cefeid pozwoliło mu na pomiar odległości, które okazały się znacznie większe, niż przypuszczano – i tak Droga Mleczna okazała się jedną z wielu galaktyk.
Odrębną kategorię stanowią natomiast tzw. mgławice planetarne (nazwa myląca, gdyż z planetami nie mają one nic wspólnego, ale się przyjęła), znajdujące się w obrębie naszej Galaktyki, które są międzygwiazdowymi obłokami gazu i pyłu powstałymi wskutek nagłej ekspansji zewnętrznych warstw gwiazdy, która wypaliła swoje paliwo jądrowe.
Początki kosmologii we współczesnym znaczeniu można określić na rok 1917, kiedy to Einstein próbował zastosować równania swojej ogólnej teorii względności do całego Wszechświata. Przyjmując jednorodność rozkładu materii i niezmienność w czasie,szukał rozwiązania, które by które by odpowiadało tym koncepcjom, a w szczególności nie zależało od czasu. Gdy okazało się, że takiego rozwiązania po prostu nie ma, wprowadził do równań dodatkowy człon Λ, który nazwał „stałą kosmologiczną”. Była to sztuczna, choć jedyna możliwa matematycznie poprawka, która nie prowadziła do załamania teorii. Dzięki niej mógł stworzyć model niezmiennego w czasie Wszechświata, skończonego, lecz nieograniczonego, w czasoprzestrzeni o zamkniętej krzywiźnie.
Jednak już kilka lat później wspomniany już tu E. Hubble odkrył zjawisko poczerwienienia galaktyk, co dowodziło ich wzajemnego oddalania się, a także wyznaczył zależność między odległością dzielącą galaktyki a prędkością ucieczki, znaną dziś jako prawo Hubble'a. Znaczyło to, że Wszechświat się rozszerza! Później Einstein nazwał stałą kosmologiczną swoją największą pomyłką... ale obserwacje ostatnich kilkunastu lat wskazują jednak na jej niezerową wartość?
Zainspirowany odkryciem Hubble'a, Georges Lemaître publikuje pracę o ucieczce galaktyk, wprowadzając hipotezę „pierwotnego atomu”; niezależnie Aleksander Friedmann znajduje rozwiązania równań OTW dla ekspandującego Wszechświata dla trzech krzywizn czasoprzestrzeni, zależnych od gęstości materii, określanej przez Friedmanna parametrem k (obecnie częściej używa się parametru Ω, określającego stosunek rzeczywistej gęstości materii do gęstości krytycznej):
-
k>0, Ω>1 – wypukłej (kulistej – Wszechświat „zamknięty”),
-
k=0,Ω=Ω0=1 – płaskiej (Wszechświat „płaski” – gęstość krytyczna),
-
k<0, Ω<1 - wklęsłej (hiperbolicznej – Wszechświat „otwarty”)
– są to, oczywiście, tylko trójwymiarowe analogie ułatwiające zrozumienie czterowymiarowej geometrii. Od jej kształtu zależy zarówno historia, jak i przyszłość Wszechświata, i do dziś trwają dyskusje na ten temat, chociaż większość astrofizyków preferuje model płaski. Jakakolwiek jest rzeczywista wartość Ω, oznacza to, że Wszechświat miał początek i W 1948 George Gamow, wraz z Ralphem Alpherem i Robertem Hermanem sformułowali teorię „gorącego początku”. Zakładała, iż ekspansja rozpoczęła się od stanu o niewyobrażalnie wielkiej gęstości, ciśnieniu i temperaturze. Pierwotnie materia składała się wyłącznie z neutronów, a jądra wszystkich pierwiastków powstały w procesach termojądrowych zaraz po rozpoczęciu ekspansji. Ostatnie twierdzenie okazało się błędne: na skutek ekspansji pierwotna nukleosynteza zatrzymała się właściwie na etapie helu i minimalnej ilości litu – cięższe pierwiastki powstają dopiero wewnątrz gwiazd. Poprawnie natomiast przewidywała istnienie promieniowania reliktowego.
Niektórym uczonym nie odpowiadała koncepcja, że Wszechświat miał początek, a zwłaszcza istnienia „pierwotnej osobliwości” – stanu, w którym załamują się znane prawa fizyki. Określenie „Wielki Wybuch” zostało wymyślone przez Hoyle'a i miało mieć charakter prześmiewczy (oryginalnie: „Big Bang” brzmiało jeszcze bardziej sarkastycznie: można by to przetłumaczyć jako „Wielkie Bum”). Fred Hoyle, Thomas Gold oraz Hermann Bondi proponują alternatywną teorię stanu stacjonarnego, nie będącą w sprzeczności z niekwestionowanym już faktem ekspansji. Aby ten warunek został spełniony, musiałoby dochodzić do ciągłej kreacji nowej materii. Obliczono, że dla zrekompensowania ekspansji wystarczyłaby kreacja jeden atom na 1dm3 na 5x1011 lat. Pomimo, iż narusza to zasadę zachowania energii, do lat 60. model ten miał wielu zwolenników. Ostateczny cios teorii stanu stacjonarnego zadało odkrycie promieniowania tła (CMB – cosmic microwave background).
Odkrycie CMB, chociaż przewidziane przez teorię, jest typowym przykładem roli przypadku w nauce. W 1965 roku Arno Penzias i Robert Wilson, podczas prób anteny przeznaczonej do zupelnie innych celów, rejestrują jednorodny sygnał mikrofalowy o długości fali ok. 3cm, odpowiadający temperaturze 3K, docierający z każdego kierunku. Początkowo uznali to za zakłócenia, nie mogli jednak ustalić ich przyczyny. Okazało się, że zarejestrowali promieniowanie, którego istnienie i charakterystykę przewidział Gamow, a później, niezależnie, J. Zeldowicz i R. Dicke. To był koronny dowód na poprawność założeń Wielkiego Wybuchu.
Wielki Wybuch (Big Bang) czasem jest nazywany „modelem standardowym kosmologii”. Istotnie, jego znaczenie jest takie, jak tego ostatniego dla fizyki cząstek. Zanim jednak przejdziemy do konkretów, warto by rozprawić się z popularnymi błędnymi wyobrażeniami, które narosły wokół tej teorii:
-
„Skoro wszystko oddala się od nas, czy to znaczy, że znajdujemy się w środku Wszechświata”?
Wszechświat w makroskali jest jednorodny (taki sam w każdym obszarze) i izotropowy (taki sam w każdym kierunku). Oznacza to, że obserwator z Syriusza, galaktyki Andromedy, czy z najodleglejszego kwazara widziałby to samo: że wszystko oddala się od niego. Nie istnieje żaden „środek”! -
„...ale przecież środek musi znajdować się w miejscu, gdzie ów Wielki Wybuch nastąpił”?
Jak wspominałem, nazywanie początku Wszechświata „wybuchem”, choćby i „wielkim”, jest nieco mylące (nazwa pierwotnie miała zdyskredytować tę teorię, jednak niestety, się przyjęła). Wybuch, czy to granatu, czy bomby atomowej, czy supernowej – następuje w określonym miejscu w przestrzeni – i energia wyzwolona w wybuchu rozrzuca jego produkty, w pewnym promieniu od „punktu zero”, w tejże przestrzeni. „Wielki Wybuch” oznacza moment powstania przestrzeni – a właściwie czasoprzestrzeni! Ekspansja Wszechświata nie polega więc na ruchu galaktyk w przestrzeni, tylko na rozszerzaniu się samej przestrzeni! Przypomnę tu wielokrotnie powtarzany przykład z z nadmuchiwaniem balonu z narysowanymi na jego powierzchni kropkami: każde dowolne dwie kropki oddalają się od siebie i od wszystkich pozostałych, i to tym szybciej, im większa odległość je dzieli (weź balon i sprawdź!). A środka powierzchni balonu nie ma nigdzie. Oczywiście, to tylko dwuwymiarowa analogia, ale dobrze ilustruje zarówno prawo Hubble'a, jak i fakt, że nie istnieje ani „środek” – ani (prawdopodobnie) „brzeg”!
Jeśli więc ktoś pyta: „gdzie nastąpił ów Big Bang?” – możesz odpowiedzieć: „dokładnie tu, gdzie teraz stoisz”. I tu, gdzie ja siedzę, jak również w dowolnym innym miejscu.
-
„Przecież ani planety w układzie słonecznym, ani gwiazdy w galaktyce nie uciekają od siebie? A galaktyka w Andromedzie zbliża się do nas: za 2 – 3 mld lat nie unikniemy kolizji!”
W skali galaktyki, gromady, a nawet prawdopodobnie supergromady galaktyk, ze względu na skupienie masy, grawitacja przeważa nad ekspansją. Dopiero w skali od kilku megaparseków (~1024m) dominuje jednorodność i rozszerzanie przestrzeni przeważa nad lokalnymi ruchami grawitacyjnymi.
-
„Skoro miał miejsce początek – to co było przedtem?”...?
Jak dzięki Einsteinowi wiadomo, czas i przestrzeń są ze sobą nierozerwalnie związane. Wielki Wybuch oznacza więc nie tylko powstanie przestrzeni, ale i początek czasu. A pojęcia „przedtem” i „potem” mają sens tylko w czasie! Nawet gdyby poprawna była hipoteza cyklicznego Wszechświata (do jej zwolenników zalicza się m.in. R. Penrose) – to wszelka informacja z „poprzedniego cyklu” została zniszczona przy przejściu przez fazę osobliwości („piany kwantowej” w terminologii Penrose'a), a więc dla nas na zawsze niedostępna. Dlatego to pytanie jest bardziej filozoficzne niż fizyczne. Trafnie ujął to S. Hawking: „Pytać, co było przed Wielkim Wybuchem – to jakby pytać, co jest na północ od bieguna północnego.”.
W klasycznym modelu Wielkiego Wybuchu historia Wszechświata zaczyna się od tzw. „osobliwości”: stanu o zerowej objętości i nieskończenie wielkiej gęstości i temperaturze. I tak teoria załamuje się na samym początku! – nieskończoności niemal zawsze oznaczają błąd. Na razie zaczniemy więc od 10-10 sekundy po, kiedy już zaczynają obowiązywać znane prawa fizyki [pod koniec spróbuję podać stan obecnej wiedzy na temat pierwszych ułamków sekund]. Energia jest rzędu skali oddziaływań słabych (100GeV co odpowiada temperaturze ~1015K); przestrzeń wypełnia wysokoenergetyczne promieniowanie, zachodzi nieustanna kreacja i anihilacja cząstek i antycząstek. Z niewyjaśnionych do końca powodów liczba barionowa pozostaje niezerowa – dzięki tej niewielkiej nadwyżce materii nad antymaterią, w ogóle istnieje materia barionowa – czyli to wszystko, co widać. Materia ma formę plazmy kwarkowo-gluonowej; w czasie 10-4s, kiedy temperatura spada do 200MeV, kwarki łączą się w hadrony. Istnieją już wszystkie cztery podstawowe siły. Około pierwszej sekundy ustala się stosunek protonów do neutronów, a elektrony i pozytony ulegają ciągłej anihilacji i kreacji. Po ~100s temperatura spada na tyle (0,1MeV), że możliwe staje się łączenie protonów z neutronami, a więc tworzenie jąder atomowych. Rozpoczyna się tzw. pierwotna nukleosynteza. Wbrew pierwszej koncepcji Gamowa, ekspansja i ochładzanie Wszechświata zatrzymało ją po niecałych trzech minutach. Zdążyły powstać tylko jądra deuteru, helu i minimalne ilości litu i boru. Ponadto, pierwotną nukleosyntezę ograniczyła niestabilność jąder o liczbie masowej 5 i 8. Obserwowane proporcje pierwiastków doskonale pasują do teoretycznego modelu.
Wszystkie pozostałe pierwiastki powstały dużo później, w reakcjach termojądrowych w gwiazdach; a cięższe od żelaza, które ma największą energię wiązania na nukleon, głównie w wysokoenergetycznych zjawiskach, takich jak wybuchy supernowych. Ewolucja gwiazd mogłaby być tematem na oddzielny artykuł... a na razie wróćmy do początków.
W najwcześniejszym okresie większą część masy Wszechświata pochodziła z energii promieniowania. Na 1010 fotonów przypadało zaledwie kilka barionów. Po ok. 10 tysiącach lat (temp. 3eV = 3x104K), materia już daje dominujący wkład do gęstości, chociaż stosunek ilości fotonów do barionów pozostał niezmieniony i taki jest do chwili obecnej. Natomiast energia promieniowania spadała szybciej, niż materii. Gdy temperatura spada do 500eV, promieniowanie odłącza się od materii.
Ale przestrzeń wciąż jest nieprzezroczysta dla fotonów: energia wciąż jest zbyt wysoka, żeby elektrony mogły trwale związać się z jądrami. Fotony ulegają rozproszeniu na zjonizowanej materii w stanie plazmy. Dopiero po 375000 lat (w skali Wszechświata to i tak „okres niemowlęcy”) temperatura spada do ~3000K, co umożliwia tworzenie obojętnych atomów – tzw. rekombinacja. Obojętne atomy słabo oddziałują z promieniowaniem: przestrzeń staje się „przezroczysta” – i w tym momencie zostaje wyemitowane to, co dziś rejestrujemy jako promieniowanie reliktowe (CMB). W chwili jego emisji Wszechświat był tysiąc razy mniejszy, niż obecnie, miał więc tyle samo wyższą temperaturę – dlatego rejestrujemy dziś promieniowanie o temperaturze niecałych 3K (-270oC), z maksimum w pasmie mikrofal. To promieniowanie jest niezwykle jednorodne. Ta jednorodność mogłaby stanowić problem: skąd w takim razie wzięły się takie struktury, jak galaktyki, gromady i supergromady? Na szczęście – satelita COBE (Cosmic Background Explorer) wykrył minimalne fluktuacje temperatury tego promieniowania: rzędu 10-5K. Kolejne satelity – WMAP i PLANCK – dokonały pomiarów z o wiele większą rozdzielczością. Te minimalne różnice gęstości widoczne w obrazie promieniowania tła były zalążkami wszystkich kosmicznych struktur. Resztę załatwiła grawitacja.
Obraz fluktuacji promieniowania reliktowego
wg.pomiarów satelity PLANCK
Następne około miliarda lat określa się jako „ciemne wieki”. Oj, znów te irytujące „poetyckie” nazwy... ale fakt, musiało wtedy być ciemno, zanim powstały pierwsze galaktyki, a w nich chmury wodoru które dały początek gwiazdom. Wiek najstarszych gwiazd szacuje się na ok. 12 miliardów lat. Wobec wieku Wszechświata 13,8 miliarda pierwsze gwiazdy, według aktualnych danych, musiały zaświecić około 550 mln lat po rekombinacji.
Nasze Słońce musi być gwiazdą drugiej, a najprawdopodobniej trzeciej generacji. O czym świadczy to, że istniejemy, i składamy się – oprócz wodoru – z takich elementów, jak węgiel, tlen, azot, fosfor, siarka. Nasza planeta to tlen, krzem, glin, wapń, magnez, żelazo... a szczęściarzom czasami udaje się znaleźć okruchy złota. Wszystkie te pierwiastki mogły powstać tylko w dawno umarłych gwiazdach. Tym razem sam pozwolę sobie na odrobinę „poetyckiego” języka: powstaliśmy z gwiezdnego popiołu... A mówiąc bardziej konkretnie: z gwiezdnych odpadów termojądrowych.
Pozostaje jednak kilka pytań...
-
Problem początkowej osobliwości. Przez tą „zmorę” już niejedna piękna teoria się załamała...
-
Kwestia płaskości. Wszystko wskazuje na to, iż geometria Wszechświata jest w bardzo dokładnym przybliżeniu płaska (Ω ≈ 1).
-
Problem horyzontu: obserwowalny Wszechświat ma promień ~45 miliardów lat świetlnych. Istnieje wprawdzie od 13,8 miliarda lat, ale ekspansja spowodowała, że najdawniejsze struktury jakie możemy zobaczyć odsunęły się na tę odległość. W jaki więc sposób obszary, które nigdy nie były ze sobą w kontakcie, wykazują taką jednorodność?
-
Minimalne niejednorodności widoczne w obrazie promieniowania tła łatwo wyjaśnić fluktuacjami kwantowymi wczesnego Wszechświata. Jak to się jednak stało, że nie „rozmyły” się wskutek ciśnienia promieniowania, w fazie kiedy efekty kwantowe przestały już być istotne? Wprawdzie przed chwilą pisałem: „resztę załatwiła grawitacja” – ale żeby tak się stało, musi istnieć coś, co oddziałuje grawitacyjnie.
-
Zacznijmy od kwestii geometrii. Pomiary promieniowania reliktowego potwierdzają hipotezę płaskości Wszechświata z dokładnością do 1%.
Gęstość obliczona na podstawie ilości świecącej materii, czyli gwiazd, to zaledwie 0,005Ω0 Gdyby istniała tylko widoczna materia (Ω0<<1), to Wszechświat rozszerzałby się tak szybko, że pierwotne zaburzenia nie zdążyłyby się rozrosnąć w żadne struktury. Gdzie jest reszta masy? Znamy wprawdzie sporo nieświecących obiektów, począwszy od gazów, pyłów i różnego rodzaju kosmicznego gruzu, jak asteroidy i komety, poprzez planety i gwiezdne „niewypały” zwane brązowymi karłami, po gwiazdy neutronowe i czarne dziury... ale i to daje zaledwie 0,04 – 0,05Ω0. Do takiego samego wniosku odnośnie ilości barionów prowadzi także pomiar proporcji produktów pierwotnej nukleosyntezy – szczególnie ilość deuteru, który w całości mógł powstać tylko w tym procesie, jako że w gwiazdach jest niszczony, a także litu. Brakująca masa nie może więc być zbudowana z barionów!
Już w latach 30. Fritz Zwicky, a następnie Sinclair Smith, obserwując ruch galaktyk w gromadach, zauważyli, że oddziaływanie grawitacyjne jedynie widzialnej materii nie wystarcza do wyjaśnienia ich trajektorii. Masy świecące gromad okazywały się wielokrotnie mniejsze od ich mas grawitacyjnych. Zwicky wysunął więc hipotezę, w której nadwyżkę masy przypisał nieznanej, materii, która nie świeci, ale oddziałuje grawitacyjnie. Wyniki te były jednak poddawane w wątpliwość.
Przełomu dokonali Vera Rubin i Kent Ford, badając w latach 70. krzywe rotacji galaktyk. Prędkość gwiazd na obrzeżach galaktyki przeczyła prawom Keplera: poruszały się raczej jak sztywne koło niż zbiorowisko poszczególnych gwiazd Wskazywało to na dodatkową masę, nawet dziesięciokrotnie przewyższającą masę wszystkich gwiazd. W dodatku, nie była ona skupiona w centrum, ale tworzyła „halo” o średnicy kilkakrotnie większej od widocznej galaktyki.
Krzywe rotacji typowej galaktyki spiralnej:
A - przewidywana; B - zmierzona
Tą niewidoczną, ale niewątpliwie istniejącą masę nazwano ciemną materią. Kolejna niezbyt precyzyjna, choć chwytliwa nazwa: jeśli coś jest ciemne to znaczy, że pochłania światło. Gdyby tak było, dałoby się wykryć tradycyjnymi metodami. Tymczasem to „to coś” w ogóle nie oddziałuje ze światłem. Lepszym określeniem byłoby więc „przezroczysta materia”! Ale dla porządku dalej będę używał tradycyjnej nazwy.
Tylko jak zbadać coś, co jest niewidzialne? Wiadomo, że jest. Wywiera wpływ grawitacyjny, co znaczy ma energię = masę. I nie jest zbudowane z barionów, jak cała znana nam materia. Co to więc jest? Pierwszym kandydatem były neutrina, o ile w ogóle mają masę (w r. 2015 dowiedziono w końcu, że jednak tak). Ich masa jest wprawdzie znikoma (najwyżej rzędu 10-6 masy elektronu), ale ich liczba wskazuje, że mogą wnosić istotny wkład do masy Wszechświata. No i przynajmniej wiadomo, że istnieją. W tej chwili przenikają przez ciebie miliardy neutrin! – głównie pochodzących ze Słońca. Ale neutrinowa ciemna materia (HDM – „gorąca”, ponieważ składają się na nią cząstki o wielkiej prędkości) niezbyt pasuje do obrazu fluktuacji promieniowania tła. Trzeba było szukać cięższych kandydatów (CDM – „zimna” ciemna materia). Żadna ze znanych cząstek nie spełnia wymaganych parametrów. Hipotetyczne cząstki nazwano ogólnie WIMP-ami (Weakly Interacting Massive Particles), ale nikt jeszcze nie dowiódł istnienia żadnej z nich. Czym w rzeczywistości jest ciemna materia? Najbardziej obiecującymi kandydatami są cząstki supersymetryczne – jeżeli istnieją, być może zostaną wkrótce odkryte w LHC, gdyż najlżejsze z nich powinny być w zasięgu energii tego akceleratora.
Istnieje oczywiście kilka hipotez alternatywnych – jak zmodyfikowana dynamika newtonowska czy plazmowa kosmologia – te jednak budzą jeszcze więcej wątpliwości. To, co widzimy – to zaledwie przysłowiowy „wierzchołek góry lodowej”. Z drugiej strony, koncepcja ciemnej materii nie jest aż tak bardzo niezwykła: bo właściwie dlaczego mielibyśmy zakładać, że cała materia musi oddziaływać ze światłem?
Jednak problem płaskości nadal nie jest rozwiązany: cała materia, barionowa + „ciemna” daje zaledwie 0,32Ω0 (wg najnowszych danych z satelity PLANCK – wcześniej uważano, że zaledwie 0,27Ω0). Czym jest pozostałe 68%?
Dlatego teraz cofniemy się NIEMAL do samego początku, który uprzednio celowo został pominięty: do niewyobrażalnie krótkiego czasu 10-43s – jednej dziesięciomilionowej jednej trylionowej jednej trylionowej części sekundy. Wówczas, w prawdopodobnie dziesięcio- lub jedenastowymiarowej(?) czasoprzestrzeni – o średnicy 10-35m, przy energii 1019GeV, temperaturze 1032K i gęstości 1096kg/m3 – wszystkie cztery oddziaływania są tym samym. Jest to tak zwany 'czas Plancka'. Pozostałe wartości nazywamy odpowiednio: długością, energią, temperaturą i gęstością Plancka. Nie są one dobrane arbitralnie; są to jednostki wynikające z podstawowych stałych fizycznych: prędkości światła c, stałej Plancka h i stałej grawitacji G, dlatego nazywa się je również jednostkami naturalnymi. Być może pełniejsze zrozumienie skali Plancka pomoże uniknąć problemu osobliwości, ale jeszcze długo pozostanie tylko w sferze teoretycznych rozważań. Energie z nią związane pozostają daleko poza zasięgiem najpotężniejszych możliwych do wyobrażenia akceleratorów. Jednak niektóre oszałamiająco skomplikowane formuły matematyczne, opracowane przez teoretyków, wskazują przynajmniej, czego należy szukać...
Niektórzy nazywają ten moment obrazowo „murem Plancka”, gdyż nie potrafimy nic powiedzieć na temat tego, co się działo „przedtem” – o ile w ogóle można użyć tego określenia. Przynajmniej, dopóki nie istnieje pełna teoria kwantowej grawitacji. Obecnie grawitacja jest bardzo słabym oddziaływaniem, rzędu 1036 razy słabszym od elektromagnetyzmu, ale wówczas, kiedy oddzielała się od oddziaływań elektrojądrowych, jej skala była porównywalna.
Najistotniejsze zjawisko zaszło w czasie rzędu 10-35 – 10 -33 s, przy energiach rzędu 1016 GeV, kiedy nastąpiło złamanie symetrii elektrojądrowej. Pod koniec 1979 r. Alan Guth, szukając rozwiązania zupełnie innego problemu (związanego z kosmologicznymi implikacjami teorii wielkiej unifikacji), przedstawił hipotezę, którą nazwał kosmiczną inflacją. Podstawowe założenie jest łatwe do zrozumienia, przynajmniej dla kogoś, kto rozumie wzrost wykładniczy. Ciąg x=2n wygląda tak: 1-2-4-8-16-32-64-128-256-512-1024-2048-4096-8192-(...) …a to dopiero pierwsze 14 wyrazów ciągu! Pierwotny Wszechświat rozszerzył się w ciągu tych ułamków sekund o co najmniej 90 takich kroków, co daje wzrost promienia rzędu 1027 razy.
Mechanizm tego zjawiska jest dość złożony: przy złamaniu symetrii między oddziaływaniami pola skalarne przeszły w stan tzw. fałszywej próżni. Ma ona specyficzne właściwości: wytwarza ujemne ciśnienie i jej gęstość nie ulega zmianie w trakcie rozszerzania. Brzmi to może nieco abstrakcyjnie, ale jest zupełnie zrozumiałe na gruncie znanych praw fizycznych. Każda forma energii oddziałuje grawitacyjnie, także ciśnienie. W zwykłych okolicznościach wkład ciśnienia jest pomijalny, ale przy bardzo wysokich gęstościach może stać się dominujący. Poprzez ten sam mechanizm, który powoduje, że dodatnie ciśnienie jest źródłem przyciągania grawitacyjnego, ujemne ciśnienie tworzy siłę odpychającą. Przy ekstremalnie wysokich naprężeniach nic nie jest w stanie zrównoważyć grawitacji. Wówczas, w przypadku dodatniego ciśnienia powstaje czarna dziura, przy ciśnieniu ujemnym następuje wykładnicza ekspansja.
Trudniejsza do wytłumaczenia jest druga właściwość. Jeśli określona ilość zwykłej materii (tak samo i promieniowania) ulega rozszerzeniu, jej gęstość maleje. Niezmienna gęstość rozszerzającej się fałszywej próżni sprawia wrażenie kreacji z niczego? Jednak nie dochodzi tu do złamania zasady zachowania energii, ponieważ energia pola grawitacyjnego jest ujemna. Łatwo to zrozumieć poprzez fakt, że aby wyrwać obiekt z tego pola, trzeba mu dostarczyć energii (rakieta kosmiczna najwięcej paliwa zużywa przecież na osiągnięcie prędkości ucieczki, w słabym zresztą polu grawitacyjnym Ziemi). Dodatnią energię ekspandującej fałszywej próżni, kosztem której powstanie następnie materia i promieniowanie, równoważy więc ujemna energia grawitacyjna. Bilans wychodzi więc – prawie – na zero. Prawie, gdyż do zapoczątkowania tego procesu potrzeby był maleńki bąbel wzbudzonej fałszywej próżni.
Prawdziwym problemem jest nie to, jak inflacja się zaczęła i czy rzeczywiście miała miejsce – ale jak i dlaczego się zakończyła?
Stan fałszywej próżni określa się jako metastabilny. Spośród znanych zjawisk dobrym porównaniem jest stan przechłodzonej cieczy. Bardzo czystą wodę można ochłodzić do temperatury znacznie niższej od zera Celsjusza, nie powodując jej zamarzania. Wystarczy jednak drobne zanieczyszczenie, by cała jej objętość niemal natychmiast zamieniła się w lód. Analogiczne przejście fazowe zakończyło inflację: fałszywa próżnia przeszła w „prawdziwą” próżnię, a kosztem jej energii powstała cała materia we Wszechświecie. Dopiero od tego momentu opisywany wcześniej klasyczny model Wielkiego Wybuchu działa poprawnie. Problemem jest natomiast, w jaki sposób dokładnie nastąpiło to przejście fazowe – tak, by powstał Wszechświat który rzeczywiście istnieje. Ta kwestia do dziś jest otwarta. Jedną z lepszych hipotez sformułował Andriej Linde, opisując charakterystykę pola skalarnego umożliwiającą łagodne wyjście z fazy inflacji. Na tej podstawie wysnuł jednak abstrakcyjne wnioski, prowadzące do jednej z form nieweryfikowalnej koncepcji „multiwszechświata”, co może zniechęcać bardziej pragmatycznie nastawionych badaczy...
Teoria kosmicznej inflacji do tej pory niektórym wydaje się zbędną komplikacją w prostej i eleganckiej teorii Wielkiego Wybuchu. Odpowiada jednak na wiele pytań (m.in. wymienionych powyżej), które w standardowym modelu pozostają niewyjaśnione.
Problem płaskości rozwiązuje się sam. Jakakolwiek byłaby byłaby geometria Wszechświata przed inflacją, tak gigantyczne rozciągniecie przestrzeni musiało spowodować, że każdy jego obserwowalny fragment musi być z ogromną dokładnością płaski. Bez inflacji osiągnięcie obserwowanego stanu wymagałoby warunku brzegowego początkowej wartości Ω=1 z dokładnością do kilkunastu miejsc po przecinku!
Dokładniejszego wyjaśnienia wymaga problem horyzontu. Ponieważ Wszechświat istnieje od 13,8 miliardów lat, a nic nie może poruszać się z prędkością większą od światła, najdalsze obserwowalne obiekty to te, które wyemitowały światło nie dawniej, niż w tym czasie. Uwzględniając ekspansję Wszechświata, obecnie są one oddalone od nas o ok. 45mld lat świetlnych. Żaden teleskop nie pozwoli nam zobaczyć odleglejszych obiektów, gdyż żaden sygnał od nich po prostu jeszcze do nas nie dotarł – dlatego nazywamy to „horyzontem”. Ale te najdalsze obszary po przeciwnych stronach względem nas są oddalone od siebie o dwukrotnie większą odległość. Nie mogły więc dotąd być w jakimkolwiek kontakcie ze sobą?
...No i co z tego...? A to, że jest to sprzeczne z charakterystyką promieniowania reliktowego! Celowo nie wspomniałem dotychczas o jeszcze jednej jego własności: oprócz jednorodności z dokładnością do 10-5K, jego widmo dokładnie odpowiada widmu promieniowania ciała doskonale czarnego (rozkład Plancka, o którym pisałem w cz.II). Taki rozkład powstaje tylko w warunkach równowagi termodynamicznej, a to wymaga, żeby wszystkie te obszary kiedyś oddziaływały wzajemnie ze sobą. Pozornie inflacja tylko potęguje problem, zwiększając rozmiary Wszechświata biliony razy... tylko, że w epoce przedinflacyjnej były one skupione w obszarze porównywalnym z długością Plancka, więc kontakt zachodził w czasie rzędu 10-43sekundy!
Dociekliwy czytelnik może tu zadać pytanie: „Przecież nic nie porusza się szybciej od światła – a z tego wynika, że w fazie inflacji ekspansja musiała być wielokrotnie szybsza?”
Tak! Nic nie porusza się szybciej niż światło względem dowolnego układu odniesienia w przestrzeni (niezmienniczość względem transformacji Lorentza). Nie ma jednak takich ograniczeń, co do samej przestrzeni! Nie zachodzi więc tu sprzeczność z teorią względności.
Kolejna kwestia, to te minimalne niejednorodności, obserwowane w promieniowaniu tła, które stały się zaczątkami wszystkich kosmicznych struktur. Czy tak szybka ekspansja nie powinna ich zniwelować? Otóż przeciwnie. Owe niejednorodności początkowo miały charakter fluktuacji kwantowych, a te miały znaczenie, gdy przestrzeń miała rozmiary subatomowe. Inflacja je utrwaliła, błyskawicznie rozdymając Wszechświat do rozmiarów makroskopowych, gdzie efekty kwantowe przestają być istotne. Fluktuacje zostały niejako „zamrożone”, a prawdopodobnie jeszcze wzmocnione przez niejednoczesne wyjście z fazy inflacyjnej.
Odrębną kwestią jest, dlaczego nie zostały rozmyte przez oddziaływanie z promieniowaniem w późniejszej epoce, przed rekombinacją. Tu wyjaśnieniem są skupiska ciemnej materii, która, jak wiadomo, z promieniowaniem nie oddziałuje w ogóle lub bardzo słabo.
Być może inflacja pozwoli nawet pozbyć się problemu początkowej osobliwości. Model inflacyjny nie wymaga, by cała energia Wszechświata na początku była skupiona w jednym punkcie o nieskończonej gęstości. Wystarczy bąbel fałszywej próżni o rozmiarach i gęstości Plancka. Wprawdzie 1096kg/m3 to gęstość gigantyczna, ale jednak skończona (początek inflacji nastąpił już przy nieco mniejszej gęstości, rzędu 1080, już po oddzieleniu grawitacji), podobnie 10-35m to wielkość niewyobrażalnie mała – ale nie zerowa.
Pozostaje jeszcze pytanie, skąd wziął się ten bąbel?... jeśli istotnie miał parametry rzędu wielkości Plancka, mógł powstać w efekcie kwantowej fluktuacji? Wówczas możnaby istotnie powiedzieć, że wszystko powstało z niczego?
Na koniec pozostawiłem kwestię owych brakujących 68% energii. Tu również pośrednio wskazuje się na mechanizm podobny do inflacji. Klasyczny model Wielkiego Wybuchu zakłada, że ekspansja Wszechświata zwalnia, hamowana przez grawitację. Niedawne badania, oparte o pomiary jasności odległych supernowych typu Ia (specyficzny rodzaj podobnej jasności absolutnej, co umożliwia użycie ich w charakterze świec standardowych) wykazują, że ostatnio ekspansja znowu przyspiesza!
Czyżby powrót stałej kosmologicznej Einsteina? W pewnym sensie tak, jednak już nie jako arbitralny człon w równaniu matematycznym. Próżnia zawiera energię pochodzącą z fluktuacji kwantowych. I ta energia, nazwana „ciemną” – zapewne przez analogię do „ciemnej materii” – ma podobne właściwości do energii fałszywej próżni: wywiera ujemne ciśnienie, a więc działa grawitacyjnie odpychająco, i jej gęstość nie zmienia się w miarę ekspansji. Oczywiście, jej jest nieporównanie mniejsza, niż w epoce inflacji. We wcześniejszych epokach, gdy gęstość materii we Wszechświecie była większa, przyciągająca grawitacja przeważała. Ponieważ jednak gęstość energii próżni pozostaje stała, a gęstość materii – zarówno barionowej, jak i ciemnej – spada w miarę ekspansji, ta pierwsza zyskuje przewagę. Znaczy to, że obecna próżnia również jest do pewnego stopnia „fałszywa”... Początkowo jej obecny wkład do energii Wszechświata był szacowany na 73%, dokładniejsze pomiary satelity PLANCK wykazały wartość nieco mniejszą: 68% (wobec 27% ciemnej materii i 5% materii barionowej).
Jest jeszcze jeden problem: obliczono, że fluktuacje kwantowe znanych pól powinny dawać wkład do ciemnej energii, o 120 rzędów wielkości(!) większy niż jej obserwowana gęstość. Skąd tak ogromna niezgodność...?
Wiele pytań wciąż pozostaje...
Einstein powiedział kiedyś, że „najbardziej niepojętą cechą Wszechświata jest fakt, iż można go pojąć”. Coraz lepiej rozumiemy, że nie został "stworzony dla nas". Żyjemy na przeciętnej planecie, krążącej wokół przeciętnej gwiazdy na skraju typowej, jednej z co najmniej kilkuset miliardów galaktyk. Nawet materia, z której jesteśmy zbudowani, stanowi tylko mały ułamek całej energii kosmosu... Jakże prawdziwie w tym kontekście brzmią słowa Stevena Weinberga:
„Im lepiej rozumiemy Wszechświat – tym bardziej wydaje się on pozbawiony sensu.”
Jednak naukowa rzetelność wymaga zaakceptowania rzeczywistości takiej, jaka jest.