Nature">
Biografía Del Universo 2.0
Biografía Del Universo 2.0
Biografía Del Universo 2.0
2022
Biografía del Universo
1
Ampliado a partir de las series “Biografía del Universo” y “El
destino del Universo” editadas en el blog “El Cedazo”.
(https://eltamiz.com/elcedazo/biografia-del-universo/)
(https://eltamiz.com/elcedazo/series/el-destino-del-universo/)
(https://www.flickr.com/photos/nasawebbtelescope/52210366419/in/album-
72177720300469752/)
• Al reutilizar o distribuir la obra, tiene que dejar bien claros los términos de
licencia de esta obra.
• Nada en esta licencia menoscaba o restringe los derechos morales del autor.
2
ÍNDICE
Prólogo 5
00. Encuadre 11
01. Introducción a una historia real 17
02. Momento cero 25
03. Las edades de Planck 42
04. Inflando el Universo I 58
05. Inflando el Universo II 71
06. ¡Qué grande es la inflación! 87
07. De materia y antimateria I 112
08. De materia y antimateria II 122
09. Un puré con mucha radiación 132
10. La liberación de la fuerza débil I 143
11. La liberación de la fuerza débil II 153
12. Los hadrones 161
13. La nucleosíntesis I 174
14. La nucleosíntesis II 182
15. La sinfonía del Universo I 194
16. La sinfonía del Universo II 208
17. El big flash 216
18. Lo que nos enseña la radiación de fondo I 230
19. Lo que nos enseña la radiación de fondo II 244
20. La materia entra en faena 255
21. La era de la gran oscuridad 267
22. De la oscuridad a la luz 287
23. Con las gafas de las simulaciones 308
24. Mirando en el campo profundo 327
25. Las distancias en el Universo 344
26. La reionización 355
27. La época de los cuásares 382
28. Recordando a la tríada constituyente 398
3
29. Un Universo de galaxias 406
30. La fiesta continúa en las estrellas 436
31. De estrellas y agujeros negros 452
32. La senda de las estrellas 478
33. La estructura del Universo 492
34. Y a partir de ahora ¿qué? 509
35. Alternativas de futuro 523
36. En el camino de la muerte térmica 542
37. Inevitable 553
38. Hacia el infinito 562
39. Epílogo 576
4
Biografía del Universo. Prólogo.
6
cierto lo que leí a mi admirado neurólogo y divulgador Joseph
LeDoux: "La mejor manera de darse cuenta de lo que uno sabe -y de
lo que no sabe- acerca de su campo de conocimiento es escribir
acerca de él." Años en los que la obra la vi crecer sola e
independiente, casi como si ella misma quisiera escribirse sin
necesidad de mi presencia. Lo que se dice toda una aventura.
Los textos van acompañados de figuras, dibujos e imágenes, aquellas
que he creído que iban a facilitar mejor su comprensión. Unas son de
confección mía particular, otras las recojo con su licencia de uso y
otras cuyo uso cualifico como de “ fair use”, uso justo, y que no deja
de ser otra forma de decir a sus propietarios intelectuales cuán útiles
las encuentro y que no van a ser utilizadas para propósitos
comerciales.
Con la experiencia obtenida al vivir las otras series, el enfoque último
lo tenía en la cabeza: [i] aprender de una historia que debía ser hilada
y coherente; [ii] divulgarla a través de una plataforma cuyo útil
principio fundacional dice así como que “un buen entendimiento
necesita de la ayuda de una buena simplificación”, lo que permitía a
mi formación ingenieril ponerse a tiro de la obra que me proponía; y
[iii] esperar la lluvia enriquecedora de los comentarios de los lectores
del blog, absolutamente necesarios. Y así surgió otro de mis
cuadernos de viaje, que se fue haciendo público a lo largo de la serie
homónima del blog “El Cedazo”.
La idea es muy simple: Partiendo de lo que suponemos es nuestra
mejor hipótesis para el inicio del Universo, el Big Bang, llegar a la
comprensión de cómo surgieron sus componentes básicos, ampliar el
zum hacia las estructuras del Universo que observamos a nuestro
alrededor, para acabar la imagen con las previsiones de la evolución
hasta el infinito de los tiempos. Éste puede ser un posible sucinto
guion:
El momento cero
El hipotético escenario del Universo en las edades de Planck,
cuando la gran unificación de las fuerzas fundamentales
El hecho de la inicial inflación exponencial del espacio/tiempo
7
Cómo surge la radiación y la materia
El puré del plasma materia-antimateria de la época electrodébil
Las partículas elementales en el plasma quark-gluon
Higgs haciendo de las suyas
Aparecen los hadrones… entre otros, los protones y los
neutrones.
Los hadrones se constituyen en asambleas, formando algunos
núcleos de unos pocos elementos químicos
La música del Big Bang y su reflejo en la primera foto de
familia gracias a la radiación de fondo
La materia entra en faena una vez que la pegajosa radiación
decide liberarse
De la oscuridad a la luz gracias a las primeras estrellas y
galaxias
Se vuelve a hacer la claridad con la nueva reionización del
hidrógeno
La compactación y ordenamiento de la materia
La estructura final del Universo
El futuro hasta el infinito
8
que se atrevan a leer entre líneas porque el conocimiento de donde
vivimos, aunque sea sólo un aroma, lo considero un necesario
fundamento en el empeño de saber lo que somos. A los curiosos que
por su formación académica o curiosidad personal se desenvuelven
medianamente cómodos con los temas técnicos que plantea el libro,
deseo haber sido capaz de plantear el conocimiento de forma
asequible y veraz. A veces me ha costado entender algunos momentos
de la historia, aunque creo haberlos limpiado de la niebla donde los
muy taimados se me escondían, por lo que me siento feliz de poder
ofreceros el resultado de mi trabajo en esa publicación. Digo feliz
porque es la emoción real que experimento en ello y que, por otro
lado, se amolda al inevitable ego del creador humano. Lo reconozco.
En el capítulo último podréis leerlo en toda su extensión, aunque aquí
sólo voy a traer un par de apuntes acerca de las emociones del poeta
Walt Whitman (1819-1892) y el colofón de la reflexión que cien años
después se hacía Isaac Asimov(1920-1992) que suscribo al completo.
El primero escribió “¿Para qué molestarse en estudiar toda esa
basura cuando puedo simplemente salir y contemplar las estrellas?”,
pensamiento que Asimov enriquece con plena de apertura de mente,
“…el poeta nunca supo cuán limitada e insignificante era la belleza
que admiraba cuando él ‘levantaba la vista en perfecto silencio hacia
las estrellas’… Tampoco nosotros podemos conocer o imaginar
ahora la belleza ilimitada que se nos revelará en el futuro gracias a
la ciencia.”
Espero poder transmitiros esta belleza, este asombro, esta lección de
humildad que, por lo menos, a mí me llega al levantar solitario la vista
y contemplar el azul del cielo. Somos préstamos del Universo, hijos
de la Existencia, y al él inevitablemente rendiremos nuestros seres.
Llega la hora de los agradecimientos. Antes de acabar este breve
prefacio, quiero reconocer a los que me han enseñado lo que en este
libro expongo, a mis maestros, una vez más a Pedro Gómez-Esteban,
alma mater del blog “El Tamiz”, a Enrique F. Borja con su fantástico
blog “Cuentos Cuánticos”, a los grandes del blog “Naukas”, a los
fenómenos del blog “NeoFronteras”, a Matt Strassler por su blog “Of
Particular Significance” y a alguno más que se quedan en el tintero.
9
Y, por supuesto, y sin dudarlo, a tantos divulgadores científicos del
mundo anglosajón… ¡qué buenos son, los condenados!, comenzando
por el añorado Carl Sagan que sembró la semilla, para seguir por
Steven Weinberg, George Gamow, Leon Lederman, Richard
Feynman, Stephen Hawking, Brian Green, Michio Kaku, Lawrence
Krauss, John Gribbin, Bill Bryson, Paul Davies… y unos cuantos
más. Y no me olvido de los maestros que he leído de los que hago
una cumplida relación en el segundo apéndice. De verdad ¡OS DEBO
MUCHO! Gracias a todos.
Cumplido con el obligado protocolo… podemos empezar.
10
00: Encuadre
12
partícula de ese campo. Por ejemplo, un fotón será el abanderado del
campo electromagnético.
Las partículas se comportan de forma muy original ya que a la vez
son ondas y a la vez partículas. A la vez. Y eso quiere decir que en
cualquier momento pueden presentar cualquiera de las dos caras.
Realmente son las piezas de nuestro lego cósmico. Unas serán los
bloques con los que se que construye y otras serán el pegamento. Las
primeras las llamamos fermiones y las segundas bosones. Sí… no
queda más remedio de introducir tecnicismos. Unas construyen y las
segundas “pegan”, que no se nos olvide.
Los bosones son los que hacen que las cosas funcionen. Son los
mediadores de las interacciones entre partículas. Hay de varios tipos,
pero los vamos a identificar, para simplificar, como los responsables
del éxito de las cuatro fuerzas fundamentales: la gravedad, el
electromagnetismo, la nuclear fuerte que ata los componentes del
núcleo de los átomos y la nuclear débil que se encarga de la magia
de transmutar partículas como lo que pasa en el interior del Sol. A las
cuatro añadiré el bosón de Higgs responsable de generar la cualidad
de masa en las partículas más elementales.
Los fermiones pueden ser de dos tipos y los vemos en el átomo. En
el núcleo están los protones y los neutrones, gente de la familia de los
bariones, o “gente pesada”, y por fuera los electrones, de la conocida
familia de los leptones o “gente ligera”. Cada familia tiene sus
características que iremos desgranando a medida que avance el libro.
Y entre todas forman lo que conocemos como la materia bariónica.
Esta materia no es la única que existe, sino que la hay de otra clase,
detectable solamente por sus efectos gravitatorios, y que la
conocemos como materia oscura. Por ahora es suficiente.
La masa es fundamental. Ya sabemos desde que nos lo dijo Einstein
que es equivalente a energía según la conocida ecuación E=mc2. Hay
partículas que tiene masa en reposo, p.e. fotones, y otras que no, p.e.
electrones. Estas últimas como no tiene freno de inercia se desplazan
siempre a la velocidad máxima, la de la luz. A estas partículas tan
rápidas las bautizamos como radiación. Prácticamente siempre serán
los fotones, aunque los livianos neutrinos que también van rápidos a
13
veces los incorporaremos como radiación; e incluso otro tipo de
partículas siempre que vayan a velocidades relativistas, velocidades
próximas a la de la luz.
No solo hay materia y radiación. Hay también un componente que
conocemos como energía oscura que es la responsable de la
expansión. Los tres actores. Así que materia bariónica, un 5% de lo
que hay; materia oscura un 25% de lo que hay y energía oscura que
supone un 70% del Universo. Aproximadamente ¡y sólo sabemos
algo de la bariónica! Hay un 95% que ni idea.
No sabemos cómo nació el Universo. La teoría más aceptada es que
lo hizo robando energía del vacío gracias a la gravedad y, tras un
brevísimo suspiro temporal de unos 10-32 segundos, iniciar una
expansión exponencial que duplicó su tamaño unas 100 veces. El Big
Bang. Eso de la energía del vacío es un tema cuántico y se explica
luego más tarde en el texto. Ahora solo interesa el titular. El frenazo
de la inflación permitió desembolsar energía del espacio/tiempo y
transformarla en la materia y radiación que conocemos. Tras esta
inflación el Universo cogió una senda de expansión menos acelerada
y hasta hoy.
Durante toda la vida de este Universo en expansión han coexistido
los tres actores, cada uno influyendo sobre la dinámica expansiva
del Universo a su manera como veremos en el texto. En los primeros
momentos, unos 55.000 años de vida, la radiación era la reina. Poco
a poco fue tomando la batuta la materia. Por aquella época la energía
oscura era irrelevante. Aunque a los pocos cientos de miles de años
más se trastocó el orden, el influjo de la energía oscura comenzó a
sobrepasar al efecto de la materia, quedando el papel de la
irrelevancia para la radiación. Hoy en día la energía oscura
claramente manda y lo hará para siempre.
En los primeros 380.000 años, cuando el Universo era relativamente
pequeño, todo era un plasma en donde casi todo interactuaba con casi
todo y donde la radiación estaba sujeta a la materia. Era un Universo
opaco para los fotones. La era del plasma. Con la expansión del
Universo las partículas y la radiación se iban separando, ganando
potencial gravitatorio al aumentar la distancia entre ellas. Pensad en
14
una piedra que cae sobre vuestra cabeza: es más dañina cuanto más
separada de la cabeza comienza su caída. Viene de una posición de
mayor potencial que si lo hubiera hecho desde una altura menor.
Expansión es igual a separar, igual a incremento del potencial
gravitatorio. Pero a cambio de perder energía dinámica, a cambio de
perder velocidad que es lo mismo que perder temperatura. La
temperatura es un índice de la velocidad. Por eso, con la expansión,
el Universo seguía, y sigue, una senda y un ritmo de enfriamiento.
Eso es importante porque cada una de las fuerzas fundamentales, que
se cree eran al principio una sola y no cuatro, necesitan un
determinado nivel energético, de temperatura, para hacerse notar
como individuales y comenzar a actuar de la forma que conocemos.
La expansión del Universo y su ritmo decidió el momento en que
cada una apareciera en escena. Lo mismo pasó con las partículas que
para “condensarse” y aparecer necesitaban que hubiera la energía
precisa para generar su masa, E=mc2. Pero también en el punto
preciso como para que la radiación no tuviera la “fuerza” suficiente
como para destruirlas nada más nacer. El ritmo de la expansión fue
definitorio, no solo para crearlas, sino para separarlas rápidamente de
forma que no se aniquilaran unas con otras. Eso último va de materia
y antimateria como veremos en el texto.
Bajo el anterior postulado ineludible que dirigía a la fábrica de
contenidos, pasados los 380.000 años las condiciones de temperatura
permitieron aclarar el plasma y parir a los átomos más elementales,
permitiendo que la radiación volara independiente. Comienza la era
de la luz. Es cuando empieza la velocidad de crucero para, tras
muchos avatares, irse formando las estructuras del Universo: las
redes cósmicas, los cúmulos, las galaxias, las estrellas y sus sistemas,
los agujeros negros… en fin, todo tal como lo vemos hoy ¿Cómo
sucedió? Habrá que leerlo más adelante en el texto.
Y ahora sí, ahora comenzamos.
15
16
01: Introducción a una historia real
17
******
Un relato imaginario al otro lado de nuestra frontera temporal. Antes
del nacimiento de nuestro Universo. Me ha gustado comenzar así la
historia que vamos a relatar a lo largo de los capítulos de este libro
sobre la Biografía del Universo ¡deseo que nos sintamos como unos
viajeros atónitos tras atravesar la Puerta de Istar rumbo a los misterios
de Babilonia!
He optado por una fábula, pues ciertamente nadie en este mundo, el
de las x,y,z y t percibibles, sabe de dónde viene nuestro Cosmos ni
cómo fue su primer instante. Y si alguien dice que tiene la clave,
miente como un bellaco. ¿Nació en aquel incógnito momento el
entramado del espacio/tiempo que conocemos?, ¿o fue simplemente
una extensión 0/∞ de otro ya existente? O como en el cuento
imaginado, ¿resultó ser un rebote de algo anterior?, ¿o surgió ex-novo
del vacío? Aunque… ¿qué es el vacío? Podemos imaginar, inventar,
conjeturar… pero no sabemos nada de nuestro momento t=0 ¿y si no
hubo un tiempo cero? Menos aún que menos sabemos de t<0.
El animal racional que surge como una etapa en la historia que nos
trae y que ha sido fijada por las condiciones físicas de nuestro
Universo, el hombre, siempre ha sido muy curioso. Ha querido ver
con el cuerpo y la razón todo lo que hay más allá de su propio
sentimiento como individuo. Con los sentidos llegó hasta donde estos
llegaban. Poco para la curiosidad y mucho, lo suficiente, para la
supervivencia. Llegado el momento en que fue consciente de ello se
le ocurrió idear milagros para lo razonable. Pero la razón es terca y
pertinaz. Curiosa y potente. El hombre comenzó a extender los brazos
ejecutores de sus antenas sensoriales. A la cabeza de ellos, la vista.
Ideó instrumentos para ver en lo alto. Midió cada vez mejor el tiempo.
Supo adentrar su pupila hasta el mundo de lo más pequeño. Y no se
rindió ante el reto de llegar más lejos. Donde sus sentidos no
abarcaban… idea la gran herramienta que los prolongó casi hasta el
infinito: la abstracción matemática y el cálculo con el que jugaba.
Así, una gran fila de visionarios, extensa desde todos los tiempos,
pero que iniciamos con Nicolás Copérnico, que fue quien puso al
18
mundo en su lugar. Galileo, Kepler, Newton, Laplace, Darwin,
Maxwell, Einstein, Planck, Schrödinger, Heisenberg, Hubble,
Feynman, Guth, Hawking… y sé que me dejo un millar de ellos en el
tintero. Una saga que participa en la tramoya de nuestra historia. Con
sus neuronas curiosas y su voluntad irreductible.
En el legado de la humanidad, la teoría y la matemática. Los
instrumentos y la experiencia. Las herramientas con las que
imaginamos el nacimiento y devenir posterior de nuestro Universo.
Los primeros pasos los vamos a dar ayudados por la teoría del
Modelo Estándar de física de partículas. Un modelo teórico cuyas
predicciones se vienen comprobando con exquisita precisión.
Conjugando la Teoría Cuántica de Campos, la Relatividad Especial y
los datos que proporciona la medida de lo observado, el Modelo
Estándar nos va a acompañar durante la explicación, posible o
probable, de los inicios del Cosmos. No en toda su extensión temporal
hay que avisar, porque, al igual que no conocemos lo anterior al punto
de partida, tampoco tenemos certezas, ni herramientas con que
comprobar las teorías, acerca de una buena parte de las cosas
interesantes y cruciales que sucedieron en los primeros momentos.
Corto espacio de tiempo, pero, repito, crucial. A medida que la
historia discurre, llegaremos a un momento temporal a partir del cual
ya encontramos en nuestros anaqueles teorías e instrumentos que nos
permiten conjeturar, e incluso vivir, las incógnitas de la niebla inicial.
Por tanto: momento anterior al inicial, desconocido; momento
fundacional -0/∞, obviamente lo mismo… ¿quién puede meter la
cabeza en la incongruencia del cero infinito? Quizás algún día.
Sigamos.
Tres constantes físicas fundamentales de nuestro Universo nos dan
pistas para definir el primer escenario que creemos poder imaginar.
Imaginar, que no medir. Suponemos que este espacio real en un
tiempo ya real tendría unas dimensiones físicas exiguas y unas
densidades de energía y temperatura gigantescamente inimaginables.
Las tres constantes son c, la velocidad de la luz; G, la constante
gravitatoria universal; y h, la constante de Planck. Con las tres, y
19
solamente con ellas tres, podemos suponer a este diminuto y súper
potente punto/momento inicial.
20
campos cuánticos ejercerían realmente un papel en este momento.
Suponemos que la física que funcionó en aquella época se asienta
sobre la que conocemos. Quizás fueran unos momentos fríos en los
que solo había una energía oscura mientras el Universo esperaba el
final de la inflación para que el ambiente se calentara. Pero todo son
conjeturas. Suponemos que en algún momento de esta época el
espacio/tiempo experimentó un gran tirón que lo expandió factores
de amplitud gigantescamente impensables. Sólo lo suponemos,
aunque tenemos muchas y serias agarraderas de que así tuvo que
suceder y que son consistentes con muchas de las cosas que sí
podemos observar hoy en día.
¿Y después de la inflación? Suponemos un mundo caliente y cargado
de materia-radiación. Pero no hay forma de poder comprobar si fue
así, si las partículas que conjeturamos en este mundo post expansión
son exactamente las que nacieron de la gran energía liberada tras el
frenado de dicha expansión o bien son un producto de nuestros
razonamientos teóricos aptos exclusivamente para ser catalogados en
nuestros libros. Nosotros encontramos, y realmente “vemos”, a
nuevas partículas gracias a que podemos generar estados de suficiente
alta energía como para poder condensar las masas de estas partículas.
Pero nuestra joya que es el LHC (Gran Colisionador de Hadrones)
llega tan sólo a un poco más allá de diez TeV, 1013 eV. [4] Bastón de
ciego si pensamos que en el momento fundacional nos
encontrábamos en la historia de un mundo energético que se movía
en el entorno de 1028 eV ¡Quince rangos por encima!
Gracias a dios, se puede deducir ciertamente bastante de esta época a
través del estudio de la información implícita en el mapa de la
radiación de fondo de microondas en donde quedó impresa la
dispersión de las singularidades cuánticas generadas en estas épocas,
e incluso anteriores. Incluso de la existencia de las primeras ondas
gravitatorias creadas por el gran carajal gravitatorio que se vivió en
aquellos momentos cuando lleguemos a ellas.
Hay un intervalo temporal mágico y constituyente.
Desde el momento t=10-35 segundos tras la singularidad inicial si
es que existió como tal: inicio de la fase exponencial expansiva.
21
Al momento 200 segundos cuando se generan los primeros núcleos
atómicos por la unión de neutrones y protones gracias a que el nivel
energético cósmico es ya lo suficientemente bajo, 200 KeV, como
para dejar expresarse a la fuerza nuclear fuerte.
En el interregno suponemos que en algún momento se fueron
independizando las dos fuerzas nucleares y la electromagnética, y que
se fueron creando nuevas partículas, algunas de las cuales pertenecen
al acervo físico básico: protones, neutrones, electrones, neutrinos y
fotones, … incluso la partícula de Higgs. Por suerte ya podemos
reproducir en nuestros experimentos las condiciones existentes en el
Universo a partir del momento 10-14 segundos. Ya hemos hablado del
instrumento más potente que nos permite ver lo más profundo
alcanzable por nuestra tecnología, el LHC. Nos ha mostrado la
existencia real de las partículas, desde el bosón de Higgs, de 125
GeV, hasta los fermiones y bosones constituyentes de la materia más
cercana a nuestra esencia humana.
No sólo el LHC, sino que también para estudiar aquella temprana
época disponemos de nuestro Modelo Estándar, cuyos resultados
teóricos vienen siendo confirmados por los resultados experimentales
de nuestros aceleradores de partículas. Ello nos permite pensar que
este modelo pueda también ser correcto en niveles de energía
mayores y, por tanto, en tiempos más tempranos. Más arriba dijimos
que el límite de prospección del LHC está situado en 10-14 segundos
tras el inicio. Desde ese momento para acá ya nos movemos por una
confortable alfombra teórica. Desde este momento podemos tener
evidencias de lo que pasó en nuestro joven Universo.
Un spoiler. Con nuestras teorías e instrumentos hemos llegado a
deducir qué núcleos de elementos químicos y en qué proporción se
pudieron producir en tal entorno del momento 200 segundos de edad:
75% hidrógeno y 25% helio… lo demás es marginal. Asombroso por
lo simple y conciso. Lo perfecto es que la realidad que observamos
se ajusta perfectamente a estas previsiones teóricas. Podemos pensar
que vamos bien. Tenemos confianza en lo que decimos para estos
momentos. Pero vayamos más allá.
22
Año 380.000 tras el Big Bang. Una temperatura de unos 3.000 K, ya
lo suficientemente baja como para que la atracción electromagnética
entre las cargas negativas de los electrones, hasta entonces libres,
pudieran unirse a las cargas positivas de los protones o de los núcleos
de deuterio o helio, los bariones, generando los primeros átomos en
la historia del Universo. El espacio quedaba libre para que corrieran
también libremente los fotones, que hasta entonces se habían estado
dando codazos en un tú a tú con los electrones. Había llegado para
aquellos una transparencia imposible en el opaco plasma anterior. En
las zonas de mayor densidad de materia bariónica todo estaba más
próximo, todo era más energético de forma que los fotones
interactuaban mucho más con los electrones y además de una forma
ineludible. En las zonas de menor densidad los fotones eran menos
energéticos. Lo más memorable es que hemos podido hacer una foto
de la familia fotónica de aquel momento, un reflejo fiel de la
distribución de las masas a lo largo de todo el volumen del pequeño
universo de hoy en día. Fotones ancestrales que, aún hoy en día,
andan por todos los lados a la velocidad de la luz. La radiación de
fondo de microondas.
A partir de este momento, cuando el “cielo” se había aclarado y se
había vuelto “transparente”, apoyados con confianza en nuestras
teorías que funcionan, la gravedad universal en las grandes escalas,
la cuántica en las pequeñas, podemos prácticamente ver lo que hemos
imaginado saber. La sofisticada tecnología de telescopios trabajando
en un amplio rango de frecuencias y las infinitas posibilidades que
nos brinda la tecnología de espectrometría de la luz, nos permiten
analizar y deducir información más allá de la banda de frecuencias
electromagnéticas visibles. Hemos visto cuásares y galaxias de hace
unos 200 millones de años tras el Big Bang. De ahí a hoy en día,
13.800 millones después, [5] se extiende un mundo bastante asequible
para la ciencia. Con lagunas, sí, pero por el que avanzamos seguros.
Ese guion que parece deparar un fondo muy complejo realmente no
lo es tanto. Como dicen Abraham Loeb y Steven R. Furlanetto en su
libro “Las primeras galaxias en el Universo”, página 23, “Las
condiciones iniciales del universo se pueden resumir en una simple
hoja de papel… es muy pequeño el número de parámetros [seis] que
23
nos suministran una precisa descripción de las condiciones
iniciales… toda la información asociada con la complejidad
posterior estaba encapsulada en esas simples condiciones…”
Toda esta asombrosa historia es la que me dispongo a contar. Ya
sabemos que una parte son suposiciones y que otra son realidades.
Iremos a por ello en el siguiente capítulo.
24
02: Momento cero
26
trascendencia ya que describe la dinámica de la expansión. En ella, el
factor H es la constante de Hubble, que da idea de la velocidad de esa
expansión.
𝑎̇ 8𝜋𝐺𝜌 + 𝛬 𝑐
𝐻 = = −𝑘
𝑎 3 𝑎
que podemos redefinir como:
27
disponemos no funcionan en todo el rango. Quizás teorías
matemáticamente más abstractas, como la de cuerdas o la de bucles,
arrojen una luz. Pero hoy por hoy, a fuer de ser sinceros, no sabemos
conjeturar con seguridad y consistencia lo que pudo suceder en un
punto inicial tan pequeño. Que, por otro lado, recuerdo, es
simplemente una regresión de tipo matemático de las deducciones de
la relatividad al forzar el reverso de la película teórica.
Por tanto, no hay nada que nos asegure la existencia concreta de
una singularidad inicial, ningún factor, ni experimental ni
matemático. Es una mera especulación muy usada, cuya simplicidad
como idea posiblemente ayuda a comprender lo que pudo suceder.
Pero esto no es un freno para los imaginativos teóricos. Ésos que no
se arredran al enfrentarse a la sugerente idea de que, en aras de la
simetría (ver ampliación del concepto al final del capítulo),
simplicidad, naturalidad [6] y elegancia, [7] en el límite del inicio todo
tuvo que ser un igual. Aquellos que persiguen la esperanza
einsteniana de que hay una ley natural que compendia todo lo que
experimentamos. Y cuyas propuestas se recogen en teorías con
nombres tan sugerentes como la de la gran unificación (GUT), o la
de la supersimetría (SUSY) o la de cuerdas, que en su aspecto más
integrado se la conoce como la teoría M. O aún algo más sofisticado
como es la teoría de la gravedad cuántica de bucles. [8] Estas dos
últimas teorías parecen conciliar la coexistencia de la cuántica con la
gravedad, que aseguraría la confluencia energética de tres de las
cuatro fuerzas fundamentales que conocemos hoy en día,
electromagnética, nuclear fuerte y nuclear débil. E incluso la
gravitatoria.
Como imaginar es fácil, me permito visualizar -pura figuración- los
inicios. Comenzando la historia en un mundo de burbujas cuánticas,
en un estado del espacio(tiempo) [9] de consistencia espumosa. Puede
que cada una de estas burbujas cuánticas fuera una estación de
tránsito cuasi-puntual a donde había llegado un universo anterior. No
lo sabemos, pero puede ser un aceptable comienzo que no contraviene
a nuestras teorías y experiencias. Admitamos, por tanto, la hipótesis
de la existencia de un tejido espacio/temporal compuesto por un
entramado de elementales cuantos “ordenados” por dimensiones -
28
cuatro, once, veintiséis…-, que está vacío -los especialistas se
refieren al vacío como el estado más estable de mínima energía
cuando no hay partículas físicas presentes- y sometido a las
realidades ineludibles de la física cuántica. La cual nos dice que a
partir de este vacío es posible que se genere energía de la nada,
incluso grandes cantidades, siempre y cuando exista durante una
fracción de tiempo lo suficientemente corta como para que no se viole
el principio de incertidumbre de Heisenberg. Técnicamente, al medir
simultáneamente ciertos pares de variables conjugadas, si
necesitamos apurar mucho con la precisión de la medida de una de
ellas, irremediablemente veremos que se nos impone el poder ser muy
laxos en la precisión de la medida de la otra, ya que el producto de
ambas precisiones debe ser mayor o igual que un numerito que
descifró Planck, su constante ħ, del orden de 10-15 electrón-voltios por
cada segundo. Que en plan formula queda como sigue:
ΔE x Δt ≥ ħ
Uno de estos pares conjugados son la posición y el momento lineal.
Otro, como hemos dicho, lo forman la energía y el tiempo. Por lo que
la incertidumbre nos asegura que tanto la energía como el tiempo
durante el que esta energía es real no puedan medirse
simultáneamente con una precisión arbitraria. Es decir, que a escala
microscópica, si precisamos con gran exactitud el valor del tiempo
no nos quedará más remedio que admitir una gran campo de
desviación en la exactitud de la medida de la energía. Lo que nos deja
un buen abanico de posibilidades, con su mayor o menor
probabilidad, para que aparezca “mágicamente” de la nada una gran
cantidad de energía… que va a durar en la existencia menos que un
mini suspiro. Diremos que la “energía mágica” que aparece puede
concretarse en masa o momento de pares de partículas evanescentes.
Energía potencial más energía cinética. Tras el periodo de tiempo que
encaje según la anterior ecuación de Heisenberg con la cantidad de
energía nacida, ésta vuelve a ser recogida por el campo emisor que
vuelve a su vacío desapareciendo las partículas. [10] Y ojo… si hay
algo que proporcione por fuera la energía cedida por el vacío cuántico
al par de partículas virtuales generadas, y ese algo retorna la energía
29
prestada al vacío, las partículas virtuales consiguen concretarse como
reales. [11]
Sólo por hacernos una idea: En el mundo de Planck, cuyas
magnitudes introdujimos someramente en el capítulo anterior, se nos
sugiere una energía del orden de los 1028 eV. Así que ustedes
calculen: la teoría nos insinúa que en un espacio/tiempo vacío de
energía, si hay que desarrollar este mundo minúsculo, que se asimila
al más primigenio de 1028 eV, según el principio de incertidumbre
tendríamos de tiempo tan sólo la constante de Planck, 10-15 eV por
cada segundo, dividida por esa incertidumbre en la energía del orden
de 1028 eV. Lo cual nos dice que podríamos obtener esta energía
durante un tiempo medido con una incertidumbre de magnitud
alrededor de los 10-43 segundos -¡anda!, muy parecido al tiempo de
Planck- para darnos prisa y hacer el trabajo. Si además el mundo está
expandiéndose a una velocidad tal que los pares de partículas
“virtuales” que materializan esta energía se separan tan rápido que no
vuelven a interactuar entre ellas y desaparecer, tendríamos un mundo
en marcha. [12] Y una ¿casualidad? más: si ponemos a la luz a correr
a su inmutable velocidad de 300.000 kilómetros por segundo durante
este tiempo de Planck, recorrería una distancia igual a la longitud de
Planck ¿Es que la teoría nos está intentando sugerir que el universo
está íntimamente constituido por unos parámetros que indican que
para el tejido del espacio no haya tamaño más pequeño que la
longitud de Planck?
La dimensión del cuanto del espacio se puede calcular teóricamente.
Para poderlo medir hay que depositar algo ahí, en el cuanto, una
partícula que pueda ser observable. Tiene que haber algo allí que
“veamos” y nos permita “ver”. Pero como el cuanto se supone muy
pequeño, la partícula cuántica estará súper localizada y, por tanto,
moviéndose a gran velocidad. De nuevo el principio de
incertidumbre. Lo que es igual a que tendrá una altísima energía. Lo
que es igual a deformación del espacio/tiempo brutal ¡la partícula
desaparecerá en un agujero negro! Y si desaparece la partícula ya no
tendremos nada como para poder medir el cuanto espacial. En
resumen, no podemos medir regiones arbitrariamente pequeñas de
espacio porque este desaparece en agujeros negros. Tiene que haber
30
un mínimo. Bajo esas premisas y tras un cálculo adecuado, se llega a
la conclusión de que la dimensión del mínimo cuanto de
espacio(tiempo) sobre el que no desaparece la partícula coincide con
la distancia de Planck. [13]
¡Un espacio(tiempo) cuantificado! Como lo afirman los teóricos de
la gravedad cuántica: el espacio es genuinamente granular a pequeña
escala, cuantos de gravedad unidos en bucles, reverberantes con los
otros campos cuánticos, y que no están en el espacio porque ellos son
el mismo espacio aparecido en el rumor de sus interrelaciones ¿Uno
de esos cuantos como semilla del Big Bang?
Con eso no digo que ésta fuera la historia, sino que esto es lo que nos
sugiere una posible matemática que desarrolla los mundos de la
relatividad y la cuántica. Es decir, hay opiniones que contemplan la
posibilidad, por demostrar, de que todo surgiera en un cuanto del
espacio, tras una de las infinitas fluctuaciones cuánticas que se deben
suceder en este espacio(tiempo): un robo al vacío de un campo
desconocido, por el que surge mucha energía en un corto espacio de
tiempo. Si el cuanto del espacio(tiempo) escenario del suceso está en
un proceso de expansión, es posible que el suceso sea irreversible. Y
si hay alguien que está dispuesta a ayudar, como veremos que lo hace
la gravedad… miel sobre hojuelas.
La idea de un espacio(tiempo) inicial cuantificado nos permite seguir
motivando nuestra imaginación. Uno de los pensamientos que surgen
nos lleva a la idea de que si existe un cuanto mínimo de tiempo que
es el de Planck de 10-43 segundos, realmente nunca hubo un tiempo
de valor cero para nuestro universo. Luego… no busquemos qué
fue lo que pasó en t=0, lo cual incluso gusta a muchos teóricos, ya
que entonces no habría una singularidad inicial que invalide las
ecuaciones de la Relatividad. [14]
Otra idea que se nos ocurre se deriva del hecho de que en cualquiera
de los minúsculos cuantos planckianos que podían conformar el
espacio(tiempo) inicial se producirían continuamente inestabilidades,
durante las que aparecían y desaparecían partículas virtuales. Al ser la
zona espacio/temporal donde eso pasaba tan pequeña, la energía de
movimiento de dichas partícula sería muy grande: a espacio más
31
confinado, velocidad -energía de movimiento- más elevada. Lo cual
no deja de ser un reflejo más de un nuevo enlace de incertidumbres,
ahora entre otras dos variables conjugadas como son la posición y el
momento lineal de las partículas. Mucha energía que, si recordamos
lo que nos dijo Albert Einstein, deformaría el tejido del
espacio/tiempo … lo cual es la base de la interacción gravitatoria. Es
decir, la gravedad tuvo que existir independiente ya desde el
mismo momento inicial. Sin contravenir a las teorías GUT de
unificación de fuerzas. [15][16]
La gravedad es una fuerza atractiva y universal. Para no sentir su
efecto teóricamente nos tendríamos que desplazar hasta el infinito,
alejados del origen de masas gravitatorias. Si queremos desplazar un
objeto con masa desde cualquier punto también con masa -por
ejemplo, la superficie de la Tierra- hasta el infinito, tendremos que
luchar contra esta fuerza atractiva. Lo cual nos indica que el potencial
gravitacional en el punto de partida es menor que el de llegada, es
decir, le hemos tenido que dar energía a la masa que desplazamos.
Y al contrario, podemos imaginar a la masa del ejemplo anterior
“cayendo” desde el infinito, conducida por la gravedad, hasta situarse
en el punto de partida inicial -la superficie terrestre- con menor
potencial. Lo que nos hace pensar que en el proceso de caída la
gravedad habrá quitado energía a la masa. Una piedra que cae sobre
la superficie de la Tierra [17] va perdiendo energía potencial
gravitatoria… aunque bien es cierto que esta energía que pierde la
gravedad se la va devolviendo en forma de energía de movimiento.
Pero la conclusión en donde quiero fijarme es que la gravedad, en su
trabajo “normal” como campo de atracción, lleva implícita una
energía negativa.
Vayamos ahora al principio de la vida del Universo. Tras la excursión
de inestabilidad cuántica inicial. Hemos dicho ya que en los
momentos inaugurales la gravedad ya interactuaba con la energía
surgida del vacío. Su tendencia física era amordazar la energía y
mantener en un pozo de mínimo potencial a toda la materia/energía,
o lo que hubiere en aquellos instantes. Pero en aquellos momentos
iniciales se le estaba ganando la mano: el universo se expandía y, por
tanto, la gravedad tenía que ir aligerando sus exigencias de energía
32
negativa, liberando a la materia/energía que se iba separando hacia
campos potenciales gravitatorios más energéticos, dándose como
resultado un progresivo incremento de la energía potencial del
sistema universo.
¿Y si hubiera pasado que toda la gravedad, que luchaba sin éxito
contra este incremento perdiendo energía propia, estuviera
compensando con la pérdida de su energía negativa -cesión de
positiva- el incremento de la energía potencial del sistema universo?
¿qué hubiera pasado si esa disminución de energía en su campo fuera
igual al incremento de la masa equivalente a aquella energía inicial
que surgió robada del vacío cuántico? Que esta fugaz energía inicial
pudo haber sido contenida en el tiempo gracias a la gravedad que
indujo. Una por otra… promedio cero.
Lo que nos permite razonablemente poder hacer la siguiente
hipótesis: el cuanto constituyente del tejido básico del
espacio(tiempo) universal -y pudo haber infinitos cuantos, aunque
eso nos llevaría a otra discusión- se vio sometido a un “destello” de
energía que lo expandió y deformó, permitiendo la gravedad
asociada el que esa energía permaneciera en el tiempo. Ese es el
“alguien externo”, banquero de energía, al que nos habíamos referido
unos párrafos antes. Con ello se había creado nuestro eje de
coordenadas temporal.
35
que un exceso de gravedad colapsaría relativamente pronto el proceso
de creación de un universo, hasta el contrario que dejaría al tejido
espacio/tiempo como una tenue niebla vacía y congelada. Lo veremos
con más detalle en los últimos capítulos. En el siguiente intentaremos
entrar en los laberintos del periodo de inflación que llevó al
calentamiento del Universo.
36
invariante de la manera descrita, se dice que, al igual que el círculo,
posee una simetría continua.
La matemática Emmy Noether hace unos cien años demostró que las
leyes de conservación se hallan relacionadas con las simetrías de la
naturaleza. Cada vez que la naturaleza exhibe una simetría continua,
aparece una ley de conservación asociada y viceversa. En concreto,
la simetría espacial implica la conservación del momento lineal; la
simetría rotacional, la conservación del momento angular, y la
simetría temporal, la conservación de la energía.
37
5. Un universo es isótropo si desde un punto de observación, mires
en la dirección que mires, siempre observas lo mismo; mientras
que un universo es homogéneo si a lo largo de una dirección de
visión no se observa diferencias apreciables.
6. En física la naturalidad es la propiedad de que las relaciones
adimensionales entre parámetros libres o constantes físicas que
aparecen en una teoría física deben tomar valores "de orden 1" y,
además, que los parámetros libres no están artificialmente
ajustados. Es decir, una teoría natural tendría relaciones de
parámetros con valores, por ejemplo, como 2,34 en lugar de
234.000 o 0,000234.
7. En el moderno mundo de la física teórica, en donde las ideas
calculadas van por delante de las ideas experimentadas, los físicos
no disponen de datos suficientes como para basar sus teorías,
confiando, en su defecto, a principios “bellos” (es su terminología)
como los que he presentado: simetría, simplicidad, naturalidad y
elegancia. El olfato profesional nacido de la experiencia
acumulada al detectar estas sutilezas se ha manifestado muchas
veces como buena bitácora para marcar un rumbo de éxito.
8. La gravedad cuántica de bucles, o Loop Quantum Gravity, es una
teoría que busca comprender la naturaleza elemental del tejido
espacio/tiempo suponiendo que, a escala de Planck, dicho
espacio/tiempo no es continuo, sino que consiste en una red de
nodos y líneas de unión, bautizada como de espín, en la que se
configuran unos bucles que se entrelazan entre ellos formando una
malla infinita. La unidad característica del espacio/tiempo serían
unos lazos entretejidos formando una especie de espuma cuántica.
Todas las nociones espaciales van a aparecer como consecuencia
del comportamiento de la red de espines.
9. Aviso: en esta entrada donde se introduce el concepto de “cuanto
de espacio/tiempo” prefiero anotarlo, cuando hablo en concreto de
cuantos, como espacio(tiempo). Lo que quiere manifestar que el
cuanto es del espacio de cuyas interacciones en la red de espines
surge el tiempo. En el resto de la serie seguiré usando el concepto
einsteniano de espacio/tiempo.
10. El proceso espontáneo de creación de una pareja electrón-
positrón dura un tiempo increíblemente corto. Podemos calcularlo
38
a partir de la ecuación del principio de incertidumbre. En el caso
del electrón su masa es de 9.11·10-31 kg. Por tanto
11. Aporto aquí las palabras del físico teórico Lawrence M. Krauss
extraídas de su libro “Un Universo de la nada”: “La conclusión es
evidente: la gravedad cuántica no solo parece permitir que se
creen universos a partir de nada -en referencia, en este caso,
insisto, a la ausencia de espacio y tiempo-, sino que puede
requerirlo así. Así, la «Nada» -en este caso, la ausencia de
espacio, de tiempo, de todo: la «nada de nada»- es inestable” y
por tanto, digo yo, con posibilidad de generar algo. [Ediciones
Pasado y Presente, formato digital Kindle, p. 195].
12. Para asegurar que el universo permanezca homogéneo se
requiere que las velocidades iniciales de los fluidos tomen valores
muy precisos. Si las velocidades iniciales son ligeramente
demasiado pequeñas, el universo vuelve a colapsar en una fracción
de segundo. Si son un poco demasiado grandes, el universo se
expande demasiado rápido y rápidamente se vuelve casi vacío.
13. “La realidad no es lo que parece”, páginas 137-138, Carlo
Rovelli.
14. “…los cuantos de gravedad [cuantos del espacio] no
evolucionan en el tiempo. Es el tiempo el que nace como
39
consecuencia de sus interacciones… El tiempo, como el espacio,
surge del campo gravitatorio cuántico.” Del libro “La realidad no
es lo que parece”, página 159, Carlo Rovelli. Y en la página 164:
“Las cosas cambian solamente unas con respecto a otras. A nivel
fundamental, el tiempo no existe. La impresión del tiempo que
discurre es sólo una aproximación que únicamente vale a nuestra
escala macroscópica, y que se deriva del hecho de que
observamos el mundo a grandes rasgos.”
15. La teoría GUT de la gran unificación (del inglés Grand
Unification Theory) es una teoría que unificaría tres de las cuatro
fuerzas fundamentales en la naturaleza: la fuerza nuclear débil, la
fuerza nuclear fuerte y la fuerza electromagnética. La fuerza de
gravedad no se considerada en dicha teoría, pero sí en una eventual
teoría del todo (Theory of Everything, ToE), que identifica a las
cuatro interacciones fundamentales. En otro capítulo veremos qué
es eso de la GUT.
16. No la conocemos, pero se teoriza con la partícula gravitón
como la responsable de las interacciones gravitatorias. En el
artículo “The Challenge of Ruling Out Inflation via the Primordial
Graviton Background” de Sunny Vagnozzi y Abraham Loeb, The
Astrophysical Journal Letters noviembre 2022, se propone la
hipótesis de que por encima de la escala de Planck, pudieron
aparecer cuatro partículas, de las que dos de ellas serían
gravitones, cuyas interacciones puntuales mantuvieron en el
plasma primordial a esos últimos en equilibrio térmico, es decir, el
ritmo de los que iban apareciendo se igualaba con el de los que se
iban aniquilando. Esa familia de partículas constituiría un fondo
conocido como el fondo cósmico de gravitones que, si más tarde
no se hubieran encontrado con la inflación exponencial, ahora los
encontraríamos a temperaturas de unos 0,9 K, pero que, bajo la
hipótesis de inflación exponencial, un Big Bang caliente, creemos
que su temperatura es inferior a los 50 μK. Si lográramos
encontrarlos, cosa que con las tecnologías actuales es harto difícil,
se colocarían al lado de otros fondos cósmicos como el de
neutrinos o el de fotones, como otro de los grandes transportadores
de información primordial. De ellos se hablará más adelante en
este libro.
40
[https://iopscience.iop.org/article/10.3847/2041-8213/ac9b0e]
41
03: Las edades de Planck
42
vamos a jugar con esta hipótesis. Un tejido que bien pudiera estar
cuantificado, cuantos acotados por alcance que impone la longitud o
el tiempo de Planck. En estas semillas, el mundo de lo más pequeño,
impera la ley de la cuántica. El principio de Heisenberg, del que
hablamos en el capítulo anterior, nos dice que en este entorno es
posible la aparición de mucha energía durante un corto espacio de
tiempo. Esta energía es la manifestación de un campo intrínseco a
este cuanto de espacio(tiempo) energizado. En estos tamaños no
sabemos cómo funciona la gravedad, ya que la teoría de la relatividad
desgraciadamente no puede decirnos nada ahí ya que no tenemos ni
idea de cómo funciona en las pequeñísimas escalas. Podemos
conjeturar que, al haber aparecido ex novo una energía a partir del
vacío, esa energía va a producir gravedad y deformar el tejido
espacio/temporal, creando así una burbuja expansiva. Esto sucedería
en todo momento en cualquier punto de todo el escenario completo,
por lo que podemos llegar a la conclusión de que el espacio/tiempo,
en su ámbito más general y absoluto, podría tener una apariencia
espumosa. [1] Lo cual incluso nos permitiría llegar a otro tipo de
consideraciones relacionadas con multiversos, que aquí no son
nuestro propósito. Una de esas burbujas en expansión sería la
semilla de nuestro Universo.
Un pequeño trozo del tejido espacio/tiempo se estaba expandiendo.
Había robado energía de algún campo desconocido, incluso quizás
del propio espacio/tiempo. Estamos en una situación de un universo
que decimos pequeño, con mucha densidad de energía [2] y que se
expande. ¿Cómo sabemos que nuestro pequeño espacio se estaba
expandiendo si no podemos medirlo? ¿Y por qué se expande?, e
incluso ¿qué tenemos que entender cuando hablamos de que el tejido
espacio/tiempo se expande?
La primera de las últimas preguntas ya la contestamos en el capítulo
anterior. Básicamente es que debemos suponer que se expandía.
Además, nos lo sugieren las ecuaciones de la relatividad. Hoy somos
capaces de observar que nuestro universo lo está haciendo, e incluso
podemos medir a qué velocidad y con qué aceleración lo hace. Si hoy
se expande es muy fácil el pensar que si pudiéramos poner esta
película marcha atrás observaríamos cómo se va contrayendo de
43
forma cada vez más asintótica hacia el punto inicial. Lo cual nos lleva
a la idea teórica de un punto inicial Big Bang.
Volviendo de nuevo el vídeo al forward, no nos queda más remedio
que imaginar que este punto inicial fundacional se expandía. Por otro
lado, tenemos una teoría muy consistente, la de la Relatividad, que
nos explica matemáticamente cómo lo hace: el Universo tiene que
seguir una dinámica espacio/temporal que satisfaga una relación
directa entre la geometría/curvatura del universo y la distribución de
energías en él. De forma que su variación de escala, en nuestro mundo
de curvatura aparentemente nula, ha de seguir la siguiente ecuación
que no deja de ser más que la de Friedmann presentada en el capítulo
anterior para el caso de una constante cosmológica nula:
ä(t) = – K (ρ+3p) a(t)
en la que la variación de escala a(t) nos dice en cuánto varían las
dimensiones del universo (con dos puntitos es su aceleración), ρ es la
densidad de energía de los campos presentes en el universo y p la
presión que generan estos campos. [3]
Lo cual simplemente quiere decir que
la dinámica en la variación del cambio de escala tiene que ver
con la densidad de energía y la presión generada por los campos
presentes en el universo.
Es interesante el observar como si la densidad de materia/energía y la
presión son ambas positivas, la expansión se ira ralentizando ya que
la aceleración será negativa. Pero si la presión es negativa -guardad
esa circunstancia en la memoria- y mayor que 1/3 de la densidad de
materia/energía ¡la expansión se acelera! Lo ampliaremos en el
capítulo siguiente.
El Universo, por tanto, se expandía desde sus momentos más
primigenios. El fenómeno sólo afectaba a su propio tejido
espacio/temporal y no a su contenido, que va a quedar sometido al
efecto de otras fuerzas, como la gravedad. [4] Como si estirásemos un
mantel de caucho: el propio mantel se agrandaría, pero no las migas
de pan que estuvieran sobre él. La pantalla de la película que hoy
44
mide un metro mañana medirá dos. Los objetos en “reposo” sobre
ella seguirían manteniendo sus tamaños y formas aunque, eso sí, cada
vez más alejadas las unas de las otras como consecuencia de la
expansión cósmica. Estos objetos se denominan comóviles, se
mueven al unísono, tendrían el mismo sistema de referencia. Aunque
también pudiera ser que dentro del contexto expansivo y gracias a
otros efectos como la atracción gravitatoria, se estuvieran
aproximando relativamente unos a otros superponiendo ese segundo
movimiento peculiar al de la expansión. No, la expansión que
“engorda” al Universo no nos engorda a nosotros, como podemos
colegir de la figura siguiente que intenta aclarar la realidad de lo que
sucede. [5]
46
equilibrio entre la materia y la radiación. Aunque eso lo veremos en
los capítulos 18 y 19.
Alcanzar el equilibrio termodinámico supone el haber transitado
hasta la máxima entropía para el sistema, la máxima degeneración de
la energía. Ya no hay contrastes energéticos como para realizar un
mínimo trabajo. De donde surge un gran dilema: si la entropía en
aquel momento fundacional era máxima ¿cómo se produce lo que se
produce con posterioridad en el Universo? ¿cómo se crean sus
estructuras, cómo se genera su dinámica, si no hay posibilidad de
salto entrópico? Lo esperable a la vista de todo lo que se construyó
después en el Universo era que el punto de partida hubiera sido un
lugar de entropía especialmente pequeña. Circunstancia necesaria
que no encaja con lo que parece una inicial situación de equilibrio
que apunta a un máximo entrópico ¿Hay alguna forma de solucionar
el dilema? Roger Penrose, premio Nobel de Física 2020, sugiere una
posible respuesta. Y está en la gravedad.
La gravedad concentra la materia. A partir de un Universo inicial
lleno de un gas difuso ha construido las maravillosas estructuras
cósmicas que hoy observamos. Y seguirá trabajando en ello. Esta
contracción que forma las estrellas, y en el límite los agujeros negros,
conlleva que las partículas se acerquen cada vez más unas a otras,
moviéndose progresivamente cada vez más rápido. Podemos
sentirnos libres de imaginar que no haya ningún límite al grado de
aglomeración y rapidez de movimiento. Ello haría que los grados de
libertad del campo gravitatorio, que estaban prácticamente
“inactivados” en un principio, se fueran avivando y multiplicando a
lo largo del tiempo sobre la base de un equilibrio termodinámico. Y
eso es crecimiento de entropía como explica la nota 7 de este
capítulo.[7] El estado que intuimos de equilibrio termodinámico
inicial con máxima entropía simplemente era un actor irrelevante
frente al inmenso recorrido hacia un top-entrópico escondido en la
gravedad en aquellos momentos. Podríamos pensar que la
potencialidad de agrupamiento gravitatorio de los gases es la que nos
ha dado la segunda ley de la termodinámica.
Además de la gravedad, durante todo este periodo actuaba una sola
interacción, una fuerza única en la que se identificaban la
47
electromagnética y las nucleares fuerte y débil que conocemos y están
activas en la actualidad. El concepto de masa o de carga -que para
cada fuerza en particular son de tipo eléctrica, de color o débil- no
tenía sentido. Su campo asociado, conocido como Campo
Unificado, mediaba su influencia a través de unos bosones de gran
“masa” -energía-, conocidos como X e Y, [8] cuyas interacciones
acoplan a las partículas más elementales que conocemos -quarks y
leptones-, [9] y que son responsables de nuevos fenómenos, como la
hipotética desintegración protónica. Y decimos hipotética porque la
probabilidad de que se produzca es ínfima, aunque teóricamente
posible. Al haber una sola fuerza fundamental, además de la
gravedad, a este brevísimo periodo, que va desde t-43 segundos a t-35
segundos a partir del inicio, se le conoce como el de la Gran
Unificación.
Los bosones X e Y aparecerían de acuerdo con dos procesos
físicos.[10] Uno se concretaba en la transformación de las partículas
de radiación en pares de materia-antimateria X e Y, que desaparecían
muy rápidamente en un estallido de energética radiación de fotones
al interaccionar dichos pares entre sí.
Materia + antimateria ↔ fotón + fotón (antifotón)
El segundo proceso correspondía a la aparición de partículas virtuales
en episodios de inestabilidad cuántica, partículas que saltaban
instantáneamente dentro y fuera de la existencia cumpliendo los
mandatos del principio de incertidumbre. Si lo particularizamos para
nuestros bosones X e Y debemos pensar que se desintegrarían
espontáneamente tras brevísimos instantes debido a su gran masa de
unos 1015 GeV, [11][12][13] creando quarks y antiquarks además de
leptones y antileptones siguiendo algunos de los modos de
desintegración siguientes, a los que habría que añadir sus simétricas
antibosónicas:
X → quark up + quark up X → positrón+ + antiquark down
Y → positrón+ + antiquark up Y → quark down + quark up
Y → antiquark down + antineutrino electrónico
48
Se cree que estos bosones en sus ciclos de nacer-morir no debieron
cumplir una de las simetrías de las leyes físicas, en concreto la CP de
carga/paridad, [14] que es la que fija la igualdad entre la materia y la
antimateria en estos procesos. La consecuencia de ello es que con el
tiempo se iban generando más partículas elementales de materia que
de antimateria. Los modelos que estudian estos fenómenos nos dicen
que debido sólo a ello, y ya para todo lo que quedaba de futuro,
cuando la materia y la antimateria se habrían definitivamente
aniquilado, la primera dominó a la segunda en una proporción de 109
a 1.
La teoría -hay unas cuantas- de la Gran Unificación (GUT) nos dice
que el anterior ajetreo del patio de vecinos debió de ser así hasta que
la energía promedio del Universo bajó, por la expansión y
consiguiente enfriamiento, al nivel de 1015 GeV. En ese momento la
interacción nuclear fuerte dijo adiós a sus otras dos compañeras, la
débil y la electromagnética. Estas dos últimas seguirían unidas
durante un brevísimo tiempo hasta la época en que el Universo se
situó a un nivel energético entre 103 y 102 GeV. Esto sucedería más o
menos en el tiempo 10-12 segundos desde el teórico inicio, momento
en el que separaron sus interacciones. Hablaremos de todo ello en
capítulos posteriores.
Y es alentador el comprobar cómo los resultados de nuestros
experimentos nos orientan hacia la realidad de este hecho, como
podemos ver en la figura siguiente, con las tres fuerzas en una senda
de aproximación a medida que aumenta la energía. Así que quizás la
predicción de la GUT sea la correcta y las tres fuerzas fueran la
misma antes de los últimos compases del periodo de inflación
exponencial, coincidiendo en un entorno energético de 1015 GeV.
Hay que decir que esa imagen corresponde a una extrapolación de los
datos usando las ecuaciones del modelo estándar de partículas: las
constantes de acoplamiento (un número que determina la fuerza de
una interacción) de las fuerzas no gravitatorias se vuelven muy
similares, aunque no convergen completamente. Sin embargo, si
extrapolamos utilizando las ecuaciones de la teoría de supersimetría
SUSY, las fuerzas convergen a un nivel de energía fijo en el entorno
49
de los 1016 GeV. Incluso la SUSY predice que la gravedad coincidiría
con las tres fuerzas anteriores en el entorno de los 1019 GeV. [15]
52
𝑎̇ 8𝜋𝐺𝜌 + 𝛬 𝑐
𝐻 = = −𝑘
𝑎 3 𝑎
53
NOTAS DEL CAPÍTULO 03:
55
8. Llamados colectivamente bosones X y que serían unas partículas
elementales intermediadores de un tipo de fuerza predicha por
la teoría de gran unificación.
9. Ya veremos qué son, aunque para el curioso urgente recomiendo
la lectura de la serie del blog “El Tamiz”, “Esas maravillosasa
partículas”. [https://eltamiz.com/esas-maravillosas-particulas/]
10. Que por otro lado era lo que le sucedía también al resto de
partículas existentes durante la época de la Gran Unificación.
11. Si nos atenemos al tipo de cálculo que se hizo para el electrón
en la nota 10 del capítulo 02. Las partículas X e Y surgidas del
vacío durarían la nimiedad de unos 10-40 segundos.
12. En aquellos momentos es muy arriesgado hablar de masas. Ya
sabemos que la teoría nos dice que para que las partículas
adquieran la carga de masa se precisa un campo semejante al de
Higgs. Pero no tenemos ni idea de si en aquel momento había
alguna interacción Higgs. La que conocemos estaba
energéticamente muy lejos, en el hito 125GeV. Por eso en esos
momentos hablar de masa supone hablar de energía, pero
usaremos la terminología masa por ser más intuitiva.
13. Ya sabemos del capítulo anterior que el principio de
incertidumbre de Heisenberg exige emparejar una gran energía
con un efímero tiempo.
14. De Wikipedia: “La simetría CP se basa en la composición de
la simetría C y la simetría P. La simetría C o simetría de carga
afirma que las leyes de la física serían las mismas si se pudiesen
intercambiar las partículas con carga positiva con las de carga
negativa. La simetría P o simetría de paridad dice que las leyes
de la física permanecerían inalteradas bajo inversiones
especulares, es decir, el universo se comportaría igual que su
imagen en un espejo. La simetría CP es el producto de ambas.”
15. Ver “Unification of Gravity and Quantum Theory”, Adam D.
Daniels, 2017.
[https://digitalcommons.odu.edu/cgi/viewcontent.cgi?article=1000&conte
xt=engineering_students]
16. [https://www.nobelprize.org/prizes/physics/2004/popular-
information/]
56
17. El término transición de fase se usa comúnmente para describir
transiciones entre estados sólido, líquido y gaseoso de la materia,
así como del plasma en algunos casos raros. Durante una
transición de fase de un medio dado, ciertas propiedades del
medio cambian, a menudo de manera discontinua, como
resultado del cambio de alguna condición externa, como la
temperatura, la presión u otras. A modo de ejemplo, un líquido
puede convertirse en gas al calentarse hasta el punto de
ebullición, lo que resulta en un cambio abrupto en el volumen. La
medición de las condiciones externas en las que se produce la
transformación se denomina transición de fase.
18. La constante cosmológica es ni más ni menos que una energía
interna.
57
04: Inflando el Universo I
59
Si representamos la curva que define la ecuación anterior, f[V(Ф),
Ф], tenemos que pensar que su forma dependerá del valor de las
constantes A y B. Que en líneas generales será alguna de las imágenes
anteriores: la de la izquierda, para valores del coeficiente A mayores
que cero, y la de la derecha, para valores de A menores que cero.
Esta curva nos dice cómo la energía potencial V(Ф) del campo puede
tomar un valor u otro de acuerdo con el valor que tome el campo. Este
valor Ф es indicativo del estado particular del propio campo, sin que
sea necesario el conocer su distribución en el espacio, que puede ser
muy variable, o en el tiempo. En relación con este último, como
cosmológicamente se considera al universo continuamente
homogéneo e isótropo, habrá que convenir que la variación temporal
del campo habrá de ser la misma en todos sus puntos. Dado la
obligatoriedad para los sistemas físicos de posicionarse en la
“arquitectura” de mínima energía, [4] debemos convenir que el punto
que defina el estado normal del campo deba ser el que representan los
mínimos de las anteriores curvas. Un campo cero en el primer caso,
o un campo distinto de cero en el segundo. También puede suceder
que el campo que siga la curva de la derecha adopte de forma
transitoria una situación metaestable en el máximo de ésta.
Circunstancia que analizaremos al hablar dentro de nada del campo
inflatón o del campo de Higgs en otro capítulo.
Ésta precisamente es la foto del carné de identidad del campo que
creemos fue el responsable de la expansión primordial de nuestro
Universo. Una ecuación de cuarto grado, representada de forma más
explícita en la figura de la página siguiente, que correlaciona el valor
del campo, en el eje horizontal, con el valor de su potencial -energía-
en el eje vertical. Y además, en distintos momentos relativos al
tiempo que viene a ser igual que a distintas decrecientes
temperaturas[5]. Vamos a llamar a este campo escalar el campo
inflatón. Ya os podéis imaginar el por qué.
Habíamos visto en el capítulo anterior que gracias a Einstein, y muy
a pesar de sus iniciales ideas personales, [6] sabemos explicar por qué
nuestro Universo se expande y que a lo largo de su historia lo pudo
hacer de una u otra manera dependiendo de la distribución de
energías, materias y presiones en su estructura espacio/temporal, sin
60
olvidarnos de la influencia de su curvatura. En los momentos
inaugurales del universo el campo inflatón definiría esta
distribución. Veamos cómo lo hacía.
A medida que el universo se expandía y se iba enfriando, el potencial
del campo inflatón evolucionaba con el tiempo de forma que su curva
de estado cambiaba dibujando una especie de progresivo aleteo
descendente, tal como hemos tratado de representar en la gráfica que
sigue. No olvidemos que esta gráfica corresponde a un punto
determinado del espacio y que en los demás puntos sucedería algo
por el estilo.
63
cuando alcanza el mar. En el proceso transforma su energía potencial
inicial en energía de movimiento, lo cual introduce una sutil pista
para lo que vendrá en esta serie.
Los primeros momentos del tránsito de un vacío al otro, cuando el
valor del campo aún estaba muy próximo a cero, es cuando el campo
inflatón estaría favoreciendo el embalsamiento de energía en el
Universo en expansión. Y ya sabemos que esto generaba en su tejido
una presión negativa cuya naturaleza y “misterio” intentaré desvelar
en el siguiente capítulo. Ahora, usando este dato, podemos intentar
visualizar la dinámica con la que se expandía el Universo
introduciendo la existencia de nuestro campo en la ecuación de
Einstein ajustada a un universo plano como el que vivimos y que ya
conocemos de capítulos anteriores:
x – ä(t) = K (ρ+3p) a(t)
Como estamos ante la presencia de un campo escalar (el campo
inflatón no sabe de direcciones) en su estado de falso vacío y
haciendo uso de la deducción hecha en unos párrafos más arriba
presión = – densidad energía campo inflatón = – ρfalso vacío
se llega a la siguiente conclusión:
ä(t) = – K (– 2 ρfalso vacío) a(t) = + 2K . ρfalso vacío . a(t)
Tras unos sencillos cálculos, se obtiene para el factor de escala de la
expansión a(t) algo así como:
𝟐𝐊.𝛒𝐟𝐚𝐥𝐬𝐨 𝐯𝐚𝐜í𝐨.𝐭
a(t) = 𝐜
lo cual es una relación exponencial entre el factor de crecimiento y
el tiempo, potenciada por la intensidad de la densidad de energía del
campo inflatón en el falso vacío, y cuya paternidad debemos achacar
a que la presión negativa introducida por el inflatón nos ha cambiado
radicalmente el alma del proceso al haberse transmutado un signo
menos por uno más.
Remachemos el proceso usando la siguiente figura, caso particular de
la anterior, ejemplo de un potencial campo inflatón en su camino
64
hacia un mínimo energético. La aceleración expansiva se inicia en el
punto que hemos definido en la curva como Фinicio momento en el que
aún la energía potencial del campo V(Ф) dominaba a su energía
cinética, Ф2/2. Terminará en el momento Фend cuando la energía
cinética en su senda de crecimiento alcance un valor comparable a la
energía potencial, Ф2/2 ≈ V(Ф). En el intervalo temporal entre el
principio y el final se han ido generando fluctuaciones cuánticas,
semillas de las estructuras cósmicas que observamos hoy en día. Se
tratará con más detalle en posteriores capítulos. Por último, en la fase
de recalentamiento la densidad de energía del inflatón se va a
convertir en radiación y materia.
67
que situado en un estado de inestable superenfriamiento, en algún
momento va a transmitir la “anormal” energía contenida en ese
sistema superenfriado al propio sistema, devolviéndole así a su
natural posición de mayor temperatura. Esto es esencialmente lo que
sucede al final de la transición de fase GUT, cuando la energía
liberada en el congelamiento de la simetría se vuelve a depositar en
el universo para recalentarlo a lo que podría considerarse su
temperatura normal.
Precisamente esto es lo que le debió pasar al campo inflatón de Guth,
que se “derrumbó” desde la posición de falso vacío hacia el de
verdadero vacío a través de un proceso de “tunelaje” cuántico por el
que iban apareciendo espontáneamente burbujas de vacío verdadero
en el mar de falso vacío del Universo, burbujas que rápidamente se
aquietaban cargadas de energía mientras el resto del espacio/tiempo
seguía aún trabajando en el proceso explicado.
Al final, todo llegaba a ser un mundo de burbujas con grandes
cantidades de energía, que progresivamente se iban fusionando en un
espacio súper expandido. Se suponía que al juntarse las burbujas, en
el choque, se debían “alumbrar” las partículas de radiación y de
materia que hoy observamos por transmutación de la energía vertida
por el campo. Pero los cálculos decían que la expansión podía ser tan
rápida que nunca llegarían a encontrarse las burbujas. O tan lenta que
no se producía la necesaria expansión del espacio. La distribución de
probabilidades resultado de los cálculos cuánticos definía las
poblaciones de cada una de las posibilidades.
La idea general de Guth era buena pero, como apuntamos, tampoco
nos resolvía algún “detalle”. De forma que se tuvo que buscar
explicaciones distintas para la expansión, nuevas teorías que
siguieran estando enmarcadas dentro de la idea general de una
expansión exponencial.
Aquí entró la intuición del físico teórico ruso-americano Andréi
Linde, que perfeccionó la idea inicial de la inflación propuesta por
Alan H. Guth. Su punto de partida estaría en como ideaba una
hipótesis especial para la proporcionalidad entre el campo escalar
68
inflatón y su potencial, su energía. Se trataba de una propuesta que
no requería de efectos gravitatorios cuánticos, de transiciones de fase,
de un superenfriamiento o de un supercalentamiento inicial. Y a pesar
de ello el Universo, con la solución de Linde, se expandía aún a
mayor velocidad.
69
NOTAS CAPÍTULO 04:
70
05: Inflando el Universo II
71
a pesar de ello el Universo, con la solución de Linde, se expandía
aún a mayor velocidad.”.
Consideremos el modelo más simple de un campo escalar Φ de masa
m y con una densidad de su energía potencial V(Φ) = ½ m2 Φ2. Esta
podría ser la “proporcionalidad” entre el campo escalar inflatón y su
potencial de la que hablábamos en el párrafo anterior. Dado que esta
función tiene un mínimo en Φ = 0 se podría esperar que el campo
escalar Φ debería oscilar cerca de este mínimo. De hecho esto sería
lo que pasaría si el universo no estuviera expandiéndose, en cuyo caso
la ecuación de movimiento para el campo escalar sería similar a la
ecuación para un oscilador armónico, Φ
Ф̈ = −m2 Φ.
Sin embargo, debido a la expansión del universo, en la ecuación del
oscilador armónico aparece un término adicional 3HФ̇. A H se le
conoce como la constante de Hubble [1] y tiene que ver con las
características de crecimiento dinámico del tejido espacio/tiempo del
Universo. Entonces, teniendo en cuenta a la expansión, la nueva
ecuación queda como sigue:
Ф̈ + 3H Ф̇ = −m2 Φ
Para entender mejor el razonamiento de Linde, vamos a introducir el
concepto de rozamiento en el análisis teórico del campo inflatón. En
general los campos vibran en ondas siendo la mínima fundamental su
partícula característica. Las ecuaciones que rigen esa dinámica son
asimilables a las de los osciladores armónicos (un péndulo, un
muelle…) [2] de forma que, al igual que les pasa a los osciladores,
parece que los campos pueden verse afectados por algo parecido al
rozamiento.
Si comparamos las ecuaciones que definen ambos sistemas, la del
oscilador con rozamiento y la que introdujimos más arriba del campo
de Linde en un espacio/tiempo en expansión, en las dos aparece un
sumando adicional que no existe en las ecuaciones para un sistema
sin rozamiento, sumando que es proporcional, en el caso del
oscilador, a la derivada primera de la elongación, y para el campo
72
cuántico a la derivada primera del valor del campo, lo que permite
intuir que hay algo que debe estar afectando a la velocidad de sus
cambios.
𝑎̇ 𝑚
𝐻 = = 𝜙
𝑎 6
Según esta ecuación, cuando el valor Φ del campo es grande, cuando
está situado en la parte alta de la parábola del potencial, también lo
será el de H. Por lo que habrá que pensar que en estas posiciones hay
mayor “rozamiento”, mayor resistencia al cambio del valor del
campo Φ. Lo que nos permite pensar, sin demasiado error, que en
estas circunstancias al producirse un “rozamiento” tan grande,
podamos considerar a su valor como prácticamente constante. Si esto
fuera así, la resolución de la primera igualdad de la anterior ecuación
73
es muy sencilla y nos dice que el factor de escala “a” es una función
exponencial de H, según la siguiente relación:
Factor de crecimiento del universo a(t) = e Ht
A mayor valor del campo Φ mayor valor de H y, por tanto, mayor
rapidez de crecimiento del universo. Aumenta la velocidad de
crecimiento del universo mientras la velocidad de variación del
campo en su búsqueda de mínimos energéticos estaría
ralentizada porque, recordemos, para el campo el coeficiente H es
equivalente a un rozamiento. [3] Como veremos después este es un
detalle que se va a manifestar como muy trascendente. Recordemos
como el campo es el que va embalsando energía en el espacio/tiempo:
si la excursión a altos valores es lenta y dura mucho…
La anterior función exponencial de Linde dibuja una expansión
mucho más brutal en el tiempo que la que se postulaba en la teoría de
inflación de Guth
𝟐𝐊.𝛒𝐟𝐚𝐥𝐬𝐨 𝐯𝐚𝐜í𝐨.𝐭
a(t) = 𝐜
Un exponente directo del tiempo frente a un exponente de la raíz
cuadrada del tiempo.
Ante esta circunstancia física de ralentización en la dinámica de un
campo muy grande, Linde se planteó la siguiente posibilidad: ¿Y si
eso es lo que realmente pasó en los inicios? Unos inicios que no
tenían que ser calientes o energéticos, simplemente un campo potente
y lento. Esa solución era más general. Incluso el concepto podría
replicarse con campos que tuvieran potenciales suficientemente
planos, incluso como los utilizados en las anteriores teorías. Y
además resultaba mucho más fácil construir una teoría cosmológica
consistente sin hacer suposiciones innecesarias sobre el equilibrio
térmico, transiciones de fase a altas temperaturas en el universo
temprano, situaciones metaestables de campos inflacionarios o
efectos túnel como en los modelos de la vieja inflación.
Linde había encontrado un posible proceso teórico del que se deducía
una gran inflación experimentada por el Universo a partir del tiempo
t=10-35 segundos, con la que solucionaba las nieblas que dejaba la
74
teoría de Guth. De una forma muy intuitiva Linde lo explica mediante
el siguiente diagrama que es la ecuación del potencial de su campo
inflatón en un punto del espacio/tiempo (en todos los demás puntos
se comportaría exactamente igual aunque quizás con otra dinámica):
75
en un escenario donde se representan tres episodios separados,
aunque secuenciales en el tiempo:
Escenario base. En el capítulo 3 apuntamos la posibilidad de un
espacio/tiempo “burbujeante” bajo el imperio de la incertidumbre
cuántica. El estado cuántico del universo variaba de un sitio a otro de
manera caótica de forma que la excitación energética variaba por
regiones, en unas más que en otras. En las que se experimentaba una
excitación más alta se iniciaba una inflación más rápida y estable, de
modo que cuanto más excitado fuera el estado de una región concreta
del espacio, más inflación habría en esta región. Como resultado de
ese proceso inflacionario caótico el Universo se dividía en un cúmulo
de burbujas, mini universos, algunas mega inflándose mientras otras
apenas lo harían. Lógicamente las burbujas que experimentaban la
mayor inflación en el menor espacio del tiempo fueron las primeras
en depredar la mayoría del espacio total.
Ayudados por la figura anterior, podemos seguir lo que
probablemente sucedió en una de esas parcelas que podemos
imaginar la de nuestro Universo.
(a) Saliendo del estado de universo espuma y metidos en la zona
verde. En sus tramos más energéticos, en la parte alta de la curva, el
campo inflatón que partía de altos valores iba disminuyéndolo muy
lentamente, como si hubiera un gran rozamiento, de forma que le
costaba mucho deslizarse cuesta abajo en su excursión hacia el
mínimo del verdadero vacío. Esto hizo que permaneciera durante
mucho tiempo en este estado casi estacionario, sin variar
significativamente sus valores de campo y de potencial. Como ya
hemos comentado unos párrafos antes, eso se tradujo en una gran
constante de Hubble y, por tanto, en una expansión exponencial del
Universo a lo largo de todo este periodo. Matemáticamente se
demuestra que a la vez se estaban produciendo unas fluctuaciones
cuánticas de alto nivel. [5] Pero esto es harina de otro costal. La
realidad que ahora nos interesa es que mientras se estaba produciendo
este periodo de expansión brutal característico de la inflación, se
estaba también produciendo un colosal “embalsamiento” de energía
en el tejido del espacio/tiempo que en este momento estaba
incrementando su volumen de forma exponencial mientras el inflatón
76
prácticamente se mantenía en unos máximos de potencial que lo van
a ir permeando.
(b) Tras la zona inicial de descenso, en donde el efecto de la presión
negativa -recordadla del capítulo anterior, aunque hablaremos de ello
más adelante- y la expansión exponencial es mayor, entramos en la
zona naranja de la curva de estado del campo inflatón de Linde. El
potencial empieza a cambiar mucho más rápidamente, siendo la
transición a la zona morada muy corta, transición a lo largo de la cual
se generan en nuestro Universo en expansión fluctuaciones cuánticas
más pequeñas. Su distribución espacial va a ser el patrón de
distribución de masa en el futuro de este. Volveremos a hablar de esto
en otro capítulo.
79
vez tuvo un comienzo. Pero una cosa parece ser segura: terminó la
inflación y
80
que atrae. Nos percatamos de este último tipo de presión, por
ejemplo, cuando mantenemos a un muelle estirado entre las dos
manos, ya que en su estructura material lleva implícita una energía de
“aproximación”. Vista la presión desde esta perspectiva no se trata de
una energía gravitacional ya que solamente mueve substancias en
torno a un espacio interior sin cambiar el espacio en sí.
Sin embargo, hemos dicho que según las ecuaciones de la relatividad,
la influencia que la presión ejerce en su faceta gravitatoria
curiosamente SÍ afecta al espacio interior, sorprendentemente en
sentido contrario a lo intuitivo. Así que la presión positiva del sistema
Universo genera sobre su tejido una deformación, un efecto
gravitatorio de atracción; mientras que la tensión, o presión negativa,
genera en sus estructuras una gravedad negativa o de repulsión que
puede ser el reflejo de un incremento interno de energía. Recordemos
como en el capítulo tercero ya lo anunciábamos.
Esto último quizás se puede comprender mejor a través de un simple
ejemplo absolutamente teórico. Cuando hinchamos un globo el
espacio interior ejerce una presión positiva sobre la pared del globo,
ejerce un trabajo sobre ella, le suministra la energía suficiente para
estirar su tejido. Démosle la vuelta a la tortilla y esforcémonos en
imaginar el caso de “presión negativa” en un hipotético (y nada
intuitivo) proceso de hinchado del globo. El negativo teórico del
proceso anterior, que conceptuaremos como de presión negativa,
sería el que durante el proceso de expansión las paredes del globo
fueran las que ejercen la presión sobre el espacio interior. Una presión
contraria a la del caso original, como si el gas interior produjera sobre
el globo una presión negativa. En nuestro caso teórico las paredes
estarían ejerciendo un trabajo sobre el interior, esto es, le están dando
energía. Si la presión negativa sobre las paredes fuera constante, el
mundo interior del globo iría incrementando continuamente su
energía, por lo que este espacio interior no dejaría de expandirse
continuamente. Parecido a lo que le pasa al tejido espacio/temporal
del universo en su continuo camino expansivo.
Resumiendo los últimos párrafos, podemos decir que encontramos
una causa de la fuerza expansiva, tanto la que motorizó la inflación
exponencial como la que provoca la continua y diaria expansión del
81
espacio/tiempo, en una presión negativa anti gravitatoria. Algunos
prefieren llamarla “smooth tension” o “tensión lisa”, por tratarse de
una tensión de bajo valor que además está distribuida uniformemente
por todo el tejido del Universo. Ni más ni menos que lo que decíamos
de la presión negativa del campo inflatón en el capítulo anterior. Una
circunstancia física que nos permite enlazar en la realidad del
Universo la causa, una “smooth tension”, con el efecto, su continua
expansión, hoy dominada por lo que podría ser su alter ego la energía
oscura, o quizás mejor… presión oscura. [9]
Sí, esto es lo que se cree que sucedió entre t=10-35 segundos desde un
hipotético inicio del tiempo, fijado en el momento de una ficción
matemática que llamamos singularidad inicial, y el momento t=10-32
segundos. Pero lo más sorprendente fue el ritmo: cada 10-34 segundos
el Universo doblaba su escala, es decir, aproximadamente desde el
momento 10-35 segundos al 10-32 segundos dobló su tamaño ¡100
veces! ¡Un crecimiento superior a 1030 (~ 2100)! ¡Desde 10-20 veces el
tamaño de un protón hasta el tamaño de una naranja de 10
centímetros! ¡y todo en menos de 10-32 segundos! [10] La luz tarda 1022
veces más en recorrer el tamaño de esta expansión. Y esto no va en
contra de que nada puede viajar más deprisa que el límite que impone
el valor de la velocidad de la luz en el vacío, 300.000 km/seg.
Simplemente lo que sucede es que el tejido espacio/temporal ha dado
de sí creciendo a velocidades de vértigo.
Hasta aquí con la teoría de la fase inflacionaria del Universo. En el
capítulo siguiente nos adentraremos en algunos aspectos
cosmológicos que la inflación nos ha ayudado a entender mejor. O
eso creemos.
82
NOTAS DEL CAPÍTULO 05:
1. Edwin Hubble descubrió que las galaxias en el Universo se
separan unas de otras, a mayor velocidad cuanto más alejadas
están entre ellas. Actualmente una galaxia situada a una distancia
de 3,26 millones de años luz se aleja de nosotros a una velocidad
aproximada a unos 70 km/s. Al factor de proporción entre la
velocidad de desplazamiento y la distancia se le conoce como
constante de Hubble.
2. Para una mayor comprensión recomiendo seguir la serie “Fields
and Their Particles: With Math” del blog “Of particular
significance”.
[https://profmattstrassler.com/articles-and-posts/particle-physics-
basics/fields-and-their-particles-with-math/]
83
en el año 2014: “¿Qué sabemos sobre lo que sucedió antes de la
inflación? ¡suponiendo que haya habido inflación! Nada. Oh,
claro, hay muchas especulaciones científicamente
fundamentadas sobre lo que sucedió antes. Pero son muchas y se
contradicen entre sí; y actualmente no hay ningún tipo de datos
que pueda distinguir cuál de estas especulaciones podría ser la
correcta. Ni siquiera existe una teoría principal en la que la
mayoría de los científicos tienden a pensar que es la más
probable. Simplemente no se sabe. Por lo que sabemos, la
inflación es un proceso continuo que ocurre en la mayor parte
del universo… El universo se calentó después de la inflación. Si
también hizo calor en algún período anterior a la inflación es
completamente especulativo; no hay evidencia de una forma u
otra. Pero durante la inflación, [debido a la expansión] la
temperatura bajó a una pequeña fracción de grado por encima
del cero absoluto.” Una oda al Big Bang caliente post
inflacionario.
[https://profmattstrassler.com/articles-and-posts/relativity-space-
astronomy-and-cosmology/history-of-the-universe/inflation/]
84
Transcribo aquí un párrafo de Paul Davies en su libro “Los
últimos tres minutos” (capítulo 3): “Aunque la presión ejerce
una fuerza mecánica hacia el exterior, da origen a un tirón
gravitatorio hacia el interior. En el caso de los cuerpos que nos
son familiares, el efecto gravitatorio de la presión es
despreciable en comparación con el efecto de la masa de esos
cuerpos. Por ejemplo, menos de una mil millonésima parte del
peso de nuestro cuerpo en la Tierra se debe a la presión interna
de la Tierra. Sin embargo, el efecto de la presión es real, y en
un sistema en el que la presión llega a valores altísimos, el
efecto gravitatorio de la presión puede competir con el de la
masa”.
Y como un perfecto complemento de lo anterior transcribo lo
que dice un párrafo del libro “Camino a la realidad…” de Roger
Penrose (capítulo 19): “…las contribuciones de la presión a la
masa gravitatoria activa desempeñan papeles importantes en
ciertas condiciones extremas. Cuando una estrella muy masiva
se acerca a una situación en la que está en peligro de colapsar
bajo su propio tirón gravitacional hacia dentro, encontramos
que una presión aumentada en la estrella, que cabría esperar
ayudase a mantener la estrella, ¡incrementa en realidad la
tendencia a colapsar debido a la masa gravitatoria activa extra
que produce!”
86
06: ¡Qué grande es la inflación!
t = 10-32 segundos
87
Alan Guth, el cosmólogo que visionó el proceso de expansión
inflacionaria: “Toda la materia más toda la gravedad en el universo
observable es igual a cero. Por eso el Universo pudo surgir de la
nada, porque es, básicamente, nada”.
En el momento de alcanzar su estado de mínima energía, la del
verdadero vacío, el campo inflatón fue capaz de interactuar con los
nuevos campos surgidos en este momento de cambio de estado para
nuestro Universo. Campos correspondientes a nuevas partículas y
fuerzas; algunas serían como las actuales, otras extrañas o
desconocidas para nosotros. [2] El campo inflatón inducía estados de
vibración en los nuevos personajes, quizás mediante la
intermediación de una partícula que podríamos llamar también
inflatón, en un mundo de altísimas energías que rondaban los 1024
eV, muy alejadas de las que manejan nuestras capacidades
tecnológicas. Esto quiere decir que este momento y estas partículas
son aún inobservables para nosotros.
Diversas resoluciones teóricas del fenómeno de recalentamiento
parecen indicar que el proceso pudo iniciarse a partir de la formación
de burbujas de energía en determinadas regiones del espacio, que
serían ondas de materia muy localizadas y con una tremenda energía
cinética. A velocidad próxima a la de la luz, estas burbujas chocarían,
fragmentándose en otras más pequeñas y con unas longitudes de onda
menores. Con el paso del tiempo, y siguiendo este proceso, las
burbujas iniciales se habrían extendido por todo el espacio, que se
comportaría algo así como un fluido turbulento. Poco a poco se fue
atemperando esa turbulencia, alcanzándose un nivel de temperatura
homogéneo en todos los puntos. Todo ello en una pequeñísima
fracción de segundo. Estos procesos habrían generado un espectro de
ondas gravitatorias que si llegamos algún día a poder detectar nos
darían una alternativa al Gran Colisionador de Hadrones, LHC, o a
tecnologías similares que le sigan, para el análisis de lo que sucedió
en los momentos iniciales.
En ese universo de tamaño parecido al de una naranja, las partículas
y la radiación que convivían en su tejido tenían que moverse a
grandes velocidades al estar confinadas en un pequeño espacio. Dada
la alta energía de fondo se podría crear un abanico extenso de
88
partículas, desde las de gran masa hasta las más pequeñas. A pesar de
que desconocemos las características reales del campo inflatón,
incluso si realmente existió, se conjetura que las partículas creadas en
el recalentamiento pudieron ser de tipo escalar, algo semejante al
bosón de Higgs, a las que se añadirían bosones asociados a campos
vectoriales, como los fotones o los mediadores de la fuerza nuclear
débil. [3] Más materia fermiónica, como los electrones o los quarks. E
incluso partículas desconocidas por nosotros y que con posterioridad,
a medida que se iba enfriando el Universo, dieron lugar a materia
bariónica [4] que observamos hoy en día. Las velocidades serían tan
grandes y la energía de la radiación tan brutal, que continuamente
chocarían entre ellas, desapareciendo y creándose de nuevas. [5]
89
Densidad de energía (… un bonito problema)
En el capítulo anterior -cosa que como habéis visto remachamos en
éste- ya dijimos cómo la inflación fue la responsable de generar toda
la materia del Universo actual a partir de la nada del vacío, quizás en
un equivalente a la energía del volumen de Planck de unos 10-5
gramos, [6] con un mucho de ayuda de la gravedad. El modo tan
especial en que se movió el campo inflatón durante la expansión fue
embalsando en todos y cada uno de los nuevos dominios del tejido
del Universo una energía que llamamos “smooth tension” o “energía
oscura” o “constante cosmológica”. O incluso, como dicen algunos,
“presión oscura”.
Pero la teoría exige explicaciones concretas. Y la verdad es que la
realidad es más cruda. El problema que tenemos es que todas las
veces que nos ponemos a hacer un cálculo teórico cuántico de la
densidad de la energía del vacío llegamos a la cifra de 1091gr/cm3,
mientras que la que medimos en la realidad observable es del orden
de 10-29 gr/cm3. Un “pequeño” problema a resolver de una magnitud
de 10120. En un rapto de optimismo lo podemos ver más atemperado
si pensamos en masas, ya que la densidad del vacío es proporcional a
la cuarta potencia de una masa, lo que nos lleva a decir que la relación
entre la masa calculada y la observada es de 1030. Lo veamos como
lo veamos, la incongruencia es muy elevada. Y hoy por hoy no
tenemos ni idea del porqué. [7]
90
Quizás podamos entender mejor lo de la planitud a través de otro
razonamiento. Sabemos, gracias a la fantástica intuición de Einstein
objetivada en la relatividad general, que la masa-energía-presión
genera una deformación del tejido espacio/temporal. Y creo que de
tanto oírlo ya nos imaginamos bastante bien cuando se trata de
concentraciones “puntuales” de masa, que al deformar el espacio
provocan gravedad y desviaciones en las trayectorias de otros cuerpos
con o sin masa. De igual forma si pensamos a nivel global de todo el
Cosmos, podemos imaginar como toda la energía-masa contenida
provoca también una curvatura general de todo el Universo como nos
aseguran las ecuaciones de la relatividad de Einstein.
93
círculo, en realidad una esfera. Antes de la inflación, otros dos puntos
A y B estuvieron tan próximos que pudieron llegar al equilibrio
térmico. [14] Durante la inflación, A y B se han separado tan
rápidamente que después de la expansión exponencial aún seguían en
equilibrio térmico. En el momento (b) de la figura, el observador
habría perdido de vista ambos puntos ya que a la luz de A o B aún no
le habría dado tiempo a recorrer el espacio expandido, quedando
fuera del universo observable del momento. [15] Pero en el momento
actual, a la derecha de la imagen, sí que son visibles, y entonces el
observador que ve llegar la luz de A y B se puede dar cuenta de que
las características térmicas de los dos puntos son las mismas.
Estructura de la materia observada (… ese sí era un problema
difícil, al que parece que le hemos cogido el tono)
Hay otro misterio que también parece que nos puede aclarar el
proceso de expansión exponencial del Universo, todo gracias a la
mecánica… según nuestra teoría… que siguió el campo inflatón.
Hemos comentado en el capítulo anterior cómo a lo largo de su
recorrido hacia una situación de mínima energía el Universo se iba
expandiendo. A la vez, se iban generando en los puntos de su tejido
fluctuaciones cuánticas que los dejaban energizados. Al principio
estas fluctuaciones eran muy potentes, muy energéticas, y más tarde
más atemperadas, lo que pudo configurar en el tejido
espacio/temporal un bosque apretado de “púas” energéticas de
fluctuación cuántica. El gigantesco estiramiento inflacionario en un
factor de 1030 supuso necesariamente la separación y atenuamiento
de estas “púas” en el mismo factor. Las grandes ondas en un vaso de
agua se convirtieron en ligero cabrilleo de un océano. El Universo se
volvió muy, muy homogéneo, aunque tenuemente rizado de energía.
Imagen sutil, pero muy definitiva para lo que pasó en el futuro,
porque fue ése el factor que condicionó y modeló la distribución casi
homogénea del nuevo mundo de partículas aparecido tras el
recalentamiento, de forma que fue el germen por el que se pasó de la
homogeneidad a los racimos de materia que hoy en día observamos
mirando al cielo de nuestras noches. Las ligeras anisotropías debidas
a las diferentes energías gestadas en las fluctuaciones cuánticas,
atemperadas por la inflación, fueron suficientes para crear un
94
potencial gravitatorio que ordenó a la materia con el patrón que
observamos hoy en la estructura de estrellas y galaxias. Cosa que ya
analizaremos, por supuesto, en capítulos posteriores.
96
decaimiento del periodo orbital observado en un púlsar binario que
no podía ser producido de otra manera que al perder energía por la
emisión de ondas gravitatorias. Pero en 2016 el experimento LIGO[19]
nos dio una alegría al detectar unas ondas gravitatorias, GW150914,
de unos cientos de hercios producidas durante el choque y posterior
fusión de dos agujeros negros, hace ahora 1.400 millones de años.
100
evidente que no ha sido así. Por otro lado, tuvo que haberlos en tan
gran número y de forma compatible con lo que se observa en el
momento actual: sorprendentemente ninguno. Quizás los monopolos
se desintegraron con sus correspondientes “anti” en los momentos
iniciales de alta energía. Quién sabe. Quizás nuestra física es
incompleta y nunca han existido. A todo este galimatías se le conoce
como el problema del monopolo. [26]
Si se hubiera producido un periodo de inflación con anterioridad al
momento energético en el que se hubieran podido producir los
monopolos magnéticos tendríamos una posible solución a este
problema: los monopolos se hubieran separado entre sí a medida que
el Universo se iba expandiendo a sus pies, lo que hubiera reducido su
densidad en muchos órdenes de magnitud. De nuevo ¡qué grande es
la inflación! Incluso en el subconjunto de la hipótesis y la teoría.
Vamos a ir acabando, anunciando el tema del próximo capítulo que
dedicaremos a hablar de cosas que, aunque teóricas, nos van a decir
mucho acerca de los personajes que habitaban aquellas “oscuras”
edades. Vamos a hablar de materia y de antimateria.
101
la información no puede viajar más rápido que la velocidad de la luz.
Si durante la fase de rotura consideramos dos puntos en el espacio A
y B que están tan separados que la información de uno no puede
llegar al otro antes de que se complete la transición, habrá que
suponer que en cada uno de esos dos puntos se podrá “elegir” la
dirección del campo de Higgs que plazca, independientemente el uno
del otro. Y como debido a la simetría todas las direcciones eran
igualmente probables, tendremos que pensar que al igual que en
aquellos dominios donde la luz pudo llevar información la dirección
tenía que ser uniforme, también podremos pensar que en los dominio
situados en distancias más alejados, donde en conjunto no se había
producido el contacto de información, las direcciones del vector
Higgs serían diferentes, aleatorias y sin correlación. El universo
contenía casi un infinito de dominios en cada uno de los cuales la
dirección del vector del campo de Higgs sería distinta.
102
Sin embargo no acababa todo ahí. El campo de Higgs tenía que ser
continuo, no podía tener discontinuidades en ningún punto, por lo
que en aquellas zonas colindantes entre dos dominios contiguos con
vectores no paralelos, se tendrían que ir interpolando suavemente
sus valores y direcciones entre ellos. Aunque no es todo tan sencillo.
Imaginemos un punto en donde se tocan más de dos dominios, tres o
más. En ese caso, el campo no podría interpolarse continuamente
entre los cuatro dominios a no ser que se adoptara una solución
especial en el punto medio común. Podría comportarse ahí como un
vórtex girando.
Esta es la solución del monopolo de ’t Hooft-Polyakov en la que en
el vórtex el vector campo de Higgs tuviera un valor fijo, aunque
apuntando en diferentes direcciones, todas opuestas a un origen
común. En donde, como sería inimaginable que se desvaneciera el
campo, encontraríamos el sentido al vórtex mencionado, un grumo
de energía localizado en un pequeño volumen cerca del origen. Y
como según la teoría de la relatividad la energía es masa, eso
significa que en el origen central del vórtex tiene que existir una
masa localizada, en otras palabras, una partícula. El monopolo.
103
decir, en cierto sentido la métrica es la llave de la geometría de un
espacio, la llave maestra.
104
los eventos que nos interesan, por lo que este caso representa las
trayectorias de los cuerpos materiales en el espacio/tiempo «hacia el
futuro». En el caso que ds2 sea cero, las trayectorias (porque puede
haber infinitas trayectorias para ir de A a B) sólo pueden ser
plasmadas por perturbaciones del espacio/tiempo que se muevan a
la velocidad de la luz: en el mismo instante que nace el evento A, se
desplace espacialmente por donde se desplace, tiene que llegar y
coincidir con el naciente evento B.
105
una cuestión de tamaña importancia para conocer el devenir y la
realidad de nuestro Universo.
1. Con relación a la finitud o no del Universo hay que pensar que toda
nuestra experiencia sobre él, y los cálculos que más nos aproximan
a lo que vemos, están basados en el principio cosmológico de un
universo homogéneo -igual en todos sus puntos- e isotrópico -en
cualquier dirección que miremos vemos lo mismo-. Si esto es así
el Universo no podría tener bordes en donde se perdiera la
homogeneidad. Luego si hay que apostar yo lo haría a la baza de
finito y cerrado como una esfera.
2. Para saber un poco más acerca de cómo interactúan teóricamente
los campos cuánticos y de qué forma a partir de estas interacciones
surgen las partículas, recomiendo leerse los magníficos artículos
del blog del físico teórico Matt Strassler, “Of particular
significance”, de los que selecciono dos relacionados con lo que
hablamos en este momento en nuestra serie:
[https://profmattstrassler.com/articles-and-posts/particle-physics-
basics/fields-and-their-particles-with-math/7-particles-are-quanta/]
[https://profmattstrassler.com/articles-and-posts/particle-physics-
basics/fields-and-their-particles-with-math/8-how-particles-and-fields-
interact/]
106
intrínseco de toda partícula. A principios del siglo XX, cuando se
descubrió el espín, se le llamó así porque la ecuación matemática
que describía el comportamiento de esta propiedad de las
partículas se parecía a la que describía también un cuerpo rígido
clásico que giraba sobre sí mismo. Aunque, en contraste con la
mecánica clásica, donde el momento angular se asocia a la
rotación de un objeto extenso, el espín es un fenómeno
exclusivamente cuántico, que no se puede relacionar de forma
directa con una rotación en el espacio.
sfermión= 𝑛 + ħ sbosón = mħ
107
Alcubierre… o cómo moverse por el tiempo sin necesidad de
agujeros de gusano o similares.
[cuentoscuanticos.com/2016/11/23/el-motor-de-curvatura-de-alcubierre-
viajes-hiper-rapidos-en-relatividad-general/#more-9916]
[https://fisicalandia.com/relatividad/minkowski/]
ρc(t) = 3H2(t)/8πG
δ ≡ δρ / 𝜌̅ ≡ (ρ - 𝜌̅ ) / 𝜌̅
108
mayores, se encuentra que los contrastes de densidad son casi
siempre muy pequeños de forma que se llega a valores δ << 1.
109
20. Imagen extraída de la publicación “Observation of
Gravitational Waves from a Binary Black Hole Merger”, figura 2,
B. P. Abbott et al., febrero 2016.
[https://journals.aps.org/prl/pdf/10.1103/PhysRevLett.116.061102]
[https://eltamiz.com/las-ecuaciones-de-maxwell/]
25. Del Gran Colapso o Big Crunch hablaremos con más detalle en
el capítulo 35.
26. Para una mayor información podéis acudir a “Introduction to
Magnetic Monopoles”, Arttu Rajantie, abril 2012.
[https://arxiv.org/pdf/1204.3077v1.pdf]
110
A pesar de las dificultades parece que sí se han observado
físicamente monopolos reales, o algo que se comporta como ellos.
Lo podéis ver en este artículo: “Creation of Dirac monopoles in
spinor Bose-Einstein condensates”, Ville Pietilä et al., marzo
2009.
[https://arxiv.org/pdf/0903.4732.pdf]
111
07: De materia y antimateria I
114
las masas se atraen entre sí a través del campo gravitatorio. Todo es
consecuencia de que las excitaciones de los distintos campos se han
entrelazado en mayor o menor medida de acuerdo con la fuerza de
acoplamiento entre ellos.
Éste es el proceso general que determina la física -y que se observa
aplicada en la química- de nuestro Universo. A partir del mismo
momento inicial de nuestra historia. Aunque parece que todas estas
explicaciones teóricas nos desvían del camino propuesto, no queda
más remedio que hablar de ello para una mejor comprensión de lo
que vamos a descubrir. Es su base.
Bajemos a hablar más en concreto acerca de las partículas haciendo
un relato de la nómina de los personajes más elementales que van a
estar presentes. Inevitablemente, desde un punto de vista teórico, el
número de partículas puede ser infinito, cosa que explico de la mano
del premio Nobel de física Roger Penrose.
En su libro “El camino a la realidad: Una guía completa a las leyes
del universo” hace la siguiente consideración: “… la partícula y la
antipartícula pueden juntarse y aniquilarse mutuamente,
convirtiéndose su masa combinada en energía de acuerdo con la
expresión E=mc2 de Einstein; recíprocamente, si se introduce
energía suficiente [y a nivel cuántico según el principio de
incertidumbre hay posibilidad de energía a espuertas] en un sistema
localizado en una región apropiadamente pequeña, entonces hay una
fuerte posibilidad de que esta energía pudiera servir para crear una
partícula junto con su antipartícula. Así pues, con ese potencial para
la producción de antipartículas existe siempre la posibilidad de que
más partículas entren en la imagen… Por consiguiente, cuando uno
trata de llegar a una teoría de partículas relativistas se ve impulsado
a ofrecer una teoría en la que existe un potencial para la creación
de un número ilimitado de partículas.” Pero que no cunda el pánico
pues, como veréis ahora mismo, nos arreglamos muy bien con unas
pocas.
Hasta ahora sólo hemos hablado de un hipotético campo de
unificación, el de la interacción GUT [4] con sus bosones X e Y, o de
un no menos hipotético campo inflatón y su hipotética partícula el
115
inflatón. Pero como hemos comentado, hay muchos más campos y
cada uno de ellos tiene una partícula/onda asociada, su excitación
fundamental. Así que hablemos de la panoplia de partículas. [5] El
modelo estándar maneja dos tipos: los fermiones y los bosones. Los
primeros son los que van a formar la materia que observamos -los
quarks y sus subproductos, como el protón o el neutrón, y los
leptones, como el electrón o los neutrinos-. En cuanto a los segundos,
los bosones -el fotón, el gluon…-, diré que son los que van a mediar
las interacciones con las fuerzas fundamentales.
Es curioso cómo las partículas conocidas de la materia, los fermiones,
se agrupan formando familias: tres de quarks y otras tres de leptones,
con unas masas situadas a tres niveles progresivos de energía, sin que
se descarte el que podamos encontrar más partículas a energías
superiores. En cada una de esas familias hay partículas de dos
“sabores”. Por otro lado están los cuatro tipos de bosones que
intermedian en cada una de las fuerzas fundamentales, a los que se
les ha unido el higgs, de reciente puesta de largo en sociedad. [6]
117
infinitesimal de antimateria. Y esto último sí que es raro, ya que o
debería haber la misma materia que antimateria, o no debería haber
nada ni de una ni de otra.
Podríamos postular que esta diferencia viene “de fábrica” y que fuera
una característica natural del universo desde su nacimiento. Lo que
observamos hoy en día parece decirnos que hay una partícula de
antimateria por cada diez mil millones de partículas de materia, es
decir, que su relación de densidades es de 10-10. [9] Dado que cualquier
asimetría bariónica primordial habría sido diluida exponencialmente
durante la inflación, el dato observado hoy exige la existencia de una
diferencia materia/antimateria durante la época GUT anterior a la
inflación del orden de 1069. Este número parece impensable como
dato que venga, según lo que hemos denominado, “de fábrica”, por
lo que se considera más probable que inicialmente la diferencia entre
materia y antimateria fuera nula para con posterioridad, y a través de
algún proceso físico hoy por hoy desconocido, se generara el
parámetro de asimetría tan grande que se observa ahora. Por eso los
físicos se las están ingeniando, sin ningún resultado concreto
convincente todavía, aunque de forma esperanzadora, buscando
procesos que hubieran podido producir la diferencia materia-
antimateria que hoy vivimos.
En el siguiente capítulo continuaremos con el tema de la antimateria
hablando del físico ruso Andréi Sájarov, padre de la teoría que resulta
ser la biblia para todos los que estudian el misterio poblacional de la
materia y la antimateria.
119
NOTAS DEL CAPÍTULO 07:
120
8. He subrayado la palabra pares con toda la intención ya que hay
múltiples procesos en el Universo actual o en nuestros
laboratorios en los que se generan partículas de antimateria
individuales. Un ejemplo clásico lo observamos en la cascada de
reacciones que se provoca al penetrar un rayo cósmico en la
atmósfera terrestre
9. Realmente según esta publicación de Davidson, Nardi y
Mir, parece que está en el siguiente rango de 0.16 < η × 1010 <
6.2, siendo η un parámetro que cuantifica la relación de
densidades de bariones y antibariones, y que es conocido como
el parámetro de asimetría.
[https://arxiv.org/pdf/0802.2962v3.pdf]
121
08: De materia y antimateria II
126
Creo que ya estamos preparados con argumentos suficientes como
para que, al leer los capítulos que siguen, no nos sorprenda lo que
vamos a ver sucediendo a lo largo de la historia que iremos
despiezando mientras seguimos el paso del tiempo. Y lo que sucede
es simplemente que al ir cambiando las condiciones ambientales
medias del Universo van apareciendo progresivamente nuevas
posibilidades de equilibrios, tras los que se van a ir consolidando
nuevas partículas y posibilitando la acción de las fuerzas que
conforman nuestra más próxima realidad. La historia continúa en un
puré con mucha radiación.
129
[https://cuentos-cuanticos.com/2011/10/11/gauge-esto-gauge-lo-otro-
%C2%BFque-es-una-teoria-gauge/]
3. Del blog Ciencia para Llevar, Beatriz Gato Rivera y Mar Gulis:
“En un sentido amplio, la antimateria puede considerarse como el
reverso de la materia o como una imagen especular de la misma
respecto a varios ‘espejos’… Las partículas de antimateria tienen
sus propiedades opuestas respecto a las de las partículas de
materia. Esto se refiere solo a aquellas propiedades que admiten
valores opuestos, ya que las propiedades que no admiten valores
opuestos son idénticas para las partículas y sus antipartículas.
Por ejemplo, el electrón y su antipartícula, el positrón, con la
misma masa y el mismo espín, tienen valores opuestos de la carga
eléctrica, la carga débil y la carga leptónica”.
4. La palabra bariogénesis, al contrario de lo que podrías interpretar
(el proceso de génesis de los tipos de bariones), se trata del término
genérico utilizado para referirse a los hipotéticos procesos físicos
que produjeron una asimetría entre bariones y antibariones durante
los primeros instantes de la creación del universo. A ese proceso
primigenio algunos le llaman la gran aniquilación. Muy gráfico.
5. Lo especifico como creación/aniquilación por pares ya que se
entiende muy bien. Aunque realmente hay otros procesos de
creación/aniquilación en los que participan independientemente y
son mediados por otras partículas.
6. Para una mayor información podéis leer la entrada especifica que
Pedro Gómez-Rey dedica a ello en el blog “El Tamiz”.
[http://eltamiz.com/2007/08/26/esas-maravillosas-particulas-el-kaon/]
7. Para los más curiosos propongo este enlace al blog “Naukas” que
amplía el tema:
[http://francis.naukas.com/2010/07/04/la-asimetria-entre-materia-y-
antimateria/]
130
8. De nuevo para mentes curiosas. Esta serie de artículos son bastante
ilustrativos de lo que pasa en el interior de protones y neutrones.
[https://profmattstrassler.com/articles-and-posts/particle-physics-
basics/the-structure-of-matter/protons-and-neutrons/]
[https://profmattstrassler.com/articles-and-
posts/largehadroncolliderfaq/whats-a-proton-anyway/]
[https://profmattstrassler.com/articles-and-
posts/largehadroncolliderfaq/whats-a-proton-anyway/checking-whats-
inside-a-proton/]
131
09: Un puré con mucha radiación
132
fluctuaciones cuánticas, rincones de mayor o menor energía, que
habían aparecido a lo largo de la excursión del campo inflatón hacia
su mínima energía. Por delante le quedaba unos 380.000 años de puré
de partículas y radiación. En realidad, más de lo último que de lo
primero.
Estamos entrando en una nueva era que conocemos como la época
electrodébil, [1] durante la que va culminando el proceso de
bariogénesis por el que la materia se va a decantar definitivamente
frente a la antimateria, permitiendo el nacimiento de los quarks que
con el tiempo acabarán formando los protones y los neutrones… en
fin, la familia de los bariones. Esta época terminará cuando culmine
la separación de las interacciones electromagnética y nuclear débil en
el tiempo 10-12 segundos. Pero veamos con un poco más de detalle lo
que pudo pasar a lo largo de esta fase.
¿Cuál es el escenario teórico? El modelo estándar de partículas no es
definitivo en el rango de energías en el que nos movemos en esta
época. Podemos decir que hay un “océano” neblinoso tremendo entre
los niveles energéticos que acotan esta época, entre 1015 y 104 GeV.
Océano en el que nos vamos a asomar en este capítulo para ver quién
chapoteaba por ahí. El nivel inferior de energía, 104 GeV, es la
profundidad de campo “visual” que nos proporciona el LHC, en
donde hemos encontrado la última partícula postulada por el Modelo
Estándar, el bosón de Higgs. Tan es así de neblinoso el intervalo que
los físicos teóricos le llaman “gran desierto”. Están a la espera de la
aparición de una nueva física que enlace el modelo estándar con las
exigencias de la unificación GUT. Parece que el LHC ha dado todo
lo que podía, aunque siguen las esperanzas puestas en que en su tope
alto de energía nos revele algún partícula, alguna interacción, que
concuerde y nos lleve de la mano a alguna predicción de teorías,
como la de la supersimetría o de muchas otras que están en el limbo
de la matemática. Como nos dice el premio Nobel de física Steven
Weinberg: “Teníamos esperanza de que el LHC revelara algo
realmente nuevo. No que solamente siguiese confirmando el Modelo
Estándar, sino que encontrase signos de materia oscura o
supersimetría o algo que nos llevase al siguiente gran paso en la
133
física fundamental”. [2] Esas son las tibias esperanzas. Pero tenemos
que avanzar en nuestra biografía y presuponer algo con visos de
coherencia con el mundo testado.
¿Qué tipo de partículas podían ser posibles en el escenario de la época
electrodébil? La teoría GUT nos sugiere que uno de sus principales
legados pudo ser la aparición y consiguiente condensación de un
verdadero “zoo” de partículas elementales que interactuaban entre
ellas muy débilmente ¿quizás de materia oscura? Algunas de ellas,
como los antiguos bosones X e Y del Campo Unificado se habrían
descompuesto en algún tipo de quarks, en electrones y positrones, y
en algún tipo de neutrinos, que moldearon el proceso de bariogénesis,
el dominio de la materia frente a la antimateria, que ya comentamos
en el capítulo ocho. Como consecuencia, en estos momentos ya
tendríamos presentes en el plasma a algunas de las partículas
elementales, quarks y leptones. Además de la “infinita” radiación
existente comparada con la materia, los fotones, a los que incluso
podríamos asimilar en cierto sentido los neutrinos moviéndose a
velocidades relativistas. Realmente los fotones como tales aún no
existían. Sí que en su lugar podríamos encontrar a una partícula
“correcaminos” sin masa intermediadora del campo electrodébil de
aquel momento que más tarde, gracias a la interacción con el campo
de Higgs, generó a cuatro hijas: tres para el campo débil y nuestro
conocido fotón para el electromagnético. Hablaremos de ello en otro
capítulo. Y aunque no sea exactamente cierto para el momento que
estamos analizando, al bosón electrodébil le anticiparemos el nombre
de fotón.
Hay que pensar que gran parte de la población se estaría produciendo
por choque de los fotones de la radiación, generándose cualquier
partícula de las familias de quarks y leptones en parejas de materia-
antimateria. No durarían mucho, ya que las partículas se aniquilarían
rápidamente con sus antipartículas generando de nuevo fotones. En
todas ellas, dado el nivel energético medio sobre el que estaba
cabalgando el Universo, entre 1024 y 1012 eV, esto sería lo más
común: paso de partículas a radiación y a la vez de radiación a
134
partículas, en las proporciones precisas para que en el plasma hubiera
lo que llamamos un equilibrio térmico, es decir, siempre el mismo
número de partículas, siempre el mismo número de fotones, y ambas
poblaciones iguales.
(radiación) fotón + fotón ↔ partícula + antipartícula (materia)
Podemos también preguntarnos si en aquel marasmo de energético
plasma pudiera haber otras cosas, como subpartículas de estos quarks
elementales. La respuesta es clara… no lo sabemos. Ni siquiera
sabemos si existen ¿Y partículas más pesadas? ¿O compuestas por
los elementales quarks? Había energía más que suficiente, aunque no
tenemos evidencia ninguna de partículas súper pesadas como las que,
por ejemplo, se postulan en la teoría de la supersimetría
coloquialmente conocida como SUSY, [3] que entre otras cosas dice
que cada partícula fermión tiene una pareja bosón, y que a su vez cada
bosón tiene una pareja, que es un fermión. Parejas que, o bien son
ambas de materia, o bien ambas de antimateria. Si en aquel momento
estaban participando en el equilibrio térmico, no tenemos forma de
saberlo. El hecho de que no sepamos casi nada de nada, no quita que
nos preguntemos también si quizás en la época electrodébil
estuvieron presentes las partículas teóricas que componen la materia
oscura, que forma casi el 30% de nuestro Universo.
La materia oscura es una realidad que podemos percibir por métodos
indirectos, aunque no sabemos lo que es, qué la constituye. Algunos
físicos a estas partículas “oscuras” las han bautizado con el nombre
de wimp -weakly interacting massive particles-, partículas masivas
pero que interactúan muy poco, entre las que parece podría colocarse
el masivo neutralino, nombre genérico para una familia de súper
partículas postuladas por la teoría SUSY que podrían tener una masa
del orden de unos doscientos protones -200 GeV-, por lo que quizás
las podríamos detectar en el LHC. Para el Universo de nuestros días
también son populares entre algunos físicos las partículas agrupadas
bajo el nombre cold dark matter, CDM. Frías -cold- porque sus
energías serían bajas ¿quizás los esquivos neutrinos? Sean como sean
y lo que sean esas familias de partículas, lo que es cierto es que en
135
algún sitio del plasma de aquellos instantes tendría que encontrarse
la materia oscura.
Pero no hace falta ir solamente por las nebulosas de la ignorancia,
porque nos podemos preguntar por partículas que conocemos mejor,
como son los bariones -el protón y el neutrón-, ambos con unas masas
en reposo en el entorno de 109 eV (es decir, 1 GeV). ¿Estarían en
aquel plasma? ¿o quizás… incluso podríamos ver núcleos atómicos?
En ambos casos sí tenemos una respuesta y es sencilla: es imposible
que este tipo de partículas o de conglomerados de partículas
estuvieran ya presentes en el plasma ¿Por qué? Porque para que
pudieran formarse a partir de las partículas más elementales, los
quarks, deberíamos tener a nuestras fuerzas fundamentales no solo
operativas sino también con condiciones de entorno “amigables”. Y
esto aún no era así, como vamos a ver al revisar en qué situación se
encontraban los respectivos campos de las fuerzas.
Para empezar por lo fácil, [A] la gravedad siempre ha sido debilísima
en comparación a la presión de la energía del momento, pero ahí
estaba operativa desde el principio, y aunque no influía directamente
en la generación de partículas, sí estaría curvando el tejido
espacio/temporal.
[B] La fuerza nuclear fuerte, que creemos ya había aparecido como
una entidad propia antes de la inflación, se encontraría dedicada a
intentar producir interacciones entre las partículas con carga de
color:[4] quarks, antiquarks y su partícula intermediadora, el gluon.
Los quarks aún no habían conseguido masa, faltaba aun un poco para
que el campo de Higgs se condensase. Imaginaos las velocidades tan
extremas que desarrollarían esas partículas con masa cero en reposo.
La interacción fuerte es realmente potente en la cortísima distanciase
dentro de un margen muy pequeño de 10-15 metros. [5] Más allá se
difumina con gran rapidez. Al ser tal la energía cinética de las
partículas de color en aquellos instantes, si las hubiera, tenemos que
pensar que tendrían grandes dificultades en acercarse lo preciso
durante un tiempo suficiente como para unirse y conformar “objetos”
de color neutro. Tal vez los gluones generaban ocasionalmente pares
quark/antiquark que desaparecían rápidamente formando nuevos
gluones. A la postre se construía y deconstruía un borboteante puré
136
de quarks y gluones en un continuo baile conocida como el plasma
quark-gluon. Por semejanza al plasma del mundo electromagnético
en donde los iones campan a sus anchas sin interaccionar.
Hablaremos más de todo ello en el capítulo 12.
Había aun otra fuerza, [C] la electrodébil, que ya sabemos que en
aquellos niveles energéticos fusionaba a dos conocidas por nosotros,
como son la nuclear débil y el electromagnetismo. Seguían siendo
indistinguibles y no sabemos muy bien cómo interactuaría su campo
electrodébil con la materia. Hoy se manifiestan a través de la
desintegración beta de los quarks y por la atracción-repulsión
electromagnética entre cargas ¿electrodébiles? Para lo primero se
necesitaban unos bosones intermediadores W y Z, con masa, y por
aquel entonces aún no podía acudir en su ayuda el campo de Higgs -
el responsable de las masas de las partículas elementales-, que no
rompió simetrías hasta que el Universo no llegó a niveles energéticos
de alrededor de 102 GeV.
Para la segunda interacción, las reacciones entre cargas eléctricas, la
dificultad estribaba en que la velocidad de las partículas cargadas no
permitía establecer relaciones de proximidad suficientemente
duraderas como para que la fuerza electromagnética pudiera
desperezarse y actuar. Pensad que la energía del electrón que orbita
un protón en el hidrógeno es del orden de los 17 eV y es el resultado
de la atracción entre las cargas de ambas partículas. Nada que hacer
a lo largo de una época que terminó con una energía del orden de 103
GeV. Así que nada de protones o neutrones, y mucho menos núcleos
atómicos.
En resumen, más allá de lo que podamos teorizar con partículas
exóticas masivas que pudieran aparecer y desaparecer casi al instante
a través de episodios de inestabilidad cuántica, tenemos que imaginar
más bien un plasma con partículas sin masa, que en aquel momento
estaría constituido por todos los bosones intermediadores de fuerzas,
más las partículas elementales bariónicas, como los quarks y los dos
leptones, el electrón y el ligerísimo neutrino. Todos ellos serían los
personajes del mundo electrodébil, cuyas poblaciones seguían una
particular dinámica.
137
Recordemos cómo el Cosmos estaba en expansión, circunstancia que
hacía que la radiación existente se fuera difuminando en un volumen
cada vez mayor y además sus partículas -los fotones-, debido a la
propia expansión del tejido soporte iban también “estirando” la
longitud de sus ondas. Lo cual tenía como consecuencia que las
partículas de la radiación eran cada vez menos energéticas dentro de
un Universo cada vez más frío. [6] A las reacciones de aniquilación
materia-antimateria la circunstancia puede que le fuera
completamente indiferente y seguirían generando incansables nuevas
partículas de radiación. Sin embargo, si miramos en el otro sentido
de la reacción, la de la creación de pares materia-antimateria por
choque de radiación, tenemos que pensar que progresivamente se iría
ralentizando al ser los fotones cada vez menos energéticos y, por
tanto, con menos energía para transformarla en materia. Por ello, el
equilibrio térmico se iba progresivamente deshaciendo a favor de los
fotones. En resumen, se estaba viviendo una progresiva marcha hacia
una situación de más fotones y comparativamente menos partículas
de materia. Esto es lo que podemos observar hoy en día, de forma que
lo que realmente contabilizamos en el Cosmos es que hay mil
millones de fotones por cada protón-neutrón, que además son
prácticamente todos de materia salvo alguno de antimateria.
140
energéticas pudieran ser las partículas, más interactuarían entre
ellas y la probabilidad de reaccionar mayor. Y lo contrario.
Así que a medida que las condiciones externas del Universo iban
cambiando, las velocidades de reacción entre partículas también
cambiaban. De forma que dependiendo de cómo comparaba la
velocidad de la expansión con la velocidad con que se llevaban a
cabo las reacciones entre partículas, todo podía transcurrir de forma
muy diferente. La mezcla de partículas en todo momento dependía de
la competencia entre las reacciones que reestablecían el equilibrio,
que dependían del nivel de temperatura, y el cambio de esta misma
temperatura debido a la expansión cósmica. Si la expansión hubiera
sido muy rápida las partículas se habrían separado tan deprisa que
no hubieran tenido posibilidad de encontrarse ni tiempo para
reaccionar y reequilibrar el conjunto de energías en el Universo al
nivel que determinaba la nueva temperatura fijada por la expansión.
Si esta hubiera sido muy lenta hubiera habido tiempo para alcanzar
algún estado de equilibrio, las reacciones hubieran sido muy
distintas y el Universo también. Que es lo que pasó.
Estas ideas, que en el fondo son otra manera de contar lo que
informaba el anexo al capítulo 8 “Complementos sobre la aparición
de la materia”, van a estar latentes a lo largo de todos los capítulos
que describen la infancia y juventud del Universo. Conforman una
regla básica en su biografía.
141
[https://cuentos-cuanticos.com/2011/09/01/supercosas/]
142
10: La liberación de la fuerza débil I
¡Esta figura me suena!, dirás. Y tienes toda la razón. Viste una casi
igual en el capítulo cuarto, en el que hablábamos del campo
inflatón. La diferencia está en que ahora en vez de leer inflatón
estás leyendo Higgs. Si, la base teórica de los dos funciona igual.
145
El campo de Higgs permeaba desde siempre toda la extensión del
espacio/tiempo. A medida que iba descendiendo la temperatura del
Cosmos, la curva del campo Higgs, la que dibuja en todos los puntos
del espacio la correlación entre el propio valor del campo y el de su
energía, atemperaba su forma dibujando con el transcurrir del tiempo
una especie de “aleteo”, como hemos intentado dibujar en la
superposición de instantáneas fijas que es la figura anterior, en donde
la flecha roja es la del tiempo. Y esto era lo mismo en todos y cada
uno de los puntos del homogéneo Universo. A altas temperaturas, la
curva identitaria del campo se ajustaba bastante bien a una parábola.
En estas condiciones el campo de Higgs se habría situado en el fondo
de mínima energía de esta parábola, en donde se encontraba en una
posición relativamente precaria: con el paso del tiempo, estar en este
mínimo energético, E0, no podía ser una situación muy estable, ya
que este valor no era el que marcaba la referencia de energía cero para
el resto del Universo, pues había niveles de energía menores.
Al ir bajando aún más la temperatura, la curva característica se fue
modificando hacia otro tipo de curvas de cuarto grado, deslizando su
contorno de forma que, a medida que transcurría el tiempo, se
posibilitaban nuevos puntos de mínima energía, cada vez menor.
Todo ello hacía que mantenerse en el punto E0 de energía no-cero,
fuera cada vez más difícil para el campo. En ese punto (0, E0) el
campo de Higgs se encontraba, a medida que transcurría la expansión
del Universo, en una situación que progresivamente era más
inestable. Paulatinamente iba creciendo el termodinámico
“impulso”[5] a colocar al campo en estos nuevos mínimos de energía,
fuera del pozo del falso vacío en el que se hallaba instalado desde los
inicios. Como le había sucedido al campo inflatón hacía muchos
electronvoltios, aunque realmente muy, muy poco tiempo, nuestro
campo de Higgs inició en todos los puntos del Universo homogéneo
e isotrópico una excursión hacia el verdadero mínimo de energía.
Hasta que llegó al nuevo estado de equilibrio en un vacío real de
energía nula con un valor de campo H0. En todos los puntos del
espacio/tiempo dejó de tener un valor promedio cero para
establecerse en todos los puntos del espacio/tiempo un valor H0.
Los físicos interpretan ese proceso como la espoleta de una rotura
146
de la ancestral simetría electrodébil en todo el universo y como el
santo grial de la masa de las partículas elementales.
Así que eso es lo que creemos que le paso al campo de Higgs, rodó
al vacío verdadero de menor energía en donde se quedó con un valor
no nulo que un poco más arriba en el texto lo habíamos bautizado
como H0. En el proceso, en ese campo se generaron tres bosones
propios sin masa, que serán los que curiosamente la darán a otras
partículas elementales con las que se acoplen, y otro bosón más con
masa, el “auténtico” Higgs. Por eso en otro párrafo más arriba
habíamos dicho: “Tenemos que pensar que al unísono [el campo de
Higgs] comenzaría a acoplarse con el campo electrodébil, lo que hizo
que de los cuatro bosones que “históricamente” se generaban a altas
energías en las excitaciones de este último campo, W1, W2, W3 y B
adquirieran masa tres de ellos, mientras el cuarto siguió con el
mismo carácter de “cero masa” que había tenido hasta entonces.”
Los tres bosones de la fuerza débil más el fotón.
148
el mundo real y tangible, la del espacio/tiempo, y la segunda en el
mundo interno de la matemática y los objetos que describe. De ahí
que antes le hayamos llamado simetría interna.
Normalmente alrededor de este último tipo de simetrías oiremos
hablar de simetrías U(n) o SU(n), por ejemplo. Lo cual no deja de
ser más que un lenguaje matemático dentro de unas teorías
“internas” que se conocen como “gauge”. En esa teoría estas
simetrías “no materiales” pueden representarse por un conjunto de
matrices unitarias nominadas como U(n) o SU(n), siendo n el
tamaño/dimensión de las matrices. El grupo de simetría interna más
simple es el U(1). Geométricamente corresponde a la simetría
rotacional de un círculo girando un ángulo. Las simetrías SU(n)
también son simetrías rotacionales, pero en un espacio 2D, 3D o
incluso mayor. Coloquialmente las entiendo como Súper Ues.
Mientras que a bajas energías, nuestro mundo, la simetría SU(2)
describe la interacción débil y la U(1) describe la interacción
electromagnética, en realidad se unifican a energías de alrededor de
~250 GeV, más o menos la energía de cambio de fase para la escala
electrodébil. A esas energías y superiores, el grupo combinado SU(2)
× U(1) describe las interacciones electrodébiles y esas dos fuerzas
se unifican El modelo estándar de física de partículas también es una
teoría de gauge, pero con una simetría más complicada:
U(1)×SU(2)×SU(3). El primer grupo, U(1), está relacionado con el
electromagnetismo, el segundo grupo está relacionado con la fuerza
nuclear débil y el tercer grupo está relacionado con la fuerza nuclear
fuerte.
A las simetrías internas que pueden mantenerse coherentemente al
ser aplicables de forma única a todo el espacio en general, se las
conoce como simetrías globales. Aunque también las hay que pueden
ser aplicadas de distinta manera en cada uno de sus puntos y aun así
mantener el alma de simetría. En ese caso se les llama simetrías
locales y exigen necesariamente el que aparezca un nuevo personaje
que “lime” las diferencias locales para generar una simetría
general. Si estudiamos la aplicación de simetrías internas a las
ecuaciones de estado de los campos cuánticos vemos que realmente
aparece necesariamente este nuevo personaje, que en concreto es un
149
campo cuántico de interacción, como puede ser el electromagnético
o el nuclear fuerte. A partir de ello la partícula esencial de un campo
puede “emparejarse” con la partícula mediadora de fuerza de otro
campo con la que interactuará con una intensidad que depende de la
constante de acoplo de ambos campos.
En resumen: hay simetrías (y si son locales) cosas que se
conservan exigen interacciones (fuerzas)
Vamos a intentar visualizar ahora que es eso de la simetría y su
rotura. Imaginemos dos campos Ф1 y Ф2 acoplados y con una
distribución campo/potencial en ambos del tipo cuadrático como el
apuntado en una figura de más arriba para el campo Higgs. Al ser
dos campos acoplados vamos a dibujarlos de forma que el plano x,y
nos de sus valores y dejando la coordenada z para representar al
valor del potencial conjunto. Lo que se visualiza como un potencial
en sombrero mejicano. Y eso será así para todos los puntos del
espacio.
[https://profmattstrassler.com/articles-and-posts/particle-physics-
basics/how-the-higgs-field-works-with-math/1-the-basic-idea/]
152
11: La liberación de la fuerza débil II
153
K2 tiene que ver con la fuerza de acoplamiento entre el campo Ф y
los que intervienen en la función última f(Ω,β,θ,…), que puede
depender de uno o varios campos -Ω,β,θ,…-, e incluso del propio
campo Ф. Dicho lo anterior no nos asustemos… voy a traducir la
ecuación a palabras, que creo resultará más comprensible.
154
Dijimos en el capítulo anterior que al final del proceso de rotura de la
simetría, cuando el campo llega a la situación de vacío verdadero,
Higgs adquiere un valor constante y universal H0. Eso quiere decir
que Higgs no vibra alrededor de un valor 0 sino que el campo vibra
con una amplitud h a caballo de H0 [H = H0 +h].
Como la referencia H0 es constante su ecuación tras la rotura de la
simetría sigue teniendo la misma apariencia, aunque relativa a la parte
h de la verdadera amplitud de onda. Pero ¿qué pasa con la ecuación
del campo Q? Pues que la ecuación anterior correspondiente al
quark Q (que podemos generalizar a la mayoría de las partículas
elementales del modelo estándar), en los puntos donde se produce
una interrelación entre el campo de Higgs H en el vacío verdadero y
el campo Q, se transforma adoptando esta nueva expresión:
d2Q/dt2 – c2 d2Q/dx2 = -K2 Q (H0+h)2 = -K2Q (H02+2H0h+h2)
Normalmente los campos cuánticos se desvían de su valor de
equilibrio poquísimo, por lo que podemos decir que el valor de Q,
que baila sobre un valor cero, y el de h tienen que ser muy pequeños.
No es el caso de H0 que es constante con valor apreciable. El producto
de dos o más números muy pequeños lo podemos considerar
despreciable frente a números significativamente más grandes, por lo
que, si aplicamos esa idea a la ecuación anterior fácilmente llegamos
a la siguiente.
d2Q / dt2 – c2 d2Q / dx2 = – [K2 H02] Q = – K1 Q
Ha aparecido como de la nada un nuevo término lineal en Q que
he resaltado en rojo, un nuevo K1 que, como hemos dicho más arriba,
tiene que ver con la masa de la partícula fundamental del campo Q.
No, no es magia: La fuerza de acoplamiento K2 entre los campos
Q y H ha generado masa en el campo Q. Simplemente por
curiosidad, diremos que la masa que aparece de “ex novo” es la
siguiente:
mQ = [h/2πc2] (K2)1/2 H0
Según la fórmula anterior de la masa de las partículas más
elementales, ésa depende de la fortaleza de la interacción del campo
155
específico con el de Higgs, K2, y del valor promedio constante del
campo Higgs en el universo, H0. De nada más. Lo que nos dice que
la masa inducida depende del valor base del campo de Higgs y en
absoluto con su partícula: si el campo de Higgs tuviera un nivel base
igual a cero, no induciría ninguna masa en las partículas de los otros
campos. Y, sin embargo, el propio campo de Higgs seguiría teniendo
sus partículas, que no serían más que las mínimas ondas vibratorias,
sus cuantos de energía, posibles del mismo. Hay que añadir que el
campo de Higgs no debe ser el único responsable de generar masa en
las partículas elementales del Universo, incluso la propia masa de su
partícula. Creemos que debe haber otros mecanismos en el Cosmos
que también inducen en algunas partículas la característica que
llamamos “masa”, su habilidad para ejercer resistencia al
movimiento, aunque realmente no sabemos lo que puedan ser.
159
[https://profmattstrassler.com/articles-and-posts/particle-physics-
basics/fields-and-their-particles-with-math/8-how-particles-and-fields-
interact/]
[https://profmattstrassler.com/articles-and-posts/particle-physics-
basics/how-the-higgs-field-works-with-math/1-the-basic-idea/]
160
12: Los hadrones
llegando al segundo desde el inicio
Recordamos del capítulo anterior cómo en el tiempo t=10-6 segundos
después de su inicio el Universo estaba formado por un medio al que
llamamos plasma quark-gluon, aunque realmente había allí más
partículas compañeras de viaje. Este plasma comienza a ser familiar
para los físicos, puesto que ya ha sido recreado en experimentos
realizados en algún acelerador de partículas como el del CERN.[1] Lo
curioso del caso es que estos experimentos nos dicen que, más que a
un gas, el plasma quark-gluon se asemeja a un líquido apenas viscoso,
a pesar de que la teoría nos dice que la densidad es tremenda, puesto
que corresponde a 1017 veces la del agua. En este momento de la vida
del Universo se ha alcanzado un nivel energético que se encuentra en
el entorno de 1 GeV, lo que equivale a una temperatura de crucero de
1013 K.
Cronómetro 0: tiempo igual a t-6 segundos. Va a comenzar la
transición de quarks a hadrones. La nómina de estos últimos, que
son partículas que están formadas por dos o tres quarks, está
compuesta por el protón, el neutrón y algún que otro bosón raro, entre
los que se encuentra el mesón pión, bosones que tienen su
importancia en la fortaleza de los núcleos atómicos. Los quarks son
unas partículas elementales que, por lo que sabemos hoy en día,
creemos que no están compuestas de otras más pequeñas. [2]
Los conocemos de seis “sabores” -se suele usar esta terminología-,
seis quarks distintos emparejados de dos en dos. La masa de tres de
ellos supera la energía promedio del momento, lo cual quiere decir
que su única oportunidad de aparecer en escena es como producto en
alguna reacción “ad-hoc” entre partículas o en una fluctuación
cuántica de su campo, para luego desaparecer en un plazo brevísimo
como corresponde a partículas pesadas. Cosas de la incertidumbre
cuántica, ya sabemos. Los otros tres, además de estos caminos para
nacer, y al tener una masa inferior a la energía del momento de 1
161
GeV, aún se generaban en parejas quark-antiquark por el choque de
los fotones que en aquella época se movían con ese nivel de energía.
163
quark/antiquark. Y eso pasa por que termodinámicamente es más
fácil relajar esa energía aportada produciendo nuevos pares y seguir
manteniendo el pegamento gluónico sobre el escapista, con la
consecuencia de que va a seguir junto a sus parejas o tríos de partida
casi para siempre. Es decir, la tendencia natural de quarks y gluones
es permanecer enlazados y confinados en sus bariones.
164
los protones y neutrones no presentan un aspecto tan plácido como
podría deducirse de la figura. Ambos tienen una masa del orden de 1
GeV y como hemos apuntado, a vista de pájaro están formados por
tres quarks de 4.10-3 GeV cada uno y por tres gluones sin masa.
Evidentemente, no cuadran los números para la cantidad de masa en
juego.
165
final fue que la materia de hadrones seguía dominando sobre su
antimateria.
Ciertamente debían quedar muy pocos de los quarks libres del plasma
inicial – habían casi desaparecido a los 10-3 segundos gracias a este
proceso de confinamiento en hadrones- pero aún seguían allí una gran
multitud de electrones y neutrinos. Podemos contabilizar la población
de ambos como uno por cada partícula de radiación. Los electrones,
al interactuar con el campo electromagnético, convivían con la
radiación en equilibrio térmico: al no haberse alcanzado aún su
temperatura de condensación -sus masas en reposo son muy
pequeñas- hay que pensar que los procesos de creación a partir de la
radiación existente y los de destrucción entre sus pares partícula-
antipartícula, se producirían sin trabas, manteniendo las poblaciones
estables. Sin embargo, no sucedía lo mismo con los neutrinos, que no
interactúan con la radiación. Las dos reacciones que siguen serían
algunas de las que en aquellos momentos describirían las
interrelaciones de las tres partículas elementales libres existentes:
fotón, neutrino y electrón.
Fotón(es) ↔ p+ + e- [positrón+ + electrón-]
En el sentido de izquierda a derecha esta reacción iría decayendo en
número a medida que la energía se iba aproximando en su
enfriamiento hacia los 0,5 MeV, equivalente energético a las masas
de electrón y el positrón, nivel a partir del cual ya era muy difícil crear
este tipo de partículas a partir de la radiación. En el sentido derecha
a izquierda duraría hasta que materia y antimateria se hubieran
anulado mutuamente. [9] Aunque esto último sucedió más o menos a
los 10 segundos de vida del Universo.
En las aniquilaciones de electrones no sólo se creaban nuevos
fotones, sino también neutrinos, gracias a la fuerza nuclear débil,
según el siguiente equilibrio:
p+ + e- ↔ neutrinoe + antineutrinoe
Esta última reacción, que habría contribuido desde la salida de la
inflación exponencial a rellenar el Universo con los esquivos
neutrinos, era muy efectiva por encima del MeV… ¡y en esta fase el
166
valor de la energía promedio estaba situada por encima de este límite
en un factor de diez a mil veces! A pesar de su importancia en
aquellos momentos tenemos que pensar que estaría perdiendo
progresivamente mucha eficacia y, de hecho, desaparecerá más o
menos en la frontera del segundo -1 MeV- tras el inicio del Universo.
Todo parecía indicar que se estaba aproximando el momento de la
culminación de lo que se había ido pergeñando a lo largo de la época
de la bariogénesis, con el triunfo final de la materia frente a la
antimateria y el nuevo equilibrio de la balanza de partículas, que iba
aproximándose al ratio de un barión superviviente por cada 109
fotones. Como hemos dicho, los electrones aún seguían en equilibrio
térmico con la radiación y habría que esperar un poco más para que
estas partículas quedaran sólo en su forma de materia -como contrario
a su antimateria-. Cuando llegue ese momento, volveremos a
contabilizar un electrón por cada protón por aquello de la neutralidad
de carga en el Universo. Es decir, un protón y un electrón por cada
109 fotones -y neutrinos-. Pero eso será más tarde.
Ahora ya sabemos que en la fase en que nos encontramos, el plasma
quark-gluon inicial se había transformado sustancialmente. Las
cuatro fuerzas fundamentales estaban ya presentes de forma
independiente, actuando en un plasma que estaba formado
principalmente por protones y neutrones, electrones y una intensa
radiación de fotones y neutrinos. Una vez más adopto la licencia de
llamar a los neutrinos radiación, acepción que se aplica normalmente
a los fotones. Pero su poca masa, su velocidad relativista de
desplazamiento por el Universo y su participación clave en las
dispersiones de partículas en las que interviene la fuerza débil me
inducen el imaginar un perfil muy semejante, aunque evidentemente
no igual. Completando la nómina de la vecindad no nos podemos
olvidar que por algún lado andarían también los neutralinos, o algo
así: las fantasmagóricas obreras de la materia oscura.
Dediquémosles un poco más de tiempo a los neutrinos, unas
partículas muy esquivas. Hasta hace poco se creía que no tenían masa,
aunque ahora sabemos que realmente ofrecen a la gravedad una muy
ligera interacción, del orden del eV para los neutrinos menos pesados.
No tienen carga, por lo que son transparentes para el campo
167
electromagnético. Y también son ignorados por la fuerza nuclear
fuerte. Podríamos decir que el campo relativista neutrino sólo está
ligado a otros campos de partículas a través del campo de la
interacción nuclear débil, con el que participa muy activamente
provocando, o siendo el producto, de reacciones de aniquilación de
otras partículas. Algunas de ellas son las reacciones de desintegración
radiactiva, como las que se dan en el núcleo de las estrellas. En
particular, ayudados por los bosones W y Z del campo nuclear débil,
que no dejarían tranquilos a nuestros bariones.
Los neutrinos, con muy poca masa en reposo pero que en este
momento disponían de una energía elevada, también estaban allí
formando una población superabundante. Entre todo este tipo de
partículas se producían múltiples interacciones provocándose las
conocidas como reacciones β inversa (ver la imagen que sigue):
neutrinoe + neutrón ↔ protón+ + electrón-
protón+ + antineutrino ↔ neutrón + positrón+
168
el tejido espacio/temporal del Universo, se estaba expandiendo, lo
cual afectaba a la longitud de onda de los neutrinos, alargándola y en
consecuencia disminuyendo su energía.
En el difuso momento en que se sobrepasaba el umbral de 1 segundo
el nivel energético era tan bajo, 1 MeV, que la energía de movimiento
de los neutrinos ya no fue suficiente para iniciar las reacciones
nucleares débiles con neutrones y protones. Podemos pensar que las
ondas de los neutrinos eran tan grandes que los bariones se escapaban
entre sus piernas. Como resultado, estas pequeñas partículas
quedaron libres para volar a su aire por todo el espacio/tiempo del
Universo, abandonando el equilibrio termodinámico que habían
mantenido con las otras partículas. Aquellos neutrinos primitivos aún
están por ahí, aunque con una energía muy disminuida debido al
enfriamiento general producido al expandirse el Cosmos. Los
cálculos nos dicen que deberíamos ver en el Universo frío de hoy
unos 112 neutrinos primigenios por centímetro cúbico. Pensamos que
en este mar de fondo, lo que conocemos como fondo cósmico de
neutrinos, la temperatura ha descendido hasta los 1,95 K. [10]
Por desgracia, con el nivel de tecnología del que disponemos hoy en
día no podemos llegar a detectar su pista de la misma manera como
lo hemos podido hacer con la pista de los fotones que se liberaron de
la masa bariónica bastante más tarde. Si consiguiéramos la foto del
fondo de neutrinos tendríamos información directa del Universo a la
edad de poco más de ¡un segundo!
Pero la historia sigue. Los protones y neutrones que quedaron libres
de los neutrinos tras su emancipación cósmica, lógicamente seguían
estando en manos de la fuerza nuclear débil, aunque ahora siguiendo
otro tipo de reacciones de desintegración β, conocidas como β- y β+.
desintegración β-
neutrón → protón+ + W- → protón+ + electrón- + antineutrinoe
desintegración β+
protón+ → neutrón + W+ → neutrón + positrón+ + neutrinoe
169
Esquema de la reacción beta menos, característica de la
interacción débil, mediada por uno de sus bosones W-: Un neutrón
decae en un protón, un electrón y un antineutrino electrónico
(Imagen: Sergio Torres, fair use)
La primera de las anteriores reacciones β -ver figura anterior- hacía
del neutrón una partícula inestable con una vida media de unos 15
minutos: es decir, cada 15 minutos una bolsa de neutrones reducía su
población a la mitad… ¡a ese paso nos íbamos a quedar sin neutrones!
Sin embargo la segunda reacción, por la que los protones libres
podían pasar a neutrones, se producía cada vez con mayores
dificultades por una circunstancia que, a la postre, en aquellos
momentos iba a resultar decisiva para el tipo de “personalidad” que
iba a adoptar el futuro Universo. El neutrón es ligeramente más
pesado que el protón, por lo que en las dos reacciones de
desintegración β anteriores era más fácil pasar de neutrón a protón
que pasar de protón a neutrón. Lo primero implica ir energéticamente
cuesta abajo -de la masa del neutrón a la menor masa del protón-
mientras que lo segundo es una cuesta arriba energética.
La consecuencia es que la segunda reacción de desintegración β no
ocurre con los protones libres, ya que la suma de las energías de las
partículas resultantes sería mayor que la del protón inicial. Y esto
violaría el principio de conservación de la energía. Este tipo de
reacción β+ sólo la observamos en protones ligados, integrados en
núcleos atómicos, cosa que en aquel momento aún no existían. Así
que poco a poco, mientras bajaba la temperatura, cada vez tenía más
fuerza el siguiente NO
170
protón+ → NO → neutrón + positrón+ + neutrinoe
circunstancia por la que el equilibrio protón-neutrón que hasta
entonces se había dado, se iba haciendo cada vez más difícil. El
número de neutrones libres iba decreciendo, incrementándose
constantemente la relación protón/neutrón. Cuando el cronómetro
marcaba 10-1 segundos desde el nacimiento del Universo, la relación
era de 3 a 2 y en el umbral del segundo, con un 3 a 1, se intuía una
futura goleada.
Antes de seguir adelante vamos a recapitular dibujando de nuevo el
cuadro general final del intervalo temporal que estamos analizando.
A un segundo tras el Big Bang teníamos unos neutrinos que volaban
independientes por el tejido del Universo de aquel momento, unos
protones en una posición de fortaleza a costa de unos neutrones en
decremento. Y también unos electrones y positrones que, mientras no
estaban trabajando para la fuerza nuclear débil, seguían con el mismo
juego que hasta entonces: o se estaban aniquilando como parejas
partícula-antipartícula o los fotones, que en este momento tenían aún
suficiente energía, los iban creando al chocar entre pares. Esto último
duró hasta que más tarde se alcanzó la energía de “condensación” de
electrones y positrones, que es del orden de los 500 KeV. Hasta el
segundo 14 tras el Big Bang los fotones mantendrían aún la suficiente
energía como para que hubieran podido regenerar la población,
momento tras el que ya sólo se producirían reacciones de aniquilación
entre electrones y positrones, disminuyendo su concentración en el
plasma. Dado que la carga eléctrica total en el Universo es cero, al
final sólo iban a quedar el mismo número de electrones que de
protones.
Estamos celebrando el primer “cumplesegundos” del Universo. Una
“esfera” repleta de radiación y neutrinos, algunos bariones y
electrones, uno por cada mil millones de fotones, y algunas partículas
más, inestables o misteriosas, que se distribuían localmente de
acuerdo con las primitivas fluctuaciones cuánticas del periodo
inflacionario. Toda esta energía-materia apelotonada formando un
plasma de densidad 105 veces la del agua a lo largo de una fabulosa
extensión del orden de los 1013 kilómetros de diámetro, en el entorno
del año-luz, aunque mucho más pequeño que nuestra galaxia, la Vía
171
Láctea. Y todo con una temperatura de 1010 K o, lo que es lo mismo,
un MeV de energía promedio para todos sus habitantes. Mientras, las
ondas sonoras y gravitacionales rielaban aquel infierno. Quizás algún
meticuloso lector me pregunte ¿qué pasa con la cacareada fuerza
nuclear fuerte residual? Porque hasta ahora solo ha aparecido la
faceta de fuerza de color. No nos pongamos nerviosos. Estamos a las
puertas de un suceso trascendental. Uno más, claro. Lo presentaré en
el próximo capítulo.
[http://particleadventure.org/spanish/k2s.html]
173
13: La nucleosíntesis I
174
mientras que su inestabilidad natural, la del neutrón, había hecho que
se redujera su población universal a la mitad cada 15 minutos. [2] Por
el contrario, los protones conseguían mantener su población, e
incluso incrementarla, gracias al decaimiento de los neutrones. De
forma que en este momento en particular la menguante relación
protón/neutrón ya era de 5/1. Protones y neutrones que se trataban
casi de tú a tú, con unas cinéticas propias y con los fotones que
alteraban sus trayectorias y aproximaciones, dificultando cualquier
tipo de nuevas relaciones entre ellos. Mientras, los electrones seguían
apurando los últimos coletazos en sus relaciones de muerte y
nacimiento con los positrones y la radiación.
A partir de un difuso segundo 14, con un Universo a 6×109 K, los
electrones y los positrones empezaron a verse aniquilados a un ritmo
superior al que producía su regeneración a partir de los fotones y de
los neutrinos. No en vano la energía media había caído por debajo del
MeV, equivalente a la masa del electrón y el positrón. Este tipo
de reacciones de aniquilación
p+ + e- → fotón + fotón
eran más frecuentes que éstas otras inversas de creación
Fotón(es) → p+ + e -
Este hecho hacía que la población de la radiación se incrementara con
nuevos fotones, producto de las reacciones de aniquilación, sin que
se consumieran en las reacciones contrarias, lo que supuso una
inyección de energía en esa radiación [3] lo que provocó una ligera
ralentización en la situación de caída libre de la velocidad de su
enfriamiento. Sin embargo, los neutrinos que se habían desacoplado
del plasma hacia poco, como vimos en el capítulo anterior, no
sufrieron este recalentamiento, ya que sus densidades en el Universo
habían sido fijadas desde el momento de su emancipación de la
materia. La consecuencia es que, a pesar de haberlo hecho antes, si
llegáramos a observar hoy aquellos neutrinos de fondo, cosa que aún
no hemos conseguido, casi con seguridad los encontraríamos más
fríos que la recalentada radiación de fondo de fotones. ¿Cuánto? Lo
175
que nos diga esta relación que sigue, en la que ν se refiere a los
neutrinos y γ a los fotones de la radiación
𝑇 4
=
𝑇 11
177
tamaño aproximadamente del radio de un protón, genera un pozo de
potencial, lugar ideal para que los nucleones reposen en un mínimo
unidos por una tremenda fuerza atractiva producida por la
intermediación de bosones pión entre protones y neutrones, de
acuerdo con las reacciones que indico un poco más abajo. En estas
distancias se manifiesta como una fuerza atractiva mucho más
potente que la electromagnética repulsiva. Más allá de los 10-15
metros su fuerza decae exponencialmente, haciéndose despreciable
frente a la fuerza electromagnética. [6]
180
seguía -con un exponente a la cuarta- a la densidad de la
radiación.
4. “Neutrino mass from Cosmology”, figura 1, Julien Lesgourgues
y Sergio Pastor, diciembre 2012.
[https://arxiv.org/pdf/1212.6154v1.pdf]
181
14: La nucleosíntesis II
182
era de 1 MeV y a los 200 segundos de 0,1 MeV. Estas son las energías
de enlace por nucleón en los primeros elementos más ligeros: [1]
183
de obtener un núcleo de helio 4 era baja. Esta circunstancia obligaba
a que este núcleo tuviera que construirse por aproximaciones
sucesivas a partir de una primera unión de dos nucleones… para
seguir con la adición paulatina de los otros. Y lo mismo le estaba
pasando al hidrógeno 3 o al helio 3. Lo cual nos lleva a la conclusión
de que realmente las primeras reacciones de nucleosíntesis tuvieron
necesariamente que ser las que produjeran núcleos de deuterio y todas
las demás debieron pasar obligatoriamente por ese cuello de botella.
190
universo sería de 1 por cada 40 protones, es decir, más o menos
0,0055 por cada metro cúbico.
Tras toda la interesante historia de la nucleosíntesis, el Universo entra
ahora en un largo periodo de relativa estabilidad, a lo largo del cual
el plasma se expandirá hasta tener unas densidades inferiores a la del
agua, dejando a sus partículas muy dispersas unas con relación a
otras. Ondas sonoras y gravitatorias llevaban su información de un
lado para otro. En este mundo, los protones arrastraban en sus
cercanías a los electrones gracias a una especie de cortejo de cargas
eléctricas. Mientras que todos los fotones, muy numerosos, andarían
atareados chocando con los electrones en procesos que se conocen
como dispersiones Thomson. [10] Por esa causa los fotones no podían
volar en libertad, lo que hacía de aquel plasma una especie de opaca
niebla bajo la potente e invisible mano, como telón de fondo, de la
esquiva materia oscura.
El siguiente cambio fundamental será la formación de átomos
mediante la unión de los núcleos y los electrones existentes. Pero aún
se tuvo que esperar mucho, hasta que la temperatura del Universo
fuera lo suficientemente baja, unos 3.000K -del orden a la de la
superficie de nuestro Sol-, como para que el campo de la fuerza
electromagnética, con sus fotones, pudiera por fin intervenir en un
mundo repleto de partículas y núcleos con carga eléctrica.
Esto sucedió a lo largo de una franja temporal, aunque la convención
es fijar el hecho en el entorno de cuando se cumplía el año 380.000
tras el nacimiento del Universo. En aquellos momentos era unas
1.100 veces más pequeño que el que conocemos.
191
NOTAS DEL CAPÍTULO 14:
1. En el siguiente enlace tenéis los datos de todos los elementos e
isótopos. Podréis jugar viendo como varían sus características al
movernos en vertical -mismo número de neutrones- u horizontal -
mismo número de protones-.
[https://www-nds.iaea.org/relnsd/vcharthtml/VChartHTML.html]
[https://www.einstein-online.info/en/spotlight/bbn_obs/]
193
15: La sinfonía del Universo I
195
extremos espaciales de cada uno de los granos que se iban
expandiendo con el paso del tiempo. Una especie de vóxeles
“esféricos” en cuyo interior pulsaba la presión montada en una onda
estacionaria, con todos sus armónicos, y que se agitaban a la
velocidad del sonido adecuada a las características de aquel medio
plasmático en el que dominaba la radiación [2]. El Universo como una
granada conformada por granos en expansión cuyos interiores pulsan
y pulsan.
196
entorno está repleto de sones, muchos de ellos ondas en el rango de
frecuencias audibles para el hombre. Unas provendrán de los violines
o las trompetas, y serán más agudas, mientras que otras las habrán
emitido los contrabajos o los trombones y serán más graves.
Montados en las ondas fundamentales de cada instrumento se
encuentran además cientos de armónicos, que dan colorido y cuerpo
a la música de la sinfonía. De la misma manera los armónicos de las
ondas de presión en el plasma del Universo apuntalaban los matices
del futuro dibujo de la materia. La gran diferencia con el símil
musical es que las ondas del plasma primordial tenían amplitudes de
¡cientos de miles de años luz!
La pregunta ahora es: ¿cómo se generaron estas ondas de presión?
Porque, a fin de cuentas, una onda sonora es exactamente una onda
de presión que apelmaza y relaja la densidad de las partículas de la
materia mientras va viajando por el tiempo dentro de una zona
determinada. Luego… empecemos por la materia.
Cremos que en el plasma del Universo se había quedado dibujado el
patrón de fluctuaciones cuánticas generadas durante las primeras
fases expansivas provocadas por el campo inflatón. La tremenda
aceleración hizo que estas fluctuaciones se extendieran por todo el
Universo de una forma prácticamente homogénea. Y ya sabemos
también que desde el mismo momento en que se frenó la energía
expansiva del proceso y se transformó en materia distribuida
homogéneamente por el Universo, ésta heredó el barniz de las
fluctuaciones cuánticas iniciales. El tejido espacio/temporal del
Cosmos había quedado como un mosaico de zonas con distintas
densidades de materia y radiación, aunque bien es verdad que la
diferencia entre unos y otros lugares era tan escasa que podemos
imaginar al plasma primigenio como casi perfectamente homogéneo.
Con el permiso de la materia oscura que lo va a poner en trabajar.
Ya tenemos en danza a nuestra metafórica granada con sus granos,
coloreados de inestabilidades cuánticas, con sus estable escala
comóvil, [4] aunque se estuviera expandiendo desde la salida de la
inflación. En su interior la onda sonora se bandeaba casi a la
velocidad de la luz extendiendo su longitud de onda hasta un tamaño
esférico igual al tiempo transcurrido multiplicado por la velocidad del
197
sonido en el medio de plasma. No hay nada más rápido que la luz, así
que cada grano así definido era una unidad de información que
además, si comparamos la situación de unos y otros, debía ser
bastante homogénea debido a la inflación exponencial, con el ligero
pero de las sutiles diferencias producidas por las alteraciones
cuánticas nacidas durante la inflación exponencial. [5] Y como la
gravedad también ejerce su influencia con la velocidad de la luz, cada
grano de la granada “cósmica” constituía también una unidad
gravitatoria. Y de eso va lo que sigue.
Si hacemos zum sobre una cualquiera de las zonas del mosaico que
era el Cosmos en aquellos momentos, un grano de la granada,
veremos dos tipos de materia: la bariónica, formada básicamente por
protones, neutrones, electrones y neutrinos, y la materia oscura, que
no sabemos realmente lo que es pero que abulta como cinco veces la
bariónica. Realmente hay mucha materia oscura. [6] Gracias a la
incesante expansión, las entrelazadas partículas en el gas de materia
bariónica, así como de la oscura, iban diluyéndose cada vez más con
la menguante densidad del plasma. Cada vez les costaba más
encontrarse e interactuar entre ellas, aunque, CIERTAMENTE, eso
no quiere decir que no lo hicieran.
198
Veamos lo que le sucedía a la bariónica. Sus principales actores, los
protones y electrones, junto con los fotones de la ubicua radiación,
seguían yendo forzosamente de la mano, ya que no podían ir muy
lejos unos de otros. Los protones de carga eléctrica positiva y los
electrones negativos, aunque cercanos, se movían separados
intercambiando cómplices aproximaciones gracias a sus cargas
opuestas. Los fotones que constituían la radiación del plasma aún
tenían energía suficiente como para, al chocar con ellos, impedir la
unión definitiva de cargas opuestas. Con la que tenían les sobraba
como para interactuar con los electrones, menos masivos que los
protones, a través de choques dispersivos del tipo Thomson (ver
imagen anterior), tras los que el fotón salía en una dirección distinta
a la que traía antes de la colisión, con la misma frecuencia y sin haber
perdido energía. Así, la radiación y la materia bariónica, unidas por
el pegamento de los electrones, vivían un escenario de continuos
choques y dispersiones, de forma que la primera -la radiación- era
incapaz de volar libre e independiente.
Dentro de ese plasma de protones, electrones y fotones pasaban
además otras cosas curiosas que pudieron condicionar la evolución
del Universo y sus estructuras. Protones y electrones son “fantasmas”
eléctricos, cargas positivas y negativas, que como acabamos de
comentar se movían independientemente. Las cargas eléctricas en
movimiento inducen campos magnéticos. Y aunque las separaciones
entre cargas y las corrientes creadas por la transferencia de cantidad
de movimiento en las interacciones con los fotones eran muy
pequeñas, fueron de gran importancia para la generación de campos
magnéticos en los primeros tiempos. Una vez que surge un campo
magnético es como una "semilla" que puede volverse más grande y
fuerte al alinear con él a otros campos más débiles. En palabras del
astrofísico teórico del Instituto Max Planck de Astrofísica en
Garching, Torsten Enßlin: “El magnetismo es un poco como un
organismo vivo, porque los campos magnéticos aprovechan cada
fuente de energía libre que pueden retener y crecer. Pueden
propagarse y afectar con su presencia a otras áreas, donde también
crecen.” [7] Los campos magnéticos primordiales que estaban
presentes en el plasma en aquellos momentos y que, como hemos
insinuado, eran las semillas iniciales de los potentes campos
199
magnéticos cósmicos que vemos hoy en día, [8] estarían induciendo
también fluctuaciones a pequeña escala en la densidad bariónica del
plasma primordial. Estas faltas de homogeneidad van a tener su
importancia más tarde durante la fase que conocemos como
recombinación, cuando el Universo cumplía los 380.000 años y los
electrones comenzaban a unirse a los núcleos atómicos. Esos campos
magnéticos primordiales hacían que la recombinación no fuera
perfectamente homogénea, lo que alteró los picos y las alturas de las
anisotropías a gran escala en la radiación del fondo cósmico de
microondas. Pero quizás nos hemos adelantado. Prosigamos con
nuestro hilo argumental.
203
La imagen artística que sigue [11] nos pueden permitir imaginar
bastante bien el proceso que un poco más arriba nos habíamos
atrevido a describir como “…un mar embravecido cruzado por un
patrón de ondas heterogéneo”. Las dos de arriba hay que verlas de
forma correlativa como un inicio del pico de onda que con el tiempo
se va extendiendo hacia afuera desde el centro donde se originó, lo
que corresponde a la de una sola burbuja generada en un particular
punto del plasma, un grano de la granada. En el fono, esos picos
intentan modelar tridimensionalmente las curvas 2-D de evolución
del plasma presentadas más arriba. Aunque realmente hay infinitud
de burbujas pisándose parcialmente unas a otras, con el resultado para
la evolución del Universo que intenta representar la imagen inferior.
204
En este punto, cuando nos acabamos de encontrar con el susurrar de
la música primordial del Universo primitivo, vamos a hacer un
intermedio. El reposo nos ayudará a asimilar el concepto antes de
avanzar en su teoría a lo largo del siguiente capítulo.
Para hacernos una idea de por donde se sitúa esta cifra diré que en
condiciones normales la densidad del agua es de 1 gramo/cm3 y la
del aire 1,4 x 10-3 gramos/cm3. Llevada la anterior cifra estimada
de la densidad del Universo hoy en día, tras una dilatación espacial
de 1.100 veces que hizo que el cm3 inicial se convirtiera a más o
menos 1010 cm3, la densidad bariónica ha pasado a ser más o
menos 10-31 gramos/ cm3, del orden del 1 % de la masa crítica total
del universo que es del orden de magnitud 10-29 gramos/cm3.
Hemos podido comprobar que la densidad bariónica es un 5% de
la total, por lo que ambas cifras encajan bastante bien.
205
desde el fundamental de una sola longitud de onda, modo 1, hasta
los que os queráis imaginar.
4. Voy a intentar explicar que es eso de comóvil. Ya el nombre da
una pista: conjuntamente móviles. Debido a la expansión del tejido
del Universo dos objetos que permanecen inmóviles entre sí sobre
este tejido parecen como si realmente se fueran alejando. Pero la
expansión hace crecer el tejido de forma proporcional al tiempo.
Es decir, la distancia entre los dos objetos “quietos entre sí”
crecerá también en la misma proporción que lo hará el Universo.
Esa circunstancia hace que podamos estudiar lo que les pasa a los
objetos obviando en principio la expansión. Las partículas son
comóviles montadas en un sistema de referencia que se mueve
junto con ellas. Lo que quiere decir que un sistema de referencia
comóvil una partícula siempre estará en reposo.
5. Tan sutilmente diferenciados que al final de la época que estamos
considerando, en el momento de la recombinación a z=1.100, las
diferencias se situaban dentro de un margen de 10-5.
6. Como veremos en un futuro capítulo, esa realidad no es una
entelequia, y aunque no interactúa con el campo electromagnético,
y por tanto no la podemos ver, sí que la hemos sabido medir por
métodos indirectos.
7. [https://dailygalaxy.com/2022/03/the-invisible-universe-a-
primordial-magnetic-soul-pervades-the-cosmos/]
8. El espacio interestelar está lleno de partículas/polvo cargados que
tienen sus propios campos magnéticos debidos a sus propios
momentos dipolares o inducidos por el movimiento de las cargas.
Cuando un campo magnético más grande y global influye sobre
estas pequeñas cargas, muy a menudo ocurre una alineación (por
ejemplo, el dipolo de las partículas se alineará con el campo más
grande, o el movimiento cambiará repentinamente para moverse a
lo largo de la línea de campo). Esto hace que estos campos más
pequeños se sumen al campo más grande, haciéndolo aún más
grande.
9. Podéis leer al respecto el siguiente artículo de la NASA:
[https://sunearthday.nasa.gov/2007/locations/ttt_sunlight.php]
206
10. “Cosmic sound Waves rule”, Daniel J. Eisenstein y Charles L.
Bennett, Physics Today abril 2008.
[https://sites.astro.caltech.edu/~george/ay21/readings/Cosmic_Sound.pdf]
[http://faculty.washington.edu/jcramer/BBSound_2013.html]
207
16: La sinfonía del Universo II
209
que intenta dibujar el corte de una flauta, podemos hacernos una
mejor idea.
210
distribución espacial de esa materia cosa que vamos a poder apreciar
muchos millones de años después al mirar las estructuras del Cosmos.
212
A medida que avanzaba el tiempo la onda se ampliaba por el
espacio del Universo en expansión, creciendo su longitud L. [7] Y
¡OJO! porque la leyenda superior puede inducir a pensar que el
ancho está en unidades de tiempo cuando está en unidades de
espacio. Un espacio donde pulsaba la presión. El Cosmos era la
superposición de los efectos de todos sus armónicos, cada uno de
mayor frecuencia y menor amplitud -aunque este croquis no sea
coherente con esto último-, que matemáticamente parecían tener
vida propia.
El conjunto sumado corresponde a la aportación de una determinada
onda-esfera a la fotografía del Universo a la edad correspondiente a
una L determinada. Como intenta expresar la figura de arriba, cada
uno de los armónicos de la onda sonora tenía una longitud de onda
menor que el anterior. Así que, en algunas zonas, la concentración de
materia bariónica que había acumulado el armónico fundamental se
veía matizada por la relajación que había sido creada en las
213
oscilaciones de los armónicos pares o por el reforzamiento que
introducían las de los impares. A mayor densidad bariónica, mayor
tenía que ser la densidad de radiación y, por tanto, mayor la
temperatura. La anterior figura nos permite hacernos una idea visual
de cómo el armónico fundamental fue el que generó la mayor
diferencia posible de temperaturas entre dos puntos cualquiera del
mapa del Cosmos. Estos puntos estaban separados por una distancia
L, que era el radio de nuestra onda-esfera de sonido, el espacio que
había corrido el frente de materia a lo largo de 380.000 años a la
velocidad del sonido. [8]
Una conjunción de armónicos en una onda, una conjunción de ondas
en el espacio… un Universo grumoso de materia con unos patrones
de temperaturas acordes con ello. Un plasma convulso con cada vez
menos energía, en donde se estaban gestando las semillas de la futura
estructura a gran escala del Cosmos. Y llegó la fecha talismán,
380.000 años de edad, cuando la energía promedio por partícula
rondaba los 0,25 eV y la temperatura era del orden a la de la superficie
de nuestro Sol. La sinfonía llegó a su acorde final. Entonces…
¡¡¡FLASH!!!
El momento es mágico… lo dejo en el aire y aquí dejo este capítulo.
215
17: El big flash
CODA
La energía promedio de las partículas del Universo estaba alcanzando
las decenas de eV. Es ya lo suficientemente baja como para que el
campo de la fuerza electromagnética, con sus fotones, pudiera
intervenir en un mundo de partículas y elementos, muchos de ellos
con cargas eléctricas. Hasta entonces las velocidades de los actores -
núcleos, protones, electrones y, sobre todo, la de los fotones- habían
sido tan altas que en los múltiples choques entre ellos no habían
tenido tiempo para que los que tenían cargas opuestas se unieran. La
energía de unión entre un protón positivo y un electrón negativo, un
átomo de hidrógeno, es del orden de 13,6 eV. Así que, cuando los
fotones, siguiendo el camino de enfriamiento general, “estiraron” su
longitud de onda por debajo de estos niveles energéticos, [1] ya no
tuvieron fuelle suficiente y dejaron de hacer lo que habían hecho
hasta entonces: “molestar” a los electrones a través de las pertinaces
dispersiones de tipo Thomson. A pesar de la baja densidad,
seguramente los electrones se debían desplazar muy cerca de los
protones debido a la atracción electromagnética que había entre
216
ambos tipos de partículas. Por lo que, una vez vencida la rémora que
suponían los fotones, los electrones cayeron en brazos de los núcleos
que mostraban el atractivo de la carga positiva de sus protones. Esto
sucedió más o menos hace unos 380.000 años tras el Big Bang,
cuando la temperatura del Universo llegó a ser del orden de los pocos
miles de Kelvin, tres o cuatro mil, parecida a la de la superficie de
nuestro Sol. Había llegado la época conocida como de la
“recombinación”, cuando se formaron los primeros átomos
estables -de hidrógeno, deuterio, helio, litio y poco más- dejando
como resultado a un remanente de abundantísimos fotones de 0,25
eV, que pudieron “volar” libres por primera vez sin encontrar apenas
ningún impedimento. El cielo se había vuelto transparente y lleno de
luz del rango infrarrojo, cercano al visible para el hombre… si es que
hubiera habido alguno por ahí.
¡¡¡FLASH!!!
O quizás no tanto
Después de esto, el Universo quedó de tal forma transformado que
nunca más volvió a ser el mismo. La densidad de energía de la
radiación se escondió en un sutil fondo cediendo definitivamente
la batuta a la densidad de energía de la materia. No es que en el
Universo a partir de la recombinación la materia cogiera el testigo
que le pasaba la radiación, no. Ya se había iniciado la labor hacía
330.000 años, a los cincuenta mil desde el Big Bang. En este
temprano momento la dinámica expansiva del Universo, lleno de
radiación y materia, comenzó a sentir la progresiva influencia de esta
última, más potente que la que le dinamizaba el periodo anterior de
un mundo de dominante radiación. Por fin se iba a consolidar un
ritmo de crecimiento t2/3 frente al anterior t1/2. Y ya va a ser así hasta
muchos millones de años después. Las ondas sonoras que movían al
plasma de forma grumosa antes del flash se congelaron, dejando el
particular patrón de materia bariónica y de materia oscura que ya
conocimos del capítulo anterior. Y que será lo que con el tiempo irá
definiendo la arquitectura y las estructuras del Universo de hoy.
Aquello no fue como un fogonazo de transparencia, aunque
realmente nos guste imaginarlo así. Duró su tiempo. [2] Pero ese flash
217
lo hemos podido fijar con nuestros magníficos instrumentos COBE,
WMAP y Planck, [3] y así disfrutar de la primera fotografía de
infancia de nuestro Cosmos: la que captura a aquellos fotones de la
época en que huyeron de la materia a 3.000K, hace más de 13.400
millones de años, y que ahora llegan a nuestras cámaras. Llenan el
Universo entero y vienen de todos los lados. Aquí está la foto. La de
aquella granada cósmica imaginaria de la que hablábamos en un
capítulo anterior. Cada uno de sus granos una unidad de información
gravitacional. En la foto, cada color es una clave de la temperatura de
su estructura. Pero vayamos por partes y contemos toda su historia.
221
A la vista de las irregularidades que se aprecian en la imagen de la
radiación de fondo de microondas puede parecer que el proceso no
fue muy homogéneo, pero realmente entre unos puntos y otros hay
diferencias máximas de tan sólo una parte en 100.000. Es como si la
superficie de una piscina olímpica de 50 metros se estuviera
moviendo con olas de medio milímetro. Inapreciable. [9]
Vamos a dedicarle un poco de tiempo a lo que nos dice esta primera
imagen del contenido del Universo. Realmente corresponde a una
proyección cartográfica plana del tipo Mollweide de la esfera
celeste en cuyo centro nos encontraríamos observando. [10] En esta
especie de elipse está representada la totalidad del firmamento
visible, lo que un día cualquiera nosotros podemos ver si miramos al
profundo cielo en todas las direcciones de donde nos viene luz. Pero
habiéndole manipulado un poco. Eliminemos la luz solar que oculta
a los pequeños focos que nos interesan. Eliminemos también la de las
estrellas y galaxias, sobre todo la de la Vía Láctea. La luz remanente
que nos queda tras esta acción de borrado son los fotones de la
radiación de fondo.
Con nuestro ojo, que no olvidemos que es un aparato biológico para
detectar fotones, no los captamos ya que la frecuencia de esta
ancestral luz está en el rango de las microondas por lo que queda muy
alejada del espectro visible. [11] Pero el hombre, como animal
insaciablemente curioso e inteligente, ha ido ideando métodos para
detectar a estos fotones mejorando sus aparatos de percepción de la
luz, desde la rudimentaria antena con la que Penzias y Wilson en 1965
descubrieron de una forma muy rocambolesca [12] los fotones del
fondo de microondas, hasta los modernos satélites como el COBE, el
WMAP o el Planck que transportan unos telescopios con
resoluciones fantásticas. La foto que obtuvieron nuestros dos
pioneros descubridores era monocromática… para ellos y la
sensibilidad de su tecnología todos los fotones del fondo eran de la
misma energía. La resolución fue progresivamente mejorando con las
tres sondas mencionadas.
Y al igual que la foto de nuestros tatarabuelos nos permite saber cómo
eran ellos, aunque ya no estén con nosotros, las tomadas por COBE,
WMAP y Planck nos permiten saber cómo era el Universo de
222
380.000 años. La imagen siguiente nos está hablando de ello ya que
es un detalle de las anisotropías del fondo de microondas tal como lo
que nos han dicho nuestros satélites y que ahora vamos a intentar
entender un poco más.
Repetimos una vez más que los colores son simplemente una
referencia cromática artificial de las “temperaturas-densidades de
masa”. Parece como que realmente vemos el reflejo de las ondas
sonoras esféricas que se transmitieron por el antiguo plasma a
velocidades del sonido y que quedaron congeladas en el momento de
la recombinación. Son perfectamente imaginables los grumos
dibujados por los armónicos fundamentales y sus interferencias que
marcaban la identidad y diferencia entre las zonas de mayor densidad
y las de menor densidad. La foto real de nuestro Universo visible.
La imagen esquemática siguiente nos permite hacer una mejor idea
de ello. A su izquierda un corte de la “esfera” del universo, en cuyo
centro nos encontramos nosotros hoy como observadores. La
circunferencia blanca inmersa en un universo mayor es nuestro
horizonte de visión del fondo de microondas: de allí salieron hace
13.400 millones de años los fotones que llegan ahora a nosotros. Unos
proceden de las zonas rojas de un plasma primordial más caliente y
otros, de un plasma más frío. Todo ello dibuja un patrón de
anisotropías que podemos ver enfocando nuestro zum a diferentes
escalas, con el resultado que vemos a la derecha. Éste es el origen del
patrón de colores de la foto de la radiación de fondo.
223
Esquema teórico de la realidad física que hemos podido captar
como la foto de la radiación de fondo de microondas. Se explica en
el texto (Imagen: “Polarización del fondo cósmico de microondas”,
Matthew Hedman, IyC diciembre 2005, fair use)
A la vista de esta maravilla, vamos a ver de qué forma podemos
extraer la información que lleva en su mosaico. Recordemos lo que
dijimos en el capítulo anterior acerca de los armónicos de la onda
sonora. Lo recordamos en el esquema de más abajo.
El armónico fundamental marcaba la máxima amplitud posible en el
perfil de la onda sonora. Que es lo mismo que la mayor diferencia de
temperaturas entre zonas del Universo. El segundo armónico
presentaba una nula diferencia de temperatura entre sus extremos,
aunque sí inducía un pozo de materia bariónica en la zona intermedia.
Al acoplarse ambos armónicos en la frontera de la burbuja de sonido,
la alta masa bariónica -temperatura- que allí fija el primero es
modulada a la baja por el segundo. Un tercer armónico reforzaría la
temperatura en la frontera de la burbuja ya que fomenta allí la
concentración de masas. Y así con los demás matizándose unos a
otros.
En el momento de la recombinación cuando se “congelaron” las
ondas de sonido, el armónico fundamental se había extendido una
distancia igual a la que recorrió el sonido durante los 380.000 años
224
de existencia de la onda. Esta distancia es conocida como horizonte
acústico. Hoy en día, cuando el Cosmos se ha “estirado” desde
entonces en un factor de 1.100, este horizonte acústico ha crecido
hasta un valor próximo a los 480 millones años-luz.
225
curvatura. Ambos dependen también de la cantidad de materia y
energía total existente. Todo este cúmulo de diferentes circunstancias
son las que están escondidas en la apariencia grumosa de la foto del
fondo de microondas. Es la información que lleva encriptada y que
podemos intentar descifrar.
Con estas sencillas ideas vamos ahora a la tarea de despiece de la foto
del fondo de microondas y ver así su particular espectro de ondas
sonoras. Vamos a hacer algo parecido a cuando se analiza por
frecuencias un sistema cerrado para dibujar un perfil de cómo se
distribuye la abundancia de cada una de ellas. Tal como se hace con
el espectro de radiación de un cuerpo negro o con el espectro de la
luz que nos llega del Sol. En nuestro caso lo vamos a hacer a partir
de la imagen de la esfera celeste del fondo de microondas, la foto
primordial. Como podéis imaginar el tema da mucho de sí, lo que
aconseja desarrollarlo en un siguiente capítulo. Lo haré de forma
somera, aunque espero que suficiente para ser entendido.
226
3. Se tratan de tres sondas espaciales portadoras de telescopios.
COBE, 1989, fue el primer satélite construido especialmente para
estudios de cosmología y estuvo especialmente dedicado al
explorar el fondo cósmico. WMAP, 2001, tuvo como misión el
estudiar el cielo y medir las diferencias de temperatura que se
observan en la radiación de fondo de microondas. Por último,
Planck, lanzado en 2009, está diseñado para detectar las
anisotropías en el fondo cósmico de microondas.
4. Eso va a tener suma importancia ya que cuando más tarde la
materia oscura inicia las primeras concentraciones de materia
bariónica su potencial gravitatorio va a tener más difícil el captar
en su pozo a esos bariones. Será más fácil que caigan los que pasen
cerca del centro de gravedad de la materia oscura. Incluso pudo
afectar a la propia acreción de la materia oscura al ser menor la
masa del halo que se estubiera compactando.
5. Mientras los fotones se veían afectados exclusivamente por la
expansión de Hubble que los enfriaba proporcionalmente al valor
de z de cada momento, la expansión adiabática del gas enfriaba a
los electrones proporcionalmente al valor de (1+z)2.
6. Ya veremos en un capítulo posterior, el 24, que eso se produjo en
un momento conocido como la reionización.
7. Como la manumisión de los neutrinos fue casi unos 380.000 años
anterior a la de los fotones, la esfera de su liberación LSS (Last
Scattering Surface) tendría que estar más alejada de nosotros que
la de los fotones de fondo CMB (Cosmic Microwave Background).
Hablamos de esferas ya que conceptualmente nos estamos
refiriendo a fotones o neutrinos que llegan a nosotros situados en
su centro y en nuestro momento temporal, partículas que vienen
desde estas hipotéticas esferas viajando hacia nosotros desde que
se independizaron. Esas dos superficies deberían estar separadas
unos 285 millones de megapársecs, casi 1.000 millones de años
luz. Es decir, cuando nos llega un fotón del fondo CMB salido de
un determinado punto, a los neutrinos LSS que partieron del
mismo lugar les debería faltar 1.000 millones de años luz para
llegar. Sin embargo hay que tener en cuenta una cosa cuando
midamos la realidad: los neutrinos tienen una pequeñísima masa
que va a implicar un momento. A menor masa, menor momento y
velocidad más lenta. Así que los neutrinos de tipo electrónico con
227
masa 10-4 eV del fondo LSS que nos están llegando ahora mismo,
proceden de un punto más cercano que los correspondientes
fotones CMB que se desplazan a la velocidad de la luz. Los
neutrinos electrónicos de masa 1 eV parecen provenir desde una
distancia de 461 millones de años luz. Compárese con los caminos
de 46.000 años luz de los correspondientes fotones CMB (ver el
siguiente enlace, figura 1)
[https://arxiv.org/pdf/0907.2887v1.pdf]
228
generalmente para mapas de la Tierra. El ecuador tiene el doble de
longitud que el eje corto. El meridiano central es recto mientras
que los meridianos a 90° son arcos circulares. Los paralelos son
rectos pero desigualmente espaciados. La escala es casi verdadera
sólo a lo largo de los paralelos estándar de 40:44N y 40:44S, por
lo que tiene una mayor representación por la zona ecuatorial.
11. Las microondas tienen una longitud de onda en el rango
aproximado de un metro a un milímetro, mientras que el visible se
mueve en un entorno de los 10-7 metros.
12. En el enlace propuesto a Wikipedia os podéis hacer una buena
idea de la aventura por la que se llevaron el premio Nobel de física
de 1978, aunque para mí les allanaron el camino los investigadores
de la Universidad de Princenton, los cuales, tras hacer la mayor
parte del trabajo, se quedaron compuestos y sin novia.
[https://es.wikipedia.org/wiki/Descubrimiento_de_la_radiaci%C3%B3n_d
e_fondo_de_microondas]
229
18: Lo que nos enseña la radiación de fondo I
232
El espectro de potencia de las anisotropías de la temperatura del
fondo de radiación de microondas en función de la escala angular,
según datos aportados por diversos experimentos. La línea continua
de color rosa corresponde a la curva teórica calculada (Wikipedia,
dominio público)
Lo cual parece también decir que la curva de anisotropías debe llevar
en sus patrones cierta información del horizonte acústico y su
desarrollo. Lo que, como ya hemos comentado, nos va a conducir a
la información sobre el tipo de materia y radiación existente en el
Universo, sus densidades y la curvatura de este. Todo un regalo. Hay
que recalcar que la curva dibujada utilizando datos experimentales se
ajusta perfectamente a la curva teórica, rosa en la figura anterior, que
se obtiene por “simple” cálculo, aplicando los criterios del Modelo
Estándar y el concepto ya explicado en otros capítulos de las ondas
sonoras del plasma, lo cual nos hace sentir bastante seguros mientras
manejamos nuestras hipótesis y teorías. Vamos a analizar ahora con
un poco más de detalle la información oculta en este espectro.
En la imagen siguiente hay como tres zums. El de la izquierda es el
menos nítido y es así porque dispone de menos información. Solo han
233
llegado los fotones más primerizos, próximos al horizonte de la
recombinación: estamos observando al Universo en las grandes
escalas. A medida que nos desplazamos hacia los otros dos zums se
va incorporando más y más información, por lo que cuanto más a la
derecha estemos no solo estaremos contemplando los momentos
lejanos en el tiempo sino también que estaremos incorporando
progresivamente información de momentos cada vez más actuales. A
la derecha estaremos viendo casi el mundo actual.
237
Se trata, por tanto, de una geometría puramente euclidiana, lo que nos
dice claramente que nos encontramos con un Universo que la cumple,
luego geométricamente se comporta como si fuera plano. Tanta
maravilla esconde un pequeño “pero” que no invalida la
conclusión, porque la verdad es que no conocemos con precisión
absoluta los parámetros que conforman este triángulo. Con ello
quiero decir la velocidad del sonido en el plasma inicial -que
condiciona la longitud del horizonte acústico- y la constante de
expansión del universo -que condiciona los otros dos lados del
triángulo-. De todas formas, los expertos nos aseguran que la
confianza con que lo decimos es del 95%. Yo apostaría mi sombrero
en favor del Universo plano.
Con lo dicho no nos sorprende el que los estudios teóricos que se han
hecho para definir mediante cálculo el espectro de frecuencias de la
radiación de fondo de microondas determinen que, para el caso de
una distribución de materia/energía propia de un universo plano, se
debería de dar un pico en campos angulares de aproximadamente 1º,
un momento multipolar de 200. Si disminuye la densidad de
materia/energía el universo se tiene que abrir, hacerse hiperbólico. [4]
Y así se observa en los estudios teóricos realizados cuyos resultados
podemos seguir en la serie de imágenes que siguen y que fueron
realizados a partir de nuestros modelos cosmológicos. [5]
En ellos se ha hecho variar la cantidad de materia y realmente se ha
observado cómo el primer pico se desplaza hacia multipolos mayores
-definición angular menor-, lo cual es lo lógico porque en este caso
los fotones, como habíamos comentado en el párrafo anterior, cierran
los ángulos de sus trayectorias. Lo explicamos.
Hay dos curvas teóricas: la azul, que tiene en cuenta, además de a la
materia, a una energía intrínseca -puede ser pensada como la energía
oscura, aunque ahora estamos en un nivel de cálculo teórico- y la
amarilla, que sólo tiene en cuenta a la materia. La barra rosa de la
derecha indica el parámetro equivalente a “densidad crítica menos
densidad de materia” (de lo que sea la densidad crítica hablaremos
unos párrafos más abajo). [6]
238
Evolución del primer pico dependiendo de la cantidad de materia
que se considere en el Universo, lo que define su geometría (ver
explicación en el texto). (Imagen: [7] Wayne Hu, Universidad de
Chicago, fair use)
A mayor barra rosa, menor es la participación de la materia -bariónica
y oscura- en la densidad crítica, y por tanto más nos alejamos de un
universo plano hacia uno abierto.
Si nos fijamos en la curva amarilla vemos que al disminuir la materia
-cuando sube la barra rosa- el primer pico (en general todos los picos)
se desplazan desde una posición l=200 hacia multipolos mayores, que
es lo que podíamos esperar. Vemos que en el proceso de la barra rosa
239
descendiendo -es decir, el universo está en camino hacia la geometría
plana- el primer pico se aproxima y llega a un multipolo 200, lo que
equivale a una definición angular de 1º. También vemos que en la
curva azul, en la que se tiene en cuenta la energía oscura, el
desplazamiento es casi inexistente, lo cual nos indica que debe haber
mucha cantidad de esta energía intrínseca, ya que su influencia anula
prácticamente cualquier variación de la materia. [8] Pues bien: justo
todo eso que nos ha dicho el análisis teórico es lo que hemos visto
luego en la realidad al estudiar los datos obtenidos por nuestros
instrumentos.
Pero insistamos sobre eso de que el Universo sigue una métrica plana.
Evidentemente, un universo plano no tiene sólo dos dimensiones
espaciales. Al menos nuestra experiencia nos dice que podemos
apuntarle tres direcciones ortogonales: arriba-abajo, derecha-
izquierda y delante-detrás, lo que no nos impide imaginar desde
dentro la idea abstracta de planitud. Un ser que nos contemplara
desde la dimensión n+1, siendo n el número de dimensiones de
nuestro Universo, sería capaz de explicarnos con soltura la evidencia
para él de que nuestro Universo es “plano”. Pero ¿por qué es tan
importante que sea plano?
Tiene que ver con la cantidad de materia-energía que contiene. Si
hubiera mucha habría también mucha gravedad y el universo
colapsaría en forma de una esfera cerrada cada vez más curvada y
pequeña. Si hubiera poca, la expansión seguiría acelerada hasta
“rasgar” su tejido, cada vez más abierto y con más curvatura negativa.
Cualquier desviación positiva o negativa con respecto a un punto de
equilibrio, aunque de inicio hubiera sido mínima, con la expansión
del universo se hubiera realimentado exponencialmente para caer en
el mundo “colapsado” o en el mundo “rasgado”. Pero vemos que el
universo no parece comportarse ni de una ni de otra manera, lo que
quiere decir que debe tener una densidad adecuada para que suceda
lo que observamos, que no habrá variado mucho desde el inicio. Y
ello implica que su densidad de materia y energía, al ser plano, deba
coincidir con la crítica: 0,9×10-29 gr/cm3.
Normalmente se habla no de valores absolutos, sino del porcentaje de
participación de la densidad de cada uno de los componentes en la
240
densidad crítica total. Estas participaciones se designan con la letra
Ω y, por tanto, si en el Universo coexisten tres tipos de materia o
energía -la materia también es energía- como así creemos que es, se
deberá cumplir:
(normalizado a la propia densidad crítica)
xΩ1 + Ω2 + Ω3 = 1 = (0,9×10-29/0,9×10-29)
En esa ecuación Ω1 es la densidad de la materia bariónica, Ω2 la de la
materia oscura y Ω3 la de la energía oscura. La posición del primer
pico del espectro de la radiación de fondo nos asegura que la igualdad
de arriba es verdad, que el Universo sigue una geometría plana y que,
por consiguiente, hay una densidad absoluta de 0,9×10-29 gr/cm3 en
el Universo. [9]
Llegados aquí, con las neuronas calientes de tanta materia y
radiación, nos va a convenir mirar solamente a los posos que se hayan
podido decantar, si es que hay alguno. Voy a intentar resumir de todo
el alegato anterior lo que básicamente nos dice el primer pico del
espectro de potencia de las anisotropías de la temperatura del fondo
de microondas: [1] Nuestro universo es plano, [2] con una
determinada cantidad de materia bariónica/oscura y que [3] puede
que haya también otro tipo de participante misterioso. Dicho esto, en
el capítulo siguiente continuaremos con el análisis de los armónicos
encontrados en las anisotropías.
243
19: Lo que nos enseña la radiación de fondo II
244
Tras haber analizado el primer pico, ahora vamos a continuar la
investigación atendiendo al segundo pico que aparece en la
fotografía de la recombinación cuando bajamos a resoluciones más
finas, lo que quiere decir menor ángulo θ o momento multipolar l
mayor. Es como si en el campo circular de 1º del primer pico
empezáramos a ser más puntillosos y lo compartimentáramos en
círculos de menos radio. Al aplicar la lupa en estos terrenos podemos
detectar más pormenores, de forma que si elegimos un radio de medio
grado comenzaremos a apreciar los detalles producidos por la
influencia del segundo armónico de la onda de sonido que,
recordemos, tenía una longitud de onda la mitad que la del armónico
fundamental. El resultado de este rastreo más minucioso nos hace ver
que próximo a l=500, lo que equivale a una región que abarca un
ángulo aproximado de 0,4º, encontramos otro máximo en la curva del
espectro. En el capítulo anterior ya dijimos cómo se construye la
curva de forma que ahora ya sabemos que dentro del campo fijado
por este ángulo de observación sobre el fondo del Universo vamos a
encontrar un intervalo de temperaturas característico, menor al que
detectamos en zonas abarcadas por ángulos mayores, y que es
consecuencia de la superposición de influencias de los armónicos, tal
como podemos intuir al ver el extremo derecho de la figura de más
abajo. No nos debe sorprender, por tanto, que el segundo pico en las
anisotropías aparezca donde aparece y que tenga una menor altura
que el primero.
246
seremos capaces de deducir la cantidad y composición de materia en
el Universo.
247
capaces de contabilizar bariones que aportan un 2% a la densidad
total. Lo cual quiere decir que hay un 50% de bariones perdidos en el
Universo. Realmente no están perdidos, están ahí, pero no sabemos
dónde.[2] Y eso es lo que nos aseguran los cosmólogos: del primer
pico habíamos sacado conclusiones sobre la densidad de la materia
total y del segundo pico la relación que hay entre la oscura y la
bariónica, además de que la de esta última es 0,04, lo que los lleva a
pensar que la participación de la materia oscura es significativa. Todo
esto es lo que nos sugiere el segundo pico.
Pasamos ahora a ampliar el análisis con los datos que proporciona el
siguiente pico, el cual ya incorpora la incidencia del tercer armónico
de la onda sonora. Al ser su amplitud menor, los armónicos más
pequeños comenzaron a vibrar completamente, en toda su longitud
de onda, antes que los mayores. Por lo que podemos decir que alguno
de ellos ya estaría en proceso oscilatorio completo muy al principio
del tiempo cuando la radiación aun dominaba claramente a la materia.
El influjo de la radiación era tanta que, aunque hubo una primera
compactación gravitatoria de la materia, a escalas pequeñas la
radiación la expandió sin permitirle volver al estado de
compactación. Más tarde cuando llegó el momento en que la materia
oscura ya dominó a la radiación, que había ido perdiendo energía
debido a la expansión del Universo, comenzaron las sucesivas
compactaciones/expansiones origen de las oscilaciones a gran escala.
Este cambio de paradigma se refleja ya en el tercer pico por lo que de
él se pude inferir la relación de densidades de la materia oscura y de
la radiación. Como la cantidad de energía de radiación puede
calcularse del estudio de la foto de las microondas de fondo, el tercer
pico nos da una buena estimación de la densidad de materia oscura
del orden del 23%.
Aún con todo, nos quedaría en el aire la energía oscura, con un peso
porcentual en la densidad crítica de
ΩΛ(energía oscura) = 1 – Ωmateria oscura – Ωmateria bariónica =
= 1 – 0,23 – 0,04 = 73% [3]
248
Resumiendo lo dicho hasta ahora sobre lo que inferimos de la
información de la curva de anisotropías: El primer pico nos habla de
la planitud del Universo y de la densidad de la materia en general; el
segundo, de la existencia de materia bariónica que no vemos y de que
hay una buena cantidad de materia oscura; mientras que del tercero
deducimos la densidad de la materia oscura en el Cosmos.
Los restantes picos son muy sensibles a la relación entre la densidad
de la materia oscura y la de la radiación. A partir del tercer pico del
espectro, los otros van disminuyendo y diluyéndose. Ya dijimos que
se cree que eso es así dado que, debido a la expansión, las amplitudes
de onda de los correspondientes armónicos eran mucho más pequeñas
que las distancias medias entre los bariones del plasma, [4] los que
transportan a la onda acústica, por lo que los armónicos menores de
la onda sonora se tuvieron que disipar sin poder influir en las
compactaciones de la materia y radiación.
¡Pero no acaba aquí todo!, porque aún hay más lecciones que
aprender de la foto inaugural. Estos fotones que nos llegan tras haber
viajado casi 13.800 millones de años luz no sólo nos dicen los
patrones de materia escritos en su distribución de energías, sino que
nos aportan una información adicional escondida en sus patrones de
polarización… ¡Pero bueno! ¿Será posible que los fotones del fondo
de microondas están polarizados? Pues sí. Y vamos a ver por qué.
Así como el mapa de la radiación de fondo presenta una serie de
anisotropías de brillo -temperatura-, también lo hace mostrando un
patrón de polarización. Anisotropías de brillo y de polarización que
fueron debidas a fenómenos diferentes. Ya sabemos el porqué de las
primeras, por lo que nos quedaría por analizar las segundas, que
también quedaron “congeladas” en el momento de la recombinación
y que nos van a dar indicación de la velocidad del movimiento del
plasma o de las ondas gravitatorias primordiales surgidas tras los
últimos instantes de la inflación exponencial del Universo.
La polarización de la radiación en el plasma inicial fue debida a las
interacciones con los electrones libres, dando lugar a dispersiones del
tipo Thomson a bajas energías. Estas dispersiones consisten en lo
siguiente (ver imagen de abajo):
249
La onda del fotón inicial lleva asociado un campo eléctrico
sinusoidal, el cual hará que el electrón cargado negativamente oscile
en el plano perpendicular a ese campo. Esta oscilación hace que el
electrón emita energía en forma de otro fotón, que oscilará en un
plano perpendicular al de como oscilaba el electrón. Lo cual quiere
decir que el fotón emitido estará siempre polarizado y en el plano del
campo eléctrico del fotón inicial. Este proceso se puede comprender
mejor viendo la imagen siguiente que representa el esquema general
de polarización durante las interacciones Thomson.
1. [http://background.uchicago.edu/~whu/intermediate/baryons3.ht
ml]
2. Hablaremos con un mayor detalle de este misterio en un capítulo
posterior.
3. Podéis preguntaros por qué en todo este reparto de la densidad
crítica no hemos tenido en cuenta el efecto de la radiación. ¿Y
todos los tibios fotones de la radiación de fondo? ¿Y todos los
energéticos fotones que se han generado en las estrellas tras la
recombinación? ¿Es que todos estos no aportan energía?
Curiosamente tenemos que decir que siendo así, su aporte
energético es despreciable frente al de la materia en sus dos
vertientes y al de la energía oscura. La aportación de los fotones
de fondo es del orden de 104 veces menor y la de los fotones de las
estrellas incluso aún diez veces menos: a pesar de su alta energía
hay muy pocas estrellas por unidad de volumen en el Universo.
4. En el plasma primordial, justo en los momentos antes de la
recombinación, una partícula debía recorrer hasta 10.000 años luz
antes de encontrarse y chocar con otra.
5. “BICEP2 I: Detection Of B-mode Polarization at Degree Angular
Scales”, P.A.R. Ade et al., marzo 2014.
[https://arxiv.org/abs/1403.3985]
254
20: La materia entra en faena
257
hoy en día, espuma, filamentos, cúmulos y paredes de gases, polvo y
galaxias.
Posiblemente la materia oscura permea una gran parte del universo y,
aunque no sabemos de qué está compuesta, tenemos evidencias
indirectas de ella. Es lo que explicaría las incoherencias en las
velocidades de ciertas agrupaciones celestes. Una de ellas son los
cúmulos de galaxias -nuestra Vía Láctea orbita en uno de ellos, que
llamamos Grupo Local- en donde las más exteriores giran a
velocidades superiores a lo que les tocaría si allí sólo hubiera masa
bariónica. Otra pista la sacamos al observar las velocidades de giro
de las estrellas dentro de las propias galaxias, en donde las más
externas lo hacen de forma no coherente con la cantidad de materia
ordinaria visible (ver figura siguiente).
259
- materia NO bariónica también de los dos tipos “fría” y
“caliente”, que pudieran ser partículas ligeras del tipo de los
nunca vistos axiones, los tampoco detectados fotinos -la
contraparte bariónica del fotón en la supersimetría SUSY-, los
neutrinos estériles [4] u otro tipo de partículas masivas de
interacción débil (WIMP’s), que incluyen a los neutralinos. [5]
264
La radiación ultravioleta que se generaba en los hornos nucleares de
estas primeras estrellas recalentaría las nubes gaseosas de sus
alrededores, provocando de nuevo una rotura de los átomos de
hidrógeno que, en su mayoría, quedaron de nuevo ionizados como
antes de la recombinación. Eso se produjo en la edad de la
reionización que será nuestro objeto de estudio dentro de dos
capítulos ya que en el siguiente aún nos queda desmenuzar lo que
acabamos de apuntar: ¿qué es lo que pasó entre los 380.000 años y la
época de la reionización?
266
21: La era de la gran oscuridad
267
profundo (derecha). A partir de [A] una pequeña mancha de luz en la
esquina superior izquierda se ha ampliado [B] de forma que ahora se
ve un minúsculo punto rojo. La segunda ampliación [C] da idea del
sutil halo de luz que proviene de tal galaxia: UDFy-38135539, la más
profunda conocida por Hubble en un corrimiento al rojo Z de 8,6, lo
que corresponde a una edad aproximada de 650 millones de años
271
podía hacer valer su poder y que, a la larga, iban a ser las piezas
fundamentales de las estructuras del Universo. Su principal
componente era la materia oscura, cinco o seis veces más abundante
que la bariónica, [5] la cual se veía irremisiblemente arrastrada hacia
los pozos gravitatorios de la oscura.
Por fin los tirones gravitatorios conjuntos fueron de tal calibre que
los grumos más densos de materia se pudieron desacoplar de la
expansión general del Cosmos. La expansión general del Universo se
iba desacelerando, aunque la energía oscura seguiría dispuesta a
ganar en la batalla de la expansión, que es lo que pasa hoy en día.
Como resultado de ello en el espacio habían quedado regiones de
materia con libertad como para iniciar su compactación
gravitatoria definitiva. En ellas ya se pudo empezar a apreciar la
formación de la estructura del Universo, se cree que en corrimientos
al rojo de z = 30~15, es decir entre 100 y 270 millones de años tras el
Big Bang.
276
puede alcanzar rápidamente un estado próximo a la estabilidad y
equilibrio. Si los dos halos que se fusionan tienen muy diferente masa
los procesos dinámicos son menos violentos. El sistema más
pequeño, el satélite, orbita dentro del halo principal durante un
período prolongado a lo largo del cual compiten dos circunstancias
que determinan su destino final. Su tamaño y la fricción dinámica con
el halo principal. Esta última hace que el halo más pequeño gire en
espiral hacia adentro, mientras va eliminando masa de sus regiones
exteriores por efecto de las mareas gravitacionales, con lo que,
eventualmente, pueden llegar a deshacerse por completo.
Lógicamente esa fricción dinámica es más efectiva cuando los
satélites son más masivos. Pero si la proporción de masa de los halos
iniciales es lo suficientemente grande, el objeto más pequeño, un
subhalo, puede mantener su identidad durante mucho tiempo
orbitando dentro del pozo de potencial de su anfitrión.
Y si tras ese relato sentís como os ronda por la cabeza una especie de nube de
tormenta veraniega, imagen próxima al escenario de fusiones y cúmulos de
halos de materia oscura, podéis seguir con ella ahora contemplado con vuestros
propios ojos en la imagen siguiente los espectaculares resultados de una
simulación, [12] que corresponde a un campo de materia oscura en
donde resalta lo que claramente podemos conceptuar como un
277
particular “Grupo Local”. Se distinguen un par de sistemas de halos
de materia oscura separados un megapársec, en cuyo interior destacan
grandes halos con unas masas viriales de aproximadamente 1012
masas solares, rodeados por un conjunto de subhalos de 106 masas
solares. La escala de grises representa la densidad local de la materia
con una resolución que nos permite visualizar hasta más de 2.000
halos satélites de materia oscura.
Estos primeros halos de materia oscura conforman la unidad
fundamental en la formación de los objetos astronómicos. En los
tiempos iniciales la mayoría de la materia oscura estaba en halos de
pequeña masa que continuaron acreando materia y fusionándose con
el tiempo formando entonces, ya sí, halos de gran masa. Los primero,
más pequeños y abundantes, los podemos encontrar más aislados en
halos tenues ya que si no hubiera sido así se los hubiera tragado algún
halo mayor. Por contra los grandes y más masivos vivían en
vecindarios con densidades de materia potentes, en donde apenas
vemos ya halos pequeños independientes porque han sido deglutidos
por los mayores como subhalos de ellos.
La figura anterior nos va a ayudar a dar un paso más. Por ahora hemos
seguido al halo de materia oscura en su camino hacia el colapso, hasta
que llegaba a su estado de equilibrio viral mientras su población se
280
distribuía entre diversos tamaños. Pero ahí no solamente había
materia oscura, sino que también se manejaba la materia bariónica, la
cual seguía a la oscura bajo la batuta del pozo gravitatorio de esta
última. En la curva vemos en qué proporción participaba la población
bariónica [15] y como esa participación evolucionaba con el paso del
tiempo, en cada momento cosmológico z, y en halos con temperaturas
viriales mayores a 104 K. Esta temperatura corresponde a una
situación de enfriamiento del halo muy particular, como veremos en
el próximo capítulo.
En los primeros momentos su presencia era escasa dentro de los
halos, tan sólo un 10-6 de la población bariónica estaban en el juego
en z=40 a los 65 millones de años. Pero vemos cómo se van haciendo
más participativos al movernos hacia corrimientos al rojo más
actuales siendo del 1% en z=20 a los 180 millones de años. De todas
formas, lo que más puede sorprender es saber que a lo largo de la vida
del Universo una gran mayoría de la población bariónica seguía libre
como parte del gas intergaláctico.
Esos personajes sí interactuaban con la radiación, al contrario de la
oscura, por lo que en su presencia la onda de presión que mantenía
virializado al halo se veía muy reforzada. Gracias a ello se podía
acrear mucha más materia bariónica, más gas, que progresivamente
y gracias a su momento angular iba adoptando la forma de un disco
que giraba alrededor del centro durante mucho tiempo y que,
eventualmente, tendía a romperse en un conjunto de nubes densas que
a su vez se fragmentarían más tarde en cúmulos de gases que, si
sobrepasaban sus particulares masas de Jeans, acabarían gestando
cada uno una estrella. ¿Por qué puede romperse el disco de gas? Muy
sencillo. Porque puede enfriarse a diferencia de lo que le pasa a la
materia oscura que se manifiesta muy poco activa interactuando -con
la excepción de la gravedad- incluso con ella misma y que por ello
no encuentra un franco camino para frenar a sus partículas y bajar su
temperatura. Pero los bariones SÍ. Y al enfriarse disminuye la
intensidad de sus locales ondas de presión y con ello alteran las
necesarias masas de Jeans, por lo que pueden compactarse más y más
281
a medida que se enfrían. Eso lo consiguen principalmente siguiendo
varios caminos que explicaremos también en el siguiente capítulo.
Aquí adelanto algunos, quizás los principales: desexcitación de los
electrones del átomo de hidrógeno y desexcitación de los momentos
vibracionales y angulares de las moléculas existentes. En cada
subhalo se hará a su manera y así nacerán las estrellas.
284
[https://bigthink.com/starts-with-a-bang/primordial-black-holes/]
285
2[Ecinética] = n [Epotencial].
La palabra "virial" tiene su origen en vis, la palabra en latín para
"fuerza" o "energía".
11. “The Substructure Hierarchy in Dark Matter Haloes”, figura
1, Carlo Giocoli et al., 2010.
[https://arxiv.org/pdf/0911.0436.pdf]
12. “The dark matter crisis”, figura 1, Ben Moore, 2001, fair use.
[https://arxiv.org/pdf/astro-ph/0103100.pdf]
13. “First light”, figura 19, Abraham Loeb, 2006, fair use.
[https://arxiv.org/pdf/astro-ph/0603360.pdf]
14. En astronomía la función de masa es una función analítica o empírica
que describe la distribución de masas para una población de objetos
astronómicos. Normalmente se acepta que la función de
distribución de masas ξ(M) es una función exponencial de la
forma ξ(M) ∝ M−α siendo M la masa. Entenderemos su sentido
si la presentamos de otra manera, en donde n es el número de
halos,
dn = ξ(M).dM
es decir, es el nexo entre el número poblacional y la masa.
Estamos ahora en condiciones de analizar la curva anterior. La
variable del eje vertical, dn/dlogM, indica el número de halos
que se encuentran en un intervalo de masa comprendido entre
Mi y Mi+dM. Cantidad que está correlacionada con la masa Mi
en el eje horizontal (que realmente está referenciada al
correspondiente exponente de 10).
15. Misma fuente que en la nota 13, figura 13, fair use.
286
22: De la oscuridad a la luz
289
balbuceos de las estrellas, estarían ya presentes los rayos ultravioleta
con energías de decenas de electronvoltios. Esos fotones, como el
resto de los de su especie, no sólo hacían valer la “presión” en su
cruzada anti-compactación, sino que también aprovechaban su
energía para otros menesteres. Algunos de ellos sobrepasarían la
energía de los fotones Lyman-α de 13,6 eV, la de la fuerza de enlace
del átomo de hidrógeno, por lo que tendrían suficiente fuerza como
para ionizar a esos átomos en la zona central del halo. En esa zona
de hidrógeno ionizado la temperatura era mucho mayor que la de las
zonas del entorno lo que, al calentarse, incrementaba el volumen de
la zona ionizada que crecía hacia el exterior con una gran aceleración,
provocando un frente de gas ionizado hacia afuera y que dificultaba
la compactación hacia el núcleo, circunstancia contraria a lo que
necesitaba el plasma para alumbrar a una nueva estrella. Este frente
inicialmente era supersónico, aunque se iría frenando a medida que
se expandía e interaccionaba con lo que iba encontrando en su
camino, pudiendo ralentizar su velocidad hasta hacerla próxima a la
del sonido. Entonces el frente de onda sónico quedaba atrapado ya
que chocaba con el gas neutro exterior con el que se acoplaba. En la
zona de acople podemos imaginar que se inducía en el gas neutro y
molecular exterior como una especie de concha, dentro de la cual
queda el frente de gas ionizado, mientras el conjunto sigue avanzando
a la velocidad del sonido. Mientras la presión en el borde de la concha
fuera mayor que el potencial gravitatorio el frenado de la
compactación del halo seguiría siendo efectivo. A medida que la onda
se propagaba hacia el exterior la densidad del hidrógeno neutro con
el que se encontraba iba disminuyendo por lo que en algún momento
el frente de material ionizado podía volverse a desacoplar
recuperando velocidad y perdiéndose en el infinito. Es lo que se
conoce como la evaporación del halo. Mal augurio para la
compactación.
PERO… otros fenómenos físicos trabajaban en sentido contrario.
Básicamente, lo que hacían era relajar la creciente temperatura que
se producía al incrementarse la compactación. Si la masa comprimida
por la atracción gravitatoria consiguiera no calentarse tan deprisa,
entonces tendría un margen más amplio en su camino hacia mayores
densidades pues la antagónica presión de la radiación se empezaría a
290
notar más tarde. Ciertamente había, y aún está operativo, un
“ventilador cósmico fotónico” que trabajaba en este sentido.
Básicamente lo que hacía en las zonas de progresiva acumulación era
“ventilar” energía en forma de fotones que podían abandonar el
grumo de materia, con lo que así ésta seguía un camino de
calentamiento más suave. ¿De dónde provenían estos fotones? En
toda esta sopa, aún con tremendos espacios vacíos, los átomos
chocarían unos con otros o con la radiación, con el resultado de que
alguno de sus electrones orbitales ascendía a una capa de mayor
energía. Casi inmediatamente volvían a su querencia de un estado de
menor energía: saltaban a su órbita inferior emitiendo fotones
portadores de energía, de nuevo los Lyman-α, [4] alguno de los cuales
lograban escapar refrigerando la zona al perderse en el espacio lejos
de la conglomeración de materia. Este ventilador era altamente
eficiente a partir de que el halo alcanzara una temperatura virial
mayor a 104 K como vemos en la figura siguiente.
295
Resumen de las interacciones atómicas y moleculares que
aparecen en el texto y que involucran a fotones, moléculas,
átomos, iones y electrones.
• Procesos doblemente enlazados: Estos son los procesos por los
cuales un electrón hace una transición de un nivel energético
(enlazado) a otro nivel energético (enlazado) en un átomo (o ion).
Tales transiciones se pueden llevar a cabo ya sea por colisiones con
electrones (excitación/desexcitación por colisión) o por
interacciones con fotones (excitación o decaimiento
espontáneo/forzado).
• Procesos de transición de un electrón entre un nivel enlazado y un
estado libre: estos procesos implican la eliminación de un electrón
de una órbita energética (enlazada), lo que puede suceder cuando un
átomo (o ion) choca con un electrón enlazado (ionización por
colisión) o cuando absorbe un fotón (fotoionización). El proceso
inverso es la recombinación, por el cual un electrón libre se
recombina con un ion.
Colisión ionización/excitación H0 +e- p+ + e- + e-
Fotoionización/foto excitación H0 +γ p+ + e-
Recombinación p+ + e- H0 + γ
• Procesos libre-libre: estos procesos involucran solamente
electrones libres. Cuando un electrón libre es acelerado o
desacelerado, emite fotones a través de la radiación
Bremsstrahlung. El electrón también puede absorber un fotón a
través de una absorción libre-libre.
p+a + e-a p+b + e-b + γ
• Dispersión Compton: Este es el proceso en el cual los fotones son
dispersados por electrones libres (o iones). Si la energía del fotón es
alta, los electrones ganan energía (el proceso Compton). Si la
energía cinética del electrón es mucho mayor que la energía del
296
fotón, la energía es transferido del electrón al fotón (inverso de
Compton).
e-a + γa e-b + γb
298
regulaba el éxito de la caída de materia fuera disminuyendo, por lo
que cada vez era más fácil la compactación.
Como hemos dicho, no todas las zonas dentro del gran cúmulo
seguían el mismo historial: las inestabilidades gravitacionales
producían diversos núcleos compitiendo en la acreción de gases.
Algunos de menor tamaño, distribuidos aleatoriamente en el espacio,
alcanzarían antes la condición de masa de Jeans, por lo que, aquí y
allá, comenzarían a verse subgrupos colapsando a su aire dentro de
un núcleo gigantesco que lo hacía a su ritmo desde hacía mucho. Las
interacciones de estos núcleos de segundo orden podían seguir la
física de sistemas de tres cuerpos, lo que hacía que los núcleos más
pequeños se fueran a la periferia del disco plano de acreción, con
menos material, mientras los núcleos grandes se iban al centro en
donde ganaban masa a gran velocidad. Nos parece ya ver cómo se iba
dibujando un estado inicial en donde será fácil que se produjera las
semillas de un rango extenso de masas estelares.
Una vez encendidas esas primeras estrellas apareció lo que podía ser
un contratiempo para el proceso. Los rayos ultravioleta exteriores
podían romper las moléculas refrigeradoras de H2 o incluso ionizar
átomos en el interior de los mini halos crecientes. Y eso era peligroso
para el proceso de gestación de una nueva estrella, puesto que
sabemos que podría provocar su evaporación, a lo que además
podríamos añadir el que los campos magnéticos de fondo imprimirían
movimientos azarosos en las recién nacidas partículas ionizadas, lo
que sin duda también dificultaría la compactación gravitatoria. Sin
embargo, esos efectos eran menores en los halos compactados que en
sus alrededores ya que la propia mayor compactación serviría de
blindaje frente a la cada vez más abundante radiación ultravioleta
puesto que a mayor densidad menor sería la penetración.
Las grandes masas además jugaban con otro as: una masa más
compactada supone una mayor temperatura interna… y recordemos
lo dicho un poco más arriba que cuando la temperatura sobrepasa los
104 K, el ventilador atómico se hace realmente importante. Mientras
que las más pequeñas que no llegaran a ese dintel de temperatura, al
perder su H2 por la acción de la radiación UV y sin la posibilidad de
299
que los átomos resultantes pudieran refrigerar, tendrían verdaderas
dificultades para alumbra una estrella.
De todo lo anteriormente dicho queda patente cómo las estrellas se
influían unas a otras. A veces con intensidad fratricida. Lo que nos
hace pensar que para que se pudieran generar los primeros cúmulos
de estrellas o galaxias, debió ser muy importante el hecho de que los
inicios de las estrellas de un halo estuvieran muy sincronizados, que
el desarrollo de sus vidas fuera muy paralelo, ya que si no fuera así
se hubieran estorbado y anulado unas a otras produciendo un
conjunto final más pobre que el que conocemos.
302
siguiendo el procedimiento de que un pequeño grupo de
concentraciones de masa se agrupase solidariamente -la unión hace
la fuerza- contra el “enemigo”, manteniendo una equilibrada y auto
mantenida dinámica conjunta de: estaríamos hablando por primera
vez de lo que serían las semillas de estrellas que no irían apareciendo
solitarias dentro de la nube de gas, sino en conjuntos de dos o más, lo
cual aportaba un punto más de redistribución del momento angular al
permitir la rotación de ellas alrededor de su centro de masas. Los
modelos de cálculo nos dicen que, con el tiempo, tras violentos
cambios gravitatorios, se debieron ir consolidando sistemas estelares
en una proporción de 25 conjuntos triples por cada 65 dobles, dejando
un resto de 35 estrellas solitarias como lo es nuestro Sol. Tal como lo
vemos hoy.
304
Se han encontrado campos magnéticos en muchos tipos diferentes
de galaxias y cúmulos. Las galaxias espirales, incluida la nuestra,
parecen tener campos magnéticos relativamente grandes en el
entorno de los 10 µGauss y algunas (como la galaxia M82)
contienen campos anómalamente intensos de hasta 50 µG. Las
galaxias elípticas e irregulares también poseen fuerte evidencia de
campos magnéticos, aunque son mucho más difíciles de observar
debido a la escasez de electrones libres en estas clases de objetos.
Los campos magnéticos también se observan en estructuras más
grandes que las galaxias individuales, como en sus cúmulos, del
orden de las unidades de µG. E incluso existe evidencia de campos
magnéticos en escalas aún mayores: a lo largo del filamento entre
el cúmulo Coma y el cúmulo Abell 1367, pudiera haber un campo
magnético de 0,2 a 0,6 µG. Y en escalas cosmológicas más grandes
solo sabemos de límites superiores para los campos magnéticos.
Estos límites surgen de las observaciones del fondo cósmico de
microondas y de la nucleosíntesis, que establecen que para escalas
≥10 Mpc las intensidades de campo son ≤10−8 Gauss.
[https://inspirehep.net/files/ec1c941296f11deee2c03c1f127ed213]
[https://www.quantamagazine.org/the-hidden-magnetic-universe-begins-
to-come-into-view-20200702/]
[https://tendencias21.levante-emv.com/el-universo-tendria-un-alma-
magnetica-invisible.html]
305
4. Fotones que incluso podrían reforzar este mismo proceso al chocar
con los electrones de los átomos del gas. Podríamos pensar que lo
mismo podía suceder con los fotones de la radiación de fondo
salidos de la recombinación. Pero éstos lo tenían imposible puesto
que, siendo ya inicialmente “fríos”, seguían con su proceso de
enfriamiento al alargar la expansión a sus ondas, por lo que no
podían participar en el baile general del gas.
5. Esas curvas dibujan las tasas de enfriamiento en función de la
temperatura para un gas primordial compuesto de hidrógeno y
helio atómicos, así como de hidrógeno molecular en ausencia de
radiación externa. Se ha supuesto que la densidad numérica de
hidrógeno es de 0,045 cm−3, que corresponde a la densidad media
de los halos virializados en z=10. El eje de ordenadas está en
unidades Λ/n2H donde Λ es la velocidad de enfriamiento del
volumen (en erg cm3/seg). La línea sólida muestra la curva de
enfriamiento para un gas atómico, el “ventilador cósmico
fotónico”, con los picos característicos debido a la excitación por
colisión del H I (H) y de los iones He II (He++). La línea punteada
muestra la contribución adicional del enfriamiento molecular, la
“excitación de un gas perturbado”, asumiendo una abundancia
molecular igual a 0,1% de nH.
[https://arxiv.org/pdf/astro-ph/0010468.pdf]
307
23: Con las gafas de las simulaciones
311
con todo esplendor de forma muy eficiente el ventilador molecular de
hidrógeno como podemos ver en el cuadro C.
El cuadro B. dibuja perfectamente esa población de hidrógeno
molecular en franco crecimiento hasta que la recombinación capturó
a la mayoría de los electrones libres que catalizaban su formación,
tras lo cual la generación de sus moléculas prácticamente finalizó.
En el cuadro C. vemos como la temperatura del gas va creciendo
casi linealmente debido a la compresión hasta que alcanza la de
virialización de T ̴ 5.000 K. A medida que se va incrementando la
densidad el enfriamiento proporcionado por las moléculas de H2 se
va haciendo cada vez más eficiente de forma que fue bajando la
temperatura hasta el nivel permitido por las energías de vibración
moleculares próximas en promedio a 512 K, [3] cuando la densidad
estaba en el entorno de los 104 protones por cm-3 (densidad crítica de
partículas).
Como ya sabemos de un capítulo anterior la masa de Jeans (MJ) es
proporcional a la temperatura. Y eso es lo que se aprecia en el cuadro
D. en donde podemos ver como la MJ va creciendo con la caída de
bariones en el pozo hasta alcanza un valor aproximado de 103 veces
la del Sol coincidiendo con el momento en que el halo se ha
virializado. A partir de ese punto la MJ disminuye puesto que la
temperatura disminuye mientras la densidad sigue aumentando (ya
sabemos que la MJ es inversamente proporcional a la densidad). Con
la masa bariónica incorporada en el centro del pozo de la materia
oscura la MJ se estabiliza en el valor de 200 masas solares.
313
Inicialmente se había formado una nube con materia aproximada a
una masa solar y una densidad de 108 hidrógenos por cm3 (momento
que parece la continuación temporal del estudio de Bromm). En ese
momento la densidad es suficientemente grande como para que se
active una nueva química que hace renacer la “ventilación”.
Reaparecen las moléculas de hidrógeno a través de ese tipo de
reacciones químicas:
H + H + H H2 + H H + H + H2 H2 + H2
por las que prácticamente todo el hidrógeno vuelve a pasar a su forma
molecular.
El enfriamiento se reanuda y la compactación se intensifica hasta un
punto en que la densidad es tal que ya no pueden escapar los fotones
refrigerantes. Se llega a densidades mayores a 1014 hidrógenos por
cm3 momento en que los choques son tan frecuentes que la energía
disipada en ellos se constituye en otra forma de ventilación. Esas
emisiones tienen una dirección preferente que corresponde a aquella
en que la compactación se estaba haciendo más rápidamente, a mayor
velocidad. Como consecuencia de ello una pequeña parte del centro
bariónico, del orden de 0,1 masas solares, se enfría formando una
estructura semejante a un disco plano con un radio de unos 108
kilómetros. Como la parte exterior del disco seguía un proceso de
compactación más lento, se generan unas ondas espirales de materia
que acaban adosando dos brazos al núcleo central que consiguen una
estabilidad gracias a su giro.
(cuadro C) Cuando en el centro la densidad alcanza un valor tan
grande como 1018 hidrógenos por cm3, la materia bariónica es tan
densa que se hace opaca para la radiación, terminando
definitivamente la vida de nuestros ventiladores fotónicos. Con una
segunda derivada anti refrigerante y es que en esa loca dinámica los
choques acaban disociando a las moléculas de hidrógeno.
En esos momentos el gas se compacta adiabáticamente sin más
interferencias, lo que hace crecer a la temperatura del núcleo central
hasta varios miles de kelvin mientras la densidad escala hasta 1020.
El término adiabático hace referencia a la imposibilidad de
314
transferencia de calor con el entorno. Al final del proceso se habrá
generado una protoestrella con una masa un 1% de la solar. En su
interior la densidad habrá llegado a los 1021 hidrógenos por cm3 y la
temperatura superior a 104 K. (cuadro D)
315
Según las simulaciones que comentamos, inicialmente se producen
una serie de circunstancias que van a favorecer la aparición de estas
inestabilidades, aunque poco a poco la realidad es que la densidad y
la temperatura del disco tiende a permanecer constantes en su mayor
parte, por lo que se pierde la capacidad de acrear más masa hacia su
centro. Para continuar la compactación en un régimen propicio a las
desequilibrios que nos lleven a la generación de múltiples
protoestrellas se debe reactivar algún tipo de “ventilador cósmico”,
que como veremos serán causa para inducir nuevas inestabilidades y
fragmentaciones.
En esos momentos de aparente pausa en el disco aparece el fenómeno
conocido como “emisión inducida por colisión” y que es causado por
los choques de las moléculas de H2 con las de otras poblaciones como
el H, el He o el mismo H2. En esas interacciones se forman super
moléculas que se comportan como un dipolo eléctrico que lo mismo
actúa como emisor de fotones como de sumidero. Este método de
refrigeración permite que el gas se enfríe durante los primeros
momentos de la fragmentación y va actuando hasta que la densidad
del gas es mayor a 1016 hidrógenos por cm3, momento en el que el
ventilador se para y la temperatura vuelve a crecer. Pero de nuevo
hay un cambio de tendencia ya que a T>103 K el H2 se disocia
dejando en cada disociación 4,48 eV libres que abandonan a lomos
de fotones la masa del gas. Hay que decir que todas esas excursiones
de temperatura provocan también inestabilidades y fragmentaciones
del disco.
Aún hay una tercera causa que favorecerá la inestabilidad y que se
debe a ciertas turbulencias inducidas por una forma muy curiosa de
acrear gas que se califica como “fría”. Las masas así acreadas
forman mini halos desde donde se transportan en forma de filamentos
de materia que no interaccionan con el halo hospedador hasta que
llegan a chocar supersónicamente con el centro de este provocando
nuevas fragmentaciones. Hasta aquí el contexto general.
La imagen que sigue es una representación visual de los resultados
de la simulación de Paul C. Clark que incorpora la tipología de
perturbaciones explicada. El sujeto del crimen es un disco donde se
está gestando una estrella de Población III y el cálculo matemático
316
nos indica que, en un primer momento, hacia el año 100 tras la
formación del primer núcleo protoestelar, el disco adopta una
configuración en espiral desarrollando estructuras que son
asimétricas con respecto a su eje y que a la postre van a dibujar
inestabilidades locales (Cuadro A). Durante los primeros 60 años la
estructura del disco se ve fuertemente dominada por una disposición
en forma de espiral con dos brazos (B y C) mientras poco a poco se
va separando un segundo núcleo protoestelar a unas 20 Unidades
Astronómicas del primero.
318
que no es de sorprender el hecho de que las simulaciones para z’s
mayores nos propongan algún proceso similar como causa de la
rotura de los halos bariónicos durante la época de las antiguas
estrellas de Población III.
320
que este cuerpo de gas irradió nuevos fotones mucho más energéticos.
El conjunto debió de ser como un prolongado flash de luz que pasó
del no visible infrarrojo a un continuo espectro luminoso… y más.
Se había encendido la luz de las estrellas y el Universo, que hasta
entonces había sido oscuro, comenzó a ser un espectáculo luminoso,
parte de la cual se encontraba dentro de la escala de frecuencias
detectables por un ojo biológico. Sí, efectivamente, entonces no había
ojos, lo cual no quita ningún ápice al esplendor del momento.
Aunque a la par algo iba sucediendo. Cosa que veremos en el
siguiente capítulo.
322
aparece 4He2+ y sale cantidades ingentes de energía transportada
por fotones y neutrinos.
Hay varios procesos para que eso suceda. Cuál vaya a ser el elegido
dependerá de la masa de la estrella. Si el equilibrio
radiación/gravedad permitido por la masa hace que en el núcleo
persistan temperaturas de hasta unos 25x106 K, lo que significa
estrellas medianas, va a estar presenta la cadena protón-protón. Si
las masas son mayores, se generarán temperaturas aun superiores a
la mencionada y entonces entrará en funcionamiento el ciclo CNO
(carbono-nitrógeno-oxígeno). A continuación se plantea de forma
muy somera las reacciones correspondientes a ambos procesos.
1. Cadena protón-protón
protón+ + protón+ deuterio+ + positrón+ + neutrinoelectrónico
De los dos núcleos iniciales de H, cada uno de los protones, uno se
ha transmutado en un neutrón del deuterio gracias a la participación
de la energía nuclear débil. Hay muchísimos electrones libres en el
plasma estelar dispuestos a aniquilarse con sus antipartículas los
positrones, dando un par de fotones.
electrón- + positrón+ 2 fotón
Los neutrinos huirán a toda velocidad fuera de la estrella y hasta el
infinito llevando energía en sus ondas. Los fotones tras una serie
temporalmente larguísima de choques consiguen salir de la estrella
y perderse en el espacio llevando también energía en sus ondas.
Seguimos con el devenir de las reacciones de fusión:
deuterio+ + protón+ 3He2++ + fotón
3
He2++ + 3He2++ 4He2++ + protón+ + protón+
Los nuevos protones se incorporan al juego de las fusiones mientras
queda el helio como producto de ellas. La energía se fue con
neutrinos y fotones.
Esas son las reacciones más normales en las estrellas. Aunque
además hay otras alternativas para el tercer paso en donde
323
intervienen el litio o el berilio, pero siempre con el mismo resultado:
desaparecen protones, aparece 4helio y mucha energía a cuestas de
fotones y neutrinos.
2. Ciclo CNO
Como es un poco farragoso para explicarlo con palabras y una
imagen vale más que mil palabras, aquí va el ciclo CNO.
324
NOTAS DEL CAPÍTULO 23:
325
[https://arxiv.org/pdf/1101.5284.pdf]
326
24: Mirando en el campo profundo
328
que nos ha brindado capacidades de procesamiento inimaginables
con los que nos acercamos a manejar la voluminosa información que
encierran los procesos cósmicos. Con ellos recreamos con gran
detalle lo que pudo ser; gracias a ellos casi podemos ver en nuestras
pantallas y listados al Universo real; y sin lugar a duda nos
tranquilizan si lo que modelan los programas se ajusta a lo que
observamos. Y observamos con la gran herramienta “histórica” de
análisis de los astros del cielo, la espectroscopia de la luz, [2] muy
potenciada por la tecnología actual que nos permite llegar a analizar
frecuencias más allá de las del campo visible. Veamos en qué
consiste.
329
sigue refleja precisamente este fenómeno: si fuera el caso de que
representara las emisiones de una estrella que tiene una gran
temperatura superficial, ésta se orienta más hacia las frecuencias más
próximas al azul que si es más fría, con preferencia a las frecuencias
del rojo. El espectro de nuestro amarillo Sol, 5.748 K, se queda
ligeramente por debajo del de la curva de 6.000 K. De todas formas,
así es la luz que emiten las estrellas o el resto de los cuerpos cósmicos,
ya sean cuásares, galaxias o nubes de gas, que a través de sus
espectros nos proponen una gran cantidad de información.
332
temperatura del emisor: a mayor temperatura, mayor energía y, por
tanto, una frecuencia moda [3] virada hacia las frecuencia menores,
hacia el azul. Igualmente podemos determinar que para temperaturas
bajas la frecuencia dominante se situará en los intervalos sesgados al
rojo. Con los datos del espectro podemos dibujar la curva de
emisiones, lo que nos va a permitir calcular la temperatura de una
lejana estrella o una nube de gas o el disco de caída de materia en un
agujero negro.
No se acaban aquí las bondades que los astrónomos encuentran en la
espectroscopia. Lo vamos a ver al dar un paso más en la teoría, un
paso que nos va a llevar de la mano hasta otro de sus fantásticos
subproductos. A partir de este momento en nuestro relato saldrá
profusamente un concepto que se conoce como el “corrimiento al
rojo”. No es algo misterioso o con tintes gore, o que manifieste unas
determinadas preferencias ideológicas. Simplemente hace referencia
a que la radiación emitida desde más lejos -tiempo y distancia es lo
mismo- hasta llegar a nosotros los observadores habrá tenido que
recorrer durante más tiempo a la velocidad de la luz el tejido de un
universo que se va expandiendo. Debido a esta expansión del tejido
espacio/temporal que soporte la onda de los fotones, su longitud
también se habrá estirado, de forma que cuanto más alejado esté el
punto emisor, más amplia se habrá hecho la onda. Esto tiene su
consecuencia visible cuando analizamos los espectros de frecuencia
de la luz que nos viene desde un determinado punto.
Si el cuerpo está junto a nosotros el espectro coincidirá con el teórico.
Por ejemplo, la longitud de onda de sus fotones azules que
observamos en el espectro medido estará en el entorno de los 470
nanómetros, que es la que corresponde a este tipo de color. Si este
mismo objeto luminoso que emite en esta frecuencia azul está más
lejos, cuando nos lleguen sus fotones tendrán una longitud de onda
mayor, su onda se habrá estirado. Particularizando para el caso de que
si desde que se emitió el fotón hasta que nos llegó, el Universo se ha
expandido en un factor de 10, este fotón de salida azul lo veríamos
como un infrarrojo. [4] Esto les pasará indistintamente a las líneas
oscuras de los espectros de absorción o a las brillantes de los
espectros de emisión. Y en general, a medida que el cuerpo emisor -
333
o absorbedor- se aleja, las ondas se alargan y, por tanto, todo el
espectro parece como corrido hacia el espacio de las frecuencias del
rojo, con longitudes de onda más largas. Cuanto más lejos está el
emisor de la luz mayor será este desplazamiento hacia la frecuencia
de los rojos, circunstancia que se cuantifica mediante un parámetro
denominado precisamente corrimiento al rojo y se designa con la
letra z, que es ni más ni menos que el cociente entre la cantidad de
corrimiento de la frecuencia particular y la longitud de onda “limpia”.
Lo entenderemos mejor ayudados por la imagen de abajo.
334
siendo λ la longitud de onda del fotón y A y B los momentos de
emisión y de observación respectivamente.
El corrimiento al rojo y su parámetro z se utiliza para medir
distancias en nuestro universo. Una mayor z indica un mayor
alejamiento mientras que a menor z el objeto analizado se encontrará
más próximo. Para z’s menores que 1, es decir, para objetos alejados
de nosotros menos de unos 6.000 millones de años luz, se sigue la
siguiente relación aproximada:
D=c.z/H
siendo D la distancia, c la velocidad de la luz y H la constante de
Hubble. [5] Con el espectro determinamos z y una vez conocida z
determinamos la distancia D. La z de nuestra era es 0 como
corresponde a la definición de “cociente entre la cantidad de
corrimiento y la longitud de onda limpia”.
También podemos determinar la velocidad con que se aleja de
nosotros un foco de luz. La relación entre la frecuencia observada y
la emitida tiene que ver con la relación entre la velocidad de
separación entre fuente y observador, v, y la velocidad de la luz c,
según la siguiente ecuación:
1− 𝑣⁄
𝑐
𝑓 = 𝑓 𝑣⁄
1+ 𝑐
335
movimientos. Así, por ejemplo, podremos detectar cómo gira una
galaxia espiral, ya que la luz de un extremo, supongamos que es la
que emite el brazo de la galaxia que se aproxima a nosotros, estará
corrida al azul, mientras que la del otro extremo de la galaxia, que se
aleja, estará corrido al rojo. Y esto es aplicable de una forma general
al movimiento de estrellas, galaxias, cúmulos… y otros objetos
cósmicos emisores de luz.
Composiciones, temperaturas, distancias, velocidades… todo un
cuerpo de conocimiento que nos ha desvelado la mayor parte de
lo que sabemos de nuestro Cosmos.
El potencial de la tecnología actual nos permite “ver” las estructuras
del Cosmos con ojos que no son los habituales, nuestros ojos
biológicos que sólo interpretan las frecuencias visuales, entre 700 y
400 nanómetros como vimos en una figura al inicio de este capítulo.
Y no solo eso. Como veremos en el 28 las galaxias, además de
albergar a las estrellas, están permeadas por el medio interestelar,
MIE compuesto por gas (iones, átomos y moléculas, principalmente
de hidrógeno) y polvo. El polvo interestelar se encuentra formando
grumos de átomos y moléculas, incluso minerales refractarios más
grandes, que se condensaron cuando la materia abandonó el cuerpo
de las estrellas empujada por sus vientos o por las ondas de presión
tras la explosión de una supernova. El tamaño de esos componentes
es muy decisivo ya que pueden llegar a bloquearnos el paso de la luz
que viene de un foco posterior. Átomos y moléculas tienen un tamaño
del orden de los 10-9/10-10 metros mientras que las partículas más
pequeñas de polvo son de unos 10-7 metros. El polvo interestelar, al
estar formado por grupos de átomos y moléculas, es más complejo
que un remolino de partículas simples en un gas. Como una regla
aproximada podemos recordar que cualquier fotón con una longitud
de onda inferior al “cuerpo” que se le oponga quedará oscurecida. Y,
al contrario, si la longitud de onda del fotón es mayor que el
obstáculo, el fotón pasará.
El gas apenas pone dificultades a los fotones: la longitud de onda en
el espectro visible ronda los 10-6 metros por lo que nuestra regla del
palmo nos dice “paso libre”. Cosa que evidente no sucede con el
336
polvo que presenta al fotón una superficie mayor. Pero hay métodos
para salvar el escollo: deberemos buscar observar fotones que tengan
una longitud de onda mayor que el tamaño del polvo. Nuestro gráfico
de inicio de capítulo nos dice que “mirando” con instrumental que
detecte rayos infrarrojos, microondas u ondas de radio tendremos el
problema resuelto. [7]
Fijémonos en las frecuencias de radio cuyas longitudes de onda son
del orden de los centímetros de amplitud. Estamos hablando por tanto
de fotones de baja energía. En el hidrógeno neutro los espines de su
protón y del electrón situado en la capa s1, la más próxima al protón
del núcleo, [8] pueden estar orientados en la misma dirección o
contrapuestos. Esta segunda arquitectura es más energética siendo el
escalón de energía entre ambas configuraciones de 5,9x10-6 eV: el
electrón decae desde esta configuración a la menos energética va a
emitir un fotón con una longitud de onda de 21 centímetros.
337
puntos del objeto que estamos observando y que luego podremos
“visualizar” adaptando coloración a sus variaciones.
Mediante las observación de esos fotones, gracias a la ventaja que
supone el ser transparentes a las nubes de polvo, podemos “ver” el
gas difuso y frío del Cosmos lo que, no tan sólo han revolucionado
los conocimientos de nuestra galaxia, sino que ha cambiado de forma
radical nuestro conocimiento de las galaxias y su entorno en general.
Realmente los 21 cm nos permiten ver la realidad tal como es… pero
con ojos de alienígena. [9]
339
recombinación y sus fotones 21 cm nos están llegando con una
longitud de onda superior a los dos metros. Y SÍ, ese tipo de fotones
nos ayudan a ver a su población y a todo lo que le pasó en su largo
camino hacia nosotros desde entonces, desvelando los “cuándos” de
las distintas fases de la biografía del Universo. No voy a entrar en
detalles en este momento ya que desarrollaré el tema en el 26 cuando
realmente profundice en el proceso de la reionización.
Pero va siendo hora de acabar. He encabezado este capítulo con el
título de “Mirando en el campo profundo”. Aunque después de haber
escrito lo que he escrito pienso que quizás realmente debería haberlo
llamado “El cebado de las estrellas nos lleva de la mano a hablar de
la espectrometría”. Me diréis… de acuerdo, sí, realmente esto de los
espectros de la luz es algo muy curioso y valioso, nos has convencido,
pero… venga, deja de dar la brasa y vamos ya a la historia del
Universo. Tenéis razón, pero… y yo también aporto un pero… es que
sin la espectrometría de la luz ahora mismo estaríamos en los tiempos
de Newton, viendo cómo orbitan los cuerpos celestes en un cosmos
que no llega más allá de la Vía Láctea. La espectrometría ha sido
nuestro brazo derecho, el izquierdo y si me apuráis, también una
pierna. Así que repetid conmigo ¡Viva la espectrometría y el que la
inventó! ¿Newton, con su famoso prisma?
El siguiente capítulo va a ser complemento de este: lo vamos a
dedicar a completar la información de cómo escrutamos las distancias
en el Universo. Y sí, usaremos la información que transporta la luz.
341
2. Etimológicamente espectroscopia significa “observación del
espectro”. No deja de ser más que las técnicas de medida y el
estudio de la luz en todo el alcance de sus posibles frecuencias.
3. En estadística la moda es el valor con mayor frecuencia en una
distribución de datos.
4. De acuerdo con la fórmula que relaciona longitud de onda y
corrimiento al rojo,
𝟐𝒛 − 𝒛𝟐 (𝟏 + 𝒒)
𝑫 ≈ 𝐜
𝟐𝑯 (𝟏 + 𝒛)
6. Hay algunos cosmólogos y astrónomos que equiparan ambos
fenómenos. Mi opinión es que, aunque por la expansión del
Universo pudiera parecer que los cuerpos se separan, por lo que
se produciría una extensión de las longitudes de onda en esta
separación, realmente esto no sucedería si no hubiera expansión
del tejido soporte, con lo que no habría corrimiento al rojo.
Realmente si hacemos el análisis considerando que emisor y
observador son comóviles no deberíamos tener en cuenta el
corrimiento al rojo y sí el efecto Doppler que es otra cosa: es el
cambio de frecuencia aparente de una onda producida por el
movimiento relativo de la fuente respecto a su observador.
Aunque considero que es de sobras conocido y lo habremos oído
mil veces, la frecuencia de una onda sonora aumenta o disminuye
si el foco emisor se acerca -con el acercamiento se va comiendo
parte de la longitud de onda- o se aleja -con el alejamiento nos
vamos quedando atrás con respecto al emisor por lo que la
longitud de onda aparentemente se agranda-. Exactamente tal y
cómo cambia el sonido del coche de carreras que viene y nos
342
sobrepasa pasando de los agudos a los graves. Con la luz pasa lo
mismo.
7. En el capítulo 25 vamos a comentar la importancia de dos tipos
particulares de radiación a la hora de explorar el Universo en
todas sus dimensiones, temporal o espacial. Se tratan de las
emisiones Lyman-α del hidrógeno a 1,21x10-7 metros, radiación
ultravioleta, y las de relajación de la estructura fina, también del
hidrógeno neutro, a 21 cm, ondas de radio.
8. En este enlace obtendréis información de la estructura atómica.
[https://eltamiz.com/elcedazo/2012/10/28/la-tabla-periodica-iii-
estructura-elecronica-del-atomo/]
9. El espectro visible es la región del espectro electromagnético que
el ojo humano es capaz de percibir. A la radiación
electromagnética en este rango de longitudes de onda se le llama
luz visible o simplemente luz. No hay límites exactos en el
espectro visible: el ojo humano típico responderá a longitudes de
onda de 380 a 750 nm, aunque en casos excepcionales algunas
personas pueden ser capaces de percibir longitudes de onda desde
310 hasta 1.050 nm.
10. En este enlace podéis tener una fantástica información acerca
de la radioastronomía usando las emisiones del hidrógeno neutro
de 21 cm de longitud de onda. “La emisión del hidrógeno neutro
a 21 cm.” Ángel López-Sánchez, 2017. Y cuatro publicaciones
más encadenadas a ésta que es la primera.
[https://culturacientifica.com/2017/01/20/HIDROGENO-UNIVERSO-I-
LA-EMISION-DEL-HIDROGENO-NEUTRO-21-CM/]
11. “HI4PI: A full-sky H i survey based on EBHIS and GASS”,
figura 3, N. Ben Bekhti1 et al., Astronomy & Astrophysics,
octubre 2016.
[https://arxiv.org/pdf/1610.06175.pdf]
343
25: Las distancias en el Universo [1]
344
Vayamos pues de lo más próximo a lo más alejado.
(i) Hasta una Unidad Astronómica, la distancia entre la Tierra y el
Sol. Estamos hablando de ver desde el Sol hasta un poco más allá de
Marte. En este volumen tan “corto” nos es muy útil el radar. Con él
medimos el tiempo entre la emisión de una señal y la recepción del
eco de la misma. Como la señal se mueve a la velocidad de la luz es
fácil obtener la distancia entre el radar y el objeto medido.
(ii) Si queremos saltar afuera del sistema solar y visitar las estrellas
más cercanas podemos utilizar el método del paralaje. Se observa la
estrella desde dos posiciones distanciadas AB que pueden ser las
correspondientes a un lado y otro de la órbita terrestre alrededor del
Sol.
Los ejes de visión de ambas observaciones formarán un ángulo. Por
lo que podemos definir un triángulo rectángulo con base igual a la
mitad de la distancia entre los dos puntos de observación y ángulo la
mitad del ángulo formado por los dos ejes de visión. Con esos
sencillos datos la trigonometría nos dice que (ver figura)
tg α = (AB/2) / d
de donde podemos deducir la distancia d a la estrella. Este método es
útil para objetos que se encuentren hasta unos 200 pársecs. Un
pársec es la friolera de 3 x 1013 kilómetros. La estrella Beltegeuse en
la constelación de Orión se encuentra más o menos a esta distancia.
346
luminosidad aparente de la estrella que es la que apreciamos desde la
Tierra. Se mide su temperatura a través de análisis espectroscópico.
Ya hemos dicho cómo en el capítulo 24. Luego la situamos sobre la
secuencia principal de la estrella que veremos lo que es en el capítulo
41. Básicamente responde al hecho de que la mayoría de las estrellas
cuando empiezan a quemar su hidrógeno, y a lo largo de
prácticamente toda su vida, podemos situarlas en un punto de una
franja fija, la secuencia principal, que correlaciona de una manera
bastante precisa su temperatura y luminosidad. Por lo que una vez
situada la estrella allí, y gracias a que conocemos su temperatura,
podremos conocer aproximadamente su brillo real.
Los flujos luminosos se dispersan por el espacio desde el punto de
emisión, difuminándose proporcionalmente al cuadrado de la
distancia recorrida (ver imagen de abajo). Sabiendo eso y su brillo
aparente deduciremos la distancia de acuerdo con
d2 = brillo real (a partir de la secuencia principal) / brillo aparente
(medido en la Tierra)
Con ese método podremos visitar a nuestra Vía Láctea y llegar
incluso a alguna de las galaxias más próximas dentro de nuestro
grupo local, como la enana de Can Mayor o la enana de Sagitario.
Aunque no alcanzaremos a nuestra hermana, la galaxia Andrómeda,
que se encuentra a unos 106 pársecs de nosotros.
347
(iv) Vayamos aún más lejos, más o menos hasta los confines de los
25 millones de pársecs. Nos vamos a apoyar en una curiosa
característica del comportamiento de ciertas estrellas en las que la
intensidad de su brillo es cíclica haciéndolo de una forma muy
característica y con un alto grado de precisión: mantienen un mismo
periodo de un ciclo al siguiente. Estamos hablando de las que se
conocen como estrellas variables pulsantes como las RR Lyrae y
las cefeidas. Todas las estrellas RR Lyrae pulsan de manera similar
con solo pequeñas diferencias en el período entre ellas. Los períodos
observados oscilan entre aproximadamente 0,5 y 1 día. Mientras que
las cefeidas, aun pulsando de forma cíclica, estrellas diferentes
pueden tener períodos de pulsación bastante diferentes, que pueden
ir desde alrededor de uno a cien días.
349
Por lo que una vez conocida la velocidad V y medido desde la Tierra
el brillo aparente m, se puede deducir la distancia d a la galaxia.
354
26: La reionización
357
fuentes lo que hizo que la intensidad ionizante en su interior
aumentara rápidamente.
Al final de esa etapa de superposición la mayoría de las regiones del
gas intergaláctico habían quedado sometidas al influjo de las
múltiples fuentes luminosas, tal como comentamos, lo que hizo que
se calentaran hasta temperaturas superiores a 104 K. Ya sabemos que
esta circunstancia incrementaba el límite de las masas de Jeans
necesarias para los futuros colapsos ¿y eso qué quiere decir? Como
es evidente que los colapsos se produjeron, lo que simplemente quiere
decir es que las galaxias de segunda generación fueron capaces de
acrear más material bariónico y conseguir así alcanzar un tamaño
mayor que el de las primeras. En consonancia con esa mayor
depredación de materia impuesta por las grandes, las galaxias más
tenues no tuvieron demasiado futuro ya que, al haber menos material
para acrear, lógicamente disminuyó en ellas la capacidad de generar
nuevas estrellas. Ese escenario marcaría el final de la fase de
“superposición” fijando el hito que se conoce como el "momento de
la reionización". Momento en que todo este proceso había
culminado.
Y como una imagen vale más que cien palabras en el croquis
siguiente intento resumir lo que se estaba viviendo en aquellas
épocas. [2]
Cuadro (1). Las primeras grandes nubes gaseosas aparecidas en
regiones de alta densidad colapsaron en épocas que se correspondían
con corrimientos al rojo entre 20 y 30, alrededor de hace unos 13.700
millones de años. Poco a poco se fueron fragmentando en galaxias
aisladas y nuevas estrellas gracias al enfriamiento producido por el
ventilador del hidrógeno molecular. Pronto este se iba a ir agotando
por acción de la recién aparecida radiación UV.
Cuadro (2). Para seguir con la compactación y la fragmentación del
halo necesaria para la generación de nuevas estrellas, una vez perdido
el ventilador molecular se necesitó el atómico. En el capítulo 22 ya
resaltamos la gran importancia de la temperatura de virialización de
358
104 K porque a partir de ella es cuando este último fenómeno
refrigerador se hace muy eficaz. Eso quiere decir que era más
probable el que las nuevas estrellas se formaran en los halos más
masivos, aquellos que pudieran contener galaxias con temperaturas
superiores a los 104 K. La mayor parte de la radiación que ionizó el
universo tuvo que ser emitida desde esas galaxias. [3] Fue durante esta
fase en la que en el medio intergaláctico tomaron cuerpo las dos fases
claramente diferenciadas: unas regiones altamente ionizadas
separadas por frentes de ionización de las regiones con hidrógeno
neutro.
Cuadro (3). Durante la larga fase final los halos ionizados se fueron
superponiendo hasta llegar a una situación que de forma muy
intuitiva la han descrito, usando un símil lácteo, los físicos teóricos
359
Abraham Loeb y Steven R. Furlanetto: “Durante la época en que el
Universo tenía unos pocos cientos de millones de años, la
distribución de hidrógeno se vio perforada con agujeros y parecía un
queso suizo. Los agujeros fueron creados por la radiación
ultravioleta de las primeras galaxias y agujeros negros que
ionizaban el hidrógeno cósmico que se encontraba en su
vecindario.”[4]
De hecho, aún quedaba una última fase (4) que se conoce como de
“post-solape”. Recoge los momentos durante los cuales, y gracias a
la falta de homogeneidad inicial de la densidad en el gas
intergaláctico, incluso dentro de las burbujas ionizadas quedaban
zonas de gas neutro que se resistían a ser ionizadas. Mientras el halo
general fuera pequeño no tenía que pasar gran cosa ya que era muy
fácil para la radiación UV el alcanzar la frontera de la onda de
ionización sin encontrarse con una zona neutra en donde hubiera
caído absorbida. Pero la situación cambió cuando el frente de
ionización hubo crecido mucho, incluso solapándose con otros halos
ionizados, ya que entonces las burbujas neutras dentro de ellos
también habrían crecido ofreciendo a los fotones UV una mayor
superficie de colisión. Con ello se iba restando fotones a la población
que se precisaba para la reionización eficiente del halo global. El
resultado fue claro: dentro de esos halos ionizados las
360
recombinaciones incrementaron su número lo que iba en favor de
permitir mantener su equilibrio termodinámico: a la larga llegaría a
producirse el mismo número de ionizaciones que de
recombinaciones.
361
ya que suponían una fuente de fotones que podían arrastrar un
abanico variado de energías, dependiendo de hasta que nivel orbital
caía el electrón libre al unirse con el protón.
Así como avanzaba hacia el mundo exterior, el frente de ionización
imponía una disrupción en la continuidad del gas de hidrógeno
neutro exterior. Un tsunami. Una onda de choque. En el lado
ionizado temperatura, velocidad y presión; al otro, un entorno
mucho más relajado, cien veces menos caliente y con presiones 200
veces menores.
Podemos pensar que la parte débil vería afectada su termodinámica
por ese tremendo empujón del “pistón” ionizado… aunque no
siempre era así. Todo dependía de la velocidad con que pudiera
avanzar el frente de ionización. Si éste lo hacía a velocidades
supersónicas en relación con la del sonido en el mundo exterior, los
bariones neutros casi ni se enteraban ¡y en aquellos momento esas
velocidades eran de los miles de kilómetros por segundo! Al
“sorprendido” gas neutro ambiental no le daba tiempo a
reorganizarse y amoldarse suavemente a las condiciones impuestas
por el frenético empuje del flujo ionizado. Por lo que se iba
acumulando justo delante del frente, “revolcada” por la presión de
la onda de choque que inmutada avanzaría inexorablemente. Quizás
algún barión neutro se pudo liberar de la conmoción y atravesar el
frente “por debajo de la ola”, pero solamente en aquellos casos en
que conseguía ser ionizado por los fotones UV que esperaban al otro
lado.
Aunque… la velocidad del frente depende fundamentalmente de esa
capacidad de absorber bariones del otro lado de la frontera
dejándolos ionizados. Es decir, varía mucho con el número de
fotones ionizantes que hay dentro de la frontera y de los que llegan a
ella. Pero hay que recordar que en las poblaciones de los fotones UV
no sólo se encontraban los provenientes de las fusiones estelares,
sino que también había que contar con los emitidos en las
recombinaciones.
362
Estos últimos tenían una especial influencia sobre la velocidad del
frente. Cada recombinación incrementaba en una unidad el número
de fotones ionizantes que podían llegar al frente. Pero sin olvidar que
detrás habían dejado a un hidrógeno neutro que seguramente iba a
ionizarse absorbiendo otro fotón UV, casi con toda seguridad de
procedencia estelar. Uno por otro: no importaba que hubiera fotones
UV procedentes de las recombinaciones… en el fondo no contaban,
no se debían tener en cuenta.
Aunque no todo era tan simple porque hay otros posible niveles
orbitales en el hidrógeno, además del de base, que si están
implicados en las recombinaciones suponen un menor salto
energético. En esos proceso de recombinación, conocidos como del
tipo B, los fotones emitidos son de menor energía, incapaces de
provocar ionizaciones y prácticamente transparentes al medio, por
lo que tenían fácil desaparecer al escaparse al exterior. Esta
circunstancia tenía como consecuencia una disminución de la
población de fotones ionizantes, por lo que el avance del frente de
ionización se vería ralentizado. Añadido a algo evidente, ya que la
densidad de los fotones UV estelares en el frente se iba diluyendo en
la proporción del radio al cuadrado por el mero hecho de su propio
avance. En consecuencia, el frente deceleró su velocidad de
expansión. Lo que nos hace pensar que tenía que llegar un momento
en el que, teóricamente, el frente se tenía que parar, justo cuando
ionización y recombinación se equilibraran.
No obstante, la realidad no se comportó exactamente así: debido a
la expansión, en el interior de la esfera ionizada iba disminuyendo la
densidad de las recombinaciones, por lo que en proporción, poco a
poco, el número de hidrógenos neutros con posibilidades de
ionizarse consumiendo un fotón UV tenía que ir disminuyendo.
Podemos imaginar entonces como antes de producirse el teórico
frenado total, el frente iría ralentizando poco a poco su marcha. Pero
OJO… si el frente se ralentiza ya no estamos en el caso del frente
supersónico del inicio. En algún momento su velocidad llegará a ser
la del sonido del medio hacia donde se expande.
363
¿En esa nueva situación qué es lo que pasa?
Que el gas neutro del exterior entonces sí se encuentra en
condiciones de responder al empuje de ese frente más suave. Ya no
se apelmazará como antes sin ninguna capacidad de reacción. Ahora
la onda de choque generada por el frente sí puede acoplarse a los
bariones del mundo neutro. Con ello se ve incrementada su densidad
lo que a su vez condiciona la velocidad del propio frente de
ionización al encontrarse con un medio más denso: el frente se
ralentiza aún más lo que le hace quedar retrasado, lo conocemos
como que queda “atrapado”, creándose entre él y sus consecuencias,
la onda de choque, una especie de fino caparazón. A partir de ese
momento la velocidad de expansión del frente se va a ver obligada a
ajustarse a las condiciones termodinámicas del medio. Hasta el
momento en que el gas ionizado haya reducido su densidad lo
suficiente como para alcanzar en la frontera el equilibrio de presión
con el gas neutro del otro lado. Entonces la burbuja se detiene.
364
casuística de que el H ionizado pudiera recombinarse de nuevo: la
superior con cero recombinaciones y las otras dos aumentando de
arriba abajo la intensidad de ese proceso. Es significativo el ver
como el máximo volumen posible del halo se alcanzaría en todos los
casos a los 107 años tras el “alumbrado” inicial del foco emisor de
rayos ultravioleta.
Vemos que el tamaño se mantiene en el tiempo si no hay nuevas
recombinaciones del hidrógeno ionizado, observándose también un
lógico decremento del volumen del halo, tanto mayor cuanto mayor
es el número de recombinaciones. No nos sorprende ya que eso es
precisamente lo que hemos explicado en el texto.
365
de hidrógeno neutro HI, creando así un particular caparazón en cuyo
interior crece la densidad, de forma que ns > no. En la etapa final (c)
se ha llegado a un equilibrio de presión entre la región ionizada y el
medio ambiente.
366
finalizando la reionización. Las regiones ionizadas son las azules y
translúcidas los frentes de ionización son rojos y blancos; y las
regiones neutras son las oscuras y opacas. La reionización todavía es
bastante heterogénea en estas grandes escalas, con inmensas regiones
ionizándose mucho antes que otras.
372
recibidas y la del fondo de microondas particular desde donde nos
viene la onda que vamos a considerar como nivel cero (ver curva
siguiente). A este parámetros le llamamos el brillo y lo referenciamos
como una temperatura. [11]
En cada punto de nuestro particular “espectro continuo” la intensidad
de las emisiones o absorciones de la línea 21 cm del hidrógeno neutro
dependen de varias cosas: Una, de las condiciones “estáticas” de la
población bariónica, como puede ser su densidad (y dentro de ella el
peso porcentual del hidrógeno neutro y la relación de las poblaciones
“espines paralelos/opuestos” de ese último). Otra, de la temperatura
del fondo de microondas referencia obligada para las
emisiones/absorciones. Y además, de las condiciones “dinámicas”
externas, aquellas que van a provocar en el paisaje anterior las
excitaciones/desexcitaciones del hidrógeno neutro: la velocidad con
que los bariones van a chocar, la energía de los fotones del fondo con
los que puede interactuar y, una vez que se hubieron encendido las
estrellas, y por los mismos motivos, la radiación UV (Lyman-α).
Todo ello explica la forma de la curva “espectro continuo” siguiente.
Historia del Universo temprano según lo que nos dice los fotones
21 cm. BCM: radiación de fondo de microondas (Imagen [12], fair
use)
Durante los primerísimos compases tras la recombinación aún se
produciría el acople, vía interacciones Compton, entre la materia
373
bariónica y el fondo de microondas. Ambas temperaturas eran iguales
y por tanto no había potencial de excitación en los niveles hiperfinos
del hidrógeno. Nuestro espectro se sitúa en el nivel 0, no hay señal
diferencial. Pero con la expansión adiabática la temperatura bariónica
disminuía a un ritmo (1+z)2 y la del fondo a (1+z), por lo que pronto
se eliminó tal acople Compton quedando la excitación de los bariones
en manos de los choques entre partículas que fijaban su temperatura
promedio. Se estaba generando un potencial excitatorio en el sentido
de la temperatura mayor, la del fondo, a la menor, la de los bariones:
eso se tradujo en un periodo de absorción en la que la curva de brillo
diferencial cae por debajo de cero. Con la continua expansión los
bariones se van separando, los choques entre ellos van disminuyendo,
pudiéndose acoplar su temperatura, de nuevo, a la que imponía la del
fondo. Volvemos al nivel cero.
Hasta que se encienden las primeras estrellas que comienzan a emitir
fotones UV (Lyman-α) con suficiente energía como para calentar y
acelerar a los bariones y volver a acoplar el potencial excitatorio de
la estructura hiperfina a los choques entre ellos. Con ello se indujo
una nueva fase de absorciones más potente que la anterior. A medida
que las primeras estrellas van muriendo, alguna deja tras de sí a un
agujero negro emisor de potentes rayos X. Esos SI son capaces de
calentar a los bariones a temperaturas muy superiores a la del fondo,
provocando entonces el inicio de una senda de emisiones 21 cm. Ese
recorrido se puede observar en nuestro particular “espectro” como un
perfil de disminución de intensidad en las líneas de absorción, que
llegarán a anularse, para transformarse en positivas cuando la
temperatura bariónica supera a la del fondo: en esa recién estrenada
fase de emisiones comienza el periodo de reionización del hidrógeno
neutro. Situación que se prolonga en un continuo desangrado, hasta
que todos esos átomos se ionicen y ya no haya posibilidad de más
emisiones: fin del periodo de la reionización.[12]
Eso nos lo dice la teoría y las simulaciones. En la vida real aún no
hemos llegado tan lejos. Aunque hay varios proyectos en marcha con
resultados prácticos, como el MWA (Murchison Widefield Array)
374
que es el que hoy por tiene la mayor ventana de observación: entre
80 y 300 MHz, que corresponden a z’s entre 5 y 20. Muy lejos aún
de la época de reionización. En la actualidad se está desarrollando el
proyecto SKA (Square Kilometer Array) que promete: “Una vez que
esté en funcionamiento, el telescopio SKA-Low podrá tomar las
mejores medidas posibles de las primeras fuentes de luz del Universo.
También va a poder tomar instantáneas de las emisiones de
hidrógeno antes, durante y después de la reionización.” [13]
Con eso damos por suficiente desarrollada la presentación acerca de
la reionización acontecida durante los años iniciales de dominio de la
materia en el Universo. En el siguiente capítulo vamos a iniciar los
primeros compases de definición de sus estructuras, todo un mundo
en evolución que seguiremos analizando paso a paso en profundidad.
375
cuásares producidas al atravesar su luz las grandes nubes de gases
de abundante hidrógeno neutro que quedaron tras la reionización.
No es teoría… lo podemos detectar en las correspondientes gráficas
espectroscópicas en donde vamos a encontrar unas características
franjas de absorción. Cada una de ellas corresponde a una distancia
en la que algún pico de la emisión original del cuásar se ha alargado
hasta la longitud de onda Lyman-α, cayendo en el pozo del hidrógeno
neutro que allí se encontraba tal como podemos apreciar en la figura
siguiente.
En ella claramente podemos ver los picos de sierra negativos de la
izquierda correspondientes a las absorciones Lyman-α de la luz de
los cuásares en las nubes de gas interpuestas. Generalmente, cuanto
más alejado esté el cuásar, más nubes de hidrógeno neutro ha tenido
que atravesar su luz antes de llegar a nuestro ojo y, por tanto, más
picos negativos se ven como podemos apreciar en los espectros de la
luz emitida en z=0,158 y la más lejana en z=3,62. Al conjunto se le
conoce como el “bosque Lyman-α”. Los árboles que ocultan la luz.
376
Pero… si cada “muesca” en la curva corresponde a la absorción
Lyman-α causada por una nube de gas neutro en el espacio y,
además, vemos el corrimiento al rojo con la que lo percibimos…
tenemos una riquísima información como para hacer un mapa
espacial de estas masas de gas. Y de algún cuerpo astronómico
adicional que se interponga en el camino. Y así es, como vamos a
explicarlo mediante la secuencia de imágenes que sigue.
Las tres imágenes siguientes corresponden al mismo espectro de la
luz que proviene de un cuásar del fondo del universo (en amarillo a
la derecha), aunque en cada una hemos particularizado un aspecto
relativo a la densidad de masas de gas interpuestas o al efecto de
otros cuerpos cósmicos. [15] Aunque es la incógnita, en nuestro
ejemplo se ha optado por dibujar el cuásar en z=3 y su luz llega hasta
el observador actual (en azul a la izquierda, earth) atravesando
varias nubes de hidrógeno neutro (en rojo) a varias distintas z y una
galaxia (en verde). El espectro que medimos es el que dibuja la curva
roja.
En los cuadros numéricos sobre fondo azul podemos ver el cálculo
que nos dice cuánto se ha corrido al rojo la línea Lyman-α de la luz
del cuásar. Así, en el cuadro de arriba medimos 4.863 Å como la
longitud de onda que corresponde a la Lyman-α del cuásar -es el
gran pico que se ve-, corrimiento al rojo que nos permite calcular
que se encuentra en z=3. A medida que la luz del cuásar va
atravesando las nubes de gas de hidrógeno neutro (cuadro del
centro), éste absorbe los fotones que con la expansión se han ido
corriendo al rojo hasta la frecuencia Lyman-α para las distintas
distancias z de cada nube. Es el bosque de depresiones de la parte
izquierda de la curva. Más allá hay una galaxia más joven en cuya
composición hay elementos pesados que absorben también
frecuencias de luz del cuásar (cuadro de abajo). Son los pozos
marcados como C IV (z=1) y Mg II (z=1) [en verde].
En resumen, la posición de picos y pozos nos están indicando el
corrimiento al rojo y, en consecuencia, el lugar de las masas
interpuestas y de la emisora de luz.
377
378
NOTAS DEL CAPÍTULO 26:
380
9. Recordemos que ambos valores, energía y longitud de onda
(frecuencia), se correlacionan según Planck de acuerdo con la
siguiente ecuación: E = h.f = h/λ.
10. Å es igual a 10-10 metros. La longitud de onda visible roja está
sobre los 7.000 Å.
11. La intensidad recibida de una onda de una determinada
frecuencia no deja de ser más que una indicación de su energía
integrada. Pero sabemos que la energía de una onda es igual a h.f
o si consideramos que es parte de un todo “cuerpo negro” también
tiene que ver con lo que nos dijo Boltzman, KB. T. Lo que nos
permite conceptualizar una intensidad de una onda como una
temperatura.
12. “21-cm Cosmology in the 21st Century”, Jonathan R. Pritchard
y Abraham Loeb, Reports on Progress in Physics, julio 2012.
[https://arxiv.org/pdf/1109.6012.pdf]
13. Página oficial del proyecto SKA (Square Kilometer Array)
[https://www.skao.int/]
14. [http://pages.astronomy.ua.edu/keel/agn/forest.html]
15. Las imágenes se han obtenido a partir de “The Quasar
Absorption Line Group” de la New Mexico State University,
fair use.
[http://astronomy.nmsu.edu/cwc/Group/QALsims/]
381
27: La época de los cuásares
383
de cerca de 106 masas solares en el interior de alguna primitiva
galaxia enana; mientras que otras afirman que los agujeros negros se
generaron pasando por otros agujeros negros intermedios que, por
fusión, dieron lugar a los que vemos con Hubble y Chandra.
384
alcance y siendo el motor del giro de estas grandes estructuras
cósmicas. De forma que casi está establecida la regla de que cada
galaxia brillante, ya sea de las activas o no, [3] contienen un agujero
negro central supermasivo. Los cuásares son unos objetos
normalmente muy lejanos que emiten energía en frecuencia de
radio.[4] Hasta hace poco no se sabía que están asociados con una
galaxia, por lo que se cree que constituyen una fase de juventud en la
generación de esas estructuras, lo que hace que su estudio nos pueda
dar muchas pistas sobre la formación de las galaxias. La dificultad de
ver la galaxia asociada al cuásar está en que son objetos muy lejanos
y que, por tanto, la sutileza de la luz de la galaxia hace que quede
velada por la más intensa emisión del cuásar. Sin embargo, como
hemos visto, los modernos telescopios permiten recibir la luz en una
variada escala de frecuencias mientras los modernos equipos de
estudio de esta luz permiten filtrarla, de forma que al eliminar la luz
de los cuásares aparece la lejana galaxia.
386
iv. suficiente masa como para permanecer estable frente a las
realimentaciones dinámicas provocadas por los halos vecinos.
En su conjunto el camino de generación de galaxias dibuja un proceso
muy definido en sus diversas fases temporales. Y lo que sigue
pretende ser la posible historia de esos racimos de luces. Historia de
estrellas. [5] En el texto he subrayado los párrafos que me parecen los
que mejor definen cada paso del proceso, cuyo mensaje refuerzo con
la figura de más abajo.
Las primerísimas estrellas de Población III se iban formando dentro
de un halo galáctico gracias al enfriamiento de la materia bariónica
producido por el ventilador molecular de H2, entre otros procesos,
que los llevaban hasta unos pocos miles de grados. Normalmente la
materia bariónica tendía a acumularse en el centro del halo por lo que
allí fue más fácil el que empezara la diferenciación estelar. Quizás
antes de ello se pudo haber fragmentado el halo tomando una
apariencia grumosa, o quizás directamente lo hiciera su disco central.
Sabemos que los grumos pequeños tienden a situarse en la parte
exterior de un sistema que gira y por situarse en la parte exterior del
halo disponen de menos material para acrear. Así que los proyectos
de estrellas pequeñas seguramente tuvieron poca viabilidad, dejando
todo el esplendor futuro para unas pocas estrellas que acabarían
siendo muy grandes, creemos que con masas superiores a la de 100
soles, situadas preferentemente en el centro de sus halos. Un
panorama en donde las primeras estrellas de Población III debieron
ser muy solitarias. Y al ser tan grandes y de una vida relativamente
muy corta, [6] a efectos temporales cósmicos su existir parecía como
si se trataran de un rápido destello de energía.
Esas primeras estrellas, posiblemente aún situadas dentro de cúmulos
dispersos, producían una gran influencia en el halo de gas que las
contenía. A lo largo de su vida su entorno se vería afectado por
mecanismos de realimentación dinámica surgidos de estas estrellas y
que ya nos son familiares, como era la propia radiación ultravioleta
fotoevaporadora o la radiación Lyman-α, eficiente disociadora de
moléculas de H2. Esos mecanismos continuamente favorecían la
387
evaporación de cualquier gas difuso que se encontrara en el centro
del halo. Además, en el momento en que las estrellas morían como
supernovas, disparaban una ola de materia y radiación que
rápidamente acabaría por barrer los restos que quedaban de gas en el
halo. Los vientos de las supernovas transportaban energía y
materiales en cantidades suficientes como para enriquecer al
profundo medio interestelar de gases con elementos metálicos más
allá del H y del He. Los procesos de realimentación podían incluso
disipar a las protogalaxias devolviendo todo su contenido al gas
intergaláctico. Así que con el tiempo se iba acumulando suficiente
material de “segunda mano” como para que en algún momento
posterior se pudiera volver a empezar con un nuevo proceso que
devendría en galaxias de segunda generación.
389
dio como resultado a las primeras galaxias sostenibles, mayores que
las primeras y ricas en estrellas, las de Población II.
La transición desde los momentos de generación de las estrellas hasta
su consolidación en galaxias con futuro, con toda probabilidad
comenzó a suceder antes de que el Universo se reionizara. Toda una
historia de éxito para nuestro protagonista. Pero la vida continúa y
nos tenemos que meter en “minucias” tan atractivas como
preguntarse cómo serían las poblaciones de las recién llegadas
galaxias.
Hasta donde sabemos, el perfil de nacimiento de las galaxias y sus
características parece que lo tenemos bastante claro. Se cree que hubo
diez veces más galaxias por unidad de volumen al inicio que las
observadas ahora. [7] Además de abundantes, estudiando la nómina
de galaxias conocidas de una edad próxima a los mil millones de años
vemos que en promedio eran mucho más pequeñas y de mayor
luminosidad por unidad de masa que las galaxias actuales. Una
luminosidad en la frecuencia de los azules como corresponde a sus
jóvenes estrellas emitiendo fotones muy energéticos. También
sabemos que durante los dos mil primeros millones de años, las que
se fueron formando contaban con un número muy pequeño de
estrellas.
A partir de estas primeras estructuras, como si ya se hubiera acabado
la materia prima a depredar, por fusión entre ellas se llegó más tarde
a las grandes galaxias que vemos hoy. Aunque algunas de pequeño
tamaño se escaparon de estos procesos de fusión y canibalismo y aún
podemos observarlas hoy en día ¡y creemos que debe haber muchas!
Es el caso de la tenue galaxia enana llamada Pegasus V que se
encuentra a unos 3 millones de años luz. Una satélite de Andrómeda
con muy pocas estrellas brillantes que tienen que ser muy viejas dado
que parecen ser extremadamente deficientes en elementos más
pesados que el hidrógeno o el helio en comparación con galaxias
enanas similares. Lo que significa que es muy antigua y
probablemente sea un fósil de las primeras galaxias del Universo. [8]
390
Si estudiamos la función de luminosidad, es decir, la densidad de las
fuentes luminosas -las estrellas- en función de esta luminosidad, se
pueden obtener datos precisos de cómo cambió la población de las
galaxias a lo largo del tiempo. Los astrónomos han hecho este análisis
en el intervalo 4<z<10, de 1.500 a 500 millones de años tras el Big
Bang. Los resultados se recogen en la curva siguiente. En ella el eje
vertical indica la densidad de la población, mientras que en el
horizontal se trazan las luminosidades. Cuanto más negativo sea más
brillante es la galaxia. Y como el eje vertical está representado en
unidades logarítmicas, cuanto más negativo sea el número, menor es
su abundancia.
392
Hoy en día aún podemos ver cómo sucede el proceso de encendido
nuclear de estrellas en lugares como la “incubadora” de la nebulosa
de Orión, en donde unas familias de estrellas brillantes cohabitan con
su materia prima de gases todavía muy próxima a ellas. Es una
evidencia clara del ciclo galáctico del que ya hemos hablado: una
nube de gases se fusiona, aparecen estrellas jóvenes, su radiación
muy energética dispersa a la nube asociada en unos diez millones de
años. Estos vientos estelares, juntamente con ondas de choque
generadas en la explosión de supernovas, comprimen una nueva nube
de gases… y vuelta a empezar.
393
su lejanía y consiguiente corrimiento al rojo de su luz. El tamaño y la
apariencia de estas galaxias distantes en comparación con las que
están en primer plano respaldan firmemente la idea básica de que las
galaxias eran más pequeñas y menos regulares en el pasado.
394
boquetes del universo. Los cuásares se iban alimentando de los
bariones más próximos, permitiendo al resto de su población seguir
con sus procesos particulares de compactación que ya explicamos en
capítulos anteriores. Se fueron generaron cúmulos pequeños y
galaxias de tamaño de los pocos miles de años luz, en los que las
gigantescas estrellas tuvieron su ventaja, estructuras que se iban
sumando, generando a su vez otras mayores y más rutilantes. En el
entorno de los dos o tres mil millones de años desde el Big Bang la
familia empezó a estabilizarse, entrando en el régimen “normal” de
nuestros días.
Hemos llegado a un momento de la biografía en que ya se han
introducido las estructuras base del Universo, hemos hablado ya de
estrellas, galaxias y cúmulos. Agujeros negros y cuásares. [10] No
obstante la aparente “estabilidad” alcanzada, seguimos teniendo un
mundo en evolución que seguiremos analizando en los próximos
capítulos. Pero antes hagamos también un alto nosotros para recordar
a vista de pájaro la personalidad de nuestro personaje.
395
3. Galaxia activa (extraído de la web de la Sociedad española de
Astronomía): “Galaxia de luminosidad excepcionalmente alta y
variable que muestra signos de la existencia de procesos muy
energéticos relacionados con su zona central o núcleo. El brillo
de este pequeño núcleo, que se manifiesta en todas las frecuencias
desde ondas de radio a rayos gamma, sobrepasando el del resto
de la galaxia, implica la existencia tanto de un enorme
calentamiento térmico (temperaturas de millones de grados) como
de un potentísimo acelerador de partículas. El origen de estos
procesos es la caída de materia hacia un agujero negro
supermasivo en el centro de la galaxia. Galaxias Seyfert,
cuásares, radiogalaxias o blázares son distintos tipos de galaxias
activas.”
4. La palabra cuásar es un acrónimo de “quasi stellar radio source”
-fuentes de radio casi estelares-.
Los cuásares son objetos lejanos que emiten grandes cantidades
de energía. Se supone que son agujeros negros que capturan
estrellas o gas interestelar, formando una especie de galaxia,
proceso en el que se emite su intensa radiación. Esa radiación es
debida a que en la caída espiral del gas se disipa parte de su energía
rotacional por fenómenos de viscosidad. La energía que se expulsa
gracias a esa radiación puede suponer entre el 5,7 y el 42,3% de la
masa del gas. Comparado con el 0,7% de eficiencia en los procesos
de fusión nuclear en las estrellas… realmente lo del cuásar es una
brutalidad.
5. Las ideas de lo que sigue están extraídas del libro de Abraham
Loeb y Steven R. Furlanetto “The first Galaxies in the Universe”,
capítulo 6, páginas 212 y siguientes.
6. Una estrella con mucha masa genera una presión interna colosal
que debe ser compensada por una presión centrífuga también
colosal. Eso solo lo conseguirá si las reacciones nucleares en su
interior son muy activas, lo que implica necesariamente una alta
velocidad en la fusión nuclear de su hidrógeno, un consumo
396
brutalmente rápido de su combustible. O lo que es lo mismo… una
vida corta.
7. En el artículo “The evolution of galaxy number density at z < 8
and its implications”, publicado en la revista The Astrophysical
Journal en octubre de 2016 se estima que para una edad
correspondiente a un corrimiento al rojo de z=8, 700 años tras el
Big Bang, el número total de galaxias sería de dos billones –
2×1012 -, una población mayor en un factor de 10 comparada con
la población de 1011 de ahora. El menor número lo podemos
atribuir a que se ha vivido un continuo proceso de fusión de
galaxias. Pero impresiona la disminución en la densidad ya que
para z=8 el universo era ocho veces menor que ahora, por lo que
desde entonces el volumen se ha incrementado más de 500 veces
(83=512) y, en consecuencia, la densidad en número de galaxias,
teniendo en cuenta el factor de 10 de menos abundancia en la
población actual, ha disminuido en más de 5.000.
8. “Pegasus V - a newly discovered ultra-faint dwarf galaxy on the
outskirts of Andromeda”, Michelle L. M. Collins et al., abril 2022.
[https://arxiv.org/pdf/2204.09068.pdf]
9. UCO/Lick Observatory, University of California Santa Cruz. (The
results)
[http://firstgalaxies.org/explore.html]
10. En este enlace podéis encontrar un listado de los objetos
astronómicos más lejanos:
[https://en.m.wikipedia.org/wiki/List_of_the_most_distant_astronomical_o
bjects]
397
28: Recordando a la terna constituyente
398
dinámica gravitatoria de cuerpo celeste, sino que era el propio
sustrato el que iba ampliando las distancias. Un campo Λ estaba
estirando al espacio/tiempo, y para ello contaba con un valor
constante de energía en todos los puntos del universo de 10-12 eV. Y
ojo… en este caso constante quiere decir constante: a medida que va
creciendo sigue añadiendo 10-12 eV en los nuevos espacio/tiempos
recrecidos. Así lo observamos. El problema es que, según nuestros
cálculos teóricos de lo que creemos la realidad, un campo cuántico de
este calibre no debería tener tan poca energía; la teoría exige un
incongruente salto hacia una mayor energía, exige un factor
multiplicador que pudiera ser de hasta 10120 entre lo real y lo cuántico.
Lo comentamos ya en el capítulo 6. Aunque muy bien pudiera ser que
en lo real no seamos aún capaces de ver todo lo que hay.
399
Las imágenes anteriores son tres “fotogramas” de cómo creemos que
ha sido la evolución de las estructuras del Universo. En realidad,
corresponde a tres tomas de una simulación de la distribución de la
materia oscura mostradas en orden cronológico, en las que se ha
obviado la distorsión uniforme que provoca la expansión (el volumen
muestra no crece). Aunque “vemos” materia oscura, podemos
asemejarla sin gran error a una distribución de galaxias, ya que la
gravedad de la primera es la que ayudó a la condensación de las
estructuras visibles. [1]
Ya dijimos en el capítulo 19 al hablar de la radiación de fondo de
microondas, que para explicar la planitud de nuestro Universo
necesitamos una densidad de energía determinada y precisa. Ni muy
grande, que hubiera colapsado ya el universo hace tiempo, ni muy
pequeña, que lo hubiera difuminado hace mucho también. Se
requieren exactamente 9,47 x 10-27 kg/m3, pero la materia bariónica
más la oscura solo nos explican hasta algo así como un 30% de este
valor. Ahí entraría en nuestra ayuda un nuevo e incierto personaje: la
energía oscura generadora de la constante cosmológica Λ, y que sería
la responsable de llegar al 100% de las necesidades teóricas y
observadas.
401
Cuando inicialmente surge el Universo, aún dentro del plasma quark-
gluon, vive un largo periodo en el que dominaba la radiación sobre la
materia: las altas energías fijaban la dinámica del tejido
espacio/temporal y de todo lo que ahí pasaba. Con el paso del tiempo
y la progresiva expansión, la temperatura disminuyó y la radiación
amplió su longitud de onda: se había hecho menos energética. La
progresiva caída de su energía era proporcional al exponente cuarto
del factor de expansión, [5] mientras que la materia simplemente
disminuía su densidad en un factor al cubo. [6] La consecuencia es que
llegó un momento en la carrera en el que la materia empezaba a
aportar más densidad de energía que la radiación. Junto a ellas dos
estaba también la energía oscura que, al ser “pequeña” en aquellos
momentos frente a lo que sería después, apenas tenía incidencia sobre
lo que decidían la materia o la radiación.
402
la materia la que dirimió lo que le pasaba al Universo ¿Para siempre?
Pues no, ya que ahí seguía la persistente y modesta energía oscura
insuflando hálito al creciente volumen del universo, mientras la
materia -y no digamos la radiación- diluía su poder en la expansión.
Y llegó lo esperado, el momento en que la energía oscura ganó
finalmente la batalla a la materia: eso pasó hace unos 6.200 millones
de años. [8] Tras este momento todo lo que viene después quedó
absolutamente condicionado por dicha energía.
Ése es el Universo dinámico del que estamos contando su vida. Al
final del capítulo anterior habíamos llegado más o menos al año 3.000
millones tras el Big Bang. Es decir, en la figura anterior casi en el
borde de la zona verde, dispuestos a dar el salto a la zona azul. El
Universo había sobrepasado la efervescente etapa de la adolescencia,
dirigiéndose hacia una estable y creativa madurez. Creo que puede
ser un buen momento para ampliar lo que veníamos diciendo en el
capítulo anterior cuando explicábamos cómo era el Universo y cómo
evolucionaban sus estructuras primeras: en particular, en el siguiente
hablaremos más de las galaxias.
403
[http://cosmicweb.uchicago.edu/sims.html]
2. En el Universo encontramos a los fotones de la radiación de fondo
tan “fríos” -a 2,725K- que aportan una energía de un orden de
magnitud cuatro veces inferior a la de la materia y de la energía
oscura, a pesar de que desde la recombinación también
encontramos a los fotones resultado de los procesos de fusión en
las estrellas. Al ser el vacío del Universo tan enorme, estos últimos
fotones aún pesan menos que los anteriores. En concreto, una
décima parte de la radiación de fondo. En total se cree que suman
un 0,01% del total de la densidad crítica.
3. En el enlace de abajo se explica de una forma amena la
mencionada leyenda y las consecuencias a que se llegó:
[http://matematicascercanas.com/2014/03/10/la-leyenda-del-tablero-de-
ajedrez-y-los-granos-de-trigo/]
4. El valor de la constante de Hubble se va afinando continuamente
con el tiempo como podemos ver en el enlace de más abajo. El
problema es que la velocidad de los objetos cósmicos la podemos
calcular bastante bien gracias al análisis de los corrimientos al
rojo, pero la apreciación de las distancias no es tan exacta ya que
depende del método elegido. De aquí surge lo que se conoce como
la tensión de Hubble y las diferentes estimaciones de la constante.
[https://en.wikipedia.org/wiki/Hubble%27s_law]
5. Un factor al cubo lo introducía la propia expansión, que diluía
volumétricamente a la población de la radiación, mientras que la
expansión de la longitud de onda era lo que lo subía al exponente
cuarto.
6. El que fija el propio aumento del volumen del espacio/tiempo
debido a su expansión.
7. Coloquialmente se suele decir que el momento en que la materia
dominó a la radiación fue en la recombinación, cuando protones y
electrones dejaron de ser “importunados” por los fotones. De
manera evidente eso no fue exactamente así ya que el proceso se
404
iba produciendo desde antes a lo largo de una larga época que
comenzó en el momento en que se igualan la relación de densidad
de materia y radiación, es decir cuando ambos estaban aportando
un 0.5 a la densidad crítica unitaria (el ratio de densidad de la
energía oscura entonces era despreciable). Ese momento se
caracteriza por un desplazamiento al rojo al que se le suele llamar
z-equivalente. La mejor medida de z-equivalente la proporciona la
síntesis de medidas cosmológicas publicadas por la Colaboración
Planck en 2015, y ésta es de z-eq = 3371 +/- 23. A ese
desplazamiento al rojo le corresponde un tiempo cosmológico de
vida del Universo de 52 mil años, cuando el Universo era 6.000
veces más pequeño que ahora y su temperatura de 16.000 K.
8. Tenéis un cálculo de la fecha del cambio a una expansión acelerada
en la siguiente entrada de la web “La web de Física”:
[http://forum.lawebdefisica.com/entries/623-El-inicio-de-la-
expansi%C3%B3n-acelerada-del-Universo]
405
29: Un Universo de galaxias
406
Como explicaremos más abajo las estructuras galácticas siguen una
variada casuística. Aunque para hacernos una rápida idea, diremos
que básicamente están formadas por
i. un gigantesco halo de materia oscura que las motorizó, y que
constituye de largo la mayor parte de su masa, en cuyo interior se
encuentra
ii. el halo galáctico con viejas estrellas y poco gas y, si la galaxia es
joven, en su centro se encuentra situado
iii. el disco en donde podemos encontrar las estrellas más jóvenes y
la mayor parte de lo que se conoce como el medio interestelar, MIE,
que es un plasma de gases y polvo muy tenue. [1]
En la Vía Láctea este MIE constituye entre el 10 y el 15% de la masa
del disco galáctico. Abriendo el detalle, diremos que está formado
por materia bariónica, libre o en forma de polvo, por partículas
cargadas conocidas como rayos cósmicos y por campos magnéticos
generados por las partículas cargadas de todo tipo.
Así es el “cuerpo” de las galaxias.
Como ya se comentó más arriba, el aspecto más importante de la
“ecología galáctica” es probablemente el ciclo recirculador de la
materia desde el MIE hasta las estrellas y de vuelta al MIE. En el
primer paso de este ciclo, se forman nuevas estrellas a partir del
depósito de material interestelar. Este material, lejos de estar
repartido uniformemente por el espacio interestelar, muestra
tremendos contrastes de densidad y temperatura, de modo que sólo
las regiones moleculares más densas y frías ofrecen un entorno
favorable para la formación estelar. Una fracción de esta materia
finalmente regresa al MIE, ya sea de manera continua a través de
poderosos vientos estelares o de manera instantánea tras las
explosiones de supernovas. En ambos casos, la inyección de masa
estelar en el MIE va acompañada de una fuerte liberación de energía
que, además de generar movimientos turbulentos en el medio,
contribuye a mantener su estructura altamente heterogénea y puede,
407
en determinadas circunstancias, dar lugar a nuevas regiones
moleculares propensas a la formación de estrellas.
El siguiente esquema autoexplicativo nos ayudará a refrescar nuestro
conocimiento de los caminos por dónde deambulan las galaxias y los
factores que intervienen en su dinámica.
408
pastoreo. Hasta ahora, en todo el libro hemos afirmado que la materia
oscura es la cocinera básica de todo el guiso cósmico que
observamos. Es cierto, y debía de estar ahí con su influjo desde antes
de la era de la recombinación, cuando el Universo era un plasma
caliente.
En el capítulo 20, que titulamos “La materia entra en faena”,
comentamos que una de las pistas que nos dice que sí, que
efectivamente hay algo ahí que es la materia oscura, la encontramos
en el análisis de la velocidad de las estrellas rotando alrededor del eje
de su galaxia. Como el de la figura siguiente resultado del hecho para
la galaxia M33. La curva definida por los puntos en amarillo y azul
es la observada a partir de diversas metodologías. La curva de trazos
blancos es la teórica de acuerdo con la distribución de la materia
visible de la galaxia. La discrepancia entre ambas se puede corregir
añadiendo la masa de un halo de materia oscura que rodee a la galaxia
410
La MIE, situada principalmente en el disco, no es homogénea y
presenta un aspecto hasta cierto punto grumoso. Eso se descubrió a
través de las observaciones de la Vía Láctea en la que, históricamente,
se habían apreciado ciertos “vacíos” oscuros que realmente no eran
tales, sino nubes de MIE distribuidas aleatoriamente y que absorbían
la luz de la galaxia emitida por las estrellas de detrás. No podíamos
verla con las viejas tecnologías. Pero a medida que ésta avanzaba se
ha analizado hasta el infinito el tipo de “tamizado” de fotones que se
producía en cada uno de esos grumos opacos de la galaxia para
determinar qué es lo que había en ellos. Ese es un resumen de las
conclusiones.
Aproximadamente (i) la mitad de la masa interestelar del disco está
confinada en nubes muy difusas ya que llenan tan solo entre el 1 y el
2 % del volumen interestelar. El contenido de estas nubes es muy
variado y definen su característica lumínica, su grado de opacidad.
Las hay de gas molecular muy frío (T∼10−20 K), las llamadas nubes
oscuras, que bloquean la luz visible de las estrellas de fondo, y las
hay de gas atómico también frío, aunque menos (T∼100 K), que son
casi transparentes excepto en un número de longitudes de onda
específicas en las que dan lugar a líneas de absorción y que se
conocen como nubes difusas. Entre estos dos tipos hay un abanico
de nubes translúcidas compuestas por una mezcla de partículas
atómicas y moleculares. El (ii) resto de la materia interestelar está
esparcido también de forma difusa entre las nubes anteriores y a
mayor temperatura (en el entorno de 104<T<106 K) formada por
átomos neutros templados e iones calientes. [4] [5]
En el párrafo anterior cuando estamos hablando de moléculas en el
MIE nos estamos refiriendo principalmente al H2 y al CO. Cuando
ambas se relajan emiten fotones en la frecuencia UV. El CO también
tiene una transición rotacional de su molécula que le hace emitir
fotones en el espectro de ondas de radio con longitud de 2,6
milímetros. Y cuando hablamos de gas atómico neutro nos estamos
refiriendo principalmente al hidrógeno atómico neutro, generalmente
indicado como HI. No se puede observar directamente en longitudes
411
de onda ópticas, aunque sí sabemos que emite fotones UV Lyman-α
con longitud de onda de 1,216 10-7 metros. Cuando se menciona al
gas ionizado nos referimos básicamente al ion hidrógeno, HII, o al
helio ionizado que pierden su estado neutro gracias también a la
radiación UV de las grandes estrellas. En las recombinaciones de esos
iones se emiten fotones en la frecuencia de los rayos X por el efecto
bremsstrahlung, así como en las longitudes de onda ópticas,
infrarrojas y de radio. Esta última terna se produce principalmente en
la recombinación de los iones de hidrógeno y helio con los electrones
libres y en la relajación energética de los metales de los granos de
polvo, excitados en los procesos de choque entre ellos.
Y estos son los “quiénes” que constituyen los barrios de las estrellas
y de las galaxias. Estamos en condiciones de pasar ahora a hablar de
estas últimas, dejando para los siguientes capítulos al mundo de las
estrellas.
A falta de poder testar en directo lo que le sucede al Universo por
razones casi obvias, tenemos varias teorías acerca de cómo se
generaron las galaxias. La más aceptada actualmente es que han ido
evolucionando a partir de la fusión de concentraciones de pequeñas
masa, pequeñas concentraciones de gases del tamaño de los cúmulos
estelares -los que observamos actualmente se mueven en un rango del
orden de centenares a millones de estrellas- que luego, por fusión,
pasaron a constituir una galaxia. Ya sabemos, por las imágenes reales
de la figura que cerraba el capítulo 27, que las primeras debieron ser
muy irregulares y no sabemos muy bien cómo pudieron pasar a ser
de la tipología más “ordenable” que observamos hoy en día.
El astrónomo Edwin Hubble clasificó a las galaxias en dos grupos,
las elípticas y las espirales, por razones obvias de su geometría, como
podemos ver en la imagen que sigue. Entre las espirales distingue una
subclase, las barradas Sb, que son espirales con dos brazos muy
definidos y un bulbo alargado interior que los une. Son muy
abundantes tanto en el pasado como en el presente, habiéndose
estimado que hasta unas tres cuartas partes de las galaxias espirales
en algún momento de su existencia presentaron o van a presentar en
412
su estructura a una barra: son elementos vivos que se destruyen y
reconstruyen a un ritmo constante.
416
colapsó el disco con un sentido de giro ya muy definido que es el que
siguen las jóvenes estrellas que se encuentran en él.
Quizás pudiéramos pensar que los brazos de las galaxias espirales son
como “torrentes” de materia transportada de un lugar a otro que va
dando vueltas alrededor del agujero negro central. No es así. Sabemos
que los objetos de las galaxias rotan alrededor de su eje,
prácticamente en todo el radio, con velocidad lineal constante, lo cual
implica que las más interiores lo hagan a una velocidad angular
mayor que las del exterior. [9] Si el brazo fuera un cuerpo
perfectamente trabado esta diferencia de velocidades haría que en
unos 108 años se enrollara como una madeja, lo cual no es lo que
observamos. Hay que buscar otro mecanismo.
Una de las principales explicaciones de la existencia de los brazos
espirales es que están generados por ondas espirales de densidad, que
es lo que realmente existe: ondas de compresión de gas y estrellas,
como una onda sonora, que se mueven a través del disco galáctico,
apretando y expandiendo a los objetos galácticos a medida que
avanzan, desencadenando el proceso de formación de estrellas en las
zonas de compresión donde la inestabilidad producida por la onda
dispersa el patrón de velocidades -hay más choques y fricciones- por
lo que se calienta el medio.
La velocidad de giro del material del disco, estrellas o gas, es distinto
que la velocidad de giro de la onda de presión. Las estrellas de las
regiones interiores de la galaxia se mueven más rápido que la onda,
la alcanzan por detrás, se unen a ella durante un cierto período de
tiempo y terminan por abandonarla. Las estrellas de las regiones más
externas de la galaxia, en cambio, son más lentas que la onda, que las
alcanza por detrás y acaba por superarlas. En ambos casos el
resultado es que el material galáctico, mientras está atrapado y
transita temporalmente la onda, se ralentice y comprima para luego
continuar su camino. Algo parecido al efecto acordeón en los atascos
de nuestras carreteras cuando llegamos a una zona de parón, en la que
nos vemos atrapados muy pegados a otros coches, hasta que la
resistencia a la circulación se relaja por delante y se vuelve al régimen
417
normal. Mientras vivimos el parón seguramente se nos ha “alterado”
la paciencia e incluso habremos “dado a luz” a algún exabrupto, a
veces de dimensiones estelares. En el texto adjunto de final de
capítulo podéis leer una explicación más detallada.
Como consecuencia se producen las barras y los brazos espirales que
serían las “crestas” de la materia galáctica producidas por el empuje
dinámico que ejercen sobre ella las ondas de densidad. Y a medida
que los “canales” de materia alcanzan (o son alcanzados) y entran en
la onda de presión, el gas se comprime y forma estrellas.
Las más importantes son las brillantes gigantes azules que viven sólo
por un corto periodo de tiempo ya que pronto van a estallar como
supernovas. Por lo que esas jóvenes estrellas, que se concentran en
cúmulos abiertos o en nebulosas de emisión, las podemos encontrar
solamente en los brazos de los canales de polvo que ya hayan
“surfeado” las ondas de presión y muy cerca de sus lugares de
nacimiento. Es el brillo de estos sistemas jóvenes lo que resalta la
estructura en espiral. Aguas abajo del paso de la materia por “encima”
de la ola de presión vemos principalmente estrellas y cúmulos
estelares más antiguos ya que han tenido suficiente tiempo desde su
formación para alejarse de la ola.
A lo largo de millones de años, sus movimientos individuales
aleatorios, superpuestos a su rotación general alrededor del centro
galáctico, distorsionan y finalmente destruyen su configuración
espiral original, convirtiéndose de nuevo en parte de la materia
general del disco.
Hasta ahora hemos estado hablando de galaxias que quizás habríamos
conceptuado como normales. Pero no nos podemos olvidar de una
propiedad característica de algunas de ellas, las conocidas como
galaxias activas, que son casi un 40% del total. Las galaxias activas
son especialmente brillantes: las elípticas más grandes brillan unas
1012 veces más que el Sol. Pensad que la Vía Láctea brilla con la
equivalencia de 109 soles. La mayoría de las galaxias activas emiten
cantidades sustanciales de radiación visible, pero aun mucha más en
418
longitudes de onda “invisibles”. Las galaxias activas, en longitudes
de onda ópticas, se ven a menudo como galaxias normales con sus
componentes familiares tales como discos, bulbos, estrellas o bandas
de polvo oscuro; sin embargo, en otras longitudes de onda se hace
más evidente que tienen propiedades inusuales. A veces,
simplemente estamos asomándonos a una época temporal de intensa
generación de nuevas estrellas. Pero muchas veces la actividad
anormal está relacionada con eventos violentos que ocurren en o
cerca del núcleo galáctico. A esos núcleos se les conoce como
núcleos galácticos activos que caracterizan variadas estructuras
galácticas, algunas ya conocidas por nosotros, como los cuásares, o
los blázares y pulsares de los que hablaremos en el capítulo 31.
Vamos a entrar ahora en el estudio de la evolución de las galaxias una
vez que ya son estructuras consolidadas, cosa que está muy
condicionada por los “choques” entre ellas y los consiguientes
fenómenos inducidos de generación estelar y modificación en la
distribución de gases. Siempre se ha pensado que de las más
globulares elípticas se habría pasado a las espirales de acuerdo con
una inevitable dinámica de movimiento de giro de sus masas. Pero el
hecho de que la galaxia más grande que conocemos sea una elíptica,
la IC 1101, con un tamaño de unos 400 mil años luz, introduce unas
ciertas dudas que nos llevan a pensar que quizás el proceso pudo ser
el contrario. Sea como fuere, lo que es cierto es que los astrónomos
tienen serias evidencias observacionales de que las colisiones e
interacciones entre galaxias son muy comunes y que estos encuentros
son los principales procesos físicos que condicionan su evolución.
En el universo encontramos muchos cuerpos unidos por interacciones
gravitatorias, entre ellos las galaxias, con una dinámica que es
imposible de ser evitada. Con el tiempo, estas galaxias atadas por la
gravedad formando cúmulos acabarán entrando en senda de colisión.
Realmente en la “pecera cumular” donde deambulan no tienen mucho
espacio para moverse sin chocar entre sí: la distancia entre galaxias
adyacentes en un cúmulo tiene un promedio de unos cientos de miles
de pársecs, que es menos de cinco veces el tamaño de una galaxia
419
típica incluido su halo de materia oscura, [10] por lo que los encuentros
son la norma más que la excepción. [11] No obstante, no pensemos que
este proceso de fusión sea como un choque de trenes: no chocan
estrellas contra estrellas, ya que éstas están tremendamente separadas
unas de otras en comparación a su tamaño, sino que más bien se
produce una mezcla progresiva de los componentes de las galaxias.
En los grupos más pequeños, las velocidades de las galaxias son lo
suficientemente bajas como para que las que interactúan tiendan a
"pegarse", siendo la “fusión” el resultado más común. En grupos más
grandes las galaxias se mueven más rápido y tienden a atravesarse sin
pegarse. De todas formas, tampoco es un proceso tan suave, ya que
la fricción de los gases entre las dos galaxias origina normalmente
ondas de choque que generan nuevas estrellas, mientras que otras ya
existentes serán lanzados al espacio exterior. Lo más común es que a
la larga se llegue a formar un cuerpo único -una nueva galaxia- en un
estado estable.
La mayoría de los encuentros galácticos se produjeron para z’s
mayores de 1, antes de cumplirse los 3.000 millones de años tras el
Big Bang, cuando las galaxias se encontraban más compactas, lo cual
es bastante lógico. Pero debemos pensar que a medida que con el
tiempo y la expansión disminuye la densidad de las galaxias, el
número de aproximaciones, encuentros y colisiones tuvo que ser
menor.
Los astrónomos trabajan principalmente con tres tipos de
interacciones galácticas, clasificación que surge fruto de contrastar el
resultado de simulaciones con computadores con las observaciones.
Una primera sería el caso de la aproximación de dos galaxias en
donde una tiene una masa mucho más pequeña que la otra. La mayor
canibaliza a la pequeña en un proceso en el que el halo de la mayor
interactúa con la menor, haciendo que esta última inicie un baile en
espiral sobre la grande emitiendo hacia el exterior, en la dirección
contraria a la de aproximación, parte de sus estrellas. Lo que se
conoce como la cola de marea, una región delgada y alargada de
estrellas y gas interestelar que se extiende al espacio desde una
420
galaxia. Un segundo tipo de interacción galáctica se produce cuando
una de ellas tiene ligeramente menos masa que la otra. En este caso
la menor puede inferir en la mayor la generación de nuevos brazos
espiral y la creación de nuevas estrellas. El tercer tipo corresponde a
la situación de encuentro entre dos galaxias comparables en masa y
tamaño. El choque, y las supernovas generadas en el subsiguiente
episodio de intensa creación de nuevas estrellas, hace que los discos
se rompan y que el gas de las galaxias sea expulsado al espacio
intergaláctico. Cuando todo se calma aparece una galaxia elíptica con
un halo visible en la frecuencia de rayos X.
A esa triple tipología de fusiones debemos añadir el caso de que las
galaxias que se fusionan son de un tamaño similar pero pequeño.
Entonces lo más probable es que aparezca una galaxia elíptica. Eso
es debido a que cuando interactúan gravitacionalmente galaxias
enanas, al ser la masa final también pequeña no habrá suficiente
potencial gravitatorio como para “disciplinar” tras la fusión los
movimientos iniciales de las galaxias, con direcciones de encuentro
al azar. Como sabemos, eso es lo que caracteriza a las elípticas,
diferenciándolas de las disciplinadas espirales.
423
hidrógeno resplandeciente, que aparece en la imagen en rosa. La gran
mayoría de los cúmulos de súper estrellas formados durante esta
interacción se dispersarán y las estrellas individuales se convertirán
en parte del fondo uniforme de la galaxia. Sin embargo, se cree que
alrededor de un centenar de los cúmulos más masivos sobrevivirán
para formar cúmulos globulares regulares similares a los cúmulos
globulares que se encuentran en nuestra propia galaxia la Vía
Láctea.[13]
A la par de estas danzas entre pares, las galaxias se iban organizando.
En la frontera entre el primer y el segundo millar de millones de años
las galaxias comenzaban a unirse formando “proto cúmulos”,
siguiendo un proceso que ya hemos explicado más arriba. A partir del
tercer milenio de millones de años se formaron ya los verdaderos
cúmulos de galaxias. [14] Y en el quinto milenio de millones la
gravedad había conseguido formar supercúmulos. No os imaginéis a
los cúmulos de galaxias como unos racimos cósmicos más o menos
densos en donde las galaxias serían los granos y el resto vacío o
ligeramente ocupado por gases, aunque realmente así nos lo parece
cuando los vemos en una imagen en la frecuencia de lo óptico. Es
algo mucho más complejo. Para empezar, hay el doble más de gases
que de materia bariónica luminosa concentrada en las galaxias, gases
que provienen de distintos orígenes, desde el primigenio del Universo
-hidrógeno y helio primordiales- hasta el que es producto del proceso
que siguen la supernovas, y tan calientes [15] que pueden ser
apreciados en el espectro de los rayos X. Pero eso es aún una
nimiedad al lado de la materia oscura que los conforma, ya que ésta
representa entre el 80 y el 85% de la masa total del cúmulo. [16]
Realmente podemos pensarlos como “ameboides”, con su propia vida
y una larga evolución gravitatoria hacia el equilibrio dinámico en sus
organismos, [17] lo que les lleva normalmente por una senda de
progresiva estabilidad: los cúmulos que observamos de forma
irregular aún no han llegado a ese equilibrio, estando aún en proceso
de formación y siendo dominados por las galaxias espirales, mientras
que los cúmulos de forma más regular son más estables, más
424
relajados, quizás porque son más viejos y han tenido tiempo para
llegar al equilibrio, siendo dominados por galaxias elípticas.
427
sus órbitas en resonancia dibujando un ballet bastante coordinado
que se manifiesta como una onda.
La imagen siguiente nos propone algunos esquemas de distintas
ordenaciones de las órbitas elípticas estelares en una galaxia:
1. Ejemplo general de tres rosetones de órbitas estelares con
sus precesiones. En las cuatro siguientes, en aras a la claridad hemos
eliminado el oscilar de las precesiones.
2. Varias órbitas aleatorias no coordinadas. No se produce una
onda como claramente sí sucede en los tres siguientes casos.
3. Órbitas alineadas que formarán una onda barrada.
4. Órbitas que se mueven al unísono, pero no están
perfectamente coordinadas. Se genera una onda espiral.
5. Como el caso anterior pero cerca del núcleo las órbitas están
alineadas. Se genera una onda espiral barrada.
428
Podríamos decir que las barras y los brazos espirales que se crean
son las “crestas” de las ondas de densidad donde las estrellas y el
gas se agolpan temporalmente, como si se tratara de un atasco en
una autopista cósmica. La cresta de una ola en el mar. Es en estas
zonas en donde las dinámicas se han acelerado por la congestión
donde se genera un vivero de nuevas estrellas que resaltan la imagen
visual de la espiral.
Pero, al igual que ocurre con ondas de otro tipo, las ondas de
densidad sufren un amortiguamiento rápido al ir perdiendo energía
a medida que van produciendo ondas de choque en el medio
interestelar. Lo que conlleva el hecho de que también los brazos
espirales se vayan diluyendo con el tiempo. Pero la desaparición
espontánea de las ondas espirales no va a producir un disco amorfo
sin estructura, sino que da paso a la aparición de barras. Las barras,
al igual que las espirales, son también ondas de densidad mantenidas
por las estrellas, pero son mucho más estables que los brazos
espirales. Una vez producida una barra estelar y girar, ejerce un par
a la manera de un agitador enorme, lo que induce sin cesar una
estructura espiral en el gas. Entonces el gas forma estrellas, lo que
va a regenerar en parte la inestabilidad espiral global en la galaxia.
Esta dinámica de creación y dilución está directamente relacionada
con la temperatura del disco galáctico: si está suficientemente frio se
va a generar la estructura espiral que, a su vez, generará una barra.
Eso es así porque en un disco frío la dispersión de velocidades de las
estrellas es muy pequeña, por lo que la gravedad podrá actuar
fácilmente. Pero hemos dicho también que todas las ondas o
inestabilidades sufren un amortiguamiento rápido al ir perdiendo
energía que ceden a las estrellas en forma de movimientos
desordenados, calentando al disco. Y si el disco llega a estar
demasiado caliente las inestabilidades espirales van a desaparecer.
Incluso lo podrían hacer las mucho más estables barras si el disco
no tuviera gas y estuviera formado exclusivamente por estrellas.
Aunque normalmente este no sea el caso ya que en las galaxias
429
además de estrellas hay gas y el gas se va a encargar de regenerar
la estructura espiral ya que permite enfriar el sistema de modo eficaz.
Las estrellas no pueden ceder fácilmente el exceso de energía cedido
por la onda, pero el gas sí. Eso es debido a que las nubes de gas
interestelar, al ser muy grandes, pueden colisionar con frecuencia.
En esos choque se disipa energía de las nubes al convertirse su
energía cinética no solo en ondas de choque, sino también en
radiación refrigerante. Y como ya hemos comentado, con su
velocidad así atemperada, las nubes son más propensas a las
inestabilidades ondulatorias. Sin embargo, las estrellas, por el
contrario, casi nunca colisionan, por lo que se mantienen en un
amplio rango de velocidades relativas, oponiendo una mayor
resistencia al paso de las ondas. Se entiende entonces que, aunque
las ondas calientan tanto el disco de estrellas como al gas, sólo este
último es capaz de disipar energía. Si el gas se enfría, como está
acoplado dinámicamente a las estrellas, acabará enfriando al
conjunto del disco apareciendo de nuevo las inestabilidades
espirales con lo que se va a empezar un nuevo ciclo. En cierto modo,
el disco de gas y estrellas actúa autorregulándose lo que es un
argumento para pensar que las ondas van a ser cuasi permanentes,
duraderas y sin cambios a lo largo de la vida de la galaxia.
Hasta ahora hemos hablado de intercambios de energía entre las
ondas de densidad y los objetos que pueblan el disco, las estrellas y/o
el gas. Pero también las ondas intercambian (ceden o quitan)
momento angular con la materia. Por su naturaleza disipativa el gas
es más sensible al intercambio de momento angular por lo que las
barras y las espirales es fácil el que lo hagan. Al ceder momento
angular el gas tiende a “caer” hacia los núcleos galácticos, en donde
se concentra, proceso que puede llevarse a cabo en un plazo
aproximadamente de mil millones de años, unas pocas rotaciones de
la barra. Pero esta redistribución de masas en la galaxia no resulta
inocua para la evolución de las ondas ya que supone el cambiar las
condiciones que permiten su desarrollo. La masa acumulada en el
430
centro dispersa a las estrellas y les impide orbitar regularmente, tal
y como necesita la barra, lo cual conlleva su destrucción.
Sabiendo esa circunstancia la pregunta es ¿por qué se observan
tantas galaxias barradas? En las imágenes ópticas, alrededor de dos
terceras partes de las galaxias presentan barras, y si las observamos
en las frecuencias del infrarrojo la cuenta sube hasta las tres cuartas
partes. La conclusión lógica es pensar que las barras se forman,
desaparecen y se generan de nuevo en un ciclo continuo, son
elementos vivos que se destruyen y reconstruyen a un ritmo
constante. Aunque no es evidente la manera de cómo las barras se
pueden volver a formar una vez disipadas. La galaxia tiene que
evolucionar mucho para alejarse de las condiciones que le
destruyeron la barra; las órbitas estelares han de recuperar de nuevo
una marcha regular por la que se va a volver a una dinámica de
velocidades bajas. Hay una forma de que eso ocurra y es mediante
la captura de grandes cantidades de gas intergaláctico. Cuando las
nubes de gas caen hacia la galaxia, colisionan y se atemperan al
perder energía, lo que les permite regularizar sus órbitas. Y como
ese gas intergaláctico arrastra un alto momento angular, esa fuerza
de giro hace frenar su “caída” dando a la barra tiempo como para
reagruparse.
En resumen, las galaxias no nacen con una forma determinada,
barradas o sin barras. Se metamorfosean. El predominio de las
barras como ondas estables explica de forma satisfactoria por qué la
mayoría de las galaxias espirales son además barradas. Si tres
cuartas partes de las galaxias son barradas, tenemos que pensar que
una galaxia típica debe pasar tres cuartas partes de su vida con una
barra. Durante ese tiempo, la estable barra impide que el gas penetre
en la región central de la galaxia. A la espera, el gas se acumula en
una región exterior para, tras la autodestrucción de la barra, entrar
y rejuvenecer la galaxia.
431
NOTAS DEL CAPÍTULO 29:
1. El gas y el polvo se encuentran por todas partes en el espacio
interestelar, ninguna parte de nuestra Galaxia está verdaderamente
desprovista de materia. Sin embargo, la densidad del medio
interestelar es extremadamente baja. En general, hay
aproximadamente un promedio de 106 átomos de gas por metro
cúbico -solo 1 átomo por centímetro cúbico- aunque hay grandes
variaciones de lugar a lugar.
El polvo interestelar se encuentra formando grumos de átomos y
moléculas, incluso minerales refractarios más grandes, que se
condensaron cuando la materia abandonó el cuerpo de las estrellas
empujada por sus vientos o por las ondas de presión tras la
explosión de una supernova. El polvo es aún más raro en el espacio
interestelar. En promedio sólo hay una partícula de polvo por cada
109 átomos, lo que supone solo 10−6 partículas de polvo por metro
cúbico.
(Del libro “Astronomy Today”, pagina 452, Eric Chaisson y Steve
McMillan, 2014).
2. Visto de otra manera. según las leyes gravitacionales de Newton
la velocidad de un objeto "orbitando" una masa M la define la
ecuación v2 = G.M/r, siendo r la distancia entre los centros de
gravedad de ambas masas. Si su velocidad real es muy grande, por
encima de la velocidad teórica que determinaría su r particular de
acuerdo con la anterior fórmula, la única explicación es que hay
más masa a añadir a M.
3. Tenéis los datos en un artículo publicado en la revista Nature de
marzo de 2017, “Strongly baryon dominated disk galaxies at the
peak of galaxy formation ten billion years ago” de R. Genzel et al.
[https://arxiv.org/ftp/arxiv/papers/1703/1703.04310.pdf]
4. En esta tabla se pueden ver algunas características físicas de una
galaxia como la nuestra. T(K) es la temperatura en kelvin, n(cm-3)
la cantidad -número- de población del componente por cm3 y
M(109 M⊙) la masa total en miles de millones de masas solares.
432
Componente T (K) n (cm-3) M(109 M⊙)
Molecular 10 − 20 102 − 106 ∼ 1.3−2.5
Atómico frío 50 − 100 20 − 50 >∼ 6.0
3 4
Atómico templado 6.10 − 10 0.2 − 0.5 >∼ 6.0
Ionizado templado ∼ 8.103 0.2 − 0.5 >∼ 1.6
6
Ionizado caliente ∼ 10 ∼ 0.0065
433
muy diluidos el espacio intermedio que los contienen está a una
temperatura bajísima, cercana a los 3 K.
8. Imagen modificada de la figura 23.10 del libro “Astronomy
Today”, Eric Chaisson y Steve McMillan, 2014, fair use.
9. “Ondas de densidad y evolución de galaxias”, páginas 3-6,
Santiago García Burillo, Anuario Astronómico del Observatorio
de Madrid, 2003.
[http://astronomia.ign.es/rknowsys-
theme/images/webAstro/paginas/documentos/Anuario/ondasdedensidadye
volucion.pdf]
10. Recordemos que la materia oscura puede representar hasta el
85% del total de su masa y, por tanto, su influjo en la dinámica de
aproximaciones es vital. A medida que orbitan las galaxias
interactúan sus halos oscuros, lo que ralentiza el movimiento de
las galaxias y elimina el material del halo por las fuerzas de las
mareas. La materia del halo se redistribuye entre las galaxias o se
pierde por completo fuera del sistema. En cualquier caso, el
resultado es una interacción mucho más fuerte que puede cambiar
mucho las órbitas de ambas galaxias.
11. Podemos hacer un cálculo con números gruesos. Según la
información que da Wikipedia para los cúmulos de galaxias, los
mayores tienen diámetros de 10 Mpc y contienen hasta 1.000
galaxias. El volumen será de 103 Mpc3 lo que da 1 Mpc3 por
galaxia. Entonces sería una razonable aproximación si decimos
que los centros de dos galaxias estarán separados por 1 Mpc.
Ahora comparad: el diámetro de la Vía Láctea es más o menos de
medio Mpc. Realmente las galaxias dentro de sus cúmulos están
ciertamente próximas.
12. Para una más detallada explicación os sugiero acudir a la
entrada “Imágenes astronómicas - Los Ratones” del blog “El
Tamiz”.
[https://eltamiz.com/2007/09/29/imagenes-astronomicas-los-ratones/]
434
13. Para más información ver la siguiente página de la ESO:
[https://hubblesite.org/contents/media/images/2006/46/1995-Image.html]
14. Ojo, no nos despistemos: remarco que ahora estamos tratando
de agrupaciones de galaxias, y no de cúmulos estelares, que se
encuentran dentro de una galaxia.
15. A temperaturas típicas del orden de 107 a 108 K.
16. La masa típica de un cúmulo de galaxias es de 1014 a 1015 masas
solares, pero su luminosidad es de solo 1012 veces la luminosidad
solar. Esos números nos dicen que atendiendo sólo al espectro
óptico se nos puede escapar grandes cantidades de masa. La masa
de la materia oscura.
17. Técnicamente, este equilibrio se consigue cuando entre los
elementos de un sistema se corresponde la energía potencial
promedio de los mismos con su energía cinética promedio, en una
relación de dos a favor de la energía cinética. En la teoría se le
conoce como el teorema del virial, y cuando un sistema llega al
equilibrio dinámico representado por este teorema se dice que está
“virializado”. Este teorema se usa en variadas disciplinas -en
particular la Cosmología- para calcular la energía cinética total
promedio de sistemas muy complejos en los que es muy difícil
obtener una solución exacta. Se habló de ello en el capítulo 21.
18. Las ideas expuestas provienen de “Ondas en el océano
galáctico”, Françoise Combes, IyC diciembre 2005 y de “Ondas
de densidad y evolución de galaxias”, Santiago García Burillo,
Anuario Astronómico del Observatorio de Madrid, 2003.
[https://kupdf.net/download/investigacion-y-ciencia-351-diciembre-2005-
mutaciones-pioneras_5d90172fe2b6f5060df9cd41_pdf]
[http://astronomia.ign.es/rknowsys-
theme/images/webAstro/paginas/documentos/Anuario/ondasdedensidadye
volucion.pdf]
435
30: La fiesta continúa en las estrellas
436
cuyas explosiones destructivas se disipa una energía equivalente a la
de cientos de miles de estrellas como nuestro Sol. [1]
Hoy vemos a todos los elementos químicos naturales, pero durante la
época de la reionización había muy poquitos y recién estrenados. Las
causantes fueron las primeras estrellas que en sus procesos de fusión
empezaron a crear elementos más allá del litio. Al morir las más
grandes y masivas como supernovas, dispersaron sus gases formados
por los elementos primigenios -hidrógeno, helio y litio- y los nuevos
elementos que habían sintetizado en el interior de ellas a lo largo de
sus vidas. A estas estrellas primerizas se las conoce como de
población III. Las de nuestra época -aunque en este caso “época”
abarca una gran parte de la vida del universo- son las de población I.
Y entre ambas, lógicamente, las de la población II.
438
El estudio de la galaxia más luminosa conocida, CR7, situada en el
campo de la constelación de la Osa Mayor, a 700 millones de años
tras el Big Bang, parece asegurar que puede ser una combinación de
estrellas de población III y de otras estrellas “normales”. Las primeras
determinaron la emisión de rayos ultravioleta de la galaxia -buenas
candidatas para cebar la reionización- y empujaron a los gases hacia
su periferia formando a su alrededor masas nebulares interestelares;
mientras que las segundas serían las que aportarían la mayoría de la
masa de la galaxia tal como la observamos hoy. [2]
439
menores a un millón de años. Lo que encaja muy bien con lo que se
observa, y es que ya había estrellas con una cierta metalicidad muy
pronto tras la recombinación, las estrellas de Población II. Antes de
que aparecieran estas últimas en el escenario tuvieron que existir
estrellas de población III que generaran en su interior, o a través de
sus muertes como supernovas, esta metalicidad que luego recibieron
las de la población siguiente.
Posiblemente en estas primeras estrellas se llegaron a sintetizar
átomos de carbono y de oxígeno. Y esto es significativo a la hora de
entender qué es lo que pasó después de la desintegración de las
estrellas de Población III. En las nubes de gases cósmicos el oxígeno
tiende a reaccionar con el carbono, dando CO2, y con el hidrógeno
dando agua como resultado. Tanto el CO2 como el H2O son
moléculas que, al calentarse y relajarse durante los procesos de
compactación para formar nuevas estrellas, irradian fotones en la
frecuencia del infrarrojo, enfriando la nebulosa de gases. Ya sabemos
que esos procesos refrigeradores favorecen la acción de la
contrapresión gravitatoria de la masa que se compacta, que deberá
luchar contra una menor presión de radiación interna. Por lo que las
estrellas con oxígeno y carbono lo podían conseguir con un menor
volumen. La consecuencia fue que las estrellas de población II que se
generaron fueron de menor tamaño y, en consecuencia, con unos
procesos internos de fusión muy lentos. Así que estas pequeñas
estrellas aún las podemos observar hoy en día, incluso en nuestra Vía
Láctea.
También se generaron estrellas masivas, de entre ocho y diez veces
la masa del Sol, que iban a durar decenas de millones de años y con
la masa adecuada como para generar en su interior nuevos elementos,
hasta el Hierro 56. Durante mucho tiempo se pensaba que todas las
estrellas de población II tuvieron que ser de baja metalicidad, pero
actualmente se sabe que esto no es cierto. Las estrellas de población
II del halo estelar galáctico son efectivamente de baja metalicidad,
pero las estrellas de población II del bulbo tienen metalicidades
relativamente altas, parecidas a la de algunas estrellas de población I
440
como el Sol. Y es que realmente estas estrellas de población II son
las que alimentaron con una elevada metalicidad a la siguiente
generación de estrellas.
Algunas de ellas pudieron tener el tamaño necesario como para morir
como una gigante roja produciendo en el proceso la diseminación de
sus gases, o bien hacerlo de forma más explosiva como una
supernova. Hoy en día estos procesos explosivos son muy comunes
en estrellas con masas varias veces superiores a las del Sol: las
supernovas del tipo II. A partir de su muerte espectacular, ya que
explotan como una gran bomba, se crearon unas ondas de temperatura
y energía que se expandieron a grandísimas distancias alrededor de
un pequeño cuerpo residual. La energía era de tal calibre como para
iniciar, tanto en los gases producto de la explosión como en la materia
intergaláctica que encontraban a su paso, una nueva cadena de
fusiones atómicas a partir de los elementos pesados que se habían ido
generando a lo largo de los millones de años en sus núcleos. El
resultado de estas transformaciones apocalípticas fue la generación
del resto de elementos que conocemos. De ahí surge la certeza de que
las estrellas de población II fueron imprescindibles para generar los
sistemas planetarios de las siguientes estrellas, puesto que en ellos
una buena parte de los planetas interiores son de tipo rocoso, en cuya
composición abundan los elementos pesados: hierro, calcio, silicio,
carbono, oxígeno, aluminio…
En febrero de 2014 se notificó el descubrimiento de lo que puede ser
la más antigua estrella observada de este tipo de Población, la II. Se
trata de SM0313, una estrella de la Vía Láctea a una distancia de
6.000 años luz del sistema solar y con una antigüedad que algunos
aventuran en 13.600 millones de años (¡!). Está muy claro que posee
metalicidad de bajo rango que a todas luces queda patente al estudiar
su espectro: contiene trazas de carbono, magnesio y calcio. E incluso
hierro que aunque en cantidades mínimas -siete ordenes de magnitud
menos que en el Sol-, ha permitido situarla en el tiempo como una
estrella de Población II. [3]
441
Nebulosa del Cangrejo, residuos de la explosión de una supernova.
En su centro quedaron los restos compactos -una estrella de
neutrones- en forma de un púlsar. Mientras que en los lejanos
alrededores se evidencia lo que pasó con los gases que eran el
cuerpo de la estrella primera (Wikimedia: NASA, ESA, J. Hester y
A. Loll (Arizona State University), dominio público)
La siguiente generación de estrellas fueron las de Población I.
Normalmente son estrellas jóvenes, que se encuentran habitualmente
en las galaxias espirales y, según sea su edad, se sitúan en ellas en
distintas zonas: las más jóvenes cerca del bulbo de la galaxia y las de
mayor edad alejadas de este centro. Y ya hemos comentado que
tienen una alta metalicidad, la mayor entre la de las tres poblaciones
de estrellas. Apoyados en esta característica, hasta hace poco se
pensaba que la alta metalicidad les hacía las mejores candidatas para
tener sistemas planetarios, en especial los de tipo rocoso. Sin
embargo, gracias a la misión Kepler, se han encontrado este tipo de
planetas alrededor de estrellas con un amplio rango de metalicidades,
e incluso se han hallado planetas gigantes gaseosos que
sorprendentemente se encuentran agrupados alrededor de estrellas de
alta metalicidad. Aún hay mucho que aprender.
442
Curva de la evolución estelar a lo largo de la vida del Universo. En
la parte de abajo según la fracción de edad del Universo desde hoy
y en la parte de arriba un zum referenciado al corrimiento al rojo
(SFR= Star Formation Ratio) (Imagen a extraída del curso on-
line “El Universo en formación”, por el profesor S. George
Djorgovski, CALTECH, fair use)
Una vez presentadas las tres poblaciones estelares, y antes de pasar a
desarrollar un poco más el tema de los sistemas planetarios, conviene
dar un último apunte sobre la biografía de las estrellas. En capítulos
anteriores habíamos comentado como las primeras galaxias fueron
muy abundantes y con estrellas jóvenes irradiando en la frecuencia
ultravioleta. Con el tiempo el número de galaxias descendió, y
pensamos que lo ha hecho en un factor de 20. Podemos extender la
misma curiosidad a las estrellas: ¿hay más ahora que antes? ¿Al
443
revés? ¿Cuál pudo ser la dinámica en su formación? Los astrónomos
hacen sus cálculos a partir de la luminosidad de las galaxias, lo que
les permite hacer una razonable extrapolación de la cantidad de
estrellas que las “habitan” (ver curva anterior). Desde las lógicamente
escasas primeras estrellas formadas se debió dar una escalada en su
población hasta alcanzar para corrimientos al rojo del orden de 6 o 5,
cuando la edad del Universo era de unos 1.000 a 1.200 millones de
años, una meseta que más o menos se mantuvo hasta un z=1 a la edad
de 6.000 millones de años. A partir de entonces se observa un
progresivo declinar en el número de las estrellas. Así que habrá que
pensar que el Universo andaba más revuelto en el pasado que en
nuestros días.
En los próximos capítulos veremos cómo son las estrellas, qué
aspectos adoptan según sean sus condiciones de partida, y cómo
evolucionan hasta su muerte, quizás explosiva, quizás “eterna”. En
algún momento de su camino de compactación, la conservación del
momento angular hará que se achaten en su parte más externa
generando un disco que más tarde formará un sistema planetario.
Hablemos un poco de ello.
Una galaxia espiral que nos es muy familiar es en la que vivimos,
nuestra galaxia la Vía Láctea. Se formó hace 13.210 millones de años
a partir de un colapso gravitatorio. En ella nació nuestro sistema solar
hace unos 5 mil millones de años, también a partir del colapso
gravitatorio de una nube molecular en donde predominaba el
hidrógeno neutro. En su centro se halla una estrella, el Sol. Es una
estrella de población I. Estable, a la que aún le quedan por delante
otros 5 mil millones de años de vida. Tiene su sistema planetario, y
estamos seguros de que no es de los más viejos, ya que sabemos que
en el universo se habían formado planetas desde una época muy
temprana.
La misión Kepler nos ha permitido encontrar al sistema planetario
más antiguo conocido por ahora. Tiene 11.200 millones de años, a
2.600 millones de la expansión del Big Bang. Se trata del sistema
planetario de la estrella Kepler-444, que se encuentra en nuestra
444
galaxia a solamente 117 años luz de distancia de nosotros. Lo que
sabemos por ahora nos habla de cinco planetas rocosos más pequeños
que la Tierra.
449
Las nubes azules y naranjas dibujan las cavidades creadas por el
material que salió disparado de la protoestrella y chocó con la materia
circundante. Los colores en sí se deben a las capas de polvo entre el
telescopio y las nubes. El polvo cósmico es menso transparente para
los fotones de longitud de onda pequeña -azul- que para los de onda
larga -roja-, por lo que en la imagen las zonas azules coinciden con
los sitios donde el polvo es más delgado. Mientras que las zonas
donde la capa de polvo es más gruesa, donde la luz azul escapa con
dificultad, se crearon las bolsas de color naranja. [5] También pueden
verse los filamentos de hidrógeno molecular con los que ha chocado
el material expulsado de la protoestrella. Esos choques y las
turbulencias dificultan la formación de nuevas estrellas, con la
consecuencia de que la protoestrella domina el espacio y se queda
con gran parte del material disponible. No obstante la espectacular
estructura, a L1527 le queda aún un largo camino por recorrer antes
de convertirse en estrella de pleno derecho.
En el siguiente capítulo vamos a desentrañar cómo las estrellas están
realmente condicionadas por sus circunstancias iniciales que las van
a llevar por caminos muy diferentes. Algunos realmente
apasionantes.
450
lyman-α emitters at the epoch of re-ionisation: spectroscopic
confirmation”, David Sobral et al.
[https://www.eso.org/public/archives/releases/sciencepapers/eso1524/eso1
524a.pdf]
3. “A single low-energy, iron-poor supernova as the source of metals
in the star SMSS J031300.36−670839.3”, S. C. Keller et al.,
Nature, febrero de 2014.
[https://arxiv.org/ftp/arxiv/papers/1402/1402.1517.pdf]
4. Recordad que la masa de las estrellas es un plasma de átomos
ionizados, en su gran mayoría núcleos de hidrógeno -protones- e
iones de helio en un perfecto chapuzón con los electrones que
perdieron en su ionización. La temperatura es altísima -en el Sol,
de unos 6.000K- lo que quiere decir que las partículas más ligeras
de este plasma, protones y electrones pueden saltar al exterior e
independizarse, iniciando un largo viaje a velocidades próximas a
la de la luz. En nuestro sistema ellos son lo que llamamos viento
solar.
5. A este fenómeno físico se le conoce en cosmología como
reddening, “enrojecimiento”. En astronomía el enrojecimiento
interestelar es un fenómeno por el que el espectro de radiación
electromagnética emitido por una fuente de radiación cambia sus
características. Se produce debido a la dispersión de la luz por el
polvo y otras materias en el medio interestelar. El enrojecimiento
elimina preferentemente los fotones de longitudes de onda más
cortas extinguiéndolos, mientras que no actúa, o lo hace con menos
intensidad, sobre los fotones de longitud de onda más larga,
dejando sin embargo a las líneas espectroscópicas sin cambios. Es
un fenómeno diferente al del corrimiento al rojo producido por el
alargamiento que experimenta, por efecto de la expansión del
Universo, la longitud de onda de una luz emitida.
451
31: De estrellas y agujeros negros [1]
452
hornos en donde se fusionaría el hidrógeno dando helio. He dicho
“podía conducir” ya que no en todos los casos se cebaba una estrella:
todo dependía de la masa que se estaba compactando. Lo vemos.
Si la cantidad de gases no era suficiente para la ignición, menos de
unas trece veces la masa de Júpiter, la bola cuasi estelar se reducía
a una buena cantidad de material muy caliente, oprimida por la
gravedad y contenida por las fuerzas electrostáticas y los
condicionamientos cuánticos de sus componentes: protones,
neutrones y electrones. Y así, con una superficie exterior a 1.000 K,
ir deambulando por el cosmos radiando energía infrarroja, cada vez
más frías e irreconocibles.
Si la masa de los gases que se estaban compactando era mayor, entre
13 y 80 veces la de Júpiter, la temperatura que se alcanzaba en el
núcleo era capaz de disparar la fusión del deuterio, aunque no la del
hidrógeno. El deuterio inicia su fusión a temperaturas de un millón
de grados kelvin, mientras que la del hidrógeno precisa una
temperatura de tres a cuatro millones de grados kelvin. En el rango
de masas considerado nunca se puede llegar a tamaña temperatura. A
pesar de ello ahora si va a nacer una estrella, una enana marrón,
aunque con poca fuerza: su superficie alcanzará quizás los 2.000 K,
con un color rojo profundo mientras quema todo su deuterio. Una vez
consumido este combustible y como no hay condiciones para la
ignición del hidrógeno, se irá apagando, irradiando irremisiblemente
su energía a través de la emisión de fotones infrarrojos.
Si la masa de gases es superior a la de 80 veces la de Júpiter la cosa
se pone más interesante ya que ahora sí se consigue iniciar la fusión
del hidrógeno, posibilitando una serie de caminos futuros que
lógicamente estarán condicionados por la masa inicial de materia que
se comprime. Con poca masa el consumo de hidrógeno se hace de
forma muy lenta, la temperatura que se alcanza es relativamente baja
y nuestra estrella dura, podríamos decir, “toda la vida”. El consumo
de hidrógeno es lento en gran medida porque estas estrellas son más
eficaces en el uso de su combustible: casi se puede decir que en su
interior no hay solamente un núcleo encendido rodeado por una
453
corona de plasma, sino que prácticamente toda la estrella se comporta
como un uno moviendo su energía por convección, aportando
continuamente más y más paladas de hidrógeno al horno. Eso es así
debido a que, al ser la fusión de las estrellas pequeñas muy lenta, la
temperatura del núcleo no llega a ser muy elevada por lo que, en
consonancia, tampoco lo va a ser la presión de la radiación como para
que el proceso radiactivo llegue a ser el principal método de
eliminación de la energía generada en la fusión. Es diferente a lo que
les sucede a las estrellas mayores, como el Sol, en las que la
transmisión de energía la hacen en gran medida en su interior por
radiación y en su parte más externa por convección.
Aún podemos observar estrellas enanas rojas de la época post
recombinación y se estima que puedan alargar su vida hasta mil veces
más que la edad actual del Universo. Lo cual las va a hacer
definitorias en el futuro lejano de nuestras galaxias. Lo veremos en
los últimos capítulos. Son un tipo de estrellas muy comunes de forma
que, de acuerdo con algunas estimaciones, representan las tres cuartas
partes de las estrellas de la Vía Láctea. De ellas Próxima Centauri es
la que está más cercana a nosotros a 4,22 años luz.
A medida que la masa es mayor la fusión del hidrógeno se debe avivar
ya que la compactación gravitatoria es mayor y hay que compensarla
con más radiación del horno nuclear. Las estrellas duran menos y son
más calientes, su luz irradia desde frecuencias en el rojo hasta el azul
e incluso el ultravioleta, siguiendo la regla de que cuanto mayor sea
la “energía-temperatura” menor va a ser la longitud de onda de los
fotones. Todas se comportan ya de forma estable dentro de lo que se
conoce como la secuencia principal que dibuja el diagrama
Hertzsprung-Russell (ver imagen siguiente). [2] La mayoría de las
estrellas pasan la mayor parte de sus vidas ancladas en ella y solo
saldrán de ella para morir.
A la derecha del diagrama, arriba, tenemos a las supergigantes rojas
con una superficie relativamente fría (por eso son rojas… emiten en
frecuencias muy bajas). Al ser tan grandes su luminosidad se
tremenda. Por el contrario, al otro lado izquierda-arriba las estrellas
454
son más pequeñas y sin embargo con parecidas luminosidades debido
a que emiten en azul (alta frecuencia… alta temperatura). Abajo a la
derecha tenemos a las enanas más frías, por lo que su luminosidad es
muy baja. Sin embargo, en las de la izquierda, a pesar de las altas
temperaturas en su superficie, la luminosidad es también baja, lo que
sucede por ser tan pequeñas.
456
cuánticas, se haga imposible una mayor compactación. Es lo que
conocemos como electrones degenerados resultado obligado por lo
que se conoce como principio de exclusión de Pauli. Se basa en la
exigencia cuántica de que dos partículas fermiónicas [3] no pueden
ocupar el mismo “espacio cuántico”. A medida que la estrella se
contrae, los átomos de su plasma van llenando con electrones los
niveles de energías inferiores que normalmente estarían desocupados.
Si se colocan en posiciones más próximas al núcleo, el átomo recorta
su volumen. Lo que crea una nueva situación de presión efectiva que
previene un colapso gravitacional adicional. A mayor masa mayor
presión gravitatoria, por lo que la reacción de los electrones deberá
ser mayor. Ello explica la curiosidad contraintuitiva de que mayores
masas, lo que parece deba ser mayores volúmenes, se correlacionan
con menores tamaños (radios).
458
presión está producida básicamente por la pérdida de energía
gravitatoria a medida que el helio se acumula más y más en el centro.
Energía de presión que es tan grande como para que la ignición
nuclear se traslade al plasma de hidrógeno que rodea a ese núcleo de
helio. El calor producido por la fusión en esta corona interna se
transmite a las capas más exteriores haciendo que la parte externa de
la estrella se expanda y crezca de tamaño. Como resultado de esta
expansión se enfríen las capas más externas de forma que parece que
la estrella tenga una superficie fría: una gran bola de sutil plasma con
una superficie a una, relativamente, baja temperatura que la hace
irradiar en la frecuencia de los rojos. Se ha llegado a “fabricar” una
gigante roja. La estrella acaba de abandonar la senda de la secuencia
principal como analizaremos con más detalle en el capítulo siguiente.
Es el futuro de nuestro Sol.
Pero en su interior aún sigue viva la fusión del hidrógeno que rodea
al núcleo. Más y más helio “cae” hacia ese núcleo incrementando su
densidad. Incluso se cree que, para masas relativamente pequeñas,
entre 0,5 y 2,5 masas de la del sol, en el núcleo se llega al límite de
los electrones degenerados. Lo normal es que en algún momento la
presión enciende el horno nuclear de helio. La presión y la
temperatura en el centro aumenta, aunque al seguir degenerado no
crece de tamaño a pesar de la continua “caída” de nuevo helio. Los
electrones contienen el volumen del núcleo. Podéis imaginar que la
situación se va haciendo altamente inestable. Hasta un límite en el
que podemos decir que el núcleo no puede más y estalla, lo que se
conoce como un flash de helio. Esta explosión llevaría a la completa
destrucción de la estrella si la tremenda cantidad de energía no fuera
absorbida y mitigada por la envoltura fría de la estrella que, como
consecuencia, se calienta y expande.
¿Qué está pasando realmente en el núcleo? La fusión del helio está
siguiendo un camino que se conoce como el de triple alfa. Una
partícula alfa es un núcleo de helio, dos protones y dos neutrones. En
el núcleo estelar se unen dos alfas, dos helios, para dar un núcleo de
berilio 8 que es muy inestable. Aunque si la fusión del helio es muy
459
rápida el berilio 8 consigue unirse a otra alfa, otro helio -el tercero-,
dando carbono 12, que tiene una dinámica de fusión muy eficaz con
un muy alto desprendimiento de energía. De forma similar el carbono
12 puede unirse a otra alfa para dar oxígeno 16 y más fotones.
4
He + 4He ↔ 8Be
8
Be + 4He ↔ 12C + 2γ (7,367 MeV)
Esos procesos de fusión son muy inestables y sensibles a las
variaciones de la temperatura, en un factor exponencial de 30. Lo cual
quiere decir que en cualquier momento cualquier pequeña variación
de temperatura puede acelerar de forma descomunal la fusión del
helio y, por tanto, incrementar sobremanera la temperatura del núcleo
estelar. Un flash casi instantáneo de energía y materia que atraviesa
empujando la “tenue” y poco comprometida gravitatoriamente
envoltura exterior de la estrella, haciendo que esa vaya perdiendo
material y se expanda cada vez más lejos de su centro.
El flash ha hecho que la estrella se “calme” reiniciando la quema del
helio a través del proceso tres alfa, pero ahora en un núcleo no
degenerado. El carbono generado progresivamente ocupa el centro
desplazando de nuevo la fusión, del helio e hidrógeno, a capas
externas. Estas se calientan, se expanden, por lo que se enfrían y
vuelven a caer hacia el núcleo. Fenómeno que va sucediendo en una
serie de pulsos, cada uno de los cuales aleja más y más la masa de
gases exteriores de la estrella. Al final casi todo el material de la vieja
señora se ha ido perdiendo por el espacio dibujando un bello halo
mientras en el centro va quedando un pequeño núcleo de helio,
hidrogeno, carbono y oxígeno.
Ese halo es conocido como nebulosa planetaria, aunque no tenga
nada que ver con una nebulosa. Hasta ahora se pensaba que, durante
el proceso de transformación hacia una nebulosa planetaria, la estrella
debía de perder parte de su materia de una manera paulatina y
constante en el tiempo. Pero ahora sabemos que no siempre es así
pudiendo darse el caso de que la materia no fluye de la estrella de una
manera continua, sino que lo hace de manera episódica. [6] A medida
460
que el combustible se va acabando el núcleo entra en un proceso de
compactación que lo va a llevar, ahora definitivamente sí, a formar
una enana blanca sujeta por electrones degenerados.
464
violentos ya que las fusiones se van haciendo más rápidas y
energéticas, la estrella va engordando por su más próximo exterior en
forma de capas de cebolla -ver figura de arriba-, gases preñados de
elementos nuevos que no habían aparecido durante las fases
posteriores al Big Bang, mientras en su centro el combustible se va
agotando. Llega el momento en que se acaban los procesos de fusión
justo en el escalón que fija la masa de partida.
467
de forma que, si no encuentra alguna fuente externa de nueva materia
en un plazo largo de tiempo, pero finito, nuestra “estrella” se enfriará
y frenará.
Con las estrellas de neutrones pasa algo semejante a lo que sucede en
los sistemas binarios con una enana blanca. También hay sistemas
binarios con una estrella de neutrones participando y depredando
material de su compañera. Ese material, en donde hay hidrógeno,
conforma un disco sobre la superficie de la estrella de neutrones.
Debido al giro y gravedad de esta última, el material del disco se
calienta de tal manera que llega un momento en que se alcanza la
temperatura de fusión del hidrógeno, que se produce de forma casi
instantánea produciéndose una rápida e intensa emisión de energía en
forma de rayos X. Es lo que en astronomía se conoce como un
estallido de rayos X.
También se ha observado otro tipo de estallidos, estos de rayos
gamma, por tanto aún más energéticos que los de rayos X, y con
procedencia muy alejada de nosotros, a miles de millones de años luz.
Lo curioso es que estas emisiones nunca se repiten desde una misma
posición ni están correlacionadas con ninguna superestructura del
universo, ya sea lejana o cercana. No sabemos muy bien cual pueda
ser la causa, aunque hay teorías que la centran en la creación de una
“bola de fuego” relativista que emite chorros de radiación. El origen
estaría en una explosión de una supernova o en la colisión y fusión
de dos estrellas de neutrones que formaran un sistema binario.
También se han detectado emisiones misteriosas por el otro lado de
la banda de frecuencias, lo que conocemos como ráfagas rápidas de
radio (FRB, por sus siglas en inglés). ¿Qué las provoca? ¿de dónde
provienen? Se trata de unos fenómenos astrofísicos muy abundantes,
de gran energía, de origen desconocido que se manifiesta como un
pulso de radio fugaz que dura en promedio unos pocos milisegundos.
Vienen de muy lejos de nuestra galaxia, quizás a miles de millones
de años luz de distancia. Se ha pensado que podrían ser el resultado
de algunos eventos únicos y particulares como la colisión de dos
estrellas de neutrones o de una estrella de neutrones y un agujero
468
negro. O los estertores de muerte de pequeños agujeros negros que se
formaron poco después del Big Bang. Pero la repetición de las ráfagas
dese un mismo sitio y la posibilidad de que todas las ráfagas se repitan
de manera similar si se observan durante el tiempo suficiente, parecen
argumentar en contra de los procesos únicos. El “culpable” favorito
es un magnetar. Otra posibilidad son las nebulosas de viento púlsar,
que se formarían justo después de que una estrella gigante explota
como supernova dejando un púlsar. [8]
Demos ahora un paso más en la escala ascendente de masa inicial de
la estrella. Por encima de la que nos ha llevado a una “estrella” de
neutrones. Hasta un nivel en que la presión gravitatoria incluso vence
la presión de los neutrones que contenían la geometría de la estrella
de neutrones. Entonces no hay un más allá “normal”, no es que se
rompan los neutrones generando por ejemplo una estrella de “quarks”
degenerados. Creemos.
473
NOTAS DEL CAPÍTULO 31:
1. Este capítulo no tiene su entrada en el blog “El Cedazo”, pero me
parece indispensable el incorporar el tema a este libro. Realmente
en el blog “El Cedazo” no cabía tal decisión ya que redundaba lo
escrito por el alma mater del mismo, Pedro Gómez Esteban, el cual
había dedicado unas cuantas entradas geniales en su blog “El
Tamiz” a tan interesante tema que queda en las redes como “La
vida privada de las estrellas”. E incluso plasmado en un libro
homónimo.
[https://eltamiz.com/la-vida-privada-de-las-estrellas/]
[https://eltamiz.com/libros/]
2. Si se correlaciona la temperatura superficial de la estrella, su color,
con la intensidad de la luz que emite, dibujamos el conocido
diagrama de Hertzsprung-Russell. Podemos observar que una
gran mayoría de ellas dibuja una curva muy característica
conocida como la secuencia principal. Su color no deja de ser más
que la frecuencia más intensa con que irradia sus fotones, su
temperatura. La intensidad de la luz que emite, su brillo real, es la
cantidad de fotones que emite. Aunque la intensidad es función
mezcla de su temperatura y su volumen, debemos hacer esta
advertencia: un pequeño volumen a gran temperatura puede ser
más luminoso que una gigante fría.
[https://es.wikipedia.org/wiki/Secuencia_principal]
3. Como ya sabemos desde los primeros capítulos un fermión es uno
de los dos tipos básicos de partículas elementales que existen en la
naturaleza (el otro tipo es el bosón). En el modelo estándar de
física de partículas existen dos tipos de fermiones fundamentales,
los quarks y los leptones (estos últimos lo constituyen la familia
de electrones, muones y tauones, y los neutrinos). Los fermiones
se caracterizan por tener espín semientero (1/2, 3/2, ...) cualidad
que hace imposible que varios ocupen un mismo lugar.
4. Límite de Chandrasekhar, que es la máxima masa posible de una
estrella de tipo enana blanca calculada teniendo en cuenta las
velocidades relativistas de los electrones degenerados con
aseguran la estructura estelar. Si se supera este límite la estrella
474
colapsará para convertirse en un agujero negro o en una estrella de
neutrones.
5. Las estrellas de masa baja, menor que 0,5 masas solares,
conforman enanas blancas de helio. Entre 0,5 y 8 masas solares,
enanas blancas de oxígeno y carbono. Entre 8 y 10, enanas de
oxígeno y neón. El 99% de las enanas blancas está constituido
básicamente por carbono y oxígeno.
6. V Hya es una estrella variable, rica en carbono, ubicada a 1.300
años luz de distancia en la constelación de la Hidra. En esa gigante
roja la materia no fluye de la estrella de una manera continua, sino
que lo hace de manera episódica, con explosiones que se producen
de manera periódica, dando lugar a una serie de anillos en
expansión que van agregando masa y alimentando el crecimiento
de una estructura más exterior, con forma de disco, que ha ido
formándose, rodeando a la estrella. Su dinámica particular en la
fase de gigante roja ha sido relatada en el siguiente articulo “The
rapidly evolving AGB star, V Hya: ALMA finds a multi-ring circus
with high velocity outflow” de Raghvendra Sahai et al., The
Astrophysical Journal, 2022.
[https://iopscience.iop.org/article/10.3847/1538-4357/ac568a/meta]
7. La palabra púlsar proviene del acrónimo en inglés “pulsating
star”, estrella pulsante.
8. Para más información ver “Core Concept: Unraveling the enigma
of fast radio bursts”, Adam Mann, PNAS marzo 2017.
[https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5380068/]
9. “First M87 Event Horizon Telescope Results. I. The Shadow of the
Supermassive Black Hole”, The Event Horizon Telescope
Collaboration, Kazunori Akiyama et al., The Astrophysical
Journal Letters, abril 2019.
[https://iopscience.iop.org/article/10.3847/2041-8213/ab0ec7]
10. Realmente se le conoce como radio de Schwarzschild, 2GM/c2,
siendo G la constante gravitatoria, M la masa del agujero negro y
c la velocidad de la luz. Podemos imaginar que define una especial
superficie en donde la velocidad de escape sea la de la luz. Similar
a la velocidad de escape que hay que proporcionar a un cohete que
475
“huya” de la Tierra, 11,19 km/s, para no caer jamás (a no ser que
con algún sistema de propulsión le hagamos dar la vuelta). He
usado la palabra superficie por fijar un límite físico, aunque un
agujero negro no tiene superficie. Simplemente es una frontera de
información: no somos capaces de que nos llegue lo que hay
dentro de ella.
11. Según el principio de incertidumbre de Heisenberg a partir del
vacío cuántico se pueden generar partículas. La condición es que
la energía aparecida de la nada y transformada en masa/energía de
esas partículas tiene que ser devuelta al vacío en un tiempo
mínimo. Tanto más mínimo cuanta sea la cantidad de energía/masa
prestada. Ver nota 10 del capítulo 02. Si un par de esas partículas
virtuales se generan en las proximidades del horizonte de sucesos
de un agujero negro y disponen de una vida media lo
suficientemente “larga” como par que una de ellas caiga en el
interior del horizonte, mientras que la pareja queda libre fuera,
puede darse el caso que la energía prestada por el vacío no sea
devuelta directamente del par de partículas virtuales sino del
campo gravitatorio en donde han caído y donde se han hecho ya
reales e independientes.
12. La temperatura de un agujero negro en su horizonte de sucesos
viene determinada por la siguiente fórmula
T=
En la que h es la constante de Planck, c la velocidad de la luz, k la
constante de Boltzmann, G la constante gravitacional y M la masa
del agujero negro. Como vemos cuanto menor sea el agujero
mayor es la temperatura y por tanto su radiación: los agujeros
negros pequeños se diluyen rápidamente luchando contra el salto
térmico que fija la “temperatura ambiente” del Cosmos, que hoy
en día es de 2,7 K. Se sabe que según la formula anterior la
temperatura de un agujero negro con unas pocas masas solares es
del orden de 10-6 K y si la masa es mayor, aún más frío. Un gran
problema que se va a solucionar con el tiempo gracias a la
476
continua expansión del Universo que lo va a enfriar hasta
temperaturas incluso inferiores.
13. Como puedan ser los cuásares o los fenómenos que caracterizan
a las galaxias activas de las que hablábamos en el capítulo 28.
477
32. La senda de las estrellas [1]
478
segundo, unos ventiladores atómicos y moleculares que permitan el
que la temperatura en la masa acumulada vaya dispersándose hasta
que se consigue un nivel que equilibre la presión de la compactación
gravitatoria de tal masa;
tercero, que en el equilibrio se alcance en el centro del grumo estelar
la temperatura precisa para doblegar por velocidad la repulsión
electromagnética de los protones, concentrados en un volumen muy
comprimido, y así encender el horno nuclear;
cuarto, la fusión puede llevarse a cabo en el centro o en zonas
exteriores, con mayor o menor intensidad en uno u otro lugar. La
estrella es un cuerpo plasmático que no tiene la misma densidad en
todos los lados. Hay un núcleo y una parte externa. La dinámica de la
fusión dependerá de lo que haya en cada lugar y en cada momento;
quinto, la integridad estelar no depende sólo de que la compactación
sea balanceada por la radiación de la fusión. Dependiendo de la
cantidad de masa va a haber situaciones en las que no va a ser la
energía de la fusión la que soporte al “cuerpo” sino que lo va a hacer
la presión de sus componentes “degenerados”, inicialmente los
electrones libres y más al límite de masas los neutrones;
sexto, para preservar la integridad, la energía de la fusión tiene que
ser necesariamente exportada fuera de la masa estelar. Todo
dependerá de la “transparencia” del medio interno de la estrella.
Puede ser que la radiación (energía) tras muchos choques llegue a
salir, o puede ser que las masas calientes se muevan por el interior
gracias a la convención llevando la energía a la superficie.
Según sean los posibles caminos que fijen las condiciones anteriores,
la superficie de la estrella (i) tendrá más o menos temperatura y su
“cuerpo” estará más o menos caliente por lo que (ii) se habrá
expandido más o menos (más o menos volumen). Todo ello será
decisivo para que la estrella brille más o menos: mucha temperatura
superficial… más brillo; para una misma temperatura superficial si el
volumen (superficie exterior) es mayor… el brillo será mayor. Y lo
contrario. Teóricamente una estrella puede ser grande y brillar poco
479
porque su superficie está muy fría, o puede ser pequeña y brillar
mucho por estar muy caliente. Cualquier situación puede ser válida
para una estrella y no solo durante la fase estable de su existencia. Lo
podemos observar en el diagrama H-R.
Las estrellas van variando sus condiciones físicas a medida que van
consumiendo el combustible; o a medida que van cambiando sus
condiciones de presión y temperatura; o tal vez por iniciar la quema
de un combustible secundario distinto al hidrógeno. Ya lo vimos en
el capítulo anterior. Es importante darse cuenta de que la secuencia
principal en sí misma no es una pista evolutiva: las estrellas no
evolucionan a lo largo de ella. Más bien es sólo una "estación de
paso" en el diagrama H-R donde las estrellas se detienen y pasan la
mayor parte de sus vidas. A pesar de la tendencia a permanecer
siempre en un mismo punto dentro de la GG secuencia principal no
sucede lo mismo en los primeros balbuceos o en los últimos
estertores. Por muy largos que sean esos últimos. La vida las va a
llevar a deambular por otros parajes del diagrama H-R. Y es esta
“aleatoriedad” la que vamos a intentar desentrañar en este capítulo.
Nos vamos a centrarnos en una estrella de Población I como nuestro
Sol. Y vamos a analizar cómo fue su gestación desde que una nube
de gas interestelar y elementos pesados comenzaba a concentrarse. El
destino va a ser el encaje largamente transitorio de la estrella en la
senda de la secuencia principal.
El proceso se inicia al generarse una densa nube interestelar, quizás
una nube de polvo o una nube molecular, que poco a poco se vuelve
inestable y comienza a colapsar y a romperse en pedazos más
pequeños. Cada uno de los cuales imita el comportamiento de
compactación de la nube principal, contrayéndose cada vez de forma
más rápida. Son las semillas de futuras estrellas.
¿Qué pasa dentro de uno de esos fragmentos que colapsan? Nos
vamos a fijar en alguno que tenga de una a dos masas solares. Al
principio, a pesar de que colapsa más rápidamente que la nube de gas
madre, no logra calentarse sustancialmente ya que la creciente
480
radiación que se opone al colapso con su presión atraviesa fácilmente
la masa y se pierde llevando parte de la energía. Poco a poco eso va
cambiando, empezando lógicamente en su centro que es donde se
densifica antes. Cuando el tamaño del fragmento que se está
consolidando en la nube aún es como el del sistema solar, en su centro
puede llegar a alcanzarse la temperatura de 104 K, aunque su parte
más externa sigua relativamente fría, puesto que al ser menos densa
es más transparente para la radiación que así puede irradiar
fácilmente su energía al exterior. Por primera vez nuestro fragmento
comienza a parecerse a una estrella: la región densa y opaca del
centro se denomina protoestrella que está rodeada de una más tenue
fotosfera. En esos momentos ya ha empezado a aplanarse y gestar un
disco exterior como consecuencia de que el fragmento de gas
comienza a girar más rápidamente al contraerse. Ese disco aplanado
será la masa madre donde nazca su sistema planetario.
A medida que la protoestrella evoluciona siguiendo el anterior
camino de acreción y disminución de volumen, su densidad crece y
la temperatura va aumentando tanto en el núcleo como en la fotosfera.
Lo que hace que tímidamente comience a brillar con más intensidad.
Estamos en la fase a de la imagen de más abajo. Al cabo de unos
100.000 años, a pesar de que la temperatura en el centro es de unos
106 K, aún no se puede encender el horno nuclear, le queda poco.
Recordemos que hay que llegar a tres o cuatro millones de grados
kelvin. Su superficie, sin embargo, tiene una temperatura mil veces
menor, pero al ser aún su volumen tan grande, del tamaño de la órbita
de Mercurio, la protoestrella tiene una luminosidad tremenda, muy
superior a la del Sol. Con esas características ya puede ir asomando
la nariz en el diagrama H-R, aunque aún le queda para llegar a un
estable equilibrio termodinámico. El calor interno de la protoestrella
se difunde gradualmente desde el centro caliente hacia la superficie
más fría, donde se irradia hacia el espacio. Como resultado, la
contracción general se hace más lenta, pero no se detiene por
completo: la protoestrella del tamaño de la órbita de Mercurio
comienza a disminuir de volumen por lo que rápidamente cae en
481
picado en el diagrama H-R mientras aún se mueve, ahora lentamente,
hacia la izquierda de mayores temperaturas. Fase b.
En estos momentos está siguiendo un camino mucho más pausado
que en sus inicios, manteniendo una pauta de mayor temperatura y
menor volumen y luminosidad. La contracción se rige en gran medida
por la velocidad a la que la energía interna de la protoestrella se puede
irradiar hacia el espacio. Cuanto mayor sea esta radiación de energía
interna, es decir, cuanto más rápido se mueva la energía a través de
la estrella para escapar de su superficie, más rápido se producirá la
contracción.
482
valor de 107 K, necesario como para que los protones tengan la
suficiente energía térmica que les permita superar su mutua repulsión
electromagnética: se inicia la fusión nuclear del hidrógeno. La
temperatura de la superficie de la estrella en este punto es de unos
4.500 K, todavía un poco más fría que la del Sol. Y aunque la estrella
recién formada tiene un radio ligeramente más grande que nuestro
Sol, su temperatura más baja significa que su luminosidad es algo
menor del valor solar.
Ya solo le queda contraerse un poco más para anclarse
definitivamente en la senda de la secuencia principal, cuando justo ha
conseguido el equilibrio entre la velocidad a la que se genera la
energía nuclear en el núcleo y la velocidad a la que se irradia la
energía desde la superficie. Ha comenzado la combustión del
hidrógeno en su núcleo. Y ahí quedará durante unos diez mil millones
de años más, aproximadamente. Fase d.
Nos podemos preguntar qué es lo que les pasa a las estrellas que no
son de masas semejantes a la del Sol. En principio les va a pasar lo
mismo, acabarán en algún momento en la secuencia principal…
aunque a distintas velocidades y con distintas trayectorias. De los
fragmentos más masivos dentro de las nubes interestelares van a
surgir las protoestrellas más masivas y, posiblemente, las estrellas
más masivas. De manera similar, los fragmentos de baja masa dan
lugar a estrellas de baja masa. La masa condiciona en gran medida el
tiempo necesario para que una nube interestelar se convierta en una
estrella de la secuencia principal. Los fragmentos de nubes más
masivos se calientan hasta los 10 millones K requeridos y se
convierten en estrellas en apenas un millón de años,
aproximadamente 1/50 veces el tiempo que tarda el Sol. Lo contrario
sucede con los objetos pre estelares que tienen masas menores que la
de nuestro Sol. Una estrella típica requiere casi mil millones de años
para formarse.
Pero como ya hemos anunciado las estrellas no se quedan en la
secuencia principal. Cuando empieza a fallar el combustible
hidrógeno el motor “ratea” y empieza una deriva.
483
A medida que se va quemando el hidrógeno del núcleo se transforma
en helio. Como este elemento es más denso “cae” al centro de la
estrella desplazando al hidrógeno hacia una capa más exterior
mientras el núcleo se va comprimiendo cada vez más. Después de
unos diez mil millones de años prácticamente todo el centro es helio
con lo que el proceso anterior se acelera. Como todavía no se alcanza
la temperatura suficiente para la ignición del helio no hay presión que
se oponga a la compactación. Al tener los núcleos de helio dos
protones la repulsión entre ellos es mayor que la que sufrían los
protones del hidrógeno, por eso se precisa una mayor temperatura,
aproximadamente diez veces más: 108 K. Sin embargo, el hecho de
que esté subiendo la temperatura hace que el hidrógeno que ha sido
empujado hacia una capa más exterior acelere su fusión que se hace
más rápida que cuando lo hacía en el núcleo. La consecuencia es que
la estrella aumenta de volumen en las capas exteriores por lo que cae
su temperatura, aunque su luminosidad crece ligeramente al tener una
mayor superficie exterior.
484
este cambio inexorable. Mientras que el núcleo se encoge y se
calienta, las capas superiores se expanden y se enfrían. Fase e.
La superficie se está volviendo tan fría que casi no podría irradiar por
lo que el plasma interno parece como si se hubiera vuelto opaco a la
radiación de adentro. Entonces comienza un nuevo proceso de
transporte de energía en la estrella: la convección transporta la
enorme producción de energía del núcleo a la superficie que recibe
un nuevo estímulo para seguir y seguir creciendo. La estrella se hace
tan grande, cien veces el sol, que a pesar de la moderada temperatura
brilla casi mil veces más que cuando salió de la secuencia principal.
Los fuertes vientos estelares expulsan grandes cantidades de materia
de la superficie de una estrella que pueden perder hasta un 30% de su
masa. La estrella se ha convertido en una gigante roja. Fase f.
En esos momentos si la estrella no es demasiado masiva, cosa que
haría que los desequilibrios internos la destruyeran, se comienza a
cambiar la dinámica: el núcleo va a dejar de contraerse y la parte
exterior a él dejará de expandirse ¿por qué? En el momento en que la
densidad central ha aumentado a alrededor de 108 kg/m3 (Fase f), la
temperatura ha alcanzado los 108 K necesarios para que el helio se
fusione en carbono y el horno central se vuelva a encender. La
reacción que transforma el helio en carbono se produce en los
siguientes dos pasos conocidos como la reacción triple alfa (a un
núcleo de He -dos protones más dos neutrones- se le conoce como
partícula alfa):
4
He + 4He 8Be + energía
8
Be + 4He 12C + energía
Para estrellas comparables en masa a la del Sol, surge una
complicación cuando la situación pudiera derivar hacia la fusión del
helio. Complicación que viene de la existencia de los infinitos
electrones libres en el plasma cuyo número, evidentemente, tendrán
una relación directa con la masa de la estrella. Son los que
inicialmente fueron pareja de los protones en los núcleos de
hidrógeno y helio. Su velocidad es tan grande en el cada vez más
485
pequeño núcleo comprimido que comienzan a verse dirigidos por la
física cuántica. Llegará un momento en que dos electrones no podrán
aproximarse más entrando en escena el principio de exclusión de
Pauli que dice que dos partículas elementales no pueden ocupar el
mismo espacio físico. Los electrones están degenerados. Eso implica
que la presión asociada al contacto de las partículas es capaz de
contener la compactación del núcleo que se comporta como un
bloque en el que la presión es independiente a su temperatura. Si en
esas circunstancias se inicia la fusión del helio podéis imaginar las
consecuencias: la presión contenida por los electrones degenerados
apenas varía, aunque el horno está a pleno rendimiento, lo que hará
que la temperatura aumente de forma brutal y descontrolada. Se va a
producir lo que se conoce como un flash de helio. Todo esto lo vimos
en el capítulo anterior.
488
fluctuaciones en la intensidad de la radiación que llega a las capas
más externas de la estrella, lo que hace que esas capas latan
violentamente: un ciclo creciente de pulsos en el que la envoltura se
calienta, se expande, se enfría y luego se contrae repetidamente. Las
inestabilidades tanto del núcleo como en las capas exteriores hacen
que prácticamente toda la envoltura de la estrella sea expulsada al
espacio en menos de unos pocos millones de años.
490
NOTAS DEL CAPÍTULO 32:
491
33: La estructura del Universo
hoy
Con lo dicho hasta el capítulo anterior parece que ya podríamos echar
el cierre a la biografía del Universo. Habían pasado más o menos
13.800 millones de años desde aquello que creemos fue una excursión
cuántica desde el vacío, una inestabilidad de energía que logró
escapar del principio de incertidumbre con la ayuda de la gravedad.
Poco más tarde pasó por un episodio tremendamente expansivo en el
que su tejido creció a velocidades mayores que la de la luz, durante
el que se recargó de energía. Esta energía se convirtió en materia y
radiación y aún le quedó impulso que dura incluso hoy en día. En el
camino se formaron átomos y cúmulos de materia que devinieron en
galaxias y estrellas. Perfectamente ordenadas, según los patrones que
fijó la inflación. La historia de nuestra Universo está acabada, pero
procede explicar cuál es el grupo escultórico que podemos
contemplar hoy, poso del paso dinámico de lo sucedido. Vamos a ver
cuál es la estructura que el Universo presenta a nuestros ojos.
497
filamento que se extiende desde el Cúmulo de Fornax al Cúmulo de
Virgo, posiblemente dentro de otro supercúmulo, el de Laniakea, que
se encuentra junto al de Virgo.
Laniakea parece ser una realidad cada vez más evidente. La base de
esta mayor certeza la encontramos en las cada vez más sofisticadas
técnicas de análisis que nos ofrece la tecnología. Hoy en día comienza
a ser habitual analizar la dinámica del movimiento de galaxias y
cúmulos en simulacros 3D. La idea es muy sencilla: Cada día los
astrónomos disponen de catálogos de galaxias más completos y hasta
distancias más lejanas. Los catálogos recopilan todo tipo de
información, entre otra, el lugar de la galaxia con respecto a nosotros
y la velocidad de alejamiento con respecto a nosotros.
500
un tamaño de alrededor de 1.000 millones de años luz de largo y 150
millones de años luz de ancho, siendo una de las mayores estructuras
identificadas hasta ahora en el universo. El complejo está compuesto
por cerca de 60 supercúmulos y se estima que tiene una masa total de
1018 masas solares.
Tamaño monstruo es superado por los más de 1.370 millones de años
luz de la Gran Muralla Sloan, que está situada a una distancia de mil
millones de años luz de la Tierra. Pero no os asustéis, que hay más:
U1.11 es un grupo de cuásares -hasta 38- con un tamaño aparente de
2.550 millones de años luz. Quizás penséis que U1.11 os va a hacer
caer de espaldas al suelo y que ya no hay más… ¡Pues no! La Gran
Muralla de Hércules-Corona Boreal, a la que también se le conoce
por Complejo de supercúmulos de Hércules-Corona Boreal, es una
inmensa superestructura de galaxias ¡no hay adjetivos! Su estructura
es un filamento galáctico formado por un gigantesco grupo de
galaxias asociadas por la gravedad. Tiene cerca de 10.000 millones
de años luz en su mayor dimensión -que representa aproximadamente
un noveno del diámetro del universo observable- por 7.200 millones
de años luz en la otra. Lo que constituye la estructura más grande y
masiva conocida en el universo observable.
Pero, si a pesar de todas estas estructuras masivas seguimos diciendo
que el universo es homogéneo a grandes escalas, es porque hay más
vacío que materia. En nuestras esponjas cósmicas hay más huecos
que paredes que representan alrededor del 50 % del volumen total del
universo cercano, aunque solo contienen del 5 al 10 % de su masa.
Se los conoce como Vacíos, en donde encontramos muy pocas
galaxias. O quizás ninguna. Los vacíos más grandes, los súper vacíos,
están situados en los espacios de baja densidad del Universo y pueden
ser de unos tamaños del entorno unos pocos centenares de millones
de años luz. Se cree que los vacíos se formaron en los procesos de las
ondas acústicas generadas tras el Big Bang. Recordad del capítulo
15 cómo la masa bariónica en el plasma primordial era desalojada de
los pozos gravitatorios de la materia oscura por la gran presión de la
radiación, y vueltos a recuperar en parte por la misma materia oscura.
501
En los movimientos de impulsión y colapso de estas masas de materia
bariónica se produjeron las semillas de los vacíos. Lo que observamos
ahora es el exterior de aquellos huecos primordiales rodeados de
materia, que quedaron congelados en el momento del reagrupamiento
de núcleos y electrones y que la expansión continua del universo nos
ha traído hasta hoy en forma de superestructuras.
Justo en las cercanías de nuestro Grupo Local tenemos al Vacío…
Local, ¡cómo no! Es de tamaño medio, a pesar de que tenga unas
dimensiones, según en la dirección donde se mida, de unos 230 a 150
millones de años luz ¡Y sus paredes se abren a una velocidad de 260
kilómetros cada segundo! Muy parecido en tamaño tenemos al Vacío
de Boötes o Gran Vacío, que es una gigantesca región esférica
del espacio de 250 millones da años luz de diámetro, que contiene
muy pocas galaxias. Para hacernos idea de lo vacío que está diremos
que cada megapársec cúbico del universo observable contiene 12
galaxias. [6] El vacío de Böotes tiene un volumen de unos 236.000
megapársecs cúbicos. Por lo que en el vacío de Böotes tendríamos
que encontrar unos 2.832.000 galaxias… y sólo hay 60.
Como estaréis pensando, esos vacíos son un derroche de “nada” …
aunque no del todo. Porque ambos no le llegan a la altura del zapato
del Vacío Gigante, ubicado en la constelación de los Lebreles, una
burbuja de 1.000 o 1.300 millones de años luz de diámetro, dentro de
la cual hay una región esférica de unos 160 millones de años luz de
diámetro en donde andan “flotando” hasta 17 cúmulos de galaxias
que, dada la baja densidad del “agujero”, no interactúan
gravitatoriamente entre ellas. Por eso lo de “flotando”. No se acaba
aquí las megalomanías del Cosmos. En 2013 se publica la existencia
de algo aún más grande, una gran esfera de baja densidad de unos
2.000 millones de años luz de diámetro, a la que, en honor a sus
descubridores, se le llama Vacío KBC. [7] Nos cabe el honor de que
vivimos en ese vacío.
¿Será KBC el fin de la lista? No creo… la película puede continuar
porque el Universo no dejará nunca de sorprender a los humanos.
502
Vamos a acabar esta descripción del museo de las cosas terroríficas…
sí, ya sé que no son terroríficas, pero sus magnitudes me
sobrecogen… con dos últimas curiosidades que nos regala la
observación de nuestro Cosmos. Son aspectos muy particulares pero
que nos permiten ver la riqueza de formas que nos lega la dinámica
del Universo. Y quién sabe si estas formas particulares no sean tan
particulares y se repitan a lo largo y ancho del espacio.
503
que generalmente la mayor de las fluctuaciones primordiales de
temperatura del CMB se produce con escalas angulares de alrededor
de 1°. El Vacío de Eridanus no encaja bien en nuestros modelos
teóricos. Hay dudas y se especula que bien pudiera ser causado por
algo más cercano, algo que se interpone en el camino de los fotones
de fondo en su viaje hacia la Tierra.
Por último, vamos a hablar de algo realmente inquietante. Tras el gran
Supervacío de Eridanus creíamos que en el Universo no podía haber
nada más absoluto y misterioso… pero nos equivocamos. Los
sudores fríos de vértigo se apoderan de nuevo de nosotros ante estas
dos palabras: Gran Atractor. Pero que no cunda el pánico. No es tan
misterioso como parece, ya que creemos que no deja de ser más que
el mero resultado de la atracción gravitatoria producido por “algo” de
masa equivalente a una concentración de decenas de miles de
galaxias.
Nuestro Grupo Local de galaxias se mueve con respeto al fondo
cósmico de microondas a una velocidad de 631 ± 20 km /seg. Desde
hacía tiempo se sabía que algo había en el centro del Supercúmulo de
Virgo que arrastraba a las galaxias inmersas en una región de
millones de años luz. Observábamos que se alejaban de nosotros, lo
que podía ser debido al conocido desplazamiento implícito en la
expansión del espacio/tiempo. Pero se llegó a pensar que también
podía ser debido a la atracción gravitatoria de una desconocida gran
masa de materia, ya que más allá, como si se tratara de una región
diametralmente opuesta, hay galaxias cuya luz presenta un
corrimiento al azul, lo cual quiere decir que se están acercando a
nosotros. La cosa no estaba muy clara, dado que el posible centro
atractivo se escondía detrás del halo de nuestra galaxia, oculto por su
denso disco de polvo, gases y estrellas.
Pero la tecnología llegó en nuestra ayuda. Fuimos capaces de mirar
más allá de lo que se podía hacer con las frecuencias del espectro de
lo visible para nuestros ojos y aprendimos a mirar con visión de rayos
X. La luz visible no pueda atravesar las nubes de gas y polvo que
rellenan las galaxias, pero sí que pueden hacerlo los energéticos rayos
504
X. Así que nos pusimos a mirar en esta frecuencia hacia la zona donde
se sabía debía estar el misterioso centro de atracción. El análisis
reveló que en la región donde debería estar el Gran Atractor, entre
150 y 250 millones de años luz lejos de nosotros, hay una estructura
dominante, un cúmulo de galaxias unas mil veces más masivo que la
Vía Láctea, que conocemos como Cúmulo de Norma y que justifica
un 10% de la teórica masa del Gran Atractor.
506
9,27 x 1052 kilos de materia del Universo, se nos ha permitido
conocer.
Hemos llegado al último día de nuestra biografía, por ahora, hoy. El
fin de una historia de hechos físicos -a veces la ignorancia nos dice
que también puedan ser matemáticos- pero que tiene más poesía que
la que surge espontáneamente al contemplar el mar de luces cósmicas
en la noche. Cuando volvamos a elevar la mirada a la profundo
bóveda celeste ya no nos vamos a conformar con ver simplemente lo
que nuestros ojos aprecian. Pensaremos que todo un piélago de
materia desconocida para nosotros, la materia oscura, nos contempla.
Cerraremos unos instantes nuestros párpados e imaginaremos la gran
nube negra que rodea a cada lejano punto luminoso, sin la que éste
no existiría. Un mar aún mayor de energía oscura que tira y tira
dilatando las carnes del soporte de nuestras existencias. Unos océanos
de fuegos y gases respondiendo a unas sencillas leyes que dibujan
belleza en la oscuridad. Un misterio de la duda ante lo inabarcable.
Ante esa contemplación espero, estoy seguro, que viviréis un
momento mágico lleno de emociones y cargado de belleza.
Mientras… imaginemos el futuro.
508
34. Y a partir de ahora ¿qué?
512
Haya otros casos teóricos en los que parece que el factor w puede ser
incluso un poquito inferior a -1, lo cual nos lleva a algo que se llama
energía fantasma que implica energías negativas y otras cosas raras.
Ya hablaremos más adelante acerca de lo que supondría para el
Universo el que la energía oscura fuera energía fantasma.
Componente W ρ
Radiación 1/3 α a-4
Materia no relativista 0 α a-3
Constante cosmológica -1 constante
Energía fantasma < -1 incierta
513
En esta proporcionalidad aparece un nuevo parámetro adimensional
a, conocido como factor de escala, que varía con el tiempo.
Conceptualmente quiere decir cuánto ha crecido entre dos momentos
ti una distancia genérica -pensemos que entre A y B- debido a la
expansión del Universo. Podemos visualizarlo así
𝟐
𝟐
𝒂̇ 𝟖𝝅𝑮𝝆 + 𝜦𝒄𝟐 𝒌𝒄𝟐
𝑯 = = − 𝟐
𝒂 𝟑 𝒂
514
en donde ρ es la densidad de materia/energía en el Universo -incluye
también el efecto de la presión interna del sistema-, Λ la constante
cosmológica [4] y k la curvatura del tejido espacio/tiempo. Vamos a
razonar un poco con lo que a simple vista nos dice la ecuación y
veamos hasta donde nos lleva.
Hagamos primero un sencillo ejercicio de imaginación con el término
intermedio donde aparece el factor de escala a. Vamos a multiplicar
imaginariamente numerador y denominador por X, siendo X una
distancia entre dos puntos cualquiera del Universo. Con eso en mente
nos podemos dar cuenta que ese término imaginado es el cuadrado de
la velocidad con que varía el segmento cósmico X, dividido por el
propio segmento X; es decir, la velocidad con que se separan los
extremos de X dividido por la distancia entre esos dos puntos.
Efectivamente, tal como anuncia el primer término de la ecuación, se
trata del cuadrado de la constante de Hubble. Vemos pues un primer
fruto indispensable para nuestro propósito: usando las ecuaciones de
Friedmann podremos calcular cómo se expande el universo en
función del tiempo.
Miremos ahora a la derecha de la igualdad. El primer término
representa la lucha entre la materia/energía y la constante
cosmológica, la energía oscura. La dinámica de la expansión del
Universo depende del valor de la densidad ρ de su materia/energía y
del valor de la constante cosmológica Λ. Con sus efectos gravitatorios
opuestos, la primera favorece la compactación mientras que la
segunda ayuda a lo contrario ¿quién ganará? En el momento actual
parece que el pulso se lo está llevando la energía oscura Λ aunque no
fue así con anterioridad. [5]
Pero asimismo podemos ver en la ecuación de Friedmann que esa
batalla también se ve modificada por el efecto de la curvatura k del
Universo. Para un mismo inventario energético no sería lo mismo ver
como crece/decrece un mundo cerrado en sí mismo siguiendo una
geometría esférica, o un mundo de geometría plana o uno abierto en
forma de Pringles o de silla de montar. Parece que la geometría de
nuestro particular Universo es de tipo plana, con una k=0, en el que
515
la suma de las densidades de los tres elementos que lo integran,
radiación, materia y energía oscura, es igual a la crítica. Lo hemos
podido comprobar gracias a distintas verificaciones basadas en la
observación del Cosmos, entre otras, lo que nos dice la radiación de
fondo de microondas como ya lo estudiamos en el capítulo 18.
Echemos ahora una ojeada a los dos bloques que se restan en la
ecuación de Friedmann. Para el caso de materia no relativista (la
materia “normal” para entendernos, aunque el razonamiento sirva
también para un Universo de radiación) el primer bloque, el de la
densidad ρ, tiene que variar en el tiempo de acuerdo a como varíe el
volumen, es decir, de acuerdo con a-3 [6] mientras que el segundo, la
curvatura, vemos que lo hace según a-2. Densidad de energía vs.
curvatura. Como con el tiempo la expansión va incrementando el
factor de escala a(t), podemos inferir que a la par van disminuyendo
los valores de ambos sumandos. Aunque el ritmo de disminución
provocado por el factor a-3 lógicamente va a ser mayor que el
provocado por el factor a-2. Lo que quiere decir que, en el caso de un
universo cerrado con k positivo, el sumando de densidad va a ir
perdiendo posición frente al de curvatura. En algún instante la
constante de Hubble, inicialmente positiva, se hará cero momento en
el que la expansión va a pararse pasando la gravedad a dominar la
dinámica del universo. Podemos pensar que, consolidada esa
coyuntura, aun habiendo mucha energía anti gravitatoria que
“empuje” hacia un universo abierto, ha llegado de nuevo el momento
de la materia cuando la velocidad de crecimiento de a(t) comienza a
hacerse negativa y el factor de escala se va haciendo cada vez más
pequeño: la curvatura le habrá torcido el brazo a la energía oscura y
acabaremos con un universo contrayéndose sobre sí mismo, lo que
conocemos como un universo cerrado.
Podemos hacer un razonamiento parecido, aunque opuesto, pensando
en una curvatura k negativa: en ese caso el crecimiento del factor de
escala a(t) conduce siempre a una constante de Hubble positiva. Nos
encontramos en el caso de un universo en continua expansión, un
universo abierto. Finalmente, si la curvatura es cero, el crecimiento
516
de la constante de Hubble, aunque siga siempre aumentando, se irá
ralentizando con el tiempo al estar afectado de un factor a-3. Recordad
que estamos analizando el caso de universo con solo materia no
relativista sin constante cosmológica. En la siguiente tabla se recoge
los diversos parámetros mencionados en la entrada para un universo
plano: [7]
Población W ρ a(t) H
Radiación 1/3 α a-4 α t1/2 α 1/(2t)
Materia 0 α a-3 α t2/3 α 2/(3t)
Vacío
Energía -1 verdadero α eHt Cte.
oscura campo energ.
oscura
H(a) = H Ω a +Ω a +Ω a +Ω a ( )
PV = [Masatotal/masamol]RT →
P = [M/V] [RT/mmol] →
P = ρmateria x K →
P = ρmateria c2 w
521
temperatura evoluciona con el tiempo según T α t-4/3 (idem.
página 138).
Energía oscura (w=-1): con la densidad que permanece
constante el resultado es un crecimiento exponencial a(t) α eHt,
siendo en ese caso H, la constante de Hubble, efectivamente
constante.
De hecho, el Universo entrará en una fase de expansión
acelerada siempre que 0>3P+ρ, -1/3>w, donde ρ y P
corresponden a la densidad de energía total y a la presión del
contenido respectivamente.
[https://www.iaa.csic.es/sites/default/files/thesis/JIMENEZ%20MADR
ID.pdf]
8. En la historia reciente del Universo el valor medido del
parámetro w que correlaciona presión y densidad de energía se
mueve en el intervalo −1,2 < w < −0,9 a 3σ de grado de
confianza.
[https://www.iaa.csic.es/sites/default/files/thesis/JIMENEZ%20MADR
ID.pdf]
522
35. Alternativas de futuro.
523
discurrir su vejez. En el caso de materia muy abundante, Ωm=5,
densidad muy alejada de la crítica, y sin energía oscura, el pasado
dibuja una fuerte ralentización de la expansión dado que los procesos
suceden con mucha rapidez. Eso hace que el punto de partida de la
curva naranja, el inicio del Universo, esté situado cronológicamente
más cerca de nosotros que en las otras alternativas: la edad actual del
Universo sería menor que la que pensamos que tendría en un caso de
geometría plana-euclidiana (curvas verde o roja). Cargados de
exageración literaria podríamos decir que con cinco veces la masa
necesaria aún se percibe el olor de la pólvora del Big Bang.
524
igual que la densidad crítica (Ωm = 1.0) por lo que nos encontramos
en el caso de un universo plano, aunque ya sabemos que no es nuestro
mundo en donde la energía oscura aporta más del doble de densidad
que la materia. La curva azul correspondería a un mundo abierto,
geometría hiperbólica, en el que la masa es tan poca que no puede
vencer con su potencial gravitatorio el empuje expansivo inicial,
prolongándose hacia el futuro un crecimiento progresivamente
ralentizado del Universo. En la nota 7 del capítulo anterior
comentamos que en el caso de un Universo con sólo materia no
relativista, la constante de Hubble crece en el tiempo según 2/(3t). Es
decir, el ritmo de expansión se va frenando. La expansión se hace
cada vez más “lenta”, siguiendo una asíntota hiperbólicamente lenta.
En este caso, mirando hacia atrás, el comienzo del Universo es más o
menos anterior en consonancia a si hay menos o más materia.
Vayamos ahora a lo que parece ser el mundo que observamos
nosotros, en donde hay energía oscura en proporción de 7 a 3 con la
materia, tal como configura la curva roja. Entre ambos suman la
densidad crítica, por lo que estamos otra vez en un caso de Universo
plano. Pero muy distinto al de la curva verde… la energía oscura, con
su densidad mantenida constante y continuamente embalsada a lo
largo de los eones, llega a ser infinitamente mayor que la energía de
la materia. Tras ese momento la energía oscura, que llegará a estar
casi solitaria, produce una seria alteración en la dinámica con el
resultado de un crecimiento exponencial a(t) α eHt (ver nota 7 del
capítulo anterior), siendo en ese caso H, la constante de Hubble,
efectivamente constante. [1]
Hasta aquí hemos contemplado distintas posibilidades de evolución
del Universo apoyándonos en los conceptos cosmológicos más
básicos. Ahora continuaremos con ese tema particularizando en
algunas de las teorías más conocidas y curiosas. Comenzando por lo
más sencillo, el caso de la curva naranja de la figura anterior, donde
veíamos como con el tiempo el Universo colapsa sobre sí mismo
volviendo progresivamente a concentrar la materia/energía hasta un
punto de máxima densidad y temperatura.
525
Se trata de lo que se conoce como el Gran Colapso, el Big Crunch.
Podríamos imaginar que el punto de llegada va a ser semejante al de
partida, el de la "explosión" del Big Bang, tras haber realizado un
rebobinado de la película del Universo. Aunque exactamente no sería
una vuelta especular del viaje de ida, entre otras cosas porque en el
punto final se va a concentrar no sólo la radiación inicial, la del fondo
de microondas, sino también toda la radiación residual generada a lo
largo de la vida de nuestro personaje. Una radiación que surgió
durante la “ida” a partir de materia que se transmutó, de lo que
hablaremos más adelante en este libro. Por lo que, al ser la acción
gravitatoria de la radiación mayor que la que ejerce la materia, la
recesión del Universo va a ser más rápida que la contrapartida durante
su expansión. Además, dependiendo del momento en que se inicie la
contracción en el universo nos vamos a encontrar con más o menos
estrellas, o ninguna, al margen de que el número de agujeros negros
siempre va a ir en aumento, incluso durante en el proceso contractivo.
Dos mundos sometidos a las mismas reglas pero con evoluciones
muy distintas. Dos mundos, uno de ida y otro de vuelta, que pueden
extenderse a lo largo de muchos muchos eones, tantos como 1011
años. [2] Llevamos ya 1010 años de Universo por lo que no nos debería
preocupar demasiado el rebote. Aunque hay gente que opina que el
cambio de sentido de la expansión, de acelerada a decelerada, puede
estar muy próximo y ser muy rápido, ya que se producirá dentro de
tan solo 100 millones de años para pasar después a una fase de
contracción más lenta que puede durar hasta 109 millones de años. [3]
Pero supongamos que en el momento de la inflexión aún hubiera
estrellas. Al iniciarse la marcha atrás contractiva hacia el futuro
colapso definitivo, las estructuras del Universo no se van a enterar de
nada, las estrellas seguirán naciendo y luciendo, mientras las galaxias
seguirán sus bailes y fusiones mutuas. Incluso el Universo observable
será el mismo, al menos durante el tiempo que tarde la luz que venga
desde el momento de la inflexión. Pero el camino se habrá torcido ya
sin remedio. A partir de un determinado momento la marcha atrás
solo será reconocible porque ya no habrá un corrimiento al rojo en la
526
radiación observada: a partir de un largo periodo de cambio todo
convergerá hacia el azul. La temperatura de fondo irá aumentando
mientras todo se aproxima. En la actualidad las galaxias ocupan más
o menos el 1% del volumen del Universo, pero cuando en el colapso
el volumen total llegue a ser una quinta parte del actual, todo será un
único y omnipresente supercúmulo de galaxias, aunque éstas
seguirán distantes de forma que mantendrán aun su dinámica
independencia gravitacional. Irremisiblemente la contracción
continuará, mientras la temperatura se irá haciendo más y más
infernal, una ardiente radiación térmica que impregnará el universo
amenazando la existencia de los cúmulos, las galaxias, las estrellas,
los planetas e incluso las moléculas y los átomos, que se irán
destruyendo a medida que avance la contracción. Y volverá el mundo
de los bariones, el del plasma quark-gluon, el de la unión de las
fuerzas fundamentales, gravedad incluida, cuando solamente quede
de vida un tiempo de Planck. CRUNCH. [4]
Hay otras teorías que se apoyan en la idea de un universo de ida y
vuelta, pero en ese caso a través de repeticiones cíclicas de crunchs:
a la muerte de un universo le sucedería el nacimiento del siguiente.
Se trataría del caso del Gran Rebote, Big Bounce, basado en la teoría
cuántica. Según ésta el espacio no es suave y continuo, sino que
consta de cuantos indivisibles de 10-35 metros de diámetro, la longitud
de Planck, que constituirían una especie de "átomos" del tejido del
Universo. Estos "átomos" del espacio/tiempo forman una malla densa
en continuo cambio -principio de incertidumbre- y que en
condiciones normales nunca vamos a poder apreciar. Lo que el físico
Carlo Rovelli en su libro "El orden del tiempo" describe como el
incesante ondular del campo gravitatorio. [5] Pero un espacio cuántico
tiene una capacidad finita de almacenar energía, al igual que una
galleta tiene una capacidad finita de absorber leche, por lo que a
medida que aumenta y aumenta la densidad en la fase final de la
contracción, el comportamiento de la física dentro de la espuma
espacio/temporal cuántica cambia modificando la naturaleza de la
gravedad, que adquiere un modo repulsivo que expande de nuevo el
527
espacio a ritmo acelerado. En esta teoría el fenómeno descrito es el
equivalente al del Big Bang de la teoría clásica. Todo sucedería en el
brevísimo punto de inflexión, tan breve como lo es el tiempo de
Planck de 10-43 segundos, cuando el universo temprano tuviera una
densidad finita equivalente a un billón de soles concentrados en el
tamaño de un protón. A medida que la densidad se iba relajando con
la expansión, la gravedad pasaría progresivamente a ser la fuerza de
atracción habitual para nosotros.
Y aunque sea una teoría antigua, del año 1934, no me resisto a
comentar lo que puede resultar un matiz aún más curioso de los
rebotes "eternos". [6] Un poco más arriba dijimos que durante la fase
de recesión la población de la radiación tuvo que ser más abundante,
y la de la materia menor, que en el equivalente “momento simétrico”
del viaje de ida. Y que eso hacía que la caída hacia el Crunch, por
simples motivos gravitatorios, fuera más rápida que el despegue
desde el Bang. Si se diera el rebote habría que pensar que el universo
que nace del nuevo Bang se expandiría a una mayor velocidad, por el
mero hecho de tener una mayor energía fundacional que el Bang
anterior. La consecuencia es que el universo se expandiría hasta un
tamaño mayor en cada ciclo. Si eso fuera así llegará un momento en
el que el correspondiente último eslabón de la cadena de universos
tendría una vida tan larga que su evolución no se diferenciará mucho
de la que se puede describir durante la muerte térmica (de la que
hablaremos con mucho detalle en capítulos posteriores).
Apoyado en la idea de renacimiento cósmico, el cosmólogo Roger
Penrose, ganador del Nobel de Física de 2020, ideó un nuevo
escenario que consistía en la concatenación, diríamos que eterna, de
una serie de ese tipo de renacimientos, un rosario de bigbangs
siguiendo un ciclo de episodios que no tienen por qué ser iguales.
Todo ello conforma el modelo de Cosmología Cíclica Conforme por
el que el universo se repite a través de iteraciones infinitas, en las
cuales el profundo final térmico de cada una de ellas se identifica con
la singularidad del bigbang de la siguiente. Así, nuestro Big Bang
528
habría sido el fruto del desvanecimiento por muerte térmica de un
universo anterior.
Penrose observó que en la muerte térmica de un universo,
prácticamente los últimos “habitantes” van a ser los fotones y los
gravitones. Partículas sin masa en reposo y que se mueven a la
velocidad de la luz. Según la teoría de la relatividad especial, para
esas partículas no corre el tiempo ni se mueven en su espacio. Luego,
en este momento final se pierde el sentido de la geometría que explica
el espacio/tiempo de Einstein. Lo mismo pasa en los inicios del nuevo
universo, cuando las partículas existentes se mueven a velocidades
relativistas que “oscurecen” el influjo de sus masas en reposo. Para
ellas tampoco tendría sentido el espacio/tiempo de Einstein. Como
consecuencia pierden también sentido los cambios de escala
“normales”, en nuestro caso desde un universo anterior expandido e
inmenso a un universo puntual posterior. Penrose postula que en esos
momentos sin barreras de tiempo y espacio los procesos físicos van a
quedar dominados por leyes invariantes bajo transformaciones
conformes, es decir, ciegas al factor de escala. La geometría
conforme se convierte así en la principal estructura espaciotemporal
del universo primigenio [7] puesto que su continuidad, cuando un
viejo universo se disipe, va a permitir que se empalme de forma suave
con la del nuevo universo posterior. Si se produjera una
transformación de “aplastamiento” conforme en el final remoto, los
valores nulos de la temperatura y la densidad a los que se llega en el
momento de la extinción alcanzarían valores finitos. [8] A
continuación un “estiramiento” conforme en el inicio de cada eón
enfriaría su elevadísima temperatura de nacimiento y haría finita su
densidad abriendo un camino de crecimiento entrópico donde todo
vuelve a ser posible. Durante el salto se mantendría inalterada la
actividad física de un universo que, como hemos dicho, no tiene masa
efectiva (no tiempo, no espacio) por tratarse de un simple reescalada
conforme. De esta manera el futuro remoto de cada eón enlazaría
suavemente con el remoto pasado del siguiente gracias a la geometría
conforme.
529
Roger Penrose remata: “…el universo muy primitivo y el futuro muy
remoto parecen ser incómodamente similares uno a otro. Por
supuesto, no son realmente similares en el sentido de ser casi
idénticos, pero son “alarmantemente” similares de acuerdo con el
uso que se hace normalmente de esa palabra en geometría
euclidiana, a saber, que la diferencia entre los dos parece ser
básicamente tan sólo un enorme cambio de escala.” [9]
530
eventos de choques y fusiones de agujeros negros pudieron producir
enormes liberaciones de energía en forma de ráfagas de radiación
gravitacional. Estas ondas esféricas atravesarían el punto de rebote
entre universos no como ondas gravitatorias sino como ráfagas
esféricas de energía, en su mayoría isotrópicas, que afectarían al
plasma inicial en nuestro Universo recién estrenado, por donde se
irían transmitiendo hasta el momento de la recombinación, 380.000
años tras el Big Bang.
531
[12]
inferior al promedio ¿estaremos cabalgando a lomos de un toro
mecánico cósmico?
Pero pasemos a otras teorías. Dentro de este entorno de ideas con
aroma a universos reiterativos nos encontramos también con los
modelos ecpiróticos [13] de Neil Turok y Paul Steinhardt, aunque en
este caso el inicio del ciclo está motivado por el choque de dos branas
que se encuentran en un proceso reiterativo de aproximaciones y
alejamientos cósmicos. Para entender eso de una brana podemos
pensar en una entidad física de varias dimensiones inmerso en algo
más vasto con más dimensiones.
532
Lambda-CDM [14] que explica el nuestro, para continuar a través de
una senda expansiva que le llevará tras muchos eones hasta una
extensión plana y casi sin rasgos distintivos. Un larguísimo periodo
que se truncará al producirse un nuevo choque entre branas.
Volvamos ahora un paso teórico atrás y retomemos las curvas de la
primera figura del capítulo, aquellas que auguran un mundo plano o
infinitamente abierto. O lo que es lo mismo: expansión eterna,
dilución de materia y energía, descomposición de estructuras y
átomos, oscuridad, evaporación de los agujeros negros, radiación
cada vez más “alargada”, mucho más frío que los 2,725 K actuales,
entropía al máximo… lo que conocemos como muerte térmica.
Tardará más o menos pero el Universo acabará siendo un mundo
lleno de radiación extremadamente fría. La entropía será máxima,
todo se habrá desbaratado y la temperatura heladora. Como dice la
astrofísica Katie Mack en su libro “El fin de todo”, página 104, “Si la
entropía no puede aumentar [a niveles infinitesimales de temperatura
su variación resultará inapreciable], entonces la energía no puede
fluir de un lugar a otro sin hacerlo de inmediato en el sentido inverso,
borrando al instante cualquier cosa que, por azar, haya ocurrido…
El calor es inútil, el calor es muerte… en un sentido muy real la
flecha del tiempo se desvanece”. Hablaremos con más detalle de la
muerte térmica más adelante pues aún nos quedan grandes horrores
por narrar.
Porque si la muerte térmica tiene un final triste no digamos el del
Gran Desgarro. En ese caso la constante w que fija el tipo de ecuación
de estado del Universo, la correlación entre su presión y su densidad
de energía, es menor que el valor -1 propio de la energía oscura como
constante cosmológica. Evidentemente es una idea teórica pero que
debemos tener en cuenta dadas las incertidumbres de nuestro
conocimiento. Las mediciones que se han hecho sobre el valor de w
en el universo actual no fijan un valor concreto sino un margen muy
amplio, más o menos entre -1,2 y -0,9, en el que todo puede pasar.
Para valores entre -0.9 y -1,0 se puede producir una continua
expansión exponencial que se va a ir relajando en el tiempo hasta lo
533
que hemos llamado muerte térmica. Aunque para valores menores
que -1 pueden pasar cosas raras. En ese caso el destino final del
Universo bien pudiera ser el acabar en una singularidad futura
denominada Gran Desgarro (Big Rip), donde el factor de escala en
un momento finito del tiempo diverge a infinito: el Universo crece
desde un tamaño inicial a un tamaño infinito en un tiempo cósmico
finito. Y eso sucede tanto más rápido cuanto más se aleje w del valor
-1. La excursión durante la que el factor de escala a(t) se va a hacer
infinito va acompañada de serias implicaciones para el Universo y
sus estructuras y componentes. La gigantesca expansión lo va
separando todo, inicialmente haciendo cada vez más insignificantes
los efectos gravitatorios, para después ridiculizar el esfuerzo de las
otras fuerzas fundamentales. Hasta destrozar al propio
espacio/tiempo.
Evolución del tamaño del Universo a lo largo del proceso del Gran
Desgarro. El punto t∞0 señala el momento en el que ocurre el Gran
Desgarro. (Imagen [15], fair use)
535
recordaremos cómo el campo de Higgs había hecho lo mismo en
busca de un mínimo energético cuando el Universo era un tierno
infante de 10-12 segundos de vida. Pues bien, la mala noticia es que
nadie puede asegurar que el verdadero vacío al que llegó el campo de
Higgs sea realmente eso, un verdadero vacío absoluto ¿por qué no
puede haber un vacío MÁS verdadero a un nivel energético menor en
el que caer? La buena noticia es que los mejores cálculos nos dicen
que si lo hubiera, lo más probable es que eso puede pasar dentro de
10100 años. Pero en estadística se trabaja con estados medios, con lo
cual ¿por qué no puede pasar eso dentro de diez segundos?
Que no cunda el pánico. Hay una escapatoria. Solo una parte del
universo sería destruida en el cambio de vacío de Higgs, mientras que
la mayor parte del universo no se vería afectada porque las galaxias
ubicadas a más de 4.200 megapársecs -13,7x 109 años luz- de
distancia entre sí se están alejando unas de otras a más velocidad que
la de la luz, mientras que el Big Slurp no puede expandirse más rápido
que esa velocidad.
537
completamente distinto con unas leyes también distintas. Al principio
es una nimia burbuja rodeada por una pared de altísima energía.
Entonces empieza a expandirse ya que su situación de mínima
energía es la preferida por el resto del Universo. Todo lo altera a su
alrededor provocando una avalancha que hace que cada vez sea
mayor el espacio que sucumbe al estado de mínima energía. Allí a
donde alcance todo va a cambiar, su energética frontera irá barriendo
a la velocidad de la luz y en donde llegue se experimentará un proceso
que solo puede calificarse de total y completa disociación, momento
en el que dejan de funcionar las fuerzas que antes mantenían unidas
las partículas en los átomos y los núcleos. [19] Se cree que la energía
y la presión del auténtico vacío crearía un campo gravitatorio tan
intenso que la región abarcada por la burbuja se podría contraer,
incluso conforme se expandiera la burbuja, en un tiempo menor al
microsegundo: una brusca aniquilación de todo según implosiona la
burbuja interior en su singularidad espacio/temporal. [20] FIN: Un
nuevo Universo aparece mientras el nuestro se esfuma en la nada.
Gracias a los cielos, y al contrario de lo que suceda en un Gran
Colapso o en un Gran Desgarro o durante la “simple” muerte térmica,
no lo vamos a notar ni nos va a doler.
538
NOTAS DEL CAPÍTULO 35:
539
8. Hablaremos de la finitud de temperatura y densidad en el
capítulo 36.
9. “Ciclos del tiempo: Una extraordinaria nueva visión del
universo”, página 178 (la imagen incluida en el texto, figura 3),
Roger Penrose, editorial Debolsillo. 2011.
10. Podéis leer el siguiente artículo que argumenta tales
dudas: “La cosmología cíclica conforme de Penrose y los
puntos de Hawking en el fondo cósmico de microondas”,
Francisco R. Villatoro, 2018.
[https://francis.naukas.com/2018/08/29/la-cosmologia-ciclica-
conforme-de-penrose-y-los-puntos-de-hawking-en-el-fondo-cosmico-
de-microondas/]
11. Imagen a partir de “Concentric circles in WMAP data may
provide evidence of violent pre-Big-Bang activity”, figuras 1 y
3, V. G. Gurzadyan y R. Penrose, 2010 (ver nota 12).
12. Hay que decir que en la actualidad hay una cierta
discusión acerca de la significación estadística de las
observaciones aludidas del fondo de microondas. Para más
información: “Concentric circles in WMAP data may provide
evidence of violent pre-Big-Bang activity”, V. G. Gurzadyan y
R. Penrose, 2010.
[https://arxiv.org/ftp/arxiv/papers/1011/1011.3706.pdf]
13. De la Wikipedia: “El nombre proviene del término estoico
ekpyrosis (en griego antiguo: ἐκπύρωσις) que significa
conflagración o, en el uso estoico, "conversión en fuego" con el
significado de "disolución del universo en el fuego". En la
filosofía estoica, la ekpyrosis, el fuego cósmico que todo lo
envuelve representa la fase contractiva de un ciclo eterno de
destrucción y resurgimiento.
14. En cosmología, el modelo Lambda-CDM es el modelo
conocido más simple que está de acuerdo con todas las
observaciones. de nuestro universo. Basado en la existencia de
una constante cosmológica, Lambda, y de una materia oscura
fría, CDM (cold dark mater).
540
15. “El Problema de la Energía Oscura en la Nueva
Cosmología Estándar”, José Antonio Jiménez. (2006). La
imagen presentada en el texto es la figura 2.1 de la publicación.
[https://www.iaa.csic.es/sites/default/files/thesis/JIMENEZ%20MADR
ID.pdf]
16. “Phantom Energy and Cosmic Doomsday”, Robert R.
Caldwell, Marc Kamionkowski y Nevin N. Weinberg, 2003.
[https://arxiv.org/pdf/astro-ph/0302506.pdf]
17. Por ejemplo, la producción espontánea de partículas o los
efectos extra dimensionales inherentes a la teoría de cuerdas o
a la de la gravedad cuántica.
18. La cuántica nos dice que a la vez hay una cierta
probabilidad, quizás mínima, de que el campo se encuentre en
el vacío verdadero y otra probabilidad de que se encuentre en el
falso. Por lo que el “salto” de la barrera sería posible.
19. Del libro “El fin de todo”, Katie Mack, página 150,
(2021), colección Crítica, editorial Planeta.
20. Ver la publicación “Gravitational effects on and of
vacuum decay”, 1980 Sidney Co1eman y Frank De Luccia.
[https://static.ias.edu/pitp/archive/2011files/PhysRevD.21.3305.pdf]
541
36. En el camino hacia la muerte térmica
El capítulo anterior lo acabé conceptuando a la muerte térmica como
"simple" porque no se va a producir ninguna extraña singularidad en
el proceso. Va a ser un alargado languidecimiento apto para todas las
edades, sobre todo si son tan escuetas como la humana. Casi no da
miedo el aventurarse por un futuro en donde, al final, se va a ir
perdiendo todo, hasta el sentido físico de la flecha del tiempo.
543
Interacción gravitatoria entre estrellas durante el cruce de sus
galaxias (Imagen modificada de “The five ages of the Universe”,
página 86, Fred Adams y Greg Lauhglin, publicado por Simon &
Schuster, fair use)
546
es cuestión de probabilidades y esas se hacen mayores a medida que
hay mucho más tiempo en juego. Como es el caso del momento que
empezamos a analizar: 1020 años es la referencia, 1010 veces la vida
actual del Universo. Y pueden pasar muchas cosas curiosas tras esos
choques. Quizás se puedan encontrar dos enanas marrones, [6] con su
reserva de hidrógeno sin quemar, de forma que en su fusión se llegue
a generar una nueva enana roja que permitirá suavizar la agonía
estelar. Incluso si el choque es más o menos tangencial, puede
emerger un disco de materia que acabe generando un sistema
planetario, incluso con condiciones propicias y tiempo suficiente
como para el renacimiento y desarrollo de la Vida. Quizás semejante
a la de la Tierra. Eso podría suceder a partir del año 1022 tras el Big
Bang.
547
el Big Bang, aun deambularán por el cosmos las nuevas enanas rojas
náufragas durante quizás billones de años más.
550
NOTAS DEL CAPÍTULO 36:
551
interactúan de forma débil. Algo así como neutrinos de gran
masa y por tanto muy lentos. El candidato teórico más aceptado
es el neutralino, una partícula de masa entre 100 GeV y 1 TeV.
O los aún más teóricos axiones, con masas inferiores a 10-7 eV.
Si queréis saber más sobre el tema, y sobre las partículas en
general, podéis acudir a la serie “Esas maravillosas partículas”,
del blog de Pedro Gómez-Esteban “El Tamiz”.
[https://eltamiz.com/esas-maravillosas-particulas/]
8. En 2014 el telescopio espacial Fermi observó en una gran
región de 10°×10° un exceso de rayos gamma con una energía
1∼3 GeV en dirección al centro galáctico. No se conoce su
origen, pero se especula con la posibilidad de que podría ser la
aniquilación de partículas WIMP de materia oscura.
“The Characterization of the Gamma-Ray Signal from the
Central Milky Way: A Compelling Case for Annihilating Dark
Matter”, Tansu Daylan et al.
[https://arxiv.org/abs/1402.6703]
9. Un agujero negro del tamaño del que habita el centro de la Vía
Láctea, de un millón de masas solares, tiene la capacidad de
“comérsela” en un tiempo de 1030 años. Si la masa del agujero
es mil veces mayor, el tiempo de deglución se acortaría hasta
los 1024 años.
552
37. ¿Inevitable?
El capítulo anterior acaba con una frase lapidaria: “Nos abocamos a
momentos de una total e inevitable descomposición.” Quizás la
inevitabilidad sea una mera conclusión extraída de un conocimiento
parcial e incompleto del mundo, quizás el mundo sea de otra manera
distinta a como lo percibimos. Quizás solo percibamos lo que
realmente haya sido preciso para una evolución biológica exitosa que,
cual engañosa caverna de Platón, nos sugiere que el tiempo tiene una
dirección preferente fijada por el desorden. Esa parece ser la
irrefutablemente útil realidad. Aunque me gustaría matizarla. Este
capítulo va de reflexiones.
Si eso fuera así ¿no podría ser posible que la vida nos haya
condicionado psicológicamente la definición del sentido de la flecha
553
del tiempo? como obligándonos a decir que es bueno e ineludible que
vaya de pasado a futuro. A fin de cuentas los hombres vivimos de la
memoria, del presente y del imaginado futuro. La flecha del tiempo
como esencia de nuestro Yo. Quizás sólo un sentimiento que como
tal es de exclusividad biológica… porque en el micro mundo eso no
existe, allí no hay ni orden ni desorden, allí solo hay una impersonal
dinámica de interrelaciones que generan las efímeras, múltiples y
cambiantes realidades, inalterables por la dimensión tiempo. [1] El
mundo que enfoca sobre los píxeles más minúsculos es así. Y
posiblemente esta sea la realidad íntima de nuestro Universo, al cual
vemos y juzgamos desde la perspectiva del macro mundo nuestro, la
del píxel grueso, con un necesario y biológicamente útil desenfoque
vital. El concepto tiempo como emergencia de la consciencia
humana. Si fuera así el último suspiro del Universo va a ser distinto
del que describo en esta miniserie apoyado sobre un continuo
incremento entrópico. Distinto de lo que vemos desde nuestra cueva
de Platón. No somos capaces de ver ni imaginar la auténtica realidad,
la del micro mundo. [2][3]
Tmat α ρmat2/3
Trad α ρrad1/4
556
La temperatura de la materia es un reflejo de su energía cinética, su
velocidad, que a su vez depende de la densidad. Cuanto mayor sea la
densidad de las partículas de materia mayor será el número y la
intensidad de sus choques, y por tanto su temperatura. En cuanto a la
radiación ya sabemos que su energía, su temperatura, es función de
su longitud de onda. [4]
559
NOTAS DEL CAPÍTULO 37:
560
varias entradas de la serie de El Cedazo "Biografía de lo
Humano", comenzando por esta.
[https://eltamiz.com/elcedazo/2016/02/20/biografia-de-lo-humano-07-
teoria-sobre-la-evolucion-de-la-consciencia/]
Y no os perdáis la lectura del libro de Carlo Rovelli, “El orden
del tiempo”, para profundizar más el tema del “desenfoque” con
que los humanos miramos la baraja de la entropía.
4. Podemos ver la demostración matemática de estas relaciones en
el libro “Introducción a la Astrofísica”, páginas 139 y 186, de
Eduardo Battaner.
[http://astro.df.uba.ar/astro/guias/Battaner_Introduccion.pdf]
5. Según podemos leer en el libro “The five ages of the Universe”,
página 159, de Fred Adams y Greg Laughlin.
6. "The Cosmic Thermal History Probed by Sunyaev-Zeldovich
Effect Tomography", Yi-Kuan Chiang et al., septiembre de
2020, The Astrophysical Journal.
[https://arxiv.org/pdf/2006.14650.pdf]
7. “Black Holes Must Die”, Neal Dalal y Kim Griest, Physics
Letters B, septiembre 2000.
[https://arxiv.org/pdf/astro-ph/0008260.pdf]
561
38. Hacia el infinito
El capítulo anterior de reflexión filosófica acerca de la inevitable
evanescencia del contenido del Universo, lo acabamos con la
siguiente frase: " Volvamos a enfilar los caminos hacia el destino
fatal del Universo, volvamos al año 1025 tras el Big Bang, era en la
que parece que el mundo da un giro definitorio, de la construcción
en las galaxias y estrellas al inicio de la degeneración de la materia
oscura, a la que se va a unir la de los protones (si es que esos se
desintegran, que está por ver). En adelante… es lo que queda.
Evaporación hacia la entropía. ". La función continúa.
562
Posible vía de desintegración del protón hacia un positrón y
radiación
Hay también otras posibles formas exóticas por las que se pueda
producir la desintegración del protón. Como se dijo en el capítulo 12
el protón está constituido por tres quarks. Bueno… por un baño de
vibrantes quarks en donde parece sobresalir una unión de tres
mediante gluones. La loca dinámica de su interior permite el que en
algún momento se acerquen tanto los tres cuarks como para que se
genere un mini agujero negro que por emisión de radiación de
Hawking desaparecería instantáneamente. El protón se habrá
transmutado en energía. De todas formas, esta vía de desintegración
es tan improbable que se estima que le pase eso en unos tiempos
medios entre 1045 y 10169 años. Otro camino de desintegración se
derivaría de la posibilidad de que el Universo cayera a un vacío de
menor nivel energético que el actual, aunque los tiempos requeridos
todavía serían mayores, entre 10140 y 10150 años. Hemos hablado de
esta posibilidad en un capítulo anterior cuando el campo de Higgs
tunelaba hacia un nuevo mínimo provocando el Big Slurp.
Aún estamos metidos en la “antigüedad” del año 1025 y hemos dicho
que el protón puede desintegrarse siguiendo el proceso de reducción
a un positrón y energía, con una vida media fijada en unos 1037 años.
Eso sólo quiere decir que en esa fecha, teóricamente, se habrán
desintegrado la mitad de los protones, lo cual no invalida el que unos
563
lo hayan hecho antes y otros lo vayan a hacer después. Por tanto, en
el año 1025, o incluso ahora mismo, estaríamos en tiempos de un
posible decaimiento de los protones. [1] Están por todos los lados, en
las enanas rojas, en las enanas blancas, en los restos de las galaxias
que se difuminan por el Universo o caen en las garras de los agujeros
negros. Están en los planetas que se evaporaron de sus sistemas y
deambulan solitarios por las oscuridades de la inmensidad. Hay
muchos protones, escondidos en los átomos de helio, oxigeno,
carbono… e incluso de hierro, hasta el uranio. Y hay neutrones. Y
electrones, neutrinos y radiación.
Cuando un protón se desintegra dentro de una estrella se va a producir
un pión π0 y un positrón como lo ilustra el esquema anterior.
Posteriormente el positrón se desintegra cuando encuentra un
electrón dando como resultado partículas de radiación. Como así
también lo hace de forma espontánea el pión. Al final el protón se ha
deshecho como radiación, lo que supone una aportación energética
para la estrella que así incrementa su temperatura y su luminosidad.
Aunque realmente va a ser una luminosidad espectral: si eso
sucediera en todas las estrellas dentro de nuestro horizonte observable
actual la energía producida sería cien veces menor que la del Sol.
La desintegración de los protones provoca además cosas muy
curiosas en las estrellas durante la época de degeneración universal
que estamos analizando. Entre otras, la forma en que se altera la
química de las enanas blancas. La desintegración de protones y
neutrones en los núcleos de los elementos presentes en la estrella hace
que la población se deslice hacia núcleos de números atómicos cada
vez más bajos. Puede que en esa desescalada los nuevos núcleos
interactúen entre sí permitiendo el nacimiento de elementos más
pesados, aunque a la larga predomine la cascada hacia números
atómicos más bajos. Algunos de los nuevos productos nucleares serán
radiactivos que posteriormente se desintegrarán por lo que, a la larga,
solo permanecerán los elementos estables. Con el tiempo, cuando la
masa total de la estrella haya disminuido en aproximadamente un
564
factor de diez, casi todos los núcleos que queden en la estrella serán
de hidrogeno. Protones que se descomponen.
A lo que vaya quedando de la enana blanca le sucederán más cosas.
Recordemos cómo la estructura de esas estrellas estaba sujeta por sus
electrones degenerados. A medida que se van evaporando los
protones la presión interna aumenta, la estrella crece de volumen y
pierde densidad, de forma que llega el momento en que los electrones
dejan de estar degenerados volviendo la estrella a ser una bola de
hidrógeno, ahora congelado por las bajas temperaturas. El
decaimiento de los protones continua en esta situación hasta que llega
a un estado de plasma en donde la radiación producida puede
abandonar la influencia de los electrones huyendo por el espacio
infinito del Cosmos. Algo semejante a lo que pasó a nivel global en
el momento de la Recombinación, 380.000 años tras el Big Bang. En
esos momentos la enana blanca, muy pequeña, [2] esta definitivamente
muriendo, su masa se ha convertido en radiación que calienta el
Universo.
Algo similar les sucede a las estrellas de neutrones. Mientras sus
protones se van desintegrando la estrella va perdiendo densidad hasta
un momento en que no precisa la contención de sus neutrones
degenerados. En esos momentos comienza a actuar sobre ellos la
fuerza nuclear débil que los transforma en protones, electrones y
antineutrinos. Una especie de enana blanca. Y ya sabemos cuál es su
destino.
Lógicamente algo semejante les está pasando a los planetas errantes.
Al final toda la materia se transforma en radiación o… está cayendo
en un agujero negro. En el año 1040 tras el Big Bang prácticamente
todas las estrellas y planetas se habrán evaporado siguiendo la vía de
desintegración de los protones, [3] prácticamente todos los electrones
y positrones se habrán aniquilado entre ellos manteniendo la carga
eléctrica del universo igual a cero. Tras toda esa masacre quedará una
“niebla” vacía en donde dominarán los fotones y los neutrinos.
Quizás gravitones y voraces agujeros negros haciendo el barrido
definitivo.
565
Ya sabemos que los agujeros negros son objetos muy especiales. A
pesar de que de ellos no se escapa ni la luz, cabe la posibilidad de que
exuden su masa/energía a través de lo que conocemos como radiación
de Hawking. Básicamente consiste en la posibilidad real de que, en
la proximidad de su horizonte, se generen pares de partículas virtuales
de acuerdo con el principio de incertidumbre de Heisenberg. Una de
las cuales cae dentro del agujero mientras la otra se escapa al espacio
exterior con una masa/energía real extraída de la energía
gravitacional del agujero. El perfil de emisiones de este tipo asemeja
a las de un cuerpo negro con una determinada temperatura, que es
inversamente proporcional a la masa del agujero negro. Con la
emisión de radiación el “monstruo” estaría progresivamente
perdiendo masa/energía, aunque siempre que la temperatura exterior,
la de fondo del Universo, sea menor que la de su horizonte de sucesos.
Aunque llegará su momento, porque recordemos que cuanto más
pequeño es el agujero negro mayor es la temperatura de su horizonte.
Para cuantificar el problema diremos que un agujero negro con una
masa tres millones la del Sol se comporta como si su temperatura
fuera 10-13 K. La temperatura de base del Universo hoy en día, la del
fondo de microondas, es de unos 2,725 K. Por lo que es difícil que
los agujeros negros de hoy en día emitan radiación de Hawking. Se
encuentran en pleno proceso de comer y comer. Pero en el futuro sí,
puesto que con la expansión del Universo se irán alargando la
longitud de onda de los fotones de fondo, lo que supondrá una
disminución de su energía/temperatura. En el año 1021 después del
Big Bang la temperatura será la adecuada para que empiecen a radiar
los agujeros pequeños como los que tengan el tamaño del Sol. Y en
el año 1035 iniciarán su radiación los más grandes, como los de 109
masas solares ¿Hasta cuándo durarán radiando? Depende de sus
masas, aunque estamos absolutamente seguros de que hasta el más
gigantesco habrá “quemado” totalmente su masa en el año 10100 tras
el Big Bang, dejando como recuerdo un poso de radiación. En
aquellos momentos la temperatura de fondo rondará los 10-20 K. [4]
566
Acto V. Evanescencia
Los últimos instantes de los agujeros negros no van a ser el final
suave de una lenta evaporación, sino que una vez más en el Universo
se observará un castillo de fuegos artificiales. A medida que van
emitiendo la radiación de Hawkins los agujeros negros van perdiendo
masa y aumentando su temperatura. Un proceso que se autoalimenta
ya que a mayor temperatura mayor radiación. El proceso es inestable
en sí mismo y termina por desbocarse como un caballo desatado en
un galope cada vez más rápido. Los segundos finales son de un
inusitado brillo seguido de una explosión de calor: se cree que hasta
un millón de kilos de masa se evanescen como energía en un último
segundo. En la explosión se genera mucha radiación y partículas con
masa, electrones y protones con sus correspondientes antipartículas,
que durarán poco tiempo transformados también en radiación
567
estructuras son inestables de forma que, con el tiempo, se aniquilarán
mutuamente generando nueva radiación ¿cuándo? En el laboratorio
duran poco, pero en el espacio exterior de un Universo difuso, con
pocas perturbaciones, se formarán positronios con órbitas de muchos
millones de años luz de diámetro, por donde circularán muy muy
lentamente un electrón y un positrón. El juego de aniquilación durará
hasta el año 10116 quedando aquí o allá algún electrón o algún positrón
libre. El sino de la materia… pero ¿cuál será el de la radiación?
568
de las estrellas, dentro de escalas temporales cosmológicas, vendrán
a dominar su población los producidos en la aniquilación de la
materia oscura dentro de las enanas blancas. Más tarde van a seguir
los fotones nacidos de la desintegración de los protones y mucho más
tarde los nacidos en los procesos de evaporación y extinción de los
agujeros negros (ver figura anterior). Cada una de esas familias va a
tener su momento de esplendor… mortal.
A medida que el universo se va expandiendo la longitud de ondas de
esa radiación también se va alargando, restándole energía momento
a momento. Según nuestros cálculos, en la época de muerte definitiva
de los agujeros negros, 10100 años tras el Big Bang, el universo habrá
crecido con relación a su tamaño actual en un factor de 1060 lo que
hará que la longitud de onda del fondo de microondas se alargue hasta
dimensiones cósmicas ¡1041 años luz! Lo mismo pasará con las otras
familias de radiación, incluso con los tardíos y fríos fotones de los
agujeros negros, con longitudes de onda semejantes al tamaño de esas
estructuras que los irradian.
Mientras la materia decae y la radiación se diluye, nada comparable
le sucede a la energía oscura que continúa embalsándose en el tejido
del espacio. Dijimos más arriba que desde el momento actual hasta
t=10100 el Universo va a crecer en un factor de escala de 1060. Si la
densidad de la energía oscura, una constante cosmológica, es
constante, la cantidad de energía oscura habrá crecido en un factor de
¡un uno seguido de 180 ceros!
¿Qué va a pasar en adelante? Parece que todo está definitivamente
muerto y el potencial térmico prácticamente agotado. A pesar de que
nos cuesta pensar que se llegue a perder una infinitesimal posibilidad
teórica de extraer trabajo e incrementar la entropía, el conjunto
llegará a estar tan distanciado y frío que todo apunta a que se pueda
llegar a un definitivo equilibrio termodinámico. Quizás se vaya a
llegar a un punto en el que la entropía se mantenga constante por lo
que no tendría por qué estar violándose el principio termodinámico
que augura la maximización de la entropía. Siempre se estará en ese
podio. Nueva física.
569
Aunque bien pudiera suceder, en una última pirueta, todo lo contrario,
como afirma Penrose en su modelo de cosmología cíclica conforme:
al infinito de la muerte térmica se habrá llegado pasando por un
universo "deglutido" prácticamente en su totalidad por los últimos y
definitivos agujeros negros que, a su vez y a lo largo de los eones, se
habrán ido evaporando hasta desaparecer en lo que él dice un "pop"
energético. Este desvanecimiento supondría la pérdida [...o no] [7] de
toda la información del universo que había caído en el pozo
gravitatorio del agujero negro. Es decir, supondría la desaparición de
los múltiples grados de libertad existentes en los últimos eones que
permitieron el desorden de un mundo de alta entropía. [8] Gracias a
ello se recuperaría el orden, una disminución brutal de la entropía.
Depósito lleno para volver al trabajo.
¿Qué sucederá en el futuro infinito? ¿Nueva física, cosas
inimaginables, nuevos universos? Quién sabe. Cabría pensar que la
hipótesis que hemos contemplado de desintegración de los protones
bien no pudiera ser cierta. Entonces todo iría más lentamente y por
otros derroteros. Bajo esa circunstancia, la de que sobrevivan los
protones, se nos amplía de tal forma el campo temporal a lo largo de
interminables eones, que se hace posible la existencia de una
probabilidad de que ocurran sucesos extraños gracias a efectos de
tunelación cuántica. El tema es que, gracias al principio de
incertidumbre, y aunque la probabilidad sea muy pequeña, si bien no
nula, a cualquier elemento de un átomo le va a llegar la posibilidad
de estar en cualquier sitio. De forma que se nos abre una ventana que
nos va a permitir visualizar el comportamiento de la materia a lo largo
de muchísimo tiempo. Y lo que ahora vemos aparentemente sólido,
en algún momento se podrá comportar como un líquido muy viscoso
que puede fluir debido a los efectos mecánico-cuánticos. Como dice
Freeman J. Dyson animándonos a hacer el ejercicio mental de
imaginarnos un trozo de roca, o un planeta, enfriado hasta la
temperatura mínima de 0 K: “Incluso los materiales más rígidos no
van a poder mantener sus formas o sus estructuras químicas más allá
del tiempo 1065… cada trozo de roca se comportará como un líquido,
570
fluyendo hacia una forma esférica impulsado por la gravedad. Sus
átomos y moléculas estarán incesantemente difundiéndose de un lado
a otro de la misma forma que lo hacen las moléculas de agua en una
gota.” [9]
Si lo anterior fuera cierto, implicaría que, en cualquier momento y
dentro de los parámetros temporales que estamos considerando, va a
haber una pequeña posibilidad de que cualquier “objeto” atómico
salte espontáneamente de su sitio en la estructura y aparezca en otra
parte. Este concepto ampara la idea de que, al verse favorecida la
probabilidad de aproximación de átomos y partículas, se pueda
sortear las constricciones electromagnéticas. En cuerpos con una
cantidad de masa estelar se podrían dar fusiones de los elementos más
ligeros que las constituyen ¿Cuál sería el producto final?
Lógicamente el hierro 56 cuyo núcleo, ya sabemos, es el poseedor de
la máxima energía de enlace por nucleón. El resultado sería el de
estrellas de hierro muy muy frías. Se piensa que esta tunelación al
hierro puede llevar a algunas enanas marrones a explotar como
supernovas, dado que en el proceso se puede disminuir el límite de
Chandrasekhar. Esto sucedería entre los años 101100 y 101500 tras el
Big Bang. Y aún hay más. Esperando aún más tiempo se puede dar
tunelaciones cuánticas al hierro desde elementos más pesados por
emisión de partículas alfa ¡en el año 1032000!
Los túneles cuánticos también deberían permitir el convertir objetos
grandes en agujeros negros, que a estas escalas temporales podemos
decir que se evaporará rápidamente en partículas subatómicas. Esto
podría suceder entre los años 10 y 10 tras el Big Bang.
También en el dominio de este último inimaginable eón, las estrellas
de hierro podrán colapsar en estrellas de neutrones “usando” los
túneles cuánticos.
¿Es ese el futuro? Nadie lo puede asegurar. La historia que hemos
relatado es lo que nos dice nuestra mejor teoría. Pero nuestra mejor
teoría quizás no sea válida en un futuro próximo o lejano. Quizás haya
un cambio de fase, o varios, que alteren la forma de proceder del
571
Universo que conocemos. El proceso descrito está fundamentado en
los principios termodinámicos ¿y si la entropía no es la magnitud
física directora del Universo? [10] También está fundamentado en la
teoría de la relatividad y en el modelo estándar de partículas ¿serán
válidos tal como los conocemos a lo largo de toda la vida del
Universo o descubriremos una física más fundamental? Está
fundamentado en un universo plano, homogéneo e isotrópico ¿y si
más allá de nuestro horizonte cosmológico hubiera un Universo
inobservable completamente distinto? Está fundamentado en una
expansión cuantificada por una constante de Hubble que no sabemos
cuánto vale con exactitud y dudamos de si es realmente constante. No
sabemos qué es la materia oscura. No sabemos qué es la energía
oscura. Entre ambas acumulan el 96% de la energía del Cosmos.
Tampoco sabemos, aunque la razón teórica no lo puede descartar, si
pude haber más mínimos energéticos, más vacíos verdaderos hacia
donde se pueda tunelar nuestra existencia.
Entonces ¿cuál es nuestra certeza? Personalmente creo que ninguna.
Quizás seamos unos sabios pre-copernicanos a la espera de que
alguien nos centre… o mejor, nos descentre de nuestro actual nivel
de conocimiento ¿Sucederá alguna vez? ¿Tendrá tiempo la
humanidad para desvelar la verdad? ¿Desaparecerá la especie antes
de ello? ¿Somos verdad o una ilusión sentida?
Me quedo con la frase con la que Fred C. Adams y Gregory Laughlin
concluyen su estudio “A DYING UNIVERSE: The Long Term Fate
and Evolution of Astrophysical Objects”: “Como cierre de este
artículo, presentamos el punto de vista de que el universo debería
obedecer a una especie de principio copernicano que se aplicaría a
lo que podamos pensar sobre el futuro. Este principio sostiene que la
actual época cosmológica (1010) […la del humano supremo…] no
tiene un lugar especial en el tiempo. Por lo que, en otras palabras,
en el Universo del futuro puede seguir sucediendo cosas realmente
interesantes que ocurrirán en los cada vez más bajos niveles de
energía y entropía disponibles.” [11]
572
Y hasta aquí llego. Espero que esta aventurera biografía al menos os
haya entretenido. O quizás enriquecido como personas. El sino del
Universo es una de nuestras trascendencias básicas. Tan sólo nos
queda cerrar en el próximo capítulo con el epílogo.
573
5. Quizás pueda resultar sorprendente que aún queden positrones y
electrones por el universo. Vimos como en la desintegración de
los protones aparecía un positrón y debemos suponer que por
aquello de la conservación de la carga eléctrica existirán tantos
electrones como positrones. Si la desintegración es de protones
dentro de una estrella o de un remanente, el recién nacido
positrón no escapa, queda atrapado dentro de la masa de la
estrella y se aniquila con un cercano electrón. Pero no todo el
hidrógeno se va a encontrar en las estrellas. Una pequeña parte
no se acreó y rondó desde siempre por los espacios
interestelares. Al decaer estos protones, los correspondientes
nuevos positrones tendrán la oportunidad de ser independientes.
6. El positronio es un sistema cuasi estable formado por un electrón
y su antipartícula, el positrón, orbitando alrededor de su centro
de masas común formando así un átomo exótico. La órbita de
ambas partículas y los niveles energéticos son similares a los del
átomo de hidrógeno (formado por un protón y un electrón). Pero
debido a la diferente masa del sistema, las frecuencias asociadas
a las líneas espectrales son menos de la mitad que en el
hidrógeno.
7. Eso de la pérdida de la información del Universo es una cosa
que produce alergia en los físicos porque viola la ley
comúnmente asumida de que, en principio, la información
completa acerca de un sistema físico en un punto y en un tiempo
debe determinar su estado en cualquier otro tiempo. Es decir,
debe prevalecer el principio de reversibilidad que permite que
numerosos estados físicos puedan volver al mismo estado
inicial. Y eso no se conseguiría si se pierde información. Según
esto los agujeros negros deberían guardar una memoria de las
estrellas y materia que los originaron, información que debería
volver al Universo a través de algo desconocido que bien
pudiera ser equivalente a la radiación de Hawking.
8. La idea es sencilla, según los físicos cuantos más grados de
libertad dispone un sistema... más configuraciones distintas
podrán adoptar sus estructuras. Lo cual es índice de alta
entropía. Algo así como cuando en un trozo de hielo la
temperatura acelera la movilidad de las moléculas de agua, lo
que favorece su liberación del influjo de las fuerzas
574
electromagnéticas. En el proceso el agua va ganando grados de
libertad mientras se va licuando, lo que supone una estructura
menos ordenada y de mayor entropía.
9. “Time without end. Physics and Biology in an open Universe”,
página 9, 1979, Freeman J. Dyson.
10. A ese respecto aconsejo la lectura del libro "El orden del
tiempo", del físico experto en gravedad cuántica Carlo Rovelli.
Para él la entropía y el tiempo son conceptos emergentes de
nuestra conciencia, que se manifestaron muy útiles en nuestro
desarrollo evolutivo.
11. “A DYING UNIVERSE: The Long Term Fate and Evolution of
Astrophysical Objects”, Fred C. Adams and Gregory Laughlin.
[arxiv.org/pdf/astro-ph/9701131.pdf]
575
39. Epílogo
La fotografía anterior [1] se conoce como “Pale Blue Dot” -el punto
azul pálido-. Y aunque cueste creerlo, el “gran” personaje de esta
escena, el pequeñísimo casi imperceptible punto blanco apuntado por
576
la flecha, casualmente en el centro de uno de los rayos de luz
dispersos como resultado de tomar la imagen tan cerca del Sol,
¡ES LA TIERRA!
Fue tomada por la nave espacial Voyager 1 el 6 de julio de 1990
cuando se encontraba a una distancia de más de 4 mil millones de
millas de nosotros.
En ese pequeño punto ha pasado todo lo que le ha sucedido a la
humanidad, desde lo más pequeño a lo más grande… un
insignificante lugar en un inabarcable océano… como nos dijo el gran
Carl Sagan…[2]
577
El Universo, nuestra realidad más auténtica, en donde cohabitan y se
interrelacionan en el infinito las ciudades cósmicas, nuestros barrios
y casas galácticos. Con qué familiaridad hablamos de la Vía Láctea,
del Sistema Solar y de la querida Tierra. Espero que después de este
largo viaje revelador hayamos sido capaces de desvelar, asimilar y
hacer nuestros los misterios de la vida del Cosmos, desde el
hipotético Big Bang, cuna cuántica del recién nacido, hasta el
escenario de hoy en día cuya contemplación nos deja embelesados.
Viajamos por una expansión más rápida que la luz, buceamos en un
plasma primordial viendo cómo iban emergiendo fuerzas y partículas
físicas, escuchando como sonaba la música ambiental de las ondas
sonoras en el revuelto ruedo. Vimos lo que poéticamente
conceptuamos como un flash, el proceso que liberó a los fotones
primordiales que aún vuelan disciplinados a nuestro alrededor, cada
vez con menor energía. No tan misteriosamente la materia que nos
conforma se iba congregando gracias al poder gravitatorio de fuerzas
medianamente oscuras, a la par que el tejido que sustenta la obra de
teatro iba creciendo y embalsando cantidades ingentes de energía.
Hasta llegar al año 13.800 millones… que con otro origen de
coordenadas temporales nosotros conocemos como inmerso en el
siglo XXI de nuestra era. Las estructuras que observamos a simple
vista, y gracias a la cada vez más favorable tecnología, parecen
estáticas, aunque realmente siguen bailando ininterrumpidamente
bajo la batuta de las leyes físicas. El Universo de hoy es un universo
joven y nosotros estamos en él en un momento muy favorable para
poder observarlo. No todo va a seguir igual. No hace tanto que
cambió el signo de la expansión al dominar la energía oscura a la
gravedad. Todo aún parece muy cerca como para poder estudiarlo…
cercanía que se va a ir desvaneciendo con los millones de años
venideros, cuando la materia se irá desgranando, separándose,
reconvirtiéndose hacia sus esencias más básicas, para morir en un mar
de energía muy fría. O eso creemos.
No me interesa mucho el futuro, pues a mis propósitos e interés me
parece irrelevante lo que pueda pasar ya que, como digo, hay muchos
578
boletos para que este futuro sea largo y gélido, el Big Freeze. Aunque
también se contemplan otras caídas del telón mucho menos
probables, sin duda intelectualmente tan estimulantes como el Big
Freeze. Desde un colapso rápido a una rotura de magnitud cósmica,
nunca mejor dicho, del tejido del Universo. En cualquier caso,
estamos hablando de un futuro distante de nosotros en una cantidad
de años igual a una potencia de 10 elevado a un 1 seguido de… no
me atrevo ni a poner el número de ceros, pero ya vimos que una
barbaridad inimaginable para el menguadito hombre que soy.
Nuestro Universo que me merece la pena es el de aquí y ahora, el
mío, el que puedo disfrutar e investigar. Éste que hizo levantar los
ojos al primer homo con suficiente consciencia como para sentirse
agradecido por el retornar diario del Sol, que le produjo un temor
reverencial tal como para ver en él a sus dioses; el que propició la
necesidad de inventar cosmologías a todos los pueblos antiguos; el
que motivó a los sumerios y egipcios a su estudio; el que hizo vibrar
en el alma de Pitágoras la idea de la armonía de las esferas… en
definitiva, el que causó asombro a tantos y tantos estudiosos,
Copérnico, Galileo, Newton, Einstein, Hubble, Guth… y muchos
más que me dejo en el tintero. Una infinita lista, hombres que
admiramos porque nos regalaron su asombro hasta extremos que sin
ellos nunca hubiéramos alcanzado. Termino.
Aunque antes no me resisto a dejar de proponeros la lectura del
emotivo pensamiento de Isaac Asimov [3] encontrando poesía más allá
de donde el poeta no supo verla. Me declaro su discípulo.
579
cuando me mostraron los gráficos y diagramas para sumarlos,
dividirlos, medirlos,
cuando sentado escuché al astrónomo con muchos aplausos en
la sala de conferencias…
cuán pronto inexplicablemente me sentí cansado y hastiado,
hasta que me escabullí de mi asiento y me fui a deambular solo, en
el húmedo y místico aire nocturno, y de tanto en tanto, levantaba la
vista en perfecto silencio hacia las estrellas.
Imagino que muchas personas al leer estas líneas se dirán a sí
mismos exultantes: ¡Cuánta verdad! ¡La ciencia absorbe belleza de
todo lo que nos rodea, reduciéndolo a números, tablas y medidores!
¿Para qué molestarse en estudiar toda esa basura cuando
puedo simplemente salir y contemplar las estrellas?’
***
[palabras que provocan la reflexión de Asimov]
Este es un punto de vista muy práctico ya que hace no solo
innecesario, sino francamente mal visto, intentar entender todas esas
cosas difíciles de la ciencia. En su lugar lo mejor es echar una ojeada
al cielo nocturno, recibir una dosis rápida de belleza y salir hacia
una discoteca.
El problema es que Whitman hablaba sobre cosas que no conocía,
pero el pobre no conocía nada mejor. No niego que el cielo nocturno
sea precioso. Yo también he pasado tiempo tumbado en la ladera de
una colina durante horas contemplando a las estrellas y siendo
cautivado por su belleza, y recibiendo picaduras de insectos cuyas
marcas tardaban semanas en desaparecer. Pero lo que veo -esos
silenciosos y titilantes puntos de luz- no es toda la belleza que hay.
¿Debería quedarme admirando cariñosamente una hoja solitaria e
ignorar voluntariamente la presencia del bosque? ¿Debería
satisfacerme mirando el sol brillando en un solo grano de arena y
580
desdeñar cualquier conocimiento de la playa? Esos puntos brillantes
en el cielo que llamamos planetas son mundos.
Allí hay mundos con una espesa atmósfera compuesta por dióxido de
carbono y ácido sulfúrico, mundos de líquido incandescente con
volcanes que podrían engullir la Tierra entera; mundos inertes con
silenciosas marcas de cráteres; mundos con volcanes soplando
penachos de polvo hacia el cielo sin aire; mundos con desiertos
rosáceos y desolados; cada uno con una belleza extraña y ultra
terrenal que se reduce a una simple mota de luz si solo observamos
el cielo nocturno.
Los otros puntos brillantes que llamamos estrellas en vez de planetas
son en realidad soles. Algunos son de una grandiosidad
incomparable, cada uno brillando con la luz de mil soles como el
nuestro, algunos de ellos no son más que brasas que liberan su
energía mezquinamente. Algunos de ellos son cuerpos compactos tan
masivos como nuestro Sol, pero con toda esa masa comprimida en
una bola más pequeña que la Tierra. Algunos son más compactos
todavía, con la masa del sol comprimida hasta el volumen de un
pequeño asteroide. Y algunos son aún más compactos con su masa
reducida hasta el volumen de cero, cuyo emplazamiento se
caracteriza por un fuerte campo de gravedad que lo engulle todo y
no devuelve nada; con materia cayendo en espiral por un pozo sin
fondo y lanzando un salvaje grito de agonía de rayos X.
Existen estrellas que palpitan sin fin en una inmensa respiración
cósmica y otras que, después de haber consumido su combustible, se
expanden y enrojecen hasta engullir a sus propios planetas, si es que
tiene alguno. Algún día, dentro de millones de años, nuestro Sol se
expandirá y la Tierra se quemará y marchitará y se vaporizará
convirtiéndose en un gas de hierro y roca sin dejar restos de la vida
que una vez dio. Algunas estrellas explotan en un vasto cataclismo
cuyo estallido feroz de rayos cósmicos, desplazándose
apresuradamente casi a la velocidad de la luz, llega a través de miles
de años a tocar la Tierra y suministrar parte de la fuerza motriz de
la evolución a través de mutaciones.
581
A esta ínfima cantidad de estrellas que vemos al alzar la vista en
absoluto silencio -unas 2.500, no más, incluso en las noches más
oscuras y despejadas- se les suma una vasta horda que no vemos, que
asciende a la enorme cantidad de trescientos mil millones, para
formar un remolino enorme en el espacio. Este remolino, la Vía
Láctea, se estira tan extensamente que le toma a la luz, moviéndose
a 300.000 kilómetros por segundo, cien mil años para cruzar de un
extremo al otro; y rota alrededor de su centro en un giro amplio y
majestuoso que demora doscientos millones de años en completarse.
El Sol, la Tierra y nosotros mismos, todos damos ese giro.
Más allá de la Vía Láctea existen otras galaxias, más o menos una
veintena de ellas ligadas a la nuestra en un cúmulo de galaxias, la
mayoría de ellas pequeñas, con no más de unos pocos miles de
millones de estrellas en cada una; pero con una al menos, la galaxia
Andrómeda, el doble de grande que la nuestra. Más allá de nuestro
propio cúmulo, otras galaxias y otros cúmulos existen; algunos
cúmulos formados por miles de galaxias. Se extienden hacia afuera
y hacia el exterior tan lejos como nuestros mejores telescopios
pueden ver, sin signos visibles de un final, tal vez cien mil millones
de ellos en total.
Cada vez, en más y más de esas galaxias, estamos encontrando una
intensa violencia en el centro; grandes explosiones y emanaciones de
radiación señalando la muerte de quizás millones de estrellas.
Incluso en el centro de nuestra galaxia existe una increíble violencia
oculta en nuestro propio sistema solar y su periferia por enormes
nubes de polvo y gas que yacen entre nosotros y el centro agitado.
Algunos centros galácticos son tan brillantes que pueden ser
divisados a distancias de miles de millones de años luz, distancias
desde las cuales las galaxias mismas no pueden ser vistas, y solo los
centros brillantes y voraces de energía se dejan ver, como cuásares.
Algunos de ellos han sido detectados desde más de diez millones de
años luz de distancia.
Todas esas galaxias se alejan las unas de las otras en una inmensa
expansión universal que comenzó hace quince mil millones de años,
582
cuando toda la materia del Universo se encontraba en una pequeña
esfera que explotó en la más vasta forma concebible para formar
galaxias. El Universo podría expandirse eternamente o puede llegar
el día en que la expansión disminuya y se invierta en una contracción
para volver a formar la pequeña esfera y comenzar el juego de nuevo
de manera que todo el Universo estaría exhalando e inhalando
alientos que quizás tarden billones de años en completarse.
Todo ese panorama que se encuentra más allá del alcance de la
imaginación humana fue posible gracias al trabajo de centenares de
“letrados” astrónomos.
Todo eso, absolutamente todo fue descubierto después de la muerte
de Whitman en 1892, y la mayoría en los últimos veinticinco años, de
modo que el pobre poeta nunca supo cuán limitada e insignificante
era la belleza que admiraba cuando él ‘levantaba la vista en perfecto
silencio hacia las estrellas’.
Tampoco nosotros podemos conocer o imaginar ahora la belleza
ilimitada que se nos revelará en el futuro gracias a la ciencia.”
Isaac Asimov
583
NOTAS DEL CAPÍTULO 39:
1. Imagen: (NASA, dominio público)
2. Las anteriores palabras se han extraído del libro de Carl Sagan,
“Un punto azul pálido: una visión del futuro humano en el
espacio”. Carl Sagan es de sobra conocido para todo el que ama
su Universo. Pero por si no es ese el caso… Fue un astrónomo,
astrofísico, cosmólogo, escritor y divulgador científico
estadounidense (1934-96). Defensor del pensamiento escéptico
científico y del método científico, pionero de la exobiología y
promotor de la búsqueda de inteligencia extraterrestre entre otras
cosas. Ganó gran popularidad gracias a la galardonada serie
documental de TV “Cosmos: Un viaje personal”, producida en
1980, de la que fue narrador y coautor.
3. Isaac Asimov fue un escritor y profesor de bioquímica en la
facultad de medicina de la Universidad de Boston, de origen ruso
nacionalizado estadounidense, y conocido por ser un prolífico
autor de obras de ciencia ficción, historia y divulgación científica.
4. Walt Whitman fue un poeta, enfermero voluntario, ensayista,
periodista y humanista estadounidense. Su trabajo se inscribe en
la transición entre el trascendentalismo y el realismo filosófico,
incorporando ambos movimientos a su obra. Whitman está entre
los más influyentes escritores del canon estadounidense y ha sido
llamado el padre del verso libre. Dada la fecha de su muerte,
1.892, convendremos en su descargo que quizás en su verso no
podía decir otra cosa distinta de la que dijo.
584
APÉNDICE I. Breve cronología y otros parámetros
Tempe Tamaño
Momento Tiempo Energía ratura observable
(K) (metros)
587
4. Bill Bryson: Una breve historia de casi todo.
5. Sean Carrol: El gran cuadro.
6. Alberto Casas: El LHC y la frontera de la física.
7. Alberto Casas: El lado oscuro del universo.
8. Alberto Casas y Teresa Rodrigo: El bosón de Higss.
9. Eric Chaisson y Steve McMillan: Astronomy today.
10. Freeman J. Dyson: Time without end: physics and biology in an
open universe. [2]
11. Paul Davies: Los últimos tres minutos.
12. Cristophe Galfard: El Universo en tu mano.
13. George Gamow: La creación del Universo.
14. Beatriz Gato Rivera: Antimateria.
15. Pedro Gómez-Esteban: La vida privada de las estrellas.
16. Brian Green: El tejido del Cosmos.
17. Brian Green: El Universo elegante.
18. John Gribbin: Biografía del Universo.
19. Shahen Hacyan: Los agujeros negros y la curvatura del
espacio/tiempo.
20. Stephen Hawking: Brevísima historia del tiempo.
21. Stephen Hawking: El Universo en una cáscara de nuez.
22. Catherine Heymans: The dark Universe.
23. Jim Holt: ¿Por qué existe el mundo?
24. Sabine Hossenfelder: Perdidos en las matemáticas.
25. Michio Kaku: Universos paralelos.
26. Lawrence Krauss: A Universe from nothing.
27. Lawrence Krauss: Historia de un átomo.
588
28. Abraham Loeb y Steven R. Furlanetto: Las primeras galaxias
en el Universo.
29. Katie Mack: El fin de todo.
30. Houjun Mo, Frank van den Bosch y Simon White: Galaxy
Formation and Evolution.
31. Roger Penrose: Ciclos del tiempo: Una extraordinaria nueva
visión del universo.
32. Roger Penrose: El camino de la realidad.
33. Carlo Rovelli: El orden del tiempo.
34. Carlo Rovelli: Siete breves lecciones de física.
35. Pilar Ruiz: La aceleración del Universo
36. Carl Sagan: Cosmos.
37. George Smoot y Keay Davidson: Arrugas en el tiempo.
38. Moles Villamate: Claroscuro del Universo.
39. Steven Weinberg: Los tres primeros minutos del Universo.
589
590