Mecanica Cuantica UNED 2022 PDF
Mecanica Cuantica UNED 2022 PDF
Mecanica Cuantica UNED 2022 PDF
Apuntes UNED
http://uned.es
Coordinador: Javier Rodríguez Laguna. Autores: José Enrique Alvarellos, Eva María Fer-
nández, Pablo García González, Javier García Sanz, Begoña Mula Martín.
Prólogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
I Sistemas discretos
Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
Libros 181
Artículos 182
En las asignaturas Física Cuántica I y Física Cuántica II en el tercer curso del Grado se
han puesto las bases del formalismo y se han considerado algunas aplicaciones de la física
cuántica. En esta asignatura se avanza en el formalismo, enfatizando sus desarrollos más
recientes y preparando a los/as estudiantes para aplicaciones más sofisticadas a nivel de
máster, desde la física de la materia condensada a las tecnologías cuánticas o la física de
altas energías.
Para abordar esta asignatura con éxito, el/la estudiante debe tener bien asentados
los conocimientos que se adquieren en las dos asignaturas previas de Física Cuántica,
que se imparten en el tercer curso del Grado. También tiene que estar perfectamente
familiarizado/a con los contenidos de Álgebra Lineal y de Análisis Matemático, con la
Dado que es prácticamente imposible que estas notas estén libres de erratas, se ruega a
los/as estudiantes que usen el foro específico del Curso virtual de la asignatura para advertir
de las mismas a sus compañeros y al equipo docente. Por ello, invitamos a participar
activamente en el curso virtual, y a publicar en los foros soluciones o demostraciones
alternativas, o comentarios críticos a las soluciones de los problemas presentados en este
Material.
Por último, deseamos mencionar que estos apuntes son el resultado de la colaboración
de muchas personas que han formado parte del equipo docente de la asignatura en el
pasado, algunos de los cuales ya no están entre nosotros. Deseamos dedicar un recuerdo
especial al profesor Javier García Sanz, y destacar el esfuerzo de los profesores José Enrique
Alvarellos y Pablo García González. La presente compilación ha sido llevada a cabo por el
actual equipo docente: Eva María Fernández, Begoña Mula y Javier Rodríguez Laguna.
Existe una gran variedad de libros de texto que cubren el material de esta asignatura, si
bien no existe ninguno que lo haga por completo. Recomendamos vivamente a los/as estu-
diantes a que se familiaricen con la literatura, tanto en libros como en artículos científicos.
Cada tema tendrá sus recomendaciones específicas, pero aquí queremos presentar una rela-
ción breve de textos básicos en Mecánica Cuántica en los que profundizar los conocimientos
adquiridos.
T. Banks, Quantum mechanics: an introduction, CRC Press (2019). Un enfoque mo-
derno, muy completo y próximo a la investigación contemporánea.
C. Cohen-Tannoudji, B. Liu, F. Laloë, Quantum mechanics, Wiley interscience (1977).
Aunque es algo antiguo, es un libro especialmente didáctico, con muchos ejemplos resueltos.
Recientemente se ha publicado un tercer volumen que trata el tema del entrelazamiento.
L.E. Ballentine, Quantum mechanics: a modern development, World Scientific (1998).
Un libro didáctico que pone un especial énfasis en el problema de la medición.
R. Shankar, Principles of quantum mechanics, Plenum Press (1994). Proporciona una
introducción muy interesante al formalismo, límite clásico, simetrías, WKB y teoría cuán-
tica relativista.
P. García González, J.E. Alvarellos, J.J. García Sanz, Introducción al formalismo de
la mecánica cuántica, Cuadernos de la UNED (2007). Proporciona un valioso refuerzo del
marco matemático de la mecánica cuántica.
L. de la Peña, Introducción a la mecánica cuántica, Fondo de Cultura Económica (2006).
Uno de los libros de mecánica cuántica más completos en lengua castellana. Algo heterodoxo
en temas de interpretación. Contiene gran cantidad de problemas resueltos.
M.A. Nielsen, I.L. Chuang, Quantum information and quantum computation, Cambrid-
ge Univ. Press (2000). Aunque centrado en información y computación cuántica, ofrece una
exposición muy interesante de la matriz densidad y el entrelazamiento, con muchos ejem-
plos resueltos.
M. Le Bellac, A short introduction to quantum information and quantum computation,
Cambridge Univ. Press (2006). Una exposición sencilla de los temas de información y
computación cuántica.
Nuestra inmersión en la mecánica cuántica se inicia con los sistemas más sencillos, es
decir, los que pueden ser descritos mediante un número finito de estados distinguibles.
Solemos llamarlos sistemas discretos. ¿Y cuáles serán estos sistemas? Pues la variedad es
enorme: estados de espín o de polarización, orbitales ocupados o vacíos o estados confi-
guracionales de una molécula. De hecho, este curso subiremos un peldaño en la escala de
abstracción y, en muchos casos, consideraremos que estos estados son arbitrarios. Cuando
sean dos, sean los que sean, hablaremos de un qubit, en analogía con los bits clásicos.
¿Y qué sistemas son los que dejamos fuera en esta primera parte? Pues aquéllos en
los que los estados distinguibles forman un continuo, en los que tenemos en principio una
cantidad infinita no numerable de estados distinguibles, tales como las posibles posiciones
de una partícula en el espacio.
Sorprendentemente, el estudio de sistemas discretos no es tan restrictivo como parece
a primera vista. Los cálculos reales en mecánica cuántica, como en el análisis de moléculas
o electrones en sólidos, se realizan con mucha frecuencia limitando el conjunto de estados
a un sistema discreto. Además, muchas de las propiedades más fascinantes de la mecánica
cuántica pueden ilustrarse con mayor facilidad sobre sistemas discretos, como es el caso
del entrelazamiento. Por último, los cálculos detrás de las modernas tecnologías cuánticas
están basados con frecuencia sobre sistemas discretos.
Este tema recorre contenidos ya conocidos de Física Cuántica I y II, pero mostrados
con un grado mayor de madurez: qué es un estado, qué es un observable, qué es medir y
cómo se describe la evolución temporal de un estado cuántico.
de que el hilo se estire o se curve. Es decir: siempre hay grados de libertad que
suponemos congelados, y que no afectan a la dinámica.
Si nuestra descripción del sistema es clásica asumimos que todos los estados del mismo
son distinguibles. Pero cuando la descripción es cuántica no siempre lo son. ¿Qué queremos
decir con este término? Diremos que dos estados de un sistema son distinguibles si existe
un aparato que los distingue con certeza en un solo experimento.
C ¿No podría existir un aparato desconocido que distinga con certeza entre todos los
ángulos de polarización? Por supuesto. La física es una ciencia, y la ciencia avanza
siempre sobre certezas parciales. Hasta donde sabemos, la física de la polarización se
describe en base a dos estados distinguibles.
C Consideremos dos estados de polarización que forman, entre sí, 45º. Por tanto, la
probabilidad de confundirlos es cos2 (45) = 1/2. Uno podría pensar que se pueden
n
X
~u = u1~a1 + u2~a2 + · · · + un~an = ui~ai , (1.1)
i=1
donde los ui ∈ C suelen denominarse componentes del vector. No existe ningún estado
posible que no sea representable en esta forma. La expresión (1.1) es la base para construir
toda la MQ, pero la reescribiremos empleando la notación de Dirac. Cada vector se
escribe en forma de ket. Así, la base canónica pasa a ser |a1 i, |a2 i, etc. El conjunto de
estos estados se denominará una base: A = {|ai i}ni=1 , y representamos el estado genérico
como
n
X
|ui = u1 |a1 i + u2 |a2 i + · · · + un |an i = ui |ai i , (1.2)
i=1
donde los ui ∈ C pueden seguir llamándose componentes, pero también serán denominados
amplitudes de probabilidad por razones que veremos después. En cualquier caso, los kets no
son más que vectores. La notación de Dirac tiene alguna ventaja sobre la notación usual de
álgebra lineal, pero, con franqueza, la diferencia más notable es que nos permite reconocer
los libros de MQ con sólo abrirlos.
Hemos dicho que todo estado físico posible es representable como un ket con la forma
(1.2). Pero cabe preguntarnos: ¿dos vectores (kets) diferentes siempre representan estados
diferentes? La respuesta es no. Si dos vectores (kets) son proporcionales diremos que re-
presentan el mismo estado físico: |ui y K |ui (con K ∈ C) son vectores diferentes, pero
representan al mismo estado. Es decir: los estados físicos se corresponden con las direccio-
nes del espacio vectorial H. En términos matemáticos diremos que el espacio de estados
tiene naturaleza proyectiva.
C ¿Y por qué números complejos? ¿No podría construirse la mecánica cuántica úni-
camente con números reales? En principio, sí, pero sería mucho más complicada y
menos elegante. Hablaremos más de ello a lo largo del tema.
~u · ~v
cos(~u, ~v ) = , (1.3)
k~uk k~v k
Un espacio vectorial de dimensión finita con producto escalar es un espacio de Hilbert,
y ésta es precisamente la estructura que necesitaremos para poder describir los estados de
un sistema cuántico (discreto).
C Es muy notable que la geometría euclídea, que se desarrolló para describir el espacio
tridimensional en el que nos movemos, constituya una estructura útil para describir
un mundo tan alejado de ella como la mecánica cuántica. Cuando David Hilbert desa-
rrolló su geometría abstracta estaba convencido de que no tendría ninguna aplicación
práctica. La verdad es que es complicado que un área de las matemáticas no termine
siendo aplicada en física.
X
~u · ~v = u∗i vi . (1.4)
i
donde u∗i denota el complejo conjugado de ui , y vemos que cumple las tres propiedades
definitorias. Sobre todo, ~u · ~u = k~uk2 , que debe ser necesariamente real para poder ser
interpretado como una longitud.
• • •
X
hu|vi = u∗i vi , (1.5)
i
C Esta idea de confundir estados requiere algo más de explicación. Consideremos que
nos piden construir un aparato que nos permita detectar el estado |ui y ningún otro.
El aparato debe decir SÍ cuando lo aplicamos sobre un sistema cuántico que está
en el estado |ui, y NO si está en cualquier otro estado |vi 6= |ui. ¿Es eso posible?
La respuesta es no. Lo mejor que podemos conseguir cuando lo aplicamos sobre un
estado arbitrario |vi es que el aparato responda SÍ con una probabilidad |hu|vi|2 .
• • •
Existe una manera alternativa de considerar el producto escalar que nos resultará de
mucha utilidad. Dado un vector ~u definimos su dual o adjunto, Fu , como una forma, es
decir, una función lineal que toma vectores y devuelve números (complejos, si es menester).
Es decir, si ~u ∈ H, Fu : H 7→ C, de tal manera que Fu (v) = ~u · ~v .
De la misma manera, dado un estado, |ui, definimos su dual, adjunto o bra asociado hu|
como una forma, es decir, una función lineal que, cuando actúa sobre un ket cualquiera, |vi,
nos devuelve el producto escalar de ambos, hu|vi, o bra-ket 1 . ¿Y cuál es su interpretación
física? Un bra es un detector de estados. El bra hu| sirve para encontrar al estado |ui. Si
aplicamos el bra hu| a distintos estados nos da cero cuando el estado sobre el que actuamos
1
Sí, es un chiste. Sí, es horrible.
es distinguible de |ui y uno cuando hemos dado con el mismo |ui. En casos intermedios,
nos da valores complejos intermedios que nos informan sobre la medida en la que se parece
el estado al estado deseado, |ui.
Recordemos que, por ser un producto hermítico, se cumple necesariamente que hu|vi =
hv|ui∗ , y justamente por ello hu|ui = hu|ui∗ es siempre real.
E0,x ei(kz−ωt+φx )
iφx
e cos θ
~ r) = E0,y ei(kz−ωt+φy ) = E0 ei(kz−ωt) eiφy sin θ ,
E(~ (1.7)
0 0
donde E0,x = E0 cos θ y E0,y = E0 sin θ, y φx y φy son los desfases de cada una de las
componentes. Las componentes X e Y de ese último vector se denominan vector de Jones√de
√ y se corresponden con α y β en nuestro problema. Tenemos que cos θ = 1/ 2,
polarización,
sin θ = 1/ 2, de manera que θ = π/4. Asimismo, eiφx = 1 y eiφy = i, así que podemos
tomar φx = 0 y φy = π/2, y nos quedan ambas componentes desfasadas π/2 radianes,
dando lugar a una polarización circular.
Ejemplo 1.2 Consideremos ahora un espín 1/2. Es decir, el estado de espín de una
única partícula (por ejemplo, un electrón), haciendo abstracción de sus grados de libertad
espaciales. En este caso, los experimentos de Stern-Gerlach muestran que los estados dis-
tinguibles, a diferencia de la polarización fotónica, se corresponden a direcciones opuestas.
Por ejemplo, podemos elegir como estados distinguibles Z+ y Z− , así que Ω = {Z+ , Z− }.
Estos estados suelen escribirse a veces como + y −, o como ↑ y ↓. Así, un estado arbitrario
puede escribirse como
La matemática del espín 1/2 es intrigante: estamos usando dos estados para representar
una dirección en tres dimensiones. ¿Cómo es eso posible? Los experimentos de Stern-
Gerlach nos dicen que si preparamos un espín 1/2 apuntando en la dirección del eje X+ y
otro apuntando en la dirección Z+ , ambos pueden confundirse con una probabilidad 1/2.
Es decir,
Pero el eje X+ no tiene nada de especial, así que debe ser cierto que |hY+ |Z+ i|2 = 1/2, e
incluso que |hX+ |Y+ i|2 = 1/2, e igual con X− , Y− y Z− , por supuesto. Vamos a demostrar
que necesitamos números complejos para representar esta situación.
Una posibilidad que nos garantiza que la fidelidad entre X+ y Z+ sea 1/2 es
1
|X+ i = √ (|Z+ i + |Z− i) , (1.10)
2
es decir: para un espín 1/2, apuntar a la derecha significa apuntar hacia arriba y hacia
abajo a la vez. Pero, ¿qué será apuntar hacia la izquierda? Recordemos que ese estado debe
ser distinguible de apuntar a la derecha, es decir: hX+ |X− i = 0. Proponemos entonces
1
|X− i = √ (|Z+ i − |Z− i) . (1.11)
2
Estos estados son ortogonales. Vamos por buen camino. ¿Y qué sucede con el eje Y+ y Y− ?
Pues no tendrían cabida sin hacer uso de números complejos. Proponemos
1
|Y+ i = √ (|Z+ i + i |Z− i) ,
2
1
|Y− i = √ (|Z+ i − i |Z− i) , (1.12)
2
Y podemos comprobar que se cumple que |hY+ |Z+ i|2 = |hY+ |Z− i|2 = 1/2. Un poco de
álgebra nos convencerá de que también se cumple que |hY+ |X+ i|2 = |hY+ |X− i|2 = 1/2.
Ejemplo 1.3 Llamaremos un qubit a cualquier sistema cuántico de dos estados, repre-
sentando uno de ellos por 0 y el otro por 1, en analogía con los bits (binary digits) que se
usan en computación. Un estado de un qubit será
El término análogo para tres estados es qutrit, y en general se llama qudit al cualquier
sistema cuántico con pocos estados, cuando va a ser empleado de manera abstracta. Sin
embargo, estos últimos términos son mucho menos empleados.
Ejemplo 1.4 Un sistema de espín 1 genérico está caracterizado por tres estados distin-
guibles. Una vez fijado un eje, pongamos el eje Z, existen estados con espín hacia arriba,
nulo o hacia abajo, que llamaremos |Z+ i, |Z0 i y |Z− i y que escribiremos como |+i, |0i y
|−i si el eje está claro. En general, un sistema de espín j tendrá como estados distinguibles
|Z−j i , · · · , |Z+j i, a lo largo del eje Z.
Cabe preguntarse qué sucede en otros ejes. En el caso de espín 1 tendremos siempre
tres estados, sea cual sea el eje seleccionado, pero la comparativa entre estados en uno y
otro eje será pospuesta hasta la sección próxima.
Ejemplo 1.5 Desde el punto de vista de las interacciones nucleares, el protón y el neutrón
pueden considerarse como dos estados de la misma partícula, que meramente se diferencian
en su isospín, que tiene propiedades análogas al espín 1/2. Por convención diremos que el
protón tiene isospín +1/2 y el neutrón −1/2. Asi, un nucleón es en realidad un sistema de
dos estados, |pi y |ni, distinguibles cuánticamente, y puede existir en cualquier combinación
lineal de ambos.
Ejemplo 1.6 La molécula de NH3 a baja energía puede existir en dos estados configura-
cionales. Los tres hidrógenos están en el mismo plano, que consideraremos el plano XY ,
y el nitrógeno puede estar localizado en su posición de equilibrio en el eje Z+ o en el
Z− . Ambos estados son distinguibles, pero el estado cuántico de la molécula es puede ser
descrito mediante una combinación lineal de ambos.
y un electrón que puede ocupar el orbital 1s de cada uno de ellos. Si los átomos no están
demasiado cerca entre sí, es legítimo asumir que el electrón situado en el átomo i-ésimo
es un estado distinguible del electrón situado en el átomo j-ésimo, si i 6= j. Es decir,
Ω = {1, 2, · · · , n}, y representamos el estado a través del índice del átomo sobre el que está
el electrón. Un estado arbitrario se puede escribir como una combinación lineal de esos
estados:
n
X
|Ψi = Ci |ni . (1.14)
i=1
Este electrón estará, en general, deslocalizado, y tendrá una probabilidad de ser encontrado
sobre el átomo i dada por probabilidad de ser confundido con el estado |ii, es decir,
Pi = |hi|Ψi|2 = |Ci |2 .
Por ejemplo, si Ci = δi,1 , entonces el electrón está totalmente localizado en el primer
átomo. Y si Ci = n−1/2 para todo i, entonces el electrón está totalmente deslocalizado, con
la misma probabilidad de ser encontrado en todos los átomos: Pi = |hi|Ψi|2 = |Ci |2 = 1/n.
n
X n
X
|Ψi = αi |ai i = βj |bj i . (1.15)
i=1 j=1
primera base como combinación lineal de los elementos de la segunda. Por ejemplo, Alicia
expresa sus estados en la base de Beatriz y los escribe de la siguiente forma,
o, en forma resumida,
n
X
|ai i = Uji |bj i . (1.17)
j=1
¿Cómo puede Alicia determinar este diccionario, es decir, los coeficientes Uji ? Tomemos la
primera ecuación y multipliquémosla por la izquierda por el bra hb1 |. Obtenemos
hb1 |a1 i = U11 hb1 |b1 i + U21 hb1 |b2 i + · · · + Un1 hbn |b1 i, (1.18)
pero recordemos que los estados {|bi i} son distingibles, es decir, ortogonales: hbi |bj i = δij .
Así, todos los términos de la derecha son nulos salvo el primero,
X X X XX X
αi |ai i = αi Uji |bj i = αi Uji |bj i = βj |bj i , (1.21)
i i j j i j
X
βj = Uji αi , (1.22)
i
En notación matricial,
β~ = U α
~, (1.23)
α ~
~ = V β, (1.24)
pero echando un vistazo a la ecuación (1.20) se nos ocurre que la solución no debe ser
difícil:
Claramente, aplicar las dos matrices de cambio de base sucesivamente es lo mismo que no
hacer nada, U V = V U = I, donde I es la identidad. De aquí deducimos que las matrices
de cambio de base cumplen
U U † = U † U = I, (1.26)
C Los cambios de base pueden ser confusos: la misma matriz U que nos sirve para
transformar los estados de Alicia en estados de Beatriz, ec. (1.17), también nos sirve
para transformar las componentes de Beatriz en componentes de Alicia, ec. (1.23). La
razón intuitiva es sencilla: si yo me muevo hacia la izquierda, todos los objetos desde
mi perspectiva se mueven hacia la derecha. La transformación que realizamos sobre
una base es la inversa de la que realizamos sobre las componentes de los vectores
expresados en ella. Ante un problema práctico recomendamos que no se aprenda de
memoria ninguna de estas expresiones, sino que se exprese el cambio de base entre
los vectores (antiguos en función de nuevos es siempre lo más útil) y que a partir de
ahí se obtenga la transformación entre las componentes de los vectores.
Ejemplo 1.8 Consideremos de nuevo los estados de espín 1/2 y tres bases distintas de
entre todas las posibles: {|X+ i , |X− i}, {|Y+ i , |Y− i}, {|Z+ i , |Z− i}. Veamos si podemos
escribir la matriz que traduce las amplitudes X a amplitudes Z. Partamos de un estado
único, que escribimos en las tres bases,
Conociendo la expresión de los estados |X± i en función de los |Z± i, usando las ecuaciones
(1.10) y (1.11) podemos escribir
hZ+ |X+ i hZ+ |X− i 1 1 1
UX→Z = =√ , (1.28)
hZ− |X+ i hZ− |X− i 2 1 −1
αx αz
UX→Z = . (1.29)
βx βz
hZ+ |Y+ i hZ+ |Y− i 1 1 1
UY →Z = =√ . (1.30)
hZ− |Y+ i hZ− |Y− i 2 i −i
1 1 1
UY →Z =√ , (1.31)
0 2 i
Resumen 1.1. Todo estado cuántico puro se puede representar como un vector o ket
normalizado de un espacio de Hilbert complejo H. El espacio de Hilbert se construye
escogiendo un conjunto completo de estados físicos distinguibles y asignando a cada uno
un vector de una base ortogonal. Llamaremos fidelidad entre dos estados a la probabi-
lidad de confundirlos, que está dada por el cuadrado de su producto escalar, |hΦ|Ψi|2 .
Sean A = {|ai i} y B = {|bi i} dos bases ortogonales,P y sean {α Pi } y {βi } las com-
ponentes de un mismo vector en ambas bases, |ψi = αi |ai i = j |bj i. La matriz
βP
Uij = hbi |aj i transforma los vectores de B en vectores de A, |ai i = j Uji |bj i y las
componentes en A a componentes en B, es decir, βi = j Uij αj . Es una matriz unitaria
P
U U † = U † U = I.
• • •
Un observable, Â, viene especificado por una base ortogonal de autoestados {|ai i}ni=1
con su conjunto de autovalores asociados, {ai }. Cuando se mide  sobre el estado |ak i la
respuesta es ak con certeza. ¿Y qué sucede cuando medimos un observable sobre un estado
que no es uno de sus autoestados? Eso queda para la siguiente sección, y constituye el
conocido problema de la medida.
Ejemplo 1.9 Consideremos el observable asociado a la componente Z del momento an-
gular de una partícula de espín 1/2, que llamaremos Ŝz . Si el estado es Z+ , el valor del
observable Ŝz es +~/2, con certeza. Y si el estado es Z− , el valor del observable será −~/2,
también con certeza. Dichos estados son necesariamente distinguibles, ya que la medición
de Ŝz los distingue con certeza. Por lo tanto, sus vectores asociados en el espacio de Hilbert
deben ser ortogonales. En efecto, hZ+ |Z− i = 0. Sin embargo, si elegimos como observable
la componente X del momento angular de la misma partícula, los estados propios son X+
y X− , y sigue cumpliéndose que hX+ |X− i = 0.
C Es importante destacar que no todas las cosas que podemos medir en el laboratorio son
observables. La posición, velocidad, energía, momento angular, espín, carga eléctrica,
etc. lo son. Pero el tiempo, por ejemplo, no es un observable en el formalismo que
estamos describiendo, sino un parámetro externo. La temperatura o la entropía, por
otro lado, no pueden ser asociados a un estado cuántico, sino a una colectividad
estadística de ellos, de modo que tampoco vienen descritas por observables en el
sentido que les damos aquí.
1.2.2 Operadores
Consideremos el conjunto de operadores lineales sobre el espacio de Hilbert, H, que
denotaremos como L(H). Como veremos, es posible asociar a cada observable un opera-
dor, pero es conveniente realizar la construcción paso a paso para poder comprenderla en
profundidad. Cuando convenga distinguir los operadores de otros objetos usaremos gorros
sobre letras mayúsculas: M̂ , Ŝz . Abusando de la notación, también aplicaremos esta regla a
los observables representados por dichos operadores, aunque se trata de objetos diferentes:
el observable tiene carácter físico y el operador es su representación matemática.
• • •
Un operador lineal siempre puede ser representado en forma matricial en una determi-
nada base. Sea A = {|ai i} nuestra base canónica. Los elementos de matriz de un operador
son equivalentes a las componentes de un vector: nos facilitan el trabajo, pero dependen
de la base. Recordemos que la mejor forma de construir la matriz de un operador es escri-
biéndola por columnas: la columna k-ésima de la matriz asociada a un operador M̂ en una
cierta base son las componentes del vector que resulta al actuar con M̂ sobre el k-ésimo
vector de la base.
Veamos un ejemplo. Consideremos un operador descrito como M̂ = |ak i hal |, con k y
l dados. ¿Cómo interpretar su actuación? El bra hal | actúa como detector de entrada y el
ket |ak i como emisor de salida. Cuando el operador actúa sobre un estado, primero detecta
cuánto se parece a al , y luego produce ak en la misma medida. Concretamente, cuando
actúa sobre el vector de la base |al i nos devuelve |ak i, y cuando actúa sobre cualquier otro
estado de la base, el resultado es cero. Eso implica que en su representación matricial la
única columna no nula será la l-ésima, y en ella sólo la k-ésima entrada será igual a uno,
mientras que las demás serán cero. Es decir, Mkl A = 1 y el resto serán valores nulos. Eso
X
M̂ = MijA |ai i haj | , (1.32)
i,j
• • •
! !
X X X X X
M̂ = MijA |ai i haj | = MijA Uik |bk i Uil∗ hbl | = B
Mkl |bk i hbl | , (1.34)
ij ij k l kl
donde Mkl
B = MijA Uik Uil∗ , que se puede expresar de forma matricial como
P
ij
M B = U † M A U. (1.35)
Ésa es la ecuación que debemos usar para cambiar las representaciones matriciales de base.
• • •
para cualquier par de estados |ai, |bi ∈ H. Esta definición no es la más habitual, pero es
muy útil. Usando la linealidad llegamos a la definición más estándar:
X X X X X
TrM̂ = Tr MijA |ai i haj | = MijA Tr|ai ihaj | = MijA haj |ai i = MijA δij = MiiA ,
ij ij ij ij i
(1.37)
n
X
TrM̂ = hai |M̂ |ai i, (1.38)
i=1
donde debemos destacar que este resultado es independiente de la base empleada. Por lo
tanto, la traza también puede calcularse en la base propia del operador, correspondiendo
a la suma de sus autovalores. Otra propiedad esencial de la traza, cuya prueba dejamos
como ejercicio, es que
C ¿Por qué nos interesa tanto la traza? Porque nos sirve para sumar sobre todos los
estados, y esa operación es muy usual tanto en mecánica cuántica como en mecánica
estadística. De hecho, la función de partición, Z, de la que se extraen todas las
propiedades de un sistema en equilibrio no es más que la traza del operador apropiado.
para cualquier pareja de estados |ui y |vi. Intuitivamente, es el operador que intercambia
los papeles de entrada y salida. Sabemos que todo operador se puede escribir en la forma
(1.32), es decir, una suma de términos |ai i haj | que tienen un bra detector y un ket emisor.
En cada uno de ellos podemos intercambiar esos roles, y tenemos
X
M̂ † = (MijA )∗ |aj i hai | , (1.41)
i,j
donde hemos añadido el complejo conjugado. Nótese que este expresión depende de la
base elegida, pero es fácil mostrar que el operador M̂ † puede calcularse de esta forma
en cualquier base ortonormal. La operación de tomar el operador adjunto cumple varias
propiedades relevantes, como que
†
P̂ Q̂ = Q̂† P̂ † , (1.42)
• • •
que el espectro de los operadores autoadjuntos es real y que se puede formar una base or-
tonormal con sus autoestados. El teorema también se puede leer al revés: si los autovalores
de un operador son reales y sus autoestados ortogonales, el operador es autoadjunto.
X
M̂ = mi |mi i hmi | , (1.43)
i
es decir, el operador es diagonal en la base {|mi i}, con espectro {mi }. En efecto, cada |mk i
es autoestado de M̂ , como podemos comprobar fácilmente:
X X
M̂ |mk i = mi |mi i hmi |mk i = mi |mi i δik = mk |mk i . (1.44)
i i
X
|mk i = Uki |ai i . (1.45)
i
• • •
Uno de los primeros usos de la forma diagonal de un operador es poder calcular fácil-
mente sus potencias. En efecto, es fácil mostrar que M̂ = ij (M )pij |ai i haj |, y sabemos
p A
P
que (M A )pij = (U DM U † )p = U DM
p
U † debido a que U † U = I. De esta manera tenemos que
Esto nos permite definir el uso de una función analítica sobre un operador, es decir, un
objeto P
del tipo f (M̂ ) donde f : C 7→ C viene expresada por una serie de potencias,
f (z) = n an z n . En ese caso podemos decir que
X
f (M̂ ) ≡ f (mi ) |mi i hmi | , (1.47)
i
es decir: para hacer actuar una función analítica sobre un operador basta con hacerla actuar
sobre sus autovalores, dejando los autovectores intactos.
X
 = ai |ai i hai |. (1.48)
i
¿Qué ventaja tiene representar los observables como operadores? El trabajo cotidiano en
MQ consiste en hacer álgebra con los operadores, es decir: tomamos un puñado de ob-
servables cuyos operadores tienen un espectro conocido y los sumamos, multiplicamos o
aplicamos funciones sobre ellos para construir operadores que corresponden a observables
más complejos, con frecuencia la energía. Al hacerlo, el operador resultado tendrá unos
autovalores diferentes, pero sobre todo unos autoestados diferentes de los autoestados de
los operadores de los que proviene, por lo general de una forma difícil de predecir. Y aquí
reside la riqueza y la dificultad de la MQ.
Por conveniencia, solemos asumir que los valores propios de un observable están or-
denados, a1 ≤ a2 ≤ · · · ≤ an (o alternativamente, ordenados de forma decreciente). Un
observable tiene autovalores degenerados si ai = ai+1 para algún i. En ese caso es im-
portante notar que el estado α |ai i + β |ai+1 i también es autoestado de Â, con el mismo
autovalor. El observable no duda sobre cuál debe ser el resultado de la medición. Nótese,
por tanto, que cuando hay autovalores degenerados, el número de estados propios es infi-
nito. Sin embargo, el número de estados propios distinguibles (ortogonales) sigue siendo el
mismo.
ˆ tiene un único autovalor, 1, y cualquier estado es
Por ejemplo, el operador identidad, I,
autoestado. Veremos ejemplos más interesantes de operadores con autovalores degenerados
en la siguiente sección.
Ejemplo 1.10 Construyamos nuestros primeros operadores simples, los asociados a las
componentes del espín a lo largo de los tres ejes coordenados, Ŝx , Ŝy y Ŝz . En su base
propia, los tres son diagonales y con autovalores ±~/2,
~ ~
Ŝz = |Z+ i hZ+ | − |Z− i hZ− | , (1.49)
2 2
ordenando los estados como |u1 i = |Z+ i, |u2 i = |Z− i, tenemos la representación matricial
X
Ŝz = (Sz )ij |ui i huj | , (1.50)
i,j
~ +1 0 ~
Sz = ≡ σz , (1.51)
2 0 −1 2
y σz es una de las matrices sigma de Pauli. Las otras se obtienen con facilidad cuando
consideramos los estados apropiados:
~ ~ ~ ~
Ŝx = |X+ i hX+ | − |X− i hX− | , Ŝy = |Y+ i hY+ | − |Y− i hY− | , (1.52)
2 2 2 2
que tras un poco de álgebra podemos expresar en la base de {|Z+ i , |Z− i},
~ ~ ~ ~
Ŝx = |Z− i hZ+ | + |Z+ i hZ− | , Ŝy = i |Z− i hZ+ | − i |Z+ i hZ− | . (1.53)
2 2 2 2
Esto nos permite escribir las representaciones matriciales de ambos operadores en la base
de Ŝz ,
~ 0 1 ~ ~ 0 −i ~
Sx = ≡ σx , Sy = ≡ σy , (1.54)
2 1 0 2 2 +i 0 2
que también podrían haber sido obtenidas haciendo (Sx )ij = hui | Ŝx |uj i. Nótese que re-
servamos la notación Ŝz para el operador en el espacio de Hilbert, no para la matriz que
lo representa en una base fijada.
Ejemplo 1.11 Consideremos el observable formado por la componente del espín a lo largo
de un eje genérico, Ŝ~n , donde |~n| = 1, en un sistema de espín 1/2, que se construye haciendo
uso de la regla natural:
Sabemos que los autovalores son ±~/2 y que sus autoestados serán |~n+ i y |~n− i. Pero esa
respuesta es tan correcta como inútil. Para que nos pueda ser de utilidad, debemos ser
capaces de representar esos estados en una base conocida, como la de los autoestados de
Ŝz . Para ello construimos la representación matricial,
~ nz nx − iny
S~n = , (1.56)
2 nx + iny −nz
y diagonalizamos esta matriz. Los autovalores son, en efecto ±~/2 y los autoestados quedan
como ejercicio.
Ejemplo 1.12 Sea un sistema de espín s, y sean {s, s−1, · · · , −s+1, −s} los (2s+1) estados
distinguibles, etiquetados por su componente a lo largo del eje Z, es decir, Ŝz |mi = ~m |mi.
Todos los estados cumplen que Ŝ 2 |mi = ~s(s+1) |mi. Las reglas generales de construcción
de los operadores de espín s arbitrario son las siguientes dos ecuaciones:
(1.57)
p
Ŝ± |mi = ~ s(s + 1) − m(m ± 1) |m ± 1i ,
A partir de aquí podemos construir las matrices asociadas a las tres componentes del
espín en un sistema de espín 1, en la base |+i, |0i, |−i asociada al eje Z,
√ √
Ŝ+ |−i = ~ 2 |0i , Ŝ+ |0i = ~ 2 |+i , Ŝ+ |+i = 0
√ √
Ŝ− |+i = ~ 2 |0i , Ŝ− |0i = ~ 2 |−i , Ŝ− |−i = 0. (1.59)
0 1 0 0 −i 0 1 0 0
~ ~
Sx = √ 1 0 1 , Sy = √ i 0 −i , Sz = ~ 0 0 0 .
2 0 1 0 2 0 i 0 0 0 −1
(1.60)
Los autoestados se obtienen diagonalizando estas matrices, pero dejamos esa tarea para
los problemas.
1.2.5 Proyectores
Un proyector es un operador que filtra una serie de estados y desecha los demás. Si
i=1 , con m ≤ n, es un conjunto de estados ortonormales, entonces podemos
U = {|ui i}m
escribir
m
X
P̂U = |ui i hui | . (1.61)
i=1
Veamos cómo leer esta expresión para darle un sentido físico. Cada bra hui | es un detector,
que nos dice en qué medida el estado sobre el que actuamos se parece a |ui i. Y, justo en esa
medida, creamos un |ui i nuevo, mediante el ket que va a su izquierda. También diremos
que P̂U es el proyector sobre el subespacio expandido por los vectores de U .
Veamos cómo actúa sobre cualquier estado |Ψi. Para ello, completemos el conjunto U
hasta convertirlo en una base ortonormal del espacio de Hilbert, UT = U ∪ {|ui i}ni=m+1 =
{|ui i}ni=1 , de forma que los primeros m vectores
Pn sean los de U . Y después descompongamos
nuestro estado en esta nueva base, |Ψi = k=1 αk |uk i:
n
X n
X m
X n
X m
X m
X
P̂U |Ψi = P̂U αk |uk i = αk |ui i hui |uk i = αk |ui i δi,k = αi |ui i , (1.62)
k=1 k=1 i=1 k=1 i=1 i=1
donde hemos usado la ortogonalidad de los estados |uk i. De esta manera podemos observar
que el operador P̂U filtra las componentes del estado |Ψi a lo largo de las direcciones de U
y desecha las demás.
Geométricamente, P̂U nos da la proyección ortogonal de cualquier vector sobre el subes-
pacio expandido por U . Toda proyección ortogonal tiene que cumplir ciertas propiedades:
(a) un proyector es un operador autoadjunto, (b) su espectro sólo está formado por 0 y
1, (c) su cuadrado es siempre él mismo, es decir, es idempotente. Podemos ver cómo el
operador P̂U cumple todas esas propiedades.
Es un operador autoadjunto. En efecto, si intercambiamos salida y entrada, el ope-
rador queda igual, así que P̂U† = P̂U .
Su espectro sólo está formado por 0 y 1. Fijémonos en que el operador tiene ya la
forma (1.43). Podemos comprobar que cualquier vector |ui i con i ≤ m es autovector
con autovalor 1. ¿Y los autovalores cero? El resto, con m < i ≤ n.
Es idempotente. En efecto,
m
X m
X m
X
P̂U2 = P̂U P̂U = |ui ihui |uj ihuj | = |ui iδi,j huj | = |ui ihui | = P̂U . (1.63)
i,j i,j i
Pm
Ejemplo 1.13 ¿Cuándo la suma de dos proyectores es un proyector? Sean P̂A = i=1 |ai i hai |
Pp
y P̂B = i=1 |bi i hbi |. La suma,
m
X p
X m+p
X
P̂A + P̂B = |ai i hai | + |bi i hbi | ≡ |ci i hci | , (1.64)
i=1 j=1 i=1
X
P̂i = |ai,j i hai,j | , (1.65)
j
y entonces nos damos cuenta de que podemos expresar el observable  en forma de des-
composición espectral:
X
 = ai P̂i , (1.66)
i
es decir, una combinación lineal de proyectores con pesos dados por los autovalores. Cual-
quier expresión de la forma (1.66) representa un observable válido con la condición de que
los P̂i proyecten sobre subespacios que sean ortogonales entre sí y entre todos recompongan
el espacio entero. Es decir, si se cumple que P̂i P̂j = 0 si i 6= j y además
ˆ
X
P̂i = I, (1.67)
i
Γ
Ĥ = − Ŝz , (1.68)
~
donde Γ es proporcional al módulo del campo. Sus valores posibles son ±Γ/2, y sus autoes-
tados son |Z± i. Evidentemente, podemos definir el Hamiltoniano usando otra componente
cualquiera del espín, y también podemos sumarle un término proporcional a la identidad,
es decir,
Γ ˆ
Ĥ = − Ŝ~n + E0 I. (1.69)
~
Es interesante darse cuenta de que (1.69) constituye el Hamiltoniano más general posible
para un sistema de espín 1/2. Dejamos la prueba como ejercicio.
Ejemplo 1.15 En el caso de una partícula de espín 1 tenemos más observables que pueden
servir para determinar la energía, ya que Ŝz2 no es proporcional a la identidad. Así, tenemos
como posibilidad
Γ Λ
Ĥ = − Ŝz − 2 Ŝz2 , (1.70)
~ ~
y podemos interpretar este operador al hacerlo actuar sobre los elementos de la base, |+i,
|0i y |−i,
de manera que Ĥ es diagonal en la base de Ŝz , pero los estados |±i son más favorables
energéticamente a causa el segundo término, mientras que el primero sólo favorece a |+i
3.
Ejemplo 1.16 Regresemos al caso de la cadena atómica, ejemplo 1.7, y veamos cómo cons-
truir un Hamiltoniano razonable. Aceptaremos que todos los átomos están equiespaciados,
y que sólo hay un estado distinguible por átomo, correspondiente a un orbital fijado, de
forma que el conjunto {|ii} constituye una base. La matriz del Hamiltoniano se construye
de la forma Hij = hi|Ĥ|ji. Los elementos diagonales nos dan la energía de un electrón
localizado en su orbital, Hii = ε0 , que supondremos conocido. Los elementos no diagonales
nos dan los llamados términos de salto (en inglés, hopping), que tienen que ver físicamente
con la amplitud de probabilidad de que el electrón salte de un átomo a otro. Parece una
aproximación razonable suponer que el electrón sólo podrá saltar entre átomos vecinos,
es decir, Hi,j = ε0 δi,j + ε1 δi,j±1 , que supondremos siempre real. La matriz completa nos
queda
ε0 ε1 0 ··· 0
ε1 ε0 ε1
··· 0
H = 0 ε1 ε0
··· 0 , (1.72)
.. .. .. .. ..
. . . . .
0 0 0 ··· ε0
es decir, es una matriz tridiagonal que puede ser diagonalizada de manera exacta. La
ecuación de autovalores se escribe como
donde hemos adoptado una notación vectorial estándar, pero las componentes de ~u, {ui },
deben interpretarse
P como las amplitudes de probabilidad de los estados |ii en el estado
general: |ui = i ui |ii. El sistema (1.73) consta de n ecuaciones, elegimos la j-ésima,
donde 2 ≤ j ≤ n − 1. Observando la ecuación (1.72) con detenimiento llegamos a
C El ejemplo anterior es muy empleado en física del estado sólido y química cuántica,
donde se conoce como el modelo del enlazado fuerte, o tight-binding model. Asimismo
se emplea en átomos fríos en redes ópticas, donde los átomos pueden ser reales o me-
ramente corresponder a distintos niveles energéticos del mismo átomo. Por ejemplo,
los niveles hiperfinos de un átomo de alto espín nuclear, usando láseres de frecuencias
apropiadas se pueden convertir en una cadena artificial.
C De nuevo debemos distinguir entre observable, que es físico, operador, que es un objeto
matemático abstracto, y matriz, que es un objeto matemático concreto. Nótese que
estamos reservando la notación Ĥ para observables y sus operadores asociados, pero
la representación matricial se escribe como H.
hui |Â|uj i, que suelen denominarse elementos de matriz. Sea una segunda base V = {|vi i}
y Wij = hvi |uj i. Entonces AVij = W AU W † . La matriz asociada a un observable en su
base propia es siempre diagonal: Â = i ai |ai i hai |.
P
son no degenerados. Medimos  sobre el estado |Ψi. La medida dará como resultado el
valor ai con probabilidad p(ai ) = |hai |Ψi|2 , relación que conocemos como la regla de
Born. Es decir: el observable compara el estado ofrecido con sus autoestados, y elige uno
al azar con unas probabilidades determinadas por la semejanza entre ellos y el estado. Tras
la medición, el estado pasa a ser |ai i, de forma que si repetimos la medición inmediatamente
después, el resultado será ai con certeza.
Ejemplo 1.17 En un sistema de espín 1/2, el observable Ŝx tiene como estados pro-
pios {|X+ i , |X− i}, con autovalores {+~/2, −~/2}. Si medimos Ŝx sobre el estado |Ψi =
α |X+ i + β |X− i (normalizado), obtendremos el valor +~/2 con probabilidad |hX+ |Ψi|2 =
|α|2 , y el valor −~/2 con probabilidad |hX− |Ψi|2 = |β|2 .
¿Qué sucede cuando los autovalores son degenerados? Hay una manera sencilla de
entenderlo, partiendo de un espectro completamente no-degenerado, con autovalores {ai }.
La probabilidad de obtener el autovalor ai al medir sobre el estado |Ψi es |hai |Ψi|2 . Ahora
supongamos que los valores a1 , a2 , · · · , am se acercan entre sí hasta hacerse indistinguibles,
a1 = · · · = am , formando un único estado m veces degenerado. La probabilidad de obtener
este estado
P será, lógicamente, la suma de las probabilidades de cada uno de los estados,
p(ai ) = m i=1 |hai |Ψi|2.
m m m
!
X X X
p(ai ) = hΨ| |ai i hai | Ψi = hΨ|ai ihai |Ψi = |hai |Ψi|2 , (1.78)
i=1 i=1 i=1
• • •
¿Y cuál es el estado tras la medición? Sean {ai } los autoestados de Â, posiblemente
degenerados, cada uno de los cuales tiene un proyector P̂i . Medimos sobre el estado |Ψi y
obtenemos el resultado ak . Inmediatamente tras la medición, el estado será proporcional a
P̂k |Ψi, es decir: el estado se proyecta sobre el resultado de la medida. Desafortunadamente,
ese estado no está normalizado, así que debe ser normalizado apropiadamente,
P̂k |Ψi
|Ψi 7→ . (1.79)
hΨ|P̂k |Ψi
(
0 si i 6∈ A,
pi 7→ (1.80)
pi /p(A) si i ∈ A,
X X
µA ≡ ai p(ai ) = ai hΨ|P̂i |Ψi, (1.81)
i i
µA = hΨ|Â|Ψi, (1.82)
es decir, la traza del producto del operador  por el proyector sobre el estado. Comprobe-
mos que es cierto,
X X X
2
σA = (ai − µA )2 P (ai ) = a2i hΨ|P̂i |Ψi−µ2A P (ai ) = hΨ|Â2 |Ψi−hΨ|Â|Ψi2 . (1.85)
i i i
Nótese que se emplea el mismo símbolo para la desviación de una medida y para las
matrices de Pauli, y esperamos que el contexto sirva para distinguir ambos usos.
una base de estados en los que una medida de  da un resultado seguro, y lo mismo sucede
con B̂. ¿Qué pasará si tratamos de medir los dos? ¿Existirá una base de estados en los que
ambos darán un resultado seguro? Es decir, ¿existe una base de autovectores comunes a
los dos? Si es así, los observables son compatibles.
Vamos a relacionar esa propiedad física con una propiedad matemática de los operado-
res. Probaremos que dos observables son compatibles si y sólo si sus operadores conmutan,
es decir
• • •
Cuando dos observables son compatibles se pueden medir de manera simultánea. Eso
significa que el resultado de una medida de  seguida inmediatamente de una medida
de B̂ es (estadísticamente) indistinguible de una realizada en el orden opuesto. Si ambos
observables tienen espectro no degenerado, la afirmación es evidente. En cambio, cuando
tienen espectro degenerado la situación se complica un poco más. Notemos, para empezar,
que los valores exactos que toman los autovalores de ambos operadores son irrelevantes,
son meras etiquetas. Importa sólo la estructura de los subespacios asociados a cada uno de
ellos, que están codificados en los proyectores {P̂iA } y {P̂jB }. Tenemos que
X
0 = ÂB̂ − B̂ Â = ai bj P̂iA P̂jB − P̂jB P̂iA , (1.87)
i,j
y de aquí concluimos que para que  y B̂ conmuten deben hacerlo sus proyectores asociados.
¿Cuándo conmutan dos proyectores? Cuando existe una base común de autovectores, y en
ese caso el producto de los dos proyectores es otro proyector sobre el subespacio intersección.
• • •
Sabemos que si dos observables son compatibles sus operadores asociados conmutan.
¿Y qué sucede en caso contrario? No existe una base de autoestados comunes, y eso implica
que, en general, si uno de los observables nos da una medida segura el otro nos puede dar
medida con alta varianza. Esa intuición se ve reflejada en el principio de incertidumbre,
formulado en un caso particular por Heisenberg y generalizado por Robinson y Schrödinger,
que dicta que
1
σA σB ≥ |hψ|[Â, B̂]|ψi|, (1.88)
2
donde las desviaciones σA y σB están calculadas en el mismo estado, |ψi. La demostración
queda como ejercicio.
1.3.4 Preparaciones
¿Cómo preparar un sistema cuántico, para asegurarnos de que esté en un estado co-
nocido? Supongamos que nos dan un sistema en un estado desconocido, |φi. Si medimos
sobre él un observable  que tiene todos los autovalores sin degenerar, entonces una sola
medida nos dejará el sistema en un estado conocido, |ai i para algún i. Sin embargo, cuando
el observable tenga autovalores degenerados, una medida no bastará para conocer el estado
con certeza. Será preciso medir un segundo observable, que sea compatible con él, para que
nos distinga entre los diferentes autovalores en los que puede estar el estado. ¿Y quizá haga
falta un tercero? En general, llamamos un conjunto completo de observables com-
patibles, CCOC a un conjunto de observables (compatibles, claro) cuya medida sucesiva
nos deja al sistema en un estado conocido, del que no tenemos duda. Toda degeneración
ha sido finalmente resuelta. La medición de un CCOC sobre un estado arbitrario nos dará
siempre un estado conocido, y se llama también una preparación.
Medir todos los observables de un CCOC {Âk }m k=1 es equivalente a medir un único
observable global Ω̂ no degenerado. Construimos la (única) base Pde autovectores comunes
a todos los observables del CCOC, {|ωi i} y construimos Ω̂ = i ωi |ωi i hωi |, donde ωi es
un autovalor combinado que reúne la información de los autovalores de cada uno de los
observables Âk en un solo número asegurándonos de que no se repite ningún valor.
Ejemplo 1.18 Así, por ejemplo, consideremos un sistema de tres estados, |1i, |2i y |3i,
y los operadores Â1 = |1i h1| y Â2 = |2i h2|. Los dos observables conmutan y probaremos
que forman un CCOC. En efecto, tomando la base canónica, los autovalores de Â1 son
a1 = {1, 0, 0} y los de Â2 son a2 = {0, 1, 0}. Si realizamos las medidas consecutivas de Â1
y Â2 , los dos resultados nos determinan unívocamente el estado, que podemos sintetizar
en un único observable Ω̂ no degenerado, cuyos autovalores sean ω = a1 + 2a2 . Nótese que
si ω = a1 + a2 el observable vuelve a ser degenerado y no funciona.
dE(λ) dH(λ)
= ψ(λ)
ψ(λ) . (1.92)
dλ dλ
transformación física, que convierte unos estados en otros, y asumamos por simplicidad
que se puede representar como un operador lineal, Û ∈ L(H) ¿Cómo son los Û que son
físicamente razonables? Para empezar, su acción sobre un estado físico nos debe dar siempre
otro estado físico: Si Û |φi = |φ0 i y hφ|φi = 1, entonces hφ0 |φ0 i = 1 también. Como eso
debe cumplirse para todo estado, entonces hφ| Û † = hφ0 |, y de ahí llegamos a hφ|Û † Û |φi =
hφ0 |φ0 i = 1 para todo estado |φi. Eso implica que Û † Û = I es la identidad, y por tanto
Û † = Û −1 . En otras palabras: en mecánica cuántica los estados sólo pueden evolucionar
de manera unitaria.
C Pero el operador Û podría ser no lineal, ¿verdad? Matemáticamente, sí. Pero física-
mente no se ha encontrado ningún caso de evolución cuántica que venga representada
por un operador no lineal. De hecho, una mínima no linealidad en la mecánica cuánti-
ca tendría unas consecuencias devastadoras para la teoría, cambiándola radicalmente
y volviéndola esencialmente clásica [16].
C En la sección anterior hemos dicho que tras una medición el estado se transforma
en uno de los autoestados del observable en cuestión. ¿Es eso un proceso lineal y
unitario? Aparentemente no, pero sí lo es. No es unitario desde el punto de vista del
sistema, pero cuando consideremos el sistema combinado con el aparato de medida
veremos que es una transformación unitaria perfectamente válida. No hay dos tipos
de evolución en mecánica cuántica, sólo una y es unitaria. Pero es importante saber
cuál es el sistema al que aplicamos esta transformación.
y nos preguntamos qué podemos afirmar sobre estos autoestados {|uk i} y sus autovalores
αk . El resultado principal es el siguiente teorema cuya demostración puede ser seguida en
[12]: Los autovalores de un operador unitario Û tienen siempre módulo unidad. Además, los
autovectores correspondientes a autovalores distintos son necesariamente ortogonales. En
otras palabras: αk = eiφk , con φk ∈ R, y huk |uk0 i = δk,k0 . Es decir: los autovalores son fases,
y los autoestados son siempre estados distinguibles. Eso hace que los operadores evolución
se parezcan mucho a los observables, pero tienen una diferencia esencial: sus autovalores
no tienen por qué ser reales.
Ejemplo 1.19 Consideremos un espín 1/2 en el que actuamos con un operador evolución
de forma que Û |0i = |1i y Û |1i = |0i. La base {|0i , |1i} se transforma en la base {|1i , |0i},
que evidentemente es también ortogonal. ¿Cuáles son los autoestados y los autovalores del
operador evolución? La matriz asociada es
0 1
U= , (1.94)
1 0
es decir, U = σx . Los autovalores son ±1, con lo que nos damos cuenta de que este operador
es tanto unitario como hermítico. Es decir, puede ser interpretado como un observable y
como un operador evolución. Además, |u± i = 2−1/2 (|0i ± |1i).
C El análisis dimensional es mucho más útil de lo que uno cree en física. En cual-
quier ley física bien formulada, el argumento de toda función trascendente (como
la exponencial compleja, logaritmos, senos, cosenos, etc.) ha de ser necesariamente
adimensional. La constante de Planck, ~, tiene unidades de acción, es decir, de ener-
gía × tiempo o bien de longitud × momento. Es muy natural elegir un sistema de
unidades naturales en el que ~ = 1.
d |ψ(t)i
|ψ(t + δt)i ≈ |ψ(t)i + δt . (1.99)
dt
Llegamos así a una ecuación diferencial que debe cumplir el estado,
d i
|ψ(t)i = − Ĥ |ψ(t)i , (1.100)
dt ~
que es la conocida ecuación de Schrödinger. Notemos que, de manera formal, podemos
escribir
!
−iĤt −iEk t
X
Û (t) = exp = exp |Ek ihEk |. (1.101)
~ ~
k
dÛ (t) i
= − Ĥ Û , (1.103)
dt ~
que es la ecuación de Schrödinger que cumple el operador evolución.
Ejemplo 1.20 Consideremos un qubit o espín 1/2 en el que realizamos la identificación
usual: |0i ≡ |Z+ i y |1i = |Z− i. El qubit se encuentra en el estado inicial |ψ(0)i = |0i. Actúa
sobre él el Hamiltoniano Ĥ = Γσ̂x , y deseamos obtener el estado para todo tiempo. Para
ello diagonalizamos el Hamiltoniano, que tiene autovalores E± = ±Γ, con autoestados
1 1
|φ+ i = √ (|0i + |1i) , |φ− i = √ (|0i − |1i) . (1.104)
2 2
Descomponemos el estado inicial en la base de autoestados, obteniendo
1 1
|ψ(0)i = √ |φ+ i + √ |φ− i . (1.105)
2 2
Ahora sólo tenemos que multiplicar cada autoestado por su factor de fase correspondiente,
e−iEk t/~ , y obtenemos
1 1
|ψ(t)i = √ e−iΓt/~ |φ+ i + √ eiΓt/~ |φ− i , (1.106)
2 2
Y podemos regresar a la base canónica, obteniendo
X
|ψ(t)i = ck e−iEk t/~ |Ek i , (1.108)
k
así que para todo tiempo la probabilidad de obtener el valor Ek en una medición de la
energía será |ck |2 (si el valor no es degenerado, o la suma de los valores correspondientes
si lo es). Destacamos por tanto que no sólo el valor esperado de la energía no cambia, sino
que tampoco cambia la desviación de las medidas. El histograma completo de valores de
la energía permanece invariable.
da(t) d
= hψ(t)|Â|ψ(t)i. (1.109)
dt dt
Empleando la regla del producto para las derivadas tenemos
da(t) d d
= hψ(t)| Â |ψ(t)i + hψ(t)| Â |ψ(t)i . (1.110)
dt dt dt
Hacemos uso de la ecuación de Schrödinger y su dual para bras,
d i d i
|ψ(t)i = − Ĥ |ψ(t)i , hψ(t)| = + hψ(t)| Ĥ, (1.111)
dt ~ dt ~
donde no ponemos Ĥ † por ser autoadjunto. Así, tenemos
da(t) i i
= hψ(t)|Ĥ Â|ψ(t)i − hψ(t)|ÂĤ|ψ(t)i, (1.112)
dt ~ ~
y reconocemos el conmutador de  con Ĥ. Podemos escribir esta ecuación de forma com-
pacta como
dhÂi i
= − h[Ĥ, Â]i. (1.113)
dt ~
que se conocen como ecuaciones de Ehrenfest.
C El observable Â(t) puede depender explícitamente del tiempo. En ese caso, la derivada
del producto incluye un término más, y nos queda la ecuación de Ehrenfest completa:
* +
dhÂ(t)i i ∂ Â(t)
= − h[Ĥ, Â]i + , (1.114)
dt ~ dt
• • •
de donde nos damos cuenta que podemos absorber la evolución temporal en los observables,
si queremos. Podemos definir ÂH (t) = Û † (t, 0)Â Û (t, 0) y entonces el valor esperado en
función del tiempo se calculará como
y es fácil comprobar que la primera derivada es (iĤ(t)/~)Û † (t, 0) mientras que la segunda
es −(iĤ(t)/~)Û (t, 0), así que obtenemos
dÂH (t) i
= [Ĥ, ÂH (t)], (1.118)
dt ~
que debemos destacar que tiene el signo cambiado respecto a la ecuación de Ehrenfest
(1.113). La razón, claro está, es que hacer avanzar los operadores es, de alguna manera, lo
opuesto a hacer avanzar el estado.
C Una vez concluido el tema debemos remarcar algo importante: en el formalismo cuán-
tico mostrado, el tiempo no es un observable, sino un parámetro externo. No existe
ningún operador autoadjunto cuyo espectro se corresponde a las medidas temporales
que podemos realizar. Sin embargo, eso sí que ocurrirá con la posición. ¿Es correcto
tratar el tiempo y el espacio como esencialmente diferentes en nuestro formalismo?
La respuesta es no. Pero ese aspecto es sutil y será considerado en nuestro tema final,
dedicado a cuántica y relatividad.
1.A Problemas
A continuación proporcionamos una serie de enunciados de problemas asociados a este
tema que esperamos sean objeto de discusión en los foros del curso.
2
σH
E0 ≥ hĤi − . (1.119)
E1 − hĤi
1.8. Encontrar el espectro completo para el electrón en la cadena atómica definida en los
ejemplos 1.7 y 1.16. Para ello, considere una combinación lineal de las soluciones encon-
tradas con k y −k, es decir, uj = Aeijk + Be−ijk , y aplíquela sobre el primer y el último
sitios. Observe cómo cambia la situación cuando la cadena es periódica, introduciendo un
elemento de matriz H1n = Hn1 = ε1 .
1.9. Obtenga los autoestados de Ŝx , Ŝy y Ŝz para una partícula de espín 1, que llamaremos
|Z+ i, |Z0 i, |Z− i, etc. ¿Cuál es la fidelidad entre los estados |X0 i, |Y0 i y |Z0 i?
1.11. Considérese un haz de fotones que viaja en la dirección del eje Z, con la polariza-
ción en el eje X. Encuentran a su paso una serie de n polarizadores, P1 a Pn , cada uno
permitiendo el paso de los fotones polarizados a lo largo de un eje que forma un ángulo
θi = i∆θ medido desde la horizontal. Calcular la probabilidad de que el fotón sobreviva a
los n polarizadores. Particularizar para el caso en el que n → ∞ y ∆θ → 0 pero de forma
que n∆θ = π/2.
(a) Definir |ai = (Â − hÂi) |ψi, y un vector equivalente para B̂.
(b) Escribir σA2 σ 2 como el producto de las normas de esos dos vectores.
B
(c) Aplicar la desigualdad de Cauchy-Schwartz, ha|aihb|bi ≥ |ha|bi|2 y desarrollar el resul-
tado.
• • •
(b) Considerar ahora un estado |ψ(0)i = |n/2i. Calcular su evolución temporal resol-
viendo la ecuación de Schrödinger, usando ε0 = 0, ε1 = −1 y ~ = 1. Dibujar las cur-
vas que muestran la distribución de probabilidad de encontrar el electrón en cada átomo
pi (t) = |hi|ψ(t)i|2 en función del tiempo, comprobando que suman siempre la unidad.
(c) Obtener la fidelidad con el estado inicial en función del tiempo, |hψ(t)|ψ(0)i|2 ,
también conocida como eco de Loschmidt. Encontrar los tiempos para los que el eco
tiene un máximo. Interpretar el sentido físico de dichos valores.
Éste es el primer tema realmente novedoso del curso. Introduce un nuevo formalismo
para la mecánica cuántica especialmente diseñado para los estados mezcla, es decir: los
casos en los que el estado (puro) del sistema no es conocido con certeza, sino meramente
con ciertas probabilidades. Esto es evidentemente útil para la física estadística, pero hay
una sorpresa más. Si tenemos un sistema cuántico compuesto por varias partes y sólo
observamos una de ellas, no es posible en general describirlo como un estado puro, sino
como un estado mezcla. Al restringirnos a una parte del sistema hemos perdido información,
y esta información desconocida se llama entrelazamiento.
C En el tema anterior hemos sido muy cuidadosos al poner los gorros sobre los observa-
bles y operadores. En este tema seguiremos la práctica habitual de no hacerlo, pero
recomendamos a los/as lectores/as que tengan siempre en cuenta qué tipo de objeto
es denotado con cada símbolo.
Ya hemos discutido en el tema anterior dos usos de los operadores en MQ. El primero
es como representación matemática de los observables. Todo observable, afirmábamos,
está especificado a partir de una serie de estados distinguibles (es decir, ortogonales) y
sus autovalores correspondientes. El segundo uso era como actuadores sobre un estado
cuántico, es decir, como operadores evolución. Ahora introducimos un tercer uso distinto:
para representar estados mezcla, a partir de lo que llamamos un operador densidad o
matriz densidad.
• • •
m
X
ρ= pi |φi i hφi | . (2.1)
i=1
m
X
ρ= p i Pi , (2.2)
i=1
donde Pi = |φi i hφi | es el proyector sobre el estado |φi i. Nótese que, si los estados |φi i
son ortogonales (es decir, distinguibles), éstos constituirán los autovectores de la matriz
densidad, y los autovalores serán las probabilidades pi .
Cada proyector Pi sobre un único estado se puede interpretar como la matriz densidad
asociada a un estado en el que |φi i tiene probabilidad 1 y todos los demás estados tienen
probabilidad cero. Es decir: podemos asociar una matriz densidad a cada estado puro,
que será simplemente el proyector sobre el estado. En otras palabras: la matriz densidad
asociada al estado puro |Ψi es ρ = |ΨihΨ|.
• • •
m
X m
X
Trρ = pi Tr |φi i hφi | = pi = 1, (2.3)
i=1 i=1
haciendo uso de la definición de traza, ecuación (1.36), que afirma que Tr |ui hv| = hu|vi.
• • •
¿Por qué definimos este operador así? Porque nos resulta extremadmente útil para
calcular valores esperados de observables sobre estados mezcla. Consideremos un observable
A del que podemos calcular el valor esperado en cualquier estado puro. Entonces, cuando
estamos en el estado mezcla ρ, tendremos
m
X
hAiρ = pi hφi |A|φi i, (2.4)
i=1
es decir: el valor esperado sobre el estado mezcla será una media ponderada de los va-
lores esperados sobre cada uno de los estados puros. Vamos a demostrar una expresión
alternativa:
m m m
" #
X X X
hAiρ = Tr[Aρ] = Tr A p i Pi = pi Tr[APi ] = pi hφi |A|φi i, (2.6)
i=1 i=1 i=1
porque reconocemos que Tr[APi ] es el valor esperado de A en el estado |φi i, como probamos
en la ecuación (1.83). Además, teniendo en cuenta que Pi es la matriz densidad asociada al
estado puro |φi i, podemos obtener la relación hφi |A|φi i = Tr[APi ] al aplicar de la ecuación
(2.5) a un estado puro.
Ejemplo 2.1 Podemos escribir la matriz densidad del estado mezcla descrito desde el
principio: espín 1/2 que está en |0i con una probabilidad 1/2, y en |1i con 1/2:
m
X 1 1 1/2 0 I
ρ= pi |φi i hφi | = |0i h0| + |1i h1| = = , (2.7)
2 2 0 1/2 2
i=1
es decir: la matriz densidad es proporcional a la identidad. Como veremos, eso significa que
tenemos una ignorancia máxima sobre el estado. Eso lo podemos comprobar calculando
los valores esperados de las componentes del espín a lo largo de cualquier dirección:
I 0 1/2
hσx i = Tr σx = Tr = 0, (2.8)
2 1/2 0
I 0 −i/2
hσy i = Tr σx = Tr = 0, (2.9)
2 i/2 0
I 1/2 0
hσz i = Tr σz = Tr = 0, (2.10)
2 0 −1/2
lo que demuestra que el valor esperado de la componente del espín a lo largo de cualquier
eje es nula.
m
X n
X
ρ= pi |φi i hφi | = λk |ψk i hψk | , (2.11)
i=1 k=1
donde {λk } son los autovalores de ρ, que asumiremos que están en orden descendiente,
λ1 ≥ λ2 ≥ · · · ≥ λn , y |ψk i son los autovectores. Notemos que n es la dimensión del
espacio de Hilbert, mientras que m puede tomar cualquier valor natural. Asimismo, los
|ψk i deben ser ortogonales, mientras que los |φi i no tienen por qué serlo. ¿Qué significan
los autovalores y autovectores de la matriz densidad? Los autoestados de ρ son estados
distinguibles del espacio de Hilbert que tienen una probabilidad bien definida de aparecer,
que es λk . Nótese que los |φi i no tenían por qué ser distinguibles.
Ejemplo 2.2 Consideremos el estado mezcla en el que obtenemos |0i con probabilidad
1/2, y 2−1/2 (|0i + |1i) también con probabilidad 1/2. En este caso los dos estados no son
distinguibles (su producto escalar no es cero). Aun así, la matriz densidad se escribe de la
misma manera:
m
X 1 1 1 1
ρ= pi |φi i hφi | = |0ih0| + √ (|0i + |1i) √ (h0| + h1|)
2 2 2 2
i=1
1 1 3/4 1/4
= |0ih0| + |0ih0| + |0ih1| + |1ih0| + |1ih1| = . (2.12)
2 4 1/4 1/4
√
Cuando diagonalizamos esta matriz obtenemos dos autovalores, λk = (2 ± 2)/4, es
decir λ1 ≈ 0.854 y λ2 ≈ 0.146, asociados a dos estados ortogonales, es decir, distinguibles.
El valor esperado de la componente del espín a lo largo de un eje arbitrario ya no es cero,
como se puede comprobar fácilmente.
Ejemplo 2.3 Un polarizador tiene una eficiencia de un 90 %. Eso significa que cada fotón
que pasa tiene una probabilidad (clásica) de p = 0.9 de sufrir el proceso de polarización y
una probabilidad de 1 − p = 0.1 de no sufrir ningún cambio. Si introducimos un fotón con
polarización arbitraria |φi = α|Xi + β|Y i, con |α|2 + |β|2 = 1, donde |Xi es la polarización
seleccionada, el estado se mantendrá invariante con una probabilidad (1−p), y se polarizará
en el estado |Xi con una probabilidad p|α|2 . Nótese que hay una probabilidad finita, p|β|2
de que el fotón sea absorbido y desaparezca. La matriz densidad puede escribirse como
|α|2 (1 − p)α∗ β
2
ρ = p|α| |Xi hX| + (1 − p) |φi hφ| = , (2.13)
(1 − p)αβ ∗ (1 − p)|β|2
donde notamos que, de manera excepcional, la traza de la matriz densidad no es uno, sino
1 − p|β|2 , porque la probabilidad de absorción es p|β|2 . Para ser matemáticamente más
correctos deberíamos introducir un tercer estado, |∅i, que denotara el vacío. En este espacio
de tres estados la matriz densidad sí tendrá traza unidad.
¿Cómo distinguir un estado puro de un estado mezcla, si nos dan la matriz densidad
asociada ρ? La manera más directa es obtener su espectro: si λ1 = 1 el estado es puro.
Alternativamente, cuando el estado es puro, ρ = |φi hφ| es un proyector, y sabemos que el
cuadrado de un proyector es igual a sí mismo: ρ2 = ρ. Esta condición es por tanto suficiente
para que Pun estado sea puro, ¿pero es necesaria? Comprobemos que así es. Supongamos
que ρ = k λk |ψk i hψk |, con λ1 6= 1. Entonces, ρP
2 =
k |. Tendremos ρ = ρ
P 2 2
λ
k k |ψk i hψ
cuando λ2k = λk para todo k. Dado que la suma k λk = 1, la única forma en la que eso
puede suceder es que λ1 = 1 y el resto sea cero.
• • •
• • •
Consideremos un sistema cuántico cuyo estado viene descrito por una matriz densidad,
pero no sabemos exactamente cuál, teniendo una probabilidad wk de que la matriz densidad
sea la ρk , con k ∈ {1, · · · , p}. ¿Necesitamos una estructura matemática nueva para describir
esta situación? No. Basta con afirmar que el estado es mezcla, con matriz densidad dada
por la media ponderada de todas ellas
p
X
ρ= wk ρk , (2.14)
k=1
que también llamaremos una combinación convexa de matrices densidad. No hay estados
más generales que las matrices densidad.
• • •
¿Cómo evolucionan los estados mezcla? La respuesta inmediata es que cada estado puro
que forma parte de él lo hace de manera independiente. Pero podemos hacer algo mejor: dar
una ecuación de evolución para la matriz densidad. Recordemos que la evolución temporal
siempre viene dada por una transformación unitaria, U (t). Así, tenemos que
m
X
ρ(t) = pi U (t) |φi i hφi | U † (t) = U (t)ρ U † (t), (2.15)
i=1
es decir, el operador densidad se transforma como cualquier otro operador bajo la evolu-
ción temporal. Y, podemos añadir de paso, bajo cualquier otra operación unitaria. Ahora
procedemos a encontrar la ecuación diferencial que describe el movimiento, derivando con
respecto a t y teniendo en cuenta que ∂t U = − ~i HU ,
i i i
∂t ρ(t) = − HU ρU † + U ρU † H = − [H, ρ(t)], (2.16)
~ ~ ~
que se conoce como ecuación de von Neumann, y es el equivalente de la ecuación de
Schrödinger para estados mezcla.
n
X
S[P ] = − pk log pk . (2.17)
k=1
Veamos los casos límite más interesantes. Si pk = 1/n para todos los valores k, entonces
tenemos
n
X 1 1
S[P ] = − log = log(n), (2.18)
n n
k=1
que se corresponde con nuestra estrategia inicial: si todos los valores son igual de proba-
bles, un número entre 1 y n se codifica con log(n) bits. Ahora veamos el caso opuesto de
concentración total, de modo que p1 = 1 y el resto de los valores sean cero. En este caso
debemos operar con cuidado, porque “0 · log 0” es una indeterminación. Tomando límites,
n
X
S[ρ] = −Tr[ρ log ρ] = − λk log λk , (2.20)
k=1
que viene a responder la pregunta: ¿cuánta información precisamos para elegir uno de los
estados puros distinguibles que constituyen el estado mezcla? Si el estado es puro, entonces
λ1 = 1 y el resto son nulos, de modo que S[ρ] = 0. Por otra parte, si el estado mezcla
consta de m estados equiprobables, entonces S[ρ] = log(m). Así que podemos reformular
la pregunta de manera intuitiva (aunque poco rigurosa): exp(S) es el número de estados
distinguibles dentro de ρ.
• • •
¿Tiene algo que ver la entropía de von Neumann con la entropía en termodinámica
y en mecánica estadística? Sí, son la misma magnitud. Boltzmann escribió la expresión
S = kB log W , donde kB es una constante, que es equivalente a nuestro S = log(m), como
iremos viendo.
1 X 1
ρ= exp(−βEk ) |ψk i hψk | = exp(−βH), (2.21)
Z Z
k
X
Z= exp(−βEk ), (2.22)
k
El estado será ρ = exp((Γ/T )σz )/Z (usamos kB = 1). Para calcular la función de un
operador hermítico basta con aplicar la función sobre sus autovalores, y así tenemos
−Γ/T
1 e 0
ρ= , (2.23)
Z 0 eΓ/T
−e−Γ/T + eΓ/T
Γ
hσz iρ = Tr[ρσz ] = = tanh . (2.24)
e−Γ/T + eΓ/T T
• • •
e−βH e−βH
1
S[ρ] = −Tr log = Tr[e−βH (log(Z) + βH)] = log(Z) + βhHi. (2.25)
Z Z Z
lo cual nos permite definir la energía libre F ≡ −T log(Z) = hHi − T S.
Consideremos las dos formas siguientes de variar la energía del sistema. Por un lado
podemos dejar fijo ρ y cambiar H, variando los niveles de energía. En ese caso, decimos
que el flujo de energía toma la forma de trabajo. Por ejemplo, aumentar el volumen de
una caja disminuye los niveles de energía de las partículas en el interior. Alternativamente,
podemos variar ρ cambiando las probabilidades de los distintos estados, mantiendo H fijo.
En ese caso, diremos que el flujo de energía toma la forma de calor. Estas observaciones
dan origen al campo de la termodinámica cuántica.
X
|Ψi = Cij |ai i ⊗ |bj i . (2.26)
i,j
Para una mayor simplicidad notacional denotaremos los estados de todo el sistema com-
puesto por mayúsculas griegas (e.g. |Ψi o |Φi), y simplificaremos los productos tensoriales
cuando sea preciso: |ai i ⊗ |bj i = |ai i |bj i = |ai bj i.
C ¿Qué sucede cuando tenemos tres sistemas cuánticos o más? Tendremos un espacio
de Hilbert cuya dimensión será nA × nB × nC × · · · . Por lo tanto, la dimensión
del espacio de Hilbert resultante crece muy deprisa con el número de sistemas. Así,
por ejemplo, una red de n espines 1/2 vendrá descrita por un espacio de dimensión
2 × 2 × 2 · · · = 2n . Ésta es la razón principal por la que el estudio de la mecánica
cuántica de muchos cuerpos es complicada y requiere una combinación inteligente de
métodos analíticos y cálculo numérico.
• • •
¿Cómo son los operadores que actúan sobre el sistema compuesto? Consideremos el
operador RA , que actúa sobre HA . Definimos una extensión R = RA ⊗ IB a todo el espacio
producto H = HA ⊗ HB , donde IB es la identidad sobre B. Recordemos que todo operador
lineal se puede definir a través de su actuación sobre los elementos de la base:
R (|ai i ⊗ |bj i) = (RA ⊗ IB ) (|ai i ⊗ |bj i) = (RA |ai i) ⊗ (IB |bj i) = (RA |ai i) ⊗ |bj i . (2.27)
Nótese que, aunque los autoestados de RA no estén degenerados en HA los autoestados
de su extensión R sí están degenerados en H. Así, es posible comprobar que la mínima
degeneración de un autoestado de R será nB . Análogamente, para un operador SB que
actúa en HB existe una extensión S = IA ⊗ SB en H = HA ⊗ HB ,
S (|ai i ⊗ |bj i) = (IA ⊗ SB ) (|ai i ⊗ |bj i) = (IA |ai i) ⊗ (SB |bj i) = |ai i ⊗ (SB |bj i) . (2.28)
Y también podemos escribir el producto tensorial de dos operadores, M = RA ⊗ SB , que
se define de la misma manera por su actuación sobre los vectores de una base:
X
M |Ψi = cij (RA |ai i) ⊗ (SB |bj i) . (2.29)
i,j
r11 r12 s11 s12
RA = SB = . (2.30)
r21 r22 s21 s22
(RA ⊗ SB ) |a1 b1 i = (r11 |a1 i + r21 |a2 i) ⊗ (s11 |b1 i + s21 |b2 i)
= r11 s11 |a1 b1 i + r11 s21 |a1 b2 i + r21 s11 |a2 b1 i + r21 s21 |a2 b2 i .
Si ordenamos los estados de la base tensorial de manera lexicográfica, e.g. {|a1 b1 i, |a1 b2 i,
|a2 b1 i y |a2 b2 i} comprendemos que la representación matricial de M tiene dimensión 4, y
que su primera columna es, precisamente, r11 s11 , r11 s21 , r21 s11 y r21 s21 . Construyamos La
matriz completa queda como ejercicio:
r11 s11 r11 s12 r12 s11 r12 s12
r11 s21 r11 s22 r12 s21 r12 s22
M̂ = = r11 SB r12 SB .
r21 s11 r21 s12 r22 s11 r22 s12 r21 SB r22 SB
r21 s21 r21 s22 r22 s21 r22 s22
• • •
Definimos un estado puro del espacio total como factorizable cuando se puede escribir
como el producto tensorial de un estado de cada uno de los subsistemas. Así, por ejemplo,
|a1 i ⊗ |b1 i es obviamente factorizable, pero también lo es |Ψi = |ui ⊗ |vi si |ui = u1 |a1 i +
u2 |a2 i y |vi = v1 |b1 i + v2 |b2 i. Podemos calcular fácilmente el valor esperado de RA ⊗ SB
sobre un estado factorizable, como |Ψi = |ui ⊗ |vi:
hΨ| (RA ⊗ SB ) |Ψi = hΨ| (RA |ui) ⊗ (SB |vi) = hu| RA |ui hv| SA |vi . (2.31)
Los estados factorizables se comportan como si los dos sistemas A y B fueran independien-
tes. Un estado puede ser factorizable aunque aparente no serlo, por ejemplo, consideremos
1
|Ψi = (|a1 b1 i + |a1 b2 i + |a2 b1 i + |a2 b2 i) . (2.32)
2
No es difícil comprobar que ese estado puede reescribirse como
1 1
|Ψi = √ (|a1 i + |a2 i) ⊗ √ (|b1 i + |b2 i) . (2.33)
2 2
1
Cada cual debe desarrollar sus trucos mnemotécnicos, pero uno que nos ha resultado útil es pensar
que el sistema B corre más rápido.
Ejemplo 2.5 Consideremos una pareja de espines 1/2. Escribiremos las matrices asociadas
a la componente z del espín en cada uno de ellos, σ1z y σ2z . El espacio de Hilbert H = H1 ⊗H2
tendrá dimensión 4 y elegimos siempre la base lexicográfica: {|↑↑i, |↑↓i, |↓↑i y |↓↓i}, donde
usamos la notación simplificada |↑i ≡ |Z+ i y |↓i ≡ |Z− i. Ahora podemos obtener la acción
de σ1z y σ2z sobre cada uno de ellos:
σ1z |↑↑i = + |↑↑i , σ1z |↑↓i = + |↑↓i , σ1z |↓↑i = − |↓↑i , σ1z |↓↓i = − |↓↓i ,
σ2z |↑↑i = + |↑↑i , σ2z |↑↓i = − |↑↓i , σ2z |↓↑i = + |↓↑i , σ2z |↓↓i = − |↓↓i ,
↑↑ ↑↓ ↓↑ ↓↓ ↑↑ ↑↓ ↓↑ ↓↓
↑↑ +1 0 0 0 ↑↑ +1 0 0 0
↑↓ 0 +1 0 0 ↑↓ 0 −1 0 0
σ1z = σ2z = (2.34)
, ,
↓↑ 0 0 −1 0 ↓↑ 0 0 +1 0
↓↓ 0 0 0 −1 ↓↓ 0 0 0 −1
De la misma manera podemos obtener estas matrices mediante un producto tensorial con
la identidad:
1 0 1 0
+1 · 0·
+1 0 1 0 0 1 0 1
σ1z = σz ⊗ I = (2.35)
⊗ = ,
0 −1 0 1 1 0 1 0
0· −1 ·
0 1 0 1
+1 0 +1 0
1 · 0 −1 0·
z 1 0 +1 0 0 −1 , (2.36)
σ2 = I ⊗ σz = ⊗ =
0 1 0 −1 +1 0 +1 0
0· 1·
0 −1 0 −1
y vemos que coinciden. De la misma manera se puede encontrar la representación matricial
de otros operadores del sistema compuesto, como por ejemplo
1 0 1 0 0 0 1 0
0· 1·
0 1 1 0 0 1 0 1 0 0 0 1
, (2.37)
σ1x = σx ⊗I =
⊗ = =
1 0 0 1 1 0 1 0 1 0 0 0
1· 0·
0 1 0 1 0 1 0 0
0 1 0 1 0 1 0 0
1 · 1 0·
1 0 0 1 0 1 0 1 0 0 0
, (2.38)
σ2x = I ⊗σx = ⊗ = =
0 1 1 0 0 1 0 1 0 0 0 1
0· 1·
1 0 1 0 0 0 1 0
que se puede comprobar mediante la acción sobre los elementos de la base:
σ1x |↓↓i = |↑↓i , σ1x |↓↑i = |↑↑i , σ1x |↑↓i = |↓↓i , σ1x |↑↑i = |↓↑i ,
σ2x |↓↓i = |↓↑i , σ2x |↓↑i = |↓↓i , σ2x |↑↓i = |↑↑i , σ2x |↑↑i = |↑↓i .
0 1 0 1 0 0 0 1
0 · 1 1·
0 1 0 1 0 1 0 0 0 1 0
. (2.39)
σx ⊗ σx = ⊗ = =
1 0 1 0 0 1 0 1 0 1 0 0
1· 0·
1 0 1 0 1 0 0 0
C Nos gustaría dar un aviso en cuanto a la notación. Es tan normal encontrar los
subsistemas llamados A y B como 1 y 2, y la segunda opción es más normal cuando
hay más de dos. Sin embargo, en la exposición inicial nos ha parecido mejor usar A y
B para distinguir los subíndices referidos a subsistemas de los referidos a estados. Por
otro lado, en ocasiones se usa la notación RA para un operadores local y R = RA ⊗ I
para un operador extendido al sistema total, mientras que en otras ocasiones se usa la
notación σ1x para referirse a este último operador, σx ⊗I. Ambas opciones son válidas,
lo importante es mantener la coherencia. Os sugerimos prestar mucha atención a la
definición exacta de cada símbolo en las distintas aplicaciones.
C ¿Por qué podríamos necesitar operadores del tipo σ1x σ2x ? Porque son los que sirven
para construir el Hamiltoniano de sistemas de muchos cuerpos, que son la clave para
la mecánica cuántica de sistemas complejos, desde los átomos y moléculas, hasta los
sólidos y los dispositivos cuánticos artificiales tales como los computadores cuánticos.
Uno
Pn−1 de los modelos simples para estudiar estos sistemas es el Hamiltoniano tipo Ising,
i=1 σi σi+1 .
x x
Ejemplo 2.6 Consideremos la cadena atómica del ejemplo 1.7, en la que un electrón
podía estar en un orbital situado en cada uno de los átomos de la cadena, que llamábamos
{|ii}ni=1 . Ahora vamos a tener en cuenta el espín del electrón. El espacio de Hilbert en este
caso es el producto tensorial del los estados espaciales y los estados de espín. Dicho de otra
forma: los estados distinguibles se duplican: Ω = {|i, σi}, donde i ∈ {1, · · · , n} y σ ∈ {↓, ↑}
son los dos estados de espín del electrón.
Pero esa operación debe poder ejecutarse con un estado arbitrario. Supongamos que par-
timos de otro estado diferente, |vi. Entonces,
Perfecto. Pero una operación unitaria debe preservar el producto escalar, de manera que
es decir,
y tenemos que hu|vi = hu|vi2 , que sólo es cierto cuando hu|vi = 0 o 1. Es decir: no podemos
clonar estados cualesquiera. Pero sí podemos clonar estados distinguibles. Si sabemos que
nuestro estado es uno de entre una serie de estados distinguibles, podemos clonarlo sin
problemas.
¿Por qué es relevante el teorema de no clonación? Porque hace que tenga sentido la
noción de distinguibilidad, para empezar. Dijimos que dos estados son distinguibles cuando
un solo experimento nos determina con certeza si son o no son el mismo. Si se pudiera
clonar estados, entonces esa definición carecería de interés: bastaría con clonar un estado
centenares de veces y hacer experimentos sobre las copias para encontrar si es o no es
igual que otro estado dado. De la misma manera, el teorema de no clonación protege a
la relación de incertidumbre. Si pudiéramos hacer un número arbitrario de copias de un
estado, podríamos medir el valor esperado de observables no compatibles con precisión
arbitraria.
Resumen 2.3. Cuando combinamos dos estados cuánticos, el conjunto de estados dis-
tinguibles es el producto cartesiano de los de ambos sistemas, ΩT = ΩA ×ΩB . El espacio
de Hilbert compuesto tiene dimensión nT = nA nB y se conoce como producto tensorial
de ambos estados: HT = HA ⊗ HB . La base tensorial se escribe como {|ai i ⊗ |bj i}i,j o
bien {|ai , bj i}. Nótese que el orden es importante.
Podemos extender un operador definido sobre uno de los subsistemas para que actúe
sobre el sistema compuesto, haciendo R = RA ⊗I o bien S = I⊗SB . Sus representaciones
matriciales son Ri1 ,i2 ;j1 ,j2 = (RA )i1 ,j1 δi2 ,j2 y Si1 ,i2 ;j1 ,j2 = δi1 ,j1 (SB )i2 , j2 . Los índices
compuestos pueden contraerse a un índice único I = (i1 − 1)nB + i2 que va de 1 a
nA nB .
Teorema de imposibilidad de clonación: ninguna evolución unitaria puede llevar un
estado genérico |ui ⊗ |0i al estado |ui ⊗ |ui.
1
|Φi = (|00i − |01i + |10i − |11i) . (2.45)
2
Es fácil mostrar que este estado es factorizable, es decir, se puede expresar como un estado
producto:
1 1
|Φi = |ui ⊗ |vi = √ (|0i + |1i) ⊗ √ (|0i − |1i) . (2.46)
2 2
En cambio, el estado
1
|Ψi = √ (|01i + |10i) , (2.47)
2
no se puede expresar como el producto de dos estados de un qubit. Supongamos que
|Ψi = |ui ⊗ |vi, con |ui = u0 |0i + u1 |1i y |vi = v0 |0i + v1 |1i. Su producto es
u0 v0 = 0, u0 v1 = 1, u1 v0 = 1, u1 v1 = 0, (2.49)
que es incompatible. Al no ser factorizable, decimos que el estado |Ψi está entrelazado.
• • •
¿Qué diferencias hay entre un estado factorizable y un estado entrelazado? Pues, por
ejemplo, el valor esperado de un observable como M = RA ⊗SB sobre un estado factorizable
|Φi = |ui ⊗ |vi es especialmente sencillo:
• • •
¿Cómo podemos describir por separado el estado cuántico de cada espín de un sistema
de dos espines? Si el estado global es factorizable, el estado de cada uno de ellos será
un estado puro. Sin embargo, si el estado global está entrelazado el estado que describe
cada uno de los espines no se corresponderá con ningún estado puro, sino que será preciso
describirlo como un estado mezcla. En el estado |Ψi, como veremos, el primer espín está
en el estado |0i con una probabilidad de 1/2, y en el estado |1i con otro 1/2. La matriz
densidad que describe parte de un sistema se conoce como matriz densidad reducida.
Veamos cómo se calcula en general.
Consideremos el ejemplo del estado |Ψi y un observable de HA , R = RA ⊗ IB , con
r00 r01
RA = , (2.52)
r10 r11
es decir: la acción de RA es RA |0i = r00 |0i + r10 |1i y RA |1i = r01 |0i + r11 |1i. Calculemos
el valor esperado de R en |Ψi:
1
hΨ| R |Ψi = hΨ| (RA ⊗ IB ) √ (|01i + |10i)
2
1
= √ hΦ| (r00 |01i + r10 |11i + r01 |00i + r11 |10i)
2
1
= (h01| + h10|) (r00 |01i + r10 |11i + r01 |00i + r11 |10i)
2
1 1
= (r00 + r11 ) = Tr(RA ). (2.53)
2 2
Y eso es cierto para todo operador que actúe sólo en el primer qubit. En general, si el qubit
estuviera en el estado mezcla ρA , entonces el valor esperado de R sería
1/2 0
ρA = . (2.55)
0 1/2
Nótese que es una matriz densidad perfectamente válida: autoadjunta, de traza unidad y
todos sus autovalores son positivos. Más aún: representa un estado mezcla máximamente
indeterminado. El primer qubit puede estar en sus dos estados, |0i y |1i con la misma
probabilidad, 1/2.
• • •
Hagamos un receso para definir una operación muy útil al tratar con sistemas compues-
tos, la traza parcial. Se trata de una transformación lineal que mapea operadores sobre
H = HA ⊗ HB en operadores sobre HA o sobre HB , es decir, TrB : L(HA ⊗ HB ) 7→ L(HA )
y TrA : L(HA ⊗ HB ) 7→ L(HB ). En el primer caso diremos que hacemos la traceamos el
subsistema B y nos quedamos con el A, y en el segundo lo opuesto: traceamos el subsistema
A y nos quedamos con el B. Las ecuaciones definitorias son
¿Cómo se obtienen las trazas parciales en la práctica? Sea {|ai i} una base ortogonal de
HA , de dimensión nA , y {|bi i} una base ortogonal de HB , de dimensión nB . El espacio
compuesto es H = HA ⊗ HB , de dimensión nA nB . Todo operador lineal del espacio de
Hilbert compuesto puede escribirse como
X
O= Oi1 j1 ,i2 j2 (|ai1 i ⊗ |bj1 i) (hai2 | ⊗ hbj2 |)
i1 ,j1 ,i2 ,j1
X
= Oi1 j1 ,i2 j2 (|ai1 ihai2 |) ⊗ (|bj1 ihbj2 |) . (2.57)
i1 ,j1 ,i2 ,j2
Para leer esta expresión consideremos que los Oi1 j1 ,i2 j2 se deben leer como una matriz cuyo
índice de entrada (columnas) es i2 j2 y el índice de salida (filas) es i1 j1 . A su vez, cada
uno de esos índices son compuestos y recorren los valores desde 1 hasta nA nB . Asimismo
también es posible entender Oi1 j1 ,i2 j2 como un tensor de cuatro índices, y alternaremos
entre ambas lecturas según nos convenga.
Aplicando la definición de traza parcial y la linealidad tenemos
X
TrB O = Oi1 j1 ,i2 j2 |ai1 ihai2 |Tr (|bj1 ihbj2 |)
i1 ,j1 ,i2 ,j2
X
= Oi1 j1 ,i2 j2 |ai1 ihai2 |hbj1 |bj2 i
i1 ,j1 ,i2 ,j2
X
= Oi1 j1 ,i2 j2 |ai1 ihai2 |δj1 ,j2
i1 ,j1 ,i2 ,j2
X X
= Oi1 j,i2 j |ai1 ihai2 |, (2.58)
i1 ,i2 j
X
(TrB O)i1 ,i2 = Oi1 j,i2 j , (2.59)
j
X
(TrA O)j1 ,j2 = Oij1 ,ij2 . (2.60)
i
Veremos ejemplos de cálculo al final de esta sección. De momento basta con tener claro el
concepto base.
• • •
La traza parcial nos va a ser de mucha utilidad para describir las partes de un sistema
cuántico compuesto. Sea un estado cuántico general en H = HA ⊗ HB ,
X X
|Ψi = Cij |ai i ⊗ |bj i = Cij |ai bj i , (2.61)
i,j i,j
que en general estará entrelazado. Deseamos construir una matriz densidad reducida, ρA ∈
L(HA ), definida de forma que el valor esperado de todos los observables RA ∈ L(HA )
coincida con el calculado sobre |Ψi, es decir
Ahora definimos una matriz densidad reducida, ρA , como la traza parcial sobre el
subsistema B de esta matriz densidad,
X X
(ρA )i1 ,i2 = ρi1 j,i2 j = Ci∗1 j Ci2 j . (2.65)
j j
Debemos comprobar, por supuesto, que nuestra definición cumple lo prometido, es decir,
que ρA es realmente una matriz densidad, y que cumple la ecuación (2.62). Comencemos
calculando la traza de ρA , que debe de ser uno.
X X
TrρA = (ρA )i,i = ρij,ij = Trρ = 1. (2.66)
i i,j
Comprobemos, a continuación, que los valores esperados para R = RA ⊗I con |Ψi coinciden
con los valores esperados para RA obtenidos con ρA , es decir, ecuación (2.62):
X
hΨ| R |Ψi =Tr (ρR) = hai bj | ρR |ai bj i
ij
XX
= hai bj | ρ ai0 bj 0 ai0 bj 0 R |ai bj i
ij i0 j 0
XX
= (ρ)ij,i0 j 0 hai0 | RA |ai i hbj 0 |bj i
ij i0 j 0
XX
= (ρ)ij,i0 j ri0 ,i
ij i0 j
X X
= (ρA )i,i0 ri0 ,i = (ρA RA )i,i = Tr (ρA RA ) . (2.67)
i,i0 i
Así, pues, el operador ρA nos permite calcular los valores esperados de las magnitudes del
subsistema A. Y lo mismo es válido para ρB = TrA ρ y el subsistema B.
Un estado puro está entrelazado cuando sus matrices densidad reducidas correspondan
a estados mezcla. Supongamos que deseamos saber si un estado |Ψi ∈ HA ⊗ HB está entre-
lazado. Una manera de saberlo es obtener la matriz densidad reducida para el subsistema
00 01 10 11
|α|2 β∗α
00 0 0
01 0 0 0 0
ρ= , (2.69)
10 0 0 0 0
11 α∗ β 0 0 |β|2
donde hemos etiquetado las filas y las columnas para una mejor comprensión. Para calcular
la matriz densidadP reducida sobre cada uno de los qubits, aplicamos la definición de la traza
parcial, (ρA )i,i0 = j ρij,i0 j , llegando a
X
(ρA )11 = ρ1j,1j = ρ11,11 + ρ12,12 = |α|2 ,
j
X
(ρA )12 = ρ1j,2j = ρ11,21 + ρ12,22 = 0,
j
X
(ρA )21 = ρ2j,1j = ρ21,11 + ρ22,12 = 0,
j
X
(ρA )22 = ρ2j,2j = ρ21,21 + ρ22,22 = |β|2 , (2.70)
j
y vemos que la matriz densidad es diagonal, con pesos |α|2 y |β|2 . Hay un truco para
calcular rápido ρA en este caso: dividir mentalmente la matriz ρ en cuatro cuadrantes y
calcular la traza de cada uno. Si queremos calcular ρB calculamos también la traza parcial:
X
(ρB )11 = ρi1,i1 = ρ11,11 + ρ21,21 = |α|2 ,
i
X
(ρB )12 = ρi1,i2 = ρ11,12 + ρ21,22 = 0,
i
X
(ρB )21 = ρi2,i1 = ρ12,11 + ρ22,21 = 0,
i
X
(ρB )22 = ρi2,i2 = ρ12,12 + ρ22,22 = |β|2 , (2.71)
i
• • •
Notemos que las amplitudes de probabilidad de |Ψi = ij Cij |ai bj i se pueden escribir
P
de manera natural en una matriz rectangular Cij , de dimensión nA × nB , que no tiene que
ser ni autoadjunta ni nada similar. Sin embargo, es P una matriz interesante. Si el estado
es factorizable, entonces |Ψi = |ui ⊗ |vi, con |ui = i ui |ai i y |vi = j vj |bj i, así que
P
Cij = ui vj∗ . Las matrices de esta forma tienen siempre rango unidad.
Podemos por tanto conjeturar que un estado está entrelazado si y sólo si la matriz de
sus amplitudes tiene rango mayor que uno. En efecto, eso es cierto, pero podremos probar
algo más interesante, utilizando un elemento más del álgebra lineal.
Toda matriz rectangular C, de dimensión nA × nB , puede ser reescrita mediante una
descomposición en valores singulares (en inglés, singular value decomposition, SVD)3 ,
C = U ΣV † , (2.72)
mı́n(nA ,nB )
X
∗
Cij = Uik σk Vkj , (2.73)
k=1
!
XX X X X
∗ ∗
|Ψi = Uik σk Vkj |ai bj i = σk Uik |ai i ⊗ Vkj |bj i . (2.74)
ij k k i j
mı́n(nA ,nB )
X
|Ψi = σk |αk i ⊗ |βk i , (2.75)
k=1
sólo hasta ese valor, que suele conocerse como número de Schmidt. Si nS = 1, el estado es
factorizable, y tenemos |Ψi = |α1 i ⊗ |β1 i. Si nS > 1, el estado está entrelazado.
• • •
nS
X
ρA =TrB |Ψi hΨ| = TrB σk σk0 |αk i ⊗ |βk i hαk0 | ⊗ hβk0 |
k,k0 =1
nS
X
= σk σk0 TrB (|αk i hαk0 | ⊗ |βk i hβk0 |)
k,k0 =1
XnS
= σk σk0 (|αk i hαk0 |) Tr (|βk i hβk0 |)
k,k0 =1
XnS
= σk σk0 |αk i hαk0 | δk,k0
k,k0 =1
nS
X
= σk2 |αk i hαk | , (2.76)
k=1
El resultado final nos dice que la matriz densidad reducida ρA es diagonal en la base de
los {|αk i}, con autovalores dados por σk2 . Recordemos que la mejor manera de caracterizar
una matriz densidad es a partir de sus autovectores y autovalores: el subsistema A está
en el estado puro |αi i con probabilidad σi2 . De la misma manera podemos operar con la
matriz densidad reducida de la parte B, obteniendo
X
ρB = σk2 |βk i hβk | , (2.77)
k
C ¿Qué ocurre cuando el sistema está compuesto por más de dos subsistemas? Supon-
gamos que H = H1 ⊗ H2 ⊗ · · · ⊗ HN , que puede servirnos para describir e.g. cada
átomo de un sólido, o distintos modos de un sistema óptico. En este caso, existen
muchas posibles biparticiones del sistema en dos partes, e.g. podemos llamar parte A
a las partes 1, 3 y 16, y parte B a las demás. En ese caso, el entrelazamiento depen-
de de la bipartición que elijamos. Consideremos por ejemplo una cadena de espines
1/2, en la que el espín i-ésimo viene descrito por Hi = C2 . Podemos preguntarnos
por el entrelazamiento entre los primeros m espines y los N − m espines finales,
pero también podemos preguntarnos por el entrelazamiento entre los espines pares
y los impares, o cualquier otra bipartición que se nos ocurra. Ambos valores tienen
relevancia tanto teórica como para aplicaciones prácticas.
• • •
Supongamos que nos proporcionan una matriz densidad ρA , sobre HA , con autovalores
{λk } y autovectores {|ψk i}, y nos preguntamos si existe un estado puro |Ψi de un sistema
más grande que la tenga por matriz densidad reducida. Lo que deseamos se conoce como
una purificación del estado mezcla ρA . Una manera sencilla de obtener una purificación
es considerar una copia del espacio de Hilbert, H = HA ⊗ HB con HB = HA y escribir
Xp
|Ψi = λk |ψk i ⊗ |ψk i . (2.78)
k
Es fácil comprobar que la matriz densidad reducida TrB |Ψi hΨ| se corresponde con la ρA
deseada.
• • •
¿Cómo cuantificamos el entrelazamiento? Nos gustaría tener una magnitud que fuera
nula para estados factorizables y no nula para los estados entrelazados. Y, más aún, nos
interesaría que esta magnitud permaneciera invariante cuando realizamos operaciones uni-
tarias sobre cada uno de los subsistemas por separado. La más sencilla de las magnitudes
que cumplen estas condiciones es la entropía de entrelazamiento, que es la entropía de
von Neumann de cualquiera de las dos matrices densidad reducidas, ρA o ρB ,
nS
X
Sent = −Tr (ρA log ρA ) = −Tr (ρB log ρB ) = − σk2 log σk2 . (2.79)
k=1
donde es fácil ver que el resultado debe ser el mismo calculando sobre ρA y sobre ρB , ya
que el espectro de entrelazamiento es el mismo.
Comprobemos las propiedades que hemos exigido a la entropía de entrelazamiento. Si
el estado no está entrelazado, entonces σ1 = 1 y todos los demás son nulos, llegando así a
Sent = 0. En cambio, si tenemos más de un autovalor no nulo siempre tendremos Sent > 0.
Además, cualquier operación unitaria que actúe sobre uno de los subsistemas debe dejar
invariante el espectro de entrelazamiento, manteniendo así el valor de la entropía. Como
ejercicio, demuéstrese este último punto.
El máximo entrelazamiento posible se obtiene cuando los autovalores σk2 de la matriz
densidad están máximamente dispersos, es decir: σk2 = 1/m, donde m = mı́n(nA , nB ).
Asumamos que nA ≤ nB por conveniencia. Entonces, la matriz densidad reducida ρA es
proporcional a la identidad sobre HA , mientras que ρB tendrá nA autovalores no nulos (e
iguales) y nB − nA autovalores nulos. Así, podemos comprobar que la entropía de entrela-
zamiento es
m
X 1 1 m
Sent =− log = log(m) = log(m). (2.80)
m m m
k=1
tiene una alta entropía. En cambio, si tenemos acceso al sistema completo, las medidas
muestran unas regularidades profundas, con correlaciones fuertes entre los dos subsistemas.
Esto tendrá mucha importancia en los protocolos de comunicación cuántica, como veremos
en el próximo capítulo. En estos protocolos se utilizan estados máximamente entrelazados
de dos partículas, de modo que aunque alguien pueda acceder al estado de una de ellas no
pueda extraer la información almacenada, porque está contenida en las correlaciones entre
las dos.
Ejemplo 2.8 Consideremos el siguiente estado de tres qubits,
1
|Ψi = √ (|000i + |001i + |110i) . (2.81)
3
Se nos pide obtener la entropía de entrelazamiento del primer qubit con respecto a los otros
dos. En este caso el subsistema A estará formado por el primer qubit y el subsistema B
por el segundo y el tercero. Veamos cómo resolver este problema siguiendo todos los pasos.
La matriz densidad global se escribe como
1
ρ = |Ψi hΨ| = (|000i + |001i + |110i) (h000| + h001| + h110|) , (2.82)
3
que nos da nueve términos cuando la escribimos por completo. Afortunadamente podemos
saltarnos ese paso y pasar directamente a la matriz densidad global, que escribiremos de
la siguiente forma:
001
1/3 1/3 0 0 0 0 1/3 0
010 0 0 0 0 0 0 0 0
011
0 0 0 0 0 0 0 0
(2.83)
ρ= ,
100 0 0 0 0 0 0 0 0
101
0 0 0 0 0 0 0 0
110
1/3 1/3 0 0 0 0 1/3 0
111 0 0 0 0 0 0 0 0
donde hemos orlado la matriz para que sea más fácil reconocer el patrón: los elementos de
matriz no nulos son aquellos cuya fila y columnaP correspondan a un elemento no nulo del
estado original. Es decir, si el estado es |Ψi = i Ci |ii entonces ρij = Ci∗ Cj .
Ahora extraemos la matriz densidad reducida correspondiente al primer qubit. La forma
rápida es dividir la matriz en cuatro cuadrantes y sacar la traza de cada uno, pero vamos
a hacerlo más despacio en esta ocasión, a través de la ecuación (2.65)
X
(ρA )i1 ,i2 = ρi1 j,i2 j , (2.84)
j
donde j recorre todos los estados del subsistema 2: {00, 01, 10, 11}. Así tenemos:
X
(ρA )0,0 = ρ0j,0j = ρ000,000 + ρ001,001 + ρ010,010 + ρ011,011 = 1/3 + 1/3 + 0 + 0 = 2/3,
j
X
(ρA )0,1 = ρ0j,1j = ρ000,100 + ρ001,101 + ρ010,110 + ρ011,111 = 0 + 0 + 0 + 0 = 0,
j
X
(ρA )1,0 = ρ1j,0j = ρ100,000 + ρ101,001 + ρ110,010 + ρ111,011 = 0 + 0 + 0 + 0 = 0,
j
X
(ρA )0,1 = ρ0j,1j = ρ100,100 + ρ101,101 + ρ110,110 + ρ111,111 = 0 + 0 + 1/3 + 0 = 1/3,
j
(2.85)
2/3 0
ρA = , (2.86)
0 1/3
X 1 1 2 2 2
S=− pk log pk = − log − log = log(3) − log(2) ≈ 0.637. (2.87)
3 3 3 3 3
k
Ejemplo 2.9 Vamos a realizar un problema muy detallado, mostrando cómo el entre-
lazamiento entre dos espines evoluciona en el tiempo cuando interactúa con un cierto
Hamiltoniano. Consideremos un sistema formado por dos espines 1/2, inicialmente en el
estado:
1
|Ψi = √ (|++i + |−+i) , (2.88)
2
usando la notación |+i ≡ |Z+ i y |−i ≡ |Z− i. A continuación proponemos dos rutas de
evolución. La ruta (a) consiste en aplicar un campo magnético diferente en cada espín,
según el Hamiltoniano
Se nos pide determinar la evolución de la entropía de entrelazamiento entre los dos espines
en función del tiempo, a lo largo de las dos rutas.
1
|Ψi = √ (|+i + |−i) ⊗ |+i , (2.91)
2
es decir, el estado está factorizado y, por tanto, su entropía de entrelazamiento es nula.
Aun así, es relevante hacer el cálculo completo. Partimos de la matriz densidad completa
del estado:
1
ρ = |Ψi hΨ| = (|++i h++| + |++i h−+| + |−+i h++| + |−+i h−+|) . (2.92)
2
Ahora traceamos sobre el segundo espín para obtener las componentes de la matriz densidad
reducida del primer espín, ρA . Recordemos que debe tener dimensión 2 × 2.
X
(ρA )+,+ = ρ+k,+k = 1/2,
k
X
(ρA )+,− = ρ+k,−k = 1/2,
k
X
(ρA )−,+ = ρ−k,+k = 1/2,
k
X
(ρA )−,− = ρ−k,−k = 1/2, (2.93)
k
y es fácil comprobar que los autovalores de esa matriz son 1 y 0, dejando una entropía de
entrelazamiento nula.
El Hamiltoniano de la ruta (a) actúa de manera independiente sobre los dos espines.
A partir de aquí podemos deducir que el operador evolución total podrá descomponerse
como un producto de operadores evolución actuando sobre cada uno de los espines. Veamos
cómo. Haciendo (como solemos) ~ = 1,
donde HA y HB son los Hamiltonianos que actúan sobre cada una de las partículas. Es
fácil comprobar que los operadores HA ⊗ I y I ⊗ HB conmutan, de manera que escribimos
De aquí deducimos que cada espín evoluciona independientemente del otro. ¿Cómo actúa un
operador de evolución unitario sobre una matriz densidad? Supongamos que, para tiempo
t = 0, la matriz densidad del primer espín es ρA (0). Entonces, a tiempo t tendremos
que es una transformación de similaridad que preserva el espectro. Por lo tanto, deducimos
que los autovalores de ρA (t) y los de ρB (t) deben ser constantes del movimiento. Y, por lo
tanto, la entropía de entrelazamiento (que se calcula en base a ellos) a lo largo del protocolo
de evolución (a) debe permanecer constante.
0 1 0 0
1 0 0 0
H (b) = . (2.99)
0 0 0 −1
0 0 −1 0
1
|u1 i = √ (|++i + |+−i) , E1 = 1,
2
1
|u2 i = √ (|++i − |+−i) , E2 = −1,
2
1
|u3 i = √ (|−+i + |−−i) , E3 = −1,
2
1
|u4 i = √ (|−+i − |−−i) , E4 = 1, (2.100)
2
1
|Ψ(0)i = (|u1 i + |u2 i + |u3 i + |u4 i) . (2.101)
2
que nos lleva a una evolución temporal de tipo
1
(|u1 i + |u4 i) e−it + (|u2 i + |u3 i) eit . (2.102)
|Ψ(t)i =
2
1
|Ψ(t)i = √ (cos(t) |++i − i sin(t) |+−i + cos(t) |−+i + i sin(t) |−−i) , (2.103)
2
La matriz densidad reducida sobre el primer espín se calcula igual que antes. Escribamos
la matriz densidad total
1
ρ = |Ψi hΨ| = (cos(t) |++i − i sin(t) |+−i + cos(t) |−+i + i sin(t) |−−i)
2
(cos(t) h++| + i sin(t) h+−| + cos(t) h−+| − i sin(t) h−−|) , (2.104)
X
(ρA )+,+ = ρ+k,+k = (cos2 (t) + sin2 (t))/2 = 1/2,
k
X
(ρA )+,− = ρ+k,−k = (cos2 (t) − sin2 (t))/2 = cos(2t)/2,
k
X
(ρA )−,+ = ρ−k,+k = (cos2 (t) − sin2 (t))/2 = cos(2t)/2,
k
X
(ρA )−,− = ρ−k,−k = (cos2 (t) + sin2 (t))/2 = 1/2. (2.105)
k
1
1 ± cos2 (2t) , (2.106)
λ± =
2
y la entropía valdrá
Nótese que la entropía está acotada entre 0 y log 2, y que pasa por dos extremos periódi-
camente.
Resumen 2.4. Todo estado puro de un sistema compuesto, PNS H = HA ⊗ HB puede ser
escrito como una descomposición de Schmidt, |Ψi = k=1 σk |ak i ⊗ |bk i, donde {|ak i}
y {|bk i} son dos conjuntos de estados
Portogonales de HA y HB y NS ≤ mı́n(nA , nB ) es
el número de Schmidt, σk ∈ R+ y k σk2 = 1. El subsistema A por sí solo puede ser
descrito mediante un estado mezcla,P Scon 2una matriz densidad reducida ρA = TrB (ρ)
que se puede escribir como ρA = N k=1 σk |ak i hak |. El espectro de ρA se conoce como
espectro de entrelazamiento, que se preserva bajo cualquier operación unitaria que sólo
actúe sobre A o sobre B. Llamamos entropía de entrelazamiento a S[ρA ] = S[ρB ].
i αi |ai i, donde los {ai } son no degenerados por sencillez. Tras la medida el estado final
será alguno de los |ai i, con probabilidad dada por P (ai ) = |αi |2 . Supongamos que no
observamos el valor de la medida. En ese caso es apropiado describir elPestado del sistema
como una mezcla de los estados |ai i con pesos P (ai ), es decir: ρ̃ = i |αi |2 |ai i hai |. La
medición ha convertido el estado puro en mezcla.
¿Cómo es posible? La evolución unitaria jamás puede hacer eso. La razón es que el
sistema interactúa con el aparato de medida, de forma que no tiene sentido estudiar el
sistema por sí solo. Siendo más específicos, el sistema se entrelaza con el aparato de medida,
de forma que si nos empeñamos en describir cada uno de ellos por separado debemos
hacerlo en términos de una matriz densidad reducida. Ése es el origen del estado mezcla
que observamos tras la medición.
Sea H el espacio de Hilbert del sistema considerado, y sea A el espacio de Hilbert que
describe los posibles estados del aparato de medida, en el que para cada autovalor del
observable ai existe un estado puntero, |Ai i. El espacio de Hilbert P global es, claro, H ⊗ A.
Supongamos que, inicialmente, el sistema esté en el estado |ψi = i αi |ai i, y asumamos
que estos autovalores son no degenerados para mayor sencillez. El sistema + aparato estará
en un estado producto, |Ψi = |ψi ⊗ |0i. El proceso de medición es un proceso físico a través
del cual el sistema se entrelaza con el aparato de medida, pasando a
E X
Ψ̃ = αi |ai i ⊗ |Ai i , (2.108)
i
y llegamos a que el estado del sistema debe ser descrito mediante la matriz densidad
reducida
X
ρ̃ = |αi |2 |ai i hai | , (2.109)
i
X
P (ai ) = pk Wik , (2.110)
k
X
P (ai ) = pk Tr (Pi |uk ihuk |Pi )
k
X X
= pk Tr |ai,m ihai,m |uk ihuk |ai,m0 ihai,m0 |
k m,m0
X X
Tr hai,m0 |ai,m ihai,m |uk ihuk |ai,m0 i
= pk
k m,m0
X X
= pk hai,m0 |ai,m ihai,m |uk ihuk |ai,m0 i
k m,m0
X
= pk δm,m0 hai,m |uk ihuk |ai,m0 i
k,m.m0
X
= pk |hai,m |uk i|2 , (2.112)
k,m
que es la generalización apropiada de la expresión (2.110) para el caso en el que los auto-
valores de A sean degenerados4 .
¿Qué sucede con el estado tras la medición? Aquí debemos hacer una distinción im-
portante: si el autovalor ai observado no es degenerado, el estado final será necesariamente
puro. En efecto, si observamos ai al medir A, tras la medición el estado será necesaria-
mente |ai i, sea cual sea el estado inicial, sea puro o sea mezcla. Pero si el autoestado es
degenerado, esto ya no es cierto. De hecho, sabemos que el estado final está contenido
necesariamente en el subespacio propio de ai , pero este estado no tiene por qué ser puro.
El estado mezcla general se convierte en un estado mezcla que combina únicamente estados
del subespacio propio de ai .
Si el estado inicial fuera el |uk i, el estado final se obtiene proyectando sobre el subespacio
propio, es decir, Pi |uk i (a falta de normalizar). El estado final tras la medición deberá ser
un estado mezcla compuesto por estados de la forma |ũk i = Pi |uk i para todo k, con pesos
pk . Es decir:
X X
ρ̃i ∝ pk |ũk ihũk | = pk Pi |uk i huk |Pi = Pi ρPi (2.113)
k k
Este estado mezcla aún debe ser normalizado apropiadamente, dividiendo entre la traza:
1
ρ̃i = Pi ρPi , (2.114)
Tr(Pi ρPi )
4
Nótese que hemos hecho uso de la expresión Tr(|uihv|) = hv|ui.
X X Tr(Pi ρPi ) X
ρ̃ = P (ai )ρ̃i = Pi ρPi = Pi ρPi . (2.115)
Tr(Pi ρPi )
i i i
C El proceso descrito en las ecuaciones (2.114) y (2.115) se conoce como una medida
espectral o medida basada en proyectores (en inglés, projector-based measure, PVM),
que exigen conocer el conjunto de proyectores Pi tales que i Pi = I. Este formalis-
P
mo asume que las mediciones son ideales, en el sentido de que detectan con precisión
sus estados correspondientes y, cuando se repiten siempre se obtiene el mismo resul-
tado. En general, las mediciones no siempre cumplen eso, y es preciso extender el
formalismo. La forma más general de medición es la llamada medida basada en ope-
radores positivos (positive-operator valued measure, POVM), en la que levantamos
la restricción de que los operadores Pi sean proyectores, y sólo exigimos que sean
autoadjuntos y P que sus autovalores sean reales y positivos, además de la partición
de la identidad i Pi = I. Las expresiones (2.114) y (2.115) se aplican de la misma
manera.
C El proceso según el cual pasamos de una combinación lineal α |ai + β |bi a una matriz
densidad de pesos |α|2 y |β|2 se suele llamar decoherencia. La fase relativa entre α y
β suele llamarse coherencia, y es la información que se pierde en el proceso.
1
|Ψi = √ (|01i − |10i) , (2.116)
2
que como sabemos tiene un entrelazamiento máximo, S = log 2, ver ecuación (2.80). Uno
de los espines se lo queda Alicia, y el otro se lo lleva Beatriz, a miles de años luz. Alicia
mide σz sobre su espín, observando el resultado. Los valores posibles son ±1, con proba-
bilidad 1/2. Cuando Beatriz mide σz sobre el otro espín, el valor será necesariamente el
opuesto. En otras palabras, las medidas de σz sobre ambos espines están perfectamente
anti-correlacionadas, pese a la distancia. Es decir: el resultado de la primera medida parece
viajar de manera instantánea de un espín al otro. Sin embargo, si la distancia entre Alicia y
Beatriz es suficientemente grande, la información sobre una de las medidas no puede afectar
al resultado de la otra. ¿Se viola entonces la teoría especial de la relatividad? No, debido a
que los valores observados son aleatorios. Es decir: el entrelazamiento anti-correlaciona los
resultados de las medidas, pero no hay forma de usar ese hecho para que Alicia transmita
un mensaje a Beatriz.
Podríamos pensar que los espines eligieron valor cuando aún estaban juntos, y que
simplemente se acuerdan de los valores que escogieron. Eso es lo que se conoce como una
teoría de variables ocultas: el resultado de la medida no se decide en el acto de medir, sino
que siempre estuvo presente en el estado cuántico, aunque oculta. Es posible construir una
teoría alternativa a la mecánica cuántica basada en la existencia de variables ocultas, pero
tendrá un problema: la teoría no será local. Veamos por qué.
Consideremos qué ocurre si Alicia y Beatriz pueden elegir la componente del espín que
deseen, σn = ~n ·~σ . Es posible demostrar que el estado singlete (2.116) tiene la misma forma
escrito en la base de autoestados de σn , sea cual sea ~n. Supongamos que Alicia elige el
eje X para su medición. Si Beatriz elige también el eje X encontrará una anti-correlación
perfecta entre sus medidas. Sin embargo, si elige otro eje la anti-correlación será menor,
y si elige un eje ortogonal las medidas estarán descorrelacionadas. Asumiendo que Alicia
y Beatriz son libres para elegir el eje que deseen para medir el espín, concluimos que una
teoría de variables ocultas que diera cuenta de los experimentos tendría que ser capaz de
comunicar al espín de Beatriz cuál es el eje que eligió Alicia. Es decir, tendría que violar
el principio de causalidad.
C Deseamos destacar que los estados EPR no vulneran el principio de causalidad gracias
al teorema de no clonación. En efecto, si Alicia y Beatriz pudieran hacer tantas copias
como quisieran de su estado, entonces sí que podrían conocer cuál es el eje en el que
la otra ha medido su qubit, violando el principio de causalidad. El teorema de no
clonación desemboca en el teorema de no-signaling, según el cual el entrelazamiento
no puede ser utilizado para transmitir información superlumínica.
C Existen teorías de variables ocultas que dan las mismas predicciones que la mecánica
cuántica en su rango de validez, pero deben violar el principio de causalidad para
explicar los experimentos. Por ejemplo, la mecánica de Bohm o la mecánica estocástica
de Nelson. Ambas teorías asumen que existe una función de onda extendida en el
espacio, y que las partículas reales son clásicas y se mueven en un potencial creado
por dicha función de onda. Para la mecánica de Bohm la aleatoriedad cuántica es
aparente, y proviene del hecho de que las trayectorias de estas partículas clásicas
son caóticas, mientras que la mecánica estocástica de Nelson asume que siguen un
movimiento browniano dirigido. Ambas pueden ser útiles para realizar cálculos en
ciertas situaciones muy determinadas, y ambas proporcionan predicciones diferentes
de las de la mecánica cuántica a escalas temporales mucho más pequeñas, que han sido
consideradas como explicación posible para las fluctuaciones del universo primitivo.
que es trivial porque las probabilidades son positivas. Sumemos a la izquierda y a la derecha
p(Z X̄N ) + p(Z X̄ N̄ ), obteniendo
p(Z N̄ X) + p(N X̄ Z̄) + p(Z X̄N ) + p(Z X̄ N̄ ) ≥ p(Z X̄N ) + p(Z X̄ N̄ ), (2.118)
y ahora nos damos cuenta de que los dos sumandos del lado derecho se pueden agrupar,
dando p(Z X̄). También nos damos cuenta de que el primer y el cuarto sumando de la
izquierda se pueden agrupar, así como el segundo y el tercero. Nos queda:
que es la desigualdad de Bell. Podemos ver que se trata de una mera relación clásica entre
conjuntos, que se puede mostrar en un diagrama de Venn.
π α π α 1 1
sin2 + + sin2 − = (1 + sin α) + cos2 (α/2) ≥ , (2.121)
4 2 2 2 2 2
y esa desigualdad se viola en el tercer cuadrante: α ∈ [−π, −π/2].
Resumen 2.6. En un estado entrelazado la medida sobre una parte del sistema afecta
a ulteriores medidas sobre el resto del mismo, aunque estén en lugares lejanos. Este
hecho no viola el principio de localidad.
2.A Problemas
2.1. Dos espines 1/2 interactúan mediante el Hamiltoniano de Heisenberg, H = J~σ1 · ~σ2 =
J(σ1x σ2x +σ1y σ2y +σ1z σ2z ). Encontrar la expresión matricial de este operador y su espectro.
1
|Ψi = (|0011i + |0101i + |1010i + |1100i) . (2.122)
2
Encontrar el entrelazamiento de todas las parejas de espines, y buscar una posible inter-
pretación del término arcoiris.
2.5. Considerar el electrón en la cadena atómica de los ejemplos 1.16 y 2.6, en los que
cada orbital puede estar ocupado por dos electrones de espines opuestos. Consideremos un
Hamiltonano de la forma
n−1
X X
H0 = −ε1 (|i, si hi + 1, s| + |i + 1, si hi, s|) . (2.123)
i=1 s=±
Describir su espectro, y las diferencias que encontramos debidas a que el sistema tenga
espín.
n
X
H = H0 − Γ σz,i . (2.124)
i=1
2.7. Incluyamos una interacción más en el sistema anterior, permitiendo transiciones entre
las dos polarizaciones del espín,
n
X
H = H0 − Λ (|i, ↑i hi, ↓| + |i, ↓i hi, ↑|) . (2.125)
i=1
2.8. Aunque el espacio de Hilbert crece enormemente con el tamaño del sistema, muchas
veces es posible considerar un subespacio relevante de dimensión pequeña, y restringir a él
nuestra búsqueda del estado fundamental. Esto constituye el método de Rayleigh-Ritz, o
método variacional restringido a un subespacio. Consideremos el Hamiltoniano de n espines
1/2,
n
X n
X
H = −J σi,z σi+1,z − Γ σi,x , (2.126)
i=1 i=1
también conocido como el modelo de Ising con campo transverso. Diagonalizar numéri-
camente la matriz correspondiente a H para un valor de n > 100 es un problema fuera
del alcance de los superordenadores más potentes. Afortunadamente, hay otras rutas más
inteligentes que el uso de la fuerza bruta. En este problema exploraremos una muy sencilla.
(a) Considerar el límite J → 0, obtener el estado fundamental y su energía de manera
exacta.
(b) Considerar el límite Γ → 0, y repetir el proceso.
(c) Considerar el subespacio formado por ambos estados fundamentales, teniendo en cuen-
ta que no son ortogonales. Obtener el estado fundamental del sistema en el subespacio
expandido por ellos.
La mecánica cuántica ha sido esencial para la creación de una gran cantidad de tec-
nologías a lo largo del siglo XX: el efecto fotoeléctrico, los semiconductores, el diseño de
nuevos materiales, el láser o la superconductividad. Todas esas tecnologías se discuten en
cursos especializados de física del estado sólido o de óptica cuántica. Sin embargo, en estos
momentos se está desarrollando una serie de tecnologías cuánticas de la información, que
tienen en común la capacidad para controlar el entrelazamiento cuántico.
Una función de onda de n qubits está caracterizada por 2n amplitudes de probabilidad,
lo que dificulta enormemente nuestra capacidad de cálculo y de predicción. Pero preci-
samente esta dificultad debemos verla como una oportunidad: los sistemas cuánticos de
muchos cuerpos poseen una riqueza de comportamiento enorme, y unas gran capacidad
para el tratamiento de la información. Si un sistema físico puede ser controlado con to-
tal precisión y aun así su comportamiento no puede ser predicho, quizá sea un candidato
interesante para encriptar información o para realizar cálculos.
En los últimos treinta años las tecnologías cuánticas basadas en el entrelazamiento
han tenido un crecimiento enorme, debido a los desarrollos tanto teóricos (teoría de la
información y de la comunicación cuántica) como experimentales (átomos fríos en redes
ópticas, qubits superconductores, iones atrapados). En este capítulo introducimos algunos
de los conceptos más relevantes asociados con este tema.
• • •
n−1
X
N= xi 2i , (3.1)
i=0
y cada uno de estos valores xi se llama un bit. En efecto, podemos representar 2n alterna-
tivas diferentes con n bits, que pueden corresponder con los primeros 2n números enteros.
Los bits se procesan mediante diferentes operadores booleanos (es decir, referidos al álgebra
de Boole, o álgebra lógica de bits) o puertas lógicas. Su acción sobre los bits es la siguiente:
C Es interesante conocer que existe una puerta que, empleada de manera inteligente,
permite generar todas las demás: la puerta NAND, definida por NAND(x, y) ≡
(x ∧ y) = 1 ⊕ xy, es decir: 1 en todos los casos salvo si x = y = 1, que da cero. Todos
los circuitos lógicos, por complejos que sean, pueden construirse usando únicamente
la puerta NAND, y por eso se dice que es una puerta universal.
También es interesante notar que todas las puertas lógicas de dos bits descritas son
irreversibles, en el sentido de que no es posible reconstruir la entrada a partir de la salida,
dado que tiene menor información. En otras palabras: la función asociada no es inyectiva.
Esta irreversibilidad implica que la acción de todas estas puertas, cuando se implementan
físicamente, deben aumentar la entropía del sistema. Según el principio de Landauer, la
desaparición o borrado de un bit de información del sistema implica la generación de una
entropía que como mínimo será de ∆S = kB T log 2 [18].
Por supuesto, es posible emplear sólo puertas reversibles, que necesariamente toman
dos bits y devuelven otros dos. Por ejemplo, la puerta CNOT, o controlled-not, definida
como (x, y) 7→ (x, x ⊕ y), cuya tabla de verdad es la siguiente:
x y s1 s2
0 0 0 0
0 1 0 1
1 0 1 1
1 1 1 0
• • •
Consideremos una función booleana genérica, f : {0, 1}n 7→ {0, 1}. Por ejemplo, la
paridad, que nos devuelve si el número de unos en la entrada es par (0) o impar (1),
P (x1 , · · · , xn ) = x1 ⊕ x2 ⊕ · · · ⊕ xn . Toda función booleana se puede construir físicamente
mediante la aplicación de un número suficiente de puertas lógicas, que se denomina el
tamaño del circuito. Como muchas de las puertas pueden actuar en paralelo, es conveniente
también definir la profundidad de un circuito, como el número de puertas máximo por el
que pasa un bit inicial. En teoría de la computación uno de los problemas centrales es la
estimación de la complejidad del circuito mínimo que permite calcular una función booleana
dada, definida tanto en términos de tamaño como de profundidad.
|0i H
|0i H Z
|0i H Z
|0i H Z
Figura 3.1: Ejemplo de circuito cuántico. Consta de cuatro qubits, cuya historia debe leerse
de izquierda a derecha. Inicialmente, todos están sometidos a una puerta de Hadamard,
H. Después, aplicamos una puerta control-Z entre el primer y el segundo qubit. Después,
entre el segundo y el tercero. Y, para terminar, entre el tercero y el cuarto. Finalmente,
medimos el valor de todos los qubits.
La puerta de un qubit más sencilla es la puerta NOT, que actúa igual que su análoga
clásica, NOT|0i = |1i y NOT|1i = |0i. De esta forma, NOT(α |0i + β |1i) = α |1i + β |0i.
Nótese que su acción se corresponde con la de σx , por lo que también se la llama puerta
X. Nótese que NOT2 = I.
1 1 1 1
H= √ = √ (σx + σz ). (3.2)
2 1 −1 2
Es decir,
1 1
H |0i = √ (|0i + |1i), H |1i = √ (|0i − |1i), (3.3)
2 2
y es fácil ver que H2 = I, es decir, H−1 = H. Una manera útil de expresar la acción de
1 1 X
H |xi = √ (|0i + (−1)x |1i) = √ (−1)xy |yi . (3.4)
2 2 y=0,1
Es interesante observar qué ocurre cuando actuamos con puertas de Hadamard sobre
una serie de qubits. Definamos la puerta H⊗n ≡ H ⊗ · · · ⊗ H, y apliquémosla al estado
|0n i ≡ |0i ⊗ · · · ⊗ |0i (ambos, n veces),
donde hemos empleado una notación según la cual el ket |x1 x2 · · · xn i se representa me-
diante el número binario formado por esos bits, x = (x1 x2 · · · xn )2 . Así, p.ej., |0101i = |5i
y |1100i = |12i. Se dice que estos estados forman la base computacional.
También podemos calcular la acción de H⊗n sobre un estado arbitrario de la base,
|xi = |x1 x2 · · · xn i,
• • •
La mayor parte de las puertas de dos qubits y tres qubits emplean el esquema de control.
Eso significa que uno de los qubits nunca se ve afectado, pero controla lo que sucede al
otro. Si el primer qubit es |0i, al segundo no le sucede nada. En cambio, si el primer qubit
es |1i, el segundo (y tercero, en su caso) se ve afectado de la manera convenida.
Figura 3.2: Símbolos para las puertas cuánticas más empleadas. Fuente: [19].
Así, por ejemplo, la puerta CNOT o CX actúa sobre dos qubits de forma que si el
primero es |0i, el segundo se queda igual, pero si el primero es |1i, el segundo se ve afectado
por una puerta NOT. De la misma manera tenemos la puerta CH, o control-Hadamard,
o en general la puerta control-U, en la que la acción sobre el segundo qubit es una uni-
taria arbitraria U . La puerta de Toffoli también responde a este esquema, escribiéndose
normalmente como la puerta CCNOT, o control-control-NOT.
Otra puerta interesante es la puerta SWAP, que intercambia dos qubits, o la puerta
CSWAP, o control-SWAP, que intercambia dos qubits siempre que un tercero, el qubit
de control, esté a 1. En la figura 3.2 se encuentra una tabla con los símbolos empleados
para las puertas cuánticas.
• • •
y el estado final será ese el resultado de la actuación de ese operador sobre el estado inicial,
es decir, |φi = U |0i⊗4 .
Resumen 3.1. Un circuito cuántico es un proceso a través del cual se hace actuar a
una serie de puertas cuánticas sobre una serie de qubits. Las puertas son normalmente
de uno o dos qubits (excepcionalmente de tres). Es importante saber leer la operación
de un circuito cuántico.
C Estos apuntes son demasiado breves para introducir los conceptos básicos de teoría del
cifrado, pero hemos de entender que la transmisión cuántica sólo se debe emplear para
mensajes muy cortos, que a su vez sirven como clave para encriptar otros mensajes.
Por lo general, asumimos que existe un canal clásico entre Alicia y Beatriz, que puede
ser interceptado sin que les preocupe mucho.
1
En inglés suelen llamarse Alice y Bob las personas que intercambian información, y la espía suele
llamarse Eve por eavesdropping, que significa escuchar a escondidas.
No. de bit 1 2 3 4 5 6 7 8 9 10
Mensaje 0 0 1 0 0 0 1 1 1 0
Eje Alicia X Z X X Z X Z Z X Z
Estado enviado |X+ i |Z+ i |X− i |X+ i |Z+ i |X+ i |Z− i |Z− i |X− i |Z+ i
Eje Beatriz X X Z X Z Z X Z X X
Estado recibido |X+ i |X− i |Z− i |X+ i |Z+ i |Z+ i |X− i |Z− i |X− i |X+ i
¿Válido? Sí No No Sí Sí No No Sí Sí No
Cuando Alicia y Beatriz intercambian la lista de ejes se dan cuenta de que han coinci-
dido en los bits números 1, 4, 5, 8 y 9. El resto se han transmitido al azar y no nos sirven.
Tendremos que realizar una nueva transmisión de éstos, así que el procedimiento no es muy
rápido. Pero no es rapidez lo que busca el BB84, sino seguridad.
Hablando de seguridad, ¿podemos saber si el mensaje fue atacado, de cualquier forma?
En efecto, podemos reservar unos pocos bits del mensaje como control. Esos bits serán
contrastados públicamente entre Alicia y Beatriz, enviándose el resultado a través de un
canal abierto. Si no coinciden, de seguro ha habido un ataque.
Alicia no puede actuar sobre el qubit de Beatriz, así que el operador real con el que actúa
sobre el estado debe ser I ⊗ I, σx ⊗ I, σy ⊗ I o σz ⊗ I. El resultado es el siguiente:
1 1
√ (|01i + |10i) = Φ+ ,
(I ⊗ I) √ (|01i + |10i) =
2 2
1 1
√ (|11i + |00i) = Ψ+ ,
(σx ⊗ I) √ (|01i + |10i) =
2 2
1 i
√ (|11i − |00i) = −i Ψ− ,
(σy ⊗ I) √ (|01i + |10i) =
2 2
1 1
√ (|01i − |10i) = Φ− . (3.9)
(σz ⊗ I) √ (|01i + |10i) =
2 2
Ahora, Alicia envía su qubit mediante un canal cuántico a Beatriz. Nótese que el estado de
este qubit, al ser la mitad de un par entrelazado, está en un estado mezcla del que (por sí
solo) es totalmente imposible extraer información. Eva no tiene nada que hacer si captura
este qubit.
Sin embargo, cuando el qubit llega a manos de Beatriz, ella tiene ya los dos miembros
del par, así que sólo tiene que realizar una medida apropiada para averiguar en cuál de los
cuatro estados distinguibles está. De esta manera habrá obtenido dos bits de información a
través del intercambio de un solo qubit seguro. ¿Cómo se construye el observable a medir?
Sabemos que un observable se caracteriza por sus autoestados y sus autovalores asociados.
No tenemos más que asignar un autovalor diferente a cada uno de ellos, es decir:
Ω = a1 Φ+ Φ+ + a2 Ψ+ Ψ+ + a3 Ψ− Ψ− + a4 Φ− Φ− , (3.10)
donde a1 , a2 , a3 y a4 son diferentes dos a dos. Una medida de Ω sobre el par que ha
recibido Beatriz le dará cuál es el estado enviado, y por tanto cuáles son los dos bits que
le transmite Alicia. Esta operación suele denominarse una medida de Bell.
1
|Θi = |ψi ⊗ Ψ− = (a |0i + b |1i) ⊗ √ (|01i − |10i)
2
a a b b
= √ |001i − √ |010i + √ |101i − √ |110i , (3.11)
2 2 2 2
donde los tres qubits deben leerse en el orden Q-A-B. Ahora realizamos una medida de
Bell, es decir, una medida del observable (3.10), sobre los qubits Q y A. El cálculo es más
sencillo si descomponemos cada estado |00i, |01i, etc. en la base de autoestados de Ω, es
decir, |Ψ± i y |Φ± i. El cambio de base se realiza a través de la matriz
+
|00i 1 1 0 0 |Ψ i
|11i 1 1 −1 0 0 |Ψ− i
|01i = √2 0 0 1 1 |Φ+ i ,
(3.12)
|10i 0 0 1 −1 |Φ− i
llegando a
1 + 1 1 1
|Θi = Ψ ⊗ |v1 i + Ψ− ⊗ |v2 i + Φ+ ⊗ |v3 i + Φ− ⊗ |v4 i , (3.13)
2 2 2 2
donde
|v1 i = b |0i−a |1i , |v2 i = −b |0i−a |1i , |v3 i = a |0i−b |1i , |v4 i = a |0i+b |1i .
(3.14)
Ahora supongamos que la medida de Bell nos informa de que el estado de los qubits QA
es |Ψ+ i. Entonces sabemos inmediatamente que el qubit B está en el estado |v1 i, que no es
exactamente el estado deseado, pero se le parece mucho. De hecho, una operación unitaria
sencilla nos lleva a él: |ψi = iσy |v1 i. De la misma manera, si el resultado de la medida de
Bell es |Ψ− i, entonces el estado del qubit B es |v2 i, y tenemos que |ψi = −σx |v2 i. Si la
medida nos hubiera dado |Φ+ i entonces tendríamos que el estado de B es |v3 i y haríamos
|φi = σz |v3 i. Y si el estado medido es |Φ− i no tenemos que hacer nada, porque |φi = |v4 i
directamente.
Nótese en ningún momento Alicia ha enviado ningún qubit a Beatriz. Sólo compartían
una pareja entrelazada, y una serie de medidas inteligentes ha transportado el estado del
qubit objetivo de las manos de Alicia a las de Beatriz.
Resumen 3.2. La transmisión segura de bits de información entre una fuente (Alicia)
y un receptor (Beatriz), ante la presencia de una posible espía (Eva) tiene soluciones
cuánticas, como el protocolo BB84. Si Alicia y Beatriz comparten pares entrelazados
pueden transmitir una cantidad superior de información mediante el proceso de codifi-
cación densa. Aunque un estado cuántico no puede ser copiado manteniendo el original
(teorema de no-clonación) sí que puede ser transmitido mediante el proceso de telepor-
tación cuántica.
• • •
• • •
Para cada uno de esos problemas existe, al menos, un algoritmo que los resuelve. Todos
esos algoritmos pueden formularse sobre una máquina de Turing, y eso es lo que consdira-
remos en lo sucesivo.
Diremos que un problema está en la clase P cuando existe un algoritmo (clásico, claro
está) que puede resolverlo en un tiempo que escala polinómicamente con el tamaño de la
entrada (medida en número de bits). Así, por ejemplo, si nos dan una serie N de enteros y
nos piden encontrar el mayor, el espacio de configuraciones está formado por los números
del 1 al N , y el tiempo de cálculo es proporcional a N , así que está en la clase P. Otros
problemas relevantes en la clase P son la ordenación de una serie de números, la primalidad
o la diagonalización de una matriz.
Por otro lado, un problema está en la clase NP cuando cada configuración puede
comprobarse en tiempo polinómico. Así, todos los problemas en la lista anterior están la
clase NP. Por ejemplo, si nos dan un orden posible para las ciudades, calcular el tiempo
de viaje es rápido. Si nos dan los valores de las variables booleanas en SAT, calcular si la
función total es cierta o falsa se puede hacer en tiempo polinómico. En general, asumimos
que tiempo polinómico significa rápido y todo lo que crezca más rápidamente (por ejemplo,
exponencial) significa lento. Por supuesto, no es lo mismo un algoritmo cuyo tiempo de
cálculo es O(N 2 ) que O(N 10 ), pero podemos aceptar esta barrera como esencial. Notemos
que no importa cuál sea el tiempo que tardamos en los tamaños bajos: sólo nos importa el
comportamiento asintótico. Para valores suficientemente grandes de N , exp(N ) es mucho
mayor que N 10 , aunque eso no ocurre para valores bajos.
El problema abierto más importante de la teoría de la computación es determinar si P
es igual a NP. La intuición y la experiencia de décadas nos dicen que no, pero no existe una
demostración formal. En 1971, Cook probó que ciertos problemas NP tienen una propiedad
especial: si uno de ellos puede resolverse en tiempo polinómico, todos los problemas NP
pueden resolverse en tiempo polinómico. Se llaman problemas NP-completos, y la razón
de que estos problemas sean especiales es que pueden imitar a cualquier otro, de tal manera
que un algoritmo que pueda resolver uno de ellos puede adaptarse para resolver cualquier
otro problema de la clase. El problema NP-completo original es SAT, que es el paradigma
esencial de esta clase.
A día de hoy, creemos que P6=NP, aunque no tengamos una prueba. Si lo contrario
fuera cierto, es decir, si existieran algoritmos polinómicos para resolver problemas NP-
completos, la revolución tecnológica sería formidable. Para empezar, nuestras técnicas
criptográficas actuales dejarían de ser seguras. Centenares de procesos industriales podrían
optimizarse de manera sencilla.
• • •
• • •
Veamos un ejemplo práctico. El problema del vidrio de espín es uno de los paradig-
mas de problema NP-completo. Consideremos N espines 1/2, enlazados mediante cables
en forma de red compleja. Los cables, en ocasiones, los fuerzan a mantenerse paralelos,
mientras que en otras ocasiones los fuerzan a ser anti-paralelos. El Hamiltoniano H0 puede
escribirse como
X
H0 = Jij σzi σzj . (3.15)
i,j
X
H1 = −Γ σxi , (3.16)
i
t t
H(t) = H0 + 1 − H1 . (3.18)
T T
Inicialmente, tenemos un estado cuántico en el que todas las configuraciones están presentes
con la misma probabilidad, y al final sólo habrá sobrevivido la que corresponde a la solución
del problema, con las probabilidades de todas las demás yendo a cero.
• • •
Por supuesto, no puede ser tan fácil. En la práctica, la AQC se enfrenta a un problema
grave. Si el gap energético se hace cero en algún punto, el teorema adiabático deja de ser
cierto. En los casos reales el gap nunca es exactamente cero, pero sí que puede ser muy
bajo. En ese caso, la probabilidad de saltar a un estado excitado, estropeando así el proceso
de cálculo (equivalente a encontrar un mero mínimo local) depende de la velocidad a la
que avancemos. En la práctica, el tiempo necesario para un cálculo AQC debe escalar con
T ∼ ∆E −2 para tener certeza de haber resuelto el problema.
El otro problema técnico es: ¿cómo construimos el Hamiltoniano H0 que nos ayude en
un problema concreto? Se ha desarrollado toda una tecnología para crear los circuitos que
implementen un Hamiltoniano general, que se pueden seguir en la literatura [23].
|0i H x x H
Uf
|0i X H y y ⊕ f (x)
Figura 3.3: Circuito cuántico asociado al algoritmo de Deutsch-Josza para una función
booleana de un solo bit. Partimos, como siempre, de los dos qubits en |0i. Aplicamos una
puerta X o NOT al segundo qubit, y aplicamos una puerta de Hadamard a cada uno de
ellos. Después aplicamos el oráculo. Una puerta de Hadamard más sobre el primer qubit,
y procedemos a medirlo.
y nos preguntaremos cuántas veces debemos aplicar Uf a lo largo del proceso, valor que
se llama complejidad de llamada (query complexity). Clásicamente, deberíamos hacer dos
llamadas. Cuánticamente, como veremos, nos bastará con una. El circuito cuántico asociado
al algoritmo de Deutsch está representado en la figura 3.3
Partimos del estado inicial usual, |00i. Comenzamos aplicando una puerta X o NOT
al segundo qubit, de manera que el estado será |01i. Ahora aplicamos sendas puertas de
Hadamard, H, a ambos qubits, obteniendo como resultado
1
|Ψi = (|0i + |1i) (|0i − |1i) . (3.20)
2
1
1X
|Ψi = (−1)f (x) |xi (|0i − |1i) . (3.23)
2
x=0
Desde este momento prescindiremos del segundo qubit, ya que es el primero, x, el que
contiene la información relevante, y además ambos están factorizados. Si f es constante,
entonces el signo (−1)f (x) es global e irrelevante, así que tenemos (salvo fase global)
1
|Ψi = (|0i + |1i) (|0i − |1i) , si f es constante, salvo fase, (3.24)
2
mientras que si la función es equilibrada, entonces (−1)f tomará un signo diferente en |0i
y |1i y, salvo fase global,
1
|Ψi = (|0i − |1i) (|0i − |1i) , si f es equilibrada, salvo fase. (3.25)
2
De esta manera, una última puerta de Hadamard actuando sobre el primer qubit nos
llevará ese qubit al |0i cuando f sea constante, y al |1i cuando f sea equilibrada. Una
única medida de σz sobre este qubit nos dará la respuesta.
• • •
El mismo truco que usamos en el caso del algoritmo de Deutsch-Josza nos lleva a escribir
y es fácil darse cuenta de que no importa que x esté formado por un bit o por muchos.
Olvidando por el momento el segundo qubit, vemos que la acción del oráculo sobre el
primero se resume en
(
− |xi si x = ω,
Uω |xi = (3.28)
+ |xi en caso contrario.
n −1
2X
⊗n 1
|si = H n
|0 i = |xi , (3.29)
2n/2 x=0
es decir: cambia el signo a todas las componentes ortogonales a |si, pero deja la componente
a lo largo de |si tranquila. Ahora definimos la transformación de Grover como RG = Us Uω ,
es decir, llamamos al oráculo y seguidamente llamamos a Us . Procedemos a caracterizar
cómo funciona el operador RG , ayudándonos de la figura 3.4. Notemos, ante todo, que
si partimos de un estado en el plano expandido por |si y |ωi, la acción de RG nunca
abandonará dicho plano. Definamos asimismo el estado |s0 i como la proyección de |si
sobre el subespacio ortogonal a |ωi, es decir, |s0 i es ortogonal a |ωi.
Llamemos φ al ángulo que forman los estados |ωi y |si. Es fácil comprobar que cos φ =
|hω|si| = √1N . Ahora definimos θ/2 como el ángulo formado entre |si y |s0 i. Tenemos
√
que θ/2 √ = π/2 − φ, así que sin(θ/2) = 1/ N . Asumiendo que N es realmente grande,
θ ≈ 2/ N .
Partiendo del estado |si y ayudándonos con la figura 3.4 podemos ver que el efecto de
la reflexión en torno a |s0 i seguido de la reflexión en torno a |si es una rotación neta de
θ en la dirección de |ωi. Es decir, RG |si está más cerca de |ωi de lo que estábamos al
principio. Para llegar a |ωi deberemos dar m pasos tal que mθ ≈ π/2, es decir
√
π N
m≈ . (3.31)
4
√
Eso implica que realizando O( N ) rotaciones RG llevamos |si a |ωi con una gran proba-
bilidad. Si N ≈ 106 (n = 20), en lugar de un millón de operaciones bastarían en torno a
1000. Esto sí que resulta una mejora sustancial.
es la pérdida de coherencia entre los qubits. En el caso clásico, siempre es posible copiar
la información en varios lugares, para preservarla. Desafortunadamente, el teorema de no
clonación nos impide realizar esto con los qubits, pero aún así es posible diseñar algoritmos
que empleen más de un qubit físico para implementar cada qubit lógico, disminuyendo así
la probabilidad de errores.
• • •
Iones atrapados. Los estados |0i y |1i de un qubit simple son meramente el estado
fundamental, f , y un estado excitado metaestable (de larga vida), e, de un ión. La cons-
trucción de la puerta NOT es sencilla: un pulso adecuado de un láser con la frecuencia de
resonancia de la transición f → e permite pasar de |0i a |1i y viceversa. La medida del
qubit puede hacerse mediante un segundo láser sintonizado a la frecuencia de resonancia
entre f y un segundo estado excitado inestable e0 (de corta vida): si el ión se encuentra
en el estado e, este láser no producirá ningún salto de f a e0 , y por lo tanto, tampoco se
detectará una desexcitación e0 → f . Más difícil es la construcción de una puerta de dos
qubits. Ello se consigue colocando varios iones en una trampa de Paul lineal, que alinea
varios iones a lo largo de un eje mediante una combinación de campos eléctricos oscilantes.
Esta cadena de iones con fuerzas eléctricas repulsivas tiene modos normales de vibración
a lo largo del eje. En conjunto, los pulsos láser que actúan sobre los iones excitan también
los modos normales del movimiento oscilatorio, y esto determina, a su vez, la respuesta de
los iones a sucesivos pulsos láser. Cirac y Zoller mostraron en 1995 que se puede construir
una puerta CNOT con tan sólo 5 pulsos láser [26].
• • •
Cavidades QED. Los estados |0i y |1i de un qubit simple son ahora estados electró-
nicos de átomos neutros. La construcción de una puerta NOT es similar a la de los iones
atrapados. La construcción de puertas de dos qubits se consigue atrapando los átomos en
cavidades ópticas perfectamente ajustadas para contener los fotones que resultan de una
transición entre niveles electrónicos. De este modo, unos átomos pueden interaccionar con
otros a través de su acoplamiento con el estado electromagnético en la cavidad.
• • •
Resonancia magnética nuclear (RMN). En este caso los estados |0i y |1i de un
qubit simple son los estados propios del espín de un núcleo atómico. Se puede pasar de uno
a otro aplicando un cambio magnético pulsante. Para la construcción de puertas de dos
qubits se aprovechan las interacciones dipolo-dipolo entre núcleos diferentes. Este sistema
permite tiempos de coherencia especialmente largos, pero tiene el problema de que no puede
utilizarse a muy bajas temperaturas y es difícil conseguir de entrada una fuerte población
de estados |0i.
3.A Problemas
3.1. Un quantum walk se define en analogía con un random walk, a través de una partícula
y una moneda cuántica, que es un qubit adicional. La partícula puede estar en una serie
de estados, |ii, con i ∈ {−n, · · · , n}, y el espacio de Hilbert es el producto tensorial del
asociado a la partícula y el asociado a la moneda. El estado comienza en |Ψi = |0iP ⊗
|0iM , donde el subíndice P se refiere a la partícula y el subíndice M a la moneda. Ahora
procedemos a actuar de la siguiente forma:
(a) Lanzamos la moneda, aplicándole una puerta de Hadamard.
(b) Movemos la partícula, según la siguiente regla: si el estado de la moneda es |0iM , se
mueve un paso a la izquierda, y si el estado de la moneda es |1iM , entonces se mueve un
paso a la derecha.
Se pide encontrar el estado exacto del sistema tras tres lanzamientos de la moneda.
3.2. Diseñe un circuito cuántico que produzca un estado de 4 qubits en el que el primero
esté máximamente entrelazado con el cuarto y el segundo con el tercero. Ese estado suele
denominarse un estado arcoiris o rainbow.
3.3. Consideremos dos parejas de qubits en estados de Bell, es decir, uno de los estados de
la ecuación (3.8). Demostrar que una medida de Bell, realizada en base al operador (3.10)
sobre un qubit de cada par nos cruzará los pares entrelazados.
1
Recordamos a los lectores que Q es un conjunto numerable, puesto que es posible asignar un número
natural a todos los racionales en orden, sin saltarse ninguno. Sin embargo, el argumento diagonal de Cantor
nos muestra que no existe ninguna forma de asignar un natural a cada real.
2
Una de las paradojas más llamativas es el teorema de Banach-Tarski, que afirma que una pelota maciza
de radio R puede ser troceada y reconstruida como dos pelotas de radio R. El resultado es matemáticamente
riguroso, si se hace uso del axioma de elección de Zermelo. Sin embargo, carece de sentido físico.
N
X
|Ψi = Ψi |x̃i i , (4.1)
i=1
que llamaremos representación de posiciones del estado, donde las amplitudes de probabi-
lidad de encontrar la partícula en cada celda vienen dadas por
N
X
|x̃i ihx̃i | = I, (4.3)
i=1
que nos dice que la suma de los proyectores sobre todas las posiciones debe ser la identidad.
Combinando una base ortonormal y un conjunto de valores reales obtenemos un observable,
de forma que podemos definir el operador posición, X,
N
X
X |x̃i i = xi |x̃i i , X= xi |x̃i ihx̃i |, (4.4)
i=1
que nos permite medir la posición de la partícula con una precisión limitada únicamente
por el valor de ∆x = L/N . Así, tenemos que el valor esperado de la posición en un estado
|Ψi vendrá dado por
N
! N
N
!
X X X
hΨ|X|Ψi = Ψ∗i hx̃i | xj |x̃j ihx̃j | Ψk |x̃k i
i=1 j=1 k=1
N
X N
X
= xj Ψ∗i Ψk hx̃i |x̃j ihx̃j |x̃k i = xi |Ψi |2 . (4.5)
i,j,k=1 i=1
N N L
|Ψi |2
X X Z
hΨ|X|Ψi = lı́m 2
xi |Ψi | = lı́m ∆x xi = dx x |ψ(x)|2 . (4.6)
N →∞ N →∞ ∆x 0
i=1 i=1
|Ψi |2
≡ |ψ(x)|2 , → ψ(x) = Ψi dx−1/2 , (4.7)
∆x
N
X Z L
hΨ|Φi = Ψ∗i Φi → dx ψ ∗ (x)φ(x), (4.8)
i=1 0
N
X Z L
1 = hΨ|Ψi = |Ψi |2 → dx |ψ(x)|2 . (4.9)
i=1 0
Z x1
P ([x0 , x1 ]) = dx |ψ(x)|2 . (4.10)
x0
N
X N
X Z L
|Ψi = Ψi |x̃i i = ∆x ψ(xi ) |xi i → dx ψ(x) |xi , (4.11)
i=1 i=1 0
que es, de hecho, la representación de posiciones del estado |Ψi en el continuo. De la misma
manera podemos considerar la ecuación (4.2) que definía las componentes, Ψi = hx̃i |Ψi, y
postular que
que es, de hecho, correcta. En efecto, el lado izquierdo tiene unidades de [L]−1/2 y el lado
derecho también, debido a que hx| tiene las mismas unidades que |xi. De la misma forma,
la relación de cierre (4.3) se convierte en
Z L
dx |xihx| = I, (4.13)
0
N
X Z L
X= xi |x̃i i hx̃i | , → X= dx x |xihx|. (4.14)
i=1 0
¿Podemos calcular la función de ondas de los estados de posición |xi? Sí, pero resulta
conveniente comenzar con los estados |x̃i i del espacio discreto, con ∆x = L/N . En ese
caso, al ser todas las posiciones distinguibles tenemos que
N
X
|x̃i i = δij |x̃j i , (4.15)
j=1
es decir, la función de ondas del estado |x̃i i viene dada por {δij }Nj=1 . El estado en el
continuo |xi i, correspondiente a la misma posición que el |x̃i i, se puede escribir como
|xi i = |x̃i i ∆x−1/2 , y así llegamos a
N N N
X X X δij
|xi i = ∆x1/2 δij |xj i ∆x−1/2 = δij |xj i = ∆x |xj i , (4.16)
∆x
j=1 j=1 j=1
Z L
|xi i = dx δ(x − xi ) |xi . (4.17)
0
Nótese que δ(x−xi ) no es una función continua. Ingenuamente, toma el valor cero si x 6= xi
y un valor ∆x−1 cuando x = xi , así que se va a infinito en el límite al continuo. Además,
tiene unidades de [L]−1 . De esta forma vemos que
(x − a)2
1
lı́m √ exp − = δ(x − a). (4.20)
σ→0 2πσ σ2
El espacio de Hilbert que estamos describiendo se conoce como L2 ([0, L]), es decir: el
conjunto de funciones de cuadrado integrable en el intervalo [0, L], con el producto escalar
descrito en la ecuación (4.8). Por supuesto, desde aquí es posible construir el espacio de
Hilbert asociado a las funciones de cuadrado integrable sobre la recta real al completo,
L2 (R) o sobre el espacio, L2 (R3 ).
Ejemplo 4.1 Mostrar que la varianza en la posición de una partícula cuántica se calcula
a través de la expresión,
Z L Z L 2
2
σX = hX 2 i − hXi2 = dx x2 |ψ(x)|2 − dx x |ψ(x)|2 . (4.21)
0 0
Z L Z L Z L
2 2 2 2 2
σX = dx (x − hXi) |ψ(x)| = dx x |ψ(x)| − 2hXi dx x |ψ(x)|2 + hXi2 ,
0 0 0
(4.22)
donde la última integral es uno por normalización. Desde esta expresión es inmediato llegar
a la que nos piden.
X
A= Aij |ui ihuj |. (4.23)
i,j
donde Aij = hui |A|uj i son los elementos de matriz de A en la base considerada. Si esta
base está formada por estados de posición discretos, |x̃i i, la formulación es idéntica. Pero
si tratamos con estados posición continuos precisamos hacer adaptaciones significativas,
X X Aij Z
A= Aij |xi ihxj |∆x = |xi ihxj |∆x → 2
A= dx dy A(x, y)|xihy|, (4.24)
∆x R2
i,j i,j
donde hemos definido A(x, y) como el límite al continuo de Aij /∆x, y recibe el nombre de
núcleo integral del operador 3 . Las dos variables de A(x, y) son una versión continua
3
No confundir con el núcleo, Ker(A), que es la solución de la ecuación A |ψi = 0. El núcleo integral de
un operador tiene forma de función de dos variables, pero en general es un objeto de tipo diferente, una
distribución.
de los índices de una matriz, jugando x el papel de salida (fila) e y el de entrada (columna),
y pueden ser evaluadas de manera similar,
Z Z
A |Ψi = dx dy A(x, y)|xihy| dz ψ(z) |zi
2
ZR R
= dx dy dz A(x, y)hy|ziψ(z)|xi
3
ZR
= dx dy dz A(x, y)δ(z − y)ψ(z)|xi
3
ZR Z
= dx dy A(x, y)ψ(y) |xi. (4.26)
R R
donde reconocemos que las componentes del estado A |Ψi en representación de posiciones
vienen dadas por
Z
hx|A|Ψi = dy A(x, y)ψ(y). (4.27)
R
Z Z
I= dx |xihx| = dx dy δ(x − y) |xihy|, (4.28)
R R2
donde la segunda integración parece innecesaria, pero nos permite definir el núcleo integral
del operador: I(x, y) = δ(x−y). La función delta de Dirac es el equivalente continuo a tener
sólo unos en la diagonal: δij → δ(x − y). Veamos cómo representar el operador posición,
X,
Z Z
X= dx x |xihx| = dx dy x δ(x − y) |xihy|, (4.29)
R R2
Z ∞ Z x
hx|A|Ψi = dy θ(x − y) ψ(y) = dy ψ(y), (4.30)
−∞ −∞
Z Z
|Ψi = dx dy ψ(x, y) |x, yi = d2 x ψ(x) |xi , (4.31)
R2 R2
En el caso de que la partícula esté dotada de algún grado de libertad interno, tal como el
espín, polarización, isospín, etc. podemos describir el espacio de Hilbert como un producto
tensorial de los grados de libertad espaciales y los asociados, es decir: H = L2 (R3 ) ⊗ Cd ,
donde d es la dimensión del grado de libertad adicional.
Consideremos, por ejemplo, una partícula en una dimensión con espín 1/2. El espacio
de Hilbert asociado será H = L2 (R) ⊗ C2 . Es decir, la base estará formada a partir de los
estados combinados de posición y espín, |xi ⊗ |+i y |xi ⊗ |−i, que podemos abreviar como
|x, ±i. Podemos tener una imagen mental si imaginamos que la partícula puede situarse
en cualquier punto de un espacio formado por dos líneas paralelas, una correspondiendo a
cada valor de Sz . Si la partícula tiene espín 1, serán tres líneas paralelas, etc. Cualquier
suma sobre la base completa debe recorrer todos los estados, tanto en x como en s ∈ {±}.
Así, por ejemplo, la relación de cierre será
XZ
dx |x, si hx, s| = I. (4.32)
s
A todos los efectos podemos operar con este sistema como un producto tensorial. Así,
por ejemplo, los operadores de espín deben escribirse como Sz = I ⊗ ~2 σz . Y, por supuesto,
podemos definir operadores que combinen grados de libertad espaciales y de espín, como
la helicidad, que se define como λ ≡ S · up , donde up ≡ P/|P| es el vector unitario que
apunta en la dirección del momento. Es decir, la helicidad es la componente del espín a lo
largo de la dirección del momento.
Recordemos también que cuando un espacio de Hilbert se puede expresar como un
producto tensorial, H = H1 ⊗ H2 , entonces todo operador que actúe sólo sobre uno de
las partes conmuta con cualquier otro operador que actúe sobre la otra, es decir, A ⊗ I
conmuta con I ⊗ B aunque A y B no conmuten.
Ejemplo 4.3 Consideremos una partícula con espín 1/2 que se mueve a lo largo del eje
X, con función de ondas dada por
1
|Ψi = √ (|φ1 i ⊗ |Z+ i + |φ2 i ⊗ |Z− i) , (4.33)
2
donde |φi i = R dx φi (x) |xi son estados normalizados de L2 (R). Se pide obtener la entropía
R
de entrelazamiento entre el grado de libertad espacial y el de espín cuando (a) |hφ1 |φ2 i| = 1
y cuando (b) hφ1 |φ2 i = 0.
La expresión (4.33) no es necesariamente una descomposición de Schmidt (ver ecuación
(2.75)), porque los estados |φi i no tienen por qué ser ortogonales. De hecho, si los estados
son coincidentes, |hφ1 |φ2 i| = 1 entonces podemos factorizar y tenemos
1
|Ψi = |φ1 i ⊗ √ (|Z+ i + |Z− i) , (4.34)
2
que es factorizable. Sin embargo, si hφ1 |φ2 i = 0 la expresión (4.33) ya es una descomposición
de Schmidt, desde la que es fácil probar que la matriz densidad reducida para el espín es
ρ = I/2, que nos da una entropía S = log 2. El caso general queda como ejercicio.
Los operadores yaR no pueden ser representados por matrices, sino por núcleos inte-
grales, (Aφ)(x) = dxA(x, y)φ(y), donde A(x, y) = hx|A|yi. El núcleo del operador
posición es X(x, y) = xδ(x − y).
Si la partícula habita un espacio de dimensión superior o si dispone de grados de
libertad internos sólo debemos tomar los productos tensoriales apropiados entre los
espacios de Hilbert correspondientes.
Es fácil convencerse de que la transformación T (a) debe ser unitaria. En efecto, el producto
escalar de dos estados trasladados debe ser igual que cuando los dos estados están sin
trasladar:
hΦ|T (a)† T (a)|Ψi = hΦ|Ψi, (4.36)
para cualquier pareja de estados |Φi y |Ψi, implicando que T (a)† T (a) = I. Es decir,
T (a)† = T (a)−1 .
Pero lo interesante comienza cuando nos damos cuenta de que T (a) debe variar suave-
mente con a, así que nos está permitido emplear un desarrollo de Taylor,
dψ(x) a2 d2 ψ(x)
hx|T (a)|Ψi = ψ(x − a) ≈ ψ(x) − a + − ··· , (4.37)
dx 2 dx2
y al tomar a muy pequeño, δa → 0, quedarnos sólo con el primer orden,
d
hx|T (δa)|Ψi = ψ(x) − δa ψ(x) + O(δa2 ), (4.38)
dx
que nos lleva a deducir que
d
T (δa) = I − δa + O(δa2 ). (4.39)
dx
De la misma forma, nos damos cuenta de que la composición de dos traslaciones da
lugar a una traslación cuyo parámetro corresponde a la suma de los dos, es decir,
lo que, si añadimos que T (0) = I y que T (a)T (−a) = I, nos muestra que las traslaciones
forman un grupo. Por lo tanto, siempre es posible descomponer una traslación de paráme-
tro a como el producto de dos traslaciones de parámetro a/2, es decir, T (a) = (T (a/2))2 ,
o en el producto de tres traslaciones de parámetro a/3, T (a) = (T (a/3))3 . Generalizando,
hagamos a = M δa, con δa → 0 y M → ∞. Así, tenemos
a d M
d
T (a) = lı́m T (a/M ) M
= lı́m I − = exp −a , (4.41)
M →∞ M →∞ M dx dx
ya que este último límite se corresponde con la definición de la función exponencial,
exp(x) = lı́mM →∞ (1 + xM −1 )M . Nótese que el desarrollo en serie de la expresión (4.41)
no es más que el desarrollo de Taylor del operador traslación, ecuación (4.37).
ia
T (a) ≡ exp − Px , (4.42)
~
donde Px es un operador que va a resultar muy relevante el resto de este curso, el operador
momento, que en representación de posiciones se escribe como
d
Px ≡ −i~ . (4.43)
dx
Comprobemos que el operador Px es hermítico, analizando cómo actúa en un producto
escalar. En efecto, para que lo sea debe cumplirse que
d ∞ d ∗
Z Z
∗ ∗
hΨ| Px |Φi = −i~ dx ψ (x) φ(x) = −i~ ψ (x)φ(x) − dx φ(x) ψ (x) .
R dx −∞ R dx
(4.45)
haciendo una integración por partes, y dado que las funciones deben ser de cuadrado
integrable, podemos asumir que el primer término se anula.
d
−i~ θp (x) = p θp (x). (4.53)
dx
Si olvidamos de momento las condiciones de contorno, esa ecuación tiene solución para
todo p ∈ R, y es
ipx
θp (x) = A exp , (4.54)
~
que llamaremos la onda plana de momento p, con A una constante. Por supuesto, la
función de ondas no está normalizada, pero es fácil ver que la norma diverge. Vuelve a
ser importante regularizar, es decir, considerar que nuestro sistema está contenido en un
tamaño finito, [−L, L], y luego haremos tender L → ∞,
Z L
hθp |θp i = |A|2
dx eipx/~ e−ipx/~ = 2|A|2 L, (4.55)
−L
así que la única manera de normalizar sería hacer |A| = (2L)−1/2 , impidiéndonos tomar
el límite L → ∞. Pero debemos retomar la cuestión de las condiciones de contorno. Por
simplicidad, consideraremos que el sistema es periódico, es decir, θp (−L) = θp (L). En ese
caso, tendremos que AeipL/~ = Ae−ipL/~ o, equivalentemente,
~πm
ei2pL/~ = 1, → 2pL/~ = 2πm, m ∈ Z, → p= , m ∈ Z. (4.56)
L
Observamos así que la regularización en posiciones y en momentos no es idéntica. En
posiciones nos vemos obligados a definir un ∆x finito, es decir, hemos realizado un corte
ultravioleta (UV), mientras que en momentos debemos introducir un L finito, es decir,
un corte infrarrojo (IR). Si tenemos tanto ∆x como L finito, podemos definir estados de
posición y de momento normalizables. En caso contrario, esto no es posible.
C Las condiciones de contorno periódicas que hemos impuesto pueden resultar poco
naturales en una primera lectura. En efecto, ¿cómo podemos imponer que la función
de onda tome el mismo valor en L y en −L, estando tan alejadas? Una manera posible
es que, en realidad, nuestra línea forme un anillo, es decir, que estemos considerando
L2 (S 1 ) en lugar de L2 ([−L, L]). Sin embargo, la razón última por la que lo hacemos
es por simplicidad matemática. En muchos casos, las condiciones de contorno no
importan mucho si el sistema es muy grande. Pero debemos advertir de que esto no
es siempre cierto: existen sistemas físicos en los que la naturaleza de la condición
de contorno es relevante, no importa cuán grande sea el sistema. Son los llamados
sistemas topológicos.
1
Z
f˜(k) = (Ff )(k) = √ dx e−ikx f (x), (4.57)
2π R
1
Z
f (x) = (F −1 f˜)(x) = √ dk eikx f˜(k). (4.58)
2π R
Z Z
dx |f (x)| = 2
dk |f˜(k)|2 . (4.59)
R R
1
θp (x) = hx|θp i = √ eipx/~ . (4.60)
2π~
Y así escribimos
1
Z
|θp i = √ dx eipx/~ |xi . (4.61)
2π~ R
Z
I= dp |θp i hθp | . (4.62)
R
1
Z Z Z Z
−ipx/~
|Ψi = dp |θp i hθp | dx ψ(x) |xi = dp |θp i √ dx e ψ(x) , (4.63)
R R R 2π~ R
4
En rigor, [P ] no es una unidad fundamental, así que deberíamos decir que ~ tiene unidades de [M L2 /T ],
y |θp i con unidades de [T /M L]1/2 .
1
Z Z
hx|Ψi = dp ψ(p)hx|θp i = √ dp ψ(p)eipx/~ , (4.65)
R 2π~ R
es decir, realizamos la transformada inversa de Fourier, que nos devuelve el valor ψ(x)
deseado. De esta forma aseguramos toda una serie de relaciones equivalentes que llamamos
representación de momentos de un estado:
Z
|Ψi = dp ψ̃(p) |θp i , → ψ̃(p) = hθp |Ψi, (4.66)
R
y el operador momento en esta representación resulta ser especialmente sencillo:
Z
Px = dp p |θp ihθp |, (4.67)
R
Los estados de momento y los de posición pueden transformarse mutuamente,
1
Z Z
|θp i = dx |xi hx|θp i = √ dx eipx/~ |xi , (4.68)
R 2π~ R
y aplicando la relación de cierre en momentos,
1
Z Z
|xi = dp |θp ihθp |xi = √ dp e−ipx/~ |θp i , (4.69)
R 2π~ R
que expresan los dos cambios de base asociados, de representación de posiciones a momentos
y viceversa.
• • •
En el caso de un sistema cuántico en dos o tres dimensiones, basta con trabajar sobre
el producto tensorial de espacios de una dimensión. Así, escribiremos
Z
|Ψi = d3 p ψ̃(p) |pi , (4.70)
R3
donde |pi = |px , py , pz i = |px i ⊗ |py i ⊗ |pz i, tiene dimensiones de [P ]−3/2 , al igual que
ψ̃(p) = ψ̃(px , py , pz ), para así compensar el d3 p y obtener un estado cuántico final adimen-
sional. De la misma forma
1
Z
ψ̃(p) = d3 x ψ(x) eip·x/~ . (4.71)
(2π~)3/2 R3
Podemos construir los operadores momento en cada uno de los tres ejes como Px = P ⊗I⊗I,
Py = I ⊗ P ⊗ I, etc. Nótese que todo operador referido al eje X conmuta con cualquier
otro operador referido al eje Y : [X, Y ] = [Px , Py ] = 0.
operador hermítico, U (t) = exp(−itH/~), T (a) = exp(−iaPx /~). En ambos casos podemos
encontrar una ecuación diferencial que nos muestra el flujo de un estado bajo la acción del
grupo. En el caso de la evolución temporal es la ecuación de Schrödinger (1.100)
d i
|Ψi = − H |Ψi , (4.73)
dt ~
mientras que en el caso de las traslaciones es equivalente:
d i
|Ψi = − Px |Ψi , (4.74)
da ~
que justifica la aseveración de que el operador momento Px es el generador de las tras-
laciones, al inducir un flujo entre los estados del espacio de Hilbert. Asimismo podemos
considerar el efecto de este flujo sobre los operadores en imagen de Heisenberg. Es decir,
podemos preguntarnos cómo fluyen los operadores ante la acción del grupo de manera
que los valores esperados sean siempre los mismos pese a que los estados no cambien. El
resultado lo podemos comprobar en la ecuación (1.118),
dA i
= [H, A], (4.75)
dt ~
que en el caso del flujo a causa de las traslaciones se convertiría meramente en
dA i
= [Px , A]. (4.76)
da ~
Y lo podemos demostrar de manera genérica a través de este razonamiento. El operador
trasladado vendrá dado por la siguiente expresión,
ya que la acción del operador trasladado sobre cualquier estado se obtiene realizando la
traslación sobre el estado, actuando con el operador y trasladando de vuelta el resultado.
Operando de manera infinitesimal tenemos
iδa iδa iδa
A0 = I+ Px A I − Px ≈ A + (Px A − APx ), (4.78)
~ ~ ~
de donde deducimos que
dA A0 − A i
= lı́m = [Px , A], (4.79)
da δa→0 δa ~
que nos da una nueva perspectiva del concepto de conmutador. Todo operador hermítico
Q nos sirve para definir un grupo uniparamétrico a través de la familia de operadores
unitarios V (p) = exp(−ipQ). El conmutador i[Q, A] nos proporciona el ritmo de cambio
del operador A bajo el flujo generado por Q. Por supuesto, esta afirmación siempre puede
invertirse, y tenemos que i[A, Q] = −i[Q, A] será el ritmo de cambio del operador Q bajo
el flujo generado por el operador A.
La demostración consiste en una mera expansión de los dos lados de la identidad. Así, el
lado izquierdo es ABC − BCA, y el lado derecho es B(AC − CA) + (AB − BA)C, que se
simplifica dando lugar al lado izquierdo.
6
También puede ser antiunitaria, es decir, U c |ψi = c∗ U |ψi.
7
Amalie Emmy Noether es una de las figuras más relevantes y menos conocida de la física y las mate-
máticas del siglo XX. En 1919 presentó su candidatura como Privatdozent en la Universidad de Gotinga,
originando un acalorado debate debido a su sexo, que David Hilbert selló con su famosa frase, Señores,
esto es una universidad, no una casa de baños.
8
Es decir, un resultado en sí mismo poco importante, pero crucial para demostrar algo de relevancia
mayor.
• • •
Z Z
XT (a) |Ψi = X dx ψ(x) |x + ai = dx (x + a)ψ(x) |x + ai (4.80)
R Z R Z Z
T (a)X |Ψi = T (a)X dx ψ(x) |xi = T (a) dx x ψ(x) |xi = dx x ψ(x) |x + ai .
R R R
• • •
σX σPx ≥ ~. (4.83)
Nótese que, por ser distintos subsistemas de un espacio de Hilbert que es un producto
tensorial, [X, Py ] = 0, y lo mismo aplica a cualquier otro par de componentes diferentes.
Hay una paradoja aparente que no deseamos dejar pasar. En un espacio de Hilbert
de dimensión finita, la traza de un conmutador debe ser siempre cero. La demostración
es secilla, ya que en dimensión finita es inmediato ver que Tr(AB) = Tr(BA). ¿Cómo
compatibilizar eso con la relación (4.82)? Evidentemente, porque sólo puede tener lugar
en espacios de Hilbert de dimensión infinita. Aún así, es un ejercicio muy interesante
considerar qué sucede en un caso discreto, que dejamos como ejercicio.
Pero, por otro lado, T (na0 ) actúa sobre la función de ondas desplazándola. Si ψ(x) = hx|Ψi,
y eso se satisface cuando ψ(x) = u(x)eikx , donde u(x) es una función de periodo a0 , y
k ∈ R. Es decir, los autoestados de un potencial periódico en 1D son siempre una onda
plana, eikx , modulada por una función de periodo a0 , y este resultado se conoce como
teorema de Bloch, que es central en física de la materia condensada.
Aparte de este ejemplo sencillo, las simetrías discretas más importantes son la simetría
bajo inversión espacial o paridad (cambio de x por −x), la simetría bajo inversión
temporal (cambio de t por −t), de la que debemos destacar que no es unitaria, sino
antiunitaria, y la simetría bajo conjugación de carga (cambio de q por −q). Se suelen
abreviar como simetrías P, T y C.
Resumen 4.3. En analogía con la evolución temporal, definimos el flujo asociado a todo
operador hermítico A como la evolución bajo la ecuación diferencial i~∂a |Ψi = A |Ψi,
que se puede implementar mediante el operador unitario U (a) = exp(−iaA/~). La
evolución de cualquier operador B bajo el flujo de A vendrá dada por −i~∂a B = [A, B].
Por lo tanto, si [A, B] = 0, B será invariante bajo el flujo de A y A será invariante bajo
el flujo de B. Cuando A es el Hamiltoniano obtenemos la identidad entre simetrías y
cantidades conservadas que afirma el teorema de Noether.
El operador posición y el operador momento cumplen la relación de conmutación
canónica, [X, Px ] = i~I, que conduce a σX σPx ≥ ~. Al mismo tiempo, X evoluciona
como ∂a X = −I bajo el flujo generado por Px , que es la traslación, y Px evoluciona
como ∂a Px = I bajo el flujo generado por X, que son las transformaciones de Galilei.
Z
|Ψi = d3 x ψ(x) |xi , (4.86)
donde x = (x, y, z). Consideremos el grupo de Lie formado por las rotaciones en torno a
cualquier eje, de cualquier ángulo. Este grupo se denomina O(3), debido a que las trans-
formaciones son ortogonales de dimensión 3. Para ser más precisos, comencemos con la
transformación Rz (θ) que realiza una rotación de ángulo θ en torno al eje Z. 9 Tenemos la
ecuación
x0 = cos(θ) x − sin(θ) y,
y 0 = sin(θ) x + cos(θ) y,
z 0 = z, (4.87)
que cuando dθ es pequeño se convierte en
x0 = x − dθ y,
y 0 = y + dθ x,
z 0 = z, (4.88)
Es decir, x0 = x + dθ Gz x, donde
0 −1 0
Gz = 1 0 0 . (4.89)
0 0 0
0 0 0 0 0 1
Gx = 0 0 −1 , Gy = 0 0 0 , (4.90)
0 1 0 −1 0 0
y el generador en torno a un eje arbitrario se obtiene como
Gn = n x Gx + n y G y + n z Gz . (4.91)
y comprobamos que G2 = G2x + G2y + G2z = −2I. 10
X
[Gi , Gj ] = εijk Gk ,
k
[Gi , G2 ] = 0, (4.92)
9
En rigor, las rotaciones siempre tienen lugar en un plano. La descripción en base a un eje es una
licencia poética que podemos permitirnos únicamente en 3D.
10
Puede parecer extraño que la suma de unos operadores al cuadrado den como resultado un operador
definido negativo, pero ahí está la magia del álgebra lineal.
El ejemplo más sencillo sería [Gx , Gy ] = Gz . En términos geométricos esto significa que
una rotación infinitesimal en Y seguida de otra rotación infinitesimal en X difieren de las
rotaciones realizadas en sentido inverso en una rotación realizada en Z.
¿Cómo podemos entender estas relaciones de conmutación? Tomemos un operador vec-
torial cualquiera, (Ax , Ay , Az ), y consideremos cómo se transforma bajo la acción de una
rotación en torno al eje Z. Como es lógico, la componente Az no debe variar, es decir,
dAz /dθ = 0, así que [Gz , Az ] = 0. Por otro lado, la componente Ax irá transformándose
poco a poco en la componente Ay , así que dAx /dθ = Ay , y tenemos que [Gz , Ax ] = Ay ,
y la componente Ay se irá transformando en −Ax , así que [Gz , Ay ] = −Ax . Pues bien,
el propio momento angular es un vector, así que sus relaciones de conmutación consigo
mismo deben ser del mismo tipo, y llegamos a la ecuación anterior.
Z Z Z
Rn (θ) |Ψi = d3 x ψ(x) Rn (θ) |xi = d3 x ψ(x) |Rn (θ)xi = d3 x ψ(Rn (−θ)x) |xi ,
(4.95)
haciendo un cambio de variable de jacobiano unidad, y dándonos cuenta de nuevo que la
transformación de la función de ondas es opuesta a la transformación de los puntos del
espacio. Ahora consideremos que el ángulo de rotación es dθ → 0 y desarrollemos la función
de ondas en serie de Taylor para obtener el generador,
Z Z
Rn (dθ) |Ψi = 3
d x ψ (x − dθ Gn x) |xi = d3 x [ψ(x) − dθ (Gn x) · ∇ψ(x)] |xi , (4.96)
es decir,
Ln = i~ (Gn x) · ∇, (4.98)
11
Pronunciado “Levi-Chivita”.
que es lo que llamaremos la componente del momento angular a lo largo del eje n. En
el caso más sencillo, Lz , obtenemos
Lx = Py Z − Pz Y,
Ly = Pz X − Px Z,
Lz = Px Y − Py X,
L2 = L2x + L2y + L2z . (4.101)
El conmutador entre dos componentes cualesquiera es tedioso de calcular, pero directo.
Haciendo uso del convenio de suma,
[Li , Lj ] = i~ εijk Lk ,
[Li , L2 ] = 0, (4.102)
Es decir, las componentes del momento angular y su módulo cumplen las mismas rela-
ciones de conmutación que los generadores de O(3), dadas en (4.92), salvo una constante
multiplicativa irrelevante. Recordemos la idea clave de la sección anterior: el conmutador
[A, B] nos informa del ritmo de cambio de B cuando sigue el flujo generado por A. Por
lo tanto, la relación de conmutación (4.102) nos indica que Ly se va convirtiendo en Lz a
medida que rotamos en torno al eje X.
donde fijk se denominan constantes de estructura. Para el grupo O(3) las constantes de
estructura vienen dadas por fijk = εijk .
Se llama un invariante de Casimir a un operador que conmuta con todos los elemen-
tos del álgebra, sin ser la identidad. En el caso de O(3), L2 es un invariante de Casimir.
Físicamente, es razonable que así sea, puesto que el módulo del momento angular no varía
cuando realizamos una rotación.
Como L2 conmuta con todas las componentes de Li , siempre es posible encontrar una
base de autoestados comunes a ambos operadores. Evidentemente, es imposible encontrar
una base de autoestados simultáneos de Lx y Ly , pero sí de L2 y Lz (por ejemplo), que
son los que suelen emplearse.
C ¿Cómo puede ser que representemos de manera fiel la acción del grupo de rotaciones
en tres dimensiones sobre vectores de 2 componentes? Para empezar, porque se trata
de vectores complejos. Pero la razón fundamental es que el grupo O(3) comparte
álgebra de Lie con el grupo SU(2), que es el grupo de las matrices unitarias sobre
C2 de determinante unidad. En efecto, SU(2) y O(3) son localmente equivalentes,
pero no globalmente. Aunque no lo demostraremos aquí con detalle, en SU(2) una
rotación de 2π en torno a cualquier eje no es equivalente a la identidad, sino a un
cambio de fase de −1. Sólo una rotación de 4π es equivalente a la identidad. Se dice
que SU(2) es un recubridor universal de O(3).
El álgebra de Lie asociada a SU(2) tiene una representación para cada dimensión en-
tera, es decir, podemos encontrar matrices de dimensión D arbitraria que cumplen las
relaciones (4.102). En efecto, para espín s tenemos matrices de dimensión 2s + 1, y dado
que el espín puede tomar cualquier valor entero o semientero, sus matrices nos sirven como
representación de SU(2).
Resumen 4.4. Un grupo de Lie es un grupo en el que los elementos conforman una
variedad diferenciable. Un álgebra de Lie es su espacio vectorial tangente en torno al
origen, y su estructura está inscrita en sus relaciones de conmutación. El grupo de
rotaciones O(3) tiene tres generadores que no conmutan, [Gi , Gj ] = iεijk Gk . En MQ,
el generador de las rotaciones es el momento angular, Li = εijk (Xj Pk − Xk Pj ), que
cumple que [Li , Lj ] = i~εijk Lk . El álgebra de Lie de O(3), equivalente al de SU(2),
tiene representaciones de todas las dimensiones enteras.
∂
i~ |ψ(t)i = H(t) |ψ(t)i , (4.106)
∂t
donde hemos incluido la posibilidad de que el operador Hamiltoniano dependa explícita-
mente del tiempo, H(t), es decir, que el sistema no sea autónomo. El Hamiltoniano más
simple que podemos considerar en términos físicos será el correspondiente a una partícula
no relativista que se mueve en el espacio sujeta a una fuerza conservativa que procede de
un potencial F(x) = −∇V (x),
P2
H= + V (X), (4.107)
2m
donde P 2 = Px2 + Py2 + Pz2 y V (X) es una función de los operadores posición, X, Y y Z.
Así, tenemos
P2
∂
i~ |ψ(t)i = + V (X) |ψ(t)i , (4.108)
∂t 2m
Ahora definamos las componentes del ket |ψ(t)i en representación de posiciones, ψ(x, t) =
hx|ψ(t)i. De esta manera obtenemos
~2 ∇2
∂
i~ ψ(x, t) = − + V (x) ψ(x, t), (4.109)
∂t 2m
que es la forma más conocida de la ecuación de Schrödinger. Notemos que los autoestados
comunes de los operadores Pi son la ondas planas, ψ(x, t) = exp(p · x/~), mientras que los
autoestados del operador V (X) son de la forma ψ(x, t) = δ(x − x0 ). Por supuesto, ambos
conjuntos de autoestados son no normalizables, como discutimos en la primera sección de
este capítulo. No es posible elegir una base de autoestados comunes a la energía cinética y a
la energía potencial, porque ambos operadores no conmutan. De hecho, podemos aprender
mucho a partir del conmutador entre ellos.
dhAi i
= h[A, H]i. (4.110)
dt ~
Recordemos cómo interpretar esta ecuación: el conmutador de un observable A con B nos
da la ratio de cambio del operador A a lo largo del flujo generado por B. Por supuesto,
el flujo generado por H es, meramente, la evolución temporal. Ahora, apliquémosla al
operador posición X y al operador momento P,
dhXi i dhPi i
= h[X, H]i, = h[P, H]i, (4.111)
dt ~ dt ~
y calculemos los conmutadores pedidos. Hagamos uso del lema que probamos anteriormen-
te, que dictaba que si [A, B] = C y [B, C] = 0, entonces [A, g(B)] = Cg 0 (B), para cualquier
función analítica g(z). Este lema nos permite calcular cualquier conmutador entre X y una
función de P (o viceversa) porque el conmutador entre ambos [X, P ] = i~ es proporcional a
la identidad y, por lo tanto, conmuta con todos los operadores. Por supuesto, [X, V (X)] = 0
y [Px , P 2 /2m] = 0, es decir: la evolución de X viene dada por el término cinético y la de
Px por el término potencial. En efecto,
P2
1 Px Px
[X, H] = X, + V (X) = [X, Px2 ] = [X, Px ] = i~ . (4.112)
2m 2m m m
Es decir: la evolución del operador X bajo el flujo hamiltoniano es meramente avanzar en
la dirección de la velocidad. Bueno, tiene lógica. Veamos qué ocurre con el momento,
P2
[Px , H] = Px , + V (X) = [Px , V (X)] = [Px , X] ∇V (X) = −i~ ∇V (X), (4.113)
2m
Y de nuevo el resultado es fácil de comprender: la evolución del operador Px bajo el
flujo hamiltoniano consiste en avanzar en la dirección de la fuerza. Esto nos lleva a las
ecuaciones de Ehrenfest para una partícula cuántica,
hPi
hẊi = , hṖi = h−∇V (X)i. (4.114)
m
Estas ecuaciones son engañosamente simples. En efecto, se podría pensar que consisten
meramente en añadir unos valores esperados a las ecuaciones de Hamilton,
p
ẋ = , ṗ = −∇V (x). (4.115)
m
¿Podemos afirmar entonces que los valores esperados de X y de P siguen las ecuaciones
clásicas del movimiento? No. El problema está en la segunda ecuación, porque en general
−h∇V (X)i =
6 −∇V (hXi), (4.116)
es decir: el valor esperado de la fuerza no tiene por qué coincidir con la fuerza en el valor
esperado de la posición. En general, el valor esperado de una función de una variable
aleatoria no coincide con la función evaluada en el valor esperado de la variable aleatoria.
Si así fuera, las variables aleatorias no tendrían varianza, porque σX
2 = hX 2 i − hXi2 sería
siempre cero. En general, si una función es cóncava (desde arriba) tenemos siempre que
hf (X)i ≥ f (hXi), lo cual se conoce como desigualdad de Jensen, que se demuestra en
teoría (clásica) de probabilidades y se extiende al mundo cuántico. Si la función es convexa,
la desigualdad cambia de signo.
C Una manera intuitiva de verlo es imaginar la variable aleatoria como una nube de
puntos simétrica alrededor de su centro, que es su valor esperado. Ahora evaluamos
una función en todos los puntos de la nube, y calculamos su valor esperado. Si
la función es lineal (p.ej. creciente) los valores a la derecha darán un exceso, los
valores a la izquierda un defecto, y ambos se compensarán, dando al final como valor
esperado el valor de la función en el centro. Si la función es curva (p.ej. estamos en un
1
Fi (X) ≈ Fic + (∂j Fic )(Xj − hXj i) + (∂jk Fic )(Xj − hXj i)(Xk − hXk i), (4.117)
2
donde hemos usado el convenio de índices repetidos. Ahora podemos tomar promedios, y
sabiendo que hXj − hXj ii = 0 tenemos
1
hFi (X)i ≈ Fic + (∂jk Fic ) (hXj Xk i − hXj ihXk i) , (4.118)
2
es decir: la fuerza recibe una contribución extra que podemos estimar en algunos casos. En
una dimensión tendríamos,
1
hF i ≈ F c + (∂x2 F c ) σX
2
. (4.119)
2
es decir, la corrección cuántica de la fuerza crece con la varianza de la posición, y depende
de la segunda derivada de la fuerza, que es siempre cero en el caso de un oscilador armónico.
Ejemplo 4.5 Calcular la corrección cuántica a la fuerza radial que siente un electrón
en la vecindad de un núcleo de carga Ze, suponiendo que la distancia esté sometida a
fluctuaciones cuánticas de magnitud σR . ¿La fuerza resultante será mayor o menor que la
fuerza clásica?
La componente radial de la fuerza de Coulomb será F = −Ze2 /r2 , de manera que ∂r2 F =
−6Ze2 r−4 , de forma que la corrección cuántica a la fuerza será, aproximadamente, ∆F ≈
−3Ze2 r−4 σR2 . Es decir, será levemente más atractiva. La razón es que la partícula, al estar
para alguna corriente j(x, t) que deberíamos encontrar. Sea i~∂t ψ = Hψ la ecuación de
Schrödinger. Tomando complejos conjugados a ambos lados llegamos a −i~∂t ψ ∗ = Hψ ∗ , y
el operador H no cambia ya que H = H † es autoadjunto. De esta manera podemos evaluar
la evolución de ρ = ψ ∗ ψ,
i
∂t ρ = (∂t ψ ∗ )ψ + ψ ∗ (∂t ψ) = ((Hψ ∗ )ψ − ψ ∗ (Hψ)) . (4.121)
~
Y en el caso de que el Hamiltoniano sea H = −(~2 ∇2 /2m) + V podemos comprobar que
nos queda
i~
ψ ∗ (∇2 ψ) − (∇2 ψ ∗ )ψ , (4.122)
∂t ρ =
2m
es decir, existe una corriente que cumple la ecuación (4.120),
i~ 1
j(x, t) = − (ψ ∗ (x, t)(∇ψ(x, t)) − (∇ψ ∗ (x, t))ψ(x, t)) = (ψ ∗ Pψ − ψPψ ∗ ) . (4.123)
2m 2m
C ¿Qué interpretación física podemos dar a esta densidad ρ(x, t) y a esta corriente
j(x, t)? En rigor no podemos hablar de una densidad de materia o de carga, ni de
una corriente de materia o de carga, porque sólo son densidades y corrientes de pro-
babilidad. Sin embargo, la experiencia muestra que podemos hacer una descripción
física semiclásica correcta de una partícula con carga q asumiendo que qρ(x, t) funcio-
na como una densidad de carga y qj(x, t) como una corriente eléctrica. Pero debemos
recordar que el estudio riguroso de la interacción entre dos cargas eléctricas asociadas
a partículas cuánticas debe realizarse en el marco de la electrodinámica cuántica.
Ejemplo 4.6 Consideremos una partícula cuántica de masa m que puede moverse li-
i~ i~ λ~
j(x) = − (ψ ∗ (x)∂x ψλ (x) − ψλ (x)∂x ψλ∗ (x)) = − (iλ + iλ) = . (4.124)
2m λ 2m m
que es fácilmente interpretable si nos damos cuenta de que el estado |ψλ i es autoestado
del operador P con autovalor λ~. La corriente corresponde a la velocidad de la partícula.
La ecuación (4.120) se cumple de manera trivial.
Ejemplo 4.7 Demostrar que la corriente de probabilidad para una partícula de masa m
en un estado gaussiano,
1
ψ(x) = exp(−(x/2σ)2 ), (4.125)
(2πσ)1/4
es nula. ¿Cómo podríamos modificar el estado para que tuviera una corriente no nula?
El estado propuesto es real, ψ ∗ (x) = ψ(x). La expresión (4.123) es trivialmente nula en
este caso. Para que no lo sea deberíamos añadir un término complejo, por ejemplo
1
ψ(x) = exp(−(x/2σ)2 + ikx), (4.126)
(2πσ)1/4
y en ese caso comprobamos que la corriente es meramente j(x) = m ρ(x).
~k
4.5.3 Propagadores
¿Podemos escribir el operador evolución asociado a una partícula que se mueve en el
continuo? Sí, pero de nuevo debemos hacerlo con cuidado. Sea la evolución dada por
H(t2 − t1 )
|ψ(t2 )i = exp −i |ψ(t1 )i , (4.127)
~
y definamos el propagador o función de Green como
H(t2 − t1 )
G(x2 , t2 ; x1 , t1 ) = hx2 | exp −i |x1 i, (4.128)
~
es decir, es la amplitud de probabilidad de encontrar en x2 para tiempo t2 a una partícula
que estaba localizada en x1 para tiempo t1 . El propagador funciona como un kernel, es
decir,
Z
ψ(x2 , t2 ) = dx1 G(x2 , t2 ; x2 , t1 ) ψ(x1 , t1 ), (4.129)
que nos proporciona una imagen de la propagación tipo principio de Huygens: cada punto de
la función de ondas original emite una onda secundaria, que viaja a través del propagador,
y para obtener la función de onda evolucionada meramente debemos sumar todas.
Supongamos que el espectro del Hamiltoniano sea discreto, es decir, autovalores {Ek } y
autoestados |Ek i. Entonces podemos introducir la descomposición espectral de la identidad,
k |Ek ihEk | y tenemos
P
X X
G(x2 , t2 ; x1 , t1 ) = hx2 |Ek ihEk |e−iH(t2 −t1 )/~ |El ihEl |x1 i = hx2 |Ek ieiEk (t2 −t1 )/~ hEk |x1 i,
k,l k
(4.130)
y si las funciones de onda correspondientes son hx|Ek i = φk (x), entonces
X
G(x2 , t2 ; x1 , t1 ) = φ∗k (x1 )φk (x2 )eiEk (t2 −t1 )/~ . (4.131)
k
Es común definir el propagador retardado como aquél que sólo permite que t2 ≥ t1 ,
∂ X
i~ − H2 G+ (x2 , t2 ; x1 , t1 ) = i~δ(t2 −t1 ) φ∗k (x1 )φk (x2 ) = i~δ(t2 −t1 )δ(x2 −x1 ).
∂t2
k
(4.133)
donde H2 es el Hamiltoniano aplicado meramente sobre x2 . Notamos, de paso, que el
propagador normal daría simplemente cero.
1
Z
(0) 2 (t −t )/2m~
G+ (x2 , t2 ; x1 , t1 ) = θ(t2 − t1 ) dp eip(x2 −x1 )/~ e−ip 2 1
. (4.134)
(2π~)
La integración se puede realizar de manera exacta, al ser de forma gaussiana. Nos interesa
sólo el resultado final, que es
1/2
m(x2 − x1 )2
(0) m
G+ (x2 , t2 ; x1 , t1 ) = θ(t2 − t1 ) exp i . (4.135)
2πi~(t2 − t1 ) 2~(t2 − t1 )
Notamos de inmediato que presenta una similaridad enorme con la solución de la ecuación
del calor, pero con tiempo imaginario. En efecto, la ecuación de Schrödinger que estudiamos
se puede considerar como una rotación de Wick de la ecuación del calor, en la que hacemos
el cambio t → it. Esta rotación, por supuesto, debe hacerse siempre con mucha precaución.
Ejemplo 4.8 Supongamos una partícula en 1D, inicialmente localizada en el punto x1 = 0.
Resumen 4.5. El Hamiltoniano para una partícula cuántica no relativista y sin espín
~2
viene dada por H = − 2m ∇2 + V (x), donde V (x) es la energía potencial en cada punto.
Los valores esperados de posición y momento cumplen las ecuaciones de Ehrenfest,
hẊi = hP i/m, hṖ i = −h∂x V i, que no coincide con −∂x V (hXi) salvo en el caso de
que el potencial sea cuadrático. En caso contrario hay un exceso de fuerza cuántico que
4.A Problemas
4.1.- Si un operador A sobre L2 (R) tiene núcleo integral A(x, y), probar que el núcleo
integral de A2 es A2 (x, y) = dz A(x, z)A(z, y).
R
4.2.- Encontrar el producto del operador A sobre L2 (R) cuyo núcleo es A(x, y) =
θ(x − y) y el operador B, cuyo núcleo es B(x, y) = −δ 0 (x − y).
4.3.- Dada una función de onda sobre L2 (R)⊗C2 de tipo |Ψi = 2−1/2 (|φ1 , +i + |φ2 , −i),
encontrar el entrelazamiento entre el grado de libertad espacial y el espinorial, sabiendo
que hφ1 |φ2 i = δ.
4.5.- Bases mutuamente no-sesgadas (mutually unbiased bases, MUB). Las bases de
posición y de momentos cumplen una propiedad interesante: dado un elemento de una de
ellas, es igualmente fácil confundirlo con cualquier elemento de la otra. Es decir, |ai i y |bi i
forman una pareja de MUB si hai |bj i = δ, independiente de i y de j. Encontrar una pareja
de MUB en dimensión 2 y, si es posible, en dimensión 3.
4.8.- Considerar una partícula libre sin espín en una dimensión. Obtener la ley de
evolución de la varianza de su posición, σX
2 . Para ello, obtener la evolución de hX 2 i y de
hXi a partir de la ecuación de Ehrenfest. Demostrar que, bajo condiciones muy generales,
la varianza siempre crece linealmente.
~2 00
− ψ (x) + V (x)ψ(x) = Eψ(x), (5.1)
2m
que es especialmente manejable en el caso de que V (x) sea constante por tramos. En ese
caso, en cada tramo en el que V (x) = V0 tendremos que
2m
ψ 00 (x) = (V0 − E)ψ(x), (5.2)
~2
cuya solución local es fácil de obtener,
p
2m(E − V0 )
ψ(x) = A exp(ikx) + B exp(−ikx), donde k = , (5.3)
~
es decir, si E > V0 las soluciones son oscilatorias, pero si E < V0 entonces las soluciones
serán una combinación de exponenciales reales, una creciente y otra decreciente. Por su-
puesto, no hemos determinado los valores de A y B, porque deben ser encontrados mediante
requisitos globales: a partir de las condiciones en los bordes de la región.
Nótese que, por tratarse de una ecuación de segundo orden, un salto finito en el poten-
cial se manifiesta en un salto finito en la segunda derivada de la función de ondas. Por lo
tanto, podemos imponer una condición de continuidad tanto en el valor de la función de
ondas como en su primera derivada.
En términos intuitivos, sabemos que el n-ésimo estado excitado será una función con n
nodos. La razón física es que la energía cinética crece con la variación (segunda derivada)
(
0 si |x| < a/2,
V (x) = (5.4)
V0 en caso contario.
la función de onda del segundo estado estacionario debe ser impar, necesariamente tendrá
la forma
si x ≤ −a/2,
−β exp(qx)
φ(x) = C sin(kx) si x ∈ [−a/2, +a/2] , (5.5)
+β exp(−qx) si x ≥ a/2.
con q = 2m(V0 − E)/~2 = mV0 /~2 , k = 2mE2 /~2 = mV0 /~2 . Así obtenemos que
p p p p
qa 3π 3π
cos(qa/2) = − sin(qa/2) → = → q= , (5.7)
2 4 2a
donde hemos tomado la primera solución de la ecuación trigonométrica ya que estamos en
el primer nivel con función de onda impar. Por tanto, la función de onda queda
√ 3π/4
−a
2e 3πx
− exp + si x ≤ ,
2 2a 2
−a +a
3πx
φ(x) = C × sin si x ∈ , , (5.8)
√ 2a 2 2
2e3π/4
3πx +a
+ exp − si x ≥ ,
2 2a 2
La probabilidad pedida vendrá dada por
R +a/2 2 R a/2
a −a/2 |φ(x)| dx |φ(x)|2 dx I1
P |x| < = R +∞ = R a/2 0
R∞ ≡ , (5.9)
2 2
|φ(x)| dx 2
|φ(x)| dx + 2
|φ(x)| dx I1 + I2
−∞ 0 a/2
a/2 a/2
3πx 3π + 2
Z Z
I1 = 2
|φ(x)| dx = |C| 2
sin 2
dx = a|C|2 , (5.10)
0 0 2a 12π
Z ∞
e3π/2 |C|2 ∞
3πx 2
Z
I2 = 2
|φ(x)| dx = exp − dx = a|C|2 , (5.11)
a/2 2 a/2 a 12π
por lo que
a I1 3π + 2 3π + 2
P |x| < = = = ≈ 0.851. (5.12)
2 I1 + I2 3π + 2 + 2 3π + 4
a+η
−~2
Z
lı́m ψ 0 (a + η) − ψ 0 (a − η) = lı́m (5.13)
ψ(x)V (x)dx = Kψ(a).
2m η→0+ η→0+ a−η
así que en nuestro caso tendremos que el salto en la primera derivada será ∆ψ 0 (a) =
−(2mK/~2 )ψ(a).
Ejemplo 5.2 Una partícula de masa m en una dimensión está sometida al potencial
atractivo tipo delta V (x) = −γδ(x), con γ > 0. Halle las autoenergías y las autofunciones
de los estados ligados.
Sea E < 0 la energía de un estado estacionario ligado (si E > 0 el autoestado será no
ligados). Puesto que el potencial es nulo si x 6= 0, la función de onda del estado estacionario
la podemos escribir como
con k = (5.14)
p
φ(x) = C exp(−k|x|), −2mE/~,
∞ ∞
C2
Z Z
1=C 2
exp(−2k|x|)dx = 2C 2
exp(−2kx)dx = . (5.15)
−∞ 0 k
Por tanto,
√
φ(x) = k exp(−k|x|). (5.16)
Para calcular los valores permitidos de k (y, por ende, de la energía E) tenemos que ir a
la propia ecuación de Schrödinger. Derivando φ(x) una primera vez,
~2 00
− φ (x) + V (x)φ(x) = Eφ(x),
2m
~2 5/2 −k|x| ~2 3/2
− k e + k δ(x) − γδ(x)k 1/2 e−k|x| = Ek 1/2 e−k|x| ,
2m m
~2 k 2 ~2 k
−k|x|
E+ e − − γ δ(x) = 0. (5.19)
2m m
Ambos
p paréntesis deben anularse. La anulación del primero implica la relación ya conocida
k = −2mE/~2 ; la del segundo proporciona la relación que estamos buscando,
~2 k
− γ = 0. (5.20)
m
Por tanto llegamos a que existe un único estado ligado, con energía
γ2m
E=− . (5.21)
2~2
jR · (−n) jR · n
R= , T = , (5.22)
jI · n jI · n
donde jI , jR y jT son las corrientes de probabilidad asociadas a cada una de las tres ondas,
que nos dan
|AR |2 |AT |2 kT
R= , T = . (5.23)
|AI |2 |AI |2 kI
~2 00 k
− ψ (x) + x2 ψ(x) = Eψ(x), (5.24)
2m 2
que puede resolverse por métodos analíticos. Sin embargo, es mucho más interesante realizar
un enfoque algebraico inventado por Paul Dirac. En efecto, el Hamiltoniano se puede
escribir como
1 2 k 2
H= P + X , (5.25)
2m 2
y sólo necesitamos saber que [X, P ] = i~. Definimos unos operadores escalera (en breve se
comprenderá el origen del nombre),
r
mω i
a= X+ P ,
2~ mω
r
† mω i
a = X− P . (5.26)
2~ mω
mω i i i
[a, a† ] = X+ P, X − P = ([X, −P ] + [P, X]) = 1. (5.27)
2~ mω mω 2~
Asumamos que N |ni = n |ni, para algún n ∈ R. Ahora consideremos el estado a |ni y
comprobemos que también es autoestado de N :
N a |ni = (N a−aN +aN ) |ni = [N, a] |ni+aN |ni = −a |ni+na |ni = (n−1)a |ni , (5.29)
y así probamos que a |ni es también autoestado de N , con autovalor (n − 1). De la misma
manera podemos probar que a† |ni es autoestado de N , con autovalor (n+1). Por eso se les
llama operadores escalera. Más aún: el operador a se conoce como el aniquilador, también
llamado operador destrucción, y a† se conoce como el creador, también conocido como
operador creación.
Pero aún no sabemos qué valores de n son autovalores válidos del operador N . En
términos físicos es razonable pensar que exista una cota inferior, debido a su relación con
el Hamiltoniano. En efecto,
y así probamos que el espectro de N no puede tomar valores negativos. Más aún, si n es
autovalor entonces también lo es n−1, así que la única manera de no entrar en contradicción
es aceptar que n ∈ N. De esta manera tendremos que al aplicar el aniquilador sobre el |0i
no obtenemos otro autovector diferente, simplemente obtenemos 0.
Regresando a nuestro Hamitoniano, H = ~ω(N + 1/2), de manera que deducimos que
el espectro de H está formado por valores equiespaciados una distancia ~ω, comenzando
por ~ω/2, que se conoce como energía del punto cero.
C Nótese que hemos deducido todo el espectro del Hamiltoniano usando meramente las
relaciones de conmutación de los operadores creación, aniquilación y número. Estos
mismos operadores aparecerán de nuevo cuando consideremos las teorías cuánticas
de campos, y allí |ni será un estado en el que hay n partículas (fotones, electrones,
o lo que consideremos), tal que a |ni es el estado con una partícula menos y a† |ni el
estado con una más.
La obtención de los autoestados del Hamiltoniano del oscilador armónico es una tarea
complicada, pero es importante conocer cómo obtener el estado fundamental, |0i, que puede
obtenerse imponiendo la ecuación a |0i = 0, que se convierte en
i ~
0= X+ P φ0 (x) = x − ∂x φ0 (x), (5.31)
mω mω
que tiene la forma xφ0 (x) = (~/(mω))φ00 (x). Al ser una ecuación de primer orden puede
resolverse de manera cerrada,
φ00 (x)
φ(x)
Z Z
~x ~x
dx = dx, → log = . (5.32)
φ0 (x) mω φ(0) 2mω
mω 1/4 mω
φ0 (x) = exp − x2 . (5.33)
π~ 2~
Los estados subsiguientes pueden obtenerse, en orden, aplicando a† repetidas veces, tenien-
do en cuenta que a† |ni = (n + 1) |n + 1i.
Ejemplo 5.3 Hallar las funciones propias y valores propios de la energía para un oscilador
armónico truncado cuyo potencial es
(
1
2k x
2 if x > 0,
V (x) = (5.34)
∞ if x < 0.
La función de onda en la región x < 0 es idénticamente nula. Por otro lado, en la región x >
0 la función de onda de energía E ha de verificar la ecuación de Schrödinger independiente
del tiempo de un oscilador armónico de frecuencia ω. Por continuidad en x = 0 sólo son
admisibles las soluciones con n impar. En definitiva, los niveles de energía son
1 3
En = 2n + 1 + ~ω = 2n + ~ω, con n ∈ N, (5.35)
2 2
(esto es, los niveles energéticos impares del oscilador armónico completo) y las autofuncio-
nes correspondientes
(
0 x<0
φn (x) = q
2 con n = 0, 1, 2, . . . (5.36)
α ψ2n+1 (x/α) x > 0,
√
donde ψn (x) es la n-ésima función del oscilador armónico, α2 = ~/(mω), y el prefactor 2
se incluye a efectos de normalización. Por tanto, la función de onda normalizada del estado
fundamental será
s
x2
4 x
φ0 (x) = √ exp − 2 , (5.37)
πα α 2α
∞ Z ∞
4 x 2 −x2 /α2 2
Z
2
hxi = x|φ0 (x)| dx = √ x e dx = √ α,
πα 0 α π
Z0 ∞ Z ∞
4 x 2 2 2 3
hx2 i = x2 |φ0 (x)|2 dx = √ x2 e−x /α dx = α2 , (5.38)
0 πα 0 α 2
por lo que
r r r
3 4 3π − 8 ~
(5.39)
p
∆x = hx2 i − hxi2 = α − = .
2 π 2π mω
Por otro lado, como el estado es estacionario y ligado, hpx i = 0. Entonces:
s
p p 3~ω 1
∆px = hp2x i = 2m (E0 − hV (x)i) = 2m − mω 2 hx2 i
2 2
s
3√
r
3 3
= 2~ωm − = ~mω. (5.40)
2 4 2
Obsérvese que
r r
3π − 8 3
∆x∆px = ~ ' 0.583~, (5.41)
2π 2
por lo que no llega a saturarse la desigualdad de Heisbenberg.
Resumen 5.1. La función de onda debe anularse en los puntos en los que la barrera
de potencial es infinita. Si la barrera es finita, la función de onda debe ser continua y
derivable. Si es una función delta, sólo debe ser continua.
Oscilador armónico, partícula sin espín de masa m y potencial V (x) = kx2 /2, de
frecuencia natural ω = k/m. Los autoestados |ni tienen energía En = (n + 1/2)~ω.
p
El Hamiltoniano se resuelve
p expresándolo en términos de los p operadores creación, ani-
quilación y número, a = mω/(2~)(X + iP/(mω), a† = mω/(2~)(X − iP/(mω) y
N = a† a, ya que H = hω(n + 1/2). Nótese que [a, a† ] = 1, [N, a] = −a y [N, a† ] = a† .
mẍ = q (E + v × B) . (5.42)
Esta ecuación del movimiento se puede obtener a partir del siguiente lagrangiano
1
L(x, v, t) = m|v|2 + qv · A(x, t) − qV, (5.43)
2
si V y A(x, t) son, respectivamente, un potencial escalar y un potencial vector válidos, es
decir, que cumplan que
E = −∇V − ∂t A, B = ∇ × A. (5.44)
Estas ecuaciones no definen un único potencial escalar y vector, pero cualquier pareja V y
A que satisfagan las ecuaciones (5.44) serán apropiadas para nuestro fin. Para comprobarlo,
obtengamos las ecuaciones de Euler-Lagrange para cada una de las componentes de x =
(x1 , x2 , x3 ),
d ∂L ∂L
= . (5.45)
dt ∂ ẋi ∂xi
En nuestro caso, las ecuaciones de Euler-Lagrange conllevan alguna sutileza, así que las
desarrollaremos en detalle. La derivada con respecto a ẋi del lagrangiano es,
∂L
= mẋi + qAi , (5.46)
∂ ẋi
y procedemos a calcular su derivada total con respecto al tiempo para completar el lado
izquierdo de las ecuaciones de Euler-Lagrange. Pero esta derivada total debe hacerse a
través de la regla de la cadena,
d ∂ X ∂
= + ẋj , (5.47)
dt ∂t ∂xj
j
X X
mẍi + q Ȧi + q ẋj Ai,j − q ẋj Aj,i + qV,i , (5.48)
j j
donde reconocemos el campo eléctrico, Ei = Ȧi −V,i y el campo magnético aparece a través
de la fuerza de Lorentz,
X
mẍi = q Ei − ẋj (Ai,j − Aj,i ) , (5.49)
j
C Hay muchas elecciones diferentes posibles para A, pero todas son físicamente equi-
valentes, constituyendo la llamada invariancia gauge. La invariancia gauge va mucho
más allá de lo que se explica en este curso. En términos muy breves, partamos del
hecho de que todas las funciones de onda son invariantes bajo un cambio de fase glo-
bal, es decir: poseen una simetría U(1) global. Imaginemos que deseáramos imponer
que esa simetría sea local, es decir: que fuera posible multiplicar la función de ondas
por una fase diferente en cada punto. Sería posible si introdujéramos unos campos
compensadores, que se corresponden con el campo electromagnético.
∂L
pi ≡ = mẋi + qAi , (5.50)
∂ ẋi
y esta ecuación define el llamado acoplo mínimo. Resulta inicialmente sorprendente que
el momento no sea meramente mẋ. Este valor seguirá siendo importante, y lo llamaremos
momento cinético, mẋ = p − qA. Podemos escribir el Hamiltoniano del sistema, mediante
X 1
H= pi xi − L = (p − qA)2 + qV, (5.51)
2m
i
que nos muestra que la energía se compone de dos términos: la energía cinética, correspon-
diente al cuadrado del momento cinético, y la energía potencial.
1
H= (P − qA(X, t))2 + qV (X). (5.52)
2m
Resulta muy ilustrativo calcular el conmutador entre dos componentes diferentes de la
velocidad, [Vi , Vj ]. Como sabemos, [Pi , Pj ] = 0, y en ausencia de campo magnético esa
misma relación se aplica a las velocidades. Pero ya no será el caso, y es muy interesante
entender por qué.
1
[Vi , Vj ] = [Pi − qAi (X), Pj − qAj (X)]
m2
q
= 2 ([Pi , Aj (X)] − [Pj , Ai (X)])
m
i~q i~q
= 2 (Ai,j − Aj,i ) = 2 εijk Bk , (5.53)
m m
donde usamos el convenio de índices repetidos. En resumen: la evolución de Vi bajo el
flujo generado por Vj es proporcional al campo magnético. Este hecho será suficiente para
establecer el comportamiento de una partícula en el seno de un campo magnético.
También podemos calcular el conmutador entre posiciones y momento cinético, y com-
probaremos que responden al resultado canónico, [Xi , mVi ] = i~δij . El motivo es que Xi
conmuta con toda función de la posición, en concreto con Ai (X).
m
Vx2 + Vy2 + Vz2 . (5.54)
H=
2
y además sabemos que [Vx , Vz ] = [Vy , Vz ] = 0, aunque [Vx , Vy ] = qB/m2 . Por lo tan-
to, el Hamiltoniano se puede descomponer en la suma de dos términos que conmutan,
H⊥ = (m/2)(Vx2 + Vy2 ) y Hk = (m/2)Vz2 , según sean perpendiculares o paralelos al campo
magnético. Podemos diagonalizarlos independientemente.
Como [Z, Vz ] = i~, sabemos que el espectro de ambos operadores debe ser todo R. Por
lo tanto, el espectro de Vz2 debe ser [0, ∞). Es fácilmente interpretable: la energía cinética
de una partícula en un campo magnético uniforme se puede descomponer en dos términos:
el término paralelo al campo magnético y el término perpendicular. El primer término es
necesariamente constante, y además no está restringido. El segundo será lo que estudiemos
a continuación.
Volvamos a considerar el operador H⊥ = (m/2)(Vx2 + Vy2 ), pero olvidemos por un mo-
mento el significado físico de Vx y Vy , y razonar que se trata meramente de dos operadores
cuyo conmutador es proporcional a la identidad, como X y P . La idea genial de Lev Da-
vidovich Landau fue reconocer que H⊥ es matemáticamente equivalente al de un oscilador
armónico, donde Vx y Vy juegan el papel de posición y momento, aunque en realidad su
significado físico sea muy diferente.
En términos generales, inventemos dos operadores, Q y S, tales que [Q, S] = iλ/2. En
ese caso, el espectro del operador H = Q2 + S 2 será En = λ(n + 1/2). Se sugiere comprobar
que este resultado nos proporciona exactamentep el espectro del oscilador armónico. En
nuestro caso, definimos Q = m/2Vx y S = m/2Vy , de manera que su conmutador
p
será [Q, S] = (m/2)[Vx , Vy ] = (~qB/2m), así que habríamos llegado al resultado de que el
espectro de H⊥ es discreto,
~qB
En = (n + 1/2), con n ∈ N, (5.55)
m
son los llamados niveles de Landau. Nótese que qB/m = ωc es la frecuencia de ciclotrón,
es decir, la correspondiente a las órbitas circulares clásicas.
Pero aún no hemos determinado las autofunciones de la energía. Para ello debemos
elegir un gauge. El llamado gauge de Landau corresponde a tomar Ax = Az = 0, Ay = Bx,
y nos resulta conveniente porque [Py , H⊥ ] = 0, de manera que el autovalor de Py , que
llamaremos py , sirve para etiquetar los autoestados de H⊥ , mostrando que los niveles de
Landau están infinitamente degenerados, porque en cada uno de ellos hay que acomodar
los infinitos autovalores de Py como estados diferentes. En este caso podemos escribir el
Hamiltoniano H⊥ como
Px2 Py 2
1
H⊥ = 2
+ mωc X − , (5.56)
2m 2 qB
es decir, es un oscilador armónico con una posición central x0 = py /(qB) que depende del
valor de py . Esto resulta muy chocante hasta que nos damos cuenta de que es el fruto de
haber elegido un gauge particular.
qBA
N= , (5.57)
2π~
que suele expresarse diciendo que el número de estados por unidad de área es qB/(2π~).
Si q = e, la carga de un electrón, entonces definimos Φ0 = h/e como el flujo magnético
elemental. Entonces, podemos escribir
Φ
N= , (5.58)
Φ0
es decir: la degeneración de cada nivel de Landau corresponde al cociente entre el flujo
magnético total entre el flujo elemental.
1 h i
H= (P − qA)2 − q~σ · B + qV, (5.59)
2m
que puede reescribirse de una manera más compacta que a veces resulta útil,
1
H= (σ · (P − qA))2 + qV. (5.60)
2m
Para demostrar la equivalencia entre estas dos ecuaciones es preciso emplear una identidad
muy útil sobre las matrices de Pauli,
n(θ, φ)
σ(θ, φ) = dΩ, (5.63)
F
n(θ, φ)
Z Z
σ= dΩ σ(θ, φ) = dΩ , (5.64)
F
Nótese que las unidades de n(θ, φ) son de [T −1 ] y las de F son [L−2 T −1 ], de manera que
la sección eficaz tiene unidades de área. Intuitivamente, podemos imaginar σ como el área
de la sombra que presenta el target al flujo de partículas. En el caso de que la interacción
entre la partícula incidente y el target es central, es decir, sólo depende de la distancia
entre ellos, la sección eficaz diferencial sólo dependerá de θ.
θ
∆p = |∆p| = 2p sin , (5.65)
2
donde θ es el ángulo de deflexión de la partícula. Estas variables serán cruciales para nuestro
análisis.
con k = (5.66)
p
ψ0 (x) = eikz , 2mE/~2 .
donde hemos definido U (x) ≡ (2m/~2 )V (x). Escribiremos la solución de (5.67) como una
combinación de la onda incidente y una onda dispersada hacia fuera desde del target,
eikr
ψ(x) = eikz + f (θ, φ) , (5.68)
r
y nuestro objetivo será encontrar f (θ, φ) para que la ecuación (5.67) sea válida. Pero
antes de eso, encontremos el significado físico de f (θ, φ). Intuitivamente, es la amplitud de
probabilidad de que la partícula incidente pase a viajar en la dirección (θ, φ). En efecto,
podemos calcular la corriente de probabilidad, ecuación (4.123), y comprobaremos que la
componente a lo largo de un radio en la dirección (θ, φ) es, meramente,
~k
jr = |f (θ, φ)|2 . (5.69)
mr2
5
Debe cumplir que lı́mr→∞ rV (ru) = 0 para todo vector unitario u.
de manera que el flujo de partículas que sale en la dirección (θ, φ) es, en efecto, n(θ, φ) dΩ =
(~k/m)|f (θ, φ)|2 dΩ. El flujo de partículas incidentes, por su parte, será F = p/m = ~k/m,
así que tenemos
Para resolver la ecuación (5.67), consideraremos primero una ecuación similar, más
sencilla,
que podemos resolver usando el método de la función de Green, similar al empleado para
calcular el campo eléctrico de una fuente extensa en electromagnetismo clásico. Resolvemos
el caso particular en el que F (x) = δ(x),
eikr
ψ(x) = − , (5.73)
4πr
como se puede comprobar por sustitución directa, si recordamos la expresión del laplaciano
en coordenadas esféricas,
∂2
1 ∂ 2 ∂ 1 ∂ ∂ 1
2
∇ = 2 r + 2 sin θ + 2 2 , (5.74)
r ∂r ∂r r sin θ ∂θ ∂θ r sin θ ∂φ2
Ahora procedemos integrando la solución anterior para obtener una solución de la ecua-
ción (5.71)
1 eik|x−a|
Z
ψ(x) = − d3 r F (a). (5.75)
4π |x − a|
Volviendo a la ecuación (5.67), podemos aplicar la expresión anterior fomalmente, usan-
do como lado derecho U (x)ψ(x), y añadiendo la onda incidente obtendremos
m eik|x−a|
Z
ψ(x) = eikz − d3 a V (a)ψ(a), (5.76)
2π~2 |x − a|
que es una ecuación integral para ψ(x), que no es fácil de resolver explícitamente. Pero
podemos dar una solución aproximada. Primero, consideremos el factor exp(ik|x−a|)/|x−
a|, que podemos suponer que varía poco de un a a otro, debido a que la función de onda
es observada en un punto x que está muy alejado del target. Podemos aproximar
1
|x − a| = (r2 + a2 − 2x · a)1/2 ≈ r − x · a, (5.77)
r
y nos queda
m
Z
f (θ, φ) = − d3 a exp(−iq · a) V (a) ψ(a), (5.79)
2π~2
y damos paso a la última aproximación, que es sustituir ψ(a) por la onda incidente, llegando
a
m
Z
f (θ, φ) = − d3 a exp(−ik · a) V (a), (5.80)
2π~2
donde k = kur − kuz es el momento transferido. Esta expresión se conoce como aproxi-
mación de Born para la amplitud de probabilidad de colisión, que es proporcional a la
transformada de Fourier del potencial evaluada en el vector k apropiado.
m Z eik|x−a|
d3
a V (a) ψ(a) 1. (5.81)
2π~
2 |x − a|
Nos fijamos en el punto x = 0, en cuyos alrededores cabe esperar que la distorsión tome
los valores mayores. Supongamos, por simplificar, que el potencial tiene simetría esférica.
En esas circunstancias,
m ∞ 2ika
Z
(5.82)
2
e − 1 V (a) da 1.
~ k 0
Para dar una estimación sencilla, usemos un potencial cuadrado (con V (r) = V0 si r < r0
y con V (r) = 0 si r > r0 ) y partículas incidentes con una energía suficientemente alta (esto
es, que kr0 1). Entonces, la condición (5.81) nos dice que la validez de la aproximación
de Born viene dada por la condición
~2
|V0 | ~v o, equivalentemente, que |V0 | k. (5.83)
m
Esto significa que la aproximación de Born tendrá mayor validez cuanto mayores sean las
energías de las partículas incidentes, y eso es intuitivamente fácil de comprender: cuanto
menos tiempo pase la partícula cerca del target, menos la afectará.
Ejemplo 5.4 Determinar la sección eficaz para la colisión con el potencial repulsivo defi-
nido como V (r) = V0 para r < a; V (r) = 0 para r > a.
Usando la aproximación de Born,
m
Z
f (θ, φ) = − d3 xe−iq·x V (x), (5.84)
2π~2
donde q es el momento transferido, que podemos pasar a coordenadas esféricas e integrar
cuando el potencial es central, como en nuestro caso,
m
Z
f (θ, φ) = − r2 dr sin θdθ dφ e−iqr cos θ V (r)
2π~2
m ∞
Z Z π
=− 2 2
dr r V (r) dθ sin θe−iqr cos θ
~ 0 0
Z ∞
m
= 2 dr rV (r) sin(qr). (5.85)
~ q 0
Y deseamos hacer notar que esta ecuación es válida en aproximación de Born para cualquier
potencial central. En el caso que nos ocupa, la integral se extiende sólo hasta r = a, siendo
constante en su interior, así que
a
mV0 mV0
Z
f (θ, φ) = dr r sin(kr) = (sin(aq) − ak cos(aq)) . (5.86)
~2 q 0 ~2 q 3
En el límite de bajas energías, aq 1, podemos desarrollar en serie el seno y el coseno,
quedándonos con el segundo orden nos da
mV0
f (θ, φ) ≈ , (5.87)
2~2 q
pero debemos recordar que k es el momento transferido, es decir q = 2k sin(θ/2), llegando
a la sección eficaz diferencial,
mV0
σ(θ, φ) ≈ 2
. (5.88)
4~ k sin(θ/2)
5.A Problemas
1.- Demostrar que si V (x) = V (−x), los autoestados de la ecuación de Schrödinger
son alternativamente pares e impares. Extra: demostrar que cada nivel excitado agrega un
nodo a la función de ondas.
2.- Consideremos un pozo de potencial V (x) = −γδ(x) con γ > 0. ¿Cómo afecta a los
niveles del pozo la presencia de una pared infinita colocada en x = −a? ¿Para qué valores
de a habrá un estado estacionario ligado?
1 1
Px2 + Py2 + mω 2 X 2 + Y 2 . (5.89)
H=
2m 2
y se nos pide considerar el operador que implementa las rotaciones en torno al eje Z, U (θ) =
exp(−iθLz /~), con Lz = XPy −Y Px . Se pide: (a) Demostrar que el Hamiltoniano conmuta
con el operador de rotación. (b) Demostrar que el estado fundamental del Hamiltoniano
tiene simetría circular, es decir, U (θ) |ψ0 i = |ψ0 i. (c) Los dos primeros estados excitados
están degenerados en energía. Demostrar que una rotación de ángulo θ = π/2 puede
convertir uno en el otro.
6.- Aplicar el teorema del virial, demostrado en el ejercicio anterior, para mostrar que
en una dimensión, si el potencial es V (x) = V0 xk , entonces hP 2 /mi = khV i. Aplicarlo al
caso del oscilador armónico.
7.- Encontrar en aproximación de Born la sección eficaz diferencial para un haz de par-
tículas que incide sobre un potecial de Yukawa, de la forma V (r) = Ae−r/r0 /r. Encontrar
el límite en el que r0 → ∞ e interpretar físicamente, comparando con la sección eficaz de
Rutherford para un potencial coulombiano.
Entonces, ¿el caso es desesperado? No. Necesitamos el enfoque adecuado, que es recor-
dar el concepto de acción en MC.
Z t
S(q, q0 , t) = dt L(q, q̇, t), (6.1)
t0
d ∂L ∂L
− = 0. (6.2)
dt ∂ q̇ ∂q
∂H ∂H
ṗ = − , q̇ = . (6.3)
∂q ∂p
Notemos que la derivada total de la función principal de Hamilton con respecto al tiempo
debe ser la lagrangiana, es decir,
dS ∂S ∂S
= + q̇ = L, (6.4)
dt ∂t ∂q
de donde se puede deducir que ∂S/∂q = p y ∂S/∂t = −H. Es decir, la siguiente ecuación
para la función S es formalmente válida,
∂S ∂S
+ H q, , t = 0, (6.5)
∂t ∂q
que conocemos como ecuación de Hamilton-Jacobi (HJ). Por ejemplo, para la partícula
en un potencial, H = p2 /2m + V (q), tenemos
2
∂S 1 ∂S
+ + V (q) = 0, (6.6)
∂t 2m ∂q
que es una ecuación en derivadas parciales (EDP) de primer orden para la función principal
de Hamilton (es decir, la acción). En caso de que el sistema sea autónomo (i.e. sin depen-
dencia explícita en el tiempo), la energía se conserva, así que ∂S/∂t es una constante, que
1
En rigor, la acción es un funcional del camino, y la función principal de Hamilton es una función
ordinaria de las coordenadas iniciales y finales.
llamaremos −E. Así, podemos escribir que S(q, q0 , t) = W (q, q0 ) − Et, donde W cumple
que2
2
1 ∂W
+ V (q) = E. (6.7)
2m ∂q
C Encontrar la función principal de Hamilton es muy difícil, pero a cambio nos resuelve
completamente el problema dinámico, porque induce una transformación canónica
a unas nuevas coordenadas generalizadas llamadas de acción-ángulo en las que la
dinámica es trivial. Todo esto fue material de Mecánica Teórica, de tercer curso.
C Es interesante observar que, dado que p = ∇S, las trayectorias físicas son ortogo-
nales a las curvas S(q, t) =constante. Eso recuerda al principio de Huygens para la
propagación de ondas. En efecto, el frente para un determinado tiempo t estará dado
por la superficie (o curva) S(q, q0 , t) = C, y podemos propagarlo hasta un tiempo
t + δt haciendo que de cada punto q salga una trayectoria real, y reuniendo todos los
puntos que constituyen la nueva superficie.
∂Φ 1 i~ 2
− = (∇Φ)2 − ∇ Φ + V (r), (6.9)
∂t 2m 2m
que es sorprendentemente similar a la ecuación de Hamilton-Jacobi (6.6). Más aún, si
hacemos ~ = 0, la ecuación es exactamente igual a la de HJ, salvo por el hecho de que
la función Φ es compleja. Eso podemos resolverlo descomponiendo la función en su parte
real e imaginaria, Φ(x, t) = S(x, t) + i~B(x, t). Nótese que el módulo de la función de
ondas vendrá dado por |ψ(x, t)|2 = ρ(x, t) = |A0 |2 exp(−2B(x, t)), mientras que S(x, t) se
corresponde con la fase. Entonces, la ecuación (6.9) se convierte en
∂S 1 ~2
(∇S)2 + V (r) − |∇B|2 − ∇2 B , (6.10)
− =
∂t 2m 2m
∂B 1 1 2
− = ∇S · ∇B − ∇ S, (6.11)
∂t m 2m
que se conocen como ecuaciones de Madelung. Como vemos, la ecuación para la fase, S(x, t),
toma exactamente la forma de la ecuación de HJ cuando ~ = 0. Es decir, parece interesante
interpretar la fase de la función de ondas como la acción del sistema físico. La analogía
2
En la literatura, W suele llamarse función característica de Hamilton, pero consideramos que ya son
demasiados los nombres.
llega aún más lejos. Si la energía se conserva, entonces tenemos S(x, t) = W (x) − Et, y la
función de ondas nos queda,
X
i~Ψ̇i = Hij Ψj , (6.13)
j
X 2hij
ρ̇i = (ρi ρj )1/2 sin βij ,
~
j
1/2
X ρj
Ṡi = − hij cos βij , (6.14)
ρi
j
1 2
S 0 (x) + V (x) = E,
m
S 00 (x)
S 0 (x)B 0 (x) = − . (6.15)
2
La segunda ecuación, que nos ayuda a determinar el módulo de la función de ondas,
|ψ(x)| ≡ A(x) = exp(−B(x)), se puede transformar en
B 0 (x) 1 S 00 (x)
A0 (x) = − = , (6.16)
A(x) A(x) 2S 0 (x)
cuya solución es A(x) ∝ (S 0 (x))−1/2 , como se puede comprobar por sustitución directa. La
primera ecuación, en cambio, se resuelve mediante
Z x
S(x) = du p(u), (6.17)
x0
donde p(u) ≡ 2m(E − V (u)), es decir, el momento local que debería tener la partícula
p
i x
A0
Z
ψ(x) = p exp ± du p(u) . (6.18)
p(x) ~ x0
La física de la aproximación WKB termina aquí, pero ahora dan comienzo plas sutile-
zas técnicas, que son muy importantes. La primera está en el denominador p(x), que
notamos que diverge cuando x se acerca a un punto de retroceso, es decir, un punto x∗ en
el que V (x∗ ) = E. Lejos de esos puntos, la solución tiene perfecto sentido, pero debemos
ser cuidadosos al considerar la región del espacio en la que estamos. En efecto, en la re-
gión permitida, tenemos que E > V (x), p(x) es real y la solución toma la forma de una
fase modulada. En general, la solución WKB será la combinación lineal de las dos ondas
posibles,
Z x
i x
A0 i
Z
ψ(x) = p A exp du p(u) + B exp − du p(u) . (6.19)
p(x) ~ x0 ~ x0
en cambio, en la región prohibida, cuando E < V (x), p(x) se vuelve imaginario, haciendo
que las exponenciales se vuelvan reales. Eso corresponde a nuestra intuición: en una región
prohibida la función de onda debe decaer exponencialmente.
Ahora bien, estas soluciones sólo serán de interés si somos capaces de conectar las
soluciones oscilatorias con las exponenciales a través de un punto de retroceso. Para ello es
preciso resolver analíticamente la ecuación de Schrödinger en torno al punto de retroceso, e
identificar términos, y para realizarlo aproximamos el potencial por una recta. Ese análisis
es costoso, y consideramos que no aporta mucho al curso. Sólo daremos la solución en
el caso más sencillo, que es cuando el potencial V (x) crece sin límite para x → ±∞, de
1 x
Z x
C C 1 π
Z
p exp − du p(u)) → p cos du p(u) − , (6.20)
2 p(x) ~ a p(x) ~ a 4
donde debemos recordar que cambiar el orden de los límites de integración cambia el signo
de la integral. De esta manera, podemos definir dos regiones prohibidas, que llamaremos I
y III, en las que la función de onda es
1 x
C
Z
ψI (x) = p exp − du p(u) ,
2 p(x) ~ a
1 x
C
Z
ψIII (x) = p exp − du p(u) (6.21)
2 p(x) ~ b
y una región permitida, la II, que podemos escribir de dos formas diferentes, según venga-
mos de I o de III,
1 x 1 b
C π C π
Z Z
ψII (x) = p cos − du p(u) − = p cos − du p(u) − . (6.22)
p(x) ~ a 4 p(x) ~ x 4
Ambas expresiones para la función de onda en II deben coincidir, y para ello debemos tener
que las fases en ambas difieran en un múltiplo de π. Como cos(−x) = cos(x) cambiamos
el signo a la fase del primer coseno para que empalme bien,
x b
1 π 1 π
Z Z
du p(u) + = − du p(u) − + mπ, con m ∈ N, (6.23)
~ a 4 ~ x 4
y tenemos
b b
1
Z Z
(6.24)
p
du p(u) = dx 2m(E − V (x)) = m+ π~,
a a 2
que es la condición de cuantización WKB que nos permite obtener las energías permitidas
en el sistema.
Ejemplo 6.2 Veamos el ejemplo que siempre sale bien, el oscilador armónico,
p V (x) =
kx2 /2. Si la energía es E, los puntos de retroceso vendrán dados por x∗ = ± 2E/k, y
tendremos
Z √2E/k s
k 2 1
√ dx 2m E − x = m + π~. (6.25)
− 2E/k 2 2
√ Z √2E/k
k 2 √
r r
1
r
2E m
Z p
2mE √ dx 1− x = 2mE 2
du 1 − u = E π, (6.26)
− 2E/k 2E k −1 k
donde hemos hecho el cambio u = x k/2E, y de donde deducimos que las energías
p
permitidas serán
1
E = ~ω m + , (6.27)
2
que sorprendentemente da el resultado exacto.
el caso de un potencial V (x) con una energía E. Si los puntos de retroceso clásicos
son y x2 , entonces la aproximación WKB a las energías permitidas vendrá dada por
R x2 x 1 p
x1 dx 2m(E − V (x)) = (m + 1/2)π~, con m ∈ N.
X
exp(iS(γ)/~), (6.28)
γ
a través del vacío. Como hemos dicho, la acción asociada a cada camino es, meramente,
S(γ) = p`γ , y el momento p es una constante. Habrá un camino de acción mínima, que es
la línea recta, y una infinidad de caminos de longitudes mayores. Pero al sumar las fases
asociadas a cada camino encontraremos un efecto interesante. El camino mínimo, `0 , tiene
muchísimos caminos de longitud cercana, que contribuyen una acción parecida a la que
contribuye él. Sin embargo, si tomamos un camino aleatorio, habrá caminos vecinos con
longitud mayor y con longitud menor, de manera que será fácil que su fase se cancele con la
de otro camino. Los caminos cercanos al mínimo interfieren constructivamente, sumando
sus fases y creando una amplitud de probabilidad alta. Por ello decimos que el camino de
longitud mínima y sus vecinos son los que más contribuyen a la integral de caminos.
Ésa es la conexión que proporciona la integración de caminos entre la MC y la MQ: si la
acción es grandes en comparación con ~, sólo importan los caminos cercanos al camino de
acción mínima (o, más bien, acción estacionaria), porque son los que interfieren construc-
tivamente, y recuperamos la noción de trayectoria bien definida. A medida que la acción
se hace más pequeña, más y más caminos contribuyen significativamente a la integral de
caminos, la partícula deja de comportarse de manera clásica.
Ejemplo 6.3 Consideremos un haz de fotones que incide desde el aire en un medio con
un índice de refracción mayor, n > 1. La energía del fotón es la misma, pero su momento
p = vE debe disminuir proporcionalmente a la disminución de la velocidad de la luz. De
esta manera, tenemos que la acción puede escribirse como S(γ) = p`1 (γ) + (p/n)`2 (γ),
donde p1 es el momento inicial, y p/n es el momento en el interior del medio, `1 y `2
son las longitudes recorridas en ambos medios. Así, vemos que la acción es proporcional
al tiempo total de viaje del fotón. De ahí proviene el principio de Fermat, o principio del
tiempo mínimo.
Z
G(xf , tf ; x0 , t0 ) = dx1 G(xf , tf ; x1 , t1 ) G(x1 , t1 ; x0 , t0 ), (6.29)
Z
G(xf , tf ; x0 , t0 ) = dx1 dx2 · · · dxN G(xf , tf ; xN , tN ) · · · G(x1 , t1 ; x0 , t0 ), (6.30)
Z N
Y
G(xf , tf ; x0 , t0 ) = lı́m dx1 · · · dxN G(xj+1 , tj+1 ; xj , tj ), (6.31)
N →∞
j=0
donde esta última integral es idéntica a la realizada para obtener (4.135). En la exponencial
reconocemos la energía cinética menos la potencial, es decir, la lagrangiana. Ahora podemos
regresar a la expresión completa y, meramente, leer el resultado deseado,
N/2 !
−im
iX
Z
G(xf , tf ; x0 , t0 ) = lı́m dx1 · · · dxN exp − ∆t L({xi })
2π∆t~ N →∞ ~
i
i
Z
= Dx exp S[x(t)] . (6.33)
~
donde hemos obtenido la acción como el límite de la suma de Riemann de los valores de
la lagrangiana, y hemos definido una medida en el espacio de caminos, Dx, que incluya el
prefactor anterior. Nótese que este prefactor era no trivial, mostrando que la medida sobre
el espacio de caminos es un objeto matemáticamente complejo.
Z Z
S(γ) = q A · v dt = q A · d`, (6.34)
γ γ
Z Z I
∆S = S(γ1 ) − S(γ2 ) = − qA · d` = qA · d`. (6.35)
γ1 γ2 γ
es decir, es la integral del potencial vector A a lo largo del circuito cerrado γ = γ1 + γ2 (el
segundo recorrido en sentido inverso). Usando el teorema de Stokes, esa integral es igual a
la integral de superficie del rotacional de A, que es ∇ × A = B,
Z
∆S = q B · dS = qΦ, (6.36)
S
de modo que la diferencia entre la acción a lo largo de los dos caminos coincide con el
flujo magnético que atraviesa multiplicada por la carga. Pero sabemos que, en base a la
interpretación de la integral de caminos, la diferencia de fases entre los dos caminos será
C En 1931, Dirac calculó cuál sería el potencial vector al que daría origen un monopolo
magnético de intensidad g. Después calculó el cambio en la fase de una partícula
cargada que diera una vuelta en torno a él, y mostró que debía cumplir la relación
gq = 2πn~, mostrando así que la existencia de un único monopolo en el universo
forzaría la cuantización de la carga eléctrica. A día de hoy no existe ningún otro ar-
gumento físico que fuerce dicha cuantización, pero tampoco se ha encontrado ningún
monopolo magnético, si excluimos el monopolo de San Valentín, descubierto el 14
de febrero de 1981 por el dispositivo ideado por Blas Cabrera (junior), y que jamás
ha vuelto a repetirse, dejando la sensación de falso positivo. Si existiera un monopo-
lo magnético, deberíamos imaginarlo como un imán usual, de dos polos, uno de los
cuales se ha alejado hasta el infinito, desapareciendo de nuestro alcance.
Resumen 6.3. El propagador se puede calcular como una suma sobre todos los caminos
posibles γ de un factor exp(iSγ /~), donde Sγ es la acción clásica asociada a cada camino.
6.A Problemas
1.- Determinar el sistema de unidades de Planck, o sistema natural de unidades, en el
que el valor numérico de ~, c (la velocidad de la luz), GN (la constante de la gravitación)
y kB (la constante de Boltzmann) toman todas el valor uno.
3.- (Difícil) Dado un conjunto de energías {En }, se pide encontrar V (x) tal que el
Hamiltoniano H = P 2 /2m + V (X) lo tenga como espectro, en aproximación WKB.
Las primeras décadas del siglo XX fueron testigos del desarrollo de dos grandes marcos
teóricos en Física: la teoría de la relatividad especial (TRE) y la MQ. Decimos marcos
teóricos y no teorías porque su generalidad es mayor. Una teoría es un conjunto de
reglas que explican una serie de fenómenos, a ser posible de manera predictiva. Un marco
teórico, por el contrario, nos dice cuáles son los principios válidos para construir teorías.
Así, por ejemplo, la gravitación newtoniana es una teoría (de enorme éxito) construida en
el marco teórico de la mecánica clásica. Las teorías dictan leyes, que aplican al fenómeno
que estamos estudiando. Los marcos teóricos dictan principios, que tienen un rango de
aplicabilidad universal. Sin embargo, los marcos teóricos de la TRE y la MQ parecían
incompatibles. No era posible formular teorías consistentes que respetaran los principios
de ambas, y pronto se comprendió por qué: la MQ proporciona las herramientas para
estudiar el comportamiento de una o muchas partículas, pero suponiendo siempre que su
número se conserva. En cambio, la TRE exige tener en cuenta la posibilidad de creación y
aniquilación de partículas. Ambos marcos se fundieron en un marco superior que contiene
a ambos: la teoría cuántica de campos.
En este capítulo, con el que terminamos el curso de MQ, discutiremos el intento de
fusionar ambos marcos originalmente en una MQ relativista, y los problemas a los que da
lugar, para concluir con una introducción al formalismo de la segunda cuantización, que
constituye el núcleo conceptual de la teoría cuántica de campos.
¿Y la teoría de la relatividad general? Pues, por desgracia, no disponemos de un marco
teórico que sintetice los requerimientos de ambos marcos, lo que constituye uno de los retos
más relevantes de la física teórica actual. Pero esas cuestiones deben ser reservadas para
estudio futuro, para el cual se encontrará una guía en la sección ¿Y ahora qué?
~2 2
i~∂t ψ(x, t) = − ∇ ψ(x, t). (7.1)
2m
Schrödinger vio inmediatamente que esta ecuación no parecía ser invariante Lorentz, ya
que no trata espacio y tiempo de manera similar. En efecto, no le costó convencerse de que
la ecuación era invariante bajo transformaciones de Galilei. ¿Cómo obtener una ecuación
similar, pero que respete el principio de la relatividad de Einstein? Partamos de la norma
del cuadrivector momento,
E2
− p2 = m2 c2 , (7.2)
c2
y realicemos la misma sustitución, llegando a
1 2 2
− ~ ∂t ψ(x, t) + ~2 ∇2 ψ(x, t) = m2 c2 ψ(x, t), (7.3)
c2
1 2
≡ ∂ − ∇2 = ∂µ ∂ µ , (7.4)
c2 t
donde hemos introducido el 4-vector (∂0 , ∂1 , ∂2 , ∂3 ), con ∂0 = c−1 ∂t , y subimos los índices
con la métrica de Minkowski, ∂ µ = η µν ∂ν . Por supuesto, hacemos uso del convenio de
índices repetidos. De esta manera la ecuación de Klein-Gordon queda mucho más elegante,
m2 c2
+ 2 ψ(x, t) = 0. (7.5)
~
C Siempre es posible simplificar artificialmente una ecuación para que parezca elegan-
te. Por ejemplo, Feynman solía decir que todas las ecuaciones de la física podrían
resumirse en U = 0, donde U se expresa como una suma de términos correspon-
dientes a cada ley conocida de la física, cada uno de ellos elevado al cuadrado pa-
ra que Pla anulación de U implicara la anulación de todos ellos. Así, por ejemplo,
ma = iF i y ∇ · E = ρ/ε0 , que son ecuaciones bien conocidas, pasarían como
U = (ma − i Fi )2 + (∇ · E − ρ/ε0 )2 + · · · , y podríamos ir añadiendo nuevas leyes a
P
medida que las fuéramos describiendo. ¿Es, realmente, U = 0 una ecuación elegante?
En lo más mínimo, ya que meramente esconde la complejidad bajo la alfombra. Una
ecuación es elegante cuando su simplicidad aparente es reflejo de la simplicidad real
que suponemos del universo. Por ejemplo, en la ecuación de Klein-Gordon, en el que
simplicidad de la ecuación refleja la invariancia Lorentz subyacente.
p
i~∂t ψ(x, t) = ±c −~2 ∇2 + m2 c2 ψ(x, t). (7.6)
Por supuesto, sabemos extraer la raíz cuadrada de un operador, pero nos resulta extraño
tener que realizar un proceso tan complejo, además del hecho de que la ecuación (7.6)
vuelve a no ser ser manifiestamente covariante, ya que trata la derivada espacial de una
manera muy diferente de la temporal. Nótese, además, que existe una ambigüedad en
cuanto al signo del lado derecho.
C Por simplicidad, es frecuente emplear unidades naturales, es decir, elegir las unidades
de espacio, tiempo, momento y energía de manera que c = 1 y ~ = 1. De esa manera,
la ecuación de Klein-Gordon es, meramente, ( + m2 )ψ = 0.
m2 c2 m2 c2
ψ∗ + 2 ψ−ψ + 2 ψ ∗ = ψ ∗ ψ − ψψ ∗ = 0. (7.7)
~ ~
Ahora definamos
i~ i~ ↔
jµ ≡ (ψ ∗ ∂ µ ψ − ψ∂ µ ψ ∗ ) ≡ ψ ∂ ψ∗, (7.8)
2mc 2mc
donde el prefactor se ha elegido por conveniencia posterior y hemos definido implícitamente
↔
el operador ∂ . De esta manera concluimos que la ecuación (7.7) puede escribirse como
∂µ j µ = 0, (7.9)
que podemos comprobar que tiene la forma de una ecuación de continuidad apropiada,
1 0
∂t j (x, t) + ∇ · j(x, t) = 0, (7.10)
c
y nos permite definir una cierta densidad ρ(x, t) = j 0 (x, t) asociada a la función de ondas
ψ(x, t), que se conserva, es decir, que cumple que
Z
d3 x ρ(x, t) = 1, (7.11)
i~
ρ(x, t) = (ψ ∗ ∂t ψ − ψ∂t ψ ∗ ) ≡ ρ(x, t). (7.12)
2mc2
Notamos que las derivadas temporales hacen que la expresión sea muy diferente de la no-
relativista, que es meramente |ψ(x, t)|2 . En efecto, supongamos que ψ(x, t) = φ(x) exp(−iωt),
con ω > 0. En ese caso, podemos comprobar que la densidad ρ = (E/mc2 )|φ(x)|2 , sabien-
do que E = ~ω. En el límite no-relativista, E ≈ mc2 , de tal manera que parece que
obtenemos el mismo resultado. Sin embargo, algo llama nuestra atención: ¿qué ocurre si
ω < 0? Esas soluciones también están permitidas por la ecuación de Klein-Gordon. Enton-
ces, ρ(x, t) < 0, y nos resulta imposible interpretar ρ como una densidad de probabilidad.
Como vemos, la ecuación de Klein-Gordon no puede interpretarse apropiadamente en el
marco de la MQ que conocemos, ya que la aplicación directa de la regla de Born nos da lugar
a probabilidades negativas. En los problemas veremos algún ejemplo aún más notable, como
la conocida paradoja de Klein, que muestra cómo un haz incidente de partículas que incide
sobre una barrera de potencial puede dar origen a más partículas de las que llegaron. ¿Cómo
es eso posible? Como hemos mencionado antes, porque la combinación de los principios
de la MQ con los principios de la TRE nos fuerzan a considerar la posibilidad de que las
partículas sean creadas y destruidas. ¿Quiere eso decir que la ecuación de Klein-Gordon
no es útil? Ni en lo más mínimo, de hecho es la ecuación de ondas apropiada para una
partícula sin espín. Tan sólo quiere decir que no hemos sabido interpretarla correctamente,
como veremos en la sección 7.3.
C Las ecuaciones de primer orden con varias componentes son una buena manera de
camuflar una ecuación de segundo orden, como sabemos. Si tenemos ∂t ψ1 = ψ2 y
∂t ψ2 = −ψ1 , ambas ecuaciones pueden ser combinadas obteniendo ∂t2 ψ1 = −ψ1 y
∂t2 ψ2 = −ψ2 . Este truco es enormemente útil en física teórica.
donde Ψ será un objeto con un índice interno, aunque su dimensión no nos es conocida.
Más explícitamente,
X
i~∂t Ψ = −i~c αj ∂j + mc2 β Ψ, (7.14)
j
donde {αi } y β son matrices desconocidas que actúan sobre los índices internos, y los
factores constantes han sido elegidos por conveniencia posterior. Ahora que tenemos una
ecuación de primer orden, buscaremos cuáles deben ser {αi } y β para que cada componente
de Ψ cumpla la ecuación de Klein-Gordon, que es manifiestamente covariante. Para ello
aplicamos sobre el lado
P izquierdo2 de (7.14) el operador i~∂t y sobre el lado derecho el
operador H = −i~c j αj ∂j + mc β, obteniendo
~2 c2 X X
−~2 ∂t2 Ψ = − (αi αj + αj αi )∂i ∂j − i~c3 (αi β + βαi ) + m2 c4 β 2 Ψ, (7.15)
2
i,j i
αi αj + αj αi = δij ,
αi β + βαi = 0,
β 2 = 1. (7.16)
X
i~β∂0 Ψ = −i~ βαi ∂i Ψ + mcΨ, (7.18)
i
(7.20)
i~∂/ − mc Ψ = 0,
donde definimos el slash, la diagonal sobre la derivada parcial, como ∂/ ≡ γ µ ∂µ . Las condi-
ciones anteriores pueden imponerse sobre las matrices γ µ , de manera mucho más elegante,
{γ µ , γ ν } = 2η µν , (7.21)
donde η µν es la métrica de Minkowski, que tomamos como diag(+, −, −, −). Estas rela-
ciones de anticonmutación se conocen como álgebra de Clifford. ¿Existen, realmente,
matrices que respondan a dicho álgebra? La respuesta es que sí, hay infinitas elecciones
posibles de los γ µ , y la dimensión más pequeña en la que las encontramos es D = 4. Así,
por ejemplo,
I1 0 0 σx 0 σy 0 σz
γ =0
, γ = 1
, 2
γ = , 3
γ = , (7.22)
0 I2 −σx 0 −σy 0 −σz 0
A partir de la expresión de la matrices γ µ es fácil darse cuenta de que las cuatro compo-
nentes están agrupadas en dos superiores y dos inferiores. Hagamos uso de dicha descom-
posición y escribamos nuestra función de onda como
−iEt/~ uA (x)
ψ(x, t) = e , (7.24)
uB (x)
donde uA (x) y uB (x) son objetos de dos componentes. Aplicando la ecuación (7.23) llega-
mos a
c2
(σ · (p − qA))2 uA = (E − mc2 )uA , (7.26)
E + mc2
que es muy parecida a la ecuación de Pauli para una partícula con espín 1/2 en un campo
electromagnético, dada en (5.60). Basta con considerar que el factor c2 /(E+mc2 ) ≈ 1/(2m)
en el límite no relativista, y que E −mc2 es una aproximación a la energía no relativista. Un
argumento similar nos muestra que las dos componentes inferiores son aproximadamente
cero en este caso. Vemos así que la ecuación de Dirac, en el límite no relativista, corresponde
con una partícula de espín 1/2. Por ello, nos permitiremos usar la terminología de espinores
de Dirac para referirnos a ellos. Pero aún queda un misterio importante: ¿qué sucede con
las dos componentes inferiores?
donde entendemos que la derivada, en este caso, actúa sobre su izquierda. Podemos mul-
tiplicar esta ecuación a la derecha por Ψ, y la ecuación de Dirac original por la izquierda
por Ψ̄. Cuando las sumamos, nos queda
∂µ Ψ̄γ µ Ψ = 0, (7.28)
ρ = j0 = Ψ̄γ 0 Ψ = Ψ† Ψ, (7.29)
I 0
β= , (7.30)
0 −I
de forma que tendremos cuatro soluciones independientes,
C Además de los problemas antedichos, hay que destacar que también la ecuación de
Dirac sufre de la paradoja de Klein, es decir: un haz de partículas que colisiona
contra una barrera de potencial con una energía mayor que mc2 puede dar lugar a
una probabilidad de encontrar las partículas resultantes mayor que uno. La razón
física, claro está, es que la ecuación de Dirac desea representar una situación en la
que las partículas pueden crearse y destruirse, pero el formalismo de la MQ no lo
permite.
C Paul Dirac dijo de sí mismo que había tenido la suerte de “haber vivido en una época
en la que un físico de segunda podía hacer física de primera”. Es posible achacarle un
exceso de humildad. Todos somos conscientes de que en los momentos revolucionarios
cualquier físico puede hacer un gran descubrimiento, pero quizá no todos sean capaces
de interpretarlo debidamente y darle la importancia que merece. Se cuenta que un
colega se jactaba ante Lev Landau de haber descubierto la ecuación de Schrödinger
antes que el mismo Schrödinger, pero que no le dio importancia. Landau le recomendó
que no se jactara de tal hecho, y que más bien debería avergonzarse de él.
Resumen 7.2. Es posible escribir una ecuación de evolución de primer orden para una
partícula cuántica relativista, siempre que a cambio consideremos funciones de onda con
varias componentes. La ecuación de Dirac, que se puede expresar como i~∂/ − mc Ψ =
0, donde ∂/ = γ µ ∂µ y {γ µ , γ ν } = 2η µν , se formula con cuatro componentes, de las cuales
dos corresponden a estados de energía negativa y dos a los de positiva. Dentro de cada
pareja pueden distinguirse dos estados de espín diferente, mostrando que la ecuación
describe una partícula de espín 1/2 y su antipartícula. La ecuación de Dirac está dotada
de una ecuación de continuidad para la 4-corriente j µ = Ψ̄γ µ Ψ, donde Ψ̄ = Ψ† γ 0 .
|n1 , n2 , · · · , nL i , (7.32)
es un estado que contiene ni partículas en el sitio i. Nótese que las partículas no tienen
identidad propia, sólo importa la cantidad de ellas que hay en cada sitio. Por supuesto,
esos sitios pueden constituir una red en cualquier dimensión, o pueden combinar grados de
libertad espaciales e internos (p.ej. espín, o polarización).
Los operadores básicos sobre este espacio son los de creación y aniquilación, muy simi-
lares a los empleados para describir el oscilador armónico. Sea a†i el operador que crea una
partícula en el sitio i, y sea ai el operador que la aniquila, definidos por
√
a†i |n1 , · · · , ni , · · · i = ni + 1 |n1 , · · · , ni + 1, · · · i ,
√
ai |n1 , · · · , ni , · · · i = ni |n1 , · · · , ni − 1, · · · i , (7.33)
Supongamos que los sitios considerados están en una cadena unidimensional. Entonces
es posible escribir un Hamiltoniano apropiado para este sistema de la manera siguiente,
L−1
X
H = −t0 a†i ai+1 + a†i+1 ai . (7.35)
i=1
tij a†i aj ,
X
H= (7.36)
i,j
a†i = ∗ †
X X
ai = Uik bk , Uik bk , (7.37)
k k
y reescribimos el Hamiltoniano original en términos de estos operadores,
! !
tij a†i aj ∗ †
εk b†k bk ,
X X X X X
H= = tij Uik bk Ujk0 bk0 = (7.38)
ij ij k k0 k
donde εk son los autovalores de la matriz T . La nueva forma no parece muy diferente de
la anterior, pero es mucho más sencilla. El nuevo Hamiltoniano es una suma de términos
que conmutan entre sí, todos ellos operadores número. Supongamos que nos dicen que el
sistema contiene NP partículas. Entonces, el estado fundamental consistirá en ocupar NP
veces el estado k de autovalor más bajo, es decir:
NP
b†1
|Ψi = |NP , 0, 0, · · · ib = √ |0i . (7.39)
NP !
y podemos escribirlo en la forma original con sólo realizar el cambio, b†1 = i Ui1
P ∗ †
ai . La
energía de este estado no es más que el valor esperado del operador número en el primer
estado-b multiplicado por ε1 , es decir, E = NP ε1 .
¿Y es posible diagonalizar la matriz T en situaciones prácticas? Sí, ya vimos cómo
hacerlo en el ejemplo 1.16.
0 1 0 0 0 0
a† = , a= , n = a† a = , (7.40)
0 0 1 0 0 1
pero en este caso las relaciones de conmutación no son las correctas. El truco consiste en
cambiar los conmutadores por anticonmutadores, y definir {a, a† } = 1. Cuando tenemos
una serie de L sitios, diremos que {ai , a†j } = δij , así que los operadores en distintos sitios
anticonmutan. Eso significa que
o, lo que es lo mismo, importa el orden en el que creemos las partículas, pero sólo a nivel de
una fase global. Las partículas siguen sin tener identidad, son igualmente indistinguibles.
Pero una rotación de π en torno al centro del segmento que las une (intercambiándolas así)
da lugar a un cambio de fase de (−1) en la función de onda global. Eso implica que una
rotación de 2π de cada una de las partículas en torno a ese mismo punto también debe
llevar un cambio de fase de (−1). Eso es sólo posible cuando las partículas tienen espín
semientero, dando lugar a la explicación intuitiva de lo que se conoce como teorema espín-
estadística, que afirma que en 3D las partículas con espín semientero deben comportarse
como fermiones, mientras que las partículas con espín entero deben comportarse como
bosones.
Nótese que el espacio de Fock de para partículas fermiónicas en L sitios tiene dimensión
2 . El motivo es que cada uno de los sitios puede estar únicamente ocupado o vacío. Si el
L
físico. El vacío de Fock es el estado sin partículas. El vacío físico, también llamado vacío
de Dirac, es el estado fundamental del Hamiltoniano que describe el campo, y es un estado
que puede contener un número enorme de partículas, y una complejidad enorme. De hecho,
la energía real del vacío es infinita (si llevamos a cero el corte ultravioleta, ∆x → 0), pero
ese infinito no nos preocupa especialmente, porque no es una cantidad medible. En cambio,
sí son medibles las diferencias de energía del vacío cuando situamos unas placas en él, que
restringen las fluctuaciones en su vecindad. De esa manera se puede medir la fuerza de
Casimir, como la derivada de la energía del vacío con respecto a la distancia entre las
placas, y es un efecto realmente observable.
Los campos que hemos descrito hasta el momento son campos libres, en los que las
partículas meramente se propagan. El mayor interés proviene de los campos en interacción.
Aplicando el proceso de segunda cuantización sobre el Hamiltoniano dado en la ecuación
(7.23) tanto sobre el campo de Dirac como sobre el campo electromagnético da lugar a la
electrodinámica cuántica (quantum electrodynamics, QED), en la que los electrones y
positrones (partículas y antipartículas) interactúan con los fotones. Pero eso es otra historia
que será contada en otro lugar.
Resumen 7.3. Una teoría cuántica relativista consistente debe considerar la posibilidad
de crear o destruir partículas, de manera que el marco teórico preciso para contenerla
debe realizarse en el formalismo de la segunda cuantización, ampliando el espacio de
Hilbert para que pueda contener estados con diferentes números de partículas, llamán-
dose entonces un espacio de Fock. El espacio se contruye a partir del vacío de Fock, |0i,
que contiene cero partículas, actuando con operadores de creación o aniquilación, a†k o
ak , que crean o destruyen una partícula en el estado k. Cuando las partículas son bosó-
nicas tenemos [a†k , ak0 ] = δk,k0 , mientras que si son fermiónicas {a†k , ak0 } = δk,k0 , donde
{a, b} = ab+ba es el anticonmutador de dos operadores. El vacío físico se obtiene como
el estado fundamental de un determinado Hamiltoniano, y no tiene por qué coincidir
con el vacío de Fock.
7.A Problemas
1.- Representación de Feshbach-Villars de la ecuación de Klein-Gordon. Asociemos a
cada solución de la ecuación de KG, ψ, un objeto de dos componentes, Ψ = (φ, χ), con
φ = (1/2)(ψ + (i/m)ψ̇), χ = (1/2)(ψ − (i/m)ψ̇. Se pide demostrar que Ψ cumple una
ecuación de tipo Schrödinger, i∂t Ψ = HΨ con H = mσz − (1/2m)∇2 (σz + iσy ). Nota:
trabajaremos en unidades naturales.
3.- Escribir la ecuación de Dirac en (2+1)D. Esta ecuación tiene una especial relevancia
porque sirve para describir la propagación de electrones a través de ciertos materiales, como
el grafeno.
4.- (a) ¿Pueden existir representaciones de orden impar del álgebra de Clifford? Pista:
tomar determinantes en la ecuación definitoria del álgebra. (b) Encontrar, desde la relación
del álgebra, cuánto debe ser la traza de las matrices γ µ .
5.- Demostrar que no existen matrices que cumplan el álgebra de Clifford en dimensión
2 o 3.
9.- Bosones duros. Considerar un sistema formado por partículas bosónicas que saltan
entre tres sitios que forman un anillo, con amplitudes de salto iguales entre cada par de
sitios. Restringir el problema al caso en el que las ocupaciones de cada sitio no puedan
exceder de uno (bosones duros). Encontrar el estado fundamental del Hamiltoniano, que
correspondería con el vacío físico.
Libros
[1] A. D. Aczel, Entrelazamiento, Ed. Crítica (2004). Un libro ameno que introduce muchos
conceptos modernos con perspectiva histórica.
[2] L. Susskind, A. Friedman, Quantum Mechanics, the theoretical minimum, Basic Books
(2014). Parte del conocido “mínimo teórico” de Leonard Susskind, una gran introducción
a los conceptos básicos de la mecánica cuántica.
[3] J. S. Bell, Speakable and unspeakable in quantum mechanics, Cambridge Univ. Press
(2004). Colección de artículos clave en la creación de la moderna visión de la mecánica
cuántica, especialmente en lo relativo a la parte más formal del temario. Hay traducción
española, J. S. Bell, Lo decible y lo indecible en mecánica cuántica (Alianza Editorial,
colección Alianza Universidad).
• Libros de texto adicionales sobre mecánica cuántica con un nivel similar al de este
curso:
[6] T. Banks, Quantum mechanics: an introduction, CRC Press (2019). Un enfoque mo-
derno, muy completo y próximo a la investigación contemporánea.
[12] D. Lay, Álgebra Lineal y sus aplicaciones, Tercera edición, Pearson (2007).
[14] Se puede programar en C/C++ fácilmente usando las librerías apropiadas, como por
ejemplo HVB, creada en la UNED, http://github.com/jvrlag/hvb.
Artículos
[16] S. Bugajski, Nonlinear quantum mechanics is a classical theory, Int. J. Theor. Phys.
30, 961 (1991).
[17] C.E. Shannon, A mathematical theory of communication, Bell System Tech. J. 27, 379
(1948).
[23] T. Albash, D.A. Lidar, Rev. Mod. Phys. 90, 015002 (2018).
[26] J.I. Cirac, P. Zoller, Quantum computations with cold trapped ions, Phys. Rev. Lett.
74, 4091 (1995).
A E
Decoherencia . . . . . . . . . . . . . . . . . . . . . . . . . . 75 I
Descomposición de Schmidt . . . . . . . . . . . . 59
Desfasajes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Imagen
Desigualdades de Bell . . . . . . . . . . . . . . . . . . 75 de Heisenberg. . . . . . . . . . . . . . . . . . . . . .37
LAPACK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 R
M Redes ópticas . . . . . . . . . . . . . . . . . . . . . . . . . . 99
Relación de incertidumbre . . . . . . . . . . . . . 33
Matrices de Pauli . . . . . . . . . . . . . . . . . . . . . . 21
Representación
Matriz
de posiciones . . . . . . . . . . . . . . . . . . . . . 103
densidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
S . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
S
Medición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .33
Momento angular . . . . . . . . . . . . . . . . . . . . . 121 Sección eficaz . . . . . . . . . . . . . . . . . . . . . . . . . 147
Segunda cuantización . . . . . . . . . . . . . . . . . 175
N
Teleportación cuántica . . . . . . . . . . . . . . . . . 86
O
Teorema
Observable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 de Bloch. . . . . . . . . . . . . . . . . . . . . . . . . .120
Observables compatibles . . . . . . . . . . . . . . . 33 de imposibilidad de clonación . . . . . . 55
Operador de Noether . . . . . . . . . . . . . . . . . . . . . . . 116
creación . . . . . . . . . . . . . . . . . . . . . . . . . . 175 Teoría de representaciones . . . . . . . . . . . . 121
destrucción . . . . . . . . . . . . . . . . . . . . . . . 175
evolución . . . . . . . . . . . . . . . . . . . . . . . . . . 37 V
Hamiltoniano . . . . . . . . . . . . . . . . . . . . . . 21
Valor esperado . . . . . . . . . . . . . . . . . . . . . . . . . 33
hermítico . . . . . . . . . . . . . . . . . . . . . . . . . . 21
momento . . . . . . . . . . . . . . . . . . . . . . . . . 110
posición . . . . . . . . . . . . . . . . . . . . . . . . . . 103
traslación . . . . . . . . . . . . . . . . . . . . . . . . . 110
unitario. . . . . . . . . . . . . . . . . . . . . . . . . . . .37
Oscilador armónico . . . . . . . . . . . . . . . . . . . 135
Polarización . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
Potencial vector . . . . . . . . . . . . . . . . . . . . . . 142
Pozo de potencial . . . . . . . . . . . . . . . . . . . . . 135
Preparación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Producto tensorial . . . . . . . . . . . . . . . . . . . . . 55
Propagador . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
libre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130