Mathematics">
Nothing Special   »   [go: up one dir, main page]

Introducción A Los Procesos Estocásticos y Funciones de Correlacion

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 13

Introducción a los Procesos Estocásticos.

Ejemplo1:
Sea Ω = [0,1] y 𝑤 ∈ Ω. Colocamos 𝑏1 𝑏2 … a la representación binaria de 𝑤. Es decir,
+∞

𝑤 = ∑ 𝑏𝑖 2−𝑖 donde 𝑏𝑖 ∈ {0,1}.


𝑖=1
1
• Si 𝑤1 = 3 , 𝑏2𝑖 = 1, 𝑏2𝑖−1 = 0, 𝑡 = 0, 𝑏1 𝑏2 …2 = 0,010101 …2
• Si 𝑤2 = 0,671875, 𝑏1 = 1, 𝑏2 = 0, 𝑏3 = 1, 𝑏4 = 0, 𝑏5 = 1, 𝑏6 = 1, 𝑏𝑛 = 0, 𝑛 ≥ 7
𝑤2 = 0,1010112
• Si 𝑤3 = 1/7, 𝑏1 = 0, 𝑏2 = 0, 𝑏3 = 1, 𝑏3𝑘+1 = 0, 𝑏3𝑘+2 = 0, 𝑏3𝑘 = 1
Ahora definimos la función 𝒳 (𝑛, 𝑤) = 𝑏𝑛 , 𝑛 ∈ ℕ, donde 𝑏𝑛 es el 𝑛-ésimo dígito de la
representación binaria de 𝑡.

Por ejemplo: 𝒳 (3, 𝑤1 ) = 𝑏3 = 0 𝒳 (4, 𝑤2 ) = 𝑏4 = 0 𝒳 (254, 𝑤3 ) = 𝑏254 = 0


Observe que 𝒳: ℕ × Ω ↦ ℝ y para 𝑛0 fijo y arbitrario, 𝒳 (𝑛0 , 𝑤) ≔ 𝒳𝑛0 (𝑤): Ω ↦ ℝ, es
una función sobre el espacio muestral Ω, que, para nuestros propósitos, haremos que sea
una variable aleatoria con distribución uniforme, es decir 𝒳𝑛 ∼ 𝑈(0,1), 𝒳𝑛 ∼ exp (𝜆)

1
𝒳 (1, 𝑤) = 𝒳1 (𝑤) = 1 ≡ {𝑤 ∈ Ω: 𝑤 = 0,1 … 2 } = [ , 1] .
2
1 1 3
𝒳 (2, 𝑤) = 𝒳2 (𝑤) = 0 ≡ {𝑤 ∈ Ω: 𝑤 = 0, 𝑏1 0 …2 } = [0; ] ∪ [ , ]
4 2 4

1 1 3 1
Calcule 𝑃(𝒳2 (𝑤) = 0) = 𝑃({𝑤 ∈ Ω: 𝑤 = 0, 𝑏1 0 …2 }) = 𝑃 ([0; 4] ∪ [2 , 4]) = 2.
1 1 3 1 1
Calcule 𝑃(𝒳 (1, 𝑤) = 0 ∧ 𝒳 (3, 𝑤) = 1) = 𝑃 ([8 ; 4] ∪ [8 , 2]) = 4

Considerando 𝒳𝑛 ∼ exp(1), hacemos los mismos cálculos:

1 1 3 1/4 3/4
Calcule 𝑃(𝒳2 (𝑤) = 0) = 𝑃 ([0; ] ∪ [ , ]) = ∫0 𝑒 −𝑥 𝑑𝑥 + ∫1/2 𝑒 −𝑥 𝑑𝑥 =
4 2 4

1 1 3 1 1/4 1/2
Calcule 𝑃(𝒳(1, 𝑤) = 0 ∧ 𝒳 (3, 𝑤) = 1) = 𝑃 ([8 ; 4] ∪ [8 , 2]) = ∫1/8 𝑒 −𝑥 𝑑𝑥 + ∫3/8 𝑒 −𝑥 𝑑𝑥 =

De lo anterior, si “juntamos” todas las variables aleatorias 𝒳𝑛 (𝑤), en un conjunto


denotándolo como (𝒳𝑛 )𝑛∈ℕ , será llamado proceso estocástico.
Ahora fijamos 𝑤1 ∈ Ω, se induce la función 𝒳 (𝑛, 𝑤1 ) ≔ 𝑋𝑤1 (𝑛): ℕ ↦ ℝ y vemos que
no es una v.a. Se dice que es una función del tiempo (discreto).
Para 𝑤1 = 1/3 , 𝑋𝑤1 (𝑛) = 𝑏𝑛 , 𝑋𝑤1 (1) = 0, 𝑋𝑤1 (2) = 1, 𝑋𝑤1 (3) = 0, 𝑋𝑤1 (4) = 1, …
Ejemplo2:
Sea Ω = [−1,1] y 𝑇 = ℝ consideremos la función 𝒳: 𝑇 × Ω ↦ ℝ definida por
𝒳(𝑡, 𝑤) = 𝑋(𝑤)sen(2𝜋 𝑡), donde 𝑋 ∼ 𝑈[−1,1].

Fijando 𝑤 ∈ Ω, vemos que 𝒳 (𝑡, 𝑤) = 𝑋𝑤 (𝑡) = 𝑋(𝑤)𝑠𝑒𝑛(2𝜋 𝑡), es una función de variable "𝑡"
si 𝑋(𝑤) = 1/2 o 𝑋(𝑤) = 1/3 o 𝑋(𝑤) = −1/4, tenemos las funciones:

Fijando 𝑡0 ∈ 𝑇, vemos que 𝒳 (𝑡0 , 𝑤) = 𝑋𝑡0 (𝑤) = 𝑠𝑒𝑛(2𝜋 𝑡0 )𝑋(𝑤), es una función
definida en Ω ↦ ℝ, y es una variable aleatoria (¿Por qué?). En ese sentido, hallaremos
la función de distribución y densidad de 𝑋𝑡0 :

Considerando 𝑡0 ∈ 𝑇 tal que 𝑠𝑒𝑛(2𝜋 𝑡0 ) > 0:


𝑢
Sabemos que 𝐹𝑋𝑡0 (𝑢) = 𝑃[𝑋𝑡0 ≤ 𝑢 ] = 𝑃 [𝑠𝑒𝑛(2𝜋 𝑡0 )𝑋 ≤ 𝑢] = 𝑃 (𝑋 ≤ 𝑠𝑒𝑛(2𝜋 𝑡 ))
0

0, 𝑢 < −𝑠𝑒𝑛(2𝜋 𝑡0 )
1 𝑢
𝐹𝑋𝑡0 (𝑢) = [ + 1] , − 𝑠𝑒𝑛(2𝜋 𝑡0 ) ≤ 𝑢 < 𝑠𝑒𝑛(2𝜋 𝑡0 )
2 𝑠𝑒𝑛(2𝜋 𝑡0 )
{ 1, 𝑢 ≥ 𝑠𝑒𝑛(2𝜋 𝑡0 )

Entonces, 𝑋𝑡0 ∼ 𝑈 (−𝑠𝑒𝑛(2𝜋 𝑡0 ), 𝑠𝑒𝑛(2𝜋 𝑡0 ))

−𝑠𝑒𝑛(2𝜋 𝑡0) −𝑠𝑒𝑛(2𝜋 𝑡0)

Considerando 𝑡0 ∈ 𝑇 tal que 𝑠𝑒𝑛(2𝜋 𝑡0 ) = 0, tenemos que 𝑋𝑡0 (𝑤) = 0,


0, 𝑢 < 0
Sabemos que 𝐹𝑋𝑡0 (𝑢) = 𝑃[𝑋𝑡0 ≤ 𝑢 ] = 𝑃 [0 ≤ 1] = {
1, 𝑢 ≥ 0
De lo anterior, si “juntamos” todas las variables aleatorias 𝑋𝑡 (𝑤), en un conjunto
denotándolo como (𝑋𝑡 )𝑡∈𝑇 , será llamado proceso estocástico.
Al estudiar variables aleatorias (o vectores aleatorios) a cada elemento del espacio
muestral le asignamos un número real (o un vector real). Ahora, para el estudio de los
procesos estocásticos, a cada elemento del espacio muestral le corresponde una función
de variable “temporal”. En ese sentido, decimos que estudiar los procesos estocásticos
es estudiar funciones de variable temporal tomadas aleatoriamente.
En resumen, consideremos (Ω, 𝒜, 𝑃) un espacio de probabilidad y definimos una
función estocástica 𝒳: 𝑇 × Ω ↦ ℝ (𝑇 ⊂ ℤ o 𝑇 = 𝐼 un intervalo) donde cada 𝑡 ∈ 𝑇,
inducen variables aleatorias 𝑋𝑡 : Ω ↦ ℝ donde 𝑋𝑡 (𝑤) = 𝒳(𝑡, 𝑤), que agrupándolas en
un conjunto (familia) será llamado proceso estocástico.
Por otra parte, cada 𝑤 ∈ Ω, induce funciones de variable temporal 𝑋𝑤 : 𝑇 ↦ ℝ donde
𝑋𝑤 (𝑡) = 𝒳(𝑡, 𝑤), que se llaman funciones de variable temporal aleatorias.

Ejemplo3:

Sea Ω = [−1,1], 𝑋 ∼ [−𝜋, 𝜋], 𝒳 (𝑡, 𝑤) = cos(2𝜋 𝑡 + 𝑋(𝑤))


Para 𝑡 = 0, 𝒳 (0, 𝑤) = 𝑋0 (𝑤) = cos(𝑋), −1 ≤ 𝑢 < 1

𝐹𝑋𝑜 (𝑢) = 𝑃(𝑋0 ≤ 𝑢) = 𝑃(cos(𝑋) ≤ 𝑢) = 𝑃 (𝑋 ∈ 𝐴1 ∪ 𝐴2 )


= 𝑃(𝑋 ∈ 𝐴1 ) + 𝑃(𝑋 ∈ 𝐴2 )
− arccos(𝑢) 𝜋
1 1
=∫ 𝑑𝑥 + ∫ 𝑑𝑥
−𝜋 2𝜋 arccos(𝑢) 2𝜋
𝜋 − arccos(𝑢)
=
𝜋
1 𝑎𝑟𝑐𝑠𝑒𝑛(𝑢)
= +
2 𝜋
Finalmente,
0, 𝑢 < −1
1 𝑎𝑟𝑐𝑠𝑒𝑛(𝑢)
𝐹𝑋𝑜 (𝑢) = 𝑓 (𝑥 ) = { + , −1 ≤ 𝑢 < 1
2 𝜋
1, 𝑢>1
Definición: [Proceso estocástico]
Sea (Ω, 𝒜, 𝑃), un espacio de probabilidad. Un proceso estocástico es una familia de
variables aleatorias {𝑋𝑡 : 𝑡 ∈ 𝑇}, con 𝑇 ⊆ ℝ.
• Si 𝑇 ⊂ ℤ (generalmente 𝑇 = ℕ) decimos que el proceso estocástico {𝑋𝑡 } es de
tiempo discreto o proceso estocástico discreto.

➢ Si para cada 𝑡 ∈ 𝑇, 𝑋𝑡 es una variable aleatoria discreta, decimos {𝑋𝑡 } es un


proceso estocástico discreto de valores discretos.
➢ Si para cada 𝑡 ∈ 𝑇, 𝑋𝑡 es una variable aleatoria continua, decimos {𝑋𝑡 } es un
proceso estocástico discreto de valores continuos.

• Si 𝑇 es un intervalo (generalmente 𝑇 = [0, +∞)), decimos que el proceso


estocástico {𝑋𝑡 } es de tiempo continuo o proceso estocástico continuo.

➢ Si para cada 𝑡 ∈ 𝑇, 𝑋𝑡 es una variable aleatoria discreta, decimos {𝑋𝑡 } es un


proceso estocástico continuo de valores discretos.
➢ Si para cada 𝑡 ∈ 𝑇, 𝑋𝑡 es una variable aleatoria continua, decimos {𝑋𝑡 } es un
proceso estocástico continuo de valores continuos.
Observación: En cualquier proceso estocástico, cada 𝑋𝑡 , individualmente tiene función
de distribución y de densidad, esperanza matemática, varianza y momentos de orden 𝑘.
Además considerando 𝑋 = (𝑋𝑡1 , 𝑋𝑡2 , … , 𝑋𝑡𝑘 ) un vector aleatorio individual, también
cuenta con función de distribución y de densidad.

Procesos estocásticos estacionarios


En sentido amplio, un tipo de proceso estocástico “predecible” es cuando todas las
variables aleatorias asociadas mantienen constante sus principales elementos como la
función de densidad o distribución, la esperanza matemática, entre otros.
Definición: [Procesos estocásticos estacionarios de orden 1]
Sea (Ω, 𝒜, 𝑃) un espacio de probabilidad y {𝑋𝑡 : 𝑡 ∈ 𝑇} un proceso estocástico. Decimos
que el proceso estocástico es estacionario de orden 1 si para cualquier 𝑡 ∈ 𝑇 y ℎ ∈ ℝ, tal
que 𝑡 + ℎ ∈ 𝑇, se tiene que,
𝑓𝑋𝑡 (𝑥 ) = 𝑓𝑋𝑡+ℎ (𝑥 ).

Es decir, el comportamiento aleatorio de la variable 𝑋𝑡 no cambia pasado un tiempo ℎ.


En efecto,
𝐹𝑋𝑡 (𝑥) = 𝐹𝑋𝑡+ℎ (𝑥)
𝐸 (𝑋𝑡 ) = 𝐸(𝑋𝑡+ℎ )
𝑉𝑎𝑟(𝑋𝑡 ) = 𝑉𝑎𝑟(𝑋𝑡+ℎ )
Globalmente la función de distribución, densidad, esperanza matemática, varianza se
mantienen constantes para las v.a. asociadas al proceso estocástico.
Definición: [Procesos estocásticos estacionarios de orden 2]
Sea (Ω, 𝒜, 𝑃) un espacio de probabilidad y {𝑋𝑡 : 𝑡 ∈ 𝑇} un proceso estocástico. Decimos
que el proceso estocástico es estacionario de orden 2, si para cada para 𝑡, 𝑠 ∈ 𝑇 y ℎ ∈ ℝ,
tal que 𝑡 + ℎ, 𝑠 + ℎ ∈ 𝑇, haciendo 𝑋 = (𝑋𝑡 , 𝑋𝑠 ) y 𝑋 + 𝒉 ≔ (𝑿𝒕+𝒉 , 𝑿𝒔+𝒉 ) se tiene que,
𝑓𝑋 (𝑥1 , 𝑥2 ) = 𝑓𝑋+ℎ (𝑥1 , 𝑥2 ).
Es decir, la densidad conjunta y por ende la distribución conjunta es constante para
(𝑋𝑡 , 𝑋𝑠 ) y (𝑋𝑡 + ℎ, 𝑋𝑠 + ℎ).

Definición: [Procesos estocásticos estacionarios de orden 𝒌]


Sea (Ω, 𝒜, 𝑃) un espacio de probabilidad y {𝑋𝑡 : 𝑡 ∈ 𝑇} un proceso estocástico. Decimos
que el proceso estocástico es estacionario de orden 𝑘, si para cada para {𝑡1 , … , 𝑡𝑘 } ⊂ 𝑇 y
ℎ ∈ ℝ, tal que {𝑡1 + ℎ, … , 𝑡𝑘 + ℎ} ⊂ 𝑇, haciendo 𝑋 = (𝑋𝑡1 , … , 𝑋𝑡𝑘 ) y
𝑋 + ℎ ≔ (𝑋𝑡1 +ℎ , … , 𝑋𝑡𝑘 +ℎ ) se tiene que,
𝑓𝑋 (𝑥1 , … , 𝑥𝑘 ) = 𝑓𝑋+ℎ (𝑥1 , … , 𝑥𝑘 ).
Definición: [Procesos estocásticos fuertemente estacionarios]
Sea (Ω, 𝒜, 𝑃) un espacio de probabilidad y {𝑋𝑡 : 𝑡 ∈ 𝑇} un proceso estocástico. Decimos
que el proceso estocástico es fuertemente estacionario si es estacionario en cualquier
orden 𝑘.
Definición: [Independencia de procesos estocásticos]
Sea (Ω, 𝒜, 𝑃) un espacio de probabilidad y {𝑋𝑡 : 𝑡 ∈ 𝑇} y {𝑌𝑡 : 𝑡 ∈ 𝑇} dos procesos
estocásticos. Decimos que {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 son procesos independientes si para 𝑁
variables aleatorias (tomadas como vector) en 𝑋𝑡 , 𝑋 = (𝑋𝑡1 , 𝑋𝑡2 , … , 𝑋𝑇𝑁 ) y 𝑀 variables
aleatorias (tomadas como vector) en 𝑌𝑡 , 𝑌 = (𝑌𝑡1 , 𝑌𝑡2 , … , 𝑌𝑇𝑀 ) tenemos que

𝑓(𝑋,𝑌) (𝑥, 𝑦) = 𝑓𝑋 (𝑥 ) ⋅ 𝑓𝑌 (𝑦)

Autocorrelación
Conocer el comportamiento “macro” de una señal, modelada mediante un proceso
estocástico, dirige la atención a responder preguntas si la señal se comporta
repetidamente por instantes de tiempos o en palabras simples, ver si hay algún tipo de
periodicidad en el desarrollo de la señal a lo largo de un tiempo determinado.
Definición [Autocorrelación]
Sea {𝑋𝑡 }𝑡∈𝑇 un proceso estocástico (p.e.). La autocorrelación del p.e. {𝑋𝑡 }𝑡∈𝑇 entre los
tiempos 𝑡1 y 𝑡2 (o entre las realizaciones 𝑋𝑡1 y 𝑋𝑡2 ) se define como
𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) ≔ 𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 )

Observación: Se puede ver que la autocorrelación para un p.e. estacionario de orden 2


es una función que solo depende de la diferencia de tiempos 𝑡2 − 𝑡1 .
En efecto, sea 𝜏 = 𝑡2 − 𝑡1 y consideremos las realizaciones 𝑋0 , 𝑋𝜏 , 𝑋𝑡1 y 𝑋𝑡2 , entonces,
𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝑅𝑋𝑋 (𝑡1 , 𝑡1 + 𝜏) = 𝐸(𝑋𝑡1 ⋅ 𝑋𝑡1 +𝜏 ) (𝜑(𝑥𝑡1 , 𝑥𝑡1+𝜏 ) = 𝑥𝑡1 ⋅ 𝑥𝑡1 +𝜏 )
= ∬ 𝑥𝑡1 ⋅ 𝑥𝑡1+𝜏 ⋅ 𝑓(𝑋𝑡 (𝑥𝑡1 , 𝑥𝑡1+𝜏 ) 𝑑𝑥𝑡1 𝑑𝑥𝑡1+𝜏
1 ,𝑋𝑡1 +𝜏 )

= ∬ 𝑥0 ⋅ 𝑥𝜏 ⋅ 𝑓(𝑋0 ,𝑋𝜏) (𝑥0 , 𝑥𝜏 ) 𝑑𝑥0 𝑑𝑥𝜏


= 𝑅𝑋𝑋 (𝑋0 , 𝑋𝜏 ) = 𝑅𝑋𝑋 (𝜏)

En ese sentido, para p.e. de orden 2, denotamos la autocorrelación como


𝑅𝑋𝑋 (𝜏) = 𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) con 𝜏 = 𝑡2 − 𝑡1 .
Ejemplo4:
Sea {𝑋𝑡 : 𝑡 ∈ 𝑇} un proceso estocástico definido por 𝑋𝑡 = 𝑋0 + 𝑡 𝑉 donde 𝑋0 y 𝑉 son
variables aleatorias independientes con distribución uniforme 𝑈 (𝑥0 , 𝑥1 ) y 𝑈(𝑣0 , 𝑣1 )
respectivamente. Calcule la media (esperanza matemática) de cada realización y su
autocorrelación.
Solución: Sea 𝑡 ∈ 𝑇 fijo, tenemos la realización 𝑋𝑡 = 𝑋0 + 𝑡 ⋅ 𝑉, entonces
𝐸 (𝑋𝑡 ) = 𝐸 (𝑋0 + 𝑡 ⋅ 𝑉 ) = 𝐸 (𝑋0 ) + 𝑡 ⋅ 𝐸(𝑉)
𝑥0 + 𝑥1 𝑣0 + 𝑣1
= +𝑡⋅
2 2
Ahora para la autocorrelación, fijamos 𝑡1 y 𝑡2 , tenemos las realizaciones
𝑋1 = 𝑋0 + 𝑡1 𝑉, 𝑋2 = 𝑋0 + 𝑡2 𝑉, entonces calculamos la autocorrelación de estas:

𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝐸 (𝑋1 ⋅ 𝑋2 ) = 𝐸((𝑋0 + 𝑡1 𝑉 )(𝑋0 + 𝑡2 𝑉 ))


= 𝐸 (𝑋02 + (𝑡1 + 𝑡2 )𝑋0 𝑉 + 𝑡1 𝑡2 𝑉 2 )
= 𝐸 (𝑋02 ) + (𝑡1 + 𝑡2 )𝐸 (𝑋0 𝑉 ) + 𝑡1 𝑡2 𝐸 (𝑉 2 )
= ∫ 𝑥 2 𝑓𝑋0 (𝑥)𝑑𝑥 + (𝑡1 + 𝑡2 )𝐸 (𝑋0 )𝐸 (𝑉 ) + 𝑡1 𝑡2 ∫ 𝑥 2 𝑓𝑉 (𝑥)𝑑𝑥
𝑥13 − 𝑥03 𝑥0 + 𝑥1 𝑣0 + 𝑣1 𝑣13 − 𝑣03
= + (𝑡1 + 𝑡2 ) ( )( ) + 𝑡1 𝑡2
3(𝑥1 − 𝑥0 ) 2 2 3(𝑣1 − 𝑣0 )
Nota:
No siempre se podrá modelar un fenómeno mediante un p.e. {𝑋𝑡 }𝑡∈𝑇 de orden 1 u orden
2, en ese sentido, no se podrá tener certeza que en dicho p.e. se tenga
𝐸 (𝑋𝑡 ) = 𝑘 (cte)
𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝑅𝑋𝑋 (𝜏) (𝜏 = 𝑡2 − 𝑡1 )
Pero diremos que un p.e. {𝑋𝑡 }𝑡∈𝑇 es estacionario en sentido amplio si cumple ambas
condiciones.
Ejemplo:
Probar que el p.e. {𝑋𝑡 = 𝐴𝑐𝑜𝑠(𝑤0 𝑡 + Θ)}𝑡∈𝑇 es estacionario en sentido amplio, donde
Θ ∼ 𝑈(0, 2𝜋).
Solución: Fijando 𝑡 ∈ 𝑇, tenemos la variable aleatoria 𝑋𝑡 = 𝐴𝑐𝑜𝑠(𝑤0 𝑡 + Θ),
calculamos,
2𝜋
𝐴
𝐸 (𝑋𝑡 ) = 𝐸 (𝐴 cos(𝑤0 𝑡 + Θ)) = ∫ cos(𝑤𝑡 + 𝜃)𝑑𝜃 = 0
2𝜋
0
Fijando 𝑡1 , 𝑡2 ∈ 𝑇, 𝑦 𝜏 = 𝑡2 − 𝑡1 , calculamos la autocorrelación:
𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝐸 (𝑋1 ⋅ 𝑋2 ) = 𝐸 (𝐴 cos(𝑤0 𝑡1 + Θ) ⋅ 𝐴 cos(𝑤0 𝑡2 + Θ))
𝐴2
= 𝐸 (2 cos(𝑤0 𝑡1 + Θ) ⋅ cos(𝑤0 𝑡2 + Θ))
2
𝐴2
= 𝐸(cos(𝑤0 (𝑡1 − 𝑡2 )) + cos(𝑤0 (𝑡1 + 𝑡2 ) + 2Θ))
2
𝐴2
= [𝐸(𝐜𝐨𝐬(𝒘𝟎 (𝝉))) + 𝐸 (cos(𝑤0 (𝑡1 + 𝑡2 ) + 2Θ))]
2
𝐴2
= cos(𝑤0 𝜏) = 𝑅𝑋𝑋 (𝜏)
2
Correlación cruzada
Al modelar un problema mediante p.e. podemos encontrarnos con la situación que se
conozca de manera explícita las características de una señal modelada por el p.e 𝑋𝑡 pero
no sea tan fácil conocer las características de otra señal modelada por el p.e. 𝑌𝑡 , la
correlación cruzada es una medida que nos informa sobre lo “parecidas” que son estas
señales.
Definición: [Correlación cruzada]
Sean {𝑋𝑡 }𝑡∈𝑇 𝑦 {𝑌𝑡 }𝑡∈𝑇 dos p.e. Se define la correlación cruzada entre {𝑋𝑡 } e {𝑌𝑡 } entre
los tiempos 𝑡1 y 𝑡2 a
𝑅𝑋𝑌 (𝑡1 , 𝑡2 ) = 𝐸(𝑋𝑡1 ⋅ 𝑌𝑡2 ) = 𝑅𝑋𝑌 (𝑡1 , 𝑡1 + 𝜏)

donde 𝜏 = 𝑡2 − 𝑡1 .
Observación: La autocorrelación es la correlación cruzada de una señal consigo misma.
Definición: [conjuntamente estacionario en sentido amplio]
Los p.e. {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 se dicen que son conjuntamente estacionarios en sentido
amplio si cada uno es estacionario en sentido amplio y además la correlación cruzadas
de ambas solo depende de la diferencia de tiempo, es decir
• 𝐸 (𝑋𝑡 ) = 𝑘 (cte.), 𝐸 (𝑌𝑡 ) = 𝑞 (cte.)
• 𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝑅𝑋𝑋 (𝑡1 , 𝑡1 + 𝜏) = 𝑅𝑋𝑋 (𝜏), 𝑅𝑌𝑌 (𝑡1 , 𝑡2 ) = 𝑅𝑌𝑌 (𝑡1 , 𝑡1 + 𝜏) = 𝑅𝑌𝑌 (𝜏)
• 𝑅𝑋𝑌 (𝑡1 , 𝑡2 ) = 𝑅𝑋𝑌 (𝑡1 , 𝑡1 + 𝜏) = 𝑅𝑋𝑌 (𝜏) (no depende de 𝑡1 , 𝑡2 solo de 𝜏 = 𝑡2 − 𝑡1 )

Tiempo promedio y Ergodicidad


Para esta sección tomaremos funciones 𝑥(𝑡) donde 𝑡 sea el “tiempo”.
Definición [Tiempo promedio]
Dada una función 𝑥: ℝ ↦ ℝ, se define el tiempo promedio de 𝑥, al número
𝑇
1
𝐴[𝑥(𝑡)] = lim ⋅ ∫ 𝑥(𝑡) 𝑑𝑡
𝑇→+∞ 2𝑇 −𝑇

También lo denotamos por 𝑥̅ = 𝐴[𝑥(𝑡)]


Observe que esta definición se asemeja a la esperanza matemática.
Definición [Función de autocorrelación temporal]
Dada una función 𝑥: ℝ ↦ ℝ, se define la autocorrelación temporal de 𝑥 a
𝑇
1
ℛ𝑥𝑥 (𝜏) = 𝐴[𝑥 (𝑡)𝑥(𝑡 + 𝜏)] = lim ⋅ ∫ 𝑥(𝑡)𝑥(𝑡 + 𝜏) 𝑑𝑡
𝑇→+∞ 2𝑇 −𝑇

Observación:
Para cualquier función 𝑥(𝑡), el tiempo promedio y la autocorrelación temporal son
solamente números. Pero al considerar todas las funciones posibles (asociadas a un p.e.
{𝑋𝑡 }𝑡∈𝑇 ) tenemos que 𝐴[𝑥(𝑡)] y ℛ𝑥𝑥 (𝜏) son variables aleatorias.

En ese sentido, podemos hallar la esperanza matemática de estas nuevas variables


aleatorias:
𝑇 𝑇
1 1
∗ 𝐸 [𝑥̅ ] = 𝐸 (𝐴[𝑥(𝑡)]) = 𝐸 ( lim ⋅ ∫ 𝑥 (𝑡) 𝑑𝑡) = lim ⋅ ∫ 𝐸(𝑥(𝑡)) 𝑑𝑡
𝑇→+∞ 2𝑇 −𝑇 𝑇→+∞ 2𝑇 −𝑇
= 𝐸(𝑥(𝑡))
𝑇
1
∗ 𝐸(ℛ𝑥𝑥 (𝜏)) = 𝐸 (𝐴[𝑥(𝑡)𝑥(𝑡 + 𝜏)]) = 𝐸 ( lim ⋅ ∫ 𝑥(𝑡)𝑥(𝑡 + 𝜏) 𝑑𝑡)
𝑇→+∞ 2𝑇 −𝑇
𝑇
1
= lim ⋅ ∫ 𝐸(𝑥(𝑡)𝑥(𝑡 + 𝜏)) 𝑑𝑡 = 𝐸(𝑥(𝑡)𝑥(𝑡 + 𝜏))
𝑇→+∞ 2𝑇 −𝑇

Procesos estocásticos ergódicos


Un p.e. {𝑋𝑡 }𝑡∈𝑇 se dice que es ergódico si satisface que:
• 𝐴(𝑥(𝑡)) = 𝐸 (𝑋𝑡 ), ∀𝑡 ∈ 𝑇
• ℛ𝑥𝑥 (𝜏) = 𝑅𝑋𝑋 (𝜏)
Observe que un p.e. ergódico es un proceso estacionario en sentido amplio, que, por lo
general, su estudio es más específico. Por lo general para evitar complicaciones, se
trabajará con p.e. ergódicos.
También podemos darle una noción de ergodicidad cuando tengamos dos p.e.

Ergodicidad conjunta
Función de correlación temporal cruzada
Sean dos funciones 𝑥: ℝ ↦ ℝ e 𝑦: ℝ ↦ ℝ de variable “temporal”, se define la
correlación temporal cruzada entre 𝑥 e 𝑦 a
𝑇
1
( ) [ ( ) ( )]
ℛ𝑥𝑦 𝜏 = 𝐴 𝑥 𝑡 𝑦 𝑡 + 𝜏 = lim ⋅ ∫ 𝑥(𝑡)𝑦(𝑡 + 𝜏) 𝑑𝑡
𝑇→+∞ 2𝑇 −𝑇

Definición [Conjuntamente ergódico]


Sean dos funciones 𝑥: ℝ ↦ ℝ e 𝑦: ℝ ↦ ℝ de variable “temporal” asociadas a los p.e.
{𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 , se dice que estos p.e. son conjuntamente ergódicos si
𝑇
1
ℛ𝑥𝑦 (𝜏) = lim ⋅ ∫ 𝑥(𝑡)𝑦(𝑡 + 𝜏) 𝑑𝑡 = 𝑅𝑋𝑌 (𝜏)
𝑇→+∞ 2𝑇 −𝑇

Propiedades de las funciones de correlación


Anteriormente ya hemos definido la autocorrelación y correlación cruzada. Ahora
veremos algunas propiedades que permiten caracterizar los procesos estocásticos.
Autocorrelación
Sea (Ω, 𝒜, 𝑃) un espacio de probabilidad y {𝑋𝑡 }𝑡∈𝑇 un proceso estocástico, habíamos
definido la autocorrelación del p.e. {𝑋𝑡 }𝑡∈𝑇 en los tiempos 𝑡1 y 𝑡2 a
𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 )

y si el p.e. es estacionario en sentido amplio, esta autocorrelación depende solo de la


diferencia del tiempo 𝜏 = 𝑡2 − 𝑡1 , es decir, para cualquier 𝜏 que sea la diferencia entre
dos tiempos 𝑡1 , 𝑡2 cualesquiera (𝜏 = 𝑡2 − 𝑡1 ), se tiene
𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝑅𝑋𝑋 (𝜏).
Observación: Considerando 𝑋𝑡1 , 𝑋𝑡2 tenemos que:
2
0 ≤ 𝐸 ((𝑋𝑡1 − 𝑋𝑡2 ) ) = 𝐸(𝑋𝑡21 + 𝑋𝑡22 − 2𝑋𝑡1 ⋅ 𝑋𝑡2 )
0 ≤ 𝐸(𝑋𝑡21 ) + 𝐸(𝑋𝑡22 ) − 2𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 )
2𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) ≤ 𝐸(𝑋𝑡21 ) + 𝐸(𝑋𝑡22 )

También,
2
0 ≤ 𝐸 ((𝑋𝑡1 + 𝑋𝑡2 ) ) = 𝐸(𝑋𝑡21 + 𝑋𝑡22 + 2𝑋𝑡1 ⋅ 𝑋𝑡2 )
0 ≤ 𝐸(𝑋𝑡21 ) + 𝐸(𝑋𝑡22 ) + 2𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 )
−2𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) ≤ 𝐸(𝑋𝑡21 ) + 𝐸(𝑋𝑡22 )

De ambas desigualdades tenemos que


2|𝑅𝑋𝑋 (𝑡1 , 𝑡2 )| ≤ 𝐸(𝑋𝑡21 ) + 𝐸(𝑋𝑡22 ) (∗)

Propiedades
Considerando {𝑋𝑡 }𝑡∈𝑇 un p.e. estacionario en sentido amplio, tenemos:
1. |𝑅𝑋𝑋 (𝜏)| ≤ 𝑅𝑋𝑋 (0) y 𝑅𝑋𝑋 (0) = 𝐸 (𝑋𝑡2 ), ∀𝑡 ∈ 𝑇
2. 𝑅𝑋𝑋 (−𝜏) = 𝑅𝑋𝑋 (𝜏)
Observación: 𝑅𝑋𝑋 (0) es llamado potencia media del p.e.
Demostración:
(1) Considerando 𝑋𝑡 y 𝑋𝑡+𝜏 , de (∗) tenemos
2|𝑅𝑋𝑋 (𝑡, 𝑡 + 𝜏)| ≤ 𝐸 (𝑋𝑡2 ) + 𝐸 (𝑋𝑡+𝜏
2 )

2|𝑅𝑋𝑋 (𝜏)| ≤ 𝐸 (𝑋02 ) + 𝐸 (𝑋02 )


|𝑅𝑋𝑋 (𝜏)| ≤ 𝐸 (𝑋02 ) = 𝑅𝑋𝑋 (0)
(2) Sea 𝑠 = 𝑡 − 𝜏, por definición
𝑅𝑋𝑋 (−𝜏) = 𝐸 (𝑋𝑡 ⋅ 𝑋𝑡−𝜏 ) = 𝐸 (𝑋𝑠+𝜏 ⋅ 𝑋𝑠 ) = 𝐸 (𝑋𝑠 ⋅ 𝑋𝑠+𝜏 ) = 𝑅𝑋𝑋 (𝜏)
3. Si {𝑋𝑡 }𝑡∈𝑇 un p.e. ergódico sin componentes periódicos y 𝐸 (𝑋𝑡 ) ≠ 0, entonces
lim 𝑅𝑋𝑋 (𝜏) = 𝐸 (𝑋𝑡 )2
|𝜏|→∞
4. Si {𝑋𝑡 }𝑡∈𝑇 un p.e. ergódico sin componentes periódicos y 𝐸 (𝑋𝑡 ) = 0, entonces
lim 𝑅𝑋𝑋 (𝜏) = 0
|𝜏|→∞

Ejemplo 5:
Sea {𝑋𝑡 }𝑡∈𝑇 un p.e. ergódico sin componentes periódicos. Sea la función de
4
autocorrelación definida por 𝑅𝑋𝑋 (𝜏) = 25 + ( )
2 , halle 𝐸(𝑋𝑡 ) y 𝑉𝑎𝑟 𝑋𝑡 .
1+6𝜏

Solución: Al cumplir la condición de la propiedad (3), tenemos que


𝐸 (𝑋𝑡 )2 = lim 𝑅𝑋𝑋 (𝜏) = 25
|𝜏|→∞
entonces 𝐸 (𝑋𝑡 ) = ±5.
Por definición, la varianza es 𝑉𝑎𝑟(𝑋𝑡 ) = 𝐸 (𝑋𝑡2 ) − 𝐸 (𝑋𝑡 )2
pero, 𝐸 (𝑋𝑡2 ) = 𝑅𝑋𝑋 (0) = 29, finalmente 𝑉𝑎𝑟(𝑋𝑡 ) = 29 − 25 = 4.
Ejemplo 6:
Sea {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 dos p.e. estacionarios sentido amplio y 𝑎 > 0. La función de
autocorrelación de 𝑋𝑡 está definida por
𝑅𝑋𝑋 (𝜏) = 𝑒 −𝑎|𝜏|
Considerando el sistema donde 𝑋𝑡 modula la amplitud a una señal (aleatoria)
cos(𝑤0 𝑡 + Θ) con Θ ∼ (−𝜋, 𝜋) donde ∀𝑡 ∈ 𝑇: 𝑋𝑡 𝑦 Θ son independientes.
𝑋𝑡 𝑌𝑡

cos(𝑤0 𝑡 + Θ)
Halle la función de autocorrelación de 𝑌𝑡 .
Solución:
Se observa que 𝑌𝑡 = 𝑋𝑡 ⋅ cos(𝑤0 𝑡 + Θ), fijamos 𝑡1 , 𝑡2 ∈ 𝑇 y tenemos lo siguiente
𝑌𝑡1 = 𝑋𝑡1 ⋅ cos(𝑤0 𝑡1 + Θ)
𝑌𝑡2 = 𝑋𝑡2 ⋅ cos(𝑤0 𝑡2 + Θ)

𝑅𝑌𝑌 (𝑡1 , 𝑡2 ) = 𝐸(𝑋𝑡1 ⋅ cos(𝑤0 𝑡1 + Θ) ⋅ 𝑋𝑡2 ⋅ cos(𝑤0 𝑡2 + Θ))


= 𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 ⋅ cos(𝑤0 𝑡1 + Θ) ⋅ cos(𝑤0 𝑡2 + Θ))
1
= 𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 [cos(𝑤0 (𝑡1 + 𝑡2 ) + 2Θ) + cos(𝑤0 (𝑡1 − 𝑡2 ))])
2
1
= {𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 ⋅ cos(𝑤0 (𝑡1 + 𝑡2 ) + 2Θ)) + 𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 ⋅ cos(𝑤0 (𝑡2 − 𝑡1 )))}
2
cos(𝑤0 (𝑡2 − 𝑡1 )) 1
= 𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 ) + 𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 )𝐸(cos(𝑤0 (𝑡1 + 𝑡2 ) + 2Θ))
2 2
cos(𝑤0 (𝑡2 − 𝑡1 )) 1
= 𝑅𝑋𝑋 (𝜏) + 𝑅𝑋𝑋 (𝜏)𝐸(cos(𝑤0 (𝑡1 + 𝑡2 ) + 2Θ))
2 2
𝑅𝑋𝑋 (𝜏) 𝑒 −𝑎|𝜏|
= (
[cos(𝑤0 𝜏 ))] = cos(𝑤0 𝜏)
2 2

Correlación cruzada
Sea (Ω, 𝒜, 𝑃) un espacio de probabilidad y {𝑋𝑡 }𝑡∈𝑇 ,{𝑌𝑡 }𝑡∈𝑇 dos procesos estocásticos,
habíamos definido la correlación de estos p.e. en los tiempos 𝑡1 y 𝑡2 como
𝑅𝑋𝑌 (𝑡1 , 𝑡2 ) = 𝐸(𝑋𝑡1 ⋅ 𝑌𝑡2 )

y si los p.e. son estacionario en sentido amplio, esta correlación cruzada depende solo
de la diferencia del tiempo 𝜏 = 𝑡2 − 𝑡1 , es decir, para cualquier 𝜏 que sea la diferencia
entre dos tiempos 𝑡1 , 𝑡2 cualesquiera (𝜏 = 𝑡2 − 𝑡1 ), se tiene
𝑅𝑋𝑌 (𝑡1 , 𝑡2 ) = 𝑅𝑋𝑌 (𝜏).
Definición [Procesos ortogonales]
Sean {𝑋𝑡 }𝑡∈𝑇 ,{𝑌𝑡 }𝑡∈𝑇 dos p.e. Se dice que son ortogonales si 𝑅𝑋𝑌 (𝑡, 𝑡 + 𝜏) = 0
Observación: Si {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 son p.e. independientes, entonces
𝑅𝑋𝑌 (𝑡, 𝑡 + 𝜏) = 𝐸 (𝑋𝑡 ) ⋅ 𝐸 (𝑌𝑡+𝜏 )
Y si son estacionarios en sentido amplio, tenemos que
𝑅𝑋𝑌 (𝑡, 𝑡 + 𝜏) = 𝐸 (𝑋𝑡 ) ⋅ 𝐸 (𝑌𝑡+𝜏 ) 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
Propiedades:
Considerando {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 dos p.e. estacionarios conjuntamente en sentido amplio,
tenemos:
1. 𝑅𝑋𝑌 (−𝜏) = 𝑅𝑌𝑋 (𝜏)
1
2. |𝑅𝑋𝑌 (𝜏)| ≤ √𝑅𝑋𝑋 (0) ⋅ 𝑅𝑌𝑌 (0) ≤ 2 [𝑅𝑋𝑋 (0) + 𝑅𝑌𝑌 (0)]

Ejemplo 7:
Sean {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 dos p.e. definidos por
𝑋𝑡 = 𝐴 cos(𝑤0 𝑡) + 𝐵 sen(𝑤0 𝑡)
𝑌𝑡 = 𝐵 cos(𝑤0 𝑡) − 𝐴 sen(𝑤0 𝑡)
donde 𝐴, 𝐵 son variables aleatorias.
Muestre que 𝑋𝑡 es estacionario en sentido amplio si 𝐴 y 𝐵 no son correlacionados
(𝑐𝑜𝑣(𝐴, 𝐵) = 0), 𝐸 (𝐴) = 𝐸 (𝐵) = 0, 𝑉𝑎𝑟(𝐴) = 𝑉𝑎𝑟(𝐵).
Además demuestre que 𝑋𝑡 y 𝑌𝑡 son conjuntamente estacionarios en sentido amplio.
Solución:

𝐸 (𝑋𝑡 ) = 𝐸(𝐴 cos(𝑤0 𝑡) + 𝐵 sen(𝑤0 𝑡)) = cos(𝑤0 𝑡) ⋅ 𝐸 (𝐴) + sen(𝑤0 𝑡) ⋅ 𝐸 (𝐵) = 0.

𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝐸 ((𝐴 cos(𝑤0 𝑡1 ) + 𝐵 sen(𝑤0 𝑡1 )) ⋅ (𝐴 cos(𝑤0 𝑡2 ) + 𝐵 sen(𝑤0 𝑡2 )))


= 𝐸 (𝐴2 cos(𝑤0 𝑡1 ) cos(𝑤0 𝑡2 ) + 𝐵2 sen(𝑤0 𝑡1 ) sen(𝑤0 𝑡2 )
+ 𝐴𝐵 cos(𝑤0 𝑡1 )𝑠𝑒𝑛(𝑤0 𝑡2 ) + 𝐴𝐵 sen(𝑤0 𝑡1 )𝑐𝑜𝑠(𝑤0 𝑡2 ))
= cos(𝑤0 𝑡1 ) cos(𝑤0 𝑡2 ) 𝐸 (𝐴2 ) + sen(𝑤0 𝑡1 ) sen(𝑤0 𝑡2 ) 𝐸 (𝐵2 )
+ (cos(𝑤0 𝑡1 )𝑠𝑒𝑛(𝑤0 𝑡2 ) + sen(𝑤0 𝑡1 )𝑐𝑜𝑠(𝑤0 𝑡2 ) 𝐸 (𝐴𝐵))
= cos(𝑤0 𝑡1 ) cos(𝑤0 𝑡2 ) 𝐸 (𝐴2 ) + sen(𝑤0 𝑡1 ) sen(𝑤0 𝑡2 ) 𝐸 (𝐵2 )
1
= [2 cos(𝑤0 𝑡1 ) cos(𝑤0 𝑡2 ) + 2sen(𝑤0 𝑡1 ) sen(𝑤0 𝑡2 )]𝐸(𝐴2 )
2
= cos(𝑤0 (𝑡1 − 𝑡2 ))𝐸(𝐴2 )
= 𝐸 (𝐴2 ) cos(𝑤0 𝜏)
Falta completar!
Función de covarianza
En esta parte, extenderemos la definición de covarianza para dos p.e.
Definición [Función de Autocovarianza]
Sea {𝑋𝑡 }𝑡∈𝑇 un p.e. la autocovarianza {𝑋𝑡 }𝑡∈𝑇 entre los tiempos 𝑡1 y 𝑡2 se define como

𝐶𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝐸([𝑋𝑡1 − 𝐸(𝑋𝑡1 )] ⋅ [𝑋𝑡2 − 𝐸(𝑋𝑡2 )]).

Observación: Fácilmente notamos que:


𝐶𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) − 𝐸 (𝑋𝑡 )𝐸 (𝑋𝑡+𝜏 )
y si 𝜏 = 0, tenemos 𝐶𝑋𝑋 (𝑡1 , 𝑡1 ) = 𝑉𝑎𝑟(𝑋𝑡 )
Si {𝑋𝑡 }𝑡∈𝑇 es estacionario en sentido amplio, entonces
Definición [Función de covarianza cruzada]
Sea {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 dos p.e. la covarianza cruzada de {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 entre los
tiempos 𝑡1 y 𝑡2 se define como

𝐶𝑋𝑌 (𝑡1 , 𝑡2 ) = 𝐸([𝑋𝑡1 − 𝐸(𝑋𝑡1 )] ⋅ [𝑌𝑡2 − 𝐸(𝑌𝑡2 )]).

Observación: Fácilmente notamos que:


𝐶𝑋𝑌 (𝑡1 , 𝑡2 ) = 𝑅𝑋𝑌 (𝑡1 , 𝑡2 ) − 𝐸(𝑋𝑡1 )𝐸(𝑌𝑡2 )

Si {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 son estacionario en sentido amplio, entonces


Definición [Procesos estocásticos no correlacionado]
Sea {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 dos p.e. se dice que los procesos son no correlacionados si
𝐶𝑋𝑌 (𝑡1 , 𝑡2 ) = 0.
De la definición, observamos que 𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝐸 (𝑋𝑡 )𝐸 (𝑋𝑡+𝜏 ).

También podría gustarte