Mathematics">
Introducción A Los Procesos Estocásticos y Funciones de Correlacion
Introducción A Los Procesos Estocásticos y Funciones de Correlacion
Introducción A Los Procesos Estocásticos y Funciones de Correlacion
Ejemplo1:
Sea Ω = [0,1] y 𝑤 ∈ Ω. Colocamos 𝑏1 𝑏2 … a la representación binaria de 𝑤. Es decir,
+∞
1
𝒳 (1, 𝑤) = 𝒳1 (𝑤) = 1 ≡ {𝑤 ∈ Ω: 𝑤 = 0,1 … 2 } = [ , 1] .
2
1 1 3
𝒳 (2, 𝑤) = 𝒳2 (𝑤) = 0 ≡ {𝑤 ∈ Ω: 𝑤 = 0, 𝑏1 0 …2 } = [0; ] ∪ [ , ]
4 2 4
1 1 3 1
Calcule 𝑃(𝒳2 (𝑤) = 0) = 𝑃({𝑤 ∈ Ω: 𝑤 = 0, 𝑏1 0 …2 }) = 𝑃 ([0; 4] ∪ [2 , 4]) = 2.
1 1 3 1 1
Calcule 𝑃(𝒳 (1, 𝑤) = 0 ∧ 𝒳 (3, 𝑤) = 1) = 𝑃 ([8 ; 4] ∪ [8 , 2]) = 4
1 1 3 1/4 3/4
Calcule 𝑃(𝒳2 (𝑤) = 0) = 𝑃 ([0; ] ∪ [ , ]) = ∫0 𝑒 −𝑥 𝑑𝑥 + ∫1/2 𝑒 −𝑥 𝑑𝑥 =
4 2 4
1 1 3 1 1/4 1/2
Calcule 𝑃(𝒳(1, 𝑤) = 0 ∧ 𝒳 (3, 𝑤) = 1) = 𝑃 ([8 ; 4] ∪ [8 , 2]) = ∫1/8 𝑒 −𝑥 𝑑𝑥 + ∫3/8 𝑒 −𝑥 𝑑𝑥 =
Fijando 𝑤 ∈ Ω, vemos que 𝒳 (𝑡, 𝑤) = 𝑋𝑤 (𝑡) = 𝑋(𝑤)𝑠𝑒𝑛(2𝜋 𝑡), es una función de variable "𝑡"
si 𝑋(𝑤) = 1/2 o 𝑋(𝑤) = 1/3 o 𝑋(𝑤) = −1/4, tenemos las funciones:
Fijando 𝑡0 ∈ 𝑇, vemos que 𝒳 (𝑡0 , 𝑤) = 𝑋𝑡0 (𝑤) = 𝑠𝑒𝑛(2𝜋 𝑡0 )𝑋(𝑤), es una función
definida en Ω ↦ ℝ, y es una variable aleatoria (¿Por qué?). En ese sentido, hallaremos
la función de distribución y densidad de 𝑋𝑡0 :
0, 𝑢 < −𝑠𝑒𝑛(2𝜋 𝑡0 )
1 𝑢
𝐹𝑋𝑡0 (𝑢) = [ + 1] , − 𝑠𝑒𝑛(2𝜋 𝑡0 ) ≤ 𝑢 < 𝑠𝑒𝑛(2𝜋 𝑡0 )
2 𝑠𝑒𝑛(2𝜋 𝑡0 )
{ 1, 𝑢 ≥ 𝑠𝑒𝑛(2𝜋 𝑡0 )
Ejemplo3:
Autocorrelación
Conocer el comportamiento “macro” de una señal, modelada mediante un proceso
estocástico, dirige la atención a responder preguntas si la señal se comporta
repetidamente por instantes de tiempos o en palabras simples, ver si hay algún tipo de
periodicidad en el desarrollo de la señal a lo largo de un tiempo determinado.
Definición [Autocorrelación]
Sea {𝑋𝑡 }𝑡∈𝑇 un proceso estocástico (p.e.). La autocorrelación del p.e. {𝑋𝑡 }𝑡∈𝑇 entre los
tiempos 𝑡1 y 𝑡2 (o entre las realizaciones 𝑋𝑡1 y 𝑋𝑡2 ) se define como
𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) ≔ 𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 )
donde 𝜏 = 𝑡2 − 𝑡1 .
Observación: La autocorrelación es la correlación cruzada de una señal consigo misma.
Definición: [conjuntamente estacionario en sentido amplio]
Los p.e. {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 se dicen que son conjuntamente estacionarios en sentido
amplio si cada uno es estacionario en sentido amplio y además la correlación cruzadas
de ambas solo depende de la diferencia de tiempo, es decir
• 𝐸 (𝑋𝑡 ) = 𝑘 (cte.), 𝐸 (𝑌𝑡 ) = 𝑞 (cte.)
• 𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) = 𝑅𝑋𝑋 (𝑡1 , 𝑡1 + 𝜏) = 𝑅𝑋𝑋 (𝜏), 𝑅𝑌𝑌 (𝑡1 , 𝑡2 ) = 𝑅𝑌𝑌 (𝑡1 , 𝑡1 + 𝜏) = 𝑅𝑌𝑌 (𝜏)
• 𝑅𝑋𝑌 (𝑡1 , 𝑡2 ) = 𝑅𝑋𝑌 (𝑡1 , 𝑡1 + 𝜏) = 𝑅𝑋𝑌 (𝜏) (no depende de 𝑡1 , 𝑡2 solo de 𝜏 = 𝑡2 − 𝑡1 )
Observación:
Para cualquier función 𝑥(𝑡), el tiempo promedio y la autocorrelación temporal son
solamente números. Pero al considerar todas las funciones posibles (asociadas a un p.e.
{𝑋𝑡 }𝑡∈𝑇 ) tenemos que 𝐴[𝑥(𝑡)] y ℛ𝑥𝑥 (𝜏) son variables aleatorias.
Ergodicidad conjunta
Función de correlación temporal cruzada
Sean dos funciones 𝑥: ℝ ↦ ℝ e 𝑦: ℝ ↦ ℝ de variable “temporal”, se define la
correlación temporal cruzada entre 𝑥 e 𝑦 a
𝑇
1
( ) [ ( ) ( )]
ℛ𝑥𝑦 𝜏 = 𝐴 𝑥 𝑡 𝑦 𝑡 + 𝜏 = lim ⋅ ∫ 𝑥(𝑡)𝑦(𝑡 + 𝜏) 𝑑𝑡
𝑇→+∞ 2𝑇 −𝑇
También,
2
0 ≤ 𝐸 ((𝑋𝑡1 + 𝑋𝑡2 ) ) = 𝐸(𝑋𝑡21 + 𝑋𝑡22 + 2𝑋𝑡1 ⋅ 𝑋𝑡2 )
0 ≤ 𝐸(𝑋𝑡21 ) + 𝐸(𝑋𝑡22 ) + 2𝐸(𝑋𝑡1 ⋅ 𝑋𝑡2 )
−2𝑅𝑋𝑋 (𝑡1 , 𝑡2 ) ≤ 𝐸(𝑋𝑡21 ) + 𝐸(𝑋𝑡22 )
Propiedades
Considerando {𝑋𝑡 }𝑡∈𝑇 un p.e. estacionario en sentido amplio, tenemos:
1. |𝑅𝑋𝑋 (𝜏)| ≤ 𝑅𝑋𝑋 (0) y 𝑅𝑋𝑋 (0) = 𝐸 (𝑋𝑡2 ), ∀𝑡 ∈ 𝑇
2. 𝑅𝑋𝑋 (−𝜏) = 𝑅𝑋𝑋 (𝜏)
Observación: 𝑅𝑋𝑋 (0) es llamado potencia media del p.e.
Demostración:
(1) Considerando 𝑋𝑡 y 𝑋𝑡+𝜏 , de (∗) tenemos
2|𝑅𝑋𝑋 (𝑡, 𝑡 + 𝜏)| ≤ 𝐸 (𝑋𝑡2 ) + 𝐸 (𝑋𝑡+𝜏
2 )
Ejemplo 5:
Sea {𝑋𝑡 }𝑡∈𝑇 un p.e. ergódico sin componentes periódicos. Sea la función de
4
autocorrelación definida por 𝑅𝑋𝑋 (𝜏) = 25 + ( )
2 , halle 𝐸(𝑋𝑡 ) y 𝑉𝑎𝑟 𝑋𝑡 .
1+6𝜏
cos(𝑤0 𝑡 + Θ)
Halle la función de autocorrelación de 𝑌𝑡 .
Solución:
Se observa que 𝑌𝑡 = 𝑋𝑡 ⋅ cos(𝑤0 𝑡 + Θ), fijamos 𝑡1 , 𝑡2 ∈ 𝑇 y tenemos lo siguiente
𝑌𝑡1 = 𝑋𝑡1 ⋅ cos(𝑤0 𝑡1 + Θ)
𝑌𝑡2 = 𝑋𝑡2 ⋅ cos(𝑤0 𝑡2 + Θ)
Correlación cruzada
Sea (Ω, 𝒜, 𝑃) un espacio de probabilidad y {𝑋𝑡 }𝑡∈𝑇 ,{𝑌𝑡 }𝑡∈𝑇 dos procesos estocásticos,
habíamos definido la correlación de estos p.e. en los tiempos 𝑡1 y 𝑡2 como
𝑅𝑋𝑌 (𝑡1 , 𝑡2 ) = 𝐸(𝑋𝑡1 ⋅ 𝑌𝑡2 )
y si los p.e. son estacionario en sentido amplio, esta correlación cruzada depende solo
de la diferencia del tiempo 𝜏 = 𝑡2 − 𝑡1 , es decir, para cualquier 𝜏 que sea la diferencia
entre dos tiempos 𝑡1 , 𝑡2 cualesquiera (𝜏 = 𝑡2 − 𝑡1 ), se tiene
𝑅𝑋𝑌 (𝑡1 , 𝑡2 ) = 𝑅𝑋𝑌 (𝜏).
Definición [Procesos ortogonales]
Sean {𝑋𝑡 }𝑡∈𝑇 ,{𝑌𝑡 }𝑡∈𝑇 dos p.e. Se dice que son ortogonales si 𝑅𝑋𝑌 (𝑡, 𝑡 + 𝜏) = 0
Observación: Si {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 son p.e. independientes, entonces
𝑅𝑋𝑌 (𝑡, 𝑡 + 𝜏) = 𝐸 (𝑋𝑡 ) ⋅ 𝐸 (𝑌𝑡+𝜏 )
Y si son estacionarios en sentido amplio, tenemos que
𝑅𝑋𝑌 (𝑡, 𝑡 + 𝜏) = 𝐸 (𝑋𝑡 ) ⋅ 𝐸 (𝑌𝑡+𝜏 ) 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
Propiedades:
Considerando {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 dos p.e. estacionarios conjuntamente en sentido amplio,
tenemos:
1. 𝑅𝑋𝑌 (−𝜏) = 𝑅𝑌𝑋 (𝜏)
1
2. |𝑅𝑋𝑌 (𝜏)| ≤ √𝑅𝑋𝑋 (0) ⋅ 𝑅𝑌𝑌 (0) ≤ 2 [𝑅𝑋𝑋 (0) + 𝑅𝑌𝑌 (0)]
Ejemplo 7:
Sean {𝑋𝑡 }𝑡∈𝑇 y {𝑌𝑡 }𝑡∈𝑇 dos p.e. definidos por
𝑋𝑡 = 𝐴 cos(𝑤0 𝑡) + 𝐵 sen(𝑤0 𝑡)
𝑌𝑡 = 𝐵 cos(𝑤0 𝑡) − 𝐴 sen(𝑤0 𝑡)
donde 𝐴, 𝐵 son variables aleatorias.
Muestre que 𝑋𝑡 es estacionario en sentido amplio si 𝐴 y 𝐵 no son correlacionados
(𝑐𝑜𝑣(𝐴, 𝐵) = 0), 𝐸 (𝐴) = 𝐸 (𝐵) = 0, 𝑉𝑎𝑟(𝐴) = 𝑉𝑎𝑟(𝐵).
Además demuestre que 𝑋𝑡 y 𝑌𝑡 son conjuntamente estacionarios en sentido amplio.
Solución: