Mathematics">
Variables Aleatorias
Variables Aleatorias
Variables Aleatorias
Índice
1. Introducción 1
1.1. Variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Función de distribución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1. Introducción
La variable aleatoria es la herramienta matemática que permite modelizar un fenómeno incierto. La idea
consiste en asociar a cada suceso un valor o un intervalo de valores reales, de manera que el problema proba-
bilístico se traslade del álgebra de sucesos al marco, más manejable, de los números reales.
Llamamos variables aleatorias a aquellas funciones cuyos valores dependen de los resultados de un expe-
Definición 1.1. Dado un espacio probabilístico (Ω, A , P) asociado a un experimento aleatorio, una variable
aleatoria ξ es una función real definida sobre el espacio muestral Ω tal que {ω ∈ Ω : ξ (ω) ≤ x} ∈ A (x ∈ R).
Nótese que la suma, diferencia y producto de variables aleatorias, así como el cociente de dos variables
...
Número de niños nacidos en una determinada maternidad antes del nacimiento de los primeros geme-
los siameses.
Dado que la variable aleatoria trata de ser un modelo matemático para fenómenos cuyo desarrollo es in-
cierto, será lógico suponer que cada situación concreta que se estudie lleva asociado un conjunto de valores
posibles, siendo la variable aleatoria susceptible de tomar cada uno de ellos con una cierta probabilidad. Surge
así la necesidad de introducir una función que indique cómo se reparten las probabilidades entre los distin-
tos valores de la variable. Una tal función, definida sobre la recta real, se denomina función de distribución
Definición 1.3. La función de distribución asociada a la variable aleatoria ξ viene dada por la fórmula
Definición 2.1. Una variable aleatoria ξ es discreta si el conjunto {xi } de valores que toma con probabilidad
Definición 2.2. En la notación de la Definición 2.1, se define la función de densidad, distribución de proba-
∑ f (xi ) = 1.
i
R ESOLUCIÓN .
f (x) = P(ξ = x) = 0 si x ∈
/ {0, 1, 2},
1
f (0) = P(ξ = 0) = P{ω : ξ (ω) = 0} = P{(X, X)} = ,
4
2 1
f (1) = P(ξ = 1) = P{ω : ξ (ω) = 1} = P{(C, X), (X,C)} = = ,
4 2
1
f (2) = P(ξ = 2) = P{ω : ξ (ω) = 2} = P{(C,C)} = .
4
Ejemplo 2.4. Determinar la función de densidad de la variable aleatoria ξ = ‘1 si los resultados son iguales,
R ESOLUCIÓN .
f (x) = P(ξ = x) = 0 si x ∈
/ {0, 1},
2 1
f (0) = P(ξ = 0) = P{(C, X), (X,C)} = = ,
4 2
2 1
f (1) = P(ξ = 1) = P{(C,C), (X, X)} = = .
4 2
Ejemplo 2.5. Se considera el experimento consistente en lanzar dos dados, cuyo espacio muestral es
Ω = {(1, 1), (1, 2), (1, 3), . . . , (6, 4), (6, 5), (6, 6)}.
R ESOLUCIÓN . Nótese que ξ (ω) ∈ {2, . . . , 12}. La distribución de probabilidad de esta variable es:
f (x) = 0 si x ∈
/ {2, 3, . . . , 12},
1 1
f (2) = f (12) = , f (3) = f (11) = ,
36 18
1 1
f (4) = f (10) = , f (5) = f (9) = ,
12 9
5 1
f (6) = f (8) = , f (7) = .
36 6
k
f (x) = (x − 1)
n
sea la función de densidad de una variable aleatoria discreta susceptible de tomar los valores 1, 2, . . . , n.
R ESOLUCIÓN . Para que sea una función de densidad, f (x) debe ser no negativa y verificar
k
[0 + 1 + 2 + · · · + (n − 1)] = 1.
n
1 + (n − 1) n(n − 1)
1 + 2 + · · · + (n − 1) = (n − 1) = ,
2 2
se debe cumplir:
k n(n − 1)
· = 1.
n 2
2
k= ,
n−1
con n ≥ 2.
La función de distribución F(x) de una variable discreta ξ se calcula a partir de su función de densidad
Ejemplo 2.7. Se lanzan al aire tres monedas (lo que equivale a lanzar una moneda tres veces) y se considera
la variable aleatoria ξ =‘número de caras que aparecen’. Hallar la función de distribución asociada.
R ESOLUCIÓN . En primer lugar, nótese que el espacio muestral asociado al experimento considerado es
Ω = {(C, C, C), (C, C, X), (C, X, C), (X, C, C), (C, X, X), (X, C, X), (X, X, C), (X, X, X)},
Por otra parte, ξ toma solamente los valores 0, 1, 2 y 3, por lo que se trata de una variable aleatoria discreta.
En virtud de la Ley de Laplace, la probabilidad con que ξ toma cada uno de estos valores es:
1 3
P(ξ = 0) = , P(ξ = 1) = ,
8 8
3 1
P(ξ = 2) = , P(ξ = 3) = .
8 8
1
Si 0 ≤ x < 1 entonces F(x) = f (0) = .
8
1 3 1
Si 1 ≤ x < 2 entonces F(x) = f (0) + f (1) = + = .
8 8 2
1 3 7
Si 2 ≤ x < 3 entonces F(x) = f (0) + f (1) + f (2) = + = .
2 8 8
7 1
Si x ≥ 3 entonces F(x) = f (0) + f (1) + f (2) + f (3) = + = 1.
8 8
En definitiva, la función de distribución de la variable ξ es:
0, si x < 0
1
, si 0 ≤ x < 1
8
1
F(x) = , si 1 ≤ x < 2
2
7
,
si 2 ≤ x < 3
8
1,
si x ≥ 3.
La probabilidad de algunos sucesos puede ser obtenida fácilmente mediante la función de distribución:
. . ..
Ejemplo 2.8. La siguiente tabla muestra la distribución de probabilidad para la variable aleatoria ξ =‘nú-
mero de personas que solicitan innecesariamente los servicios de urgencias de un pequeño hospital’:
ξ = xi 0 1 2 3 4 5
b) Calcular: P(ξ ≤ 2), P(ξ < 2), P(ξ > 3), P(ξ ≤ 6), P(ξ = 3), P(2 ≤ ξ ≤ 4), P(ξ > 2).
P(ξ ≤ 6) = F(6) = 1,
Definición 2.9. La media o esperanza matemática µξ de una variable aleatoria discreta ξ se define por la
expresión
Descriptiva. Recordemos que si x1 , . . . , xn son los posibles valores de una variable estadística obtenidos en N
1 n n
ni n
x= ∑ xi · ni = ∑ xi · = ∑ xi · fi , (2.2)
N i=1 i=1 N i=1
Como la frecuencia relativa define una probabilidad sobre el espacio muestral Ω = {x1 , . . . , xn }, resulta que
La media o esperanza matemática se interpreta como el valor esperado para la variable ξ , es decir, el que
Ejemplo 2.10. Calcular la media de la variable aleatoria que da el número de caras en el lanzamiento de
dos monedas.
R ESOLUCIÓN . Los experimentos aleatorios ‘lanzar dos monedas’ y ‘lanzar una moneda dos veces’ (Ejemplo
1 2 1
µξ = 0 · P(ξ = 0) + 1 · P(ξ = 1) + 2 · P(ξ = 2) = 0 · + 1 · + 2 · = 1.
4 4 4
Definición 2.12. La desviación típica es la raíz cuadrada positiva de la varianza y viene dada por
q q
σξ = E[(ξ − µξ )2 ] = E[ξ 2 ] − µξ2 .
Respecto a la relación entre estos conceptos y sus homónimos introducidos en Estadística Descriptiva cabe
Ejemplo 2.13. Calcular la varianza y la desviación típica para la variable aleatoria del Ejemplo 2.10.
R ESOLUCIÓN . Sabemos que ξ (ω) ∈ {0, 1, 2} y que µξ = 1, por lo que (ξ − µξ )(ω) ∈ {−1, 0, 1} y (ξ −
mial y de Poisson
A continuación estudiaremos dos modelos de variables aleatorias discretas de gran importancia práctica:
el modelo binomial y el modelo de Poisson. Su utilidad radica en que permiten describir fenómenos físicos
en casi todas las áreas de la investigación científica y social. Para cada una de ellas indicaremos qué tipo de
Un experimento que puede dar lugar únicamente a dos resultados: A (denominado éxito), con probabilidad
aleatoria que lo representa, modelo de Bernoulli, en honor al matemático suizo Jacob Bernoulli (1654-1705).
Esta variable depende de un único parámetro p, y asigna al éxito el valor 1 y al fracaso el valor 0. Su función
Una sucesión de n pruebas de Bernoulli independientes da lugar al denominado modelo binomial, el cual
Definición 3.1. Decimos que ξ es una variable aleatoria binomial con parámetros n y p, y escribimos ξ ∼
B(n, p), si ξ es una variable aleatoria que representa el número total de éxitos en n pruebas de Bernoulli
Obsérvese que en el modelo binomial subyacen los cuatro supuestos generales siguientes:
1. El experimento en estudio se puede considerar compuesto por un número fijo n de pruebas idénticas.
3. El resultado de una prueba no tiene efecto sobre el de ninguna otra prueba, de modo que la probabilidad
La distribución de probabilidad (no nula) correspondiente a una variable aleatoria binomial ξ =‘número de
n k n−k
P(ξ = k) = p q (k = 0, 1, 2, ..., n),
k
n
ya que los k sucesos pueden presentarse de formas en el total de n pruebas. Aquí
k
n n!
= ,
k k! (n − k)!
donde 0! = 1 y r! = r (r − 1) (r − 2) · · · 1 (r = 1, 2, 3, . . .).
Además, se tiene:
µξ = np,
σξ2 = npq,
√
σξ = npq.
asimetría a la izquierda. Cuando n → ∞ la distribución tiende a una distribución normal (Sección 5), que es
simétrica.
n
Observación 3.2. Para el cómputo de los coeficientes binomiales resulta útil el llamado triángulo de
k
Tartaglia, cuya ley de formación es la siguiente: en una misma fila, los términos extremos valen 1 y cada uno
de los intermedios se obtiene sumando los dos contiguos inmediatamente superiores a él.
1 1
1 2 1
1 3 3 1
1 4 6 4 1
..
.
n
El valor de se corresponde con el término que ocupa la posición (k + 1)-ésima dentro de la fila (n + 1)-
k
ésima, contando de izquierda a derecha y de arriba a abajo.
Ejemplo 3.3. Lanzar dos veces una moneda es un experimento de Bernoulli de dos pruebas (n = 2), donde
R ESOLUCIÓN . Se tiene:
0 2
2 1 1 1
P(ξ = 0) = · p0 · q2−0 = 1 · · = ,
0 2 2 4
1 1
2 1 2−1 1 1 1
P(ξ = 1) = · p ·q = 2· · = ,
1 2 2 2
2 0
2 1 1 1
P(ξ = 2) = · p2 · q2−2 = 1 · · = .
2 2 2 4
Ejemplo 3.4. Un equipo de fútbol tiene 2/3 de probabilidad de ganar cuando juega en casa. Calcular la
probabilidad de que gane más de dos partidos de un total de cuatro que disputa en casa.
La probabilidad que tiene el equipo de ganar en casa, es decir, la probabilidad de éxito, es p = 2/3. Los
resultados de los partidos son independientes entre sí. Por tanto, la variable aleatoria ξ sigue una distribución
2 4−x
x x 4−x x
4 2 4 2 1 4 2
f (x) = 1− = = .
x 3 3 x 3 3 x 81
La probabilidad que tiene el equipo de ganar más de dos partidos de los cuatro jugados en casa viene dada por:
23 24 16 16
= 4· + = (2 + 1) = ' 0.5926.
81 81 81 27
El segundo modelo discreto considerado es el de Poisson, llamado así en honor al matemático francés
Simeon Denis Poisson (1781-1840). Las variables aleatorias de Poisson surgen en conexión con los llamados
procesos de Poisson.
Un proceso de Poisson con parámetro s > 0 es un experimento en el cual se observa un conjunto discreto de
sucesos en un intervalo continuo de tiempo o espacio, de tal modo que se cumplan las siguientes condiciones:
la probabilidad de que el suceso ocurra únicamente una vez en cualquier intervalo de tamaño h es,
aproximadamente, sh;
a efectos prácticos, la probabilidad de que el suceso ocurra más de una vez en cualquier intervalo
de longitud h es nula.
Definición 3.5. Una variable aleatoria de Poisson es el número de veces que ocurre un suceso cuando se
Obsérvese que una variable de Poisson puede tomar todos los valores enteros no negativos.
Se demuestra que la distribución de probabilidad de una variable aleatoria de Poisson ξ viene dada por
λ k −λ
f (k) = P(ξ = k) = e (λ > 0, k = 0, 1, 2, ...),
k!
La notación ξ ∼ P(λ ) simboliza que ξ es una variable aleatoria de Poisson con parámetro λ . Este pará-
metro coincide con la esperanza matemática de la variable de Poisson. En efecto, obsérvese que si h es sufi-
cientemente pequeño el suceso ocurre con probabilidad p = sh, ó no ocurre con probabilidad 1 − p = 1 − sh.
En tal caso la variable ξ =‘número de ocurrencias del suceso’ toma sólo los valores 0 ó 1, luego su media es
1 · p + 0 · (1 − p) = p = sh.
µξ = λ .
σξ2 = λ ,
√
σξ = λ.
el número de piezas defectuosas en una gran muestra tomada de un lote en que la proporción de piezas
defectuosas es pequeña,
pequeña, ya que
n→∞
λ k −λ
n k n−k
si p→0 entonces p q −→ e .
k k!
np → λ < ∞
En general, cuando n > 50 y p < 0.1, ó bien np < 5, la distribución de Poisson P(np) es una buena aproxi-
modelo binomial en el que la probabilidad p de éxito en cada prueba de Bernoulli es muy pequeña y el número
Ejemplo 3.7. La probabilidad de reacción negativa ante un fármaco de un individuo internado en un hos-
pital es 0.05. Se administra dicho fármaco a cien individuos. ¿Cuál es el número de reacciones negativas
a) tres individuos;
b) ninguno;
c) más de dos.
ξ = ‘número de casos que presentan reacción negativa ante el fármaco de un total de 100’.
Sabemos que se administra el fármaco a una población de 100 individuos de un determinado hospital, y
que la probabilidad de que un individuo presente reacción negativa es p = 0.05. Además, las reacciones de un
individuo son independientes de las de cualquier otro. Luego, la variable ξ sigue una distribución binomial de
100 100
f (x) = P(ξ = x) = · 0.05x · (1 − 0.05)100−x = · 0.05x · 0.95100−x .
x x
El número de reacciones negativas esperadas ante el fármaco en la población estudiada coincide con la
media de la variable:
a) Calculemos la probabilidad de que se presente reacción negativa ante el fármaco en tres de los cien
individuos:
100 100!
P(ξ = 3) = f (3) = · 0.053 · 0.9597 = · 0.053 · 0.9597
3 3! · 97!
100 · 99 · 98
= · 0.053 · 0.9597 = 100 · 33 · 49 · 0.053 · 0.9597
3·2
' 0.1396 ' 0.14.
b) La probabilidad de que ningún individuo presente reacción negativa ante el fármaco viene dada por:
100
P(ξ = 0) = f (0) = · 0.050 · 0.95100 = 0.95100 ' 0.0059 ' 0.01.
0
c) Obtengamos finalmente la probabilidad de que más de dos individuos presenten reacción negativa ante
el fármaco:
Alternativamente, nótese que al ser n = 100 suficientemente grande y p = 0.05 pequeña, el experimento
anterior puede ser considerado como un proceso de Poisson donde la variable aleatoria de Poisson es
5x −5
f (x) = P(ξ = x) = e (x ∈ {0, 1, 2, . . .}).
x!
Luego:
53 −5 125 −5
a) P(ξ = 3) = f (3) = e = e ' 0.1404 ' 0.14.
3! 6
50 −5
b) P(ξ = 0) = f (0) = e = e−5 ' 0.0067 ' 0.01.
0!
c) Finalmente:
Como vemos, en los tres casos se obtiene una buena aproximación de los resultados anteriores (de hecho,
Definición 4.1. Una variable aleatoria ξ se dice continua si el conjunto de valores que toma con proba-
bilidad no nula es infinito no numerable (esto es, un intervalo real de la forma (a, b), (a, +∞), (−∞, b),
El peso.
La estatura.
Entre las variables aleatorias continuas tienen especial interés las denominadas absolutamente continuas.
Definición 4.3. Una variable aleatoria ξ se dice absolutamente continua si existe una función real no ne-
gativa f (x), denominada función de densidad de probabilidad (o, simplemente, función de densidad), tal
que:
Z +∞
f (x) dx = 1;
−∞
ii) si x1 < x2 entonces P(x1 ≤ ξ ≤ x2 ) es igual al área del conjunto de ordenadas correspondiente:
Z x2
P(x1 ≤ ξ ≤ x2 ) = f (t) dt.
x1
Z x
F(x) = P(ξ ≤ x) = f (t) dt (−∞ < x < ∞),
−∞
y, por tanto,
dF(x)
f (x) = F 0 (x) = (−∞ < x < ∞).
dx
Z a
P(ξ = a) = P(a ≤ ξ ≤ a) = f (t) dt = 0.
a
Además:
Z ∞
P(ξ > x1 ) = 1 − P(ξ ≤ x1 ) = 1 − F(x1 ) = f (t) dt,
x1 Z x2
P(x1 < ξ < x2 ) = P(x1 < ξ ≤ x2 ) = F(x2 ) − F(x1 ) = f (t) dt.
x1
Observación 4.4. Si ξ toma valores en el intervalo (a, b) entonces las integrales infinitas anteriores se
Z b
f (t) dt = 1,
a
0, si x ≤ a
Zx
F(x) = f (t) dt, si a < x < b
a
si b ≤ x.
1,
Observación 4.5. Como vemos, al igual que ocurre con las variables discretas, la ley de probabilidades de
una variable aleatoria continua ξ está definida, bien si se conoce su función de densidad f (x), bien si se
2x, si 0 ≤ x ≤ 1
f (x) =
0,
en otro caso.
Z +∞ Z 1
f (x) dx = 2x dx = [x2 ]10 = 12 − 02 = 1.
−∞ 0
Por tanto, f (x) es efectivamente una función de densidad de probabilidad. La correspondiente función de
Z 0.75 Z 0.75
P(0.25 < ξ ≤ 0.75) = f (x) dx = 2x dx = F(0.75) − F(0.25) = 0.5.
0.25 0.25
Definición 4.7. La media o esperanza matemática de una variable aleatoria continua ξ viene dada por la
expresión Z ∞
x f (x) dx, si ξ toma valores en (−∞, ∞)
−∞
µξ = E[ξ ] = Z b
x f (x) dx, si ξ toma valores en (a, b),
a
Ejemplo 4.8. Dada una variable aleatoria continua ξ cuya función de densidad es
x − 1 , si 1 ≤ x ≤ 2
g(x) = 2
0,
en otro caso,
R ESOLUCIÓN . Se tiene:
0, si x < 1
2
x x
G(x) = − , si 1 ≤ x ≤ 2
2 2
1, si x > 2;
2
x3 x2
Z 2
1 19
µξ = x x− dx = − = = 1.5833.
1 2 3 4 1 12
Definición 4.9. La varianza de una variable aleatoria continua ξ viene dada por
Z ∞
(x − µξ )2 f (x) dx, si ξ toma valores en (−∞, ∞)
−∞
σξ2 2
= E[(ξ − µξ ) ] = Z b
(x − µξ )2 f (x) dx,
si ξ toma valores en (a, b),
a
Adviértase que
A continuación vamos a estudiar el más importante de los modelos aleatorios continuos: la distribución
normal o de Laplace-Gauss, llamada así en honor de los matemáticos Pierre Simon Laplace (1749-1827) y
La distribución normal fue descrita por primera vez en 1733 por Abraham De Moivre (1667-1754) como
el valor límite de la densidad binomial cuando el número de pruebas se hace infinito. Laplace y Gauss la
redescubrieron medio siglo después: ocupados ambos en el estudio de problemas de astronomía, cada uno
obtuvo, por separado, la distribución normal como la que aparentemente describe el comportamiento de los
económicos y sociales que se ajustan a ella: pesos, estaturas, coeficientes de inteligencia, puntuaciones en un
examen, errores en mediciones . . . . De hecho, el denominado Teorema del Límite Central, resultado funda-
mental del cálculo de probabilidades, demuestra que otros muchos modelos, tanto discretos como continuos
(en particular, las distribuciones binomial y de Poisson) pueden ser aproximados por el modelo normal.
Definición 5.1. Se dice que una variable aleatoria ξ , que puede tomar cualquier valor en (−∞, +∞), se
distribuye según una normal N(µ, σ ) de parámetros µ y σ cuando su función de densidad viene dada por
1 (x−µ)2
−
f (x) = √ e 2σ2 (−∞ < x < ∞),
σ 2π
Se comprueba que la función f (x) así definida es realmente una función de densidad.
La gráfica para la función de densidad de una normal recibe el nombre de campana de Gauss (ver Apéndi-
ce). Siguiendo técnicas de cálculo infinitesimal elemental podemos verificar las siguientes propiedades de esta
curva:
Es simétrica respecto a la recta x = µ, en forma de campana (de ahí su nombre), con un máximo en
x = µ.
campana. Cuanto mayor es el valor de σ más lejos de µ caen los puntos de inflexión y más plana es la
curva.
(t−µ)2
Z x
1 −
F(x) = √ e 2σ2 dt (−∞ < x < ∞).
σ 2π −∞
µξ = µ, σξ2 = σ 2 , σξ = σ .
5.3. Tipificación
Hay un número infinito de variables aleatorias normales, cada una de ellas caracterizada únicamente por
los parámetros µ y σ . Para calcular las probabilidades asociadas a una curva normal específica se transforma la
correspondiente variable normal ξ en una normal N(0, 1), de parámetros µ = 0 y σ = 1, cuyas distribuciones
de probabilidad (densidad o función de distribución) se encuentran tabuladas (ver Apéndice). Este proceso
recibe el nombre de tipificación, y la variable resultante, que se suele representar por Z, se llama variable
aleatoria normal tipificada o estándar. La transformación a realizar es el siguiente cambio lineal de variable:
ξ −µ
Z= ⇐⇒ ξ = σ Z + µ.
σ
Observación 5.2. La tabla suministrada en el Apéndice proporciona los valores de la función de distribución
normal tipificada. En ella sólo figuran valores no negativos de la variable y probabilidades mayores o iguales
que 0.5. Los valores de la función de distribución tipificada para valores negativos de la variable se calculan
Veamos cómo proceder para obtener las probabilidades de distintos sucesos que pueden ser descritos en
Si a ó b no aparecen en la tabla se procede por interpolación lineal o por aproximación, siendo este
R ESOLUCIÓN . Observamos que 2.147 no figura en la tabla, así que buscamos el valor de la variable más
Ejemplo 5.4. La temperatura T al mediodía en Granada durante el mes de mayo se ajusta a un modelo
normal de media 22 ◦ C y desviación típica 6 ◦ C. Hallar el porcentaje de días en que la temperatura está
comprendida entre 16 ◦ C y 25 ◦ C.
R ESOLUCIÓN . La variable T =‘temperatura al mediodía en Granada durante el mes de mayo’ sigue un modelo
N(22, 6). Para obtener el porcentaje requerido hemos de calcular P(16 < T < 25). Denotando por Z la variable
16 − 22 25 − 22
P(16 < T < 25) = P(16 < 6 Z + 22 < 25) = P <Z<
6 6
= P(−1 < Z < 0.5) = P(Z < 0.5) − P(Z < −1) = F(0.5) − F(−1)
tipificadas.
• P(Z ≤ a) = 0.8930. Como esta probabilidad no está en la tabla, procedemos por aproximación.
de las cuales 0.8925 es la más próxima a 0.8930. Por tanto, tomamos a = 1.24.
• P(Z ≤ a) = 0.9950. Esta probabilidad no está en la tabla y equidista de otras dos que sí están:
P(Z ≤ a1 ) = 0.9949 y P(Z ≤ a2 ) = 0.9951, con a1 = 2.57 y a2 = 2.58. Como valor de la variable
• P(Z ≤ a) = 0.4840. Esta probabilidad, que es menor que 0.5 y por lo tanto no aparece en la tabla,
⇒ |a| = 0.04
⇒ a = −0.04.
a−µ
• P(ξ ≤ a) = 0.8508 ⇒ P(σ Z + µ ≤ a) = 0.8508 ⇒ P Z ≤ = 0.8508. Como este valor
σ
a−µ
está en la tabla, encontramos que = 1.04. Por tanto, a = 1.04 σ + µ.
σ
a−µ
• P(ξ ≤ a) = 0.8930 ⇒ P Z ≤ = 0.8930, que es un valor que no está en la tabla. Proce-
σ
a−µ
diendo por aproximación, = 1.24 ⇒ a = 1.24 σ + µ.
σ
a−µ
• En general, P(ξ ≤ a) = x ⇒ P Z ≤ = x; si b es el valor de la variable tipificada al que
σ
a−µ
le corresponde esta probabilidad según los criterios que acabamos de exponer, entonces =
σ
b ⇒ a = b σ + µ.
Las áreas más importantes por sus aplicaciones en una distribución N(µ, σ ) son las comprendidas en el
lo cual indica que el 68.26 % de las observaciones en una distribución normal N(µ, σ ) se encuentran en el
intervalo de extremos µ ± σ .
lo cual expresa que el 99.74 % (esto es, la práctica totalidad) de las observaciones en una distribución
Ejemplo 5.7. La media de las calificaciones obtenidas en un test de aptitud por los alumnos de un centro fue
de 400 puntos, con desviación típica de 100. Si las calificaciones siguen una distribución normal, calcular
a) superior a 500;
b) inferior a 300;
¿Cuál es la probabilidad de que la calificación de un alumno elegido al azar difiera de la media en menos
de 150 puntos?
mos que la media de las calificaciones es µ = 400 puntos, y la desviación típica, σ = 100 puntos. Además, las
Ya que µ − σ = 400 − 100 = 300 y µ + σ = 400 + 100 = 500, como consecuencia inmediata del Ejemplo
5.5 encontramos que P(300 ≤ ξ ≤ 500) = 0.6826. Por tanto, el porcentaje de alumnos que obtuvieron una
calificación comprendida entre 300 y 500 puntos (apartado c)) es del 68.26 %.
1 − 0.6826
P(ξ < 300) = P(ξ > 500) = = 0.1587,
2
lo que da respuesta a los apartados a) y b): el porcentaje de alumnos con calificación inferior a 300 puntos
coincide con el de aquellos alumnos con calificación superior a 500, y es del 15.87 %.
difiera de la media en menos de 150 puntos partimos de la relación (5.1). Al imponer que kσ = 100 k = 150
Otra cuestión de interés es saber en qué intervalo simétrico respecto de la media se encuentra cierto por-
Ejemplo 5.8. ¿Qué intervalo simétrico respecto a la media contiene el 50 % de las observaciones en una
1.5
P(µ − kσ ≤ ξ ≤ µ + kσ ) = 0.5 ⇒ 2 P(Z ≤ k) − 1 = 0.5 ⇒ P(Z ≤ k) = = 0.7500.
2
Al inspeccionar la tabla encontramos que P(Z ≤ 0.67) = 0.7486 y P(Z ≤ 0.68) = 0.7517; por aproximación,
Introduciendo la oportuna corrección por continuidad, las distribuciones binomial y de Poisson pueden ser
aproximadas por una distribución normal con la misma media y desviación típica.
Teorema 5.9 (De Moivre). Una distribución binomial X ∼ B(n, p) es aproximadamente una distribución
p
normal ξ con media np y desviación típica np(1 − p).
np(1 − p) > 5.
30
P(X ≤ 3) = · 0.43 · 0.627 ' 0.0003 ' 0.
3
√
Si ahora interpretamos X como una N(30 · 0.4, 30 · 0.4 · 0.6) = N(12, 2.68), que denotaremos ξ , entonces,
3.5 − 12
P(X ≤ 3) ' P(ξ ≤ 3.5) = P Z ≤ = P(Z ≤ −3.17)
2.68
Teorema 5.11. Un modelo de Poisson P(λ ), con λ > 5, puede ser aproximado por un modelo normal de
√
parámetros µ = λ , σ = λ .
Ejemplo 5.12. En una carretera construida por cierta empresa se observa que cada 20 kilómetros en pro-
medio aparece un defecto grave. Calcular la probabilidad de que haya 6 defectos graves a lo largo de 200
R ESOLUCIÓN . Sea X =‘número de defectos graves en 200 km de carretera’. Nótese que X ∼ P(λ ), donde
5.5 − 10 6.5 − 10
P(X = 6) ' P(5.5 < ξ < 6.5) = P √ <Z< √ = P(−1.42 < Z < −1.11)
10 10
= P(1.11 < Z < 1.42) = P(Z ≤ 1.42) − P(Z ≤ 1.11)
0.00 0.01 0.02 0.03 0.04 0.05 0.06 0.07 0.08 0.09
0.0 0.5000 0.5040 0.5080 0.5120 0.5160 0.5199 0.5239 0.5279 0.5319 0.5359
0.1 0.5398 0.5438 0.5478 0.5517 0.5557 0.5596 0.5636 0.5675 0.5714 0.5754
0.2 0.5793 0.5832 0.5871 0.5910 0.5948 0.5987 0.6026 0.6064 0.6103 0.6141
0.3 0.6179 0.6217 0.6255 0.6293 0.6331 0.6368 0.6406 0.6443 0.6480 0.6517
0.4 0.6554 0.6591 0.6628 0.6664 0.6700 0.6736 0.6772 0.6808 0.6844 0.6879
0.5 0.6915 0.6950 0.6985 0.7019 0.7054 0.7088 0.7123 0.7157 0.7190 0.7224
0.6 0.7258 0.7291 0.7324 0.7357 0.7389 0.7422 0.7454 0.7486 0.7518 0.7549
0.7 0.7580 0.7612 0.7642 0.7673 0.7704 0.7734 0.7764 0.7794 0.7823 0.7852
0.8 0.7881 0.7910 0.7939 0.7967 0.7996 0.8023 0.8051 0.8079 0.8106 0.8133
0.9 0.8159 0.8186 0.8212 0.8238 0.8264 0.8289 0.8315 0.8340 0.8365 0.8389
1.0 0.8413 0.8438 0.8461 0.8485 0.8508 0.8531 0.8554 0.8577 0.8599 0.8621
1.1 0.8643 0.8665 0.8686 0.8708 0.8729 0.8749 0.8770 0.8790 0.8810 0.8830
1.2 0.8849 0.8869 0.8888 0.8907 0.8925 0.8944 0.8962 0.8980 0.8997 0.9015
1.3 0.9032 0.9049 0.9066 0.9082 0.9099 0.9115 0.9131 0.9147 0.9162 0.9177
1.4 0.9192 0.9207 0.9222 0.9236 0.9251 0.9265 0.9279 0.9292 0.9306 0.9319
1.5 0.9332 0.9345 0.9357 0.9370 0.9382 0.9394 0.9406 0.9418 0.9430 0.9441
1.6 0.9452 0.9463 0.9474 0.9485 0.9495 0.9505 0.9515 0.9525 0.9535 0.9545
1.7 0.9554 0.9564 0.9573 0.9582 0.9591 0.9599 0.9608 0.9616 0.9625 0.9633
1.8 0.9641 0.9649 0.9656 0.9664 0.9671 0.9678 0.9686 0.9693 0.9700 0.9706
1.9 0.9713 0.9719 0.9726 0.9732 0.9738 0.9744 0.9750 0.9756 0.9762 0.9767
2.0 0.9773 0.9778 0.9783 0.9788 0.9793 0.9798 0.9803 0.9808 0.9812 0.9817
2.1 0.9821 0.9826 0.9830 0.9834 0.9838 0.9842 0.9846 0.9850 0.9854 0.9857
2.2 0.9861 0.9865 0.9868 0.9871 0.9875 0.9878 0.9881 0.9884 0.9887 0.9890
2.3 0.9893 0.9896 0.9898 0.9901 0.9904 0.9906 0.9909 0.9911 0.9913 0.9916
2.4 0.9918 0.9920 0.9922 0.9925 0.9927 0.9929 0.9931 0.9932 0.9934 0.9936
2.5 0.9938 0.9940 0.9941 0.9943 0.9945 0.9946 0.9948 0.9949 0.9951 0.9952
2.6 0.9953 0.9955 0.9956 0.9957 0.9959 0.9960 0.9961 0.9962 0.9963 0.9964
2.7 0.9965 0.9966 0.9967 0.9968 0.9969 0.9970 0.9971 0.9972 0.9973 0.9974
2.8 0.9974 0.9975 0.9976 0.9977 0.9977 0.9978 0.9979 0.9980 0.9980 0.9981
2.9 0.9981 0.9982 0.9983 0.9983 0.9984 0.9984 0.9985 0.9985 0.9986 0.9986
3.0 0.9987 0.9987 0.9987 0.9988 0.9988 0.9989 0.9989 0.9989 0.9990 0.9990
3.1 0.9990 0.9991 0.9991 0.9991 0.9992 0.9992 0.9992 0.9992 0.9993 0.9993
3.2 0.9993 0.9993 0.9994 0.9994 0.9994 0.9994 0.9994 0.9995 0.9995 0.9995
3.3 0.9995 0.9995 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9996 0.9997
3.4 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9997 0.9998 0.9998
3.5 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998 0.9998
3.6 0.9998 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.7 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999
3.8 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 0.9999 1.0000 1.0000 1.0000
3.9 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
4.0 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000 1.0000
Figura 5.1. Distribución normal tipificada N(0, 1): F(a) = P(Z ≤ a).