Estadística Aplicada Ing Civil PDF
Estadística Aplicada Ing Civil PDF
Estadística Aplicada Ing Civil PDF
20
15
10
11
12
14
16
17
19
ESTIMACIN DE PARMETROS
1
xi funcion lineal de las observaciones X
n
1
2
S 2 xi X funcion cuadratica de las observaciones S 2 2
n
X
El resultado numrico que se obtiene es la estimacin del parmetro, en tanto que la expresin
matemtica (o algebraica) es el estimador del parmetro. Puede haber varios estimadores del
mismo parmetro, de los cuales se pretende elegir el mejor, en base a las caractersticas o
propiedades que se requiera del mismo.
1.2. Propiedades de los estimadores
a) Insesgado o no viciado:
Un estimador se dice Insesgado si su esperanza es igual al parmetro. Es decir:
es insesgado E ()
Por el contrario, el estimador se dice viciado si su esperanza es distinta al parmetro.
E () es viciado
b) Consistente:
Un estimador se dice consistente si converge al parmetro, es decir, si su distribucin se
concentra alrededor del parmetro a medida que aumenta el tamao de la muestra, de forma tal
que el error de muestreo tiende a desaparecer. Es decir:
es un estimador consistente de si :
V ()V ( * ) , o sea,
Eficiencia relativa:
Dados dos estimadores no viciados del mismo parmetro, se dice que es ms eficiente aqul
que tiene menor variancia. Es decir:
Sean 1 y 2 dos estimadores de , decimos que
V (1 )
V (2 )
d) Suficiente:
Un estimador se dice suficiente si contiene (o absorbe) toda la informacin proporcionada por la
muestra, en lo que respecta al parmetro.
e) Invariancia:
Un estimador se dice invariante cuando una funcin del mismo es un buen estimador de la
funcin del parmetro. Es decir:
II.
es invariante g () g
1.-Mtodo de los momentos: Consiste en estimar los momentos poblacionales a travs de los momentos
muestrales.
2.-Mtodo de los Mnimos Cuadrados: Consiste en encontrar estimadores de los parmetros de forma tal
que minimicen la suma de los cuadrados de los desvos. Con este mtodo se obtienen estimadores
no viciados y consistentes, pues el mismo garantiza mnima variancia y suma de desvos igual a
cero.
3.-Mtodo de Mxima Verosimilitud: Consiste en encontrar estimadores de los parmetros de forma tal
que maximicen la funcin de probabilidad de la muestra. Para ello, es imprescindible conocer la
distribucin de la variable en la poblacin. Este mtodo proporciona los mejores estimadores, que
gozan excelentes propiedades: Insesgado (o bien, asintticamente insesgado), Consistente,
Eficiente, Suficiente, Invariantes y de distribucin asintticamente Normal.
Pasos a seguir para obtener los estimadores de mxima verosimilitud
n
llamada funcin de verosimilitud y su expresin est dada en trminos de los parmetros y de las
Luego se pretende hallar el valor de que maximice a L X , valor que tambin maximiza al
logaritmo de la funcin : ln L X , , (ya que el logaritmo es una funcin montona creciente). Por lo
tanto, el segundo paso es aplicarle logaritmo a la funcin de probabilidad de la muestra ( o de
verosimilitud) con el fin de simplificar la derivada.
Se sabe que una funcin continua y derivable alcanza su valor mximo en un punto para el cual se
anula su derivada. Si la funcin de probabilidad de la muestra satisface este requisito, entonces el tercer
LX ,
0.
Inconvenientes:
El mtodo de mxima verosimilitud asegura que los estimadores obtenidos son los de mnima
variancia, pero no indica cual sea esta variancia.
El mtodo de mxima verosimilitud asegura que los estimadores obtenidos son los que asignan
mxima probabilidad a la muestra, pero obviamente se admite que dicha muestra sea posible de
obtener an con diferentes valores del parmetro.
Estas son razones por las cuales la estimacin puntual se torna impracticable (sin inters prctico), y se
prefiere la estimacin por intervalos, ya que provee de ms informacin.
III.
construye una nueva variable en la cual intervienen el estimador y el parmetro , dicha variable
recibe el nombre de estadstica de prueba y la simbolizamos g( , ) .
Su ventaja reside en que la distribucin de la estadstica de prueba ya no depende del parmetro
siendo una distribucin standard con los valores de probabilidad tabulados correspondiente a un
gran nmero de valores posibles de la variable.
Construccin de los intervalos de confianza
3.1.1.Intervalo de Confianza para la media en poblaciones normales
Sea (X1, X2,..., Xn) una muestra aleatoria extrada de una poblacin normal, luego,
i = 1... n : X ~ N( , ) .
Por lo tanto tenemos que:
X1 , X2 , ... , Xn iid N( , ).
1
n
X ~ N(,
i
X
P z
z
2
2
~ N 0,1
X z
X z
con el (1 )% de confianza
X
s
~ t n 1
X
P t n 1,
t n 1,
s
2
2
siendo tn-1,/2 el valor de la variable t-student con n grados de libertad, superado con probabilidad /2
De dicha expresin se obtiene que :
X t n 1, .
2
s
n
X t n 1, .
con el (1 )% de confianza
1
pq
aproximadamente : X ~ N np , npq y h X i ~ N p,
n
n
pq
h es un valor desconocido puesto que no se conoce el valor del parmetro p, por lo
n
donde
h p
h (1 h )
h(1 h)
~ N 0,1
Dicha aproximacin es buena para muestras de tamao suficientemente grandes, y el mnimo tamao de
muestra depende del valor de h. W.G. Cochran da una regla prctica para ser utilizada en la bsqueda de
intervalos de confianza del 95%, correspondientes a la proporcin poblacional p.
Proporcin emprica h
0.5
0.4 o 0.6
0.3 o 0.7
0.2 0 0.8
0.1 o 0.9
0.05 o 0.95
Para estos valores de n se obtiene una buena aproximacin Normal vlida para la construccin de
intervalos del 95% de confianza.
h(1 h)
p h z 2
n
h(1 h)
n
iid N( x, x )
X1 , X2 , ... , Xn
Y1 , Y2 , ... , Ym
x
1
)
X i ~ N ( x ,
n
n
y
1
Y Yi ~ N ( y ,
)
m
m
con X e Y independientes
2
2
x y
X Y ~ N x y ;
n
m
Entonces
X Y x y
2
x
a) Si 2x y 2y
N 0,1
x y se obtiene de la siguiente
manera:
X Y z
2
2
2x y
2x y
x y X Y z
2
n
m
n
m
2 S A2
Luego, como :
n 1S x2 m 1S y2
nm2
X Y x y
1 1
S A2
n m
1 1
1 1
x y X Y t 2, g . S A
n m
n m
1
n
2x y S A2
~ t nm2
x y
X Y t 2, g . S A
1
m
t nm2 N 0,1
D
iid Bi(p1)
Y1 , Y2 , ... , Ym
iid Bi(p2)
Sean
h1
1
n
Xi
h2
con Xi independiente de Yj
i,j
Y j
h1 ~ N p1 ,
p1q1
n
p2 q2
m
y h2 ~ N p 2 ,
p2 q2
n
p q
p q
h1 h2 ~ N p1 p 2 ; 1 1 2 2
n
m
donde
p1 q1
n
independientes
h1 (1 h1 ) h2 (1 h2 )
n
m
h1 h2 ( p1 p 2 )
h1 (1 h1 )
n
h2 (1 h2 )
~ N ( 0,1)
p1 p2
sern de la forma:
h1 h2 z S
h h
2
X1 , X2 , ... , Xn
n X 2
~ n2
i
i 1
X i X 2 n 1 S x 2
2
i 1
n
Como
iid N( , ). Entonces
Xi
i 1,.... n
Xi X
2
~ n1
i 1
tenemos que:
( n 1). S ( x )
~ N (0,1)
~ n1
(n 1).S (2x )
2
P n 1;1 2
1
n
1
;
2
2
1
2n 1; 2
2
1
2
2
(n 1).S ( x ) n 1;1 2
(n 1).S (2x )
2n 1; 2
(n 1).S (2x )
2n 1;1 2
i,j
i 1
x
x
n
y y 2 ( n 1). S 2
j
( y)
2
~ m1
2
y
j 1
y
m
( n 1) S ( x )
2
S( x) y
. 2 ~ Fn 1,m1
2
2
( m 1) S
Sy
y
x
2
x ( n 1)
2
y ( m 1)
S(2y ) 2
x
.
~ F m1, n 1
S2x y2
que equivale a:
P
F
m1,n1;
( y) x
2 . 2 F m1,n 1;
S x y
S
P F m1,n 1;1
( y) x
. 2 F m1,n 1;
2
S x y
S
2
2 1
2 1
de donde se obtienen los intervalos de confianza para los cocientes de las variancias
y
2
S( x)
S
2
y
F m1,n 1;
( y)
2
S x
F m1,n 1;
S( x)
S
2
y
. F m1,n 1;
. F m1,n 1;
( y)
2
S x
con x
en poblaciones infinitas y x
N n
en poblaciones finitas
N 1
b)
con S x x
S x
n
en poblaciones infinitas y S x
S x
n
N n
en poblaciones finitas
N 1
X Y z
2.
x y
X Y z
2.
2 .S A
x y
X Y z
2 .S A
X Y z
2.
Sx
n
Sy
x y
X Y z
Sx
2
Sy
m
Definicin:
Hiptesis estadstica es un supuesto acerca de la distribucin de una variable aleatoria. Podemos
especificar una hiptesis dando el tipo de distribucin y el valor del parmetro (o valores de los
parmetros) que la definen.
Ejemplos:
1. X est normalmente distribuida con 100 y 10 .
2. Y es una variable binomial con p = 0.25
Frecuentemente (en la prctica), la distribucin poblacional est implcita, y la hiptesis estadstica slo
especifica el valor del parmetro.
Ejemplos :
3. La tasa media salarial es $185..
4. La proporcin de productos defectuosos en cierto proceso es inferior a 0.05, o sea p < 0.05.
Una hiptesis estadstica puede considerarse como un conjunto de hiptesis elementales. Al respecto, una
hiptesis estadstica puede ser simple o compuesta .
Una hiptesis simple es una especificacin del valor de un parmetro, como en el ejemplo (3).
En cambio, una hiptesis compuesta contiene ms de un valor del parmetro, como en el ejemplo (4), y se
la considera constituida por el conjunto de todas las hiptesis simples compatibles con ella.
Con el objeto de probar la validez de tales hiptesis, se lleva a cabo un experimento, y la hiptesis
formulada es desechada si los resultados obtenidos del experimento son improbables bajo dicha hiptesis.
Si los resultados no son improbables, la hiptesis no es desechada por falta de evidencia.
Una hiptesis compuesta es considerada verdadera (lo cual significa que no ser rechazada o desechada)
cuando alguna de las hiptesis simples que la componen pueda considerarse verdadera.
Ejemplo :
Supongamos que queremos probar la hiptesis de que la probabilidad de obtener un as al arrojar un
dado, es de 1/6 , y con tal fin arrojamos un dado 600 veces .
Si se obtienen 600 ases , este resultado es improbable bajo la hiptesis supuesta, lo cual nos lleva a
rechazarla pues la evidencia indica que ella es falsa .
Si se obtienen 100 ases , este resultado no sera improbable bajo la hiptesis supuesta, y sin duda la
hiptesis no ser rechazada , por falta de evidencia.
Obteniendo resultados como stos, la intuicin y el sentido comn son suficientes para tomar una
decisin. Sin embargo, en la prctica los experimentos no conducen a conclusiones tan obvias, de donde
surge la necesidad de un mtodo para probar la hiptesis, y esto implica establecer reglas de decisin .
El hecho de rechazar una hiptesis no significa que sta sea falsa, como tampoco el no rechazarla
significa que sea verdadera. La decisin tomada no esta libre de error. A este respecto, consideraremos
dos tipos de error que pueden ser cometidos, y que los denominaremos error de tipo I y error de tipo II, y
que consisten en:
Error I :Rechazar una hiptesis que es verdadera .
Error II : No rechazar una hiptesis que es falsa .
La forma de medir estos errores es mediante la probabilidad. Simbolizaremos con a la probabilidad de
rechazar una hiptesis verdadera, y con a la probabilidad de no rechazar una hiptesis falsa; por lo
tanto = P( rechazar H / H es verdadera ) y = P( no rechazar H / H es falsa )
Es deseable que estas dos probabilidades de error sean pequeas. Una forma cmoda de especificar lo que
se requiere de un procedimiento de prueba es concentrar la atencin en dos conjuntos posibles de valores
del parmetro, es decir, en dos hiptesis estadsticas, a las cuales llamaremos hiptesis nula designada
por H0 e hiptesis alternativa designada por H1 .
La prueba de hiptesis es un procedimiento de toma de decisiones , relacionada principalmente con la
eleccin de una accin entre dos posibles . Por lo tanto, cada hiptesis (nula y alternativa) la asociaremos
con una de las acciones. Esta designacin, en principio, es arbitraria, pero tpicamente la hiptesis nula
10
Ho es falsa
Correcto
error II - incorrecto
H0 : = 0 ; H1 : = 1
en dos subconjuntos que son : R = regin de rechazo o regin crtica que contiene los resultados
menos favorables a Ho , y A = regin de aceptacin o regin de no rechazo que contiene los resultados
11
, entonces :
P(eI ) P( c / o )
P(eII ) P( c / 1 )
P(eI ) P( c / o ) P(rech.H o / H o es verdadera) f o ( ).d
f1 ( ).d
donde f o ( ) y f1 ( ) son las funciones de densidad del estimador del parmetro , segn sea = 0
o = 1 respectivamente.
UBICACION DE LA REGION CRTICA
Fijado el nivel de significacin P ( rech. H o / H o es verdadera ) ,debemos dividir (separar) el
P( R / H o es verdadera) P( R / o )
Dnde ubicamos esta regin crtica R ?
Dada nuestra preocupacin de cometer un error de tipo II , deberemos escoger para R una ubicacin
donde la probabilidad de este error sea mnima :
H o : o
H 1 : o
0
A
0
0
x
R
para 1 o : P( A / 1 ) P( c / 1 ) f1 ( / 1 ).d
Caso II
12
H o : o
H 1 : o
1
1
para 1 o : P( A / 1 ) P( c / 1 ) f 1 ( / 1 ).d
0
0
0
Caso III
0 0 H o : o
H 1 : o
c2
13
Xi ~ N ( ,
) ,
n
n
H0 : = 0
vs
~ N (0 , 1)
H1 : 0
X 0
~ N (0 , 1)
Como la prueba es bilateral, se rechazar la hiptesis nula tanto como cuando se tenga evidencia de que la
media poblacional sea mayor que el valor postulado como cuando se tenga evidencia de que sea menor
que el valor postulado. Luego, se calculan dos valores crticos ( zc1 y zc2) para la variable pivotal o
estadstico de prueba, que son los valores de la distribucin Normal que dejan una probabilidad de
por debajo y por encima respectivamente: zc1 es tal que ( zc1) = y zc2 es tal que ( zc2) = 1-
zo
x obs 0
Se rechaza H0
No se rechaza H0
j = 1 .. m : Yj ~ N(y, y ).
1
X i ~ N ( x , x )
n
n
1
y
Y Yi ~ N ( y ,
)
m
m
X
con X eY independientes
Entonces
2
x2 y
X Y ~ N x y;
n
m
X Y ( x y )
2
x
14
y2
m
~ N 0 ; 1
H1 : x y
X Y
2
x
y2
~ N 0 ; 1
Como la prueba es bilateral, se rechazar la hiptesis nula cuando se tenga evidencia de que las medias
poblacionales difieren entre s. Luego, se calculan dos valores crticos ( zc1 y zc2) para la variable pivotal
o estadstico de prueba, que son los valores de la distribucin Normal que dejan una probabilidad de
por debajo y por encima respectivamente: zc1 es tal que (zc1) = y zc2 es tal que (zc2) = 1-
Se estandariza el valor observado de la diferencia entre las medias muestrales
zo
x obs y obs
x2
n
si zo > zc2
zo < zc1
si
zc1 < zo < zc2
y2
m
Se rechaza H0
No se rechaza
H0
X = Xi ~ B ( n , p ) .
npq ) .
h
X Xi
n
n
H0 : p = p0 vs
1
X i ~ N p,
n
pq
h p
pq
n
H1 : p p0
~ N 0 , 1
h p0
~ N 0 , 1
p 0 (1 p 0 )
n
Como la prueba es bilateral, se rechazar la hiptesis nula tanto como cuando se tenga evidencia de que la
proporcin poblacional sea mayor que el valor postulado como cuando se tenga evidencia de que sea
menor que el valor postulado. Luego, se calculan dos valores crticos (zc1 y zc2) para la variable pivotal o
estadstico de prueba, que son los valores de la distribucin Normal que dejan una probabilidad de
por debajo y por encima respectivamente: zc1 es tal que (zc1) = y zc2 es tal que (zc2) = 1-
hobs p 0
Se estandariza el valor observado de la proporcin muestral z o
del cual depender
p 0 (1 p 0 )
n
la decisin : si zo > zc2
zo < zc1
Se rechaza H0
si
zc1 < zo < zc2
No se rechaza H0
Si la hiptesis nula H0 es verdadera, entonces
15
p = p0
y por lo tanto
iid Bi(p1)
Y1 , Y2 , ... , Ym
iid Bi(p2)
con Xi independiente de Yj i j
1
1
Xi
y
h2 Y j
n
m
son independientes y se distribuyen aproximadamente :
h1
Sean
Luego, h1 y h2
h1 ~ N p1 ,
p1 q1
n
y h2 ~ N p 2 ,
p2 q2
m
pq
p q
h1 h2 ~ N p1 p 2 ; 1 1 2 2
n
m
h1 h2 p1 p 2
p1 q1 p 2 q 2
n
m
H0 : p1 = p2 vs
~ N 0 ; 1
H1 : p1 p2
donde p
p1 = p2
h1 h2
1 1
p (1 p )
n m
~ N 0 ; 1
n.h1 m.h2
es la proporcin de xitos (total) .
nm
Como la prueba es bilateral, se rechazar la hiptesis nula cuando se tenga evidencia de que las
proporciones poblacionales sean diferentes. Luego, se calculan dos valores crticos (zc1 y zc2) para la
variable pivotal o estadstico de prueba, que son los valores de la distribucin Normal que dejan una
probabilidad de por debajo y por encima respectivamente: zc1 es tal que ( zc1) = y zc2 es
zo
h1obs h2obs
1 1
p (1 p )
n m
si zo > zc2
zo < zc1
si
zc1 < zo < zc2
16
Se rechaza H0
No se rechaza H0
iid N( , )
X1 , X2 , ... , Xn
Xi X
i 1
n
Entonces :
~ n21
S (2x )
(n 1) S (2x )
Xi X
i 1
~ n21
H0 : 2 = 20 vs
( xi x ) 2
i 1
n 1
~ n21
H1 : 2 20
(n 1).S (2x )
2
~ n21
Como la prueba es bilateral, se rechazar la hiptesis nula tanto como cuando se tenga evidencia de que la
variancia poblacional sea mayor que el valor postulado como cuando se tenga evidencia de que sea menor
que el valor postulado. Luego, se calculan dos valores crticos (2c1 y 2c2) para la variable pivotal o
estadstico de prueba, que son los valores de la distribucin 2n-1 que dejan una probabilidad de
por debajo y por encima respectivamente : 2c1 es tal que P(2n-1 < 2c1) = y 2c2 es tal que
Se calcula el valor observado de la estadstica de prueba o variable pivotal que relaciona la variancia
2
(n 1).S obs
muestral con la poblacional
del cual depender la decisin :
o2
2
si
si
>
c1
c2
<
<
<
c2
c1
Se rechaza H0
No se rechaza H0
17
Xi x
X1 x
x
,......,
~ N (0,1) i 1..... n y
X n x
iid N (0,1) y
Yi y
Y1 y
~ N (0,1) j 1..... m
,......,
Ym y
iid N 0,1
2
x
2
n 1
(n 1).S (2y )
2
y
~ m2 1
S (2x ) y2
2 . 2 ~ Fn1,m1
(m 1) S (2y )
S( y) x
x2 (n 1)
y2 (m 1)
H0 : 2x = 2y vs
H1 : 2x 2y
y por lo tanto
S2
( x)
~ Fn 1,m1
S (2y )
Como la prueba es bilateral, se rechazar la hiptesis nula cuando se tenga evidencia de que las variancias
poblacionales difieren entre s. Luego, se calculan dos valores crticos (Fc1 y Fc2) para la variable pivotal
o estadstico de prueba, que son los valores de la distribucin F-Snedecor con n-1 y m-1 grados de
libertad, que dejan una probabilidad de por debajo y por encima respectivamente
Fc1 es tal
que P(Fn-1;m-1< Fc1) = y Fc2 es tal que P(Fn-1;m-1> Fc2) = .
Se calcula el valor observado de la estadstica de prueba o variable pivotal del cociente de las variancias
muestrales
Fo
S (2x ) obs
S (2y ) obs
Se rechaza H0
No se rechaza H0
Xi ~ N( , ).
Por lo tanto tenemos que X1 , X2 , ... , Xn iid N( , ). de donde se deduce que:
X
que implica
X ~ N ,
~ N (0,1)
n
n
X X
i
i 1
2
n 1
(n 1) S (2x )
~ n21
(n 1) S (2x )
, de distribucin normal
18
tn 1
H0 : = 0
vs
H1 : 0
X 0
S ( x)
t n 1
Como la prueba es bilateral, se rechazar la hiptesis nula cuando se tenga evidencia de que la media
poblacional sea mayor que el valor postulado como cuando se tenga evidencia de que sea menor que el
valor postulado. Luego, se calculan dos valores crticos (tc1 y tc2) para la variable pivotal o estadstico de
prueba, que son los valores de la distribucin t-Student con n-1 grados de libertad que dejan una
probabilidad de por debajo y por encima respectivamente: tc1 es tal que P(tn-1 < tc1) = y tc2 es
tal que P(tn-1 > tc2) = .
x obs
t o S ( x) 0
Se estandariza el valor observado de la media muestral
del cual depender la
n
Se rechaza H0
No se rechaza H0
Nota: Para tamaos grandes de muestra, esta distribucin tiende a la distribucin normal con parmetros
=0 y =1 .
X 0
~ N (0,1)
S ( x)
n
Xi ~ N(x, )
i=1..m ,
Yj ~ N(y, ).
2 2
X Y ~ N ;
, y por lo tanto
y
x
n
m
como tambin
19
X Y ( x y )
1 1
n m
~ N (0,1)
2
n 1
(m 1) S (2y )
~ m2 1
(n 1) S (2x ) (m 1) S (2y )
resulta
X Y (x y )
(n 1) S (2x ) (m 1) S (2y )
( n m 2)
donde
(n 1) S (2x ) (m 1) S (2y )
( n m 2)
H0 : x = y vs
~ t nm2
1 1
n m
H1 : x y
X Y
(n 1) S (2x ) (m 1) S (2y )
(n m 2)
~ n2 m 2
~ t n m2
y por lo tanto
X Y
~ t n m2
1 1
S A.
n m
o bien
1 1
n m
Como la prueba es bilateral, se rechazar la hiptesis nula cuando se tenga evidencia de que las medias
poblacionales sean diferentes. Luego, se calculan dos valores crticos (tc1 y tc2) para la variable pivotal
o estadstico de prueba, que son los valores de la distribucin t-Student con n+m-2 grados de libertad
que dejan una probabilidad de por debajo y por encima respectivamente :
tc1 es tal que P(tn+m-2 < tc1) = y
tc2 es tal que P(tn+m-2 > tc2) = .
Se estandariza el valor observado de la diferencia entre las medias muestrales
to > tc2
to < tc1
tc1 < to < tc2
zo
x obs y obs
1 1
S A.
n m
del
Se rechaza H0
No se rechaza H0
Nota: Para tamaos grandes de muestra, esta distribucin tiende a la distribucin normal con parmetros
=0 y =1 .
X Y
~ N (0,1) (n m )
1 1
S A.
n m
20