Distribución Binomial
Distribución Binomial
Distribución Binomial
En cada prueba del experimento sólo son posibles dos resultados: el suceso
A (éxito) y su contrario(fracaso).
El resultado obtenido en cada prueba es independiente de los resultados
obtenidos anteriormente.
La probabilidad del suceso A es constante, la representamos por p, y no
varía de una prueba a otra. La probabilidad de es 1- p y la
representamos por q .
El experimento consta de un número n de pruebas.
Todo experimento que tenga estas características diremos que sigue el modelo de la
distribución Binomial. A la variable X que expresa el número de éxitos obtenidos en cada
prueba del experimento, la llamaremos variable aleatoria binomial.
La variable binomial es una variable aleatoria discreta, sólo puede tomar los valores 0, 1, 2,
3, 4, ..., n suponiendo que se han realizado n pruebas. Como hay que considerar todas las
maneras posibles de obtener k-éxitos y (n-k) fracasos debemos calcular éstas por
combinaciones (número combinatorio n sobre k).
Como el cálculo de estas probabilidades puede resultar algo tedioso se han construido
tablas para algunos valores de n y p que nos facilitan el trabajo.
Esta función de distribución proporciona, para cada número real xi, la probabilidad de que
la variable X tome valores menores o iguales que xi.
El cálculo de las F(x) = p( X x) puede resultar laborioso, por ello se han construido tablas
para algunos valores de n y p que nos facilitan el trabajo.
Ejemplo 1
Una máquina fabrica una determinada pieza y se sabe que produce un 7 por 1000 de piezas
defectuosas. Hallar la probabilidad de que al examinar 50 piezas sólo haya una defectuosa.
Solución :
Se trata de una distribución binomial de parámetros B(50, 0'007) y debemos calcular la
probabilidad p(X=1).
Ejemplo 2
Solución :
Un experimento de Bernoulli se caracteriza por ser dicotómico, esto es, sólo son posibles
dos resultados. A uno de estos se denomina éxito y tiene una probabilidad de ocurrencia p y
al otro, fracaso, con una probabilidad q = 1 - p. En la distribución binomial el anterior
experimento se repite n veces, de forma independiente, y se trata de calcular la probabilidad
de un determinado número de éxitos. Para n = 1, la binomial se convierte, de hecho, en una
distribución de Bernoulli.
Para representar que una variable aleatoria X sigue una distribución binomial de parámetros
n y p, se escribe:
La distribución binomial es la base del test binomial de significación estadística.
Distribución geométrica
De Wikipedia, la enciclopedia libre
Cual de éstas es la que uno llama "la" distribución geométrica, es una cuestión de
convención y conveniencia.
Propiedades [editar]
Si la probabilidad de éxito en cada ensayo es p, entonces la probabilidad de que n ensayos
sean necesarios para obtener un éxito es
para n = 1, 2, 3,.... Equivalentemente, la probabilidad de que haya n fallos antes del primer
éxito es
La distribución geométrica del número y de fallos antes del primer éxito es infinitamente
divisible, esto es, para cualquier entero positivo n, existen variables aleatorias
independientes Y 1,..., Yn distribuidas idénticamente la suma de las cuales tiene la misma
distribución que tiene Y. Estas no serán geométricamente distribuidas a menos que n = 1.
Distribución de Poisson
Fue descubierta por Siméon-Denis Poisson, que la dio a conocer en 1838 en su trabajo
Recherches sur la probabilité des jugements en matières criminelles et matière civile
(Investigación sobre la probabilidad de los juicios en materias criminales y civiles).
Propiedades [editar]
La función de densidad de la distribución de Poisson es
Tanto el valor esperado como la varianza de una variable aleatoria con distribución de
Poisson son iguales a λ. Los momentos de orden superior son polinomios de Touchard en λ
cuyos coeficientes tienen una interpretación combinatorio. De hecho, cuando el valor
esperado de la distribución de Poisson es 1, entonces según la fórmula de Dobinski, el n-
ésimo momento iguala al número de particiones de tamaño n.
Caracterización [editar]
Función de densidad de probabilidad [editar]
Los valores en los dos extremos a y b no son por lo general importantes porque no afectan
el valor de las integrales de f(x) dx sobre el intervalo, ni de x f(x) dx o expresiones similares.
A veces se elige que sean cero, y a veces se los elige con el valor 1/(b − a). Este último
resulta apropiado en el contexto de estimación por el método de maximum likelihood. En el
contexto del análisis de Fourier, se puede elegir que el valor de f(a) ó f(b) sean 1/(2(b − a)),
para que entonces la transformada inversa de muchas transformadas integrales de esta
función uniforme resulten en la función inicial, de otra forma la función que se obtiene
sería igual "en casi todo punto", o sea excepto en un conjunto de puntos con medida nula.
También, de esta forma resulta consistente con la función signo que no posee dicha
ambigüedad.
Su parámetro es β.
La media y la varianza de la distribución exponencial son:
Distribución normal
etc.
Distribución gamma
De Wikipedia, la enciclopedia libre
E[X] = k / λ = kθ
V(X) = k / λ2 = kθ2
Relaciones [editar]
El tiempo hasta que el suceso número k ocurre en un Proceso de Poisson de intensidad λ es
una variable aleatoria con distribución gamma. Eso es la suma de k variables aleatorias
independientes de distribución exponencial con parámetro λ.
Distribución de Erlang
De Wikipedia, la enciclopedia libre
Parámetros
alt.:
Dominio
Función de
densidad
(pdf)
Función de
distribución
(cdf)
Media
Mediana —
Moda for
Varianza
Coeficiente
de simetría
Curtosis
Entropía
Función
generadora
de momentos for
(mgf)
Función
característica