Mathematics">
Mpro2 U1 A2 Elvc
Mpro2 U1 A2 Elvc
Mpro2 U1 A2 Elvc
Asignatura: Probabilidad II
Grupo: MT-MPRO2-2001-B2-002
Matricula.ES1822028919
Resumen General
La conclusión a la que se llega.
Distribuciones de Probabilidad conjunta
I.-Introducción
III.-Marco Teórico:
En esta sección se hizo una revisión de los principales conceptos de
Distribuciones de probabilidad conjunta, con los que se trabajaran para poder
resolver problemas que involucran dichos conceptos.
1.-Vectores aleatorias: una variable aleatoria en un experimento aleatorio consiste
en asociar un valor numérico a cada suceso elemental del experimento. Interesa
fundamentalmente asignar probabilidades a dichos valores numéricos.
Formalmente, dados un experimento aleatorio ε, un espacio muestral Ω, una
familia de sucesos en Ω con una probabilidad P, diremos que una función
X: Ω→ R, es una variable aleatoria si 𝑋 −1 (-∞, x) = {ω ∈ Ω: X (ω) ≤ x} es un suceso
(Kelmansky, 2009).
2.-Funcion de probabilidad y Densidad conjunta:
Caso discreto la función de probabilidad es simplemente aquella función
que indica la probabilidad en los distintos valores que toma la variable
aleatoria. Esta lista de valores numéricos y sus probabilidades puede ser
finita o infinita, pero numerable. La función de probabilidad de X, denotada
𝑃(𝑋 = 𝑥) 𝑠𝑖 𝑥 = 𝑥0 , 𝑥1 , …
por f(x) : R → R, se define como sigue:𝑓(𝑥) =
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
caso continuo Sea X una variable aleatoria continua. Decimos que la
función integrable y no negativa f(x) : R → R es la función de densidad de X
si para cualquier intervalo (a, b) de R se cumple la igualdad
𝑏
𝑃(𝑋 ∈ [𝐴, 𝐵]) = ∫ 𝑓(𝑥)𝑑𝑥
𝑎
La función de densidad conjunta de las variables aleatorias y continuas X y
Y, si y solo si:𝑃[(𝑋, 𝑌) ∈ 𝐴] = ∬ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦
A Para cualquier región A en el plano xy
(Peña, 2001)
3.-funcion de distribución conjunta:
(v. a. discretas) Distribución de probabilidad conjunta de dos variables
aleatorias X, Y sobre un espacio de probabilidad común (Ω, A, P).
Llamaremos función de distribución conjunta , o simplemente distribución
conjunta, de X e Y , a la función 𝐹𝑋𝑌 = (𝑥, 𝑦) = 𝑃(𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦)
Variables aleatorias continuas: En algunas ocasiones usaremos FX,Y (x, y)
en lugar de F(x, y) para destacar que se trata de la distribución conjunta de
X e Y . La definición anterior indica que F(x, y) es la probabilidad de que el
punto (X, Y) pertenezca al cuadrante que queda “abajo y a la izquierda “del
punto (x, y), incluyendo el borde. (Moore, 1998)
4.-funcion de probabilidad y densidad marginal:
La función de probabilidad marginal de la variable discreta X, es la función
de probabilidad que se obtiene sumando las probabilidades conjuntas
Correspondientes a todos los valores posibles de la variable Y: 𝑃𝑥(𝑋) =
∑𝑦 𝑃(𝑥, 𝑦) Análogamente, para la variable Y, se obtiene sumando en todos
los valores posibles de la variable X: 𝑃𝑦(𝑌) = ∑𝑥 𝑃(𝑥, 𝑦)
La función de densidad marginal de la variable continua X es:
𝑓𝑥(𝑋) = ∫ 𝑓(𝑥, 𝑦)𝑑𝑦 Al igual con la variable Y es:𝑓𝑦(𝑌) = ∫ 𝑓(𝑥, 𝑦)𝑑𝑥
(Newbold, 2008)
5.-Funcion y distribución marginal: Las distribuciones marginales son las
distribuciones unidimensionales que nos informan del número de observaciones
para cada valor de una de las variables, (prescindiendo de la información sobre los
valores de las demás variables). De cada distribución bidimensional (las dos
variables aleatorias X, Y) se pueden deducir dos distribuciones marginales: una
correspondiente a la variable x, y otra correspondiente a la variable y. Es cuando
nos interesa conocer la distribución de un componente por separado, sin tener en
cuenta al otro componente. Eso se denomina "marginar", y la distribución de la
variable por separado se llama "distribución marginal".
𝐹𝑋(𝑥) = 𝑃(𝑋 ≤ 𝑥) = 𝐹(𝑥, +∞) = 𝑃(𝑋 ≤ 𝑥, 𝑌 ≤ +∞), 𝑥 ∈ 𝑅
.
6.-funcion y distribución condicional: En una distribución conjunta de frecuencias
absolutas (o de frecuencias relativas), recibe el nombre de distribución
condicionada la distribución de una de las variables condicionada a cada valor de
la otra variable.
Distribuciones de probabilidad bidimensional o conjunta si disponemos de dos
variables aleatorias podemos definir distribuciones bidimensionales de forma
semejante al caso unidimensional. Para el caso discreto tendremos: 𝑝(𝑥, 𝑦) =
𝑃(𝑋 = 𝑥, 𝑌 = 𝑦). 𝑐𝑜𝑛 ∑𝑥 ∑𝑦 𝑝(𝑥, 𝑦) = 1, 𝑝(𝑥, 𝑦) ≥ 0.
VI.-Desarrollo
Resumen:
Podemos decir que una variable aleatoria es una función que determina o
señala un valor numérico, al resultado de un experimento aleatorio. Y esta
puede ser discreta o continua. Las variables aleatorias discretas son
aquellas que presentan un número contable de valores; como por ejemplo,
el número de personas que viven en una casa (pueden ser 2, 6 o 8). Otro
tipo de variables con las variables aleatorias continuas y estas son aquellas
que presentan un número incontable de valores; por ejemplo, el peso de las
vacas en una granja (una vaca puede pesar 732,12 kg, otra puede pesar
683,123 kg, otra 283,201 kg, otra 199,886 kg y nunca terminaríamos de
enumerar todos los posibles valores).
De las variables se derivan las funciones de probabilidad y también se
dividen en discretas y continuas y las cuales se utilizan distintas fórmulas
para llegar a un resultado. La función de probabilidad de una variable
aleatoria discreta da probabilidades a los valores de la variable aleatoria, y
su fórmula es la siguiente:𝑓(𝑥) = 𝑃(𝑋, 𝑥)
La variable aleatoria continua es la que puede tomar cualquier valor
(teóricamente) entre 2 fijados. Los valores de la variable (teóricamente) no
se repiten. Como por ejemplo podemos decir “estatura”, “peso”. Cuando
vemos valores de una variable aleatoria continúa, existe una restricción en
cuanto al número de valores que puede tomar la misma. Esto significa, en
la práctica, la variable no toma infinitos valores. A la hora de medir el peso o
la estatura, por ejemplo, se trabaja con un número preciso de decimales
(que puede ser grande pero nunca será infinito). Lo que se está haciendo
es lo que se llama una discretización (Esto es un proceso que permite
separar en clases una serie de variables cualitativas o cuantitativas. Esta
ayuda simplifica la información agrupando los objetos geográficos que
presentan las mismas características en distintas clases a la hora que se
toman los datos).
Las variables aleatorias continuas vienen distinguidas por una función
llamada función de densidad, esto es una generalización de la función de
probabilidad. La función de densidad corresponde, desde un punto de vista
teórico, al polígono de frecuencias una vez que tenemos todos los datos de
una población (en teoría, infinitos). Las probabilidades se calculan como
una integral definida: P(a<X<b)=∫ f(𝑥) 𝑑𝑥 cuando calculemos la
probabilidad de que una variable continua tome valores entre dos números
a y b, podemos tener en cuenta que P(a<X<b)=P(a<X ≤b)=P(a ≤X ≤b)=P(a ≤X<b),
La función de densidad de una distribución normal tiene varios rasgos
importantes: Es una distribución que tiene forma de campana, es simétrica
y puede tomar valores entre menos infinito y más infinito.
La distribución conjunta. En probabilidad, es cuando dados dos eventos
aleatorios X y Y, es la distribución de probabilidad de la intersección de
eventos de X y Y, esto significa, que los dos eventos (X e Y) estén
ocurriendo de forma simultánea F(x, y) = P(X ≤ x, Y ≤ y). Cuando se usa
FX,Y (x, y) en lugar de F(x, y) es para decir que se trata de la distribución
Conjunta de X e Y.
La distribución marginal Las distribuciones marginales son las
distribuciones unidimensionales que nos informan del número de
observaciones para cada valor de una de las variables, (omitiendo de la
información sobre los valores de las demás variables). Se calcula mediante
la suma de las probabilidades de todos los eventos conjuntos en los que se
presenta dicho evento y facilita la probabilidad de un subconjunto de
valores del conjunto sin necesidad de conocer los valores de las otras
variables. A diferencia de la distribución condicional, que nos facilita
probabilidades secundarias del valor conocido de otras variables. Estas nos
dicen como se distribuyen, según una de las dos variables, el conjunto de
observaciones que cumplen una condición. Esta condición viene expresada
por un valor o conjunto de valores que presenta la otra variable.
La probabilidad condicional se escribe P(A|B) o P(A/B), y se lee
«la probabilidad de A dado B». No tiene por qué haber una relación causal
o temporal entre A y B.
La función de probabilidad marginal de la variable discreta X, es la
función de probabilidad que se da sumando las probabilidades conjuntas
correspondientes a todos los valores posibles de la variable Y px(x) = X y
p(x, y) similarmente, para la variable Y, se obtiene sumando en todos los
valores posibles de la variable X: py(y) = X x p(x, y).
La función de probabilidad marginal es usada para poder encontrar las
diferentes distribuciones de probabilidad estadística de las variables
individuales, con esta función podemos dar diferentes valores a las
variables conjuntas sin tener que relacionarlas, es por esto que se amplía
las probabilidades de cada una de las variables. Como características
podemos decir que la distribución marginal de X es simplemente la función
de probabilidad de x, pero la palabra marginal sirve para distinguirla de la
distribución conjunta de X e Y. Una distribución marginal nos da la idea de
la forma como depende una probabilidad con respecto a una sola variable.
También podemos decir que La distribución marginal de dos variables
aleatorias se puede obtener a partir de su distribución conjunta. Para una
variable aleatoria se puede precisar probabilidades para dicha variable sin
tener en cuenta los valores de cuales quiera otras variables aleatorias. La
probabilidad Marginal te permite obtener probabilidades totales.
Por ejemplo:
La función de densidad marginal de la variable continua X es fx(x) =
∫ 𝑓𝑥(𝑥, 𝑦)𝑑𝑦 al igual con la variable Y fy(y) = ∫ 𝑓𝑥(𝑥, 𝑦)𝑑𝑥
Las distribuciones condicionadas nos dicen como se distribuyen, según
una de las dos variables, el conjunto de observaciones que cumplen una
condición. Esta condición viene expresada por un valor o conjunto de
valores que presenta la otra variable. La probabilidad condicional se escribe
P (A|B) o P(A/B), y se lee «la probabilidad de A dado B». No tiene por qué
haber una relación causal o temporal entre A y B.
Dos variables aleatorias son independientes si los valores que toma una de
ellas no afectan a los de la otra ni a sus probabilidades. X e Y son
independientes si y sólo si
P(X ≤ a ∩ Y ≤ b) = P(X ≤ a) · P(Y ≤ b) = FX(a) · FY(b).
Conclusión:
Los resultados que se obtienen de un experimento pueden ser causa de
muchas variables. En este tipo de situaciones se necesita tener una
función de probabilidad que describa la variación de la probabilidad de
ocurrencia con respecto a la variación de estas variables. Esta función de
probabilidad tiene en cuenta el efecto de muchas variables aleatorias se
denomina distribución de probabilidad conjunta. Una distribución de
probabilidad conjunta puede ser discreta o continua dependiendo del tipo
de variables que se describe
La Probabilidad es la mayor o menor posibilidad de que ocurra un
determinado suceso. En otras palabras, su idea viene de la necesidad de
medir o determinar cuantitativamente el convencimiento o duda de que un
suceso dado ocurra o no.
Ésta establece una relación entre el número de sucesos favorables y el
número total de sucesos posibles. Por ejemplo, lanzar un dado, y que salga
el número uno (caso favorable) está en relación a seis casos posibles (1, 2,
3, 4, 5 y 6); es decir, la probabilidad es 1/6.
Las distribuciones marginales son las distribuciones unidimensionales que
nos informan del número de observaciones para cada valor de una de las
variables, (omitiendo la información sobre los valores de las demás
variables). Nos proporcionan una herramienta importante al realizar
estudios en los cuales se pueden tomar dos o más variables para el objeto
de nuestro estudio.
Referencias