Mathematics">
Nothing Special   »   [go: up one dir, main page]

Mpro2 U1 A2 Elvc

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 8

Licenciatura en Matemáticas

Asignatura: Probabilidad II

Unidad 1.-Vectores aleatorios y Convolucion

Actividad 2.-Distribuciones de Probabilidad

Alumna: Elda Josefina Vázquez Calderón

Grupo: MT-MPRO2-2001-B2-002

Matricula.ES1822028919

Docente: Braulio Samuel Colmenero Mejía


Unidad 1 Actividad 2
Realizar un resumen personal de lo comprendido, como Actividad 2, basándose:
en tu investigación, lectura del apoyo pdf de la unidad, revisión de los videos
(actividad 1 y actividad 2) y el contenido de la siguiente liga.
Rincón, Luis (2014). Introducción a la probabilidad. Universidad Autónoma de
México.
http://lya.fciencias.unam.mx/lars/Publicaciones/Prob1-2014.pdf

Considera los temas y subtemas de esta actividad que se encuentran en la parte


izquierda y realiza tu resumen en base a la liga del libro y de los videos que se
muestran en la actividad 1 y 2, de tal forma que las recomendaciones generadas
durante el resumen sean lo más viables posibles.
Para la actividad 2, el resumen, desarrolla los siguientes puntos en un reporte y
entrégalo por medio de la plataforma:
Título del Resumen: (Define el nombre que tendrá tu resumen de acuerdo con la
particularidad del contexto y la situación.)

Introducción (extensión mínima de media cuartilla).Da una idea general de la


investigación, y revisión del pdf, videos y la liga, que denote creatividad, de
manera que el lector se interese por leer el resumen realizado.

Objetivo general del proyecto: (Responde a lo que entendiste y a lo que se


pretende aprender. El objetivo debe ser específico.)

Marco teórico (extensión mínima una cuartilla).En este apartado incluye


información relevante relacionada con el tema del resumen, de tal modo que se
justifique por medio de fuentes confiables:
En esta primera parte del resumen investiga acerca de los conceptos de la
Distribución de la Probabilidad conjunta.
Utiliza al menos dos fuentes confiables, así como cita y referencia en formato
APA.
Desarrollo (extensión mínima dos cuartillas).
El desarrollo debe ser el resumen en general donde plasmes las ideas de lo
comprendido y aprendido de los temas y subtemas que marca la planeación
didáctica, en la actividad 2, basándote en el pdf de la unidad 1, videos y de la liga
que se menciona a continuación.
http://lya.fciencias.unam.mx/lars/Publicaciones/Prob1-2014.pdf
Incluye lo siguiente:

Resumen General
La conclusión a la que se llega.
Distribuciones de Probabilidad conjunta

I.-Introducción

Existen experimentos que involucran dos o más factores diferentes para su


descripción, tales experimentos requieren de la asignación de un tipo diferente de
variable aleatoria para cada factor. Para el estudio de este tipo de experimentos,
se trabajan conceptos multivariados, conceptos que involucran, en general, más
de dos variables aleatorias, ya sea un número finito o una sucesión infinita de
variables. Se trabaja con distintas distribuciones para vectores aleatorios,
principalmente con dos componentes, y sus aplicaciones teóricas y prácticas, la
importancia del estudio de este tipo de elementos se debe a que en un
experimento mientras más variables de consideren mejor será la interpretación de
este. Por tal motivo estudiaremos la función y distribución de probabilidad conjunta
(caso discreto y continuo), distribuciones marginales y distribuciones condicionales

II.-Objetivo general del proyecto:


Atreves de esta actividad, podremos resolver problemas, que involucran los
conocimientos obtenidos. Aplicar las habilidades aprendidas después de haber
comprendido los conceptos y como obtener una resolución de dichos problemas.

III.-Marco Teórico:
En esta sección se hizo una revisión de los principales conceptos de
Distribuciones de probabilidad conjunta, con los que se trabajaran para poder
resolver problemas que involucran dichos conceptos.
1.-Vectores aleatorias: una variable aleatoria en un experimento aleatorio consiste
en asociar un valor numérico a cada suceso elemental del experimento. Interesa
fundamentalmente asignar probabilidades a dichos valores numéricos.
Formalmente, dados un experimento aleatorio ε, un espacio muestral Ω, una
familia de sucesos en Ω con una probabilidad P, diremos que una función
X: Ω→ R, es una variable aleatoria si 𝑋 −1 (-∞, x) = {ω ∈ Ω: X (ω) ≤ x} es un suceso
(Kelmansky, 2009).
2.-Funcion de probabilidad y Densidad conjunta:
 Caso discreto la función de probabilidad es simplemente aquella función
que indica la probabilidad en los distintos valores que toma la variable
aleatoria. Esta lista de valores numéricos y sus probabilidades puede ser
finita o infinita, pero numerable. La función de probabilidad de X, denotada
𝑃(𝑋 = 𝑥) 𝑠𝑖 𝑥 = 𝑥0 , 𝑥1 , …
por f(x) : R → R, se define como sigue:𝑓(𝑥) =
0 𝑒𝑛 𝑜𝑡𝑟𝑜 𝑐𝑎𝑠𝑜
 caso continuo Sea X una variable aleatoria continua. Decimos que la
función integrable y no negativa f(x) : R → R es la función de densidad de X
si para cualquier intervalo (a, b) de R se cumple la igualdad
𝑏
𝑃(𝑋 ∈ [𝐴, 𝐵]) = ∫ 𝑓(𝑥)𝑑𝑥
𝑎
 La función de densidad conjunta de las variables aleatorias y continuas X y
Y, si y solo si:𝑃[(𝑋, 𝑌) ∈ 𝐴] = ∬ 𝑓(𝑥, 𝑦)𝑑𝑥𝑑𝑦
A Para cualquier región A en el plano xy
(Peña, 2001)
3.-funcion de distribución conjunta:
 (v. a. discretas) Distribución de probabilidad conjunta de dos variables
aleatorias X, Y sobre un espacio de probabilidad común (Ω, A, P).
Llamaremos función de distribución conjunta , o simplemente distribución
conjunta, de X e Y , a la función 𝐹𝑋𝑌 = (𝑥, 𝑦) = 𝑃(𝑋 ≤ 𝑥, 𝑌 ≤ 𝑦)
 Variables aleatorias continuas: En algunas ocasiones usaremos FX,Y (x, y)
en lugar de F(x, y) para destacar que se trata de la distribución conjunta de
X e Y . La definición anterior indica que F(x, y) es la probabilidad de que el
punto (X, Y) pertenezca al cuadrante que queda “abajo y a la izquierda “del
punto (x, y), incluyendo el borde. (Moore, 1998)
4.-funcion de probabilidad y densidad marginal:
 La función de probabilidad marginal de la variable discreta X, es la función
de probabilidad que se obtiene sumando las probabilidades conjuntas
Correspondientes a todos los valores posibles de la variable Y: 𝑃𝑥(𝑋) =
∑𝑦 𝑃(𝑥, 𝑦) Análogamente, para la variable Y, se obtiene sumando en todos
los valores posibles de la variable X: 𝑃𝑦(𝑌) = ∑𝑥 𝑃(𝑥, 𝑦)
 La función de densidad marginal de la variable continua X es:
𝑓𝑥(𝑋) = ∫ 𝑓(𝑥, 𝑦)𝑑𝑦 Al igual con la variable Y es:𝑓𝑦(𝑌) = ∫ 𝑓(𝑥, 𝑦)𝑑𝑥
(Newbold, 2008)
5.-Funcion y distribución marginal: Las distribuciones marginales son las
distribuciones unidimensionales que nos informan del número de observaciones
para cada valor de una de las variables, (prescindiendo de la información sobre los
valores de las demás variables). De cada distribución bidimensional (las dos
variables aleatorias X, Y) se pueden deducir dos distribuciones marginales: una
correspondiente a la variable x, y otra correspondiente a la variable y. Es cuando
nos interesa conocer la distribución de un componente por separado, sin tener en
cuenta al otro componente. Eso se denomina "marginar", y la distribución de la
variable por separado se llama "distribución marginal".
𝐹𝑋(𝑥) = 𝑃(𝑋 ≤ 𝑥) = 𝐹(𝑥, +∞) = 𝑃(𝑋 ≤ 𝑥, 𝑌 ≤ +∞), 𝑥 ∈ 𝑅
.
6.-funcion y distribución condicional: En una distribución conjunta de frecuencias
absolutas (o de frecuencias relativas), recibe el nombre de distribución
condicionada la distribución de una de las variables condicionada a cada valor de
la otra variable.
Distribuciones de probabilidad bidimensional o conjunta si disponemos de dos
variables aleatorias podemos definir distribuciones bidimensionales de forma
semejante al caso unidimensional. Para el caso discreto tendremos: 𝑝(𝑥, 𝑦) =
𝑃(𝑋 = 𝑥, 𝑌 = 𝑦). 𝑐𝑜𝑛 ∑𝑥 ∑𝑦 𝑝(𝑥, 𝑦) = 1, 𝑝(𝑥, 𝑦) ≥ 0.

7.-Generalizacion de independencia de variables aleatorias.


De manera intuitiva podemos decir que dos variables aleatorias son
independientes si los valores que toma una de ellas no afectan a los de la otra ni a
sus probabilidades dos sucesos son independientes si la probabilidad de la
intersección es igual al producto de probabilidades, aplicando esta definición a
sucesos del tipo X ≤ a tenemos la definición siguiente:
Diremos que dos variables aleatorias X e Y son independientes si y sólo si
P(X ≤ a ∩ Y ≤ b) = P(X ≤ a) · P (Y ≤ b) = FX(a) · FY (b)

VI.-Desarrollo
 Resumen:
Podemos decir que una variable aleatoria es una función que determina o
señala un valor numérico, al resultado de un experimento aleatorio. Y esta
puede ser discreta o continua. Las variables aleatorias discretas son
aquellas que presentan un número contable de valores; como por ejemplo,
el número de personas que viven en una casa (pueden ser 2, 6 o 8). Otro
tipo de variables con las variables aleatorias continuas y estas son aquellas
que presentan un número incontable de valores; por ejemplo, el peso de las
vacas en una granja (una vaca puede pesar 732,12 kg, otra puede pesar
683,123 kg, otra 283,201 kg, otra 199,886 kg y nunca terminaríamos de
enumerar todos los posibles valores).
De las variables se derivan las funciones de probabilidad y también se
dividen en discretas y continuas y las cuales se utilizan distintas fórmulas
para llegar a un resultado. La función de probabilidad de una variable
aleatoria discreta da probabilidades a los valores de la variable aleatoria, y
su fórmula es la siguiente:𝑓(𝑥) = 𝑃(𝑋, 𝑥)
La variable aleatoria continua es la que puede tomar cualquier valor
(teóricamente) entre 2 fijados. Los valores de la variable (teóricamente) no
se repiten. Como por ejemplo podemos decir “estatura”, “peso”. Cuando
vemos valores de una variable aleatoria continúa, existe una restricción en
cuanto al número de valores que puede tomar la misma. Esto significa, en
la práctica, la variable no toma infinitos valores. A la hora de medir el peso o
la estatura, por ejemplo, se trabaja con un número preciso de decimales
(que puede ser grande pero nunca será infinito). Lo que se está haciendo
es lo que se llama una discretización (Esto es un proceso que permite
separar en clases una serie de variables cualitativas o cuantitativas. Esta
ayuda simplifica la información agrupando los objetos geográficos que
presentan las mismas características en distintas clases a la hora que se
toman los datos).
Las variables aleatorias continuas vienen distinguidas por una función
llamada función de densidad, esto es una generalización de la función de
probabilidad. La función de densidad corresponde, desde un punto de vista
teórico, al polígono de frecuencias una vez que tenemos todos los datos de
una población (en teoría, infinitos). Las probabilidades se calculan como
una integral definida: P(a<X<b)=∫ f(𝑥) 𝑑𝑥 cuando calculemos la
probabilidad de que una variable continua tome valores entre dos números
a y b, podemos tener en cuenta que P(a<X<b)=P(a<X ≤b)=P(a ≤X ≤b)=P(a ≤X<b),
La función de densidad de una distribución normal tiene varios rasgos
importantes: Es una distribución que tiene forma de campana, es simétrica
y puede tomar valores entre menos infinito y más infinito.
La distribución conjunta. En probabilidad, es cuando dados dos eventos
aleatorios X y Y, es la distribución de probabilidad de la intersección de
eventos de X y Y, esto significa, que los dos eventos (X e Y) estén
ocurriendo de forma simultánea F(x, y) = P(X ≤ x, Y ≤ y). Cuando se usa
FX,Y (x, y) en lugar de F(x, y) es para decir que se trata de la distribución
Conjunta de X e Y.
La distribución marginal Las distribuciones marginales son las
distribuciones unidimensionales que nos informan del número de
observaciones para cada valor de una de las variables, (omitiendo de la
información sobre los valores de las demás variables). Se calcula mediante
la suma de las probabilidades de todos los eventos conjuntos en los que se
presenta dicho evento y facilita la probabilidad de un subconjunto de
valores del conjunto sin necesidad de conocer los valores de las otras
variables. A diferencia de la distribución condicional, que nos facilita
probabilidades secundarias del valor conocido de otras variables. Estas nos
dicen como se distribuyen, según una de las dos variables, el conjunto de
observaciones que cumplen una condición. Esta condición viene expresada
por un valor o conjunto de valores que presenta la otra variable.
La probabilidad condicional se escribe P(A|B) o P(A/B), y se lee
«la probabilidad de A dado B». No tiene por qué haber una relación causal
o temporal entre A y B.
La función de probabilidad marginal de la variable discreta X, es la
función de probabilidad que se da sumando las probabilidades conjuntas
correspondientes a todos los valores posibles de la variable Y px(x) = X y
p(x, y) similarmente, para la variable Y, se obtiene sumando en todos los
valores posibles de la variable X: py(y) = X x p(x, y).
La función de probabilidad marginal es usada para poder encontrar las
diferentes distribuciones de probabilidad estadística de las variables
individuales, con esta función podemos dar diferentes valores a las
variables conjuntas sin tener que relacionarlas, es por esto que se amplía
las probabilidades de cada una de las variables. Como características
podemos decir que la distribución marginal de X es simplemente la función
de probabilidad de x, pero la palabra marginal sirve para distinguirla de la
distribución conjunta de X e Y. Una distribución marginal nos da la idea de
la forma como depende una probabilidad con respecto a una sola variable.
También podemos decir que La distribución marginal de dos variables
aleatorias se puede obtener a partir de su distribución conjunta. Para una
variable aleatoria se puede precisar probabilidades para dicha variable sin
tener en cuenta los valores de cuales quiera otras variables aleatorias. La
probabilidad Marginal te permite obtener probabilidades totales.
Por ejemplo:
La función de densidad marginal de la variable continua X es fx(x) =
∫ 𝑓𝑥(𝑥, 𝑦)𝑑𝑦 al igual con la variable Y fy(y) = ∫ 𝑓𝑥(𝑥, 𝑦)𝑑𝑥
Las distribuciones condicionadas nos dicen como se distribuyen, según
una de las dos variables, el conjunto de observaciones que cumplen una
condición. Esta condición viene expresada por un valor o conjunto de
valores que presenta la otra variable. La probabilidad condicional se escribe
P (A|B) o P(A/B), y se lee «la probabilidad de A dado B». No tiene por qué
haber una relación causal o temporal entre A y B.
Dos variables aleatorias son independientes si los valores que toma una de
ellas no afectan a los de la otra ni a sus probabilidades. X e Y son
independientes si y sólo si
P(X ≤ a ∩ Y ≤ b) = P(X ≤ a) · P(Y ≤ b) = FX(a) · FY(b).

 Conclusión:
Los resultados que se obtienen de un experimento pueden ser causa de
muchas variables. En este tipo de situaciones se necesita tener una
función de probabilidad que describa la variación de la probabilidad de
ocurrencia con respecto a la variación de estas variables. Esta función de
probabilidad tiene en cuenta el efecto de muchas variables aleatorias se
denomina distribución de probabilidad conjunta. Una distribución de
probabilidad conjunta puede ser discreta o continua dependiendo del tipo
de variables que se describe
La Probabilidad es la mayor o menor posibilidad de que ocurra un
determinado suceso. En otras palabras, su idea viene de la necesidad de
medir o determinar cuantitativamente el convencimiento o duda de que un
suceso dado ocurra o no.
Ésta establece una relación entre el número de sucesos favorables y el
número total de sucesos posibles. Por ejemplo, lanzar un dado, y que salga
el número uno (caso favorable) está en relación a seis casos posibles (1, 2,
3, 4, 5 y 6); es decir, la probabilidad es 1/6.
Las distribuciones marginales son las distribuciones unidimensionales que
nos informan del número de observaciones para cada valor de una de las
variables, (omitiendo la información sobre los valores de las demás
variables). Nos proporcionan una herramienta importante al realizar
estudios en los cuales se pueden tomar dos o más variables para el objeto
de nuestro estudio.
Referencias

Kelmansky, D. (2009). Estadistica para todos. En D. D. Kelmansky, Estadistica


para todos (págs. 57-65). Buenos Aires, Argentina: Saavedra.

Moore, D. (1998). Estadistica Aplicada Básica. Barcelona: Editorial Antoni Bosch.

Newbold, P. (2008). Estadistica para la administracion y economia. Mdrid: Pearson


Educacion, S.A.

Peña, D. (2001). Fundamentos de la estadistica. Madrid: Alianza Editorial.

También podría gustarte