Science">
Nothing Special   »   [go: up one dir, main page]

Practica INF164

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 6

TEORÍA DE LA INFORMACIÓN Y CODIFICACIÓN

INF – 164

PRÁCTICA 1
NOMBRE: JHOVANY JORGE CONDORI TICONA

DOCENTE: LIC. ALDO VALDEZ ALVARADO

CI: 8421052 L.P.

-----------------------------------------------------------------------------------------------------------------------------------------------------------

1. Responder a las siguientes preguntas:

a) ¿Qué es la Teoría de la Información y Codificación?

R.- La teoría de la información y codificación es un campo de la cibernética que se ocupa de la


descripción y evaluación matemática de los métodos de transmisión, conservación, extracción,
clasificación y medida de la información.

b) ¿A cuántos bits equivale 5 nat’s, 10 Hartley’s?

R.- 5 nat’s = 7.2 bits 10 Hartley’s = 33.2 bits

c) ¿Qué es la Cantidad de Información?

R.- Es la medida de la información en Bits

d) ¿Cuándo I(si) = 0? Explique su significado.

R.- Si la cantidad de información es igual a 0 significa que la probabilidad de que ocurra este suceso es 1
no provee ninguna información

e) ¿Qué es una Fuente de Información?

R.- Es un elemento que entrega una señal

f) Explique las diferencias entre Fuentes de Memoria Nula y Fuentes con Memoria.

R.- En las fuentes de memoria nula los símbolos son estadísticamente independientes entre si mientras
que en las fuentes con memoria los símbolos no son estadísticamente independientes.

g) ¿Cuándo la Entropía de una Fuente de Memoria Nula es mínima?

R.- El valor mínimo se obtendrá cuando el conocimiento del símbolo generado por la fuente no nos
proporcione ninguna información.

h) ¿Cuándo la Entropía de una Fuente de Memoria Nula es máxima?

R.- El valor máximo se obtendrá cuando la variable adquiera el valor de 0.5 o valor medio

j) ¿Cuál es el significado de una distribución de probabilidad conjunta?

R.- Forman dos o más variables aleatorias cuando sus realizaciones se producen simultáneamente

k) ¿Cuál es el significado de una distribución de probabilidad condicional?


R.- es la probabilidad de que ocurra el evento A sabiendo que también sucede otro evento B

l) ¿En qué consiste una fuente de Markov?

R.- Consiste en que la presencia de un determinado símbolo depende de un numero finito de símbolos
precedentes.

m) Describa que es una fuente Ergódica y en que consiste la Distribución Estacionaria.

R.- una fuente ergódica es aquella que observada durante un tiempo suficientemente largo emite una
probabilidad 1 una secuencia típica de símbolos.

La distribución estacionaria es un proceso ergódico que no depende de la distribución inicial .

n) En una fuente de Markov de orden m, ¿Cuántos estados son posibles?

R.- Son posibles qm estados posibles

2. Sea S = {s1, s2, . . . , sN} un alfabeto para alguna fuente de N símbolos. Calcular la Entropía para cada
una de las siguientes distribuciones de probabilidad:

a) N = 3; P(s1) = 0.3, P(s2) = 0.35, P(s3) = 0.35

b) N = 4; P(s1) = 0.5, P(s2) = 0.25, P(s3) = 0.125, P(s4) = 0.125


c) N = 5; P(s1) = 0.25, P(s2) = 0.25, P(s3) = 0.25, P(s4) = 0.125, P(s5) = 0.125

3. Sean S y T fuentes de memoria nula. Demostrar.

H(S*T) = H(S) + H(T)


4. Encontrar la Entropía de la tercera extensión de una fuente S de dos símbolos, cuyas

probabilidades son 4/5 y 1/5 respectivamente.

5. Determine la Entropía presente si:

a) Se arroja un dado.

b) Se arroja dos dados al mismo tiempo.


6. Sea S la extensión de tercer orden de una fuente binaria de memoria nula cuya

probabilidad de emitir un 0 es igual a p. Otra fuente T observa las salidas de S, emitiendo

un 0, 1, 2 ó 3 según que la salida de S contenga 0, 1, 2 ó 3 ceros. Calcular:

a) H(S).

b) H(T).

c) H(S) – H(T). Interpretar el significado de la diferencia de entropías.


7. Demostrar que para cualquier fuente de Markov de orden m se cumple:

H(Sn) = n * H(S)

También podría gustarte