Nothing Special   »   [go: up one dir, main page]

To install click the Add extension button. That's it.

The source code for the WIKI 2 extension is being checked by specialists of the Mozilla Foundation, Google, and Apple. You could also do it yourself at any point in time.

4,5
Kelly Slayton
Congratulations on this excellent venture… what a great idea!
Alexander Grigorievskiy
I use WIKI 2 every day and almost forgot how the original Wikipedia looks like.
What we do. Every page goes through several hundred of perfecting techniques; in live mode. Quite the same Wikipedia. Just better.
.
Leo
Newton
Brights
Milds

Capacidad de canal

De Wikipedia, la enciclopedia libre

En Teoría de la Información, la capacidad de un canal de comunicación es la cantidad máxima de información que /s (bps).[1]

YouTube Encyclopedic

  • 1/5
    Views:
    303
    325
    2 471
    3 605
    37 889
  • Capacidad de transmisión de un medio sin ruido
  • Capacidad de transmisión de un medio con ruido
  • Teoría Información y Codificación - Módulo 1, Clase 3
  • Incapacidad y capacidad restringida en el nuevo CCyCU
  • hm1.12 Medición de capacidad, peso y volumen

Transcription

Definición matemática

Existen dos definiciones equivalentes entre sí del concepto de capacidad de un canal, una es para canales de tiempo continuo y la otra es para canales de tiempo discreto.

Definición para canales discretos

Un canal discreto (sin memoria) está definido por:

  • el alfabeto de entrada, , que es el conjunto de símbolos que pueden ser transmitidos por el canal
  • el alfabeto de salida, , que es el conjunto de símbolos que pueden ser recibidos a la salida del canal
  • las relaciones estadísticas entre los símbolos de entrada y los de salida , esta información viene definida por la matriz de probabilidades condicionadas del canal donde

Se define la entropía de entrada, entropía de salida y entropía de entrada condicionada por la salida como

La información mutua entre la entrada y la salida del canal la denotamos por y es una medida de lo que el conocimiento de la entrada reduce la incertidumbre sobre la salida y viceversa


Esta información mutua depende de la distribución de probabilidad de la entrada . Para una determinada distribución de entrada, alcanza un máximo, este máximo es precisamente lo que se conoce como la capacidad del canal

Definición para canales continuos

La definición de capacidad para canales continuos es un poco diferente y exige utilizar el Teorema del muestreo y algunos otros conceptos de teoría de la señal, además de los conceptos puramente estadísticos vistos en el apartado anterior.


Ampliando los estudios del físico Harry Nyquist, compañero en los Laboratorios Bell, Claude Shannon demostró en 1949 que la capacidad teórica máxima de un canal de comunicaciones limitado en banda con ruido AWGN (ruido blanco aditivo gausiano) responde a la ecuación:

bits/s (bps)

La ecuación anterior muestra que la capacidad de un canal está limitada por su ancho de banda () y por su relación señal/ruido (). En términos de eficiencia espectral resulta:

bps/Hz

es decir, la eficiencia espectral máxima depende de la calidad del canal (de su nivel de ruido).

Bit físico vs bit de información

En la ecuación de capacidad, el término "bit" no se refieren a un bit "físico" (por ejemplo un "0" lógico o un "1" lógico almacenado en una memoria digital) sino a un bit de información (entropía).

La diferencia entre ambos tipos de bit es que el primer tipo es un dígito binario mientras que el segundo es una unidad de información. La entropía se mide en diferentes tipos de unidades dependiendo de la base que elijamos para el logaritmo:

  • bits si elegimos base 2
  • nats si elegimos base e
  • hartleys si elegimos base 10

Los bits físicos solo se pueden identificar con bits de información cuando han sido comprimidos con un codificador de fuente óptimo (el que utiliza un código cuya longitud media es igual a la entropía de la fuente, ) para eliminar todos los bits físicos redundantes.

Por ejemplo: el canal telefónico tradicional (el de voz) tiene una capacidad[2]​ de unos 30kbps (bits de información), sin embargo, usando técnicas de compresión, los módems telefónicos V.90 consiguen enviar unos 56kbps (bits físicos, con redundancia)

Ejemplos de canales discretos

Canal binario simétrico no apicable

Canal binario simétrico, la probabilidad de error de bit es p.

Para el caso del canal binario simétrico con probabilidad de error de bit , su capacidad viene dada por

La funcn esto tiene sentido ya que en este caso el canal confunde los ceros y los unos con igual probabilidad lo que significa que es un canal inservible para enviar información, su capacidad es nula. Es una función que aparece mucho en teoría de la información. Se trata de una función cóncava (y por tanto cumple la desigualdad de Jensen) y alcanza su máximo, igual a , cuando , por otro lado, cuando o vale 0.

La capacidad de este canal es cero cuando ,

Note que si un canal tuviese probabilidad de error de bit eso no significa que sea un canal malo, todo lo contrario. Bastaría con invertir los bits antes de enviarlos para tener un canal ideal (con probabilidad ).

Canal binario con símbolo borrado

En inglés Canal binario con símbolo borrado.

Canal simétrico respecto de la entrada

Canal simétrico respecto de la salida

etc

Véase también

Enlaces externos

Referencias

  • Comunicación digital. Teoría matemática de la información, Codificación algebraica, criptología. J. Rifá, Ll. Huguet, Masson, ISBN 84-311-0576-3
  1. capacidad-de-canal
    capacidad de canal
  2. Suponiento que su ancho de banda es 4kHz y su SNR es 30dB, valores típicos para un canal telefónico tradicional
Esta página se editó por última vez el 27 ene 2024 a las 10:48.
Basis of this page is in Wikipedia. Text is available under the CC BY-SA 3.0 Unported License. Non-text media are available under their specified licenses. Wikipedia® is a registered trademark of the Wikimedia Foundation, Inc. WIKI 2 is an independent company and has no affiliation with Wikimedia Foundation.