Computers">
Apunte de Señales Digitales y Cuantificaciones
Apunte de Señales Digitales y Cuantificaciones
Apunte de Señales Digitales y Cuantificaciones
Este apunte está constituido por extractos de algunos textos sobre procesamiento de
señales, principalmente, aunque no exclusivamente, el de Proakis y Manolakis. Para simplificar
la lectura se eliminó el formato convencional de las citas bibliográficas y en algunos casos se
las adaptó libremente. La intención fundamental del apunte es complementar el capítulo
correspondiente de Huang con algunos conocimientos previos y síntesis de algunos temas. Se
sigue el orden de presentación de los temas de Huang, manteniéndose incluso los títulos
principales y su numeración.
Definiciones preliminares
Una señal se define como una cantidad física que varía con el tiempo, el espacio o
cualquier otra variable o variables independientes. Matemáticamente, describimos una señal
como una función de una o más variables independientes. Por ejemplo, las funciones
(1) s1(t) = 5t
(2) s2(t) = 20t2
describen dos señales, una que varía linealmente con la variable independiente t (tiempo) y
una segunda que varía cuadráticamente con t. Las señales descritas en (1) y (2) pertenecen a
las clases de señales que quedan perfectamente definidas especificando la dependencia
funcional con la variable independiente. Sin embargo, existen casos en los que dicha relación
funcional es desconocida o demasiado complicada como para tener utilidad práctica.
N
(3) ∑
i =1
Ai(t) sen[2π F i(t)t + θi(t)]
donde {Ai(t)}, {Fi(t)} y {θi(t)} son los conjuntos (probablemente variables en el tiempo) de
amplitudes, frecuencias y fases, respectivamente de las sinusoides. De hecho, una manera de
interpretar la información o el mensaje contenido en un segmento corto de una señal de voz es
medir las amplitudes, frecuencias y fases contenidas en el segmento corto de señal.
Asociados a las señales naturales se encuentran los medios con los que se generan.
Por ejemplo, las señales de voz se generan al forzar el paso del aire a través de las cuerdas
vocales. Las imágenes se obtienen exponiendo película fotográfica ante un paisaje u objeto.
Por lo tanto, la forma en la que se generan las señales se encuentra asociada con un sistema
que responde ante un estímulo o fuerza. En una señal de voz, el sistema está constituido por
las cuerdas vocales y el tracto bucal, también llamado cavidad bucal. El estímulo en
combinación con el sistema se llama fuente de la señal.
Un sistema se puede definir también como un dispositivo físico que realiza una
operación sobre una señal. Por ejemplo, un filtro que se usa para reducir el ruido y las
interferencias que corrompen una señal también se denomina sistema. En este caso, el filtro
2
realiza algunas operaciones sobre la señal cuyo efecto es reducir (filtrar) el ruido y la
interferencia presentes en la señal deseada.
Cuando pasamos una señal a través de un sistema, como en el caso del filtrado,
decimos que hemos procesado la señal. En este caso, el procesamiento de la señal implica la
separación de la señal deseada del ruido y la interferencia. En general, el sistema se
caracteriza por el tipo de operación que realiza sobre la señal. Por ejemplo, si la operación es
lineal, el sistema se denomina lineal, si la operación es no lineal, el sistema se dice no lineal,
etc. Estas operaciones se denominan habitualmente procesamiento de señales.
La representación de la señal de habla debe ser tal que el contenido de información puede ser
extraído fácilmente por oyentes humanos o automáticamente por máquina.
La mayor parte de las señales que aparecen en los ámbitos de la ciencia y la ingeniería
son de naturaleza analógica, es decir, las señales son funciones de una variable continua,
como el tiempo o el espacio y normalmente toman valores en un rango continuo. Estas señales
pueden ser procesadas directamente por sistemas analógicos adecuados (como filtros o
analizadores de frecuencia) o multiplicadores de frecuencia con el propósito de cambiar sus
características o extraer cualquier información deseada. En tal caso, decimos que la señal fue
procesada directamente en forma analógica, como se ilustra en la Fig. 1.2. Tanto la señal de
entrada como la de salida están en forma analógica.
Señales en tiempo continuo vs. señales en tiempo discreto. Las señales se pueden
clasificar en cuatro categorías diferentes dependiendo de las características de la variable
(independiente) tiempo y de los valores que esta puede tomar. Las señales en tiempo
continuo o señales analógicas están definidas para todos los valores del tiempo y pueden
tomar cualquier valor en el intervalo continuo (a,b), donde a puede ser -∞ y b puede ser ∞. La
onda de voz y la señal x1(t) = cosπt, -∞ < t < ∞ son ejemplos de señales analógicas. Las
señales en tiempo discreto están definidas solo para ciertos valores del tiempo. Estos
instantes del tiempo no necesitan ser equidistantes, aunque en la práctica se toman
normalmente instantes equiespaciados conforme a intereses computacionales y matemáticos.
Si usamos el índice n como la variable independiente que representa los instantes de tiempo, la
señal pasa a ser una función de una variable entera (es decir, una secuencia de números). Por
lo tanto, una señal en tiempo discreto se puede representar matemáticamente como una
secuencia de números reales o complejos. Para destacar la naturaleza discreta de una señal
se la suele denotar como x(n) o x[n] en vez de como x(t). Si los instantes de tiempo tn están
equiespaciados (es decir, tn = nT), también se usa la notación x(nT) (T es el “período de
muestreo”).
Señales continuas vs. señales discretas. El valor de una señal, en tiempo continuo o
discreto, puede ser continuo o discreto. Si una señal toma todos los valores posibles en un
intervalo tanto finito como infinito, se dice que es continua. Por el contrario, si toma valores de
un conjunto finito de valores se dice que es discreta. Normalmente, estos valores son
equidistantes y por tanto pueden expresarse como un múltiplo de la distancia entre dos valores
sucesivos. Una señal en tiempo discreto, que toma valores en un conjunto discreto se
denomina señal digital.
Para que una señal pueda ser procesada digitalmente debe ser en tiempo discreto y
tomar valores discretos (es decir, debe ser una señal digital). Si la señal a procesar es
analógica, se convierte a digital muestreándola en el tiempo y obteniendo por tanto una señal
en tiempo discreto y posteriormente cuantificando sus valores en un conjunto discreto. El
5
El subíndice a usado con x(t) denota una señal analógica. Esta señal está completamente
caracterizada por tres parámetros: A es la amplitud de la sinusoide, Ω es la frecuencia en
radianes por segundo (rad/s) y θ es la fase en radianes. En lugar de Ω, a menudo se utiliza la
frecuencia F ciclos por segundo o Hertzios (Hz), donde
(5) Ω = 2πF
La señal analógica sinusoidal (6) está caracterizada por las siguientes propiedades:
A1. Para todo valor fijo de la frecuencia F, xa(t) es periódica. Puede demostrarse fácilmente
usando trigonometría elemental que
A2. Las señales en tiempo continuo con frecuencias diferentes son diferentes.
(9) ω ≡ 2πf
En contraste con las sinusoides en tiempo continuo, las sinusoides en tiempo discreto
están caracterizadas por las propiedades siguientes:
El valor más pequeño de N para el que se cumple (11) se denomina periodo fundamental.
B2. Las sinusoides en tiempo discreto cuyas frecuencias están separadas por un múltiplo
entero de 2π, son idénticas.
Como resultado, todas las secuencias sinusoidales
donde
ωk = ω0 + 2kπ -π ≤ ω0 ≤ π
son indistinguibles (esto es, idénticas). Por otro lado, las secuencias de dos sinusoides
cualesquiera de frecuencias en el rango -π ≤ ω ≤ π o –1/2 ≤ f ≤ ½ son distintas. En
consecuencia, las señales sinusoidales en tiempo discreto de frecuencias |ω| ≤ π o |f| ≤ ½ son
únicas. Cualquier secuencia que resulte de una sinusoide con una frecuencia |ω| > π o |f| > ½
es idéntica a una secuencia obtenida a partir de una señal sinusoidal de frecuencia |ω| ≤ π.
Debido a esta similitud, denominamos a la sinusoide que tiene la frecuencia |ω| > π un alias de
la sinusoide correspondiente de frecuencia |ω| < π. Por esta razón consideramos las
frecuencias en el rango -π π ≤ ω ≤ π o –1/2 ≤ f ≤ ½ como únicas y todas las frecuencias ω| |
> π o |f| > ½ , como alias.
B3. La mayor tasa de oscilación en una sinusoide en tiempo discreto se alcanza cuando ω = π
(o ω = -π) o equivalentemente, f = ½ (o f =- ½). Véanse las características de la señal
sinusoidal graficada en la figura 1.13. Los valores de ω0 = 0, π/8, π/4, π/2, π correspondientes a
f = 0, 1/16, 1/8, ¼, ½ dan lugar a secuencias periódicas con periodos N =∞, 16, 8, 4,2. El
periodo de la sinusoide disminuye a medida que la frecuencia aumenta. Podemos ver que la
tasa de oscilación aumenta cuando lo hace la frecuencia.
8
Dado que las señales sinusoidales en tiempo discreto de frecuencias separadas por un
múltiplo entero de 2π son idénticas, se deduce que las frecuencias en cualquier intervalo ω1 ≤
ω ≤ ω1 + 2π constituyen todas las sinusoides y exponenciales complejas en tiempo discreto
existentes. Por lo tanto, el rango de frecuencias para sinusoides en tiempo discreto es
finito con duración 2π π . Habitualmente, se elige el rango 0 ≤ ω ≤ 2π o -π ≤ ω ≤ π (0 ≤ f ≤ 1, -1/2
≤ f ≤ ½), que denominamos elrango fundamental.
Para cada valor de k, sk(t) es periódica, con periodo fundamental 1/(kF0) = Tp/k o frecuencia
fundamental kF 0. Dado que una señal que es periódica con periodo Tp/k, es también periódica
con periodo k(Tp/k) = Tp para cualquier entero positivo k, tenemos que el conjunto de todas las
sk(t) tienen periodo común Tp. Lo que es más, F 0 puede tomar cualquier valor y todos los
miembros del conjunto son distintos en el sentido de que si k1 ≠ k2, entonces sk1 (t) ≠ sk2(t).
Partiendo de las señales fundamentales dadas en (13) podemos construir una
combinación lineal de exponenciales complejas armónicamente relacionadas de la forma
9
∞ ∞
(14) xa(t) = ∑
k = −∞
ck sk(t) = ∑
k = −∞
ck ejkΩ0t
donde ck, k = 0, ±1, ±2,... son constantes complejas arbitrarias. La señal xa(t) es periódica con
período fundamental Tp = 1/F0, y su representación en términos de (14) se denomina
expansión en serie de Fourier de xa(t). Las constantes complejas son los coeficientes de
la serie de Fourier y la señal sk(t) se denomina el k-ésimo armónico de xa(t).
Esto quiere decir que, en concordancia con (11), existen solo N exponenciales
complejas periódicas distintas en el conjunto descrito (15). Además, todas las señales del
conjunto tienen un periodo común de N muestras. Evidentemente, podemos escoger cualquier
conjunto de N exponenciales complejas consecutivas, por ejemplo, k = n0 hasta k = n0 + N – 1,
para formar un conjunto armónicamente relacionado con frecuencia fundamental f0 = 1/N.
Normalmente, por conveniencia, elegimos el conjunto que se corresponde con n0 = 0, es decir,
el conjunto
j2πkn/N
(16) sk (n) = e , k = 0, 1, 2,…, N – 1
N −1 N −1
(17) x(n)= ∑
k =0
ck sk (n) = ∑
k =0
ck e
j2πkn/N
La sinusoide es una señal elemental muy importante que sirve como bloque básico
para la construcción de señales más complejas. Sin embargo, existen otras señales
elementales que son importantes en nuestro tratamiento del procesamiento de señales.
Nuestra motivación para subrayar el estudio de sistemas LTI se apoya en dos razones.
En primer lugar, existe una gran colección de técnicas matemáticas que pueden aplicarse al
10
análisis de sistemas LTI. En segundo lugar, muchos sistemas prácticos son LTI o pueden
aproximarse mediante sistemas LTI.
Una señal en tiempo discreto x(n) es una función de una variable independiente entera.
Es importante destacar que una señal en tiempo discreto no está definida para instantes entre
dos muestras sucesivas. Igualmente, es incorrecto pensar que x(n) es igual a cero si n no es un
entero. Simplemente, la señal x(n) no está definida para valore no enteros de n.
En lo sucesivo supondremos que una señal en tiempo discreto se define para cada
valor entero n para - ∞ < n < ∞. Por tradición, nos referimos a x(n) como la “enésima muestra”
de la señal aun cuando x(n) sea inherentemente en tiempo discreto (es decir, aunque no haya
sido obtenida por muestreo de una señal analógica). En el caso en que x(n) haya sido obtenida
al muestrear una señal analógica x a(t), entonces x(n) ≡ xa(nT), donde T es el periodo de
muestreo (el tiempo entre muestras sucesivas).
1. Representación funcional
2. Representación tabular
donde ↑ indica el origen del tiempo (n = 0). Muchas veces usaremos negrita en lugar de la
flecha.
11
Señales de energía y señales de potencia. La energía E de una señal x(n) se define como
∞
(18) E≡ ∑
n = −∞
2
|x(n)|
Hemos considerado el módulo al cuadrado de x(n); por tanto, esta definición se aplica tanto a
señales reales como a señales complejas. La energía de una señal puede ser finita o infinita. Si
E es finita (es decir, 0 < E < ∞ ), entonces se dice que x(n) es una señal de energía.
Algunas veces añadimos un subíndice x a E y escribimos Ex para hacer hincapié en que Ex es
la energía de la señal x(n).
Muchas señales que poseen energía infinita tienen potencia media finita. La potencia
media de una señal discreta en el tiempo x(n) se define como
N
1
(19) P = limN→∞
2N + 1
∑
n =− N
| x(n)|2
N
(20) EN ≡ ∑
n =− N
| x(n)|2
(21) E ≡ limN→∞ EN
1
(22) P ≡ limN→∞ EN
2N + 1
Claramente, si E es finita, P = 0. Por otra parte, si E es infinita, la potencia media P puede ser
tanto finita como infinita. Si P es finita (y distinta de cero), la señal se denomina señal de
potencia.
Señales periódicas y señales aperiódicas. Como se definió más arriba, una señal x(n) es
periódica con periodo N (N > 0) si y solo si
El valor más pequeño de N para el que (23) se verifica se denomina periodo (fundamental). Si
(23) no se verifica para ningún valor de N la señal se denomina aperiódica o no periódica. La
energía de una señal periódica x(n) sobre un único periodo, por ejemplo sobre el intervalo 0 ≤ n
≤ N – 1, es finita, si x(n) toma valores finitos en el periodo. Sin embargo, la energía de una
señal periódica en el intervalo -∞ ≤ n ≤ ∞ es infinita. La potencia media de una señal periódica
es finita y es igual a la potencia media sobre un único periodo. En consecuencia, las señales
periódicas son señales de potencia.
Señales simétricas (pares) y antisimétricas (impares). Una señal real x(n) se denomina
simétrica (par) si x(-n) = x(n). Una señal x(n) se denomina antisimétrica (impar) si x(-n) = -x(n).
12
Una señal arbitraria puede expresarse como la suma de dos componentes, una de las cuales
es par y la otra impar.
El producto es:
El escalado de amplitud de una señal por una constante A se obtiene multiplicando el valor de
cada muestra de la señal por A:
Se puede observar que para varios de los sistemas considerados la salida en el instante n = n0
depende no solo de la entrada en el instante n = n 0 (o sea, x(n0)), sino también de los valores
de la entrada aplicados al sistema antes y después de n = n0.
Debemos destacar que para que un sistema disponga de una propiedad determinada,
esta debe cumplirse para cada posible señal de entrada al sistema. Si una propiedad se
satisface para algunas señales de entrada pero no para otras, el sistema no posee dicha
propiedad. En ese caso, un contraejemplo es suficiente para demostrar que un sistema no
16
posee una propiedad. Sin embargo, para demostrar que el sistema tiene alguna propiedad,
debemos probar que esta propiedad se cumple para cualquier señal de entrada posible.
Los sistemas estáticos o sin memoria se describen en general por ecuaciones de entrada-
salida de la forma y(n) = T[x(n),n] y no incluyen elementos de retardo (memoria).
Supóngase ahora que esa misma entrada es retardada k unidades de tiempo para dar lugar a
x(n – k), y de nuevo se aplica al mismo sistema. Si las características del sistema no cambian
con el tiempo, la salida del sistema en reposo será y(n – k), es decir, la salida será la misma
que la correspondiente a la entrada x(n), excepto en que estará retardada las mismas k
unidades de tiempo que se retardó la entrada. Esto nos conduce a definir un sistema invariante
en el tiempo o invariante ante desplazamientos de la siguiente manera:
x(n) – T → y(n)
Implica que
Si ahora esta salida cumple y(n,k) = y(n – k), para todos los valores posibles de k, el sistema es
invariante en el tiempo. En cambio si la salida cumple y(n,k) ≠ y(n – k), aun para un solo valor
de k, el sistema es variante en el tiempo.
17
La relación (28) muestra la propiedad multiplicativa o de escalado de un sistema lineal. Esto es,
si la respuesta del sistema a xi(n) es y1(n), la respuesta del sistema a a1x1(n) es simplemente
a 1y1(n). Por tanto, cualquier escalado de la entrada produce un escalado igual de la salida
correspondiente.
Esta relación muestra la propiedad aditiva de un sistema lineal. Las propiedades aditiva y
multiplicativa definen el principio de superposición tal y como se aplica a los sistemas lineales.
La condición de linealidad expresada en (27) puede extenderse por inducción a
cualquier número de señales.
y(n) = F[y(n – 1), y(n – 2), ..., y(n – N), x(n), x(n – 1),..., x(n – M)]
Donde F[.] representa cualquier función de las cantidades entre corchetes. En concreto, para
sistemas LTI, veremos que la forma general de la relación de entrada-salida es
N M
(30) y(n) = - ∑
k =1
a k y(n – k) + ∑
k =0
b k x(n – k)
donde {ak} y {bk } son parámetros constantes que especifican el sistema y son independientes
de x(n) e y(n). La relación de entrada-salida dada en (30) se denomina ecuación en
diferencias y representa una de las maneras de caracterizar el comportamiento de un sistema
discreto LTI.
19
El segundo método para el análisis del comportamiento de un sistema lineal ante una
determinada entrada se basa en descomponer dicha señal de entrada en señales
elementales. Las señales elementales se escogen de manera que sea fácil determinar la
respuesta del sistema a cada una de ellas. Entonces, usando la propiedad de linealidad del
sistema, se suman las respuestas del sistema a cada una de las señales elementales para
obtener la respuesta del sistema a la señal de entrada global. Este segundo método es el
descrito en esta sección.
Supongamos que la señal de entrada x(n) se expresa como la suma ponderada de
señales elementales {xk(n)}
(31) x(n) = ∑
k
ck xk(n)
suponiendo que el sistema está en reposo y que la respuesta a ck xk(n) es ck yk(n), como
consecuencia de la propiedad de escalado de un sistema lineal.
Descomposición de una señal discreta en impulsos. Supongamos que tenemos una señal
arbitraria x(n) que queremos expresar como la suma de impulsos unitarios. Escogemos las
señales elementales xk(n) como xk(n) = δ (n – k) donde k representa el retraso del
impulso unitario. Para poder manejar una señal arbitraria x(n) que puede tener infinitos
valores, el conjunto de impulsos unitarios debe ser también infinito, para contener el número
infinito de desplazamientos.
Supongamos ahora que multiplicamos la secuencias x(n) y δ (n – k). Dado que δ (n – k)
es cero en todos los puntos excepto en n = k, donde vale uno, el resultado de esta
multiplicación es otra secuencia que vale cero en todos los puntos excepto en n = k donde vale
x(k), como se ilustra en la figura 2.2. Por tanto,
x(n) δ (n – k) = x(k) δ (n – k)
es una secuencia que se anula en todos los puntos excepto en n = k, donde su valor es x(k). Si
hiciésemos ahora la multiplicación de x(n) con δ (n – m), donde m es otro desplazamiento (m ≠
20
k), el resultado sería otra secuencia que es cero en todos los puntos excepto en n = m donde
valdría x(m). De aquí
x(n) δ (n – m) = x(m) δ (n – m)
En otras palabras, cada multiplicación de la señal x(n) por un impulso unitario desplazada un
cierto k, (es decir, δ (n – k)), extrae de la secuencia x(n) el valor de dicha secuencia en el punto
n = k en el que el impulso unitario vale uno, en concreto, x(k). En consecuencia, si repetimos
esta multiplicación para todos los posibles desplazamientos, - ∞ < k < ∞, y sumamos el
resultado de todas estas multiplicaciones, obtendremos una señal igual a la secuencia original
x(n), es decir,
∞
(34) x(n) = ∑
k = −∞
x(k) δ(n – k)
En (35) observamos que n es el índice temporal y k indica la posición del impulso o instante en
que el impulso unitario es distinto de cero. Si el impulso a la entrada del sistema se escala una
cierta cantidad c k ≡ x(k), la respuesta del sistema quedará escalada por la misma cantidad, esto
es,
∞
(37) x(n) = ∑
k = −∞
x(k) δ(n – k)
∞ ∞ ∞
(38) y(n) = T[x(n)] = T [ ∑
k = −∞
x(k) δ(n – k)] = ∑
k = −∞
x(k) T[δ(n – k)] = ∑
k = −∞
x(k) h(n,k)
h(n) ≡ T[δ(n)]
∞
(39) y(n) = ∑
k = −∞
x(k) h(n - k)
Ahora queda claro que el sistema LTI en reposo queda totalmente caracterizado por la función
h(n), es decir, su respuesta al impulso unitario δ(n). Por el contrario, la caracterización de la
salida de un sistema lineal variante en el tiempo exige el conocimiento de infinitas funciones de
respuesta a los impulsos unitarios desplazados, en concreto una por cada posible valor de
desplazamiento, h(n,k).
La fórmula (39) que da la respuesta y(n) del sistema LTI como función de la señal de
entrada x(n) y de la respuesta impulsional h(n) se denomina convolución. Diremos que la
entrada x(n) se convoluciona con la respuesta impulsional h(n) para producir la salida y(n).
Hasta este punto hemos caracterizado los sistemas lineales e invariantes en el tiempo
por medio de su respuesta impulsional h(n). Es conveniente, sin embargo, subdividir los
sistemas lineales invariantes en el tiempo en aquellos que tienen una repuesta impulsional de
22
duración finita (FIR, finite-duration impulse response) y los que tienen una respuesta
impulsional de duración infinita (IIR, infinite-duration impulse response). Así, pues, un
sistema FIR tiene una respuesta impulsional que es cero fuera de un determinado intervalo
finito. Sin pérdida de generalidad, centraremos nuestra atención en sistemas causales FIR
tales que
h(n) = 0 n<0yn≥M
M −1
y(n) = ∑
k =0
h(k) x(n – k)
Esta expresión indica que la salida en cualquier instante n se obtiene como la suma ponderada
de las siguientes muestras de la señal de entrada: x(n), x(n – 1),...,x(n – M + 1). En otras
palabras, el sistema simplemente pondera, mediante los valores de la respuesta impulsional
h(k), k = 0, 1, ..., M – 1, las M muestras más reciente de la señal de entrada y suma los M
productos resultantes. El sistema se comporta como una ventana que solo permite ver las
M muestras más recientes de la señal de entrada a la hora de calcular la salida. Desprecia
todas las muestras anteriores, es decir, x(n – M), x(n – M – 1),... Por tanto, decimos que un
sistema FIR tiene una memoria finita de M muestras. Por el contrario, un sistema lineal
invariante en el tiempo IIR tiene una respuesta impulsional de duración infinita. Su salida,
según la fórmula de la convolución es
∞
y(n) = ∑
k =0
h(k) x(n – k)
donde se ha supuesto causalidad, aunque no es necesario. En este caso la salida del sistema
consiste en la combinación lineal ponderada (por la respuesta impulsional h(k)) de las muestras
de la señal de entrada, x(n), x(n-1), x(n-2),... Dado que esta suma ponderada contiene la
muestra presente y todas las pasadas de la señal de entrada, decimos que el sistema tiene
memoria infinita.
donde ahora lo que hay que determinar es si es x0(n) o x1(n) la señal contenida en y(n), y w(n)
representa el ruido aditivo y otras interferencias propias de cualquier sistema de comunicación.
Otra vez, parte del ruido tiene su origen en los distintos componentes del receptor. En cualquier
caso, el receptor conoce las dos posibles secuencias transmitidas x 0(n) y x1(n) y su tarea
consiste en compararlas con la señal recibida y(n) para determinar cuál de las dos se parece
más a esta. Esta comparación se realiza mediante la correlación.
Supóngase que tenemos dos secuencias reales x(n) e y(n), ambas de energía finita. La
correlación cruzada de las secuencias x(n) e y(n) es la secuencia rxy(l), que se define como
23
∞
(40) rxy(l) = ∑
n = −∞
x(n) y(n – l) l = 0, ± 1, ± 2,...
o equivalentemente, como
∞
rxy(l) = ∑
n = −∞
x(n + l) y(n) l = 0, ± 1, ± 2,...
∞
rxy(l) = ∑
n = −∞
x(n) x(n – l)
forma de onda en sus componentes sinusoidales, de forma similar a como un prisma separa la
luz blanca en sus diferentes colores, la suma de estas componentes sinusoidales resulta en la
forma de onda original. Por otra parte, si alguna de estas componentes desaparece, el
resultado es una señal diferente.
∞
(41) x(t) = ∑
k = −∞
cke
j2πkF0t
es una señal periódica de periodo fundamental Tp = 1/F0. Así pues, podemos considerar las
señales exponenciales ej2πkF0t como los “bloques” básicos a partir de los cuales podemos
construir señales periódicas de diferentes tipos mediante la elección adecuada de la frecuencia
y de los coeficientes {ck }. F0 determina el periodo fundamental de x(t) y los coeficientes {ck}
especifican la forma de la onda.
Una señal periódica tiene energía infinita y potencia media finita dada por
(42)
25
(43)
que se denomina relación de Parseval para señales de potencia. Para ilustrar el significado
físico de (43), supongamos que x(t) es una exponencial compleja simple
j2πkF0t
(44) x(t) = cke
En este caso, todos los coeficientes de la serie de Fourier excepto ck son cero. En
consecuencia, la potencia media de la señal es
Px = |ck |2
2
Es obvio que |ck| representa la potencia del armónico k-ésimo de la señal. Así, pues, la
potencia media total de la señal periódica es la suma de las potencias medias de sus
armónicos.
Si dibujamos |ck| en función de las frecuencias kF0, k = 0, ±1, ±2,..., el diagrama que
2
obtenemos muestra cómo se reparte la potencia de la señal periódica entre sus distintas
componentes en frecuencia. Este diagrama, que se muestra en la fig. 4.2, se denomina
densidad espectral de potencia (también espectro de la densidad de potencia o siplemente
espectro de potencia) de la señal periódica x(t). Dado que la potencia de una señal periódica
existe solo para determinados valores discretos de frecuencia (es decir, F = 0, ±F0, ±2F0,...), se
dice que la señal tiene un espectro formado por líneas. El espaciado entre dos líneas
espectrales consecutivas es igual al inverso del periodo fundamental Tp, mientras que la forma
del espectro (es decir, la distribución de potencia de la señal), depende de las características
de la señal en el dominio del tiempo.
Ejemplo. Determinar la serie de Fourier y la densidad espectral de potencia del tren de pulsos
rectangulares de la fig. 4.3.
26
La señal es periódica con periodo fundamental Tp. Podemos representar la señal con
la serie de Fourier definida antes y con los coeficientes de Fourier ya especificados. Como x(t)
es una señal par, es conveniente seleccionar el intervalo de integración de –Tp/2 a Tp/2. c0 es
entonces
(45)
(46)
El término de la derecha en (46) es de la forma (sen φ)/φ, con φ = πkF0τ. En este caso φ toma
valores discretos ya que F 0 y τ son fijos y el índice k varía. Si embargo, si representamos (sen
φ)/φ con φ un parámetro continuo en el rango -∞ < φ < ∞, obtenemos el gráfico de la figura 4.4.
Observamos que esta función decae hasta cero cuando φ → ±∞, tiene un máximo de valor
unidad en φ = 0, y es cero para múltiplos de π. Está claro que los coeficientes de Fourier dados
por (46) son las muestras de la función (sen φ)/φ para φ = πkF0τ y están escaladas en amplitud
por Aτ/Tp.
Cuando la función periódica x(t) es par, los coeficientes de Fourier ck son reales. Por lo
tanto, el espectro de fase, o bien es cero, cuando ck es positivo, o π cuando ck es negativo. En
lugar de representar la magnitud y la fase por separado, podemos simplemente representar {ck}
27
en una única gráfica, en la que se muestran los valores positivos y negativos de c k. Esta es
práctica habitual cuando los coeficientes de Fourier {c k} son reales.
La figura 4.5 ilustra los coeficientes de Fourier del tren de pulsos rectangulares cuando
Tp es fijo y la anchura del pulso τ varía. En este caso Tp = 0.25 segundos, de modo que F 0 =
1/Tp = 4 Hz y τ = 0.05Tp, τ = 0.1Tp, y τ = 0.2Tp. Observamos que el efecto de disminuir τ
manteniendo fijo Tp es dispersar la potencia de la señal sobre el rango de frecuencias. El
espaciado entre líneas espectrales adyacentes es F0 = 4 Hz, independiente del valor de la
anchura del pulso τ.
Por otro lado, también es instructivo fijar τ y variar el periodo Tp cuando Tp > τ. La
figura 4.6 ilustra esta condición cuando Tp = 5τ, Tp = 10τ, y Tp = 20τ. En este caso el
espaciado entre líneas espectrales adyacentes decrece a medida que Tp aumenta. En el límite
cuando Tp → ∞, los coeficientes de Fourier ck tienden a cero debido al factor de Tp en el
denominador de (46). Este comportamiento es consistente con que si Tp → ∞ y τ permanece
fijo, la señal resultante ya no es una señal de potencia. En su lugar, se convierte en una señal
de energía y su potencia media es cero.
Las series de Fourier representan una señal periódica como combinación lineal de
exponenciales complejas armónicamente relacionadas. Como consecuencia de la periodicidad,
estas señales tienen un espectro formado por líneas equidistantes. El espaciado entre líneas
es igual a la frecuencia fundamental, que a su vez es la inversa del período fundamental de la
señal. Se puede ver el periodo fundamental como el parámetro que determina el número de
líneas por unidad de frecuencia (densidad de líneas) como se muestra en la figura 4.6.
Sea x(t) una señal de energía finita con transformada de Fourier X(F). Su energía es
(47)
En (48) vemos que Sxx(F) no contiene información sobre la fase, es decir, Sxx(F) es
estrictamente real y no negativo. Dado que el espectro de fase de x(t) no se encuentra en
Sxx(F) es imposible reconstruir la señal dada Sxx(F).
30
31
Ejemplos:
(49)
Así, la potencia media de la señal es la suma de las potencias medias de las componentes
individuales en frecuencia. (49) es la relación de Parseval para señales periódicas en tiempo
2
discreto. La secuencia |ck | para k = 0,1,...,N – 1 es la distribución de potencia en función de la
frecuencia y se denomina densidad espectral de potencia de una señal periódica.
33
∞
(47) X(ω) = ∑
n = −∞
x(n) e-jωn
(42), tenemos que X(ω) tiene la forma de una serie de Fourier. Los coeficientes de Fourier de
esta serie son los valores de la secuencia x(n).
El espectro X(ω) es, en general, una función compleja de la frecuencia. Como en el caso de
señales en tiempo continuo, la cantidad
Sxx(ω) = |X(ω)|2
La transformada z
en el análisis de señales y sistemas continuos LTI. Por ejemplo, veremos que en el dominio z
(plano z complejo), la convolución de dos señales en el dominio del tiempo se corresponde con
la multiplicación de sus transformadas z. Esta propiedad simplifica enormemente el análisis de
la respuesta de un sistema LTI a diferentes señales. Además, la transformada z nos
proporciona una manera de caracterizar sistemas LTI y sus respuestas a varias señales
mediante la localización de sus polos y ceros.
x(n) ← z → X(z)
Dado que la transformada z es una serie infinita de potencias, existe solo para aquellos
valores de z para los que la serie converge. La región de convergencia (ROC, region of
convergence) de X(z) es el conjunto de todos los valores de z para los que X(z) es finita. Por lo
tanto, siempre que hablemos de una transformada z debemos indicar también su ROC.
Una familia muy importante de transformada z es aquella en la que X(z) es una función
racional, esto es, el cociente de dos polinomios en z-1 (o z) (todos los ejemplos de la tabla 3.3
son de este tipo).
energía) concentrada en alguna otra parte del rango de frecuencias situado entre las altas y las
bajas, se denomina se denomina señal de frecuencias medias o señal paso banda. En la Fig.
4.25(c) se ilustra un espectro de este tipo.
En el caso de una señal paso banda, el término banda estrecha se usa para describir
aquella señal cuyo ancho de banda F2 – F 1 es mucho menor (digamos que por un factor de 10
o más) que la frecuencia central (F 2 + F1)/2. En caso contrario, la señal se dice de banda
ancha.
Diremos que una señal es de banda limitada si su espectro es cero fuera del rango de
frecuencias |F| ≥ B. Por ejemplo, una señal en tiempo continuo de energía finita x(t) es de
banda limitada si su transformada de Fourier cumple que X(F) = 0 para |F| > B. Una señal en
tiempo discreto de energía finita x(n) se dice de banda limitada (periódicamente) si
41
De forma similar, una señal periódica en tiempo continuo xp(t) es limitada en banda
periódicamente si sus coeficientes de Fourier son tales que ck = 0 para |k| < M, donde M es
algún entero positivo. Una señal periódica en tiempo discreto con período fundamental N está
limitada en banda periódicamente si sus coeficientes de Fourier cumplen que ck = 0 para k0 <
|k| < N. La figura 4.26 ilustra los cuatro tipos de señales de banda limitada.
donde ω1, ω2,..., ωM no están armónicamente relacionadas. Estas señales tienen espectros
discretos pero las distancias entre las líneas no están armónicamente relacionadas. Las
señales con espectros discretos no armónicos se denominan en ocasiones cuasi periódicas.
La siguiente figura resume las fórmulas de análisis y síntesis para este tipo de señales.
43
Existen dos características en el dominio del tiempo que determinan el tipo de espectro
que obtendremos. Estas son si el tiempo es discreto o continuo y si la señal es periódica o
aperiódica. En resumen:
Las señales en tiempo continuo tienen espectros aperiódicos. Un examen detallado de las
fórmulas de análisis de las series de Fourier y de la transformada de Fourier para señales en
tiempo continuo no revela la existencia de ningún tipo de periodicidad en el dominio del
espectro. Esta falta de periodicidad es consecuencia de que la función exponencial exp(j2πFt)
sea una función de la variable continua t, y, por lo tanto, no periódica en F. Así, el rango de
frecuencias de señales en tiempo continuo se extiende desde F = 0 hasta F = ∞.
Las señales en tiempo discreto tienen un espectro periódico. Tanto las series de Fourier
como la transformada de Fourier de señales en tiempo discreto son periódicas de periodo ω =
2π. Como resultado de esta periodicidad, el rango de frecuencias de señales en tiempo discreto
es finito y se extiende desde ω = -π hasta ω = π radianes, donde ω = π corresponde a la mayor
oscilación posible.
Las señales periódicas tienen espectros discretos. Las señales periódicas se describen
mediante series de Fourier. Los coeficientes de la serie de Fourier representan las “líneas” del
espectro discreto. El espaciado entre líneas ∆F o ∆f es igual al inverso del periodo Tp o N,
respectivamente, en el dominio del tiempo. Esto es, ∆F = 1/Tp para señales periódicas en
tiempo continuo y ∆f = 1/N para señales en tiempo discreto.
Las señales aperiódicas de energía finita tienen espectros continuos. Esta propiedad es
consecuencia directa del hecho de que tanto X(F) como X(ω) sean funciones de exp(j2πFt) y
exp(jωn), respectivamente, que son funciones continuas de las variables F y ω. La continuidad
en frecuencia es necesaria para romper la armonía y originar las señales aperiódicas.
En resumen, podemos concluir que periodicidad con periodo α en un dominio
automáticamente implica discretización en el otro dominio con “espaciado” 1/α y viceversa.
Si mantenemos que “periodo” en el dominio de la frecuencia indica el rango de
frecuencias, “espaciado” en el dominio del tiempo es el periodo de muestreo T y, el espacio
entre líneas en el dominio de la frecuencia es ∆F, entonces α = Tp implica que 1/α = 1/Tp = ∆F,
α = N implica que ∆f = 1/N, y α = Fs implica que T = 1/Fs.
periódicas. Esta terminología es consistente con el hecho de que las señales periódicas son
señales de potencia y las señales aperiódicas de energía finita son señales de energía.
Para realizar el análisis frecuencial de una señal en tiempo discreto {x(n)}, convertimos
la secuencia en el dominio del tiempo en una forma equivalente, en el dominio de la frecuencia.
Sabemos que tal forma viene dada por la transformada de Fourier, X(ω), de la secuencia {x(n)}.
Sin embargo, X(ω) es una función continua de la frecuencia y, por lo tanto, no es una forma
computacionalmente conveniente de la secuencia {x(n)}.
de Fourier discreta (DFT), que constituye una poderosa herramienta para el análisis
frecuencias de señales en tiempo discreto.
∞
(51) X(ω) = ∑
n = −∞
-jωn
x(n) e
La señal
(52)
Por lo tanto,
(53)
47
Dado que xp(n) es la extensión periódica de x(n) tal como se da en (51), está claro que
x(n) puede ser recuperada a partir de xp(n), si no existe aliasing en el dominio del tiempo, es
decir, si x(n) está limitada en tiempo a una duración menor que el periodo N de xp(n). Esta
situación se muestra en la figura 5.2, donde, sin pérdida de generalidad, hemos considerado
una secuencia de duración finita x(n), que es distinta de cero en el intervalo 0 ≤ n ≤ L – 1.
Observamos que cuando N ≥ L,
x(n) = xp(n) 0 ≤ n ≤ N –1
De manera que x(n) puede recuperarse a partir de xp(n) sin ambigüedad. Por otra parte, si N <
L, no es posible recuperar x(n) a partir de su extensión periódica debido al aliasing en el
dominio del tiempo. Por tanto, concluimos que el espectro de una señal aperiódica en tiempo
discreto de duración finita L, puede recuperarse exactamente a partir de sus muestras a las
frecuencias ωk = 2πk/N, si N ≥ L. El procedimiento consiste en calcular xp(n), n = 0, 1,..., N – 1 a
partir de (53); después hacemos
(54)
Obsérvese que rellenar con ceros no proporciona ninguna información adicional sobre
el espectro X(ω) de la secuencia {x(n)}. Las L muestras equidistantes de X(ω) son suficientes
para reconstruir X(ω) usando la fórmula de reconstrucción
Sin embargo, al rellenar la secuencia {x(n)} con N – L ceros y calcular la DFT de N puntos se
obtiene una “mejor” representación gráfica de la transformada de Fourier X(ω).
En resumen, una secuencia de duración finita x(n) de longitud L, es decir, x(n) = 0 para
n < 0 y n ≥ L, tiene transformada de Fourier
donde los índices superior e inferior de la sumatoria reflejan el hecho de que x(n) = 0 fuera del
intervalo 0 ≤ n ≤ L – 1. Cuando muestreamos X(ω) en frecuencias equiespaciadas ωk = 2πk/N, k
= 0, 1,..., N – 1, donde N ≥ L, las muestras resultantes son
49
(55)
En la figura 5.5 se muestran la magnitud y la fase de X(ω) para L = 10. La DFT de N puntos de
x(n) es simplemente X(ω), calculada en las N frecuencias equiespaciadas ωk = 2πk/N, k = 0,
1,..., N – 1. De aquí
50
Por lo tanto, existe un único valor de la DFT distinto de cero. Esto resulta evidente al observar
X(ω) = 0 a las frecuencias ωk = 2πk/L, k ≠ 0. x(n) se puede recuperar a partir de X(k) realizando
una IDFT de L puntos.
Relación con los coeficientes de las series de Fourier de secuencias periódicas. Una
secuencia periódica {xp(n)} de periodo fundamental N puede representarse mediante una serie
de Fourier de la forma
(56)
(57)
Si comparamos (56) y (57) con las fórmulas de DFT e IDFT, vemos que la fórmula para el
cálculo de los coeficientes de la serie de Fourier tiene la forma de una DFT. De hecho, si
definimos la secuencia x(n) = xp(n), 0 ≤ n ≤ N – 1, la DFT de esta secuencia es simplemente
X(k) = N ck. Además, (56) tiene la forma de una IDFT. Por lo tanto, la DFT de N puntos nos
proporciona las líneas del espectro de la secuencia periódica de periodo fundamental N.
son los coeficientes de la DFT de una secuencia periódica de periodo N, dada por
carece de parecido con la señal original {x(n)}, a menos que x(n) sea de duración finita y
longitud L ≤ N, en cuyo caso
Solo en este caso la IDFT de {X(k)} dará como resultado la secuencia original {x(n)}.
con una ROC que incluye la circunferencia unidad. Si muestreamos X(z) en N puntos
equiespaciados sobre la circunferencia unidad zk = ej2πk/N, 0, 1, 2,..., N – 1, obtenemos
(58)
53
(59)
(60)
Relación con los coeficientes de la serie de Fourier de una señal en tiempo continuo.
Supongamos que x a(t) es una señal periódica en tiempo continuo de periodo fundamental Tp =
1/F 0. La señal puede desarrollarse en serie de Fourier
(61)
donde {ck} son los coeficientes de Fourier. Si muestreamos xa(t) con velocidad uniforme F s =
N/Tp = 1/T, obtenemos la secuencia en tiempo discreto
(62)
donde
Supongamos ahora que la secuencia x(n) consta de una sola sinusoide, esto es
Por tanto, la transformada de Fourier de la secuencia de duración finita x(n) puede expresarse
como
Para calcular usamos la DFT. Rellenando con N – L ceros la secuencia x^(n), podemos
calcular la DFT de N puntos de la secuencia truncada (L puntos) . El espectro de
magnitud para ωk = 2πk/N, k = 0, 1,..., N, se muestra en la figura 5.12
para L = 25 y N = 2048. Observamos que el espectro de la ventana no se localiza en
una sola frecuencia, sino que se extiende sobre todo el intervalo de frecuencias. Por lo tanto, la
potencia de la señal original {x(n)} que estaba concentrada en una sola frecuencia se ha
extendido, por la ventana, a todo el intervalo de frecuencias. Decimos que la potencia se ha
derramado en todo el intervalo de frecuencias. En consecuencia, este fenómeno, que es
característico del enventanado de la señal, se denomina derrame.
La figura 5.14 representa para esta ventana. Sus lóbulos secundarios son
significativamente inferiores a los de la ventana rectangular, pero su lóbulo principal es
aproximadamente el doble.
57
Otra característica de un filtro ideal es su respuesta de fase lineal, es decir, la salida del
filtro es simplemente una versión retardada y escalada en amplitud de la señal de entrada.
Como conclusión, los filtros ideales tienen una característica de magnitud constante y
una característica de fase lineal dentro de su banda de paso. Además, estos filtros no son
realizables, pero sirven como idealización matemática de los filtros prácticos. El filtro paso bajo
ideal, por ejemplo, no es causal ni absolutamente sumable, por lo que es inestable. Sin
embargo, su característica de respuesta en frecuencia se puede aproximar mucho con filtros
prácticos y realizables físicamente.
59
La posición de los polos y los ceros afecta a la respuesta en frecuencia del sistema.
Existe un método gráfico para calcular las características de la respuesta en frecuencia a partir
del diagrama de polos y ceros, situando estos en el plano z. Este mismo procedimiento se
puede emplear para diseñar algunos filtros digitales sencillos, pero importantes, con las
características de la respuesta en frecuencia deseadas.
1. Todos los polos deben estar en el interior de la circunferencia unida para que el filtro
sea estable. Sin embargo, los ceros pueden situarse en cualquier punto del plano z.
2. Todos los ceros y polos complejos deben tener su conjugado correspondiente, de
manera que los coeficientes del filtro sean reales.
En el diseño de filtros digitales paso bajo, los polos deben situarse cerca de los puntos
de la circunferencia unidad correspondientes a las bajas frecuencias (cerca de ω = 0) y los
ceros deben situarse cerca de los puntos de la circunferencia unidad correspondientes a las
altas frecuencias (cerca de ω = π). Lo contrario es lo necesario para filtros paso alto.
Los filtros ideales son no causales y, por lo tanto, físicamente irrealizables para
aplicaciones de procesamiento de señales en tiempo real. La causalidad implica que la
característica de respuesta en frecuencia H(ω) del filtro no puede ser cero excepto en un
conjunto finito de puntos en el rango de frecuencias. Además, H(ω) no puede tener un corte
infinitamente abrupto desde la banda de paso a la banda de rechazo, es decir, H(ω) no puede
caer desde uno hasta cero abruptamente.
60
Aunque las características de respuesta en frecuencia que poseen los filtros ideales
deben ser deseables, no son absolutamente necesarias en la mayoría de las aplicaciones
prácticas. Si relajamos estas condiciones es posible realizar filtros causales que aproximan los
filtros ideales con tanta precisión como deseemos. En particular, no es necesario insistir que la
magnitud |H(ω)| sea constante en toda la banda de paso del filtro. Se puede tolerar un pequeño
rizado en la banda de paso como se ilustra en la figura 8.2. Similarmente no es necesario que
la respuesta del filtro |H(ω)| sea cero en la banda de rechazo. También se puede tolerar un
valor pequeño distinto de cero o un pequeño rizado en la banda de rechazo.
Si existe un rizado en la banda de paso del filtro, su valor se denota por δ1, y la
magnitud |H(ω)| varía entre los límites 1 ± δ1. El rizado en la banda de rechazo del filtro se
denota por δ2.
Existen muchas maneras de muestrear una señal. Vamos a limitar nuestra discusión al
muestreo periódico o uniforme, que es el tipo de muestreo usado más a menudo en la práctica.
Este se describe mediante la relación
(1.4.2) t = nT = n/Fs
(1.4.5) f= F/Fs
o equivalentemente, según
(1.4.6) ω = ΩT
La relación dada en (1.4.5) justifica el nombre frecuencia normalizada o relativa, que se usa a
veces para describir la variable frecuencia f. Como se ve en (1.4.5), podemos usar f para
determinar la frecuencia F en hertzios solo si la frecuencia de muestreo F s es conocida.
El rango de la variable frecuencia F o Ω para sinusoides en tiempo continuo es
(1.4.7) -∞<F<∞
-∞<Ω<∞
Sin embargo, la situación es diferente para sinusoides en tiempo discreto. Tenemos que
Por lo tanto, el muestreo introduce ambigüedad; así, la máxima frecuencia de una señal
en tiempo continuo que puede determinarse unívocamente cuando dicha señal se muestra a
una velocidad Fs = 1/T es Fmax = Fs /2 o Ωmax = πF s. Para ver qué sucede con las frecuencias
superiores a Fs/2 consideremos el siguiente ejemplo.
Ejemplo. 1.4.1. Las consecuencias de estas relaciones entre las frecuencias pueden
observarse considerando las dos señales analógicas
que son muestreadas a una velocidad Fs = 40 Hz. Las señales o secuencias en tiempo discreto
correspondientes son
Sin embargo, cos 5πn/2 = cos (2πn + πn/2) = cos πn/2. De aquí, x2(n) = x1(n). Las señales
sinusoidales son, por lo tanto, idénticas y, en consecuencia, indistinguibles. Dados los valores
de las muestras correspondientes a cos(π/2), no podemos determinar si proceden de x 1(t) o de
x2(t). Dado que x2(t) produce exactamente los mismos valores que x 1(t) cuando ambas son
muestreadas a Fs = 40 muestras por segundo, decimos que la frecuencia F 2 = 50 Hz es un
alias de la frecuencia F 1 = 10 Hz a la velocidad de muestreo de 40 muestras por segundo. Es
importante observar que F2 no es el único alias de F1. De hecho, a una velocidad de muestreo
de 40 muestras por segundo la frecuencia F3 = 90 Hz también es un alias de F1, así como la
frecuencia F4 = 130 Hz, etc. Todas las sinusoides cos 2π (F1 + 40k)t, k = 1,2, 3, 4,...
muestreadas a 40 muestras por segundo producen valores idénticos. En consecuencia todas
son alias de F1 = 10 Hz.
con una velocidad de muestreo Fs = 1/T produce una señal en tiempo discreto
donde
se muestrean a una velocidad F s, está claro que la frecuencia Fk se encuentra fuera del rango –
F s/2 ≤ F ≤ F s/2. En consecuencia. La señal muestreada es
F 0 + kFs
x(n) ≡ xa(nT) = A cos (2π n + θ)
Fs
= A cos(2πn F 0/Fs + θ + 2πkn)
= A cos(2πf 0n + θ)
65
que es idéntica a la señal en tiempo discreto dada en (1.4.15) y obtenida mediante muestreo
(1.4.14). Por lo tanto, un número infinito de señales en tiempo continuo se representan
mediante el mismo conjunto de muestras. En consecuencia, a partir de las muestras x(n) no es
posible determinar qué señal en tiempo continuo xa(t) representan. De forma equivalente,
podemos decir que las frecuencias F k = F0 + kFs, - ∞ < k < ∞ (k entero) son indistinguibles de la
frecuencia F0 después del muestreo y, por tanto, son alias de F0. La relación entre variables
frecuencia de señales en tiempo continuo y tiempo discreto se ilustra en la figura 1.17.
Dado que Fs/2, que se corresponde con ω = π, es la frecuencia más alta que puede ser
representada inequívocamente con una velocidad de muestreo Fs, es fácil determinar la
correspondencia entre cualquier alias por encima de Fs/2 (ω = π) y su frecuencia equivalente
por debajo de Fs /2. Podemos usar Fs/2 o ω = π como el punto de plegado y reflejar o “doblar” la
frecuencia alias en el rango F s/2 (ω = π). La frecuencia Fs /2 (ω = π) se denomina frecuencia de
plegado.
Teorema de muestreo
66
Dada una señal analógica cualquiera, ¿cómo se debe elegir el período de muestreo T
o, lo que es lo mismo, la velocidad de muestreo F s? Para contestar a esta cuestión es
necesaria cierta información sobre las características de la señal que va a ser muestreada. En
particular, debemos tener cierta información general sobre el contenido frecuencial de la señal.
Generalmente, dicha información se encuentra disponible. Por ejemplo, sabemos que la mayor
frecuencia en señales de voz ronda los 3.000 Hz. Por otra parte, las señales de televisión
tienen componentes de frecuencia importantes hasta los 5 MHz. La información contenida en
dichas señales se encuentra en las amplitudes, frecuencias y fases de las distintas
componentes de frecuencia, pero antes de obtener dichas señales no conocemos sus
características con detalle. De hecho, el propósito del procesamiento de señales es
normalmente la extracción de dichas características. Sin embargo, si conocemos la máxima
frecuencia de una determinada clase de señales (por ejemplo, señales de voz, de video, etc.)
podemos especificar la velocidad de muestreo necesaria para convertir las señales analógicas
en señales digitales.
Supongamos que cualquier señal analógica se puede representar como una suma de
sinusoides de diferentes amplitudes, frecuencias y fases, es decir,
N
(1.4.18) xa(t) = ∑
i =1
Ai cos(2πFit + θi)
donde N indica el número de componentes de frecuencia. Todas las señales, como las de voz
o video, se prestan a dicha representación en cualquier intervalo de tiempo pequeño.
Normalmente, las amplitudes, fases y frecuencias varían lentamente de un intervalo de tiempo
al siguiente. Supongamos que las frecuencias de una determinada señal no exceden una
frecuencia máxima conocida F max. Por ejemplo, Fmax = 3 KHz, para señales de voz y Fmax = 5
MHz, para señales de video. Dado que la máxima frecuencia puede variar ligeramente (por
ejemplo, de un orador a otro) podemos querer asegurar que Fmax no sobrepase determinado
valor y para ello pasaremos la señal analógica por un filtro que atenúe fuertemente las
componentes de frecuencia por encima de Fmax. Así estaremos seguros de que ninguna señal
de la clase que nos interesa tendrá componentes de frecuencia (con amplitud o potencia
significativa) por encima de Fmax. En la práctica, este filtrado se realiza antes del muestreo. El
conocimiento de Fmax nos permite seleccionar la velocidad de muestreo apropiada. Sabemos
que la frecuencia más alta de la señal analógica que puede reconstruirse sin ambigüedad
cuando la señal se muestrea a una velocidad Fs = 1/T es Fs/2. Cualquier frecuencia por encima
de Fs/2 o por debajo de – F s/2 produce muestras que son idénticas a las correspondientes a
frecuencias dentro del intervalo –Fs/2 ≤ F ≤ F s/2. Para evitar las ambigüedades que resultan del
aliasing, se debe seleccionar una velocidad de muestreo lo suficientemente alta, esto es,
debemos escoger F s/2 mayor que Fmax. Por tanto, para evitar el problema del aliasing, se
selecciona Fs según
donde Fmax es la frecuencia más alta de la señal analógica. Con la velocidad de muestreo
seleccionada de esta manera tenemos que cualquier componente de frecuencia, por ejemplo
|Fi| < Fmax, de la señal analógica se corresponde en tiempo discreto con una sinusoide de
frecuencia
(1.4.20) - ½ ≤ f i = Fi/Fs ≤ ½
o equivalentemente,
(1.4.21) - π ≤ ωi = 2πfi ≤ π
puede ser reconstruida sin distorsión a partir de las muestras usando un método de
interpolación “apropiado” (conversión digital analógica). La fórmula de interpolación ideal o
“apropiada” se especifica mediante el teorema del muestreo.
Teorema del muestreo. Si la frecuencia más alta contenida en una señal analógica xa(t) es
F max = B y la señal se muestrea a una velocidad Fs < 2Fmax ≡ 2B, entonces xa(t) se puede
recuperar totalmente a partir de sus muestras mediante la siguiente función de interpolación
sen2πBt
(1.4.22) g(t) =
2πBt
La tasa de muestreo dada por F N = 2B = 2 Fmax se denomina tasa de Nyquist. La figura 1.19
ilustra el proceso de conversión D/A ideal que utiliza la función de interpolación dada por
(1.4.22).
Un punto importante es que aun cuando la forma de onda puede tener un espectro
limitado en banda, la señal podría estar corrompida por ruido aleatorio de banda ancha, previo
a la conversión analógica a digital. En tales casos, la señal más ruido debiera ser filtrada con
un filtro analógico paso bajo que corta abruptamente por encima de la frecuencia de Nyquist,
de modo que las imágenes de ruido de alta frecuencia no sean solapadas (aliased) en la banda
de base.
Una señal digital es una secuencia de números (muestras) en la que cada número se
representa por un número finito de dígitos (precisión finita).
El proceso de convertir una señal en tiempo discreto de amplitud continua en una señal
digital, expresando cada muestra por medio de un número finito (en vez de infinito) de dígitos,
se denomina cuantificación. El error cometido al representar la señal de valor continuo por un
conjunto finito de valores discretos se denomina error de cuantificación o ruido de
cuantificación.
Denotaremos la operación de cuantificación de las muestras x(n) como Q[x(n)] y
utilizaremos xq(n) para designar la secuencia de muestras cuantificadas a la salida del
cuantificador. Así x q(n) = Q[x(n)] por tanto, el error de cuantificación de una secuencia eq(n) se
define como la diferencia entre el valor cuantificado y el de la muestra original
Supongamos que queremos utilizar un solo dígito significativo. Para eliminar los dígitos
sobrantes podemos simplemente eliminarlos (truncamiento) o aproximar por el número con un
dígito significativo más cercano (redondeo). Las señales cuantificadas resultantes xq(n) se
muestran en la Tabla 1.2. Discutiremos solo la cuantificación por redondeo, aunque es igual de
fácil considerar el caso de truncamiento. El proceso de redondeo se ilustra gráficamente en la
Fig. 1.20b.
68
∆ ∆
(1.4.26) - ≤ e q(n) ≤
s s
En otras palabras, el error de cuantificación instantáneo no puede superar la mitad del valor del
escalón de cuantificación (ver Tabla 1.2).
Si xmin y xmax representan los valores máximo y mínimo de x(n) y L es el número de
niveles de cuantificación, entonces
x max − x min
(1.4.27) ∆=
L −1
Definimos el rango dinámico de la señal como xmax – xmin. En nuestro ejemplo xmax = 1, xmin =
0, y L = 11, lo que nos lleva a ∆ = 0.1. Obsérvese que si el rango dinámico está prefijado, el
aumento del número de niveles conlleva la disminución del escalón de cuantificación. Por tanto,
el error de cuantificación decrece y aumenta la precisión del cuantificador. En la práctica se
puede reducir el error de cuantificación a niveles insignificantes, eligiendo un número suficiente
de niveles de cuantificación.
69