DEPARTAMENTO DE CIENCIA Y TECNOLOGÍA UNIVERSIDAD NACIONAL DE QUILMES Roque Sáenz Peña 180 – (B1876BXD) Bernal – Buenos Aires – Argentina TEORÍA DE LAS TELECOMUNICACIONES CLASIFICACIÓN DE LAS SEÑALES Básicamente tenemos dos tipos de señales: determinísticas y aleatorias. Las determinísticas tienen un valor conocido en cada instante de tiempo y pueden expresarse matemáticamente como, por ejemplo, x(t) = 5 cos 10t. Para una señal o forma de onda aleatoria no es posible dar una expresión explícita como la anterior. Sin embargo, cuando se la observa durante un largo período de tiempo puede verse cierta regularidad y puede ser descripta en términos de probabilidades y promedios estadísticos. El ejemplo más sobresaliente de este caso, en sistemas de comunicaciones, es el ruido. Sin embargo, también son aleatorias las señales provenientes de las fuentes de información. Es aleatoria la señal de video, la voz de un locutor de radio, el mensaje de un fax, etc. Lo cual es bastante lógico. Si estas señales fueran determinísticas no tendrían sentido las comunicaciones. ¿Para qué transmitir algo si el receptor sabe a priori de qué se trata? Haremos un breve repaso de algunas características de estas señales, como así también del ruido, ya que deberemos tratar con ellas posteriormente (fundamentalmente con el ruido). Señales de potencia y de energía Una señal eléctrica puede ser representada por un voltaje v(t), o una corriente i(t), que entrega una potencia instantánea p(t) a través de un resistor R: v 2 (t ) R p(t ) = (1) ó p(t ) = i 2 (t )R (2) En sistemas de comunicaciones es común normalizar las ecuaciones anteriores considerando a R = 1 Ω aunque en realidad pueda tener otro valor. En ese caso las expresiones anteriores toman la forma general: p(t ) = x 2 (t ) (3) donde x(t) representa una tensión o una corriente, indistintamente. La energía disipada durante el intervalo de tiempo (- T/2, T/2) por una señal con potencia instantánea expresada por (3) se puede escribir como: E xT = T /2 ∫ −T / 2 x 2(t )dt (4) y la potencia media disipada por la señal durante el intervalo es: PxT = Clasificación de las señales 1 T ∫ T /2 −T / 2 x 2(t )dt (5) 1 Como veremos más adelante, la performance de un sistema de comunicaciones depende de la energía de la señal detectada; las señales de mayor energía brindan mayor confiabilidad (menos errores). Por otro lado, la potencia es la velocidad a la que se entrega energía. La potencia determina la tensión eléctrica que debe ser aplicada a un transmisor. En el análisis de sistemas de comunicaciones a menudo es deseable tratar con formas de onda de energía. Clasificaremos a x(t) como una señal de energía si, y sólo si, tiene energía mayor que cero y de valor finito (0 < Ex < ∞) para toda la extensión del tiempo: E x = lim T /2 ∫ x 2(t )dt = T → ∞ −T / 2 ∫ ∞ −∞ x 2(t )dt (6) En la práctica siempre transmitimos señales que tienen energía finita. Sin embargo, para describir las señales periódicas, que por definición existen para todo tiempo t y tienen energía infinita, es conveniente definir una clase de señales llamadas señales de potencia. Por definición, una señal es de potencia si, y sólo si, tiene potencia mayor que cero y de valor finito para todo t: 1 T →∞ T Px = lim T /2 ∫ −T / 2 x 2(t )dt (7) Esta clasificación de las señales es mutuamente excluyente. O sea, una señal de energía tiene energía finita pero potencia media cero, mientras que una señal de potencia tiene potencia finita pero energía infinita. Como regla general, las señales periódicas y las señales aleatorias se clasifican como señales de potencia, mientras que las señales determinísticas no periódicas se las clasifica como señales de energía. Señales Periódicas Señales de Potencia Señales Aleatorias Señales de Energía {Señales Determinísticas no Periódicas La clasificación en estas dos categorías descriptas es un modelo conveniente para tratar cierto tipo de señales y el ruido. Densidad espectral La densidad espectral de una señal caracteriza la distribución de energía o de potencia de una señal en el dominio de la frecuencia. Densidad Espectral de Energía. La energía total de una señal de energía x(t), definida sobre un intervalo (-∞, +∞) se describe mediante la ecuación (6). Podemos relacionar la energía de esa señal expresada en el tiempo con la energía expresada en el dominio de la frecuencia mediante la siguiente expresión: Ex = ∫ ∞ x 2 (t )dt = −∞ ∫ ∞ −∞ 2 X (f ) df (8) donde X(f) es la transformada de Fourier de la señal x(t). Recordemos que, se define matemáticamente a la transformada de Fourier de la siguiente manera: X (f ) = ∫ ∞ −∞ x(t ) ⋅ e − j 2πft dt Podemos hacer: 2 Clasificación de las señales Ψx (f ) = X (f ) 2 (9) La función Ψx(f) es la densidad espectral de energía de la señal x(t). Por lo tanto, la energía total de la señal x(t) se puede expresar así: Ex = ∫ ∞ −∞ Ψ x (f )df (10) Esta ecuación establece que la energía de una señal es igual al área bajo la curva Ψx(f). La densidad espectral de energía describe la energía de la señal por unidad de ancho de banda, expresado en Joules/Hertz. Como X(f) es una función par resulta que: ∫ ∞ E x = 2 Ψx (f )df (11) 0 Densidad Espectral de Potencia. La potencia promedio, de una señal real x(t) se define en la ecuación (7). Si x(t) es una señal periódica con período T0, se la clasifica como una señal de potencia, con potencia media expresada por: Px = 1 T0 T0 / 2 ∫ −T0 / 2 ∞ x 2(t )dt = ∑c 2 n (12) n = −∞ donde el término cn2 representa a los coeficientes complejos de la serie de Fourier (esta es la relación de Parseval para señales periódicas). La función densidad espectral de potencia, Gx(f), de una señal periódica x(t), es una función real, par y no negativa que da la distribución de la potencia de x(t) en función de la frecuencia. Se la define como: ∞ G x (f ) = ∑c 2 n δ (f − nf 0 ) (13) n = −∞ La ecuación (13) define la densidad espectral de potencia de una señal periódica x(t) como una sucesión de funciones delta “pesadas” por el coeficiente cn2 . Esto significa que es una función discreta de la frecuencia. La potencia media total, normalizada, queda expresada como: Px = ∫ ∞ −∞ ∫ ∞ G x (f )df = 2 G x (f )df 0 (14) La densidad espectral de potencia se expresa en unidades tales como Watts/Hertz. Autocorrelación Autocorrelación de una señal de energía La correlación es un proceso de comparación. La autocorrelación se refiere a la comparación de una señal con una versión desplazada de sí misma. La función de autocorrelación, Rx(τ), de una señal real de energía x(t), viene definida por: Rx (τ ) = ∫ ∞ −∞ x(t )x(t + τ )dt para - ∞ < τ < ∞ (15) La función de autocorrelación da una idea de qué tanto se parece una señal a una versión desplazada (τ unidades en el tiempo) de sí misma. Rx no es una función del tiempo Clasificación de las señales 3 sino que es función de la diferencia de tiempo o desplazamiento τ, entre la función inicial y la función desplazada. La función de autocorrelación de una señal real de energía tiene las siguientes propiedades: 1. R x (τ ) = R x (−τ ) es una función par. 2. Rx (τ ) ≤ Rx (0) para todo τ 3. Rx (τ ) ↔ Ψx (f ) tiene su valor máximo en el origen. la autocorrelación y la densidad espectral de energía forman un par transformado de Fourier. 4. Rx (0) = ∫ ∞ −∞ x2(t )dt el valor en el origen es igual a la energía de la señal (se puede ver de la (15) haciendo τ = 0). Autocorrelación de una señal periódica (señal de potencia) La función de autocorrelación de una señal real de potencia se define como: 1 T →∞ T Rx (τ ) = lim T /2 ∫ −T / 2 x(t )x(t + τ )dt para - ∞ < τ < ∞ (16) Cuando la señal de potencia x(t) es periódica con período T0, el tiempo de promediación puede tomarse sobre un período, quedando la expresión: Rx (τ ) = 1 T0 T0 / 2 ∫ −T0 / 2 x(t )x(t + τ )dt para - ∞ < τ < ∞ (17) Las propiedades de la autocorrelación para una función real periódica son: 1. R x (τ ) = R x (−τ ) es una función par. 2. Rx (τ ) ≤ Rx (0) para todo τ 3. Rx (τ ) ↔ G x (f ) tiene su valor máximo en el origen. la autocorrelación y la densidad espectral de potencia forman un par transformado de Fourier. 4. Rx (0) = 1 T0 T0 / 2 ∫ −T0 / 2 x2(t )dt el valor en el origen es igual a la potencia media de la señal, como se puede ver de la (17) haciendo τ = 0. Señales aleatorias Veremos a continuación algunas características de las señales aleatorias y repasaremos algunos conceptos básicos de estadísticas. Sea X(A) una variable aleatoria. Representa la relación entre un evento aleatorio A y un número real. Por conveniencia indicaremos a la variable aleatoria solamente por X, quedando implícita su relación con A. La variable aleatoria puede ser discreta o continua. Las variables aleatorias discretas son aquellas que ante un evento, el conjunto de resultados posibles es discreto. Por ejemplo, supongamos el evento A = “se arroja un dado”. Los valores posibles para X son {1, 2, 3, 4, 5 y 6}. Las variables aleatorias continuas son aquellas que, para un 4 Clasificación de las señales evento definido, presentan un conjunto de resultados continuos. Por ejemplo, supongamos el evento A = “se mide una tensión eléctrica”. Los posibles resultados para la variable aleatoria X podrían ser, por ejemplo, los pertenecientes al intervalo continuo [200, 240], representando valores de tensión eléctrica en volts1. La función de distribución FX(x) (o función de distribución acumulativa) de la variable aleatoria X viene dada por: F X (x) = P(X ≤ x) (18) donde el término de la derecha representa la probabilidad de que la variable aleatoria X sea menor o igual que el número real x. Esta función Fx tiene las siguientes propiedades: 1. 0 ≤ FX (x) ≤ 1 2. FX ( x1) ≤ FX (x2 ) si x1 ≤ x2 3. F X (−∞) = 0 4. F X (+∞) = 1 Para el caso de una variable aleatoria continua, la fda es continua. Para el caso de una variable aleatoria discreta la fda tiene saltos escalonados o bien podríamos decir que es continua por segmentos. También sigue siendo creciente. Otra expresión útil es la función de densidad de probabilidad (fdp), definida como: p X (x) = dF X ( x) dx (19) Esta función expresa la probabilidad de que la variable aleatoria X esté comprendida entre dos ciertos valores: P ( x1 ≤ X ≤ x 2 ) = P ( X ≤ x 2 ) − P ( X ≤ x 1 ) = F X ( x 2 ) − F X (x1 ) = ∫ x2 x1 p X ( x )dx La función de densidad de probabilidad tiene las siguientes propiedades: 1. p X (x) ≥ 0 2. ∫ ∞ −∞ p X (x)dx = F X (+∞) − F X (−∞) = 1 Obviamente el área debajo de pX(x) debe ser igual a 1 pues la probabilidad de obtener un resultado cualquiera (perteneciente al conjunto), una vez observado el evento, es 1. La fdp de una variable aleatoria continua es una función continua. Para el caso de las tensiones eléctricas tomado antes como ejemplo, la función de densidad de probabilidad sería una recta horizontal, de altura 1/40, y que se extiende desde x = 200 hasta x = 240. Esto forma un rectángulo cuya área tiene valor 1, como debe ser. En este caso decimos que la 1 Esta suposición es en realidad bastante exagerada para una situación real. Si se mide, por ejemplo, la tensión eléctrica domiciliaria repetidas veces, se encontrará que el valor es bastante estable y difícilmente tenga una distribución uniforme entre 200 y 240V sino en un intervalo más pequeño (y con una distribución diferente). Clasificación de las señales 5 variable aleatoria tiene una distribución uniforme. Para el caso de una variable aleatoria discreta, la fdp también es discreta. Entonces, para el ejemplo del dado, tendríamos una función discreta formada por puntos de ordenada = 1/6 y abscisa 1, 2, 3, etc, hasta 6. La suma de las ordenadas de cada punto da 1, como debe ser. La fdp también tiene, en este caso, una distribución uniforme. La distribución uniforme es la más sencilla de todas y desde luego que existen numerosas funciones de densidad de probabilidad con diferentes formas. Nótese que, para el caso de la fdp continua y uniforme del ejemplo de las tensiones, si calculamos la función primitiva (la antiderivada) obtenemos como fda, función de distribución acumulativa, una recta que cumple con la ecuación (18) y con todas las propiedades que se enumeraron acerca de ella. Para el caso del dado, la fda sería “una recta escalonada”. Indicaremos a la función de densidad de probabilidad como p(x). Además, escribiremos P(X=xi) como la probabilidad de que una variable aleatoria discreta X tome el valor xi. Es importante aclarar que esta última expresión sólo es válida para variables discretas. Para el caso de variables continuas pX(x0) no representa la probabilidad de nada. Siempre se debe integrar entre dos valores x1 y x2 y lo que se obtiene es la probabilidad de que la variable aleatoria X se encuentre entre los valores x1 y x2. Una vez más, refiriéndonos al ejemplo de las tensiones eléctricas, la probabilidad de que el resultado del evento sea, por decir algo, 223,18 volts no tiene sentido. En tal caso, deberemos calcular la integral de la fdp entre dos valores muy cercanos a 223,18 y obtendremos la probabilidad de que el resultado del evento esté dentro de ese rango de integración. El valor medio (o valor esperado) mX de una variable aleatoria X viene definido por m X = E {X } = ∫ ∞ −∞ xp X ( x )dx (20) ⋅ es el valor esperado de la variable aleatoria. El valor esperado representa donde E {} algo así como el promedio entre los posibles resultados de la variable aleatoria. Para el ejemplo del dado, el valor esperado es 3,5. Este valor surge de hacer la siguiente operación: E {X } = 6 ∑x j P(X = xj) j =1 = 1⋅ 1 1 1 +2⋅ +L+6⋅ 6 6 6 1 (1 + 2 + 3 + 4 + 5 + 6) 6 = 3,5 = Nótese que la variable aleatoria X puede no ser igual a su valor esperado para ningún resultado experimental. Para el ejemplo de las tensiones eléctricas el valor medio o esperado (también llamado esperanza algunas veces) es 220 V, suponiendo una distribución uniforme, es decir, una distribución con igual probabilidad para todos los resultados. Se puede comprobar fácilmente aplicando la (20). El n-ésimo momento de una distribución de probabilidad de una variable aleatoria X viene definido por { } ∫ E Xn = 6 ∞ −∞ x n p X (x)dx (21) Clasificación de las señales Para el análisis de los sistemas de comunicaciones son de utilidad el primero y segundo momento. Para el primer caso, haciendo n = 1 obtenemos la ecuación (20) que da el valor medio; para el segundo caso, haciendo n = 2 se obtiene el valor cuadrático medio de X: { } ∫ E X2 = ∞ −∞ x 2 p X ( x)dx (22) Otra definición de importancia es la varianza de una variable aleatoria X, expresada como: { } ∫ var(X ) = E ( X − m X )2 = ∞ −∞ ( x − mX )2 p X (x)dx (23) La varianza de X es normalmente denotada como σ 2X , y su raíz cuadrada, σX, es llamada la desviación estándar de X. La varianza es una medida de la “aleatoriedad” o dispersión de la variable X. El valor de la varianza da una idea del “ancho” de la función de densidad de probabilidad de la variable aleatoria X. Cuanto más “ancha” es una fdp dada, mayor es la varianza de la misma. La varianza y el valor cuadrático medio se relacionan de la siguiente manera: { = E {X } − 2m = E {X } − 2m = E {X } − m σ 2X = E X 2 − 2m X X + m 2X {X } + m2X 2 XE 2 X mX 2 } + m 2X 2 X Así, la varianza es igual a la diferencia entre el valor cuadrático medio y el cuadrado de la media. Procesos aleatorios Figura 1. Proceso aleatorio. Clasificación de las señales 7 Un proceso aleatorio, X(A, t), puede ser visto como una función de dos variables: un evento A y el tiempo t. Supongamos N muestras de una función del tiempo {Xj(t)}. Cada una de las muestras puede ser relacionada con la salida de diferentes generadores de ruido. Para un evento específico Aj tenemos una función del tiempo X(Aj, t) = Xj(t) (o sea una muestra de la función). La totalidad de las muestras forman un conjunto o ensamble. Para un tiempo específico tk, X(A, tk) es una variable aleatoria X(tk), cuyo valor depende del evento. Para un evento específico A = Aj y un tiempo específico t = tk, X(Aj, tk) es simplemente un número. Por conveniencia designaremos a este proceso aleatorio como X(t) y la dependencia con A quedará implícita. La Figura 1 muestra un ejemplo de proceso aleatorio. Se trata de N eventos; cada evento depende del resultado aleatorio del mismo y del tiempo. Promedios estadísticos de una variable aleatoria El valor de un proceso aleatorio no puede ser conocido a priori (ya que no se conoce la identidad del evento A). Se busca entonces poder describir este proceso estadísticamente, mediante su función de densidad de probabilidad (fdp). En general, la forma de la fdp de un proceso aleatorio será diferente para diferentes tiempos. Y en general también, no es práctico determinar empíricamente la fdp. Sin embargo, se puede obtener una descripción parcial a través de la media y de la autocorrelación. Definiremos a la media de un proceso aleatorio X(t) como: E {X (t k )} = ∫ ∞ −∞ xp X k ( x)dx = m X (t k ) (24) donde X(tk) es la variable aleatoria obtenida por observación del proceso aleatorio en el tiempo tk. La fdp de X(tk) es pxk(x). Es la función de densidad de probabilidad sobre todo el conjunto de eventos, tomada en el tiempo tk. Definiremos a la función de autocorrelación del proceso aleatorio X(t) como una función de dos variables, t1 y t2: R X (t1 , t 2 ) = E {X (t1 )X (t 2 )} (25) donde X(t1) y X(t2) son las variables aleatorias obtenidas por observación de X(t) en los tiempos t1 y t2 respectivamente. La función de autocorrelación da una pauta de cuánto se parecen dos muestras del mismo proceso aleatorio, desplazadas en el tiempo. Procesos estacionarios Un proceso aleatorio X(t) se dice estacionario en sentido estricto si ninguna de sus propiedades estadísticas son afectadas por un desplazamiento sobre el eje de tiempos. Un proceso aleatorio se dice estacionario en sentido amplio si la media y la autocorrelación no varían con un desplazamiento en el tiempo. Así, un proceso es estacionario en sentido amplio si, E {X (t )} = mX = constante (26) RX (t1, t2 ) = RX (t1 − t2 ) (27) y Estacionario en sentido estricto implica estacionario en sentido amplio, pero no viceversa. La mayoría de los procesos aleatorios usados en sistemas de comunicaciones son estacionarios en sentido amplio. 8 Clasificación de las señales En procesos estacionarios la autocorrelación no depende del tiempo sino de la diferencia de tiempos t1 y t2. Es decir, todos los pares de valores de X(t) separados en el tiempo τ = t1 – t2 tienen el mismo valor de autocorrelación. Así, para procesos estacionarios, expresamos la autocorrelación simplemente como RX(τ). Autocorrelación en procesos estacionarios en sentido amplio. Así como la varianza provee una medida de la aleatoriedad de una variable aleatoria, la función de autocorrelación provee una medida similar para los procesos aleatorios. Como se dijo antes, para procesos estacionarios en sentido amplio la autocorrelación es una función de τ = t1 – t2, esto es: R X (t1 , t 2 ) = E {X (t1 )X (t 2 )} = R X (t1 − t 2 ) = R X (τ ) R X (τ ) = E {X (t )X (t + τ )} para - ∞ < τ < ∞ (28) Para un proceso estacionario en sentido amplio, RX(τ) da una idea del “parecido” de los valores del proceso separados por un tiempo τ. En otras palabras, da una idea de la rapidez con que va cambiando el proceso a lo largo del tiempo. Si RX(τ) cambia lentamente significa que, en promedio, los valores de X(t) tomados en t1 y t1 + τ son aproximadamente iguales. De esa manera una representación de X(t) en el dominio de la frecuencia debería tener una preponderancia de bajas frecuencias. Por el contrario, si RX(τ) decrece rápidamente con el aumento de τ deberíamos esperar que X(t) cambie rápidamente con el tiempo y que contenga principalmente altas frecuencias. Las propiedades de la función de autocorrelación para un proceso estacionario en sentido amplio son: 1. R x (τ ) = R x (−τ ) es una función par. 2. Rx (τ ) ≤ Rx (0) para todo τ 3. Rx (τ ) ↔ G x (f ) tiene su valor máximo en el origen. la autocorrelación y la densidad espectral de potencia forman un par transformado de Fourier. { } 4. Rx (0) = E X 2 (t ) el valor en el origen es igual a la potencia media de la señal. Ergodicidad. Para calcular mX y RX(τ) por promediación del ensamble o conjunto, deberíamos promediar todas las muestras de la función y deberíamos contar con información estadística más amplia que generalmente no está disponible. Cuando un proceso aleatorio pertenece a cierta clase especial llamado proceso ergódico, su promedio temporal es igual al promedio del ensamble y las propiedades estadísticas del proceso pueden determinarse a partir del promedio temporal de una sola muestra. Para que un proceso aleatorio sea ergódico debe ser estacionario en sentido estricto (la inversa no es necesariamente verdadera). Sin embargo, en sistemas de comunicaciones que satisfacen la condición de estacionario en sentido amplio, sólo nos interesa saber la media y la función de autocorrelación. Podemos decir que un proceso es ergódico en la media si mX = lim 1 / T T →∞ ∫ T /2 −T / 2 X (t )dt (29) es decir, calculamos el valor medio a partir del promedio temporal. Y es ergódico en la autocorrelación si: Clasificación de las señales 9 RX (τ ) = lim 1 / T T →∞ ∫ T /2 −T / 2 X (t )X (t + τ )dt (30) es decir, calculamos la autocorrelación a partir de la función de autocorrelación en el tiempo. Comprobar la ergodicidad de un proceso aleatorio es, en general, muy difícil. En la práctica lo que se hace es una evaluación intuitiva para saber si es razonable intercambiar los promedios temporales y los promedios de las muestras. En la mayoría de los sistemas de comunicaciones (en ausencia de efectos transitorios) se asume la ergodicidad en la media y en la autocorrelación. Ya que en un proceso ergódico el promedio temporal es igual al promedio de las muestras del conjunto, las variables eléctricas principales como valor dc, valor rms, etc, se pueden relacionar, en este caso, con las propiedades estadísticas de la siguiente manera: 1. La cantidad mX = E {X (t )} es igual al nivel DC de la señal. Este resultado es bastante intuitivo, ya que el valor medio estadístico coincide con el valor medio temporal, y el valor medio temporal de una señal eléctrica representa la componente DC. 2. La cantidad m2X es igual a la potencia normalizada de la componente DC. También es bastante intuitivo. Si mX es el valor medio de tensión eléctrica, entonces su cuadrado, m2X , representa la potencia continua normalizada. { } 3. El segundo momento de X(t), E X 2 (t ) es igual a la potencia media normalizada total (AC + DC). Este resultado quizás no es tan evidente como los dos anteriores. Pero una manera de interpretarlo es viendo que X2(t) es la potencia instantánea normalizada (AC + DC) de la señal X(t). Por lo tanto su valor medio representa la potencia media normalizada AC + DC. { } E X 2 (t ) es igual al valor rms del voltaje o corriente de la señal (AC + 4. La cantidad DC). Teniendo en cuenta el punto 3, vemos que se trata de la raíz cuadrada de la potencia media normalizada total. Esto coincide con la definición de valor rms de una señal (en otras palabras, es la raíz cuadrada del valor medio del cuadrado de la señal de tensión o de corriente) 5. La varianza, σ 2X , es igual a la potencia media normalizada de la componente AC de la señal: { σ 2X = var( X ) = E (X − m X )2 ∞ } ∫ (x − m ) p (x)dx = ∫ (x − 2 xm + m )p (x )dx = ∫ x p (x )dx − ∫ 2 xm p ( x )dx − ∫ = E {X } − 2m E {X } + m = E {X } − 2m + m = E {X } − m 123 { = 2 X −∞ ∞ X 2 2 X X −∞ ∞ ∞ 2 X −∞ 2 2 X 2 2 X X ∞ −∞ m2X p X ( x )dx 2 X X 10 X −∞ 2 potencia total X 2 X potencia dc Clasificación de las señales { } 6. Si el proceso tiene media cero (esto es, mX = m2X = 0 ), entonces σ 2X = E X 2 , y la varianza representa la potencia media total normalizada (porque no hay potencia media DC). 7. La desviación estándar, σX, es el valor rms de la componente AC de la señal. Surge del punto 5, tomando la raíz cuadrada de la potencia media AC y teniendo en cuenta la definición de valor rms. 8. Si mX = 0 entonces σX es el valor rms total de la señal (ya que no hay tensión o corriente continua). Un proceso aleatorio X(t) generalmente puede ser clasificado como una señal de potencia que tiene densidad espectral de potencia GX(f). La característica de esta densidad espectral puede resumirse así: 1. G X (f ) ≥ 0 2. G X (f ) = G X (−f ) 3. G X (f ) ↔ RX (τ ) 4. PX = ∫ ∞ −∞ G X (f )df En la Figura 2 se muestran dos ejemplos de cómo se obtiene la densidad espectral de potencia de una secuencia binaria, bipolar, aleatoria. A partir de dicha secuencia, se calcula la función de autocorrelación, siendo la transformada de Fourier de esta última la densidad espectral de potencia de la secuencia original. En el segundo ejemplo el ancho de pulso es menor y por lo tanto el ancho de banda resultante es mayor (recuérdese que lo que es “angosto” en el dominio del tiempo es “ancho” en el dominio de la frecuencia y viceversa). Ruido en sistemas de comunicaciones El término ruido se refiere a señales eléctricas indeseadas que están siempre presentes en los sistemas eléctricos. La presencia de ruido superpuesto en una señal tiende a enmascarar a dicha señal. Esto limita la capacidad del receptor para decidir correctamente acerca de cuál fue el símbolo transmitido, además de limitar la velocidad de transmisión. Hay diferentes fuentes de ruido, tanto naturales como artificiales (generados por el hombre). En todo sistema de comunicaciones hay que pelear contra el ruido, diseñando las antenas y filtros adecuados, o instalando los equipos en lugares apropiados. Hay un tipo de ruido específico llamado ruido térmico o de Johnson que es causado por la agitación térmica natural de los electrones presentes en distintos componentes como ser cables conductores, resistores, transistores, etc. Los mismos electrones que realizan la conducción eléctrica de la señal deseada producen el ruido térmico. Más adelante, en otro capítulo, veremos más en detalle la expresión matemática de la tensión y de la potencia del ruido térmico. Por ahora veremos su comportamiento estadístico y su espectro de frecuencia. El ruido térmico tiene una naturaleza aleatoria y puede ser descripto como un proceso Gaussiano de media cero. Un proceso Gaussiano n(t) es una función aleatoria cuyo valor n, a cualquier valor arbitrario del tiempo t, está estadísticamente caracterizado por una función de densidad de probabilidad Gaussiana p(n): p(n) = Clasificación de las señales 1 n 2 exp − 2 σ σ 2π 1 (31) 11 donde sigma cuadrado es la varianza de n. La fdp Gaussiana Normalizada es un proceso de media cero que se asume tiene σ =1. Su gráfica representativa puede verse en la Figura 3. Figura 2. Autocorrelación y densidad espectral de potencia (Ejemplo 1). 12 Clasificación de las señales Figura 2. (Ejemplo 2). Clasificación de las señales 13 Figura 3. Función de densidad de probabilidad Gaussiana, normalizada (σ σ = 1). A menudo representaremos una señal aleatoria como suma de una componente DC y ruido Gaussiano: z=a+n donde z es la variable aleatoria, a la componente DC y n el ruido Gaussiano. Para este caso, la fdp p(z) se expresa como: p(z ) = 1 z − a 2 exp− 2 σ σ 2π 1 (32) donde, una vez más, sigma cuadrado es la varianza de n. Esta forma gaussiana que se le asigna a la distribución de probabilidad de ruido blanco surge de un teorema que dice que la suma de muchas variables aleatorias independientes tiende a una distribución gaussiana, sin importar qué distribución tiene cada variable. La gráfica de la (32) es similar a la de la Figura 3 pero en vez de estar centrada en el eje y está centrada en un eje que pasa por a (donde a es un valor de la abscisa). Ruido blanco La característica distintiva del ruido térmico es que su densidad espectral de potencia es constante para todas las frecuencias que son de interés en la mayoría de los sistemas de comunicaciones. Es decir, una fuente de ruido térmico emana una igual cantidad de potencia por unidad de ancho de banda para todas las frecuencias (desde DC hasta aproximadamente 1012 Hz). Por lo tanto se puede describir al ruido térmico asumiendo que su densidad espectral de potencia Gn(f) es constante para todas las frecuencias, y se expresa como: Gn(f ) = 14 N0 2 watts / hertz (33) Clasificación de las señales El factor ½ se incluye para indicar que la función es par y abarca tanto frecuencias negativas como positivas. Un ruido de estas características se dice que es ruido blanco. El adjetivo blanco se debe a que se lo compara con la luz blanca que tiene componentes iguales para todas las frecuencias (para todos los “colores”). La función de autocorrelación del ruido blanco viene dada por la antitransformada de Fourier de la densidad espectral de potencia: Rn (τ ) = ℑ −1 {G n (f )} = N0 δ (t ) 2 (34) Por lo tanto, la función de autocorrelación del ruido blanco es una función delta “pesada” por el factor N0/2 y ocurre en τ = 0. Esto indica que dos valores cualquiera de la función de ruido son incorrelados y no tienen ningún “parecido”. La potencia media Pn del ruido blanco es infinita ya que el ancho de banda es infinito y el área debajo de la curva de densidad espectral de potencia es infinita: Pn = ∫ ∞ −∞ N0 df = ∞ 2 También puede verse que la función de autocorrelación vale infinito en el origen, cumpliendo con las propiedades enunciadas anteriormente para los procesos aleatorios estacionarios. Desde luego, hay que tener en cuenta que esto de considerar infinito al ancho de banda y a la potencia media, es una abstracción. En realidad el ancho de banda no puede ser infinito. Sin embargo, para los fines prácticos, siempre que este ancho de banda sea mayor que el ancho de banda del sistema de comunicaciones, se lo puede considerar como infinito. La Figura 4 muestra la densidad espectral de potencia y la función de autocorrelación del ruido blanco. Figura 4. (a) Densidad espectral de potencia del ruido blanco. (b) Función de autocorrelación del ruido blanco. Ya que el ruido es un proceso ergódico, veamos cómo se relacionan sus propiedades estadísticas con sus propiedades eléctricas: 1. El valor medio o esperanza de la fdp Gaussiana es cero, por lo tanto el nivel de tensión continua del ruido es cero. Esto es intuitivamente lógico, ya que los niveles positivos de tensión de ruido compensan a los niveles negativos. 2. Como consecuencia del punto anterior, la potencia normalizada de la componente de tensión continua también es cero. 3. La varianza σ2 es igual a la potencia media normalizada de la señal de ruido. Y aquí parece haber una contradicción, ya que anteriormente se había dicho que la potencia media de ruido es infinita. Lo que ocurre es que esto último es una abstracción como Clasificación de las señales 15 consecuencia de considerar infinito al ancho de banda de ruido (por una cuestión de practicidad matemática y de análisis) aunque ya se dijo que no es así. La potencia de ruido viene dada por la varianza de la fdp Gaussiana. Entonces, a mayor varianza, mayor potencia de ruido y por lo tanto mayor “dispersión” estadística, es decir, más ancha es la curva gaussiana. Siendo más estrictos, σ2 representa a la potencia media normalizada de la componente AC, pero, como en este caso la componente DC es cero, finalmente σ2 representa a la potencia media normalizada total de la señal de ruido. 4. La desviación estándar σ, representa el valor rms o valor eficaz de la señal de ruido. Siendo estrictos una vez más, σ es en realidad el valor rms de la componente AC, pero como la componente DC es cero, finalmente la desviación estándar representa al valor rms total del ruido. La función delta en la expresión (34) indica que n(t) es totalmente incorrelado con su versión desplazada, para cualquier valor de τ ≠ 0. Esto significa que una muestra en un tiempo cualquiera t no se “parece” en nada con otra muestra cualquiera. Se dice que el ruido de este tipo es Ruido Blanco Gaussiano Aditivo (RBGA). Además, al ser la distribución gaussiana y las muestras incorreladas, se dice que las muestras de ruido son independientes. Por lo tanto, este tipo de ruido, en un canal de comunicación, afecta en forma independiente a cada símbolo transmitido. El término aditivo significa que el ruido simplemente se superpone a la señal y no hay ningún tipo de mecanismo multiplicativo o de otra naturaleza. Ya que el RBGA es el más común en los sistemas de comunicaciones, es el que comúnmente se utiliza para modelar los sistemas de comunicaciones y para analizar y diseñar los receptores para que tengan un desempeño óptimo. Normalmente hablaremos de ruido blanco gaussiano aditivo de media cero. Transmisión de señales a través de sistemas lineales Una señal aplicada a la entrada de un sistema, puede ser descripta tanto en el dominio del tiempo, como x(t), o en el dominio de la frecuencia, como X(f), (a través de su transformada de Fourier). El análisis en el dominio del tiempo produce, ante una señal de entrada x(t), una señal de salida y(t), siendo en tal caso h(t) la respuesta impulsiva de la red. Si el análisis se hace en el dominio de la frecuencia entonces definimos la función de transferencia H(f) de la red, que determina la señal de salida Y(f) en función de la frecuencia. Esta explicación se ve resumida en la Figura 5. Entrada Salida Red Lineal x(t) X(f) h(t) H(f) y(t) Y(f) Figura 5. Sistema lineal. Recordemos que un sistema es lineal si se cumple que: y 1 (t ) = respuesta del sistema a la entrada x1 (t ) y 2 (t ) = respuesta del sistema a la entrada x 2 (t ) ay 1 (t ) + by 2 (t ) = respuesta del sistema a la entrada ax1 (t ) + bx 2 (t ) 16 Clasificación de las señales Un sistema lineal invariante en el tiempo es caracterizado por su respuesta impulsiva h(t), la cual es la respuesta del sistema cuando la entrada es una función impulso unitario δ(t): h(t ) = y (t ) cuando x(t ) = δ (t ) (35) La respuesta de la red cuando la entrada es una señal arbitraria x(t) se halla resolviendo la convolución entre x(t) y h(t): y(t ) = x(t ) ∗ h(t ) = ∫ ∞ −∞ x(τ )h(t − τ )dτ (36) El sistema es asumido como causal, lo cual significa que no hay salida antes del tiempo t = 0 cuando la señal es aplicada. Por lo tanto, la expresión anterior queda: y(t ) = ∞ ∫ x(τ )h(t − τ )dτ 0 (37) Aplicando la transformada de Fourier en ambos miembros de (36) se obtiene la señal Y(f) en el dominio de la frecuencia. De ese modo, la convolución en el dominio del tiempo se transforma en una multiplicación en el dominio de la frecuencia: Y (f ) = X (f )H(f ) (38) o H(f ) = Y (f ) X (f ) (39) siempre y cuando X(f) ≠ 0 para todo f. Aquí, H(f) es la transformada de Fourier de h(t) y se llama función de transferencia en frecuencia o respuesta en frecuencia de la red. En general, H(f) es una expresión compleja y puede escribirse como: H(f ) = H(f ) e jθ (f ) (40) donde H(f)es la respuesta de magnitud. La respuesta de fase, θ(f) es: θ (f ) = tan−1 Im{H(f )} Re{H(f )} (41) donde Re e Im indican la parte real e imaginaria, respectivamente, de H(f). Procesos aleatorios y sistemas lineales. Si un proceso aleatorio es aplicado a la entrada de un sistema lineal e invariante en el tiempo entonces la salida será también un proceso aleatorio. La densidad espectral de potencia de la entrada, GX(f), y de la salida, GY(f), están relacionadas como sigue: GY (f ) = G X (f ) H(f ) 2 (42) Más adelante veremos la detección de señales en presencia del ruido blanco Gaussiano. Para ello aplicaremos una propiedad fundamental de los procesos Gaussianos aplicados a sistemas lineales invariantes en el tiempo: puede demostrarse que si un proceso Gaussiano X(t) es aplicado a un filtro lineal invariante en el tiempo, entonces el proceso a la salida, Y(t), es también Gaussiano. Transmisión sin distorsión. Veamos ahora cuál es el requerimiento de una red o función de transferencia para que la transmisión a través de la misma sea sin distorsión. La Clasificación de las señales 17 señal que sale de una línea de transmisión ideal debe ser igual a la señal de entrada, salvo un factor de escala y un retardo. Es decir, una línea de transmisión ideal, sin distorsión, debe relacionar las señales de entrada y de salida de la siguiente manera: y(t ) = Kx(t − t 0 ) (43) siendo K y t0 constantes. Aplicando transformada de Fourier queda: Y (f ) = KX (f )e − j 2πft0 (44) H(f ) = Ke − j2πft0 (45) o bien Por lo tanto, para que un sistema de transmisión no tenga distorsión su respuesta en magnitud debe ser constante con la frecuencia, mientras que su respuesta en fase debe ser lineal con la frecuencia. No es suficiente que el sistema amplifique o atenúe todas las componentes en frecuencia por igual. Además de eso, todas las componentes en frecuencia deben arribar con igual retardo para que se sumen correctamente. El retardo t0 está relacionado con la fase θ0 de la siguiente manera: t0[segundos] = θ [radianes] 2πf [radianes/segundo] (46) Dilema del ancho de banda Muchos teoremas importantes de las comunicaciones y de la teoría de la información se basan en la suposición o existencia de canales con un ancho de banda limitado (estrictamente). Sin embargo, considerar un ancho de banda así implica considerar una señal de duración infinita, lo cual es impracticable. Por otra parte, considerar que el ancho de banda se extiende de forma infinita también es irrazonable. Realmente, no hay una definición universal para el ancho de banda. Figura 6. Ancho de banda de una señal digital. (a) Mitad de potencia. (b) Rectángulo equivalente. (c) Ancho entre ceros. (d) 99% de la potencia. (e) DEP limitada a 35 y 50 dB. 18 Clasificación de las señales Todos los criterios de ancho de banda tienen en común la intención de especificar una medida del ancho B, para una densidad espectral de potencia definida para todas las frecuencias tales que f<∞. En la Figura 6 se ilustran algunas de las definiciones más comunes. a) Ancho de banda de mitad de potencia. Es el intervalo de frecuencias en los puntos donde G(f) cae a la mitad del valor máximo. Esto equivale a una caída de 3 dB. b) Rectángulo equivalente (también llamado ancho de banda de ruido equivalente). Es un ancho de banda definido como BN = Px/Gx(fc), donde Px es la potencia total de la señal sobre todo el espectro de frecuencias y Gx(fc) es el valor de la densidad espectral de potencia en el centro de la banda. Nótese que si Px se expresa en watts y Gx(fc) en watts/hertz entonces BN resulta en hertz, como debe ser. c) Ancho de banda entre ceros. Es quizás la clasificación más popular para el ancho de banda en sistemas digitales. Es el lóbulo principal del espectro, allí donde se distribuye la mayor cantidad de potencia. d) Ancho de banda de 99%. Es el ancho de banda limitado por las frecuencias que determinan una potencia del 99% del total. e) Densidad Espectral de Potencia limitada. Establece un ancho de banda tal que, fuera de él, Gx(f) debe caer por debajo de un cierto nivel con respecto del nivel que hay en el centro de banda. Valores típicos son 35 dB y 50 dB. Resumen Hemos clasificado las señales según sean determinísticas o aleatorias. Por otra parte también las clasificamos según sean señales de energía o señales de potencia, y hablamos de densidades espectrales de energía y densidades espectrales de potencia, respectivamente. Las señales que manejaremos en el resto del curso serán de alguno de estos dos últimos tipos y sus espectros serán de energía o de potencia. Las señales aleatorias, muy comunes en sistemas de comunicaciones, quedan representadas por sus parámetros estadísticos, como ser la media o la varianza. Cuando las señales aleatorias son ergódicas entonces los parámetros estadísticos pueden calcularse a partir de los valores temporales de la señal. Por ejemplo, el valor medio estadístico coincide con el valor medio temporal. Así, vimos cómo se relacionan los parámetros estadísticos con variables temporales como potencia media, tensión media, tensión eficaz, entre otros. Esta es la manera de describir las características eléctricas de una señal aleatoria. La función de autocorrelación y la densidad espectral de potencia en estas señales quedan vinculadas a través de la transformada de Fourier. El ruido blanco gaussiano es uno de estos tipos de señales ergódicas y tiene una fdp precisamente de forma gaussiana, un espectro de potencia en forma práctica de extensión infinita en frecuencia y una función de autocorrelación que es una delta ubicada en τ = 0. Finalmente vimos algunas características de las funciones de transferencias lineales y cómo deben ser éstas para que no se distorsione la señal a transmitir. También se habló de los límites prácticos que tienen los espectros de potencia dado que no es posible que se extiendan infinitamente con la frecuencia y cuáles son los criterios para establecer esos límites. Clasificación de las señales 19