Communication">
Nothing Special   »   [go: up one dir, main page]

Tema 1

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 32

MÓDULO: Planificación y Administración de Redes I.E.S.

Domingo Pérez Minik


Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

Índice …

TEMA 1.- Información y sistemas de comunicación. .................................................... 3


1.- Arquitectura básica de un ordenador. ................................................................... 3
2.- Definición de información y comunicación. ......................................................... 7
2.1.- Informática:................................................................................................... 7
2.2.- Redes de ordenadores:................................................................................... 7
2.3.- Sistema de comunicaciones: .......................................................................... 7
3.- Breve historia de las comunicaciones. .................................................................. 8
4.- Los estándares y las organizaciones de normalización. ......................................... 9
4.1.- ¿Qué es un estándar? ..................................................................................... 9
4.2.- Tipos de estándares. ...................................................................................... 9
4.3.- Organizaciones de normalización: ............................................................... 10
5.3.- El concepto de señal y sus propiedades........................................................ 12
5.3.1.- Amplitud .................................................................................................. 13
5.3.2.- Período..................................................................................................... 13
5.3.3.- Frecuencia................................................................................................ 13
5.3.4.- Representaciones: el dominio del tiempo y el dominio de la frecuencia .... 13
5.3.5.- Ancho de banda:....................................................................................... 14
5.4.- Errores en la comunicación. ........................................................................ 14
6.2.- Líneas de Comunicación ............................................................................. 15
6.2.1 Tipos de líneas según la topología de la conexión ....................................... 15
6.2.2 Tipos de líneas según su propietario............................................................ 16
7.- La transmisión. Clasificación. ............................................................................ 16
7.1.- Clasificación atendiendo a la sincronía entre emisor/receptor. ..................... 17
7.1.1.- Transmisión asíncrona:............................................................................. 17
7.1.2.- Transmisión síncrona: .............................................................................. 17
7.1.3.- Sincronismo de bit:................................................................................... 19
7.1.4.- Sincronismo de carácter: .......................................................................... 19
7.1.5.- Sincronismo de bloque: ............................................................................ 19
7.2.- Clasificación atendiendo al medio (serie / paralelo). .................................... 19
7.2.1.- Transmisión serie: .................................................................................... 19
7.2.2.- Transmisión paralelo: ............................................................................... 19
7.3.- Clasificación atendiendo a la señal transmitida. ........................................... 20
7.3.1.- Transmisión analógica/digital: .................................................................. 20
7.3.2.- Transmisión banda base versus banda ancha:............................................ 21
8.- Explotación del circuito de datos........................................................................ 21
8.1.- Comunicación simplex: ............................................................................... 22
8.2.- Comunicación semidúplex o half-duplex: .................................................... 22
8.3 Comunicación dúplex: ................................................................................... 22
9.- Clasificación de las redes de ordenadores........................................................... 23
9.1.- Clasificación atendiendo a la titularidad. ..................................................... 23
9.1.1.- Redes públicas: ........................................................................................ 23
9.1.2.- Redes privadas: ........................................................................................ 23
9.1.3.- Redes dedicadas: ...................................................................................... 23
9.2.- Clasificación atendiendo al tamaño.............................................................. 23
9.2.1.- Redes LAN: ............................................................................................. 23
9.2.2.- Redes WAN: ............................................................................................ 24

Tema 1. Introducción a las comunicaciones. Página 1 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

9.2.3.- Redes MAN: ............................................................................................ 25


10.- Modulación.Sistemas Detectores Correctores de Error. .................................... 25

Tema 1. Introducción a las comunicaciones. Página 2 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

TEMA 1.- Información y sistemas de comunicación.


1.- Arquitectura básica de un ordenador.

El término hardware hace referencia a todos los componentes físicos del


ordenador, que consisten en circuitos eléctricos, cada uno realizando una o varias
funciones lógicas. Por otra parte el término software hace referencia a los elementos no
tangibles como programas y aplicaciones. El software se ejecuta sobre los elementos
hardware para realizar tareas.

La forma en que los componentes hardware se interconectan se conoce en


informática como arquitectura del ordenador. A lo largo de la historia la arquitectura
de los ordenadores ha ido variando.

Los primeros computadores se programaban cableando todos sus componentes


físicos cada vez que había que resolver un problema. Es decir, se disponía de una serie
de elementos y para ejecutar un programa se unían los cables de los elementos
necesarios para ese programa. Esto prácticamente equivalía a reconstruir todo el
ordenador, tarea que se simplificaba gracias a un panel de contactos (muy similar al de
los primeros conmutadores telefónicos) con el que era posible enlazar circuitos para
crear secciones dedicadas a una actividad específica. La programación del computador
se llevaba a cabo, literalmente, reconstruyéndolo.

Fig 1.- ENIAC, primer computador electrónico y su panel de conexiones

Los datos (representados por los estados o señales eléctricas) eran mantenidos
por los relés o bulbos, componentes físicos. Y el programa consistía en establecer las
conexiones entre estos componentes del hardware. La labor de "programación" requería,
además del propio creador del computador, de un verdadero experto y conocedor de
electrónica, principios de lógica digital y del problema mismo que se pretendía resolver.

Todo esto cambió gracias a un húngaro-americano llamado John Von


Neumann en 1946. Su propuesta fue bautizada como la “arquitectura Von-Neumann”.
V.Neumann propuso crear conexiones permanentes entre los elementos del ordenador y
además incorporar un componente nuevo destinado exclusivamente al control central
del resto. Esto se conoció también como programa almacenado, concepto que acuño
V.Neumann al presentar su borrador sobre el diseño del computador EDVAC.

En esta nueva arquitectura (cuya base se preserva hasta nuestros días) tanto el
programa como sus datos eran almacenados en un elemento llamado memoria (que
provoca que no sea necesario cablear todos los demás). Además el diseño del hardware
se hizo independiente de cualquier problema que se fuera a resolver.

Tema 1. Introducción a las comunicaciones. Página 3 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

* El esquema de la arquitectura Von Neumann es el siguiente:

Fig. 2.- Arquitectura Von Neumann

* La arquitectura Von Neumann se compone de los siguientes elementos:

1.- La Unidad Central de Proceso (CPU, por sus siglas en inglés), que es
considerada como el cerebro y corazón del computador. Internamente está compuesta
por varios elementos básicos, que son, a saber la Unidad Aritmético-Lógica (ALU),
los Registros del procesador, una Unidad de Control (CU) y el reloj.

- La ALU es el componente que realiza todas las operaciones que involucran un


procesamiento matemático (particularmente aritmético, +,-,*,/, etc) o lógico
(operaciones booleanas – aquellas que trabajan con datos de tipo verdadero-falso).

- Los Registros son pequeñas memorias de gran velocidad que permiten el


almacenamiento de datos para las operaciones y sus resultados.

- En la Unidad de Control es donde se ejecutan todo el resto de las operaciones


(decisión, control, movimiento de datos). Dispone de un Reloj interno que sincroniza
todas las tareas a realizar, de forma que todos los componentes pueden realizar acciones
y operaciones sólo en los pulsos del reloj. La velocidad de este reloj se conoce como
velocidad de CPU y se mide en Hertzios (Hz). Por ejemplo, muchos procesadores
Pentium V tienen velocidades internas de 1,5GHz. A mayor velocidad mayor número
de operaciones pueden realizarse por segundo y mejor será el rendimiento general del
sistema.

Una CPU con todos estos elementos implementada en un solo chip recibe el
nombre de microprocesador.

2.- La MEMORIA es el componente donde se almacenan tanto los datos como


los programas. La memoria puede ser vista como una malla de celdas, cada una de ellas
identificada por un valor asociado a su posición (llamado dirección) y que permite
guardar un dato.

Tema 1. Introducción a las comunicaciones. Página 4 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

Más adelante hablaremos de los tipos de memoria, por el momento sólo es


necesario conocer que sirve para almacenar información, y por lo tanto necesitamos de
alguna norma de medida para conocer cuánta información guardamos. Las unidades
empleadas son las siguientes:

Un bit permite guardar un valor binario (esto es, un 0 para indicar que no hay
información o un 1 para indicar que sí la hay). Típicamente diferenciamos dos estados
físicos, presencia de corriente eléctrica o ausencia de la misma. Pero en lugar de trabajar
con los voltajes hablaremos de ceros y unos.
Un nibble está formado por cuatro bits.
Un byte (B) por ocho bits. Una palabra son 2 bytes.
Un kilobyte (KB) 1024 B.
Un megabyte (MB) son 1024 KB.
Un gigabyte (GB) son 1024 MB.
Un terabyte (TB) son 1024 GB (es un concepto que se empieza a utilizar en los
ordenadores actuales).
Un petabyte (PB) son 1024 TB.

Dentro de un ordenador existen siempre varios tipos de memorias. Lejos de


pretender hacer un desarrollo exhaustivo sobre este tema (que queda fuera de los
objetivos del módulo) citaremos brevemente algunos tipos de memoria de un ordenador
atendiendo al criterio de la velocidad:

2.1.- Los registros de la CPU son en realidad memorias muy pequeñas (de
apenas varios bytes) cuya velocidad supera a todas las demás (de ahí su alto coste
económico). Sirven para almacenar datos individuales y direcciones para las
operaciones que hace la U.C. o la A.L.U. Por ejemplo para realizar un suma entre dos
números deben leerse estos números y almacenarlos en estos registros antes de que la
ALU realice la suma. El resultado se colocará en otro registro.

2.2.- La memoria RAM (Random Access Memory) atiende a las siglas de


memoria de acceso aleatorio. Es una memoria volátil, esto es, si tiene información
guardada y se apaga el ordenador todo su contenido se borrará. Todos los datos que la
CPU tratará deben estar situados en la memoria RAM para su lectura. Por lo tanto la
memoria RAM será más eficiente si almacena datos recientes o datos que se prevé
podrán necesitarse en breve. Todos los programas que se están ejecutando en un
momento dado tendrán reservada una porción de la RAM. Por eso es una memoria
determinante de la velocidad “general” del ordenador. A la hora de comprar un
ordenador es uno de los factores a tener en cuenta. Típicamente disponemos de 128MB,
256MG o 512 en los portátiles y hasta 1GB o 2GB en servidores u ordenadores de
sobremesa. Los parámetros suben constantemente en cada nueva “generación” de
ordenadores que los vendedores colocan en el mercado (ya se comercializan portátiles
con un giga de RAM). Junto a la RAM existe otra memoria llamada ROM (Read Only
Memory) o memoria de sólo lectura. Es una memoria interna que almacena pequeñas
rutinas que el ordenador necesita ejecutar al encenderse (para reconocer todos sus
componentes, por ejemplo). Por lo tanto es una memoria no volátil, aunque se apague el
ordenador su información no se borra.

Tema 1. Introducción a las comunicaciones. Página 5 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

2.3.- La memoria caché. Es una memoria situada entre la RAM y la memoria


principal del ordenador (disco duro). Tiene una alta velocidad y es muy cara.
Generalmente la memoria RAM no basta cuando ejecutamos muchos programas o por
ejemplo utilizamos grandes cantidades de datos (véase el caso de los vídeos). Por eso
los equipos recientes incorporan el concepto de la caché como una memoria que va
leyendo del disco todo aquello que se espera sea necesario y no está en RAM puesto
que acceder a la caché es más rápido que acceder al disco duro. Generalmente se
estructura en varios niveles: la caché de nivel 1 es más rápida (almacena menos y es
más cara) y almacenará lo más urgente mientras que la caché de nivel 2 almacenará
aquello menos urgente (es mayor y más barata).

2.4.- La memoria principal o disco duro es una memoria de gran capacidad, no


volátil donde almacenamos los programas y los datos de nuestro ordenador. Su
capacidad sube constantemente en los nuevos equipos. Hay equipos con discos duros de
20GB, 40GB, 80GB, etc.

2.5.- Las memorias secundarias permiten almacenar información y traspasarla


de un equipo a otro. Generalmente utilizan un periférico adecuado para grabar y leer de
su suporte físico. Soportes conocidos son los diskettes, los CD-Rom, los DVD, los pen-
drives, las cintas magnéticas, etc. Existen soportes magnéticos (cintas o disquetes) y
soportes ópticos (CD, DVD), aunque las tecnologías cambian constantemente para
lograr memorias que ocupen menos y almacenen más información.

3.- La UNIDADES DE ENTRADA/SALIDA son los componentes que


permiten introducir información al ordenador o bien extraerla de éste. Disponen de un
pequeño circuito llamado Interfaz que es el que verdaderamente puede relacionarse con
el ordenador y el resto transforma la información a los formatos adecuados para su uso
por parte de los periféricos. Los periféricos son dispositivos, que pueden estar situados
internamente o externamente y nos aportan la información procesada o nos permiten
introducir la información a alto nivel, sin necesidad de conocer su codificación al
sistema binario de ceros y unos. Hay periféricos de entrada (como el ratón, el teclado, el
escáner, etc) y periféricos de salida (como la pantalla, la impresora, etc). También los
hay de entrada y salida (ejemplo: el MODEM).

4.- Los BUSES. Estos son el cuarto componente de la arquitectura Von


Neumann. Son simplemente líneas de cable por donde viaja la información y que
conectan todos los elementos anteriores. Como toda la información reside en la
memoria para su tratamiento es necesario acceder a ella (para eso típicamente usamos
las direcciones de las celdas que viajan por el bus de dirección) y leer los datos que
contienen (que viajarán por los buses de datos. También hay un bus orientado a
transmitir información general de control).

Tema 1. Introducción a las comunicaciones. Página 6 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

2.- Definición de información y comunicación.


2.1.- Informática:

Aunque definir el término informática no es una tarea sencilla es bastante


aceptada una definición tan simple como la que sigue: “La informática es la ciencia que
estudia el tratamiento racional y automatizado de la información”. Un ordenador es
una máquina que recibe unos datos (información de entrada) y como consecuencia de
un tratamiento automatizado produce unos resultados (información de salida). Muchos
autores consideran que el término informática se acuño en Francia en el año 1962,
derivado de “Informatique” (información automática).

2.2.- Redes de ordenadores:


Con el tiempo se vio que era muy interesante que los datos que produce un
ordenador pueda utilizarlos otro. La necesidad de que varias máquinas compartan e
intercambien información ha dado lugar a las redes de ordenadores. Una red es un
grupo de equipos conectados que permite a los usuarios compartir información. En una
red, varias personas pueden acceder a la misma información y conectarse al mismo
recurso. Por ejemplo, en lugar de conectar cada equipo a su propia impresora, todos los
equipos pueden estar conectados a una impresora común para que múltiples usuarios
compartan su acceso.

* Beneficios del uso de redes:


- Compartición de información: la capacidad de compartir información y
datos rápida y económicamente es uno de los beneficios más habituales de las
redes. El correo electrónico y la agenda basados en red son algunas de las
actividades por las que las organizaciones utilizan actualmente las redes.
- Compartición de hardware y software: antes de la llegada de las redes
los usuarios de estaciones de trabajo necesitaban tener sus propias impresoras y
otros periféricos, lo que constituía un factor caro para las grandes empresas. La
revolución de las redes redujo drásticamente estos costes haciendo posible que
varios usuarios compartieran hardware y software simultáneamente.
- Administración y soporte centralizados: los equipos en red también
simplifican las tareas de administración y soporte. Desde una misma ubicación,
el administrador de red puede realizar tareas administrativas en cualquier
equipo de la red. Además, es más eficaz para el personal técnico ofrecer soporte
sobre una versión de un sistema operativo o de una aplicación que tener que
supervisar varios sistemas y configuraciones individuales y únicas.
.

2.3.- Sistema de comunicaciones:

Para trabajar con la información es necesario crear un sistema que nos permita
representarla y comunicarla. La comunicación es la transferencia de información con
sentido desde un lugar (fuente, emisor) a otro lugar (destino, receptor).

Para poder realizar la comunicación utilizaremos dos sistemas:

Tema 1. Introducción a las comunicaciones. Página 7 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

- El sistema de transmisión: se encarga de transferir la información de un lugar a


otro. En teoría de redes solemos referirnos a este sistema como el medio físico.
- El sistema de comunicación: se encarga de dirigir y sincronizar el sistema de
transmisión. Genera las señales adecuadas para el envío, controla el flujo de
comunicaciones, sincroniza a los elementos que intervienen, controla la producción de
errores, etc.

3.- Breve historia de las comunicaciones.


Con la aparición de Internet, la red de red, el mundo de las comunicaciones
sufrió una auténtica revolución. Sin embargo a lo largo de la historia la comunicación
de información ha influido drásticamente en la sociedad. Imagina lo que supuso la
aparición de los teléfonos móviles en tu vida … y seguimos generando nuevos sistemas
de comunicaciones a una velocidad de vértigo … imagina cómo será tu vida cuando se
implante y abarate el coste de las videollamadas.

La historia de las comunicaciones es muy extensa y está llena de sorprendentes


descubrimientos. En Internet tienes multitud de presentaciones sobre la misma, aquí te
presentamos sólo los avances más significativos:

- 1884. Samuel Morse, inventa el telégrafo, que utilizaba la electricidad como forma de
comunicación. Desarrolla también el código Morse para transferir información.
- 1889. Almon B. Strowger, inventa el teléfono de marcado que se perfecciona en 1896.
- 1915. Se hacen experimentos con radio difusión AM (Amplitud Modulada).
- 1918. Se establece la primera Estación de Radio FM (Frecuencia Modulada), KDKA
en Pittsburgh.
- 1937 La BBC (British Broadcasting Corporation) obtiene el crédito por hacer la
primer cobertura de Televisión, al cubrir la sucesión de la corona del rey George VI.
- 1948. Quizás el mayor evento en las comunicaciones del mundo ocurre, cuando
Claude Shannon desarrolló su "Teoría matemática de las comunicaciones" Shannon
desarrolla el concepto "Teoría de la Información".
- 1956. Primer cable telefónico transoceánico (36 canales de voz).
- 1962. Es lanzado el satélite Telstar I por la NASA, fue el primer satélite comercial.
Permitió comunicaciones entre Europa y Norteamérica por solo pocas horas al día.
- 1969 Enero 2, el gobierno de los Estados Unidos le da vida a lo que será INTERNET
cuando un equipo de científicos empiezan a hacer investigaciones en redes de
computadoras. La investigación fue fundada por la Advanced Research Projects Agency
ARPA, una organización del Departamento de Defensa de los E.U., mejor conocida
como ARPANET.
- 1974. Comienzo de las normalizaciones de ISO y CCITT.
- 1978. Primera redes de conmutación de paquetes.
- 1980. Preparación de la RDSI.
- 1981. Nace la Telefonía celular (base de los teléfonos móviles)
- 1990. Lanzamiento RDSI.
- 1992. Gran lanzamiento de Internet.
- 2000. Lanzamiento de ADSL.
- 2002. Gran lanzamiento publicitario de ADSL y Cable MODEM para usuario
doméstico.

Tema 1. Introducción a las comunicaciones. Página 8 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

4.- Los estándares y las organizaciones de normalización.


4.1.- ¿Qué es un estándar?
Un problema muy grave en todas las disciplinas asociadas a la informática es la
existencia o no de estándares. Cada fabricante (tanto de hardware como de software)
suele invertir en su propia tecnología, que a menudo no es compatible con la de otros
fabricantes. Por ponerte un ejemplo los juegos para la PlayStation (fabricada por Sony)
no se pueden utilizar en otras consolas. A la hora de la comunicación este es un factor
determinante, puesto que todos los ordenadores implicados deben “hablar el mismo
idioma”. Debido a este motivo han surgido intentos de normalizar las comunicaciones
y redes, para lo cual se crean los estándares.

Un estándar, tal como lo define la ISO "son acuerdos documentados que


contienen especificaciones técnicas u otros criterios precisos para ser usados
consistentemente como reglas, guías o definiciones de características para asegurar que
los materiales, productos, procesos y servicios cumplan con su propósito". Por lo tanto
un estándar de telecomunicaciones "es un conjunto de normas y recomendaciones
técnicas que regulan la transmisión en los sistemas de comunicaciones". Queda bien
claro que los estándares deberán estar documentados, es decir escritos en papel, con
objeto que sean difundidos y captados de igual manera por las entidades o personas que
los vayan a utilizar.

¿Alguna vez te has preguntado por qué tu tarjeta de crédito puede insertarse en
cualquier cajero automático del mundo? Es porque los fabricantes del plástico de las
tarjetas se basan en un estándar conocido como ISO 7810 en donde se definen las
dimensiones del plástico (85mm de largo, 54mm ancho y 0.8mm de grosor); en otro
estándar, el ISO 7811, se definen las características del grabado y de la banda
magnética. Este es sólo un ejemplo de los miles de estándares que existen hoy en día,
los cuales rigen nuestras actividades diarias, pues regulan los bienes y servicios que
empleamos, permitiendo olvidarnos de marcas o de algún fabricante en especial. Por
ejemplo, cuando vamos a comprar un módem, nos deberíamos de olvidar en primer
término de la marca o modelo, pues debe interesarnos más que cumpla con el estándar
ITU-T V.90 cuando se trata de un módem de 56 Kbps o V.34 cuando se trata de uno de
28.8 Kbps.

4.2.- Tipos de estándares.


Existen tres tipos de estándares:
1.- Estándar de facto: los estándares de facto son aquellos que tienen una alta
penetración y aceptación en el mercado, pero aún no son oficiales, esto es, ningún
organismo oficial de normalización lo ha aprobado.
Ejemplos son la arquitectura de PC compatible IBM y las normas de comandos
de MODEM (compatibles con los comandos Hayes).

2.- Estándar de iure u oficial:


Son generados por comités con estatus legal y gozan del apoyo de un
gobierno o institución para producir estándares
Para hacer un estándar de iure se ha de seguir un proceso complejo:
Documento preliminar público
Enmiendas

Tema 1. Introducción a las comunicaciones. Página 9 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

Aprobación (tras cierto tiempo, a veces años)


Ejemplo: Ansi C (definición del lenguaje de programación C).

3.- Estándar propietario: son propiedad absoluta de una corporación u entidad


y su uso todavía no logra una alta penetración en el mercado. Cabe aclarar que existen
muchas compañías que trabajan con este esquema sólo para ganar clientes y de alguna
manera "atarlos" a los productos que fabrica. Si un estándar propietario tiene éxito, al
lograr más penetración en el mercado, puede convertirse en un estándar de facto e
inclusive convertirse en un estándar de iure al ser adoptado por un organismo oficial.

Un ejemplo clásico del éxito de un estándar propietario es el conector RS-232


concebido en los años 60's por la EIA (Electronics Industries Association) en Estados
Unidos. La amplia utilización de la interfase EIA-232 dio como resultado su adopción
por la ITU, quién describió las características eléctricas y funcionales de la interfase en
las recomendaciones V.28 y V.24 respectivamente. Por otra parte las características
mecánicas se describen en la recomendación 2110 de la ISO, conocido comúnmente
como ISO 2110.

4.3.- Organizaciones de normalización:

En Informática tienen estatus legal para definir estándares de iure:


ISO Asociación Internacional para Estándares
IEC Comisión Electrotécnica Internacional
ANSI Instituto Nacional Americano para Estándares
IEEE Instituto de Ingenieros Eléctricos y Electrónicos Americano
CEN Comité Europeo para la Estandarización
W3C Consorcio para la World Wide Web
CCITT Comité Consultivo Internacional para Telegrafía y Telefonía. Es
un comité que pertenece a una asociación de la ONU , llamado Unión
Internacional de Telecomunicaciones (ITU).

Es la Organización Internacional para la Estandarización . Tiene el


objetivo de promover y desarrollar normas para el intercambio
internacional. Es responsable del desarrollo y mantenimiento del
modelo de referencia de interconexión de sistemas abiertos. Estas
normas fomentan los entornos abiertos de conexión de red que permiten a los sistemas de
computadoras de múltiples fabricantes comunicarse unos con otros mediante el uso de
protocolos que los miembros de ISO han aceptado internacionalmente.
Los miembros de ISO incluyen representantes de la mayoría de las principales
organizaciones de normas a nivel mundial.
http://www.iso.org/iso/en/ISOOnline.openerpage

http://www.iec.org
http://www.ansi.org/

Tema 1. Introducción a las comunicaciones. Página 10 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

http://www.ieee.org/portal/index.jsp
Es el Instituto de Ingenieros Eléctricos y Electrónicos.
Posee un grupo cuya misión es elaborar estándares en todo lo
referente a la ingeniería y computación. El IEEE es el que ha
elaborado el estándar 802 para redes de área local, cuya existencia es trascendental para estas
redes, este estándar fue adoptado por la ISO para crear la ISO 8802.
Además esta organización realiza multitud de conferencias y edita revistas
especializadas.

http://www.w3.org/
http://www.itu.int/home/index.html

Algunos estándares famosos del CCITT (perteneciente al ITU) se dividen en serie V


(cubren la transmisión sobre redes telefónicas y define las comunicaciones por módem)
y la serie X(cubre la normativa de Interconexión de Sistemas Abiertos (OSI)).
* Normas de la serie V:
-V.22: Norma para módem de 1200 bits/s.
-V.22bis: Para 2400 bits/s.
- V.28: define la circuitería de la interface RS232, que es la que se utiliza
en las impresoras en paralelo con puerto DB25.
- V.32: Norma para transmisión asíncrona y síncrona a 4800 y 9600
bits/s.
* Normas de la serie X:
- X.200 es el modelo de referencia OSI.
- X.400 gestión de mensajes (correo electrónico)

EJEMPLOS DE ESTÁNDARES:
IEEE 802.3: Hace referencia a las redes tipo bus en donde se deben de
evitar las colisiones de paquetes de información, por lo cual este estándar hace
regencia el uso de CSMA/CD ( Acceso múltiple con detención de portadora con
detención de colisión)
IEEE 802.4: Hace regencia al método de acceso Token pero para una

Tema 1. Introducción a las comunicaciones. Página 11 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

red con topología en anillo o la conocida como token bus.


IEEE 802.5: Hace referencia al método de acceso token, pero para una
red con topología en anillo, conocida como la token ring.
Dentro los estándares se tienen los referentes a la estructuras de red:
10 base 5: Esto describe una red tipo bus con cable coaxial grueso o
RG8, banda base, que puede transmitir a 10 Mbps a una distancia máxima de
500Mts.
10 base 2: Esto es una red tipo bus con cable coaxial delgado RG58,
banda base y que puede transmitir a 10 Mbps a una distancia de 200 Mts, a
esta se le conoce como chip Ethernet.
10 base T: Este tipo de red es hoy en día una de las mas usadas, por su
fácil estructuración y control central en esta se utiliza cable UTP y se puede
transmitir a 10 Mbps a una distancia de 100 Mts.

5.3.- El concepto de señal y sus propiedades.

Entendemos por señal de información la variación de una propiedad física


(presión, voltaje, intensidad luminosa, etc.) producida por un emisor, que es susceptible
de ser recibida por un receptor. En este sentido la señal transmitida por el canal de
comunicación contiene la información. Por ejemplo, cuando dos personas hablan emiten
señales acústicas (variaciones de presión en el aire).

Para estudiar los parámetros básicos de las señales usaremos una señal periódica
típica, el seno. Esta señal, hablando de sonido denotaría un tono puro. La señal varía su
valor en función del tiempo, y responde a esta fórmula matemática:

F(t) = A * sen (w*t + )


- F(t) : valor de la señal en el instante de tiempo t.
- A: amplitud máxima.
- W: velocidad de la señal, llamada frecuencia angular.
- : fase de la señal (posición en el instante cero)

En la vida real se ha descubierto que cualquier señal está compuesta por una
sucesión de muchos tonos, cada uno respondiendo a un esquema similar a la señal
descrita anteriormente. Si observas una señal real en un programa de tratamiento de
señales observarás algo como esto:

Tema 1. Introducción a las comunicaciones. Página 12 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

Fig. 6.- Señales de voz y de teléfono.

Veamos ahora las propiedades básicas de una señal:


5.3.1.- Amplitud: es la distancia de la
línea base al pico más alto. Si la señal es
eléctrica se medirá en voltios, si es sonora se
mide en decibelios, etc
5.3.2.- Período: una señal periódica es la
que se repite. En este caso el período es el
tiempo transcurrido en cada ciclo de la señal.
Se mide en segundos.
5.3.3.- Frecuencia: es la inversa del
período, esto es, cuántos ciclos se producen
en un segundo (luego da una idea de la
velocidad de la señal). Dado que el período
se mide en segundos la frecuencia se
medirá en 1/sg, magnitud que se llama
Hertzio (Hz).
Fig. 7.- Señal y sus propiedades.

PREGUNTA: ¿Qué crees que significa que un procesador va a 1,33 GigaHertzios?


Debátelo con tus compañeros.

5.3.4.- Representaciones: el dominio del tiempo y el dominio de la


frecuencia: la figura 7 muestra una señal representada en el dominio del tiempo. En
ella vemos el valor de la amplitud de la señal en cada instante temporal. Pero esta no es
la única forma de ver representada una señal. A veces también conviene ver la señal en
el dominio de la frecuencia, esto es, dibujar su amplitud en cada frecuencia, lo que
también se conoce como espectro. Pero, ¿por qué utilizar esta otra representación?
Veamos un ejemplo:
En la siguiente imagen vemos que hay dos pesos oscilantes que cuelgan de una barra. Si
medimos la fuerza que se ejerce sobre la barra en el tiempo obtendremos la gráfica uno
(señal sinusoidal porque los pesos oscilan en el resorte).

Como ves si medimos la fuerza en en


función de los segundos obtenemos una
señal en la que no podemos diferenciar
las dos cajas (la fuerza total es la suma
de la fuerza que ejerce cada caja en un
instante).

Ahora veamos esta señal en la


frecuencia (lógicamente la caja menor
oscila más rápido y ejerce menos peso
que la otra, luego tiene una frecuencia
mayor y una amplitud menor).
Fig. 8.- Dominio del tiempo y dominio de la frecuencia.

Tema 1. Introducción a las comunicaciones. Página 13 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

5.3.5.- Ancho de banda: es la diferencia entre la frecuencia mínima y la


frecuencia máxima de una señal. En el ejemplo anterior se ve claramente en el dominio
de la frecuencia (es la distancia entre las dos barras). En el caso de las redes de
ordenadores nosotros transferimos señales por un canal. Ahora bien, ese canal tiene
limitaciones, esto es, sólo podrá transmitir señales en un rango de frecuencias
determinado (ancho de banda del canal). Pero no sólo eso … ¿qué pasa si queremos
transmitir por un canal dos o más señales a la vez? ¿cómo podemos hacerlo? Existen
técnicas como la modulación, que veremos más adelante.

5.4.- Errores en la transmisión.

La comunicación de información debe realizarse con cuidado para asegurarnos


que el receptor recibe el mensaje original sin alteraciones. Típicamente el canal es un
punto conflictivo (los cables pueden estar estropeados, las ondas de radio pueden sufrir
interferencias, etc).

Durante la transmisión de la señal ocurren ciertos efectos no deseados. Dos de


ellos son la atenuación y el retardo. La atenuación reduce la intensidad (amplitud) de
la señal y el retardo suele ser intrínseco al canal; sin embargo, son más serios la
distorsión, la interferencia y el ruido, los cuales se manifiestan como alteraciones de
la forma de la señal.
Atenuación: Efecto producido por el debilitamiento de la señal, debido a la
resistencia eléctrica (impedancia) que presentan tanto el canal, como los
demás elementos que intervienen en la transmisión. Se manifiesta por un
descenso de la amplitud de la señal.
Al introducirse estas contaminaciones al sistema, es una práctica común y
conveniente imputárselas al canal, pues el transmisor y el receptor son considerados
ideales. En términos generales, cualquier perturbación no intencional de la señal se
puede clasificar como "ruido", y algunas veces es difícil distinguir las diferentes causas
que originan una señal contaminada. Existen buenas razones y bases para separar estos
tres efectos, de la manera siguiente:

- Distorsión: Deformación de la señal producida normalmente porque el canal se


comporta de modo distinto en cada frecuencia.Es la alteración de la señal
debida a la respuesta imperfecta del sistema a esta señal en concreto. A
diferencia del ruido y la interferencia, la distorsión desaparece cuando la señal
deja de aplicarse.

- Interferencia: Es la adición de una señal conocida y no deseada a la señal que


se transmite. .Es la contaminación por señales extrañas, generalmente artificiales
y de forma similar a las de la señal que transmitimos. El problema es
particularmente común en emisiones de radio, donde pueden ser captadas dos o
más señales simultáneamente por el receptor. La solución al problema de la
interferencia es obvia; eliminar en una u otra forma la señal interferente o su
fuente. En este caso es posible una solución perfecta, si bien no siempre práctica.

- Ruido: Es la suma de múltiples interferencias, posiblemente de origen


desconocido y de naturaleza aleatoria. Por ruido se debe de entender las señales
aleatorias e impredecibles de tipo eléctrico originadas en forma natural dentro o

Tema 1. Introducción a las comunicaciones. Página 14 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

fuera del sistema. Cuando estas señales se agregan a la señal portadora de la


información, ésta puede quedar en gran parte oculta o eliminada totalmente.

6.2.- Líneas de Comunicación


Podemos definir las líneas de comunicación como las vías a través de las cuales
los circuitos de datos pueden intercambiar información. Cuando se interconectan dos o
más equipos de comunicación a través de líneas de comunicaciones se construye una
red de comunicación.

Las redes generalmente son sensibles a su topología, es decir, a la forma en que


se conectan las líneas de datos. En muchas ocasiones los modos de operación en la red
dependen estrictamente de esta topología. Otras veces no interesa tanto la topología
como el propietario de las líneas utilizadas.

6.2.1 Tipos de líneas según la topología


de la conexión
* Líneas punto a punto:
Dos equipos están conectados mediante una
línea punto a punto cuando existe una línea física que
une a ambos equipos, a través de la cual se puede
producir la comunicación. Ningún otro equipo puede
solicitar servidos de transmisión a esta línea.
Además, es insensible a problemas de competición
por los recursos de comunicación en los medios de

Tema 1. Introducción a las comunicaciones. Página 15 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

transmisión, puesto que sólo los equipos conectados a ella (emisor y receptor) tienen
derecho de acceso.

Un ejemplo de conexión a través de líneas punto a punto es el del ordenador


central que se conecta a sus terminales. Cada terminal utiliza su propia línea
independiente. El ordenador envía información al terminal a través de la única línea que
lo conecta con él y que utiliza de modo exclusivo.

* Líneas multipunto:
Las líneas multipunto tienen una topología en forma de red troncal constituida
por un bus de comunicaciones común a todos los equipos que se conectan a la red. De
este tronco común parte hacia cada terminal una línea de conexión que se conecta a la
red a través de un dispositivo llamado concentrador.

El aspecto de la red es el de un conjunto de líneas que interconectan múltiples


equipos. Es evidente que en este tipo de líneas se pueden establecer contiendas entre los
equipos por la utilización del canal, ya que todos participan del mismo derecho de
transmisión a priori.

6.2.2 Tipos de líneas según su propietario.

* Líneas privadas: se dice que una línea es privada cuando tiene un propietario
no público. Las líneas utilizadas en las redes de área local son privadas. Todo su
recorrido es propiedad del poseedor de la red.

* Líneas públicas: en este caso las líneas son de titularidad pública.


Normalmente están en poder de las compañías telefónicas y, por tanto, tienen un ámbito
nacional o supranacional. El usuario de una línea pública contrata servicios de
comunicaciones con la compañía que le suministra la línea en régimen de alquiler. Ésta
suele ser la técnica utilizada en las redes de área extensa, que estudiaremos más
adelante. Sería muy difícil, además de económicamente inviable, para una entidad no
pública tender líneas privadas que conecten equipos remotos. Para evitar esto, las
compañías telefónicas o de servicios telemáticos u otras grandes corporaciones
construyen una red de ámbito extenso que ofrecen a sus potenciales clientes.

* Líneas dedicadas: una línea puede ser pública, pero evidentemente ello no
significa que sea exclusiva para quien la alquila. Efectivamente, en una línea pública se
mezclan datos de los diferentes usuarios, aunque la red se encarga de que cada dato
llegue a su destino correcto. En ocasiones interesa que la línea de datos, sea privada o
pública, sólo pueda ser utilizada con exclusividad por dos usuarios o por dos equipos
concretos. Se dice, entonces, que la línea es dedicada.

7.- La transmisión. Clasificación.


Como ya hemos comentado la transmisión se encarga del transporte de las
señales a través del canal. Tiene que ver con aspectos físicos de la comunicación y dado
que depende fuertemente de las restricciones del canal pueden hacerse varias
clasificaciones.

Tema 1. Introducción a las comunicaciones. Página 16 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

7.1.- Clasificación atendiendo a la sincronía entre emisor/receptor.

El sincronismo es un procedimiento por el que un emisor y un receptor se ponen


de acuerdo sobre el instante preciso en el que comienza o acaba una información que se
ha puesto en el medio de transmisión. Por tanto, la sincronización requiere la definición
común de una base de tiempos sobre la que medir los distintos eventos que ocurrirán
durante toda la transmisión. Un error de sincronismo implicará la imposibilidad de
interpretar correctamente la información a partir de las señales que viajan por el medio.

7.1.1.- Transmisión asíncrona: una transmisión es asíncrona cuando el


proceso de sincronización entre emisor y receptor se realiza en cada palabra de código
transmitida. Esto se lleva a cabo a través de unos bits especiales que ayudan a definir el
entorno de cada código.

Ejemplo: imaginemos que la línea de transmisión está en reposo cuando tiene el


valor lógico 1. Una manera de informar al receptor de que va a llegar un carácter es
anteponer a ese carácter un bit de arranque (bit de start) con el valor lógico 0. Cuando
este bit llegue al receptor, éste disparará un reloj interno y se quedará esperando a los
sucesivos bits que contendrán la información del carácter transmitido. Una vez recibidos
todos los bits informativos se añadirán uno o más bits de parada (bit de stop) de valor
lógico 1 que repondrán en su estado inicial a la línea de datos, dejándola preparada para
la transmisión del siguiente carácter. Entre dos caracteres cualesquiera es posible
mantener la línea en reposo tanto tiempo como sea necesario.

Puesto que en este ejemplo la sincronía de la transmisión se restaura en cada


carácter, este sistema de transmisión es poco sensible a los problemas que producen las
faltas de sincronismo una vez que se ha fijado la velocidad de transmisión de los bits.

Imagina que usamos por tanto 1 bit como bit de arranque, 8 bits por datos a
transmitir y 2 bits de parada. Entonces necesitamos transmitir 11bits por cada 8 de
información. Además una pérdida de sincronía afectará a como mucho a 11bits, puesto
que con la llegada del siguiente bit de arranque volvemos a sincronizar el sistema.
Podemos hablar de rendimiento del canal como la relación entre la cantidad de
información que se transmite en una trama de bits. En nuestro ejemplo por cada 11 sólo
8 son de información, luego

Rendimiento = (8 / 11) * 100 = 72,7% Rendimiento = bits de información * 100


Bits transmitidos

7.1.2.- Transmisión síncrona: se produce cuando se efectúa sin atender a


las unidades de comunicación básicas, normalmente caracteres. Los bits se envían a un
ritmo constante sin discriminar los caracteres que lo componen. Emisor y receptor se
encargan de la sincronización de modo que sean capaces de reconstruir la información
original. Esto exige que los dos extremos de la comunicación sincronicen correctamente
sus relojes con objeto de asegurar una duración del bit constante e igual en ambos
extremos. En las transmisiones síncronas se suelen utilizar caracteres especiales para
evitar los problemas de pérdidas de sincronía en los caracteres informativos

Tema 1. Introducción a las comunicaciones. Página 17 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

transmitidos. Por ejemplo, el carácter SYN del código ASCII (OOlOllO) (que es muy
utilizado porque es irrepetible por desplazamiento de sus bits).

El modo de transmisión síncrona permite velocidades de transmisión mayores


que la asíncrona. En primer lugar, porque es menos sensible al ruido, y en segundo
lugar, porque obtiene un mejor rendimiento de la línea de datos. No debe olvidarse que
en la transmisión síncrona no son necesarios los bits de start y stop que acompañan a
cada carácter en la transmisión asíncrona. Eso sí, insertaremos algún carácter de
sincronía pero esporádicamente.

Ejemplo: vamos a transmitir 1KB y el protocolo de comunicaciones nos


dice que por cada 256Bytes habrá 3 caracteres de sincronía (SYN) (Nota: un carácter
son 8 bits = 1byte). Calculemos el rendimiento:

En primer lugar si hay 3 caracteres SYN por cada 256Bytes habrá 12 en 1024
Bytes. Agregaremos 12 caracteres. Haciendo cálculos en bytes tendremos:

Rendimiento = (1024 ) / (1024 + 12) = 98,87%

Como ves el esquema síncrono es más rápido porque no introduce tantos bits de control
como el asíncrono. Se llama overhead (sobreexplotación) del canal a la transmisión de
bits que no son de información sino que sirven para controlar la comunicación.

EJERCICIOS:

1.- Sea una transmisión asíncrona que requiere 2bits de arranque y 2bits de stop para
transmitir cada palabra de 16 bits. Calcula el rendimiento del canal.

2.- Sea una transmisión síncrona donde se utiliza un carácter SYN por cada 128 bytes.
Queremos transferir un fichero de 1Megabyte. ¿Cuántos datos transferimos al final?
¿Cuál es el rendimiento del canal?

3.- Imagina ahora que el canal funciona a una velocidad de transmisión de 9600bps (bits
por segundo). Por cada carácter se envían 1 bit de arranque y un bit de stop. Además
cada carácter va precedido de 1 milisegundo de reposo en la línea. Calcula el
rendimiento y el tiempo que tardamos en transferir un fichero de 1MB

4.- Transmitimos por un canal a 4600bps. Hacemos una transmisión síncrona de un


fichero de 512Bytes. Por cada 128Bytes hemos de agregar dos caracteres de
sincronismo (SYN). ¿Cuánto tardamos en transferir el fichero?

Bien, hemos visto la diferencia entre una transmisión síncrona y asíncrona. Sin
embargo existen varias formas de sincronización. Existen tres formas básicas de
sincronizar al emisor y receptor (no son las únicas formas, son las más utilizadas), y
son, a saber:

- Sincronismo de bit.
- Sincronismo de carácter.
- Sincronismo de bloque.

Tema 1. Introducción a las comunicaciones. Página 18 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

7.1.3.- Sincronismo de bit: se encarga de determinar el momento preciso


en que comienza o acaba la transmisión de un bit. Así, en las transmisiones asíncronas
el sincronismo de bit se consigue poniendo en marcha el reloj del receptor en el mismo
momento en que le llega el bit de start de cada carácter. Si la base de tiempos de los
relojes del emisor y receptor es aproximadamente la misma, cada bit quedará
determinado por su duración temporal.

Observa lo difícil que puede llegar a ser que emisor y receptor coincidan en su
medición de tiempos (esto generalmente exigirá que se fije la velocidad de transmisión
antes de la comunicación). En transmisiones síncronas otra opción es enviar la propia
señal de reloj por la línea de comunicación, junto a los datos, y ella sincroniza los bits.

7.1.4.- Sincronismo de carácter: aquí nos ocupamos de delimitar


cuántos bits de un dato recibido son información. Es la técnica explicada anteriormente
de utilizar bits de start y stop en transmisiones asíncronas, o caracteres SYN en
transmisiones síncronas.

7.1.5.- Sincronismo de bloque: esta forma es más avanzada que las


anteriores. Se define un conjunto de caracteres especiales (dentro de la codificación
ASCII) que sirven para fragmentar un bloque de información. Estos caracteres deben
llevar una secuencia predeterminada, y en caso de no recibirse en el receptor en ese
orden éste puede detectar la falta de sincronía y actuar en consecuencia.

7.2.- Clasificación atendiendo al medio (serie / paralelo).

Una vez elegido el código la información codificada viaja por las líneas de
comunicación. Sin embargo el canal puede estar compuesto por una o más líneas.
Podemos asignar distintas funciones a cada una de estas líneas, unas pueden llevar
datos, otras caracteres de control, etc. Según la forma de enviar los datos hablaremos de
una transmisión serie o paralelo.

7.2.1.- Transmisión serie: se dice que una transmisión es serie cuando


todas las señales se transmiten por una única línea de datos secuencialmente (esto es, un
bit tras otro). Esta forma de envío es más adecuada en transmisiones a largas distancias.
Los bits se transmiten en cadena por la línea de datos a una velocidad constante
negociada por el emisor y el receptor.

Ejemplos de conexión serie: la conexión de un ordenador a un módem, del


módem a la línea telefónica, del puerto serie de un ordenador personal con el ratón, etc.

7.2.2.- Transmisión paralelo: la transmisión de los datos se efectúa en


paralelo cuando se transmiten simultáneamente un grupo de bits, uno por cada línea del
mismo canal. Los agrupamientos de bits pueden ser caracteres u otras asociaciones,
dependiendo del tipo de canal. En una primera aproximación, para una misma
tecnología de transmisión, una transmisión en paralelo con n líneas de comunicación
será n veces más rápida que su equivalente serie. Pero la complejidad de un canal

Tema 1. Introducción a las comunicaciones. Página 19 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

paralelo y los condicionamientos eléctricos hacen que haya una mayor dificultad en
emplear este tipo de canales en grandes distancias, por la que suelen utilizarse en
ámbitos locales.

Ejemplo: en la conexión de un ordenador personal con su impresora local.

A veces es necesaria una conversión de un sistema de transmisión en serie a uno


paralelo. Para ello, el mercado pone a disposición los conversores adecuados. Veamos
el esquema gráfico de las dos opciones a) serie b) paralelo.

EJERCICIOS:

1.- Identifica el puerto serie y el puerto paralelo de tu ordenador.

2.- ¿Bajo qué circunstancias no se puede utilizar la transmisión en paralelo?

3.- Indica tipo de transmisión y velocidad de transferencia de los siguientes puertos:

USB 1.0 – USB 2.0 – FIREWIRE – SERIE – PARALELO – IDE – SATA – PCI – PCI
EXPRESS – ISA – AGP – PS2

4.- Indica dispositivos que se pueden conectar a cada uno de estos puertos.y sus precios
aproximados.

5.- Busca Una oferta de Ordenador, analiza prestaciones y precios. Revisa las
características de la placa base.

7.3.- Clasificación atendiendo a la señal transmitida.

7.3.1.- Transmisión analógica/digital: las señales pueden clasificarse,


según su naturaleza, en analógicas y digitales. En términos muy básicos una señal
analógica es aquella que denota una realidad continua en el tiempo, mientras que una

Tema 1. Introducción a las comunicaciones. Página 20 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

señal digital no adquiere valores continuos sino que sólo puede contener valores de
entre una muestra.

Cuando nosotros hablamos emitimos una señal acústica que ejerce presión en el
aire. Esta señal, el sonido, es continua. Sin embargo hoy estamos en la era digital, se
impone el sonido digital, la imagen digital, el vídeo digital, …

La idea es que una señal analógica podemos resumirla obteniendo un conjunto


de muestras (proceso de digitalización), que ocupará mucho menos espacio (y se
transmitirá mucho más rápido). Observa el esquema:

De la señal original (analógica)


tomamos las muestras (señal digital). Las
muestras tendrán un valor que se almacena (se
puede incluso comprimir). Otra gran ventaja de
las señales digitales es que son más resistentes
al ruido y a las interferencias puntuales. A la
hora de la reproducción final haremos el
proceso inverso de pasar de la señal digital a
una equivalente a la señal analógica original.

7.3.2.- Transmisión banda base versus banda ancha: recuerda


que las señales tienen su frecuencia y los canales admiten un rango de frecuencias
determinado. Si nuestra señal no se ajusta al canal será necesario modularla (para
cambiarle la frecuencia, por ejemplo).

Cuando una señal, sin necesidad de modularla, es apta para enviarla por un canal
entonces hablamos de transmisión en banda base. Si por el contrario se produce
modulación entonces hablamos de transmisión en banda ancha. Recuerda que la
modulación también se utiliza para enviar varias señales por un mismo canal.

Un ejemplo es el de la radio: si las ondas de radio viajan por el aire (que es el


canal) ¿porqué podemos oír todas las emisoras sin interferencia?

Volveremos sobre estos temas más adelante.

8.- Explotación del circuito de datos.


Ya vimos cómo se clasifica la transmisión. A la hora de poner en marcha un
circuito de datos (lo que se llama poner en explotación) tiene lugar la comunicación. La
comunicación incluye más aspectos que la transmisión y a la hora de la explotación
puede ser de tres tipos, simplex, duplex, half-duplex:

Tema 1. Introducción a las comunicaciones. Página 21 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

8.1.- Comunicación simplex:


La transmisión de datos va sólo en un sentido. Ejemplos: la señal de televisión y la señal
de radio. Los usuarios finales no pueden enviar información de vuelta a la cadena
emisora. A nivel abstracto hablamos de la existencia de un único canal físico y un canal
lógico.

8.2.- Comunicación semidúplex o half-duplex: la comunicación


puede ser bidireccional, es decir, emisor y receptor pueden intercambiarse los papeles
pero no de forma simultánea. Cuando el emisor transmite, el receptor necesariamente
recibe. Posteriormente, el receptor puede ejercer como nuevo emisor con la condición
de que el antiguo emisor se convierta en nuevo receptor.

Ejemplos: las emisiones de radioaficionados donde se emplean códigos vocales


especiales ( «cambio» ) para que se produzca la conmutación de los papeles de emisor y
receptor. O también si te estás comunicando con alguien por carta ordinaria. La persona
te responderá una vez que haya recibido tu carta.

A nivel abstracto decimos que en la comunicación semidúplex hay un sólo canal


físico y un canal lógico que es bidireccional.

8.3 Comunicación dúplex: la comunicación es bidirecional y además


simultánea. En ella emisor y receptor no están perfectamente definidos: ambos ETD
actúan como emisor y receptor indistintamente.

Ejemplos: una comunicación telefónica, ya que ambos interlocutores pueden hablar


simultáneamente (aunque no se entenderían bien si hablan a la vez).

A nivel abstracto decimos que en la comunicación dúplex hay un canal físico y


dos canales lógicos. Esta afirmación es un tanto teórica, puesto que muchos circuitos de
datos dúplex consiguen la bidireccionalidad añadiendo más líneas físicas para la
transmisión, por ejemplo, asociando dos circuitos símplex, si bien se requiere un control
exhaustivo de la comunicación por parte del emisor y del receptor.

Tema 1. Introducción a las comunicaciones. Página 22 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

9.- Clasificación de las redes de ordenadores.


El concepto de red ya está claro, un conjunto de ordenadores, dispositivos de
comunicación y periféricos compartiendo y transfiriendo información. En las redes un
aspecto fundamental es la velocidad de transferencia, que mide la cantidad de
información que podemos comunicar en un segundo.

Como este tema es introductorio fijaremos en este apartado varias formas de


clasificar las redes.

9.1.- Clasificación atendiendo a la titularidad.

9.1.1.- Redes públicas: son redes utilizadas por un número muy elevado
de usuarios y empresas. En la mayoría de los casos estas redes son de propiedad de
empresas de telecomunicaciones, y se deben someter a regulación por parte de los
organismos gubernamentales (concesión del servicio y sus calidades mínimas, precios,
coberturas, etc.). También se puede considerar que Internet es una red pública,
basándose en el concepto real de redes de ordenadores, y no en el de sistema de
comunicación. En este caso consideramos que una red es pública cuando ofrece sus
servicios de red a cualquiera que acceda a la misma.

9.1.2.- Redes privadas: no están disponibles para todos los usuarios.


Ejemplo: las redes locales de empresas particulares (incluyen sus edificios). Ejemplo:
red del centro (Medusa) corporativa y educativa.

9.1.3.- Redes dedicadas: generalmente son redes que ocupan líneas


públicas pero bajo un contrato o alquiler tienen el acceso restringido a ciertos usuarios.

9.2.- Clasificación atendiendo al tamaño.


Una de las clasificaciones más utilizadas para diferenciar redes es la que atiende
a su tamaño (y alcance). En esta clasificación se dividen las redes en tres grupos
principales: redes LAN (de acceso local), redes MAN (de acceso metropolitano) y redes
WAN (de acceso extenso). Observa el siguiente cuadro informativo:

9.2.1.- Redes
LAN: el término LAN significa (Local Area Network), o lo que es lo mismo red de
área local. El objeto de esta asignatura es estudiar principalmente este tipo de redes.
Las LAN tienen una serie de características definitorias:

* Están restringidas geográficamente: una oficina, una planta de un


edificio, un edificio entero, un conjunto de edificios cercanos. Por ejemplo la red del
instituto es una LAN.
* La velocidad de transmisión suele ser elevada.

Tema 1. Introducción a las comunicaciones. Página 23 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

* Son redes privadas, el conjunto de la LAN pertenece a una misma


organización.
* Son redes seguras en el sentido de que las transmisiones son fiables,
teniendo tasas de errores reducidas.

Lógicamente estas características se ven alteradas dependiendo de la tecnología que


estemos utilizando, pero el objetivo principal de la LAN permanece inalterado: permitir
que todos los usuarios compartan recursos (impresoras, ficheros, etc) mediante el
intercambio de tramas de datos.

En las LAN también hay dos formas de entender la conexión entre equipos. La
primera forma se llama redes entre iguales (o redes peer-to-peer). En esta
configuración todos los ordenadores ponen a disposición de los demás sus recursos, de
forma que ningún ordenador tiene privilegios sobre otro. Tecnológicamente esta es una
forma bastante simple de conectar equipos, aunque el control de información y
seguridad es más costoso debido a los múltiples accesos cruzados entre los equipos.
Debido a esta última razón muchas redes no se organizan como peer-to-peer, sino que
se decide que ciertos equipos tengan mayores privilegios que el resto. Estos equipos se
llaman servidores y ofrecen al resto de la red algún servicio (como el correo
electrónico, las impresoras, los discos compartidos, etc). El resto de ordenadores actúan
simplemente como clientes, solicitando información a los servidores. Estas redes se
conocen con el nombre de cliente-servidor. La gestión de la misma y los aspectos de
seguridad y administración se simplifican al estar radicados en unas máquinas
concretas. Por poner un ejemplo: podemos hacer que en los servidores resida el chequeo
de los permisos asociados a las cuentas de usuario, para, por ejemplo controlar qué
usuarios acceden al programa de nóminas de una empresa, o a ciertas bases de datos.
Existen multitud de servidores especializados (servidores de bases de datos, servidores
de archivos, servidores de Internet, servidores gráficos, servidores de correo electrónico,
etc). Ejemplos de redes locales son Ethernet, Fast-Ethernet.

9.2.2.- Redes WAN: el término WAN significa (Wide Area Network), o lo


es lo mismo, red de área extensa. Estas redes permiten conectar equipos que están a
grandes distancias (por ejemplo, en ciudades distintas). Generalmente las redes WAN
utilizan redes propiedad de compañías de telecomunicaciones (compañías telefónicas
por ejemplo). Las velocidades de transmisión son a menudo más bajas que en las LAN.
El objetivo de las WAN es similar a las LAN, de hecho las redes WAN a menudo se
utilizan para conectar varias redes locales situadas a gran distancia. En este sentido
aportan servicios como Internet, transferencia de archivos, comercio electrónico, etc.
Una característica diferenciadas de las WAN es que son utilizadas por muchos usuarios,
a la vez que pueden cruzar fronteras, lo que hace que se tenga que tener en cuenta
factores políticos y legales al diseñarlas. Se suele decir que las tasas de errores en las
transmisiones de una WAN son del orden de mil veces superior a las tasas de errores en
las LAN. También hay que resaltar que las WAN deben conectar LAN de tecnologías
muy diversas (tanto a nivel de hardware como software o comunicación), por lo que
exigen ciertas pautas para que se pueda realizar una conexión a las mismas (por ejemplo
para utilizar una red RDSI – Red Digital de Servicios Integrados- hay que marcar el
número del abonado con un formato concreto). Ejemplos de redes WAN son RDSI,
ATM, Frame Relay, X.25, FDDI, etc.

Tema 1. Introducción a las comunicaciones. Página 24 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

9.2.3.- Redes MAN: el término MAN significa (Metropolitan Area


Network), o lo que es lo mismo, red de área metropolitana. Un red MAN permite la
distribución de información típicamente en el entorno de una ciudad. Están a caballo
entre las LAN y las WAN, y siguen estándares similares a éstas. Se pueden utilizar, por
ejemplo, para conectar las distintas sucursales de un banco en una misma ciudad. La
MAN suele tener una tasa de transferencia mayor que la WAN. Un ejemplo de red
MAN es DQDB.

EJERCICIOS:

1.-Busca información sobre un nuevo de redes: Redes PAN.

10.- La Modulación. Sistemas Detectores Correctores de


errores
La señal se debe adecuar al medio (canal) por el que se transmite. Pero hay que
tener en cuenta que un canal transmite bien las señales de una determinada frecuencia y
mal en otras.
La modulación intenta conseguir esta adecuación entre señal y canal, de modo
que en las transmisiones utilicemos aquellas frecuencias en las que el canal proporciona
la mejor respuesta.
La función de modulación / demodulación de la señal la realizamos mediante un
dispositivo denominado MODEM.
Podemos enumerar varios motivos que nos indican la necesidad de realizar una
modulación de las señales:
> Facilidad de radiación: el tamaño de las antenas depende de las frecuencias a las
que se emite.
> Reducción de ruido y de las interferencias: se debe transmitir en la banda de
frecuencias en las que menos interferencias se registren.
> Asignaciones de frecuencia: las Administraciones Públicas asignan anchos de
banda y frecuencias de trabajo mediante la concesión de licencias de uso a diferentes
operadores de radio, por ejemplo.
> Multicanalización: canales de utilización no exclusiva. Consiste en una
asignación temporal de la frecuencia de señal durante su viaje por el canal. Esto permite
la coexistencia de múltiples señales de información en el mismo canal. Por ejemplo, las
emisoras de radio.
> Limitaciones de los equipos: hay equipos de transmisión - recepción con un mal
comportamiento al trabajar en una determinada banda de frecuencias. Podemos
modificar las frecuencias de emisión de las señales para así aprovechar mejor estos
dispositivos.

La modulación realiza una variación de alguno de los parámetros de la señal (amplitud,


frecuencia o fase) para que la señal se adapte a unos parámetros necesarios para su
emisión. Para esto, se utiliza una señal de referencia o portadora, que será la que
modifiquemos en sus parámetros con respecto a la información que deseamos
transmitir.
Debemos diferenciar, además, la modulación de señales analógicas y digitales, ya que la
forma de la señal a modular es muy diferente.

De este modo, podemos distinguir:


> Señales analógicas:

Tema 1. Introducción a las comunicaciones. Página 25 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

o AM: modulación en amplitud. o FM: modulación en frecuencia. o PM: modulación


en fase.
> Señales digitales:
o ASK: Amplitude Shift Keying. Modulación en Amplitud. o FSK: Frequency Shift
Keying. Modulación en Frecuencia. o PSK: Phase Shift Keying. Modulación en Fase.

Representación de señales analógicas.

AM:

Tema 1. Introducción a las comunicaciones. Página 26 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

FM y PM:

Modulación de señales digitales.

En las señales digitales también realizamos cambios en las magnitudes de la señal


portadora para representar la información, que en este caso ya no será analógica sino
digital. Podemos distinguir también tres tipos de modulación, según que los cambios
sean en la amplitud, frecuencia o fase.

> ASK: Amplitude Shift Keying. Modulación en Amplitud. Los valores binarios se
representan mediante amplitudes distintas de la señal portadora. Lo más frecuente es:

>

FSK: Frequency Shift Keying. Modulación en Frecuencia. Los valores binarios se


representan mediante dos frecuencias diferentes, próximas a la portadora. Es menos
sensible a los errores que ASK. Un ejemplo:

> PSK: Phase Shift Keying. Modulación en Fase. Los valores binarios se
representan mediante un desplazamiento de fase de la señal portadora. Por
ejemplo:

Tema 1. Introducción a las comunicaciones. Página 27 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

DETECCIÓN Y CORRECCIÓN DE ERRORES

Por muchos medios que se pongan para que las transmisiones sean seguras, siempre hay
una posibilidad de riesgo. En ocasiones, el problema no reside tanto en la posibilidad de
errores en la transmisión, sino en detectar que electivamente los hubo

2.6.1. Dos problemas: la detección y la corrección

Para introducirnos en este tema vamos a distinguir dos parles del mismo problema con
un sencillo ejemplo. Imaginemos el sistema de comunicaciones de un cajero
automático. Cuando un cliente efectúa una operación, el cajero envía por una linea
telefónica al menos dos informaciones numéricas: la cuenta bancaria contra la que se
hace la operación y el valor de la operación.
Es posible que existan errores en la transmisión y los datos no lleguen correctamente a
la central bancaria que soporta la cuenta: esto es un problema, pero es aceptable. Lo que
seria inaceptable es que se produjera la transmisión errónea y que ni el cajero ni la
central se dieran cuenta de ello: la transferencia registrada tendría un valor distinto al
que realmente se produjo, o el movimiento se registrará en una cuenta que no
corresponde.
Por tanto, tenemos un primer problema que es esencial: podemos aceptar que las
comunicaciones, necesariamente, sean susceptibles de error, pero debemos exigir que, si
lo hay, éste sea detectado.
Otro asunto distinto es que una vez detectado el error, se sepa corregirlo mediante
técnicas sofisticadas de cálculo o retransmisión de la información.

Qué significa perder información


Es común la expresión perder información como parte de la jerga de los técnicos en
comunicaciones. Estamos tratando en esta parte de la Unidad sobre la problemática de
los errores. Sabemos que, en ocasiones, la información no llega con integridad a su
destino. Pero, ¿qué es perder información?
La pérdida de información no significa que la infomación enviada por el emisor no sea
nunca recibida por el destinatario de Ia misma. Más bien significa que hay cambios
imprevistos y no deseados en la información. En el caso de información digital binaria,
cambios en el valor de los bits, es decir, que los bits que sean 0 se conviertan en 1 y
viceversa.

La detección del error


A lo largo de la historia de las comunicaciones han sido muchos los sistemas de
detección de error que se han descubierto. Nosotros nos vamos a ceñir a los siguientes
por la Importancia que revisten en la mayor parte de las comunicaciones y, en especial,
en las redes de área local.
La paridad simple
Los sistemas de paridad se basan en la transmisión, junto con la información de usuario,
de una serie de bits que indican cualidades de esos datos. Una alteración en la
información del usuario es detectada por comparación con esos bits especiales de

Tema 1. Introducción a las comunicaciones. Página 28 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

paridad, y que hace que no se correspondan con los valores previstos en el momento de
la emisión.
Fundamentalmente hay dos tipos de paridad simple: par e impar. Cuando el emisor tiene
en su poder el mensaje binario informativo, efectúa el OR-exclusivo con los bits que
componen el mensaje y transmite el resultado (un bit) junto con la información. OR-
excIusivo es el nombre de una de las operaciones lógicas posibles en la base binaria.
Por ejemplo, si se desea transmitir la secuencia 0011011, el bit de paridad par, según la
regla dada en el párrafo anterior, seria un 0, puesto que el OR-exclusivo de 0011011 es
0 al ser par el número de unos que contiene la secuencia. A esto se le denomina paridad
par.
Resumiendo, el bit de paridad par de una secuencia se calcula contando el número de
unos: si este número es par, el bit de paridad vale 0: si el número es impar, el bit de
paridad vale I.
La paridad impar es semejante a lo par: lo único que cambia es el valor del bit de
paridad, que es complementario con respecto de la paridad par.
Así, en el ejemplo anterior tendríamos la siguiente transmisión (el bit que aparece entre
paréntesis es el bit de paridad i:

Paridad par: 0011011(0)


Paridad impar: 0011011(1)

Cuando una transmisión pierde un bit (se altera el valor del bit) este sistema de control
de errores por paridad simple delecta el cambio. Pero sigamos con nuestro ejemplo.
Si se altera, por ejemplo, el segundo 0 de la cadena de bits y estuviéramos utilizando la
paridad par, la transmisión recibida hubiera sido: 0111011(0).
El receptor, a la llegada del mensaje, recálcula la paridad. La paridad par del nuevo
mensaje (0110111) es un 1, porque el número de unos es impar , pero el mensaje
recibido tiene paridad 0: hay una contradicción y, por tanto, una detección del error.
El sistema de paridad simple sólo es capaz de detectar los errores producidos en un
número impar de bits de la cadena transmitida, si el número de errores es par, el sistema
no detectará el error. En las transmisiones asincronas, lo más habitual es transmitir un
bit de paridad con cada carácter, La elección par o impar depende del usuario, pero
ambos equipos deben estar de acuerdo en la elección por fijación de parámetros
convenidos o bien por negociación en tiempo de establecimiento de la conexión.

La paridad de bloque
La paridad de bloque es un caso especial de la paridad simple. También puede ser par o
impar Se trata de organizar la información por bloques, componiendo una tabla de n X
m bits. A continuación, se extraen los bits de paridad por filas y por columnas. Por
último, se envían por la linea de transmisión junto con los bits constitutivos del mensaje
los bits de paridad calculados. Pongamos un ejemplo. Imaginemos que queremos
transmitir la siguiente información: 00110. 01010, 11001. 11111.
Expresamos por filas esta información como una Tabla de 4 * 5 bits:

0 0 1 1 0
0 1 0 1 0
1 1 0 0 1
1 1 1 1 1
Ahora calculamos los bits de paridad por filas y columnas. Tendremos una nueva tabla
de 5 * 6 bits donde hemos situado los bits de paridad horizontales y verticales:

Tema 1. Introducción a las comunicaciones. Página 29 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

0 0 1 1 0 0
0 1 0 1 0 0
1 1 0 0 1 1
1 1 1 1 1 1
0 1 0 1 0 X
Los bits que aparecen en cursiva y subrayados son los bits de paridad. Estos bits
constituyen la paridad de bloque o checksum. La secuencia transmitida sería la
siguiente;
00110-01010-11001-11111- 0011X - 01010
Cuando el mensaje llega al receptor, este reconstruye la tabla y comprueba que los
códigos de paridad son correctos.
Veamos cómo se detecta el error. Imaginemos que el bit de la segunda fila y tercera
columna altera su valor durante la transmisión, es decir, que la secuencia recibida será:
00110-01110-11001-11111- 0011X - 01010

entonces, la tabla en el receptor quedará como:

0 0 1 1 0 0
0 1 1 1 0 1
1 1 0 0 1 1
1 1 1 1 1 1
0 1 1 1 0 X

Al recalcular los códigos de paridad, el receptor detectará que no coinciden los bits de
paridad de la segunda fila y de la tercera columna, que serán respectivamente 1 y 1,
mientras que a él le han llegado 0 y 0. Ya se ha detectado el error. Pero no sólo se ha
detectado, sino que además se sabe dónde se ha producido: en la intersección entre la
fila y la columna en que falló la paridad. Como un bit sólo puede valer 0 o 1, sabiendo
que en ese punto de la tabla está el error, se puede corregir: si llegó 0. el bit original era
I: y si llegó I, el bit original era 0. Ya tenemos un método que, para casos sencillos, no
sólo es capaz de delectar el error sino también de corregirlo.
En el caso de que se pierdan varios bits en la secuencia, este método es capaz de
detectarlos aunque no de corregirlos: por tanto, es más sensible que el método de la
paridad simple. -
Redundancia Cíclica
Los códigos de detección de errores por redundancia cíclica o CRC están basados en las
propiedades matemáticas de la división de polinomios. Cada cadena de bits de
información a transmitir se representa como un polinomio cuyos coeficientes pueden ser
0 o 1. El grado del polinomio depende del número de bits a transmitir. Cada uno de
estos bits es representado por un monomio.
El emisor y el receptor deben ponerse de acuerdo en un segundo polinomio que actuará
como clave en la detección del error. El modo de operación es el siguiente:
• El emisor divide el polinomio-información entre el polinomio-clave obteniendo un
cociente, que aquí no nos interesa, y un polinomio-resto que se convertirá en la
información redundante necesaria para la detección, equivalente a la información de
paridad
Se envían los bits correspondientes al polinomio informativo seguido de los bits
que forman los coeficientes del polinomio-resto.

Tema 1. Introducción a las comunicaciones. Página 30 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

Cuando el receptor lee el mensaje vuelve a repetir la operación y comprueba que


el resto obtenido es igual al que le han transmitido. Si no fuera igual, tendría la prueba
de que la transmisión ha fallado.
Seleccionando de un modo adecuado el polinomio-clave se llegan a detectar gran
cantidad de errores posibles. Incluso se podrían arbitrar mecanismos de autocorrección.

La corrección del error


Una vez que se ha delectado la situación de error de una transmisión, nos planteamos el
siguiente problema: ¿.es posible la corrección del error?, y si es así, ¿en qué grado es
posible esta corrección?
Corrección, de errores en el destinatario
El primer modo de corrección de errores consiste en dejar que el destinatario determine,
a partir de la información redundante que ha recibido del emisor y del propio mensaje,
los bits erróneos: aquellos que se han perdido. Una vez delectada su posición, la
operación de corrección es inmediata: en esos bits erróneos se sustituyen los 0 por 1 y
viceversa. A este método de corrección también se le llama corrección de errores hacia
delante».
Anteriormente se ha visto algún método de corrección de errores hacia delante. Al
estudiar la paridad de bloque o checksum se veía cómo se podían detectar situaciones
anómalas y además se podían corregir errores de sólo un bit en cada bloque de modo
automático. Hay muchos otros métodos de corrección hacia delante. Normalmente estos
métodos están basados en la utilización de sistemas de codificación sofisticados que
ayudan a la detección y a la corrección a fuerza de reforzar la información con bits
redundantes de paridad.
Es necesaria una mención especial para los llamados códigos de Hammning. Estos
códigos están diseñados para la detección y corrección de un número de bits erróneos
máximo en cada palabra transmitida, es decir, emisor y receptor se ponen de acuerdo en
aceptar que, por ejemplo, en cada palabra —carácter - de 8 bits, como mucho tres
puedan ser erróneos. A partir de esta suposición, se diseña el código para la detección y
corrección de 3 bits erróneos como máximo en cada 8 bits de información.
El código genera una serie de bits redundantes en función del mensaje y de las
especificaciones acordadas para el error. Estos bits llevan información sobre la paridad
de distintos grupos de bits y sobre la posición de los bits erróneos si los hubiera. Cuanto
mayor sea el número de biis erróneos que se aceptan, mayor será el número de bits de
información redundante que deberá enviarse al receptor.
Las transmisiones en código de Hamming son muy seguras, pero necesitan un gran
ancho de banda, pues precisan transmitir muchos más bits de los que constituyen
el mensaje original. Por ejemplo, para detectar cualquier error en una transmisión de 8
bits son necesarios 4 bits de paridad hammning, es decir, deberíamos transmitir 12 bits,
por lo que se desperdicia un tercio del ancho de banda en transmitir la redundancia.
Corrección de errores por retransmisión
Somos conscientes de que es más fácil detectar el error que corregirlo, pues la operación
de corrección requiere averiguar la posición de los bits erróneos. En la gran parte de las
comunicaciones actuales la corrección se hace por retransmisión del mensaje, es decir,
cuando el receptor delecta una comunicación errónea, pide la retransmisión del mensaje.
Esta técnica de recuperación de errores también se llama corrección de errores hacia
atrás.
Este método exige la capacidad bidireecional de la comunicación, es decir, el emisor y
el receptor deben tener capacidad de diálogo para solicitarse mutuamente los reenvios.
Envío y espera

Tema 1. Introducción a las comunicaciones. Página 31 de 32


MÓDULO: Planificación y Administración de Redes I.E.S. Domingo Pérez Minik
Ciclo Formativo de Grado Superior: “Administración de Sistemas Informáticos y en Red”

Esta primera estrategia de corrección de errores por re-transmisión implica que el


emisor enviará bloques informativos al receptor secuencialmente de acuerdo con las
siguientes reglas:
• El emisor envía un bloque de datos al receptor y se queda con una copia del
mensaje hasta asegurarse de que la información llegó correctamente.
• Cuando el receptor recibe el primer bloque de datos, genera una señal de
confirmación que envía al emisor en donde le indica si los datos llegaron o no en buen
estado. Normalmente se intercambian el código ASCII <ACK> utilizado como acuse de
recibo afirmativo, para advertir que la transmisión tuvo éxito o el código <NACX> .
utilizado como acuse de recibo negativo, para indicar que el bloque llegó con errores.
• Si el emisor recibe un <ACK>, entiende que la información llegó bien a su
destino y entonces libera la copia de los datos recién enviados, genera un nuevo bloque
de datos y continúa con la transmisión.

• Sin embargo, si lo que le llegó fue un <NACK> o transcurre el tiempo máximo


permitido sin recibir una confirmación, interpreta que la información llegó
erróneamente al destinatario, o no llegó, y procede a retransmitir el mismo bloque.
Esta técnica produce transmisiones muy seguras y fácilmente gobernables, pero tiene un
inconveniente: se pueden producir retardos no deseados en las transmisiones, puesto
que ningún bloque de datos será enviado sin recibir la confirmación de que el anterior
ya se encuentra en su destino de un modo satisfactorio. Además las técnicas de diálogo
no simultáneas, como la que ahora nos ocupa, producen vacíos en la línea de
transmisión, desperdiciando su capacidad.
Envió continuo
El envió continuo es una técnica de transmisión que mejora sustancialmente el método
de envío y espera. Sigue las siguientes reglas:
• Se fracciona el mensaje en bloques de datos o unidades de transmisión que han
de numerarse unívocamente.
• A continuación, el emisor envía secuencialmente y de modo continuo todos los
bloques de datos.
• El receptor acepta cada uno de los bloques y comprueba si son o no erróneos.
• Cuando el receptor recibe un bloque erróneo, genera un mensaje informando al
emisor del número de bloque que le llegó con error, con el fin de que se lo retransmita;
no debemos olvidar que es una técnica de corrección hacia atrás.
• Ahora caben en el emisor dos posibilidades: que le retransmita sólo el bloque
afectado por el error (rechazo selectivo en el envío continuo) o que retransmita no sólo
ese bloque sino todos los que le siguen (rechazo no selectivo) por suponer que el resto
de los bloques también habría llegado en mal estado.
Experimentalmente, se prueba que la técnica de envió y espera es aproximadamente un
20 por 100 menos eficaz que el método de envió continuo, por lo que en los protocolos
más modernos se utiliza muy poco el de envío y espera.

Tema 1. Introducción a las comunicaciones. Página 32 de 32

También podría gustarte