martes, 27 de abril de 2010

CONMUTACION DE CIRCUITOS.

Redes conmutadas.


La conmutación de circuitos se usa en redes telefónicas públicas. La técnica de conmutación de circuitos se desarrolló para tráfico de voz aunque también puede gestionar tráfico datos de forma no muy eficiente. En la conmutación de circuitos se establece un canal de comunicaciones dedicado entre dos estaciones, en donde, se reservan recursos de transmisión y de conmutación de la red para su uso exclusivo en el circuito durante la conexión. La transmisión es transparente, ya que, una vez establecida la conexión parece como si los dispositivos estuviesen directamente conectados.
Diversos aspectos importantes de las redes de conmutación de circuitos han cambiado de forma drástica con el incremento de la complejidad y digitalización de las redes de telecomunicaciones públicas, haciendo que las técnicas de encaminamiento jerárquico hayan sido reemplazadas por otros no jerárquicas, más flexibles y potentes, que permiten mayor eficiencia y flexibilidad.
















En general la transmisión de voz, imágenes, vídeo y datos a larga distancia se realiza a través de una red de nodos de conmutación intermedios. Algunos nodos sólo se conectan a otros nodos en su única tarea de conmutación interna de la red. Otros nodos además de conmutación están conectados a otras estaciones. Los enlaces entre nodos están multiplexados en frecuencia (FDM) o en el tiempo (TDM). Generalmente la red no está completamente conectada, o sea, no existe un enlace directo entre cada posible pareja de nodos, aunque siempre es deseable más de un enlace o ruta alternativa entre cada par de nodos.


Redes de conmutacion de circuitos.

Las comunicaciones mediante conmutación de circuitos implican la existencia de un camino o canal de comunicación dedicado entre dos estaciones, que es una secuencia de
enlaces conectados entre nodos de la red. En cada uno de los enlaces físicos se dedica un canal lógico para cada conexión establecida.


La conmutación de circuitos implican tres fases:
1) Establecimiento del circuito: Se establece un circuito extremo a extremo. Por ejemplo la estación A envía una solicitud al nodo 4 (a través de una línea dedicada) pidiendo una conexión con la estación E. El nodo 4 debe de encontrar una ruta hacia el nodo 6 en función de las estrategias de encaminamiento y coste del enlace. El nodo 4 selecciona el enlace hacia el nodo 5, reserva un canal libre de enlace (utilizando FDM o TDM) y lo mismo hace el nodo 5 hacia el nodo 6; a continuación se envía un mensaje a E solicitando la conexión.



2) Transferencia de datos: Después del establecimiento del circuito se transmite la información (analógica o digital) de A a E , siguiendo el camino formado por el enlace A-4, canal 4-5, canal 5-6 y enlace 6-E. Normalmente esta conexión es duplex.



3) Desconexión del circuito: Después de la transferencia de datos, la conexión finaliza por orden de una de las dos estaciones involucradas A o E. Esta señal de desconexión se debe de propagar por los nodos 4, 5 y 6 para que liberen los recursos dedicados a la conexión que se cierra.


Para la transmisión de datos entre ordenadores la información se realiza a velocidad fija sin otro retardo que el de propagación a través de los enlaces, siendo despreciable el retardo introducido por cada nodo de la ruta. La conmutación de circuitos fue desarrollada para el tráfico de voz (analógico) como es el caso de la red telefónica pública. En la actualidad se usa para transmisión de datos vía modem y está siendo progresivamente digitalizada.


Una red pública de telecomunicaciones se puede describir a través de los cuatro componentes que forman su arquitectura. Ver figura 2: a) Abonados: Son los dispositivos que se conectan a la red como el teléfono, el ordenador etc. b) Bucle local: es el enlace entre abonado y la red, también denominado bucle de abonado o línea de abonado formado por par trenzado. c) Centrales: son los centros de conmutación de la red. d) Líneas principales: Son los enlaces entre las centrales. Estas líneas principales transportan varios circuitos de voz haciendo uso de FDM o de TDM síncrona.





La conmutación de circuitos está muy extendida para la transmisión analógica de señales de voz, en donde la transmisión debe de tener una velocidad constante y no
haber retardo en los nodos. A pesar de las limitaciones en el mundo digital sigue siendo una alternativa para redes locales y de área amplia.




Conceptos de conmutacion de circuitos.


Una red diseñada en torno a un único nodo de conmutación de circuitos consiste en un conjunto de estaciones conectadas a una unidad central de conmutación. El conmutador central establecerá un canal dedicado entre cualesquiera dos dispositivos que deseen comunicarse.









En la figura 3 se muestran los elementos principales de una red de un solo nodo. La parte central es el conmutador digital, cuya función es proporcionar una ruta transparente entre cualesquiera dos dispositivos conectados. El camino es transparente en el sentido de que parece como si existiese una conexión directa entre los dispositivos, normalmente duplex. El elemento de interfaz de red incluye las funciones y el hardware necesarios para conectar dispositivos digitales como ordenadores o teléfonos digitales. Las líneas principales a otros conmutadores digitales transportan señales TDM y facilitan los canales para la construcción de redes de varios nodos.



La unidad de control realiza tres tareas: a) Establece conexiones ante la solicitud de un dispositivo conectado a la red. Para establecer la conexión la unidad de control debe de gestionar y confirmar la petición, determinar si la estación destinataria está libre y construir una ruta a través del conmutador. b) Debe de mantener la conexión. Como el conmutador digital utiliza una aproximación por división en de tiempo, esta tarea puede necesitar un control continuo de los elementos de conmutación. c) Debe de liberar la conexión por solicitud o por razones propias.
Los conmutadores pueden ser bloqueantes o no bloqueantes. El bloqueo se da cuando dos estaciones de la red no se pueden conectar porque todos los caminos o rutas entre ellas están ocupados. Para transmisión de voz puede ser aceptable el bloqueo, pero no para la transmisión de datos.

MULTIPLEXACION EN LOS ENLACES.


En telecomunicación, la multiplexación es la combinación de dos o más canales de información en un solo medio de transmisión usando un dispositivo llamado multiplexor. El proceso inverso se conoce como demultiplexación.

Un concepto muy similar es el de control de acceso al medio.
Existen muchas estrategias de multiplexación según el protocolo de comunicación empleado, que puede combinarlas para alcanzar el uso más eficiente; los más utilizados son:


la multiplexación por división de tiempo o TDM (Time division multiplexing );
la multiplexación por división de frecuencia o FDM (Frequency-division multiplexing) y su equivalente para medios ópticos, por división de longitud de onda o WDM (de Wavelength);
la multiplexación por división en código o CDM (Code division multiplexing);
Cuando existe un esquema o protocolo de multiplexación pensado para que múltiples usuarios compartan un medio común, como por ejemplo en telefonía móvil o WiFi, suele denominarse control de acceso al medio o método de acceso múltiple. Como métodos de acceso múltiple destacan:
el acceso múltiple por división de frecuencia o FDMA;
el acceso múltiple por división de tiempo o TDMA;
el acceso múltiple por división de código o CDMA.


Multiplexación en informática.


En informática y electrónica, la multiplexación se refiere al mismo concepto si se trata de buses de datos que haya que compartir entre varios dispositivos (discos, memoria, etc.). Otro tipo de multiplexación en informática es el de la CPU, en la que a un proceso le es asignado un quantum de tiempo durante el cual puede ejecutar sus instrucciones, antes de ceder el sitio a otro proceso que esté esperando en la cola de procesos listo a ser despachado por el planificador de procesos. También en informática, se denomina multiplexar a combinar en un mismo archivo contenedor, varias pistas de dos archivos, por ejemplo de audio y vídeo, para su correcta reproducción, tambien en informatica multiplexar un archivo, es una forma que se mantengan varias copias idénticas de este archivo, esto para respaldar información en caso de que ocurra un fallo en el archivo principal.



DETECCION Y CONTROL DE ERRORES.

Los errores en la transmisión pueden ser debidos a tres causas distintas:
Características materiales de la línea.
Equipos de transmisión.
Causas externas al circuito de datos.
Para cuantificar el efecto de los errores sobre la transmisión se utiliza la tasa de error, o BER (Bit Error Rate), que es el cociente entre el número de bits recibidos erróneamente y el número total de bits transmitidos. Para redes WAN se considera como BER aceptable uno en torno a 10-6 y para redes LAN en torno a 10-9.
Otra forma de cuantificar los errores es mediante la tasa de error residual, que es el cociente entre el número de bits erróneos no detectados y el número de bits erróneos transmitidos.
Códigos de detección de errores
Para detectar el mayor número de errores se utilizan los códigos de control de errores. Estos códigos se dividen en autocorrectores y detectores.
1.1 Códigos autocorrectoresLos códigos autocorrectores son aquellos que detectan y corrigen los errores producidos en una posición concreta. Esta tarea la desempeña el equipo receptor.
1.2 Códigos detectoresEn los códigos puramente detectores el receptor detecta los errores, pero no es capaz de corregirlos, lo que hace es solicita el reenvío de la información. Las técnicas de solicitud de reenvío se denominan ARQ.
1.2.1 Modalidades de ARQ
Las distintas modalidades de ARQ son las siguientes:
ARQ con envío y espera. Es el método más lento. El emisor envía un paquete, si hay un error el receptor envía una señal de no reconocido, NAK, con lo que el emisor reenvía el paquete. Si no hay error el receptor envía señal de reconocido, ACK, con lo que el emisor pasa a enviar el siguiente paquete.
ARQ de envío continuo no selectivo. Se emplea en conexiones full-duplex. El emisor va enviando bloques de paquetes sin espera entre ellos, a la vez que los almacena en búferes de memoria. Si el receptor advierte un error en un bloque, le envía al emisor una señal NAK, con lo que el emisor reenvía todo el bloque. Cuando los búferes de memoria están saturados hay un tiempo de espera hasta que el receptor comunica que se pueden vaciar y se puede comenzar a enviar el siguiente bloque de paquetes.
ARQ de envío continuo selectivo. Es una mejora del modo anterior, en la que además de línea full-duplex se necesita una identificación de cada paquete del bloque enviado. Cuando se produce un NAK se reenvía sólo el paquete que ha llegado mal, y no todo el bloque. Además, al llegar un NAK se vacían los búferes anteriores a ese paquete, que ya se sabe que no son defectuosos, con lo que se reducen los tiempos de parada. El inconveniente de este método es que la información a enviar es mayor.
2 Códigos de control de errores
Los códigos de control de errores son siempre redundantes.
Un código redundante es el que utiliza más bits de los estrictamente necesarios para la transmisión de los datos; gracias a esta característica se pueden detectar y corregir los errores.
Se dividen en sistemáticos y no sistemáticos, según la forma de añadir los bits redundantes.
2.1 Códigos no sistemáticos
En los códigos no sistemáticos los bits redundantes se añaden implícitamente en el código. Se les llama códigos M entre N, como por ejemplo el 3 entre 8, que para emitir un carácter de 8 bits añade otros 3 de control.
Los bits de control siempre se ponen a 1 flanqueando el carácter.
2.2 Códigos sistemáticos
En los códigos sistemáticos para determinar el valor de los bits redundantes se aplica un algoritmo a la información a transmitir.
2.2.1 Ejemplos de códigos sistemáticos
Código de paridad horizontal Con este código se añade un único bit redundante para hacer que el número total de bits sea par o impar.
Código de paridad vertical Se aplica a más de una palabra de información. Es necesario saber cuántas palabras forman el bloque al que se aplica el algoritmo. A cada palabra se le aplica un código de paridad horizontal y al bloque la paridad vertical, como se ve en el siguiente ejemplo, en el que se ha aplicado paridad par.

FLUJO DE DATOS.


Un diagrama de flujo de datos (DFD por sus siglas en español e inglés) es una representación gráfica del "flujo" de datos a través de un sistema de información. Un diagrama de flujo de datos también se puede utilizar para la visualización de procesamiento de datos (diseño estructurado). Es una práctica común para un diseñador dibujar un contexto a nivel de DFD que primero muestra la interacción entre el sistema y las entidades externas. Este contexto a nivel de DFD se "explotó" para mostrar más detalles del sistema que se está modelando.
Los diagramas de flujo de datos fueron inventados por Larry Constantine, el desarrollador original del diseño estructurado, basado en el modelo de computación de Martin y Estrin: "flujo gráfico de datos" . Los diagramas de flujo de datos (DFD) son una de las tres perspectivas esenciales de Análisis de Sistemas Estructurados y Diseño por Método SSADM. El patrocinador de un proyecto y los usuarios finales tendrán que ser informados y consultados en todas las etapas de una evolución del sistema. Con un diagrama de flujo de datos, los usuarios van a poder visualizar la forma en que el sistema funcione, lo que el sistema va a lograr, y cómo el sistema se pondrá en práctica. El antiguo sistema de diagramas de flujo de datos puede ser elaborado y se comparó con el nuevo sistema de diagramas de flujo para establecer diferencias y mejoras a aplicar para desarrollar un sistema más eficiente. Los diagramas de flujo de datos pueden ser usados para proporcionar al usuario final una idea física de cómo resultarán los datos a última instancia, y cómo tienen un efecto sobre la estructura de todo el sistema. La manera en que cualquier sistema es desarrollado puede determinarse a través de un diagrama de flujo de datos. El desarrollo de un DFD ayuda en la identificación de los datos de la transacción en el modelo de datos.
Los diagramas derivados de los procesos principales se clasifican en niveles, los cuales son:
Nivel 0: Diagrama de contexto.
Nivel 1: Diagrama de nivel superior.
Nivel 2: Diagrama de detalle o expansión.

CONFIGURACION DE ENLACES PPP CON WINDOWS.

Funcionamiento y protocolos de PPP

Las conexiones realizadas con el Protocolo punto a punto (PPP) deben cumplir los estándares establecidos en los documentos RFC de PPP. Para obtener información acerca de los documentos RFC de PPP, vea la sección de introducción a TCP/IP en el sitio Web de Kits de recursos de Microsoft Windows. Este tema ofrece una introducción al funcionamiento de PPP y los protocolos que se utilizan en las conexiones PPP. Para obtener información acerca de la configuración de PPP, vea Configuración de PPP.

Proceso de conexión PPP

Después de realizar una conexión física o lógica a un servidor de acceso remoto basado en PPP, se llevan a cabo las siguientes negociaciones para establecer una conexión PPP:

Negociación del uso del vínculo

PPP utiliza el Protocolo de control de vínculos (LCP) para negociar parámetros del vínculo como el tamaño máximo de la trama PPP, el uso de Multivínculo y el uso de un protocolo de autenticación de PPP específico.

Autenticación del equipo de acceso remoto

El cliente de acceso remoto y el servidor de acceso remoto intercambian mensajes de acuerdo con el protocolo de autenticación negociado. Si se utiliza EAP, el cliente y el servidor negocian un método de EAP específico, denominado tipo EAP, y después intercambian los mensajes de dicho tipo EAP.

Uso de la devolución de llamada

Si la devolución de llamada está configurada para la conexión de acceso telefónico, se finaliza la conexión física y el servidor de acceso remoto devuelve la llamada al cliente de acceso remoto.

PROTOCOLO PPP PARA INTERNET.

Point-to-point Protocol, es decir, Protocolo punto a punto, es un protocolo de nivel de enlace estandarizado en el documento RFC 1661. Por tanto, se trata de un protocolo asociado a la pila TCP/IP de uso en Internet. Más conocido por su acrónimo: PPP.
El protocolo PPP permite establecer una comunicación a nivel de enlace entre dos computadoras. Generalmente, se utiliza para establecer la conexión a Internet de un particular con su proveedor de acceso a través de un módem telefónico. Ocasionalmente también es utilizado sobre conexiones de banda ancha (como PPPoE o PPPoA). Además del simple transporte de datos, PPP facilita dos funciones importantes:
Autenticación. Generalmente mediante una clave de acceso.
Asignación dinámica de IP. Los proveedores de acceso cuentan con un número limitado de direcciones IP y cuentan con más clientes que direcciones. Naturalmente, no todos los clientes se conectan al mismo tiempo. Así, es posible asignar una dirección IP a cada cliente en el momento en que se conectan al proveedor. La dirección IP se conserva hasta que termina la conexión por PPP. Posteriormente, puede ser asignada a otro cliente.
PPP también tiene otros usos, por ejemplo, se utiliza para establecer la comunicación entre un módem ADSL y la pasarela ATM del operador de telecomunicaciones. También se ha venido utilizando para conectar a trabajadores desplazados (p. ej. ordenador portátil) con sus oficinas a través de un centro de acceso remoto de su empresa. Aunque está aplicación se está abandonando en favor de las redes privadas virtuales, más seguras.
Trama PPP
Una trama PPP esta basada en HDLC.Tiene un mínimo de 6 bytes y un máximo indeterminado. La trama HDLC con PPP es:
Bandera
Dirección
Control
Protocolo
Datos
FCS
Bandera
0x7e
0xFF
0x03
2 bytes
Longitud variable. Puede llevar relleno.
2 o 4 bytes
0x7e
Nota: 0x7e son 8 bits en notación hexadecimal, ver Hexadecimal para más información.
La dirección siempre es 0xFF que es la dirección de difusión estandar de todos los destinos. En PPP no hay direcciones individuales de cada estación dado que sólo hay dos. El campo control vale 0x03, que corresponde con tramas de usuario no númeradas en HDLC. Estos dos campos se pueden eliminar si se negocia en LCP "Address-and-Control-Field-Compression" (ACFC, compresión de los campos de dirección y control).
Los identificadores de protocolo están especificados en el RFC 1661. Los más importantes son:
0x0021 para IP.
0xc021 para LCP.
0xc023 para PAP.
0xc223 para CHAP.
El campo FCS (Frame Check Sequence) es una secuencia de comprobación de trama. Se utiliza para detectar errores en la transmisión de la trama. El transmisor calcula el CRC del contenido de la trama y lo coloca en el campo FCS. El receptor calcula el CRC de la trama que recibe y lo compara con el valor que hay en el FCS. Si los valores son distintos, hay bits erróneos en la trama, por lo que se descarta. Si el campo FCS es de 2 bytes se usa un CRC de 16 bits. Si el campo FCS es de 4 bytes, se usa un CRC de 32 bits.

REDES PARA LA GENTE (ISP)

SP se refiere a las siglas en Inglés para Internet Services Provider. Su traducción al español nos permite comprender de manera rápida y sencilla de qué se trata un ISP; un Proveedor de Servicios o acceso de Internet. A los ISP también se los llama IAP, que también corresponde a siglas en Inglés, en este caso para Internet Access Providers, que traducido al español, se entiende como Proveedores de Acceso a Internet.Por lo general, estos servicios guardan relación con otorgar el acceso a Internet a través de una línea telefónica. Para este servicio el proveedor hace entrega a su cliente de un enlace dial up, o bien puede proveer enlaces dedicados que funcionan a altas velocidades. Paralelamente, un Proveedor de Servicios de Internet, ofrece a sus usuarios una amplia gama de servicios asociados al acceso a Internet, tales como el desarrollo y mantenimiento de páginas web , cuentas de correo electrónico, entre otros.Este tipo de empresa proveedora de servicios web, a través de un pago mensual, ofrece a sus clientes un paquete de software que cuenta con un nombre de usuario, claves y un número telefónico (solo si el servicio es de dial up o de marcado, ya que esto no aplica para las conexiones por cable) para el acceso a la red. Para poder hacer uso de esto es necesario contar con un módem, que por lo general es proveído por el ISP, y así poder disfrutar de los beneficios de contar con acceso a Internet y navegar por la red.Como vemos, el requerimiento de un ISP no sólo es indispensable en nuestros hogares, sino que también lo es para las grandes empresas, para quienes los ISP son capaces de proporcionar accesos directos a las redes de la empresa usando la Internet.La velocidad de acceso y navegación de Internet ha ido cobrando cada vez más importancia. Tal es el caso de América Latina, donde en los últimos años, los ISP han tenido que adaptarse a clientes mucho más exigentes con la velocidad del servicio. Lo anterior ha hecho que este mercado se expanda de manera considerable abriendo una amplísima gama de opciones a sus clientes y rompiendo con los monopolios en el área de las telecomunicaciones. Por eso mismo es que cada vez hay menos conexiones telefónicas a la red, y el concepto de "banda ancha", que no es más que la posibilidad de intercambiar grandes cantidades de información de manera rápida, ya sea por cable o por líneas telefónicas digitales dedicadas, se abre paso convirtiéndose en el estándar del servicio ofrecido por los ISP.

MODELO OSI.

El modelo de referencia de Interconexión de Sistemas Abiertos (OSI, Open System Interconnection) fue el modelo de red descriptivo creado por la Organización Internacional para la Estandarización lanzado en 1984. Es decir, fue un marco de referencia para la definición de arquitecturas de interconexión de sistemas de comunicaciones.


A principios de 1980 el desarrollo de redes sucedió con desorden en muchos sentidos. Se produjo un enorme crecimiento en la cantidad y tamaño de las redes. A medida que las empresas tomaron conciencia de las ventajas de usar tecnologías de conexión, las redes se agregaban o expandían a casi la misma velocidad a la que se introducían las nuevas tecnologías de red.
Para mediados de 1980, estas empresas comenzaron a sufrir las consecuencias de la rápida expansión. De la misma forma en que las personas que no hablan un mismo idioma tienen dificultades para comunicarse, las redes que utilizaban diferentes especificaciones e implementaciones tenían dificultades para intercambiar información. El mismo problema surgía con las empresas que desarrollaban tecnologías de conexiones privadas o propietarias. "Propietario" significa que una sola empresa o un pequeño grupo de empresas controlan todo uso de la tecnología. Las tecnologías de conexión que respetaban reglas propietarias en forma estricta no podían comunicarse con tecnologías que usaban reglas propietarias diferentes.
Para enfrentar el problema de incompatibilidad de redes, la Organización Internacional para la Estandarización (ISO) investigó modelos de conexión como la red de Digital Equipment Corporation (DECnet), la Arquitectura de Sistemas de Red (SNA) y TCP/IP a fin de encontrar un conjunto de reglas aplicables de forma general a todas las redes. Con base en esta investigación, la ISO desarrolló un modelo de red que ayuda a los fabricantes a crear redes que sean compatibles con otras redes.

Modelo de referencia OSI
Siguiendo el esquema de este modelo se crearon numerosos protocolos. El advenimiento de protocolos más flexibles donde las capas no están tan demarcadas y la correspondencia con los niveles no era tan clara puso a este esquema en un segundo plano. Sin embargo es muy usado en la enseñanza como una manera de mostrar como puede estructurarse una "pila" de protocolos de comunicaciones.
El modelo especifica el protocolo que debe ser usado en cada capa, y suele hablarse de modelo de referencia ya que es usado como una gran herramienta para la enseñanza de comunicación de redes. Este modelo está dividido en siete capas:


Capa física (Capa 1)
Es la que se encarga de las conexiones físicas de la computadora hacia la red, tanto en lo que se refiere al medio físico como a la forma en la que se transmite la información.
Sus principales funciones se pueden resumir como:
Definir el medio o medios físicos por los que va a viajar la comunicación: cable de pares trenzados (o no, como en RS232/EIA232), coaxial, guías de onda, aire, fibra óptica.
Definir las características materiales (componentes y conectores mecánicos) y eléctricas (niveles de tensión) que se van a usar en la transmisión de los datos por los medios físicos.
Definir las características funcionales de la interfaz (establecimiento, mantenimiento y liberación del enlace físico).
Transmitir el flujo de bits a través del medio.
Manejar las señales eléctricas/electromagnéticas
Especificar cables, conectores y componentes de interfaz con el medio de transmisión, polos en un enchufe, etc.
Garantizar la conexión (aunque no la fiabilidad de ésta).

Capa de enlace de datos (Capa 2)
Esta capa se ocupa del direccionamiento físico, de la topología de la red, del acceso a la red, de la notificación de errores, de la distribución ordenada de tramas y del control del flujo.
Se hace un direccionamiento de los datos en la red ya sea en la distribución adecuada desde un emisor a un receptor, la notificación de errores, de la topología de la red de cualquier tipo.

Capa de red (Capa 3)
El objetivo de la capa de red es hacer que los datos lleguen desde el origen al destino, aún cuando ambos no estén conectados directamente. Los dispositivos que facilitan tal tarea se denominan encaminadores, aunque es más frecuente encontrar el nombre inglés routers y, en ocasiones enrutadores.
Los routers trabajan en esta capa, aunque pueden actuar como switch de nivel 2 en determinados casos, dependiendo de la función que se le asigne. Los firewalls actúan sobre esta capa principalmente, para descartar direcciones de máquinas.
En este nivel se realiza el direccionamiento lógico y la determinación de la ruta de los datos hasta su receptor final.

Capa de transporte (Capa 4)
Capa encargada de efectuar el transporte de los datos (que se encuentran dentro del paquete) de la máquina origen a la de destino, independizándolo del tipo de red física que se esté utilizando. La PDU de la capa 4 se llama Segmento. Sus protocolos son TCP y UDP; el primero orientado a conexión y el otro sin conexión.

Capa de sesión (Capa 5)
Esta capa es la que se encarga de mantener y controlar el enlace establecido entre los dos computadores que están transmitiendo datos de cualquier índole.
Por lo tanto, el servicio provisto por esta capa es la capacidad de asegurar que, dada una sesión establecida entre dos máquinas, la misma se pueda efectuar para las operaciones definidas de principio a fin, reanudándolas en caso de interrupción. En muchos casos, los servicios de la capa de sesión son parcial o totalmente prescindibles.

Capa de presentación (Capa 6)
El objetivo es encargarse de la representación de la información, de manera que aunque distintos equipos puedan tener diferentes representaciones internas de caracteres los datos lleguen de manera reconocible.
Esta capa es la primera en trabajar más el contenido de la comunicación que el cómo se establece la misma. En ella se tratan aspectos tales como la semántica y la sintaxis de los datos transmitidos, ya que distintas computadoras pueden tener diferentes formas de manejarlas.
Esta capa también permite cifrar los datos y comprimirlos. En pocas palabras es un traductor.

Capa de aplicación (Capa 7)
Ofrece a las aplicaciones la posibilidad de acceder a los servicios de las demás capas y define los protocolos que utilizan las aplicaciones para intercambiar datos, como correo electrónico (POP y SMTP), gestores de bases de datos y servidor de ficheros (FTP). Hay tantos protocolos como aplicaciones distintas y puesto que continuamente se desarrollan nuevas aplicaciones el número de protocolos crece sin parar.
Cabe aclarar que el usuario normalmente no interactúa directamente con el nivel de aplicación. Suele interactuar con programas que a su vez interactúan con el nivel de aplicación pero ocultando la complejidad subyacente.


SOFTWARE DE LAS REDES.

Al igual que un equipo no puede trabajar sin un sistema operativo, una red de equipos no puede funcionar sin un sistema operativo de red. Si no se dispone de ningún sistema operativo de red, los equipos no pueden compartir recursos y los usuarios no pueden utilizar estos recursos.
Dependiendo del fabricante del sistema operativo de red, tenemos que el software de red para un equipo personal se puede añadir al propio sistema operativo del equipo o integrarse con él.
NetWare de Novell es el ejemplo más familiar y famoso de sistema operativo de red donde el software de red del equipo cliente se incorpora en el sistema operativo del equipo. El equipo personal necesita ambos sistema operativos para gestionar conjuntamente las funciones de red y las funciones individuales.
El software del sistema operativo de red se integra en un número importante de sistemas operativos conocidos, incluyendo Windows 2000 Server/Professional, Windows NT Server/Workstation, Windows 95/98/ME y Apple Talk.
Cada configuración (sistemas operativos de red y del equipo separados, o sistema operativo combinando las funciones de ambos) tiene sus ventajas e inconvenientes. Por tanto, nuestro trabajo como especialistas en redes es determinar la configuración que mejor se adapte a las necesidades de nuestra red.
Coordinación del software y del hardware
El sistema operativo de un equipo coordina la interacción entre el equipo y los programas (o aplicaciones) que está ejecutando. Controla la asignación y utilización de los recursos hardware tales como:
Memoria.
Tiempo de CPU.
Espacio de disco.
Dispositivos periféricos.
En un entorno de red, los servidores proporcionan recursos a los clientes de la red y el software de red del cliente permite que estos recursos estén disponibles para los equipos clientes. La red y el sistema operativo del cliente están coordinados de forma que todos los elementos de la red funcionen correctamente.
Multitarea
Un sistema operativo multitarea, como su nombre indica, proporciona el medio que permite a un equipo procesar más de una tarea a la vez. Un sistema operativo multitarea real puede ejecutar tantas tareas como procesadores tenga. Si el número de tareas es superior al número de procesadores, el equipo debe ordenar los procesadores disponibles para dedicar una cierta cantidad de tiempo a cada tarea, alternándolos hasta que se completen las citadas tareas. Con este sistema, el equipo parece que está trabajando sobre varias tareas a la vez.
Existen dos métodos básicos de multitarea:
Con prioridad. En una multitarea con prioridad, el sistema operativo puede tomar el control del procesador sin la cooperación de la propia tarea.
Sin prioridad (cooperativo). En una multitarea sin prioridad, la propia tarea decide cuándo deja el procesador. Los programa escritos para sistemas de multitarea sin prioridad deben incluir algún tipo de previsión que permita ejercer el control del procesador. No se puede ejecutar ningún otro programa hasta que el programa sin prioridad haya abandonado el control del procesador.
El sistema multitarea con prioridad puede proporcionar ciertas ventajas dada la interacción entre el sistema operativo individual y el Sistema Operativo de Red (sistema operativo de red). Por ejemplo, cuando la situación lo requiera, el sistema con prioridad puede conmutar la actividad de la CPU de una tarea local a una tarea de red.
Componentes software
El software cliente de red debe instalarse sobre el sistema operativo existente, en aquellos sistemas operativos de equipo que no incluyan funciones propias de red. Otros sistemas operativos, como Windows NT/2000, integran el sistema operativo de red y sistema operativo del equipo. A pesar de que estos sistema integrados tienen algunas ventajas, no evitan la utilización de otros Sistema Operativo de Red. Es importante considerar la propiedad de interoperabilidad cuando se configuran entornos de red multiplataforma. Se dice que los elementos o componentes de los sistemas operativos «interoperan» cuando pueden funcionar en diferentes entornos de trabajo. Por ejemplo, un servidor NetWare puede interoperar (es decir, acceder a los recursos) con servidores NetWare y servidores Windows NT/2000.
Un sistema operativo de red:
Conecta todos los equipos y periféricos.
Coordina las funciones de todos los periféricos y equipos.
Proporciona seguridad controlando el acceso a los datos y periféricos.
Las dos componentes principales del software de red son:
El software de red que se instala en los clientes.
El software de red que se instala en los servidores.
Software de cliente
En un sistema autónomo, cuando un usuario escribe un comando que solicita el equipo para realizar una tarea, la petición circula a través del bus local del equipo hasta la CPU del mismo. Por ejemplo, si quiere ver un listado de directorios de uno de los discos duros locales, la CPU interpreta y ejecuta la petición y, a continuación, muestra el resultado del listado de directorios en una ventana.
Sin embargo, en un entorno de red, cuando un usuario inicia una petición para utilizar un recurso que está en un servidor en otra parte de la red, el comportamiento es distinto. La petición se tiene que enviar, o redirigir, desde el bus local a la red y desde allí al servidor que tiene el recurso solicitado. Este envío es realizado por el redirector.
Redirector
Un redirector procesa el envío de peticiones. Dependiendo del software de red, este redirector se conoce como «Shell» o «generador de peticiones». El redirector es una pequeña sección del código de un Sistema Operativo de Red que:
Intercepta peticiones en el equipo.
Determina si la peticiones deben continuar en el bus del equipo local o deben redirigirse a través de la red a otro servidor
La actividad del redirector se inicia en un equipo cliente cuando el usuario genera la petición de un recurso o servicio de red. El equipo del usuario se identifica como cliente, puesto que está realizando una petición a un servidor. El redirector intercepta la petición y la envía a la red.
El servidor procesa la conexión solicitada por los redirectores del cliente y les proporciona acceso a los recursos solicitados. En otras palabras, los servicios del servidor solicitados por el cliente.
Designadores
Normalmente, el sistema operativo proporcionará diferentes opciones para acceder al directorio cuando necesite acceder a un directorio compartido y tenga los correspondientes permisos para realizarlo. Por ejemplo, con Windows NT/2000, podría utilizar el icono Conectar a unidad de red del Explorador de Windows NT/2000 para conectarse a la unidad de red. También, puede asignar una unidad. La asignación de unidades consiste en asignar una letra o nombre a una unidad de disco, de forma que el sistema operativo o el servidor de la red puede identificarla y localizarla. El redirector también realiza un seguimiento de los designadores de unidades asociados a recursos de red.
Periféricos
Los redirectores pueden enviar peticiones a los periféricos, al igual que se envían a los directorios compartidos. La petición se redirige desde el equipo origen y se envía a través de la red al correspondiente destino. En este caso, el destino es el servidor de impresión para la impresora solicitada.
Con el redirector, podemos referenciar como LPT1 o COM1 impresoras de red en lugar de impresoras locales. El redirector intercepta cualquier trabajo de impresión dirigido a LPT1 y lo envía a la impresora de red especificada.
La utilización del redirector permite a los usuarios no preocuparse ni de la ubicación actual de los datos o periféricos ni de la complejidad del proceso de conexión o entrada. Por ejemplo, para acceder a los datos de un ordenador de red, el usuario sólo necesita escribir el designador de la unidad asignado a la localización del recurso y el redirector determina el encaminamiento actual.
Software de servidor
El software de servidor permite a los usuarios en otras máquinas, y a los equipos clientes, poder compartir los datos y periféricos del servidor incluyendo impresoras, trazadores y directorios.
Si un usuario solicita un listado de directorios de un disco duro remoto compartido. El redirector envía la petición por la red, se pasa al servidor de archivos que contiene el directorio compartido. Se concede la petición y se proporciona el listado de directorios.
Compartir recursos
Compartir es el término utilizado para describir los recursos que públicamente están disponibles para cualquier usuario de la red. La mayoría de los sistemas operativos de red no sólo permiten compartir, sino también determinar el grado de compartición. Las opciones para la compartición de recursos incluyen:
Permitir diferentes usuarios con diferentes niveles de acceso a los recursos.
Coordinación en el acceso a los recursos asegurando que dos usuarios no utilizan el mismo recurso en el mismo instante.
Por ejemplo, un administrador de una oficina quiere que una persona de la red se familiarice con un cierto documento (archivo), de forma que permite compartir el documento. Sin embargo, se controla el acceso al documento compartiéndolo de forma que:
Algunos usuarios sólo podrán leerlo.
Algunos usuarios podrán leerlo y realizar modificaciones en él.
Gestión de usuarios
Los sistemas operativos de red permiten al administrador de la red determinar las personas, o grupos de personas, que tendrán la posibilidad de acceder a los recursos de la red. El administrador de una red puede utilizar el Sistema Operativo de Red para:
Crear permisos de usuario, controlados por el sistema operativo de red, que indican quién puede utilizar la red.
Asignar o denegar permisos de usuario en la red.
Eliminar usuarios de la lista de usuarios que controla el sistema operativo de red.
Para simplificar la tarea de la gestión de usuarios en una gran red, el sistema operativo de red permite la creación de grupos de usuarios. Mediante la clasificación de los individuos en grupos, el administrador puede asignar permisos al grupo. Todos los miembros de un grupo tendrán los mismos permisos, asignados al grupo como una unidad. Cuando se une a la red un nuevo usuario, el administrador puede asignar el nuevo usuario al grupo apropiado, con sus correspondientes permisos y derechos.
Gestión de la red
Algunos sistemas operativos de red avanzados incluyen herramientas de gestión que ayudan a los administradores a controlar el comportamiento de la red. Cuando se produce un problema en la red, estas herramientas de gestión permiten detectar síntomas de la presencia del problema y presentar estos síntomas en un gráfico o en otro formato. Con estas herramientas, el administrador de la red puede tomar la decisión correcta antes de que el problema suponga la caída de la red.
Selección de un sistema operativo de red
El sistema operativo de red determina estos recursos, así como la forma de compartirlos y acceder a ellos.
En la planificación de una red, la selección del sistema operativo de red se puede simplificar de forma significativa, si primero se determina la arquitectura de red (cliente/servidor o Trabajo en Grupo) que mejor se ajusta a nuestras necesidades. A menudo, esta decisión se basa en los tipos de seguridad que se consideran más adecuados. La redes basadas en servidor le permiten incluir más posibilidades relativas a la seguridad que las disponibles en una red Trabajo en Grupo. Por otro lado, cuando la seguridad no es una propiedad a considerar, puede resultar más apropiado un entorno de red Trabajo en Grupo.
Después de identificar las necesidades de seguridad de la red, el siguiente paso es determinar los tipos de interoperabilidad necesaria en la red para que se comporte como una unidad. Cada sistema operativo de red considera la interoperabilidad de forma diferente y, por ello, resulta muy importante recordar nuestras propias necesidades de interoperabilidad cuando se evalúe cada Sistema Operativo de Red. Si la opción es Trabajo en Grupo, disminuirán las opciones de seguridad e interoperabilidad debida a las limitaciones propias de esta arquitectura. Si la opción seleccionada se basa en la utilización de un servidor, es necesario realizar estimaciones futuras para determinar si la interoperabilidad va a ser considerada como un servicio en el servidor de la red o como una aplicación cliente en cada equipo conectado a la red. La interoperabilidad basada en servidor es más sencilla de gestionar puesto que, al igual que otros servicios, se localiza de forma centralizada. La interoperabilidad basada en cliente requiere la instalación y configuración en cada equipo. Esto implica que la interoperabilidad sea mucho más difícil de gestionar.
No es raro encontrar ambos métodos (un servicio de red en el servidor y aplicaciones cliente en cada equipo) en una misma red. Por ejemplo, un servidor NetWare, a menudo, se implementa con un servicio para los equipos Apple, mientras que la interoperabilidad de las redes de Microsoft Windows se consigue con una aplicación cliente de red en cada equipo personal.
Cuando se selecciona un sistema operativo de red, primero se determinan los servicios de red que se requieren. Los servicios estándares incluyen seguridad, compartición de archivos, impresión y mensajería; los servicios adicionales incluyen soporte de interoperabilidad para conexiones con otros sistemas operativos. Para cualquier Sistema Operativo de Red, es necesario determinar los servicios de interoperabilidad o clientes de red a implementar para adecuarse mejor a las necesidades.
Los sistemas operativos de red basados en servidor más importantes son Microsoft Windows NT 4, Windows 2000 Server y Novell NetWare 3.x, 4.x y 5.x. Los sistemas operativos de red Trabajo en Grupo más importantes son AppleTalk, Windows 95 y 98 y UNIX (incluyendo Linux y Solaris).
Sistemas operativos de Novell
Introducción a NetWare
El sistema operativo de red NetWare está formado por aplicaciones de servidor y cliente. La aplicación cliente se diseña para ejecutarse sobre una variedad importante de los sistemas operativos que residen en los clientes. Los usuarios clientes pueden acceder a la aplicación servidor a partir de ordenadores que ejecuten MS-DOS, Microsoft Windows (versiones 3.x, 95 y 98 y Windows NT), OS/2, Apple Talk o UNIX. A menudo, NetWare es la opción que se utiliza como sistema operativo en entornos de múltiples sistemas operativos mezclados.
La versión 3.2 de NetWare es un Sistema Operativo de Red de 32 bits que admite entornos Windows (versiones 3.x, 95 y 98 y Windows NT), UNIX, Mac OS y MS-DOS. Con la versión NetWare 4.11, también denominada IntranetWare, Novell introdujo su nuevo Sistema Operativo de Red, los Servicios de directorios de Novell (NDS). La versión 5, última versión distribuida, se centra en la integración de LAN, WAN, aplicaciones de red, intranets e Internet en una única red global.
Los Servicios de directorios de Novell (NDS) proporcionan servicios de nombre y seguridad, encaminamiento, mensajería, publicación Web y servicios de impresión y de archivos. Mediante la utilización de la arquitectura de directorios X.500, organiza todos los recursos de red, incluyendo usuarios, grupos, impresoras, servidores y volúmenes. NDS también proporciona una entrada única para el usuario, que permite a éste poder entrar en cualquier servidor de la red y tener acceso a todos sus permisos y derechos habituales.
Otros Sistema Operativo de Red proporcionan software de cliente para la interoperabilidad con servidores NetWare. Por ejemplo, Windows NT proporciona Servicios de enlace para NetWare (Gateway Services GSNW). Con este servicio, un servidor Windows NT puede obtener acceso a servicios de archivo e impresión NetWare.

CLASIFICACION DE LAS REDES.



Red pública: una red publica se define como una red que puede usar cualquier persona y no como las redes que están configuradas con clave de acceso personal. Es una red de computadoras interconectados, capaz de compartir información y que permite comunicar a usuarios sin importar su ubicación geográfica.
Red privada: una red privada se definiría como una red que puede usarla solo algunas personas y que están configuradas con clave de acceso personal.
Red de área Personal (PAN): (Personal Area Network) es una red de ordenadores usada para la comunicación entre los dispositivos de la computadora (teléfonos incluyendo las ayudantes digitales personales) cerca de una persona. Los dispositivos pueden o no pueden pertenecer a la persona en cuestión. El alcance de una PAN es típicamente algunos metros. Las PAN se pueden utilizar para la comunicación entre los dispositivos personales de ellos mismos (comunicación del intrapersonal), o para conectar con una red de alto nivel y el Internet (un up link). Las redes personales del área se pueden conectar con cables con los buses de la computadora tales como USB y FireWire. Una red personal sin hilos del área (WPAN) se puede también hacer posible con tecnologías de red tales como IrDA y Bluetooth.
Red de área local (LAN): una red que se limita a un área especial relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un avión. Las redes de área local a veces se llaman una sola red de la localización. Nota: Para los propósitos administrativos, LANs grande se divide generalmente en segmentos lógicos más pequeños llamados los Workgroups. Un Workgroups es un grupo de las computadoras que comparten un sistema común de recursos dentro de un LAN.
Red de área local virtual (VLAN): Una Virtual LAN ó comúnmente conocida como VLAN, es un grupo de computadoras, con un conjunto común de recursos a compartir y de requerimientos, que se comunican como si estuvieran adjuntos a una división lógica de redes de computadoras en la cuál todos los nodos pueden alcanzar a los otros por medio de broadcast (dominio de broadcast) en la capa de enlace de datos, a pesar de su diversa localización física. Con esto, se pueden lógicamente agrupar computadoras para que la localización de la red ya no sea tan asociada y restringida a la localización física de cada computadora, como sucede con una LAN, otorgando además seguridad, flexibilidad y ahorro de recursos. Para lograrlo, se ha establecido la especificación IEEE 802.1Q como un estándar diseñado para dar dirección al problema de cómo separar redes físicamente muy largas en partes pequeñas, así como proveer un alto nivel de seguridad entre segmentos de redes internas teniendo la libertad de administrarlas sin importar su ubicación física.
Red del área del campus (CAN): Se deriva a una red que conecta dos o más LANs los cuales deben estar conectados en un área geográfica específica tal como un campus de universidad, un complejo industrial o una base militar.
Red de área metropolitana (MAN): una red que conecta las redes de un área dos o más locales juntos pero no extiende más allá de los límites de la ciudad inmediata, o del área metropolitana. Los enrutadores (routers) múltiples, los interruptores (switch) y los cubos están conectados para crear a una MAN.
Red de área amplia (WAN): es una red de comunicaciones de datos que cubre un área geográfica relativamente amplia y que utiliza a menudo las instalaciones de transmisión proporcionadas por los portadores comunes, tales como compañías del teléfono. Las tecnologías WAN funcionan generalmente en las tres capas más bajas del Modelo de referencia OSI: la capa física, la capa de enlace de datos, y la capa de red.
Red de área de almacenamiento (SAN): Es una red concebida para conectar servidores, matrices (arrays) de discos y librerías de soporte. Principalmente, está basada en tecnología de fibra ó iSCSI. Su función es la de conectar de manera rápida, segura y fiable los distintos elementos de almacenamiento que la conforman.
Red irregular: Es un sistema de cables y buses que se conectan a través de un módem, y que da como resultado la conexión de una o más computadoras. Esta red es parecida a la mixta, solo que no sigue con los parámetros presentados en ella. Muchos de estos casos son muy usados en la mayoria de las redes.


HARDWARE DE REDES.

El establecimiento de una red asiste a compartir archivos, usos, datos trabajar-específicos, y el hardware periférico entre un grupo de usuarios. El hardware de la red abarca el hardware de PC , las tarjetas de interfaz de la red (NICs), los cubos, los interruptores, los cables, las rebajadoras, el etc. Las tarjetas de interfaz de la red instaladas en diversas PC diferencian, dependiendo de la necesidad y del uso en un ambiente networked típico. El sistema operativo usado en una red permite que los usuarios compartan sus recursos con eficacia controlando la operación entera. En una red de área local o un LAN, las tarjetas de interfaz de la red instaladas en las PC conectan varias computadoras en una "área local". Es decir las PC en un edificio entero o un piso en un edificio se podían conectar a través de una red. Las computadoras pueden compartir una impresora o un módem en un ambiente del LAN. La red de área amplia o el WAN, como el nombre sugiere, abarca un área más grande y abarca dos o más LANs. Ethernet y Ethernet rápida son similares al LAN y apoyan altas tarifas de transferencia de datos. Ethernet NICs y adaptadores rápidos de Ethernet como el gigabit NICs proporciona alto funcionamiento de la red y un rendimiento de procesamiento más rápido.












Las tarjetas de interfaz de la red conectan una PC con una red. La velocidad de un NIC para enviar datos a una red depende del número de los pedacitos que se pueden transferir a un NIC. En la OSI el modelo, los cubos, los interruptores, y las rebajadoras de la red de siete capas utilizan la comprobación, la trasmisión de datos, y las capas de red. Los cubos son los dispositivos que conectan todas las PC con un servidor de la red u otro cubo. Las PC enchufan a los varios puertos proporcionados por los cubos. Diversos tipos de cubos están disponibles en el mercado. Los interruptores tienen una tarea específica de realizarse. Identifican datos y los envían a los puertos correctos. La ayuda LANs de los puentes y de las rebajadoras conecta el uno al otro. Las rebajadoras funcionan más inteligente que los interruptores. Las rebajadoras se utilizan a menudo donde la transferencia de datos ocurre entre los grupos complejos de LANs. Vario LANs y los paquetes de la ruta se pueden conectar usando los interruptores. Datos de la transferencia de las rebajadoras a partir de una red a otro protocolo de red que usa tal como TCP/IP. El Cisco es el líder de mercado en rebajadoras.

ARQUITECTURA DE REDES.

La estructura de una red. La definición de topología puede dividirse en dos partes. la topología física, que es la disposición real de los cables (los medios) y la topología lógica, que define la forma en que los hosts acceden a los medios. Las topologías físicas que se utilizan comúnmente son de bus, de anillo, en estrella, en estrella extendida, jerárquica y en malla.La topología de bus utiliza un único segmento backbone (longitud del cable) al que todos los hosts se conectan de forma directa. La topología de anillo conecta un host con el siguiente y al último host con el primero. Esto crea un anillo físico de cable. La topología en estrella conecta todos los cables con un punto central de concentración. Por lo general, este punto es un hub o un switch, que se describirán más adelante en este capítulo. La topología en estrella extendida se desarrolla a partir de la topología en estrella. Esta topología conecta estrellas individuales conectando los hubs/switches. Esto, como se describe más adelante en este capítulo, permite extender la longitud y el tamaño de la red. La topología jerárquica se desarrolla de forma similar a la topología en estrella extendida pero, en lugar de conectar los hubs/switches entre sí, el sistema se conecta con un computador que controla el tráfico de la topología. La topología en malla se utiliza cuando no puede existir absolutamente ninguna interrupción en las comunicaciones, por ejemplo, en los sistemas de control de una central nuclear. De modo que, como puede observar en el gráfico, cada host tiene sus propias conexiones con los demás hosts. Esto también se refleja en el diseño de laInternet, que tiene múltiples rutas hacia cualquier ubicación.


jueves, 15 de abril de 2010

BIENVENIDOS A MI BLOG.!

ESPERO QUE LES SEA DE SU AGRADO Y QUE DE IGUAL FORMA LES SIRVA TODA LA INFORMACION EXPUESTA EN ESTE BLOG.

SALUDOS!!!

CB@Z.