viernes, 7 de diciembre de 2012



INSTITUTO TECNOLOGICO DE TAPACHULA


ING.MANUEL DE JESUS MATUZ CRUZ


REALIZADO POR:

LUIS FERNANDO ESPINOSA LEAL
EDUARDO DE JESUS MALDONADO LOPEZ
NAYELI XIOMARA BARRAGAN MENENDEZ
CLAUDIA VELIA CANEL ESTRADA

5.4 CDM División de código



La multiplexación por división de código, acceso múltiple por división de código o CDMA (del inglés Code Division Multiple Access) es un término genérico para varios métodos de multiplexación o control de acceso al medio basados en la tecnología de espectro expandido.

La traducción del inglés spread spectrum se hace con distintos adjetivos según las fuentes; pueden emplearse indistintamente espectro ensanchado, expandido, difuso o disperso para referirse en todos los casos al mismo concepto.

Habitualmente se emplea en comunicaciones inalámbricas (por radiofrecuencia), aunque también puede usarse en sistemas de fibra óptica o de cable.


Uno de los problemas que resolver en comunicaciones de datos es cómo repartir entre varios usuarios el uso de un único canal de comunicación o medio de transmisión, para que puedan gestionarse varias comunicaciones al mismo tiempo. Sin un método de organización, aparecerían interferencias que podrían bien resultar molestas, o bien directamente impedir la comunicación. Este concepto se denomina multiplexado o control de acceso al medio, según el contexto.

Se aplica el nombre "multiplexado" para los casos en que un sólo dispositivo determina el reparto del canal entre distintas comunicaciones, como por ejemplo un concentrador situado al extremo de un cable de fibra óptica; para los terminales de los usuarios finales, el multiplexado es transparente. Se emplea en cambio el término "control de acceso al medio" cuando son los terminales de los usuarios, en comunicación con un dispositivo que hace de modo de red, los que deben usar un cierto esquema de comunicación para evitar interferencias entre ellos, como por ejemplo un grupo de teléfonos móviles en comunicación con una antena del operador.

Para resolverlo, CDMA emplea una tecnología de espectro expandido y un esquema especial de codificación, por el que a cada transmisor se le asigna un código único, escogido de forma que sea ortogonal respecto al del resto; el receptor capta las señales emitidas por todos los transmisores al mismo tiempo, pero gracias al esquema de codificación (que emplea códigos ortogonales entre sí) puede seleccionar la señal de interés si conoce el código empleado.

Otros esquemas de multiplexación emplean la división en frecuencia (FDMA), en tiempo (TDMA) o en el espacio (SDMA) para alcanzar el mismo objetivo: la separación de las distintas comunicaciones que se estén produciendo en cada momento, y evitar o suprimir las interferencias entre ellas. Los sistemas en uso real (como IS-95 o UMTS) suelen emplear varias de estas estrategias al mismo tiempo para asegurar una mejor comunicación.

Una analogía posible para el problema del acceso múltiple sería una habitación (que representaría el canal) en la que varias personas desean hablar al mismo tiempo. Si varias personas hablan a la vez, se producirán interferencias y se hará difícil la comprensión. Para evitar o reducir el problema, podrían hablar por turnos (estrategia de división por tiempo), hablar unos en tonos más agudos y otros más graves de forma que sus voces se distinguieran (división por frecuencia), dirigir sus voces en distintas direcciones de la habitación (división espacial) o hablar en idiomas distintos (división por código, el objeto de este artículo): como en CDMA, sólo las personas que conocen el código (es decir, el "idioma") pueden entenderlo.

La división por código se emplea en múltiples sistemas de comunicación por radiofrecuencia, tanto de telefonía móvil (como IS-95, CDMA2000, FOMA o UMTS), transmisión de datos (WiFi) o navegación por satélite (GPS).

WDM División de longitud


En telecomunicación, la multiplexación por división de longitud de onda (WDM, del inglés Wavelength Division Multiplexing) es una tecnología que multiplexa varias señales sobre una sola fibra óptica mediante portadoras ópticas de diferente longitud de onda, usando luz procedente de un láser o un LED.

Este término se refiere a una portadora óptica (descrita típicamente por su longitud de onda) mientras que la multiplexación por división de frecuencia generalmente se emplea para referirse a una portadora de radiofrecuencia (descrita habitualmente por su frecuencia). Sin embargo, puesto que la longitud de onda y la frecuencia son inversamente proporcionales, y la radiofrecuencia y la luz son ambas formas de radiación electromagnética, la distinción resulta un tanto arbitraria.

El dispositivo que une las señales se conoce como multiplexor mientras que el que las separa es un demultiplexor. Con el tipo adecuado de fibra puede disponerse un dispositivo que realice ambas funciones a la vez, actuando como un multiplexor óptico de inserción-extracción.

Los primeros sistemas WDM aparecieron en torno a 1985 y combinaban tan sólo dos señales. Los sistemas modernos pueden soportar hasta 160 señales y expandir un sistema de fibra de 10 Gb/s hasta una capacidad total 25,6 Tb/s sobre un solo par de fibra.

Tipos

WDM puede ser de dos tipos:

Densa (DWDM, ‘Dense’ WDM): Muchas longitudes de onda y larga distancia

Ligera (CWDM ‘Coarse’ WDM): Pocas longitudes de onda y entornos metropolitanos



Multiplexación por división de frecuencia

La multiplexación por división de frecuencia (MDF) o (FDM), del inglés Frequency Division Multiplexing, es un tipo de multiplexación utilizada generalmente en sistemas de transmisión analógicos. La forma de funcionamiento es la siguiente: se convierte cada fuente de varias que originalmente ocupaban el mismo espectro de frecuencias, a una banda distinta de frecuencias, y se transmite en forma simultánea por un solo medio de transmisión. Así se pueden transmitir muchos canales de banda relativamente angosta por un solo sistema de transmisión de banda ancha.
El FDM es un esquema análogo de multiplexado; la información que entra a un sistema FDM es analógica y permanece analógica durante toda su transmisión. Un ejemplo de FDM es la banda comercial de AM, que ocupa un espectro de frecuencias de 535 a 1605 kHz. Si se transmitiera el audio de cada estación con el espectro original de frecuencias, sería imposible separar una estación de las demás. En lugar de ello, cada estación modula por amplitud una frecuencia distinta de portadora, y produce una señal de doble banda lateral de 10KHz.
Hay muchas aplicaciones de FDM, por ejemplo, la FM comercial y las emisoras de televisión, así como los sistemas de telecomunicaciones de alto volumen. Dentro de cualquiera de las bandas de transmisión comercial, las transmisiones de cada estación son independientes de las demás.
Una variante de MDF es la utilizada en fibra óptica, donde se multiplexan señales, que pueden ser analógicas o digitales, y se transmiten mediante portadoras ópticas de diferente longitud de onda, dando lugar a la denominada multiplexación por división de longitud de onda, o WDM del inglés Wavelength Division Multiplexing.
En la Figura 1 siguiente se representa, de forma muy esquematizada, un conjunto multiplexor-demultiplexor por división de frecuencia para tres canales, cada uno de ellos con el ancho de banda típico del canal telefónico analógico (0,3 a 3,4 kHz).




En esta figura, se puede ver como la señal de cada uno de los canales modula a una portadora distinta, generada por su correspondiente oscilador (O-1 a O-3). A continuación, los productos de la modulación son filtrados mediante filtros paso banda, para seleccionar la banda lateral adecuada. En el caso de la figura se selecciona la banda lateral inferior. Finalmente, se combinan las salidas de los tres filtros (F-1 a F-3) y se envían al medio de transmisión que, en este ejemplo, debe tener una de banda de paso comprendida, al menos, entre 8,6 y 19,7 kHz.
En el extremo distante, el demultiplexor realiza la función inversa. Así, mediante los filtros F-4 a F-6, los demoduladores D-1 a D-3 (cuya portadora se obtiene de los osciladores O-4 a O-6) y finalmente a través de los filtros paso bajo F-7 a F-9, que nos seleccionan la banda lateral inferior, volvemos a obtener los canales en su banda de frecuencia de 0,3 a 3,4 kHz





Multiplexación por división de tiempo

La multiplexación por división de tiempo (MDT) o (TDM), del inglés Time Division Multiplexing, es el tipo de multiplexación más utilizado en la actualidad, especialmente en los sistemas de transmisión digitales. En ella, el ancho de banda total del medio de transmisión es asignado a cada canal durante una fracción del tiempo total (intervalo de tiempo).
En la figura 1 siguiente se representa, esquematizada de forma muy simple, un conjunto multiplexor-demultiplexor para ilustrar como se realiza la multiplexación-desmultiplexación por división de tiempo.

Figura 1.- Conjunto multiplexor-demultiplexor por división de tiempo
En este circuito, las entradas de seis canales llegan a los denominados interruptores de canal, los cuales se cierran de forma secuencial, controlados por una señal de reloj, de manera que cada canal es conectado al medio de transmisión durante un tiempo determinado por la duración de los impulsos de reloj.
En el extremo distante, el desmultiplexor realiza la función inversa, esto es, conecta el medio de transmisión, secuencialmente, con la salida de cada uno de los seis canales mediante interruptores controlados por el reloj del demultiplexor. Este reloj del extremo receptor funciona de forma sincronizada con el del multiplexor del extremo emisor mediante señales de temporización que son transmitidas a través del propio medio de transmisión o por un camino.

Acceso múltiple por división de tiempo
El Acceso múltiple por división de tiempo (Time Division Multiple Access o TDMA, del inglés) es una técnica de múltiplexación que distribuye las unidades de información en ranuras ("slots") alternas de tiempo, proveyendo acceso múltiple a un reducido número de frecuencias.
También se podría decir que es un proceso digital que se puede aplicar cuando la capacidad de la tasa de datos de la transmisión es mayor que la tasa de datos necesaria requerida por los dispositivos emisores y receptores. En este caso, múltiples transmisiones pueden ocupar un único enlace subdividiéndole y entrelazándose las porciones.
Esta técnica de multiplexación se emplea en infinidad de protocolos, sola o en combinación de otras, pero en lenguaje popular el término suele referirse al estándar D-AMPS detelefonía celular empleado en América.

Uso en telefonía celular
Véanse también: Digital AMPS y GSM.
Mediante el uso de TDMA se divide un único canal de frecuencia de radio en varias ranuras de tiempo (seis en D-AMPS y PCS, ocho en GSM). A cada persona que hace una llamada se le asigna una ranura de tiempo específica para la transmisión, lo que hace posible que varios usuarios utilicen un mismo canal simultáneamente sin interferir entre sí.
Existen varios estándares digitales basados en TDMA, tal como TDMA D-AMPS (Digital-Advanced Mobile Phone System), TDMA D-AMPS-1900, PCS-1900 (Personal Communication Services)GSM (Global System for Mobile Communication, en el que se emplea junto con saltos en frecuencia o frequency hopping ), DCS-1800 (Digital Communications System) y PDC (Personal Digital Cellular).


Características
Se utiliza con modulaciones digitales.
Tecnología simple y muy probada e implementada.
Adecuada para la conmutación de paquetes.
Requiere una sincronización estricta entre emisor y receptor.
Requiere el Time advance.




6.4 DETECCIÓN Y CORRECCIÓN DE ERRORES.


Las redes deben ser capaces de transferir datos de un dispositivo a otro con total exactitud, si los datos recibidos no son idénticos a los emitidos, el sistema de comunicación es inútil. Sin embargo, siempre que se transmiten de un origen a un destino, se pueden corromper por el camino. Los sistemas de comunicación deben tener mecanismos para detectar y corregir errores que alteren los datos recibidos debido a múltiples factores de la transmisión.
La detección y corrección de errores se implementa bien en el nivel de enlace de datos o bien en el nivel de transporte del modelo OSI
Tipos de errores.
Interferencias, calor, magnetismo, etc, influyen en una señal electromagnética, esos factores pueden alterar la forma o temporalidad de una señal. Si la señal transporta datos digitales, los cambios pueden modificar el significado de los datos. Los errores posibles son:




Error de bit
Únicamente un bit de una unidad de datos determinada cambia de 1 a 0 o viceversa.

Un error de bit altera el significado del dato. Son el tipo de error menos probable en una transmisión de datos serie, puesto que el intervalo de bit es muy breve (1/frecuencia) el ruido tiene que tener una duración muy breve. Sin embargo si puede ocurrir en una transmisión paralela, en que un cable puede sufrir una perturbación y alterar un bit de cada byte.
Error de ráfaga.
El error de ráfaga significa que dos o más bits de la unidad de datos han cambiado. Los errores de ráfaga no significa necesariamente que los errores se produzcan en bits consecutivos. La longitud de la ráfaga se mide desde el primero hasta el último bit correcto, algunos bits intermedios pueden estar bien.

Los errores de ráfaga es más probable en transmisiones serie, donde la duración del ruido es normalmente mayor que la duración de un bit, por lo que afectara a un conjunto de bits. El número dode bits afectados depende de la tasa de datos y de la duración del ruido.
Detección.
Se conocen el tipo de errores que pueden existir, el problema es ser capaz de reconocerlos, dado que no se puede comparar el dato recibido con el original, sólo se podría saber que ha habido un error cuando se descodifique todo el mensaje y se vea que no tiene sentido. Sin embargo existen determinadas técnicas sencillas y objetivas para detectar los errores producidos en la transmisión:
Redundancia.
La redundancia consiste en enviar dos veces cada unidad de datos, de forma que el dispositivo receptor puede hacer una comparación bit a bit entre ambos datos y detectar si ha habido errores, para corregirlos con el mecanismo apropiado. Esta técnica es muy exacta pero enlentece la transmisión.
Sin embargo el concepto es aplicable añadiendo al flujo de datos un grupo pequeño de bits al final de cada unidad, siendo estos bits redundantes con una parte de la información, esos bits redundantes se descartan una vez comprobada la integridad de la transmisión.
En las comunicaciones de datos se usan cuatro tipos de comprobación de redundancia: verificación de redundancia vertical (VRC, Vertical Redundancy Check) conocida como verificación de paridad, verificación de redundancia longitudinal (LRC longitudinal Redundancy Check), verificación de redundancia cíclica (CRC Cyclic Redundandy Check) y suma de comprobación (Checksum). Las tres primeras se implementan habitualmente en el nivel físico para que pueda usarlo en nivel de enlace de datos, mientras que la suma de comprobación se usa en los niveles más altos.
Verificación

de redundancia vertical VRC
Es el mecanismo más frecuente y barato, la VRC se denomina a menudo verificación de paridad, y se basa en añadir un bit de redundancia, denominado bit de paridad, al final de cada unidad de datos, de forma que el número total de unos en la unidad (incluyendo el bit de paridad) sea par, o impar en el caso de la verificación de paridad impar.


Esta técnica permite reconocer un error de un único bit, y también de ráfaga siempre que el número total de bits cambiados sea impar .La función de paridad (par o impar) suma el dato y devuelve la cantidad de unos que tiene el dato, comparando la paridad real (par o impar) con la esperada (par o impar).


Verificación de redundancia longitudinal LRC
En esta técnica, los bloques de bits se organizan en forma de tabla (filas y columnas), a continuación se calcula un bit de paridad para cada columna y se crea una nueva fila de bits, que serán los bits de paridad de todo el bloque, a continuación se añaden los bits de paridad al dato y se envían al receptor.
Típicamente los datos se agrupa en unidades de múltiplos de 8 -1 byte- (8, 16, 24,32 bits) la función coloca los octetos uno debajo de otro y calcula la paridad de los bits primeros, de los segundos, etc, generando otro octeto cuyo primer bit es el de paridad de todos los primeros bits, etc.

Esta técnica incrementa la probabilidad de detectar errores de ráfaga, ya que una LRC de n bits (n bits de paridad) puede detectar una ráfaga de más de n bits, sin embargo un patrón de ráfaga que dañe algunos bits de una unidad de datos y otros bits de otra unidad exactamente en la misma posición, el comprobador de LRC no detectará un error.

Verificación de redundancia cíclica CRC
A diferencia de las técnicas VRC y LRC, que se basan en la suma (para calcular la paridad), la técnica CRC se basa en la división binaria. En esta técnica, se añaden bits redundantes en la unidad de datos de forma que los todo el conjunto sea divisible exactamente por un número binario determinado, en el destino los datos recibidos son divididos por ese mismo número, si en ese caso no hay resto de la operación, el dato es aceptado, si apareciera un resto de la división, el dato se entendería que se ha corrompido y se rechazará.
La técnica añade unos bits de CRC, de la siguiente manera en tres pasos básicos: en primer lugar se añade una tira de n ceros, siendo n el número inmediatamente menor al número de bits del divisor predefinido (que tiene n+1 bits), el segundo paso es dividir la nueva unidad de datos por el divisor predefinido usando un proceso de división binaria, el resto que quedara sería los bits de CRC a añadir, el tercer paso es sustituir los n bits añadidos en el paso primero por los n bits del resto de la operación del segundo paso, el dato final será divisible exactamente por el divisor predefinido. La imagen muestra el esquema del proceso.

Sumas de comprobación.
Es el método de detección usado por los protocolos de alto nivel, se basa en el concepto de redundancia.





Generador de suma de comprobación.
En el emisor, el generador subdivide la unidad de datos en segmentos iguales de n bits (habitualmente n=16), estos segmentos se suman usando una aritmética de complemento a uno, de forma que la suma sea también n bits, a continuación se complementa la suma y ese dato complementado se añade al final de la unidad de datos original como bits de redundancia, la unidad extendida se transmite por la red.
Comprobador de suma de comprobación.
El receptor subdivide las unidades de datos en los mismos n bits, suma todos los segmentos (incluidos los bits de redundancia) y luego complementa el resultado, si la unidad de datos está intacta, el valor final que se obtiene es nulo (n bits 0), si en resultado no es cero, el paquete contiene un error y es rechazado.
Corrección de errores
Los mecanismos explicados detectan errores pero no los corrigen. La corrección del error se puede conseguir de dos formas, en la primera, cuando de descubre un error el receptor puede pedir al emisor que retransmita toda la unidad de datos, con la segunda, el receptor puede usar un código de corrección de errores que corrija automáticamente determinados errores. En teoría es posible corregir automáticamente cualquier error en un código binario, sin embargo los códigos de corrección son más sofisticados que los de detección y necesitan mas
bits de redundancia, el número de bits necesarios es tan alto que su uso no es eficiente, por esa razón la mayoría de la corrección se limita a errores de tres bits o menos.
Corrección de errores de un único bit
El concepto de la corrección de errores se puede comprender con el caso más sencillo: el error de un único bit. Un error de un bit supone que un bit ha cambiado de un 0 a un 1 o de un 1 a un 0, para corregir el error, el receptor sólo tiene que invertir el valor del bit alterado, sin embargo, para hacer eso, el receptor debe saber en qué bit está el error, por lo que el secreto de la corrección de errores es localizar el bit o bits inválidos. La cuestión es el uso de los bits de redundancia para la corrección. Ahora bien ¿cuantos bits de redundancia usar?
Para calcular el número de bits de redundancia r necesarios para corregir un número de bits de datos m, es necesario encontrar una relación entre m y r.
Si a m de datos bits se le añaden r bits de redundancia, la unidad transmitida es m+r, los bits de redundancia r deben ser capaces de indicar todas las posibilidades de error de 1 bit posibles, incluyendo el no error, que en m+r bits es de m+r+1 posibilidades (no error, error en bit0, error en bit 1, etc), por ello r debe ser capaz de indicar todas esos estados. Dado que los r bits pueden representar 2r estados, entonces r debe ser tal que 2r ≥m + r + 1.
Código Hamming
Se pueden utilizar los bits de redundancia para corregir errores, pero ¿cómo se manipulan esos bits para descubrir en qué posición se ha producido el error? R. W. Hamming desarrolló una técnica que proporciona una solución práctica. El código Hamming se puede aplicar a unidades de datos de cualquier longitud y usa la relación de bits de datos y de redundancia. En el código cada bit r es el bit de VRC (redundancia vertical) para una combinación de bits de datos. Por ejemplo, un dato de 7 bits necesita 4 bits de redundancia, los colocaremos en las posiciones 1, 2, 4 y 8, con lo que la secuencia transmitida es la que indica la figura.

Detección y corrección.
El receptor recibe la transmisión, toma los datos y recalcula cuatro nuevos VRC usando el mismo conjunto de bits usados en el cálculo en el emisor, a continuación reensambla los nuevos valores de paridad siguiendo el orden de la posición (r8, r4, r2, r1) la cifra resultante indica si ha habido error y en qué bit se ha producido. Si el resultado es 0000 no ha habido error, cualquier otro resultado indica error y bit erróneo. Una vez identificado el bit erróneo, el receptor puede cambiar el valor de ese bit para corregir el error.


Corrección de errores de ráfaga.
Se puede diseñar un código Hamming para corregir errores de ráfaga de una cierta longitud, sin embargo el número de bits de redundancia necesarios es muy elevado, porque los errores pueden ser de tantos bits pero pueden estar en cualquiera de los bits de la cadena transmitid


6.3 PROTOCOLO

DEFINICIÓN:

En el campo de las telecomunicaciones, un protocolo de comunicaciones es el conjunto de reglas normalizadas para la representación, señalización, autenticación y detección de errores necesario para enviar información a través de un canal de comunicación. Un ejemplo de un protocolo de comunicaciones simple adaptado a la comunicación por voz es el caso de un locutor de radio hablando a sus radioyentes.
Los protocolos de comunicación para la comunicación digital por redes de computadoras tienen características destinadas a asegurar un intercambio de datos fiable a través de un canal de comunicación imperfecto. Los protocolos de comunicación siguen ciertas reglas para que el sistema funcione apropiadamente
• Sintaxis: se especifica como son y cómo se construyen.
• Semántica: que significa cada comando o respuesta del protocolo respecto a sus parámetros/datos.
• Procedimientos de uso de esos mensajes: es lo que hay que programar realmente (los errores, como tratarlos).

Función De Un Protocolo
Cuando se realiza un intercambio de datos entre computadores, terminales y/u otros dispositivos se requieren las siguientes tareas: (similitud de conversación entre un profesor y un alumno)
1. El sistema fuente de información debe activar el camino directo de datos o bien proporcionar a la red de comunicación la identificación del sistema destino deseado. (....Señor Juan M.,...)
2. El sistema fuente debe asegurarse de que el destino está preparado para recibir los datos. (....Señor Juan M., míreme...)
3. La aplicación de transferencia de fichero en el origen debe asegurarse de que el programa gestor en el destino esta preparado para aceptar y almacenar el fichero para el usuario determinado. (....Señor Juan M., míreme..., Don José le estoy escuchando....)
4. Si los formatos de los ficheros son incompatibles uno de los sistemas deberá realizar una operación de adecuación. (....Señor Juan M., míreme..., Don José le estoy escuchando.... perdone pero tengo que acercarme para escucharle mejor).
Para la comunicación entre dos entidades situadas en sistemas diferentes (entidad es cualquier cosa capaz de enviar y recibir información. Sistema es un objeto físico que contiene una o más entidades), es necesario la definición y utilización de un protocolo. Los protocolos se pueden definir como el conjunto de reglas que gobiernan el intercambio de datos entre dos entidades. Los puntos que define o caracteriza un protocolo son:
􀀩 La sintaxis: Incluye aspectos como el formato de datos y niveles de señal.
􀀩 La semántica: Incluye información de control para la coordinación y manejo de errores.
􀀩 La temporización: Incluye la sincronización de velocidades y la secuenciación.
Para conseguir un alto grado de cooperación entre los computadores, en lugar de implementar toda la lógica de comunicación en un único módulo, dicha tarea se divide en subtareas, cada una de las cuales se realiza por separado. Esta estructura se denomina arquitectura de protocolos.
Los protocolos pueden ser:
Directo. Los datos e información de control pasan directamente entre las entidades sin intervención de un agente activo.
Indirecto. Las dos entidades no se pueden comunicar directamente sino a través de una red conmutada o de una interconexión de redes.
Monolítico. El protocolo no está estructurado en capas. El paquete debe incluir toda
la lógica del protocolo.
Estructurado. El protocolo posee una estructura jerárquica, en capas. Entidades de nivel inferior ofrecen servicio a entidades de nivel superior. A todo el conjunto de hardware y software, se le denomina arquitectura.
Simétrico. La comunicación se realiza entre unidades paritarias.
Asimétrico. Las entidades que se conectan no son paritarias. Por ejemplo un proceso “cliente” y otro “servidor”, o para simplificar al máximo la lógica de una de las dos entidades, de forma que una asuma la operación (Por ejemplo en HDCL).
Estándares. El protocolo es extensivo a todas las fuentes y receptores de información.
No estándares. Protocolo particular. Se utiliza para situaciones de comunicación muy específicas.
Protocolos CAN
El Medio De Comunicación
El protocolo CAN al igual que el protocolo VAN, no impone soporte de comunicación. El medio utiliza un par de cables conductores.
Se denominará a los dos cables CAN H (CAN HIGH) CAN L (CAN LOW) Líneas (par) trenzadas(o)

La línea física que constituye el bus es llamada igualmente par diferencial. Estos pares diferenciales están trenzados con el fin de reducir las perturbaciones radioeléctricas (las radiaciones de campo emitidas por los cables se anulan).La diferencia de potencial eléctrico entre estos dos cables permitirá codificar dos estados lógicos distintos:
CODIFICACION DE LAS INFORMACIONES
El protocolo CAN utiliza la codificación NRZ y MANCHESTER contrariamente al VAN que inserta un bit inverso cada 4 bits, el CAN utiliza el método del "bit stuffing" o bit de relleno. El bit invertido permitirá la sincronización del reloj del receptor provocando un frente ascendente o descendente. Después de cinco bits de mismo nivel, un bit de nivel inverso sin ningún significado es añadido.

Protocolos VAN

Este proceso permite:
• Limitación de las radiaciones emitidas,
• Compensación de los de calajes de masa,
• Muy buen comportamiento antes las perturbaciones (ver croquis).
• Funcionamiento en modo degradado si uno u otro de los cables está seccionado, en cortocircuito a positivo, o a masa.
• En el caso de pérdida de un cable, la electrónica compara el nivel de tensión de la señal respecto a un umbral, y decide si la señal se encuentra a 1 o a 0. La electrónica indicará igualmente los defectos de las líneas de datos.
Protocolo LIN BUS
Local InterConnect significa aquí, que todas las unidades de control están localizadas en una zona limitada (p. ej. en el techo). También se le da el nombre de «subsistema local».
En el caso del LIN-Bus se trata de un bus monoalámbrico. El cable tiene el color básico violeta y un color de identificación. La sección del conductor es de 0,35 mm2. No requiere apantallado.
El sistema permite el intercambio de datos entre una unidad de control LIN maestra y hasta 16 unidades de control LIN esclavas.

la que ejecuta las funciones de maestra en el LIN-Bus.
Funciones asignadas
• Controla la transmisión de datos y su velocidad. La unidad de control LIN maestra transmite el encabezamiento del mensaje (header, ver página 12).
• En el software se define un ciclo, según el cual se han de transmitir mensajes al LINBus y se especifica cuáles.
• Asume la función de traducción entre las unidades de control LIN abonadas al sistema del LIN-Bus local y el CAN-Bus de datos. De esa forma es la única unidad de control del LIN-Bus que va conectada a su vez al CAN-Bus.
• La diagnosis de las unidades de control LIN esclavas que lleva conectadas se realiza a través de la unidad de control LIN maestra.




6.3.1 ESTÁNDARES


X10: es un protocolo de comunicaciones para el control remoto de dispositivos eléctricos. Utiliza la línea eléctrica (220V o 110V) para transmitir señales de control entre equipos de automatización del hogar en formato digital. El problema es que este protocolo ha tenido que ser desestimado y ahora se utiliza el EIB.pl para la transmisión por la red eléctrica. Los dispositivos X10 que se comercializan son solo para uso individual y es complicado el enlazarlos para crear un autentico proyecto domótico. Las señales de control de X10 se basan en la transmisión de ráfagas de pulsos de RF (120 kHz) que representan información digital. Estos pulsos se sincronizan en el cruce por cero de la señal de red (50 Hz ó 60 Hz). Con la presencia de un pulso en un semiciclo y la ausencia del mismo en el semiciclo siguiente se representa un '1' lógico y a la inversa se representa un '0'. A su vez, cada orden se transmite 2 veces, con lo cual toda la información transmitida tiene cuádruple redundancia. Cada orden involucra 11 ciclos de red (220ms para 50 Hz y 183,33, para 60Hz). Primero se transmite una orden con el Código de Casa y el Número de Módulo que direccionan el módulo en cuestión. Luego se transmite otro orden con el código de función a realizar (Function Code). Hay 256 direcciones soportadas por el protocolo.

KNX/EIB: Bus de Instalación Europeo con más de 20 años y más de 100 fabricantes de productos compatibles entre sí.

ZigBee: Es el nombre de la especificación de un conjunto de protocolos de alto nivel de comunicación inalámbrica para su utilización con radiodifusión digital de bajo consumo, basada en el estándar IEEE 802.15.4 de redes inalámbricas de área personal (wireless personal área network, WPAN). Su objetivo son las aplicaciones que requieren comunicaciones seguras con baja tasa de envío de datos y maximización de la vida útil de sus baterías. Protocolo estándar, recogido en el IEEE 802.15.4, de comunicaciones inalámbrico. Los protocolos ZigBee están definidos para su uso en aplicaciones encastradas con requerimientos muy bajos de transmisión de datos y consumo energético. Se pretende su uso en aplicaciones de propósito general con características auto organizativas y bajo costo (redes en malla, en concreto). Puede utilizarse para realizar control industrial, albergar sensores empotrados, recolectar datos médicos, ejercer labores de detección de humo o intrusos o domótica. La red en su conjunto utilizará una cantidad muy pequeña de energía de forma que cada dispositivo individual pueda tener una autonomía de hasta 5 años antes de necesitar un recambio en su sistema de alimentación.

OSGi: Open Services Gateway Initiative. Especificaciones abiertas de software que permita diseñar plataformas compatibles que puedan proporcionar múltiples servicios. Ha sido pensada para su compatibilidad con Jini o UPnP.

LonWorks: Plataforma estandarizada para el control de edificios, viviendas, industria y transporte.

Universal Plug and Play (UPnP): Arquitectura software abierta y distribuida que permite el intercambio de información y datos a los dispositivos conectados a una red.