Unidad III: Estándares y protocolos de redes. · 2020. 6. 12. · los tipos de cables que se...
Transcript of Unidad III: Estándares y protocolos de redes. · 2020. 6. 12. · los tipos de cables que se...
Unidad III: Estándares y protocolos de redes.
Durante las últimas dos décadas ha habido un enorme crecimiento en la cantidad y tamaño
de las redes. Muchas de ellas sin embargo, se desarrollaron utilizando implementaciones de
hardware y software diferentes. Como resultado, muchas de las redes eran incompatibles y
se volvió muy difícil para las redes que utilizaban especificaciones distintas poder
comunicarse entre sí. Para solucionar este problema, la Organización Internacional para la
Normalización (ISO) realizó varias investigaciones acerca de los esquemas de red. La ISO
reconoció que era necesario crear un modelo de red que pudiera ayudar a los diseñadores de
red a implementar redes que pudieran comunicarse y trabajar en conjunto
(interoperabilidad) y por lo tanto, elaboraron el modelo de referencia OSI en 1984.
3.1 Estándares de Conexión LAN de la IEEE.
IEEE corresponde a las siglas de The Institute of Electrical and Electronics
Engineers, el Instituto de Ingenieros Eléctricos y Electrónicos, una asociación técnico-
profesional mundial dedicada a la estandarización, entre otras cosas. Es la mayor
asociación internacional sin fines de lucro formada por profesionales de las nuevas
tecnologías, como ingenieros eléctricos, ingenieros en electrónica, científicos de la
computación e ingenieros en telecomunicación....
Su creación se remonta al año 1884, contando entre sus fundadores a personalidades
de la talla de Thomas Alva Edison, Alexander Graham Bell y Franklin Leonard Pope. En
1963 adoptó el nombre de IEEE al fusionarse asociaciones como el AIEE (American
Institute of Electrical Engineers) y el IRE (Institute of Radio Engineers).
A través de sus miembros, más de 360.000 voluntarios en 175 países, el IEEE es una
autoridad líder y de máximo prestigio en las áreas técnicas derivadas de la eléctrica
original: desde ingeniería computacional, tecnologías biomédica y aeroespacial, hasta
las áreas de energía eléctrica, control, telecomunicaciones y electrónica de consumo,
entre otras.
Según el mismo IEEE, su trabajo es promover la creatividad, el desarrollo y la
integración, compartir y aplicar los avances en las tecnologías de la información,
electrónica y ciencias en general para beneficio de la humanidad y de los mismos
profesionales. Algunos de sus estándares son:
VHDL
POSIX
IEEE 1394
IEEE 488
IEEE 802
IEEE 802.11
IEEE 754
IEEE 830
Mediante sus actividades de publicación técnica, conferencias y estándares basados en
consenso, el IEEE produce más del 30% de la literatura publicada en el mundo sobre
ingeniería eléctrica, en computación, telecomunicaciones y tecnología de control,
organiza más de 350 grandes conferencias al año en todo el mundo, y posee cerca de
900 estándares activos, con otros 700 más bajo desarrollo.
3.1.1 Proyecto 802 Conexión.
Cuando comenzaron a aparecer las primeras redes de área local (LAN, Local Area
Networks) como herramientas potenciales de empresa a finales de los setenta, el IEEE
observó que era necesario definir ciertos estándares para redes de área local. Para
conseguir esta tarea, el IEEE emprendió lo que se conoce como proyecto 802, debido
al año y al mes de comienzo (febrero de 1980).
Aunque los estándares IEEE 802 publicados realmente son anteriores a los estándares
ISO, ambos estaban en desarrollo aproximadamente al mismo tiempo y compartían
información que concluyó en la creación de dos modelos compatibles.
El proyecto 802 definió estándares de redes para los componentes físicos de una red
(la tarjeta de red y el cableado) que se corresponden con los niveles físico y de enlace
de datos del modelo OSI.
Las especificaciones 802 definen estándares para:
1. Tarjetas de red (NIC).
2. Componentes de redes de área global (WAN, Wide Area Networks).
3. Componentes utilizadas para crear redes de cable coaxial y de par trenzado.
Las especificaciones 802 definen la forma en que las tarjetas de red acceden y
transfieren datos sobre el medio físico. Éstas incluyen conexión, mantenimiento y
desconexión de dispositivos de red.
La selección del protocolo a ejecutar en el nivel de enlace de datos es la decisión más
importante que se debe tomar cuando se diseña una red de área local (LAN). Este
protocolo define la velocidad de la red, el método utilizado para acceder a la red física,
los tipos de cables que se pueden utilizar y las tarjetas de red y dispositivos que se
instalan.
3.1.2 802.1 Conexión entre Redes.
La IEEE 802.1X es una norma de la IEEE para control de admisión de red basada en
puertos. Es parte del grupo de protocolos IEEE 802 (IEEE 802.1). Permite la
autenticación de dispositivos conectados a un puerto LAN, estableciendo una conexión
punto a punto o previniendo el acceso por ese puerto si la autenticación falla. Es
utilizado en algunos puntos de acceso inalámbricos cerrados y se basa en el protocolo
de autenticación extensible (EAP–RFC 2284). El RFC 2284 ha sido declarado obsoleto
en favor del RFC 3748.
802.1X está disponible en ciertos conmutadores de red y puede configurarse para
autenticar nodos que están equipados con software suplicante. Esto elimina el acceso
no autorizado a la red al nivel de la capa de enlace de datos.
Algunos proveedores están implementando 802.1X en puntos de acceso inalámbricos
que pueden utilizarse en ciertas situaciones en las cuales el punto de acceso necesita
operarse como un punto de acceso cerrado, corrigiendo fallas de seguridad de WEP.
Esta autenticación es realizada normalmente por un tercero, tal como un servidor de
RADIUS. Esto permite la autenticación sólo del cliente o, más apropiadamente, una
autenticación mutua fuerte utilizando protocolos como EAP-TLS.
La norma 802.1 describe la interrelación entre las partes del documento y su relación
con el Modelo de Referencia ISO. También contiene información sobre normas de
gestión de red e interconexión de redes. Establece los estándares de interconexión
relacionados con la gestión de redes.
3.1.3 802.2 Control de Enlace Lógico (LLC).
IEEE 802.2 es el estándar IEEE 802 que define el control de enlace lógico (LLC), que es
la parte superior de la capa enlace en las redes de área local. La subcapa LLC presenta
un interfaz uniforme al usuario del servicio enlace de datos, normalmente la capa de
red. Bajo la subcapa LLC esta la subcapa Media Access Control (MAC), que depende de
la configuración de red usada (Ethernet, token ring, FDDI, 802.11, etc.).
El estándar IEEE incluye esta subcapa que añade las etiquetas estándar de 8-bit DSAP
(Destination Service Access Point) and SSAP (Source Service Access Point) a los
paquetes del tipo de conexión. También hay un campo de control de 8 o 16 bits usado
en funciones auxiliares como Control de flujo. Hay sitio para 64 números SAP
globalmente asignados, y la IEEE no los asigna a la ligera. Cada IP no tiene un número
SAP asignado, porque solo los “estándares internacionales” pueden tener números
SAP. Los protocolos que no lo son pueden usar un número SAP del espacio de SAP
administrado localmente. EL Subnetwork Access Protocol (SNAP) permite valores
EtherType usados para especificar el protocolo transportado encima de IEEE 802.2, y
también permite a los fabricantes definir sus propios espacios de valores del protocolo.
3.1.4 802.3 Ethernet.
La primera versión fue un intento de estandarizar ethernet aunque hubo un campo de
la cabecera que se definió de forma diferente, posteriormente ha habido ampliaciones
sucesivas al estándar que cubrieron las ampliaciones de velocidad (Fast Ethernet,
Gigabit Ethernet y el de 10 Gigabits), redes virtuales, hubs, conmutadores y distintos
tipos de medios, tanto de fibra óptica como de cables de cobre (tanto par trenzado
como coaxial).
Los estándares de este grupo no reflejan necesariamente lo que se usa en la práctica,
aunque a diferencia de otros grupos este suele estar cerca de la realidad.
3.1.5 802.4 Token Bus.
Las redes que siguen el protocolo IEEE 802.3 se han extendido rápidamente, sobre
todo por su facilidad de instalación. Sin embargo, tienen un problema que representa
un escollo importante en algunas aplicaciones: su carácter probabilístico en la
resolución de las colisiones puede provocar retardos importantes en las transmisiones
en casos extremos. Algunas aplicaciones no soportan tales retardos, sobre todo las que
son críticas en el tiempo, es decir, en aplicaciones en tiempo real, como el control de
procesos industriales.
Una red que no tiene el problema de colisiones podría ser una red en anillo, como
veremos más adelante. Sin embargo, la topología física en anillo tiene desventajas
importantes cuando el ámbito de la red es más amplio: es más fácil cablear un edificio
con segmentos de cable longitudinales que con líneas circulares.
Estas razones pusieron en marcha que la IEEE pensara en un nuevo estándar que
aglutinara las ventajas físicas de una red en bus con las lógicas de una red en anillo. El
resultado fue el estándar IEEE 802.4, que define una red en bus por paso de
testigo. El testigo no es más que una trama de control que informa del permiso que
tiene una estación para usar los recursos de la red. Ninguna estación puede transmitir
mientras no recibe el testigo que la habilita para hacerlo.
La red IEEE 802.4 está físicamente constituida como un bus, semejante al de la red
IEEE 802.3, aunque desde el punto de vista lógico la red se organiza como si se
tratase de un anillo. Cada estación tiene un número asociado por el que es identificada
unívocamente. El testigo es generado por la estación con el número mayor cuando se
pone en marcha la red. El testigo se pasa a la estación siguiente en orden descendente
de numeración. Esta nueva estación recoge el testigo y se reserva el derecho de
emisión. Cuando ha transmitido cuanto necesitaba, o si ha expirado un tiempo
determinado, debe generar otro testigo con la dirección de la inmediatamente inferior.
El proceso se repite para cada estación de la red. De este modo, todas las estaciones
pueden transmitir periódicamente; se trata, por tanto, de un complejo sistema de
multiplexación en el tiempo.
Evidentemente, el protocolo MAC de la IEEE 802.4 debe prever el modo en que las
estaciones se incorporarán al anillo lógico cuando sean encendidas o, por el contrario,
la manera en que se desconectarán, sin interrumpir por ello el procedimiento lógico de
paso de testigo.
En la capa física, la red IEEE 802.4 utiliza cable coaxial de 75 ohmios por el que
viajarán señales moduladas, es decir, IEEE 802.4 es una red en banda ancha que
modula sus señales en el nivel físico. También se permite la utilización de repetidores
con objeto de alargar la longitud de la red. Las velocidades de transferencia de datos
que prevé esta norma están comprendidas entre 1,5 y 10 Mbps. Hay que hacer notar
que aunque la estructura física de la IEEE 802.3 y de la IEEE 802.4 es semejante
desde el punto de vista topológico, las normas son totalmente incompatibles desde el
punto de vista físico: ni el medio de transmisión es el mismo, ni la codificación de las
señales coinciden.
3.1.6 802.5 Token Ring.
El IEEE 802.5 es un estándar definido por el Institute of Electrical and Electronics
Engineers (IEEE), y define una red de área local (LAN) en configuración de anillo
(Ring), con método de paso de testigo (Token) como control de acceso al medio. Su velocidad del estándar es de 4 ó 16 Mbps.
El primer diseño de una red de Token Ring fue atribuido a E. E. Newhall en el año
1969. International Business Machines (IBM) publicó por primera vez su topología de
Token Ring en marzo de 1982, cuando esta compañía presentó los papeles para el
proyecto 802 del IEEE. IBM anunció un producto Token Ring en 1984, y en 1985 éste llegó a ser un estándar de ANSI/IEEE.
Es casi idéntica y totalmente compatible con la red del token ring de IBM. De hecho, la
especificación de IEEE 802.5 fue modelada después del token ring, y continúa
sombreando el desarrollo del mismo. Además, el token ring de la IBM especifica una
estrella, con todas las estaciones del extremo unidas a un dispositivo al que se le llama
"unidad del acceso multiestación" (MSAU). En contraste, IEEE 802.5 no especifica una
topología, aunque virtualmente todo el IEEE 802.5 puesto en práctica se basa en una
estrella, y tampoco especifica un tipo de medios, mientras que las redes del token ring de la IBM utilizan el tamaño del campo de información de encaminamiento.
El IEEE 802.5 soporta dos tipos de frames básicos: tokens y frames de comandos y de
datos. El Token es una trama que circula por el anillo en su único sentido de
circulación. Cuando una estación desea transmitir y el Token pasa por ella, lo toma.
Éste sólo puede permanecer en su poder un tiempo determinado (10 ms). Tienen una
longitud de 5 bytes y consiste en un delimitador de inicio, un byte de control de acceso
y un delimitador de fin. En cuanto a los Frames de comandos y de datos pueden
variar en tamaño, dependiendo del tamaño del campo de información. Los frames de
datos tienen información para protocolos mayores, mientras que los frames de comandos contienen información de control.
3.1.7 802.6 FDDI.
IEEE 802.6 es un estándar de la serie 802 referido a las redes MAN (Metropolitan Area
Network). Actualmente el estándar ha sido abandonado debido al desuso de las redes
MAN, y a algunos defectos provenientes de este protocolo (no es muy efectivo al
conectar muchas estaciones de trabajo).
El IEEE 802.6, también llamado DQDB (Distributed Queue Dual Bus, bus doble de colas
distribuidas), está formado por dos buses unidireccionales paralelos que serpentean a
través del área o ciudad a cubrir. Cada bus tiene un Head-end, el cual genera células
para que viajen corriente abajo.
Cuando una estación desea transmitir tiene que confirmar primero la dirección del
receptor (si esta a la derecha o a la izquierda) y luego tomar el bus correspondiente.
Esto generó un gran problema ya que una vez conformada la red, cada estación tiene
que chequear las direcciones de las otras estaciones, generando grandes demoras de
tiempo.
3.1.8 802.11 LAN inalámbricas.
El protocolo IEEE 802.11 o WI-FI es un estándar de protocolo de comunicaciones del
IEEE que define el uso de los dos niveles más bajos de la arquitectura OSI (capas física
y de enlace de datos), especificando sus normas de funcionamiento en una WLAN. En
general, los protocolos de la rama 802.x definen la tecnología de redes de área local.
La familia 802.11 actualmente incluye seis técnicas de transmisión por modulación que
utilizan todas los mismos protocolos. El estándar original de este protocolo data de
1997, era el IEEE 802.11, tenía velocidades de 1 hasta 2 Mbps y trabajaba en la banda
de frecuencia de 2,4 GHz En la actualidad no se fabrican productos sobre este
estándar.
El término IEEE 802.11 se utiliza también para referirse a este protocolo al que ahora
se conoce como "802.11legacy." La siguiente modificación apareció en 1999 y es
designada como IEEE 802.11b, esta especificación tenía velocidades de 5 hasta 11
Mbps, también trabajaba en la frecuencia de 2,4 GHz. También se realizó una
especificación sobre una frecuencia de 5 Ghz que alcanzaba los 54 Mbps, era la
802.11a y resultaba incompatible con los productos de la b y por motivos técnicos casi
no se desarrollaron productos. Posteriormente se incorporó un estándar a esa
velocidad y compatible con el b que recibiría el nombre de 802.11g.
En la actualidad la mayoría de productos son de la especificación b y de la g . El
siguiente paso se dará con la norma 802.11n que sube el límite teórico hasta los 600
Mbps. Actualmente ya existen varios productos que cumplen un primer borrador del
estándar N con un máximo de 300 Mbps (80-100 estables).
La seguridad forma parte del protocolo desde el principio y fue mejorada en la revisión
802.11i. Otros estándares de esta familia (c–f, h–j, n) son mejoras de servicio y
extensiones o correcciones a especificaciones anteriores. El primer estándar de esta
familia que tuvo una amplia aceptación fue el 802.11b. En 2005, la mayoría de los
productos que se comercializan siguen el estándar 802.11g con compatibilidad hacia el
802.11b.
Los estándares 802.11b y 802.11g utilizan bandas de 2,4 Ghz que no necesitan de
permisos para su uso. El estándar 802.11a utiliza la banda de 5 GHz. El estándar
802.11n hará uso de ambas bandas, 2,4 GHz y 5 GHz. Las redes que trabajan bajo los
estándares 802.11b y 802.11g pueden sufrir interferencias por parte de hornos
microondas, teléfonos inalámbricos y otros equipos que utilicen la misma banda de 2,4
Ghz.
Los estándares de redes de área local definidos por los comités 802 se clasifican en 16
categorías que se pueden identificar por su número acompañado del 802:
Categorías de las especificaciones 802
Especificaci
ón
Descripción
802.1 Establece los estándares de interconexión relacionados con la gestión
de redes.
802.2 Define el estándar general para el nivel de enlace de datos. El IEEE
divide este nivel en dos subniveles: los niveles LLC y MAC. El nivel
MAC varía en función de los diferentes tipos de red y está definido por
el estándar IEEE 802.3.
802.3 Define el nivel MAC para redes de bus que utilizan Acceso múltiple por
detección de portadora con detección de colisiones (CSMA/CD,
Carrier-Sense Multiple Access with Collision Detection). Éste es el
estándar Ethernet.
802.4 Define el nivel MAC para redes de bus que utilizan un mecanismo de
paso de testigo (red de área local Token Bus).
802.5 Define el nivel MAC para redes Token Ring (red de área local Token
Ring).
802.6 Establece estándares para redes de área metropolitana (MAN,
Metropolitan Area Networks), que son redes de datos diseñadas para
poblaciones o ciudades. En términos de extensión geográfica, las
redes de área metropolitana (MAN) son más grandes que las redes de
área local (LAN), pero más pequeñas que las redes de área global
(WAN). Las redes de área metropolitana (MAN) se caracterizan,
normalmente, por conexiones de muy alta velocidad utilizando cables
de fibra óptica u otro medio digital.
802.7 Utilizada por el grupo asesor técnico de banda ancha (Broadband
Technical Advisory Group).
802.8 Utilizada por el grupo asesor técnico de fibra óptica (Fiber-Optic
Technical Advisory Group).
802.9 Define las redes integradas de voz y datos.
802.10 Define la seguridad de las redes.
802.11 Define los estándares de redes sin cable.
802.11b Ratificado el 16 de Septiembre de 1.999, proporciona el espaldarazo
definitivo a la normativa estándar inicial, ya que permite operar a
velocidades de 11 Mbps y resuelve carencias técnicas relativas a la
falta de itinerancia, seguridad, escalabilidad, y gestión existentes
hasta ahora.
802.12 Define el acceso con prioridad por demanda (Demand Priority Access)
a una LAN, 100BaseVG-AnyLAN.
802.13 No utilizada.
802.14 Define los estándares de módem por cable.
802.15 Define las redes de área personal sin cable (WPAN, Wireless Personal
Area Networks).
802.16 Define los estándares sin cable de banda ancha.
3.2 Arquitectura de protocolos. La conexión de equipos informáticos distantes es, hoy por hoy, una tarea complicada,
y más si tenemos es cuenta las dimensiones y complejidad que puedan tener las redes
de las que forman parte esos equipos. Para poder solventarlo, se estructura el proceso
en varios problemas, cada uno debiendo resolver distintos aspectos del proceso
completo. Esto es lo que llamamos arquitectura de protocolos.
La funcionalidad de un sistema de telecomunicaciones se divide en subsistemas
jerárquicos. Cuando tenemos un subsistema debemos tener también los subsitemas
inferiores. Una arquitectura de protocolos es una técnica para estructurar
jerárquicamente la funcionalidad de un sistema de comunicaciones, utilizando
protocolos estructurados y definiendo su estructura.
3.2.1 TCP/IP.
Este no es un protocolo, si no un conjunto de protocolos, que toma su nombre de los
dos más conocidos: TCP (Transmission Control Protocol, protocolo de control de
transmisión) e IP (Internet Protocol). Esta familia de protocolos es la base de la red
Internet, la mayor red de ordenadores del mundo. Por lo cual, se ha convertido en el
más extendido.
HISTORIA
El Protocolo de Internet (IP) y el Protocolo de Transmisión (TCP), fueron desarrollados
inicialmente en 1973 por el informático estadounidense Vinton Cerf como parte de un
proyecto dirigido por el ingeniero norteamericano Robert Kahn y patrocinado por la
Agencia de Programas Avanzados de Investigación (ARPA, siglas en inglés) del
Departamento Estadounidense de Defensa. Internet comenzó siendo una red
informática de ARPA (llamada ARPAnet) que conectaba redes de computadoras de
varias universidades y laboratorios en investigación en Estados Unidos. World Wibe
Web se desarrolló en 1989 por el informático británico Timothy Berners-Lee para el
Consejo Europeo de Investigación Nuclear (CERN, siglas en francés).
La arquitectura del TCP/IP consta de cinco niveles o capas en las que se agrupan los
protocolos, y que se relacionan con los niveles OSI de la siguiente manera:
Aplicación: Se corresponde con los niveles OSI de aplicación, presentación y sesión.
Aquí se incluyen protocolos destinados a proporcionar servicios, tales como correo
electrónico (SMTP), transferencia de ficheros (FTP), conexión remota (TELNET) y otros
más recientes como el protocolo HTTP (Hypertext Transfer Protocol).
Transporte: Coincide con el nivel de transporte del modelo OSI. Los protocolos de este
nivel, tales como TCP y UDP, se encargan de manejar los datos y proporcionar la
fiabilidad necesaria en el transporte de los mismos.
Internet: Es el nivel de red del modelo OSI. Incluye al protocolo IP, que se encarga de
enviar los paquetes de información a sus destinos correspondientes. Es utilizado con
esta finalidad por los protocolos del nivel de transporte.
Físico : Análogo al nivel físico del OSI.
Red : Es la interfaz de la red real. TCP/IP no especifica ningún protocolo concreto, así
es que corre por las interfaces conocidas, como por ejemplo: 802.2, CSMA/CD, X.25,
etc.
PROTOCOLOS TCP/IP
FTP (File Transfer Protocol). Se utiliza para transferencia de archivos.
SMTP (Simple Mail Transfer Protocol). Es una aplicación para el correo electrónico.
TELNET: Permite la conexión a una aplicación remota desde un proceso o terminal.
RPC (Remote Procedure Call). Permite llamadas a procedimientos situados
remotamente. Se utilizan las llamadas a RPC como si fuesen procedimientos locales.
SNMP (Simple Network Management Protocol). Se trata de una aplicación para el
control de la red.
NFS (Network File System). Permite la utilización de archivos distribuidos por los
programas de la red.
X-Windows. Es un protocolo para el manejo de ventanas e interfaces de usuario.
LA DIRECCIÓN DE INTERNET
El protocolo IP identifica a cada computadora que se encuentre conectada a la red
mediante su correspondiente dirección. Esta dirección es un número de 32 bit que
debe ser único para cada host, y normalmente suele representarse como cuatro cifras
de 8 bit separadas por puntos. La dirección de Internet (IP Address) se utiliza para
identificar tanto a la computadora en concreto como la red a la que pertenece, de
manera que sea posible distinguir a las computadoras que se encuentran conectados a
una misma red. Con este propósito, y teniendo en cuenta que en Internet se
encuentran conectadas redes de tamaños muy diversos, se establecieron tres clases
diferentes de direcciones, las cuales se representan mediante tres rangos de valores:
Clase A:
Son las que en su primer byte tienen un valor comprendido entre 1 y 126, incluyendo
ambos valores. Estas direcciones utilizan únicamente este primer byte para identificar
la red, quedando los otros tres bytes disponibles para cada uno de los hosts que
pertenezcan a esta misma red. Esto significa que podrán existir más de dieciséis
millones de computadoras en cada una de las redes de esta clase. Este tipo de
direcciones es usado por redes muy extensas, pero hay que tener en cuenta que sólo
puede haber 126 redes de este tamaño. ARPAnet es una de ellas, existiendo además
algunas grandes redes comerciales, aunque son pocas las organizaciones que obtienen
una dirección de "clase A". Lo normal para las grandes organizaciones es que utilicen
una o varias redes de "clase B".
Clase B:
Estas direcciones utilizan en su primer byte un valor comprendido entre 128 y 191,
incluyendo ambos. En este caso el identificador de la red se obtiene de los dos
primeros bytes de la dirección, teniendo que ser un valor entre 128.1 y 191.254 (no es
posible utilizar los valores 0 y 255 por tener un significado especial). Los dos últimos
bytes de la dirección constituyen el identificador del host permitiendo, por
consiguiente, un número máximo de 64516 computadoras en la misma red. Este tipo
de direcciones tendría que ser suficiente para la gran mayoría de las organizaciones
grandes. En caso de que el número de computadoras que se necesita conectar fuese
mayor, sería posible obtener más de una dirección de "clase B", evitando de esta
forma el uso de una de "clase A".
Clase C:
En este caso el valor del primer byte tendrá que estar comprendido entre 192 y 223,
incluyendo ambos valores. Este tercer tipo de direcciones utiliza los tres primeros
bytes para el número de la red, con un rango desde 192.1.1 hasta 223.254.254. De
esta manera queda libre un byte para el host, lo que permite que se conecten un
máximo de 254 computadoras en cada red. Estas direcciones permiten un menor
número de host que las anteriores, aunque son las más numerosas pudiendo existir un
gran número redes de este tipo (más de dos millones).
En la clasificación de direcciones anterior se puede notar que ciertos números no se
usan. Algunos de ellos se encuentran reservados para un posible uso futuro, como es
el caso de las direcciones cuyo primer byte sea superior a 223 (clases D y E, que aún
no están definidas), mientras que el valor 127 en el primer byte se utiliza en algunos
sistemas para propósitos especiales. También es importante notar que los valores 0 y
255 en cualquier byte de la dirección no pueden usarse normalmente por tener otros
propósitos específicos.
El número 0 está reservado para las máquinas que no conocen su dirección, pudiendo
utilizarse tanto en la identificación de red para máquinas que aún no conocen el
número de red a la que se encuentran conectadas, en la identificación de host para
máquinas que aún no conocen su número de host dentro de la red, o en ambos casos.
El número 255 tiene también un significado especial, puesto que se reserva para el
broadcast. El broadcast es necesario cuando se pretende hacer que un mensaje sea
visible para todos los sistemas conectados a la misma red. Esto puede ser útil si se
necesita enviar el mismo datagrama a un número determinado de sistemas, resultando
más eficiente que enviar la misma información solicitada de manera individual a cada
uno.
LA NUEVA VERSIÓN DE IP (IPng)
La nueva versión del protocolo IP recibe el nombre de IPv6, aunque es también
conocido comúnmente como IPng (Internet Protocol Next Generation). El número de
versión de este protocolo es el 6 (que es utilizada en forma mínima) frente a la antigua
versión utilizada en forma mayoritaria. Los cambios que se introducen en esta nueva
versión son muchos y de gran importancia, aunque la transición desde la versión
antigua no debería ser problemática gracias a las características de compatibilidad que
se han incluido en el protocolo. IPng se ha diseñado para solucionar todos los
problemas que surgen con la versión anterior, y además ofrecer soporte a las nuevas
redes de alto rendimiento (como ATM, Gigabit Ethernet, etc.)
Una de las características más llamativas es el nuevo sistema de direcciones, en el cual
se pasa de los 32 a los 128 bit, eliminando todas las restricciones del sistema actual.
Otro de los aspectos mejorados es la seguridad, que en la versión anterior constituía
uno de los mayores problemas. Además, el nuevo formato de la cabecera se ha
organizado de una manera más efectiva, permitiendo que las opciones se sitúen en
extensiones separadas de la cabecera principal.
Formato de la cabecera
El tamaño de la cabecera que el protocolo IPv6 añade a los datos es de 320 bit, el
doble que en la versión antigua. Sin embargo, esta nueva cabecera se ha simplificado
con respecto a la anterior. Algunos campos se han retirado de la misma, mientras que
otros se han convertido en opcionales por medio de las extensiones. De esta manera
los routers no tienen que procesar parte de la información de la cabecera, lo que
permite aumentar de rendimiento en la transmisión. El formato completo de la
cabecera sin las extensiones es el siguiente:
Versión: Número de versión del protocolo IP, que en este caso contendrá el valor 6.
Tamaño: 4 bit.
Prioridad: Contiene el valor de la prioridad o importancia del paquete que se está
enviando con respecto a otros paquetes provenientes de la misma fuente. Tamaño: 4
bit.
Etiqueta de flujo: Campo que se utiliza para indicar que el paquete requiere un
tratamiento especial por parte de los routers que lo soporten. Tamaño: 24 bit.
Longitud: Es la longitud en bytes de los datos que se encuentran a continuación de la
cabecera. Tamaño: 16 bit.
Siguiente cabecera: Se utiliza para indicar el protocolo al que corresponde la cabecera
que se sitúa a continuación de la actual. El valor de este campo es el mismo que el de
protocolo en la versión 4 de IP. Tamaño: 8 bit.
Límite de existencia: Tiene el mismo propósito que el campo de la versión 4, y es un
valor que disminuye en una unidad cada vez que el paquete pasa por un nodo.
Tamaño:8 bit.
Dirección de origen: El número de dirección del host que envía el paquete. Su longitud
es cuatro veces mayor que en la versión 4. Tamaño: 128 bit.
Dirección de destino: Número de dirección de destino, aunque puede no coincidir con
la dirección del host final en algunos casos. Su longitud es cuatro veces mayor que en
la versión 4 del protocolo IP. Tamaño: 128 bit.
Las extensiones que permite añadir esta versión del protocolo se sitúan
inmediatamente después de la cabecera normal, y antes de la cabecera que incluye el
protocolo de nivel de transporte. Los datos situados en cabeceras opcionales se
procesan sólo cuando el mensaje llega a su destino final, lo que supone una mejora en
el rendimiento. Otra ventaja adicional es que el tamaño de la cabecera no está limitado
a un valor fijo de bytes como ocurría en la versión 4. Por razones de eficiencia, las
extensiones de la cabecera siempre tienen un tamaño múltiplo de 8 bytes.
Actualmente se encuentran definidas extensiones para routing extendido,
fragmentación y ensamblaje, seguridad, confidencialidad de datos, etc.
3.2.2 NetBEUI/NetBIOS.
NetBEUI (NetBIOS Extended User Interface, en español Interfaz extendida de
usuario de NetBIOS), es un protocolo de nivel de red sin encaminamiento y bastante
sencillo utilizado como una de las capas en las primeras redes de Microsoft. NetBIOS
sobre NetBEUI es utilizado por muchos sistemas operativos desarrollados en los 1990, como LAN Manager, LAN Server, Windows 3.x, Windows 95 y Windows NT.
Este protocolo a veces es confundido con NetBIOS, pero NetBIOS es una idea de como
un grupo de servicios deben ser dados a las aplicaciones. Con NetBEUI se convierte en
un protocolo que implementa estos servicios. NetBEUI puede ser visto como una
implementación de NetBIOS sobre IEEE 802.2 LLC. Otros protocolos, como NetBIOS
sobre IPX/SPX o NetBIOS sobre TCP/IP, también implementan los servicios de NetBIOS
pero con sus propias herramientas.
NetBEUI usa el modo 1 de IEEE 802.2 para proveer el servicio de nombres y el de
datagramas, y el modo 2 para proveer el servicio de sesión. NetBEUI abusa de los mensajes broadcast, por lo que se ganó la reputación de usar el interfaz en exceso.
NetBIOS fue desarrollada para las redes de IBM por Saytek, y lo uso también Microsoft
en su MS-NET en 1985. En 1987 Microsoft y Novell usaron también este protocolo para
su red de los sistemas operativos LAN Manager y NetWare.
Debido a que NetBEUI no tiene encaminamiento, sólo puede usarse para comunicar
terminales en el mismo segmento de red, pero puede comunicar dos segmentos de red que
estén conectados mediante un puente de red. Esto significa que sólo es recomendable para
redes medianas o pequeñas. Para poder usar este protocolo en redes más grandes de forma
óptima debe ser implementado sobre otros protocolos como IPX o TCP/IP.
3.2.3 IPX/SPX.
IPX/SPX (Internet Packet Exchange - Intercambio de Paquetes interred), cuyas siglas
provienen de Internetwork Packet Exchange/Sequenced Packet Exchange
(Intercambio de paquetes interred/Intercambio de paquetes secuenciales), es un
protocolo de red utilizado por los sistemas operativos Novell Netware. Como TCP/IP,
IPX es un protocolo de datagramas usado para comunicaciones no orientadas a
conexión. IPX y SPX derivan de los protocolos IDP y SPP de los servicios de red de Xerox.
SPX es un protocolo de la capa de transporte(nivel 4 del modelo OSI) utilizado en
redes Novell Netware. La capa SPX se sitúa encima de la capa IPX (nivel 3) y
proporciona servicios orientados a conexión entre dos nodos de la red. SPX se utiliza principalmente para aplicaciones cliente/servidor.
Mientras que el protocolo IPX es similar a IP, SPX es similar a TCP. Juntos, por lo
tanto, proporcionan servicios de conexión similares a TCP/IP. IPX se sitúa en el nivel
de red del modelo OSI y es parte de la pila de protocolos IPX/SPX. IPX/SPX fue
diseñado principalmente para redes de área local (LANs), y es un protocolo muy
eficiente para este propósito (típicamente su rendimiento supera al de TCP/IP en una
LAN). TCP/IP, sin embargo, se ha convertido en el protocolo estándar de facto en parte
por su superior rendimiento sobre redes de área extensa (WANs) e Internet (Internet
utiliza TCP/IP exclusivamente), y en parte porque es un protocolo más maduro y se diseñó específicamente con este propósito en mente.
El uso de IPX está disminuyendo desde que el boom de Internet hizo a TCP/IP casi
universal. Los ordenadores y las redes pueden usar múltiples protocolos de red, así
que casi todos los sitios con IPX estarán usando también TCP/IP para permitir la
conectividad con Internet. Ahora también es posible utilizar productos de Novell sin IPX, ya que desde hace algunas versiones soportan ambos, tanto IPX como TCP/IP.
3.2.4 Protocolos emergentes.
Protocolos emergentes de comunicaciones UWB, RFID-UHF, VPN, WPA
Alianza Gigabit Ethernet (GEA)
En marzo de 1996, el comité 802 de IEEE aprobó el proyecto estándar Gigabit Ethernet
802.3z. A la vez muchas 54 compañías expresaron el interés de participar en el
proyecto de estandarización, la Alianza Gigabit Ethernet fue formada en mayo de 1996
por 11 compañías: 3Com, Bay Networks, Cisco Systems, Compaq Computer, Granite
Systems, Intel Corporation, LSI Logic, Packet engines, Sun Microsystems Computer
Company, UB Networks y VLSI Technology.
La alianza representa un esfuerzo de multivendor para proveer sistemas abiertos e interoperables de productos Gigabit ethernet. Los objetivos de la alianza son:
Ser una extensión de soporte para las redes existentes Ethernet y Fast Ethernet
que requieren la demanda de un mayor ancho de banda.
Proponer el desarrollo de técnicas para la inclusión en el estándar. Establecer pruebas de procedimientos y procesos de interoperabilidad.
Como resultado de la investigación realizada por Xerox Corporation a principios de los
años 70, Ethernet se consagró como un protocolo ampliamente reconocido aplicado a
las capas física y de enlace. Posteriormente apareció Fast Ethernet que incrementó la
velocidad de 10 a 100 megabits por segundo (Mbit/s). Gigabit Ethernet fue la siguiente
evolución, incrementando en este caso la velocidad hasta 1000 Mbit/s. La idea de
obtener velocidades de gigabit sobre Ethernet se gestó durante 1995, una vez
aprobado y ratificado el estándar Fast Ethernet, y prosiguió hasta su aprobación en
junio de 1998 por el IEEE como el estándar 802.3z (z, por ser la última letra del
alfabeto, y pensar que sería la última de la familia Ethernet), comúnmente conocido como 1000BASE-X.
IEEE 802.3ab, ratificada en 1999, define el funcionamiento de Gigabit Ethernet sobre
cables de cobre del tipo Unshielded twisted pair (UTP) y categoría 5, 5e o 6 y por
supuesto sobre fibra óptica. De esta forma, pasó a denominarse 1000BASE-T. Se
decidió que esta ampliación sería idéntica al Ethernet normal desde la capa de enlace
de datos hasta los niveles superiores, permitiendo el aprovechamiento de las
posibilidades de la fibra óptica para conseguir una gran capacidad de transmisión sin
tener que cambiar la infraestructura de las redes actuales.
Uno de los retrasos con el estándar fue la resolución de un problema al emitir con láser
sobre fibra multimodo, ya que en casos extremos se podía producir una división del
haz, con la consiguiente destrucción de datos. Esto era debido a que la fibra multimodo
fue diseñada pensando en emisores LED, no láser y fue resuelto prohibiendo que en
este estándar los láser dirigieran su haz hacia el centro de la fibra.
Inicialmente, Gigabit Ethernet fue muy utilizado sobre redes de gran capacidad, como
por ejemplo, redes de comunicación de universidades. En 2000, Apple's Power Mac G4
y PowerBook G4 fueron las primeras máquinas en utilizar la conexión 1000BASE-T, a las que siguieron posteriormente Macintoshes y PC´s.
En 2002, IEEE ratificó una nueva evolución del estándar Ethernet, 10 Gigabit Ethernet,
con un tasa de transferencia de 10.000 megabits/segundo (10 veces mayor a Gigabit Ethernet).
Características y prestaciones
Gigabit Ethernet surge como consecuencia de la presión competitiva de ATM por
conquistar el mercado LAN y como una extensión natural de las normas Ethernet 802.3
de 10 y 100 Mbps. que prometen tanto en modo semi-dúplex como dúplex, un ancho
de banda de 1 Gbps. En modo semi-dúplex , el estándar Gigabit Ethernet conserva con
mínimos cambios el método de acceso CSMA/CD (Carrier Sense Multiple Access/Colision Detection) típico de Ethernet.
En cuanto a las dimensiones de red, no hay límites respecto a extensión física o
número de nodos. Al igual que sus predecesores, Gigabit Ethernet soporta diferentes
medios físicos, con distintos valores máximos de distancia. El IEEE 802.3 Higher Speed
Study Group ha identificado tres objetivos específicos de distancia de conexión:
conexión de fibra óptica multimodo con una longitud máxima de 500m; conexión de
fibra óptica monomodo con una longitud máxima de dos kilómetros; y una conexión
basada en cobre con una longitud de al menos 25m. Además, se está trabajando para soportar distancias de al menos 100m en cableado UTP de categoría 5.
Interés por el estándar Gigabit
La incorporación de viejos miembros a la Gigabit Ethernet Alliance no paró de crecer
desde su creación en el mes de mayo de 1996, bajo el impulso de firmas como 3Com,
Sun Microsystems, Bay Networks, Cisco Systems, UB Networks, Intel y Compaq. El
rápido crecimiento de la alianza demostró que tanto las grandes como las pequeñas
compañías creían en Gigabit Ethernet como una tecnología LAN clave.
El gran interés por la nueva propuesta Ethernet se debe a su simplicidad, fiabilidad, compatibilidad hacia atrás y costes.
Ultrawideband UWB
Ultra-wideband (también UWB, ultra-wide-band, ultra-wide band, etc.) se usa para
referirse a cualquier tecnología de radio que usa una banda ancha de más grande que
500 MHz o el 25% de la frecuencia central, de acuerdo con la FCC (Federal Communications Commission).
Historia
El primer sistema de UWB fue el transmisor Spark-gap, inventado por Marconi en 1897. UWB es una tecnología que comenzó a desarrollarse en los años 1950.
Definición UWB
UWB (Ultra Wide Band) es una tecnología en el rango de las PAN (personal area
network). Permite ratios de información muy grandes (480 Mbit/s) conseguidos en
distancias cortas, de unos pocos metros. Los dispositivos wireless USB actuales son implementados con UWB.
Características UWB
UWB difiere sustancialmente de las estrechas frecuencias de banda de radio (RF) y
tecnologías “spread spectrum” (SS), como el Bluetooth y el 802.11. UWB usa un ancho
muy alto de banda del espectro de RF para transmitir información. Por lo tanto, UWB
es capaz de transmitir más información en menos tiempo que las tecnologías
anteriormente citadas.
Mientras que Bluetooth, WiFi, teléfonos inalámbricos y demás dispositivos de
radiofrecuencia están limitadas a frecuencias sin licencia en los 900 MHz, 2.4 GHz y
5.1 GHz UWB hace uso de un espectro de frecuencia recientemente legalizado. UWB
puede usar frecuencias que van desde 3.1 GHz hasta 10.6 GHz: una banda de más de
7 GHz de anchura. Cada canal de radio tiene una anchura de más de 500 Mhz, dependiendo de su frecuencia central.
El hecho de estar compartiendo bandas de frecuencia con otros dispositivos, ha hecho
que aunque esto les permite tener una alta productividad, han de estar relativamente cerca.
Ventajas UWB
Las ventajas que ofrece UWB son su bajo consumo (como emisor de ondas de radio),
bajo coste (se puede usar tecnología CMOS para implementar un dispositivo UWB radio) y alta productividad, lo que marca esta tecnología como el futuro de las WPAN.
Además, UWB permite reutilización de espectros. Por ejemplo, podemos tener una
serie de dispositivos en nuestro salón de casa, comunicándose con nuestro ordenador
a través de un canal, y a la vez, en otra habitación, otra serie de dispositivos en el
mismo canal comunicándose igualmente. WPAN basadas en UWB pueden hacer uso del mismo canal sin interferencias, debido a los rangos tan cortos que permite UWB.
Por ejemplo, si se usara una WPAN basada en WiFi, mientras se estuviera usando un
dispositivo, éste daría cuenta rápido del ancho de banda del canal, con lo que no
podríamos estar usando otro dispositivo de forma eficiente.
Aplicaciones UWB
Reemplazo de IEEE 1394 en dispositivos multimedia (cámaras de fotos o vídeo,
reproductores MP3,...) con conectividad inalámbrica.
Permitir conectividad WUSB (Wireless Universal Serial Bus) de gran velocidad
(periféricos de ordenador, como escáners, impresoras e incluso dispositivos de
almacenamiento externo).
Reemplazo de cables en la siguiente generación de dispositivos Bluetooth, como
los móviles de 3G.
Creando conectividad inalámbrica ad-hoc de alto ratio para CE, PC y
dispositivos móviles.
La anchura de la señal (528 MHz o 2736 MHz de ancho de banda) puede usarse
para aplicaciones de streaming de vídeo.
Estandarización
UWB
UWB se está estandarizando en tres diferentes IEEE estándares. IEEE 802.15.3a
incluye dos propuestas para UWB: la propuesta de OFDM, de la Multiband OFDM
Alliance (MBOA) y la propuesta de secuencia directa (Direct Sequence, DS). En el caso
de IEEE 802.15.4a, la propuesta de DS fue aprobada para ratios de información bajos.
Además, se está discutiendo la incorporación de UWB como capa física para Bluetooth, en el caso de IEEE 802.15.1.
Resumen de las características de UWB
Futuro de UWB
Sin embargo, antes de que UWB se consolide como una solución aceptada
globalmente, hay algunos puntos que todavía quedan por resolver: Rendimiento
(consumo, coexistencia con otros dispositivos wireless, inmunidad a las interferencias, robustez del enlace).
Interoperabilidad.
Facilidad de integración y certificación.
Coste de solución global QoS (Quality of Service)
RFID
RFID (siglas de Radio Frequency IDentification, en español Identificación por
radiofrecuencia) es un sistema de almacenamiento y recuperación de datos remoto
que usa dispositivos denominados etiquetas, transpondedores o tags RFID. El
propósito fundamental de la tecnología RFID es transmitir la identidad de un objeto
(similar a un número de serie único) mediante ondas de radio. Las tecnologías RFID se
agrupan dentro de las denominadas Auto ID (Automatic Identification, o Identificación Automática).
Una etiqueta RFID es un dispositivo pequeño, similar a una pegatina, que puede ser
adherida o incorporada a un producto, animal o persona. Contienen antenas para
permitirles recibir y responder a peticiones por radiofrecuencia desde un emisor-
receptor RFID. Las etiquetas pasivas no necesitan alimentación eléctrica interna,
mientras que las activas sí lo requieren. Una de las ventajas del uso de radiofrecuencia
(en lugar, por ejemplo, de infrarrojos) es que no se requiere visión directa entre
emisor y receptor
Una etiqueta RFID EPC usada por Wal-Mart
Antecedentes
En la actualidad, la tecnología más extendida para la identificación de objetos es la de
los códigos de barras. Sin embargo, éstos presentan algunas desventajas, como son la
escasa cantidad de datos que pueden almacenar y la imposibilidad de ser modificados
(reprogramados). La mejora obvia que se ideó, y que constituye el origen de la
tecnología RFID, consistía en usar chips de silicio que pudieran transferir los datos que
almacenaban al lector sin contacto físico (de forma equivalente a los lectores de infrarrojos utilizados para leer los códigos de barras).
Historia
Se ha sugerido que el primer dispositivo conocido similar a RFID pudo haber sido una
herramienta de espionaje inventada por Léon Theremin para el gobierno soviético en
1945. El dispositivo de Theremin era un dispositivo de escucha secreto pasivo, no una
etiqueta de identificación, por lo que esta aplicación es dudosa. Según algunas fuentes,
la tecnología usada en RFID habría existido desde comienzos de los años 1920,
desarrollada por el MIT y usada extensivamente por los británicos en la Segunda
Guerra Mundial (fuente que establece que los sistemas RFID han existido desde finales
de los años 1960 y que sólo recientemente se había popularizado gracias a las
reducciones de costes).
Una tecnología similar, el transpondedor de IFF, fue inventada por los británicos en
1939, y fue utilizada de forma rutinaria por los aliados en la Segunda Guerra Mundial
para identificar los aeroplanos como amigos o enemigos. Se trata probablemente de la tecnología citada por la fuente anterior.
Otro trabajo temprano que trata el RFID es el artículo de 1948 de Harry Stockman,
titulado "Comunicación por medio de la energía reflejada" (Actas del IRE, pp. 1196-
1204, octubre de 1948). Stockman predijo que "... el trabajo considerable de
investigación y de desarrollo tiene que ser realizado antes de que los problemas
básicos restantes en la comunicación de la energía reflejada se solucionen, y antes de
que el campo de aplicaciones útiles se explore." Hicieron falta treinta años de avances en multitud de campos diversos antes de que RFID se convirtiera en una realidad.
Arquitectura
El modo de funcionamiento de los sistemas RFID es simple. La etiqueta RFID, que
contiene los datos de identificación del objeto al que se encuentra adherido, genera
una señal de radiofrecuencia con dichos datos. Esta señal puede ser captada por un
lector RFID, el cual se encarga de leer la información y pasársela, en formato digital, a la aplicación específica que utiliza RFID.
Por tanto, un sistema RFID consta de los siguientes tres componentes:
Etiqueta RFID o transpondedor: compuesta por una antena, un transductor
radio y un material encapsulado o chip. El propósito de la antena es permitirle
al chip, el cual contiene la información, transmitir la información de
identificación de la etiqueta. Existen varios tipos de etiquetas. El chip posee una
memoria interna con una capacidad que depende del modelo y varía de una
decena a millares de bytes. Existen varios tipos de memoria:
o Solo lectura: el código de identificación que contiene es único y es
personalizado durante la fabricación de la etiqueta.
o De lectura y escritura: la información de identificación puede ser
modificada por el lector.
o Anticolisión. Se trata de etiquetas especiales que permiten que un lector
identifique varias al mismo tiempo (habitualmente las etiquetas deben
entrar una a una en la zona de cobertura del lector).
Lector de RFID o transceptor: compuesto por una antena, un transceptor y un
decodificador. El lector envía periódicamente señales para ver si hay alguna
etiqueta en sus inmediaciones. Cuando capta una señal de una etiqueta (la cual
contiene la información de identificación de ésta), extrae la información y se la
pasa al subsistema de procesamiento de datos.
Subsistema de procesamiento de datos: proporciona los medios de proceso y almacenamiento de datos.
Tipos de etiquetas RFID
Comparación de un chip RFID con antena y una moneda de un Euro
Las etiquetas RFID pueden ser activas, semipasivas (o semiactivas, también conocidas
como asistidas por batería) o pasivas. Los tags pasivos no requieren ninguna fuente de
alimentación interna y son en efecto dispositivos puramente pasivos (sólo se activan
cuando un reader se encuentra cerca para suministrarles la energía necesaria). Los otros dos tipos necesitan alimentación, típicamente una pila pequeña.
Como las etiquetas pasivas son mucho más baratas de fabricar y no necesitan batería,
la gran mayoría de las etiquetas RFID existentes son del tipo pasivo. En fecha de 2004,
las etiquetas tienen un precio desde 0,40$, en grandes pedidos. El marcado de RFID
universal de productos individuales será comercialmente viable con volúmenes muy
grandes de 10.000 millones de unidades al año, llevando el coste de producción a
menos de 0,05$ según un fabricante. La demanda actual de chips de circuitos
integrados con RFID no está cerca de soportar ese coste. Los analistas de las
compañías independientes de investigación como Gartner and Forrester Research
convienen en que un nivel de precio de menos de 0,10$ (con un volumen de
producción de 1.000 millones de unidades) sólo se puede lograr en unos 6 u 8 años, lo
que limita los planes a corto plazo para una adopción extensa de las etiquetas RFID
pasivas. Otros analistas creen que esos precios serían alcanzables dentro de 10-15 años.
A pesar de las ventajas en cuanto al coste de las etiquetas pasivas con respecto a las
activas son significativas, otros factores incluyendo exactitud, funcionamiento en
ciertos ambientes como cerca del agua o metal, y confiabilidad hacen que el uso de
etiquetas activas sea muy común hoy en día.
Backscatter en RFID
Para comunicarse, los tags responden a peticiones o preguntas generando señales que
a su vez no deben interferir con las transmisiones del reader (ya que las señales que
llegan de los tags pueden ser muy débiles y han de poder distinguirse). Además de la
reflexión o backscatter puede manipularse el campo magnético del lector por medio de
técnicas de modulación de carga. El backscatter se usa típicamente en el campo lejano
y la modulación de carga en el campo próximo (a distancias de unas pocas longitudes
de onda del lector).
Tags pasivos
Los tags pasivos no poseen ningún tipo de alimentación. La señal que les llega de los
lectores induce una corriente eléctrica mínima que basta para operar el circuito
integrado CMOS del tag para generar y transmitir una respuesta. La mayoría de tags
pasivos utiliza backscatter sobre la portadora recibida. Esto es, la antena ha de estar
diseñada para obtener la energía necesaria para funcionar a la vez que para transmitir
la respuesta por backscatter. Esta respuesta puede ser cualquier tipo de información,
no sólo un código identificador. Un tag puede incluir memoria no volátil, posiblemente
escribible (por ejemplo EEPROM).
Los tags pasivos suelen tener distancias de uso práctico comprendidas entre los 10 cm
(ISO 14443) y llegando hasta unos pocos metros (EPC e ISO 18000-6) según la
frecuencia de funcionamiento y el diseño y tamaño de la antena. Por su sencillez
conceptual son obtenibles por medio de un proceso de impresión de las antenas. Como
carecen de autonomía energética el dispositivo puede resultar muy pequeño: pueden incluirse en una pegatina o insertarse bajo la piel (tags de baja frecuencia).
En 2006, Hitachi desarrolló un dispositivo pasivo denominado µ-Chip con un tamaño de
0,15×0,15 mm sin antena, más delgado que una hoja de papel (7,5 µm).[2][3] Se
utiliza SOI (Silicon-on-Insulator) para lograr esta integración. Este chip puede
transmitir un identificador único de 128 bits fijado a él en su fabricación, que no puede
modificarse y confiere autenticidad al mismo. Tiene un rango máximo de lectura de 30
cm. En febrero de 2007 Hitachi presentó un dispositivo aún menor de 0,05×0,05 mm y
lo suficientemente delgado como para poder estar integrado en una hoja de papel.[4]
Estos chips mantienen la capacidad de almacenamiento y pueden funcionar en
distancias de hasta unos pocos cientos de metros. El problema es la antena necesaria, como mínimo 80 veces más grande que el chip.
Alien Technology (Fluidic Self Assembly), SmartCode (Flexible Area Synchronized
Transfer) y [[Symbol Technologies (PICA) declaran disponer de procesos en diversas
etapas de desarrollo que pueden reducir aún más los costes por medio de procesos de
fabricación paralela. Estos medios de producción podrían reducir mucho más los costes
y dirigir los modelos de economía de escala de un sector importante de la manufactura del silicio. Esto podría llevar a una expansión mayor de la tecnología de tags pasivos.
Existen tags fabricados con semiconductores basados en polímeros desarrollados por
compañías de todo el mundo. En 2005 PolyIC y Philips presentaron tags sencillos en el
rango de 13,56 MHz que utilizaban esta tecnología. Si se introducen en el mercado con
éxito estos tags serían producibles en imprenta como una revista y con ello mucho
más baratos que los tags de silicona, sirviendo como alternativa totalmente impresa
como hoy lo es el código de barras, con un coste prácticamente nulo. Sin embargo,
para ello es necesario que superen aspectos técnicos y económicos, teniendo en
cuenta que el silicio es una tecnología que lleva décadas disfrutando de inversiones de
desarrollo multimillonarias que han resultado en un coste menor que el de la impresión convencional.
Debido a las preocupaciones por la energía y el coste, la respuesta de una etiqueta
pasiva RFID es necesariamente breve, normalmente apenas un número de
identificación (GUID). La falta de una fuente de alimentación propia hace que el
dispositivo pueda ser bastante pequeño: existen productos disponibles de forma
comercial que pueden ser insertados bajo la piel. Las etiquetas pasivas, en la práctica
tienen distancias de lectura que varían entre unos 10 milímetros hasta cerca de 6
metros dependiendo del tamaño de la antena de la etiqueta y de la potencia y
frecuencia en la que opera el lector. Estando en 2007, el dispositivo disponible
comercialmente más pequeño de este tipo medía 0.05 milímetros × 0.05 milímetros, y
más fino que una hoja de papel; estos dispositivos son prácticamente invisibles.
Tags activos
A diferencia de los tags pasivos, los activos poseen su propia fuente autónoma de
energía, que utilizan para dar corriente a sus circuitos integrados y propagar su señal
al lector. Estos tags son mucho más fiables (tienen menos errores) que los pasivos
debido a su capacidad de establecer sesiones con el reader. Gracias a su fuente de
energía son capaces de transmitir señales más potentes que las de los tags pasivos, lo
que les lleva a ser más eficientes en entornos dificultosos para la radiofrecuencia como
el agua (incluyendo humanos y ganado, formados en su mayoría por agua), metal
(contenedores, vehículos). También son efectivos a distancoas mayores pudiendo
generar respuestas claras a partir de recepciones débiles (lo contrario que los tags
pasivos). Por contra, suelen ser mayores y más caros, y su vida útil es en general
mucho más corta.
Muchos tags activos tienen rangos efectivos de cientos de metros y una vida útil de sus
baterías de hasta 10 años. Algunos de ellos integran sensores de registro de
temperatura y otras variables que pueden usarse para monitorizar entornos de
alimentación o productos farmacéuticos. Otros sensores asociados con ARFID incluyen
humedad, vibración, luz, radiación, temperatura y componentes atmosféricos como el
etileno. Los tags, además de mucho más rango (500 m), tiene capacidades de
almacenamiento mayores y la habilidad de guardar información adicional enviada por el transceptor.
Actualmente, las etiquetas activas más pequeñas tienen un tamaño aproximado de una
moneda. Muchas etiquetas activas tienen rangos prácticos de diez metros, y una duración de batería de hasta varios años.
Tags semipasivos
Los tags semipasivos se parecen a los activos en que poseen una fuente de
alimentación propia, aunque en este caso se utiliza principalmente para alimentar el
microchip y no para transmitir una señal. La energía contenida en la radiofrecuencia se
refleja hacia el reader como en un tag pasivo. Un uso alternativo para la batería es
almacenar información propagada desde el lector para emitir una respuesta en el
futuro, típicamente usando backscatter. Los tags sin batería deben responder
reflejando energía de la portadora del lector al vuelo.
La batería puede permitir al circuito integrado de la etiqueta estar constantemente
alimentado y eliminar la necesidad de diseñar una antena para recoger potencia de
una señal entrante. Por ello, las antenas pueden ser optimizadas para utilizar métodos
de backscattering. Las etiquetas RFID semipasivas responden más rápidamente, por lo
que son más fuertes en el ratio de lectura que las pasivas.
Este tipo de tags tienen una fiabilidad comparable a la de los tags pasivos a la vez que
pueden mantener el rango operativo de un tag pasivo. También suelen durar más que los tags activos.
Tipos de antena
El tipo de antena utilizado en un tag depende de la aplicación objetivo y la frecuencia
de operación. Los tags de baja frecuencia (LF) normalmente se sirven de la inducción
electromagnética. Como el voltaje inducido es proporcional a la frecuencia, se puede
producir el necesario para alimentar un circuito integrado dado un número suficiente
de espiras. Existen tags LF compactos (como los utilizados para identificación humana
y animal, encapsulados en vidrio) que utilizan una antena en varios niveles (tres de 100-150 espiras cada uno) alrededor de un núcleo de ferrita.
En alta frecuencia (HF, 13,56 MHz) se utiliza una espiral plana con 5-7 vueltas y un
factor de forma parecido al de una tarjeta de crédito para lograr distancias de decenas
de centímetros. Estas antenas son más baratas que las LF ya que pueden producirse
por medio de litografía en lugar de espiración, aunque son necesarias dos superficies
de metal y una aislante para realizar la conexión cruzada del nivel exterior al interior
de la espiral, donde se encuentran el condensador de resonancia y el circuito
integrado.
Los tags pasivos en frecuencias ultraalta (UHF) y de microondas suelen acoplarse por
radio a la antena del lector y utilizar antenas clásicas de dipolo. Sólo es necesaria una
capa de metal, lo que reduce el coste. Las antenas de dipolo, no obstante, no se
ajustan muy bien a las características de los circuitos integrados típicos (con alta
impedancia de entrada, ligeramente capacitiva). Se pueden utilizar dipolos plegados o
bucles cortos como estructuras inductivas complementarias para mejorar la
alimentación. Los dipolos de media onda (16 cm a 900 MHz) son demasiado grandes
para la mayoría de aplicaciones (por ejemplo los tags para uso en etiquetas no pueden
medir más de 10 cm), por lo que hay que doblar las antenas para satisfacer las
necesidades de tamaño. También pueden usarse estructuras de banda ancha. La
ganancia de las antenas compactas suele ser menor que la de un dipolo (menos de 2 dBi) y pueden considerarse isótropas en el plano perpendicular a su eje.
Los dipolos experimentan acoplamiento con la radiación que se polariza en sus ejes,
por lo que la visibilidad de un tag con una antena de dipolo simple depende de su
orientación. Los tags con dos antenas ortogonales (tags de doble dipolo) dependen
mucho menos de ella y de la polarización de la antena del lector, pero suelen ser más grandes y caras que sus contrapartidas simples.
Pueden usarse antenas de parche (patch) para dar servicio en las cercanías de
superficies metálicas, aunque es necesario un grosor de 3-6 mm para lograr un buen
ancho de banda, además de que es necesario tener una conexión a tierra que incrementa el coste comparado con estructuras de una capa más sencillas.
Las antenas HF y UHF suelen ser de cobre o aluminio. Se han probado tintas
conductoras en algunas antenas encontrando problemas con la adhesión al circuito integrado y la estabilidad del entorno.
Asociación de tags
Existen tres tipos básicos de tags en base a su relación con los objetos que identifican:
asociable, implantable e insertable (attachable, implantable, insertion). [5] Además de
estos tipos de tags Eastman Kodak ha presentado dos solicitudes de patente que
tratan de la monitorización del consumo de medicina en forma de un tag “digerible”.[6].
Posicionamiento de los tags
La orientación de un tag puede afectar al desempeño de tags UHF a través del aire en
función de la posición en la que se encuentran los tags. En general, no es necesaria
una recepción óptima de la energía del lector para operar sobre los tags pasivos. No
obstante, puede haber casos en los que se fija la distancia entre ambas partes así
como la potencia efectiva emitida. En este caso, es necesario saber en qué casos se puede trabajar de forma óptima con ellos.
Se definen los puntos denominados R (de resonancia, resonance spot), L (vivo, live
spot) y D (muerto, dead spot) para especificar la localización de los tags en un objeto
marcado, de forma que los tags aún puedan recibir la energía necesaria en base a
unos niveles determinados de potencia emitida y distancia.
Entornos de tags
El concepto de tag RFID va asociado al de su ubicuidad. Esto supone que los lectores
pueden requerir la selección de tags a explorar de entre muchos candidatos posibles.
También podrían desear realizar una exploración de los tags de su entorno para
realizar inventarios o, si los tags se asocian a sensores y pueden mantener sus
valores, identificar condiciones del entorno. Si un reader intenta trabajar con un
conjunto de tags debe conocer los dispositivos que se encuentran en su área de acción
para después recorrerlos uno a uno, o bien hacer uso de protocolos de evitación de
colisiones.
Identificación de tags en un entorno de búsqueda
Para leer los datos de los tags, los readers utilizan un algoritmo de singulación basado
en el recorrido de árboles, resolviendo las colisiones que puedan darse y procesando
secuencialmente las respuestas. Existen tags bloqueantes (blocker tags) que pueden
usarse para evitar que haya lectores que accedan a las tags de un área sin necesidad
de recurrir a comandos de suicidio para inhabilitar los tags. Estos tags se hacen pasar
por tags normales pero poseen ciertas características específicas; en concreto, pueden
tomar cualquier código de identificación como propio, y pueden responder a toda
pregunta que escuchen, asegurando el entorno al anular la utilidad de estas preguntas.
En general, puede emitirse una señal espuria si se detecta actividad de tags para
bloquear las transmisiones débiles producidas por éstos. En caso de que los tags sean
prescindibles o no sean necesarios de nuevo, pueden inutilizarse induciendo en ellos corrientes elevadas que inutilicen sus circuitos.
Aparte de esto, un tag puede ser promiscuo, si responde a todas las peticiones sin
excepción, o seguro, si requiere autentificación (esto conlleva los aspectos típicos de
gestión de claves criptográficas y de acceso). Un tag puede estar preparado para activarse o desactivarse como respuesta a comandos del lector.
Los lectores encargados de un grupo de tags en un área pueden operar en modo
autónomo en contraposición al modo interactivo. Si trabajan de esta forma, realizan
una identificación periódica de todos los tags en su entorno y mantienen una lista de
presencia con tiempos de persistencia (timeouts) e información de control. Si una entrada expora, se elimina de la tabla.
Con frecuencia una aplicación distribuida requiere el uso de ambos tipos extremos de
tags. Los tags pasivos no pueden realizar labores de monitorización continua sino que
realizan tareas bajo demanda cuando los readers se las solicitan. Son útiles para
realizar actividades regulares y bien definidas con necesidades de almacenamiento y
seguridad acotadas. Si hay accesos frecuentes, continuos o impredecibles, o bien
existen requerimientos de tiempo real o procesamiento de datos (como búsqueda en tablas internas) suele ser conveniente utilizar tags activos.
Clasificación
Los sistemas RFID se clasifican dependiendo del rango de frecuencias que usan.
Existen cuatro tipos de sistemas: de frecuencia baja (entre 125 ó 134,2 kilohercios);
de alta frecuencia (13,56 megahercios); UHF o de frecuencia ultraelevada (868 a 956
megahercios); y de microondas (2,45 gigahercios). Los sistemas UHF no pueden ser utilizados en todo el mundo porque no existen regulaciones globales para su uso.
Estandarización
Los estándares de RFID abordan cuatro áreas fundamentales:
Protocolo en el interfaz aéreo: especifica el modo en el que etiquetas RFID y
lectores se comunican mediante radiofrecuencia.
Contenido de los datos: especifica el formato y semántica de los datos que se
comunican entre etiquetas y lectores.
Certificación: pruebas que los productos deben cumplir para garantizar que
cumplen los estándares y pueden interoperar con otros dispositivos de distintos
fabricantes. Aplicaciones: usos de los sistemas RFID.
Como en otras áreas tecnológicas, la estandarización en el campo de RFID se
caracteriza por la existencia de varios grupos de especificaciones competidoras. Por
una parte está ISO, y por otra Auto-ID Centre (conocida desde octubre de 2003 como
EPCglobal[8], de EPC, Electronic Product Code). Ambas comparten el objetivo de conseguir etiquetas de bajo coste que operen en UHF.
Los estándares EPC para etiquetas son de dos clases:
Clase 1: etiqueta simple, pasiva, de sólo lectura con una memoria no volátil
programable una sola vez.
Clase 2: etiqueta de sólo lectura que se programa en el momento de fabricación del chip (no reprogramable posteriormente).
Las clases no son ínteroperables y además son incompatibles con los estándares de
ISO. Aunque EPCglobal está desarrollando una nueva generación de estándares EPC
está (denominada Gen2), con el objetivo de conseguir interoperabilidad con los
estándares de ISO, aún se está en discusión sobre el AFI (Application Family Identifier) de 8 bits.
Por su parte, ISO ha desarrollado estándares de RFID para la identificación automática
y la gestión de objetos. Existen varios estándares relacionados, como ISO 10536, ISO
14443 y ISO 15693, pero la serie de estándares estrictamente relacionada con las RFID y las frecuencias empleadas en dichos sistemas es la serie 18000.
Regulación de frecuencias
No hay ninguna corporación pública global que gobierne las frecuencias usadas para
RFID. En principio, cada país puede fijar sus propias reglas.
Las principales corporaciones que gobiernan la asignación de las frecuencias para RFID
son:
EE.UU.: FCC (Federal Communications Commission)
Canadá: DOC (Departamento de la Comunicación)
Europa: ERO, CEPT, ETSI y administraciones nacionales. Obsérvese que las
administraciones nacionales tienen que ratificar el uso de una frecuencia
específica antes de que pueda ser utilizada en ese país
Japón: MPHPT (Ministry of Public Management, Home Affairs, Post and
Telecommunication)
China: Ministerio de la Industria de Información
Australia: Autoridad Australiana de la Comunicación (Australian Communication
Authority)
Nueva Zelanda: Ministerio de desarrollo económico de Nueva Zelanda (New
Zealand Ministry of Economic Development.
Argentina: CNC (Comisión Nacional de Comunicaciones). Chile: Ministerio de Transportes y Telecomunicaciones.
Las etiquetas RFID de baja frecuencia (LF: 125 - 134 kHz y 140 - 148.5 kHz) y de alta
frecuencia (HF: 13.56 MHz) se pueden utilizar de forma global sin necesidad de
licencia. La frecuencia ultraalta (UHF: 868 - 928 MHz) no puede ser utilizada de forma
global, ya que no hay un único estándar global. En Norteamérica, la frecuencia
ultraelevada se puede utilizar sin licencia para frecuencias entre 908 - 928 MHz, pero
hay restricciones en la energía de transmisión. En Europa la frecuencia ultraelevada
está bajo consideración para 865.6 - 867.6 MHz. Su uso es sin licencia sólo para el
rango de 869.40 - 869.65 MHz, pero existen restricciones en la energía de transmisión.
El estándar UHF norteamericano (908-928 MHz) no es aceptado en Francia y Italia ya
que interfiere con sus bandas militares. En China y Japón no hay regulación para el uso
de la frecuencia ultraelevada. Cada aplicación de frecuencia ultraelevada en estos
países necesita de una licencia, que debe ser solicitada a las autoridades locales, y
puede ser revocada. En Australia y Nueva Zelanda, el rango es de 918 - 926 MHz para uso sin licencia, pero hay restricciones en la energía de transmisión.
Existen regulaciones adicionales relacionadas con la salud y y condiciones ambientales.
Por ejemplo, en Europa, la regulación Waste Electrical and Electronic Equipment
("Equipos eléctricos y electrónicos inútiles"), no permite que se desechen las etiquetas
RFID. Esto significa que las etiquetas RFID que estén en cajas de cartón deber de ser
quitadas antes de deshacerse de ellas. También hay regulaciones adicionales relativas a la salud; véase campo electromagnético.
Uso actual
Dependiendo de las frecuencias utilizadas en los sistemas RFID, el coste, el alcance y
las aplicaciones son diferentes. Los sistemas que emplean frecuencias bajas tienen
igualmente costes bajos, pero también baja distancia de uso. Los que emplean
frecuencias más altas proporcionan distancias mayores de lectura y velocidades de
lectura más rápidas. Así, las de baja frecuencia se utilizan comúnmente para la
identificación de animales, seguimiento de barricas de cerveza, o como llave de
automóviles con sistema antirrobo. En ocasiones se insertan en pequeños chips en
mascotas, para que puedan ser devueltas a su dueño en caso de pérdida. En los
Estados Unidos se utilizan dos frecuencias para RFID: 125 kHz (el estándar original) y
134,5 kHz (el estándar internacional). Las etiquetas RFID de alta frecuencia se utilizan
en bibliotecas y seguimiento de libros, seguimiento de palés, control de acceso en
edificios, seguimiento de equipaje en aerolíneas, seguimiento de artículos de ropa y
ahora último en pacientes de centros hospitalarios para hacer un seguimiento de su
historia clínica. Un uso extendido de las etiquetas de alta frecuencia como
identificación de acreditaciones, substituyendo a las anteriores tarjetas de banda
magnética. Sólo es necesario acercar estas insignias a un lector para autenticar al
portador.
Las etiquetas RFID de UHF se utilizan comúnmente de forma comercial en seguimiento de palé y envases, y seguimiento de camiones y remolques en envíos.
Una etiqueta RFID empleada para la recaudación con peaje electrónico
Las etiquetas RFID de microondas se utilizan en el control de acceso en vehículos de gama alta.
Algunas autopistas, como por ejemplo la FasTrak de California, el sistema I-Pass de
Illinois, el telepeaje TAG en las autopistas urbanas en Santiago de Chile, la totalidad de
las autopistas pagas argentinas y la Philippines South Luzon Expressway E-Pass
utilizan etiquetas RFID para recaudación con peaje electrónico. Las tarjetas son leídas
mientras los vehículos pasan; la información se utiliza para cobrar el peaje en una
cuenta periódica o descontarla de una cuenta prepago. El sistema ayuda a disminuir el
entorpecimiento del tráfico causado por las cabinas de peaje.
Sensores como los sísmicos pueden ser leídos empleando transmisores-receptores RFID, simplificando enormemente la recolección de datos remotos.
En enero de 2003, Michelin anunció que había comenzado a probar transmisores-
receptores RFID insertados en neumáticos. Después de un período de prueba estimado
de 18 meses, el fabricante ofrecerá neumáticos con RFID a los fabricantes de
automóviles. Su principal objetivo es el seguimiento de neumáticos en cumplimiento
con la United States Transportation, Recall, Enhancement, Accountability and Documentation Act (TREAD Act).
Las tarjetas con chips RFID integrados se usan ampliamente como dinero electrónico,
como por ejemplo la tarjeta Octopus en Hong-Kong, tarjeta bip! en Santiago de Chile
para el transporte publico (transantiago), la tarjeta SubteCard para el subterráneo de
Buenos Aires, la tarjeta Cívica en Medellín, y en los Países Bajos como forma de pago en transporte público y ventas menores.
Comenzando con el modelo de 2004, está disponible una "llave inteligente" como
opción en el Toyota Prius y algunos modelos de Lexus. La llave emplea un circuito de
RFID activo que permite que el automóvil reconozca la presencia de la llave a un metro
del sensor. El conductor puede abrir las puertas y arrancar el automóvil mientras la llave sigue estando en la cartera o en el bolsillo.
En agosto de 2004, el Departamento de Rehabilitación y Corrección de Ohio (ODRH)
aprobó un contrato de 415.000 dólares para ensayar la tecnología de seguimiento con
Alanco Technologies. Los internos tienen unos transmisores del tamaño de un reloj de
muñeca que pueden detectar si los presos han estado intentando quitárselas y enviar
una alarma a los ordenadores de la prisión. Este proyecto no es el primero que trabaja
en el desarrollo de chips de seguimiento en prisiones estadounidenses. Instalaciones
en Michigan, California e Illinois emplean ya esta tecnología.
Logística
Actualmente, la aplicación más importante de RFID es la logística. El uso de esta
tecnología permitiría tener localizado cualquier producto dentro de la cadena de suministro.
Requisitos sobre RFID para su uso en logística
Departamento de Defensa de los Estados Unidos han los requisitos para los
fabricantes para situar las etiquetas RFID en todos sus transportes para mejorar la
gestión de la cadena de suministro. [2]. Debido al tamaño de estas dos
organizaciones, sus mandatos sobre RFID han causado un impacto en miles de
compañías de todo el mundo. La fecha límite se ha extendido varias veces porque
muchos fabricantes se enfrentan a grandes dificultades para implementar sistemas
RFID. En la práctica, las cifras de lecturas exitosas están actualmente en un 80%,
debido a la atenuación de la onda de radio causada por los productos y el
empaquetado. Dentro de un tiempo está previsto que incluso las compañías más pequeñas sean capaces de poner etiquetas RFID en sus transportes.
Desde enero de 2005, Wal-Mart ha puesto como requisito a sus 100 principales
proveedores que apliquen etiquetas RFID en todos sus envíos. Para poder cumplir el
requisito, los fabricantes usan codificadores/impresoras RFID para etiquetar las cajas y
palés que requieren etiquetas EPC para Wal-Mart. Estas etiquetas inteligentes son
producidas integrando el RFID dentro del material de la etiqueta, e imprimiendo el código de barras y otra información visible en la superficie de la etiqueta.
Implantes humanos
Mano izquierda de Amal Graafstra con la situación planeada del chip RFID
Justo después de que la operación de inserción de la etiqueta fuera completada
Los chips RFID implantables, diseñados originalmente para el etiquetado de animales
se está utilizando y se está contemplando también para los seres humanos. Applied
Digital Solutions propone su chip "unique under-the-skin format" (formato bajo-la-piel
único) como solución a la usurpación de la identidad, al acceso seguro a un edificio, al
acceso a un ordenador, al almacenamiento de expedientes médicos, a iniciativas de
anti-secuestro y a una variedad de aplicaciones. Combinado con los sensores para
supervisar diversas funciones del cuerpo, el dispositivo Digital Angel podría
proporcionar supervisión de los pacientes. El Baja Beach Club en Barcelona (España)
utiliza un Verichip implantable para identificar a sus clientes VIP, que lo utilizan para
pagar las bebidas [3]. El departamento de policía de Ciudad de México ha implantado
el Verichip a unos 170 de sus oficiales de policía, para permitir el acceso a las bases de
datos de la policía y para poder seguirlos en caso de ser secuestrados. Sin embargo, el
implante de los chips supone un elevado riesgo para la salud, ya que resultan altamente cancerígenos [4].
Amal Graafstra, un empresario del estado de Washington, en Estados Unidos, tenía un
chip RFID implantado en su mano izquierda a principios de 2005. El chip medía 12 mm
de largo por 2 milímetros de diámetro y tenía un radio de acción para su lectura de dos
pulgadas (50 milímetros). La implantación fue realizada por un cirujano plástico,
aunque el nombre del doctor no fue desvelado. Cuando le preguntaron qué pretendía
hacer con el implante, Graafstra respondió: "estoy escribiendo mi propio software y
estoy soldando sobre mi propia materia, prácticamente esto es lo que deseo. Bueno,
de forma más precisa, algo que tengo el tiempo y la inspiración para poder hacerlo. En
última instancia sin embargo, pienso que el verdadero acceso sin llave requerirá un
chip implantable con un sistema muy fuerte de cifrado; ahora tan sólo veo este tipo de
cosas en un contexto personal. "
Aplicaciones potenciales
Las etiquetas RFID se ven como una alternativa que reemplazará a los códigos de
barras UPC o EAN, puesto que tiene un número de ventajas importantes sobre la
arcaica tecnología de código de barras. Quizás no logren sustituir en su totalidad a los
códigos de barras, debidos en parte a su coste relativamente más alto. Para algunos
artículos con un coste más bajo la capacidad de cada etiqueta de ser única se puede
considerar exagerado, aunque tendría algunas ventajas tales como una mayor facilidad para llevar a cabo inventarios.
También se debe reconocer que el almacenamiento de los datos asociados al
seguimiento de las mercancías a nivel de artículo ocuparía muchos terabytes. Es
mucho más probable que las mercancías sean seguidas a nivel de palés usando
etiquetas RFID, y a nivel de artículo con producto único, en lugar de códigos de barras
únicos por artículo.
Los códigos RFID son tan largos que cada etiqueta RFID puede tener un código único,
mientras que los códigos UPC actuales se limitan a un solo código para todos los casos
de un producto particular. La unicidad de las etiquetas RFID significa que un producto
puede ser seguido individualmente mientras se mueve de lugar en lugar, terminando
finalmente en manos del consumidor. Esto puede ayudar a las compañías a combatir el
hurto y otras formas de pérdida del producto. También se ha propuesto utilizar RFID
para comprobación de almacén desde el punto de venta, y sustituir así al encargado de
la caja por un sistema automático que no necesite ninguna captación de códigos de
barras. Sin embargo no es probable que esto sea posible sin una reducción significativa
en el coste de las etiquetas actuales. Se está llevando a cabo una investigación sobre
la tinta que se puede utilizar como etiqueta RFID, que reduciría costes de forma significativa. Sin embargo, faltan todavía algunos años para que esto dé sus frutos.
Gen 2
Una organización llamada EPCglobal está trabajando en un estándar internacional para
el uso de RFID y EPC en la identificación de cualquier artículo en la cadena de
suministro para las compañías de cualquier tipo de industria, en cualquier lugar del
mundo. El consejo superior de la organización incluye representantes de EAN
International, Uniform Code Council, The Gillette Company, Procter & Gamble, Wal-
Mart, Hewlett-Packard, Johnson & Johnson, SATO and Auto-ID Labs. Algunos sistemas
RFID utilizan estándares alternativos basados en la clasificación ISO 18000-6.
El estándar gen 2 de EPCglobal fue aprobado en diciembre de 2004, y es probable que
llegue a formar la espina dorsal de los estándares en etiquetas RFID de ahora en
adelante. Esto fue aprobado después de una contención de Intermec por la posibilidad
de que el estándar pudiera infringir varias patentes suyas relacionadas con RFID. Se
decidió que el estándar en sí mismo no infringía sus patentes, sino que puede ser
necesario pagar derechos a Intermec si la etiqueta se leyera de un modo particular. EPC Gen2 es la abreviatura de "EPCglobal UHF Generation 2".
Identificación de pacientes
En julio de 2004, la Food and Drug Administration (Administración de Alimentos y
Medicamentos) hizo pública la decisión de comenzar un proceso de estudio que
determinará si los hospitales pueden utilizar sistemas RFID para identificar a pacientes
o para permitir el acceso por parte del personal relevante del hospital a los
expedientes médicos. El uso de RFID para prevenir mezclas entre esperma y óvulos en
las clínicas de fecundación in vitro también está siendo considerado [5]. Además, la
FDA aprobó recientemente los primeros chips RFID de EE.UU. que se pueden implantar
en seres humanos. Los chips RFID de 134,2kHz, de VeriChip Corp., una subsidiaria de
Applied Digital Solutions Inc., pueden incorporar información médica personal y
podrían salvar vidas y limitar lesiones causadas por errores en tratamientos médicos,
según la compañía. La aprobación por parte de la FDA fue divulgada durante una
conferencia telefónica con los inversionistas. También se ha propuesto su aplicación en
el hogar, para permitir, por ejemplo, que un frigorífico pueda conocer las fechas de
caducidad de los alimentos que contiene, pero ha habido pocos avances más allá de simples prototipos.
Tráfico y posicionamiento
Radiobalizas
Otra aplicación propuesta es el uso de RFID para señales de tráfico inteligentes en la
carretera (Road Beacon System o RBS) [6]. Se basa en el uso de transpondedores
RFID enterrados bajo el pavimento (radiobalizas) que son leídos por una unidad que
lleva el vehículo (OBU, de onboard unit) que filtra las diversas señales de tráfico y las
traduce a mensajes de voz o da una proyección virtual usando un HUD (Heads-Up
Display). Su principal ventaja comparadas con los sistemas basados en satélite es que
las radiobalizas no necesitan de mapeado digital ya que proporcionan el símbolo de la
señal de tráfico y la información de su posición por sí mismas. Las radiobalizas RFID
también son útiles para complementar sistemas de posicionamiento de satélite en lugares como los túneles o interiores, o en el guiado de personas ciegas.
Polémica
¿Cómo se sentiría usted si, por ejemplo, un día se diera cuenta de que su ropa interior
permite desvelar su paradero?
El uso de la tecnología RFID ha causado una considerable polémica e incluso boicots de
productos. Las cuatro razones principales por las que RFID resulta preocupante en lo que a privacidad se refiere son:
El comprador de un artículo no tiene por qué saber de la presencia de la
etiqueta o ser capaz de eliminarla.
La etiqueta puede ser leída a cierta distancia sin conocimiento por parte del
individuo.
Si un artículo etiquetado es pagado mediante tarjeta de crédito o
conjuntamente con el uso de una tarjeta de fidelidad, entonces sería posible
enlazar la ID única de ese artículo con la identidad del comprador.
El sistema de etiquetas EPCGlobal crea, o pretende crear, números de serie
globales únicos para todos los productos, aunque esto cree problemas de privacidad y sea totalmente innecesario en la mayoría de las aplicaciones.
La mayoría de las preocupaciones giran alrededor del hecho de que las etiquetas RFID
puestas en los productos siguen siendo funcionales incluso después de que se hayan
comprado los productos y se hayan llevado a casa, y esto puede utilizarse para
vigilancia, y otros propósitos infames sin relación alguna con sus funciones de
inventario en la cadena de suministro. Aunque la intención es emplear etiquetas RFID
de corta distancia, éstas pueden ser interrogadas a mayores distancias por cualquier
persona con una antena de alta ganancia, permitiendo de forma potencial que el
contenido de una casa pueda ser explorado desde una cierta distancia. Incluso un
escaneado de rango corto es preocupante si todos los artículos detectados aparecen en
una base de datos cada vez que una persona pasa un lector, o si se hace de forma
malintencionada (por ejemplo, un robo empleando un escáner de mano portátil para
obtener una evaluación instantánea de la cantidad de víctimas potenciales). Con
números de serie RFID permanentes, un artículo proporciona información inesperada
sobre una persona incluso después de su eliminación; por ejemplo, los artículos que se revenden, o se regalan, pueden permitir trazar la red social de una persona.
Otro problema referente a la privacidad es debido al soporte para un protocolo de
singulation (anticolisión). Ésta es la razón por la cual un lector puede enumerar todas
las etiquetas que responden a él sin que ellas interfieran entre sí. La estructura de la
versión más común de este protocolo es tal que todos los bits del número de serie de
la etiqueta salvo el último se pueden deducir por eavesdropping (detección a distancia)
pasivo tan sólo en la parte del protocolo que afecta al lector. Por esta razón, si las
etiquetas RFID están cerca de algún lector, la distancia en la cual la señal de una
etiqueta puede ser escuchada es irrelevante. Lo que importa es la distancia a la que un
lector de mucho más alcance puede recibir la señal. Independientemente de que esto
dependa de la distancia a la que se encuentre el lector y de qué tipo sea, en un caso
extremo algunos lectores tienen una salida de energía máxima (4 W) que se podría
recibir a diez kilómetros de distancia.
Pasaportes
Varios países han propuesto la implantación de dispositivos RFID en los nuevos
pasaportes, para aumentar la eficiencia en las máquinas de lectura de datos
biométricos. El experto en seguridad Bruce Schneier dijo a raíz de estas propuestas:
"Es una amenaza clara tanto para la seguridad personal como para la privacidad.
Simplemente, es una mala idea." Los pasaportes con RFID integrado únicamente
identifican a su portador, y en la propuesta que se está considerando, también
incluirían otros datos personales. Esto podría hacer mucho más sencillos algunos de los
abusos de la tecnología RFID que se acaban de comentar, y se podría expandir la
cantidad de datos para incluir, por ejemplo, abusos basados en la lectura de la
nacionalidad de una persona. Por ejemplo, un asalto cerca de un aeropuerto podría
tener como objetivo a víctimas que han llegado de países ricos, o un terrorista podría
diseñar una bomba que funcionara cuando estuviera cerca de personas de un país en particular.
El Departamento de Estado de los Estados Unidos rechazó en un primer momento
estas hipótesis porque pensaban que los chips sólo podrían ser leídos desde una
distancia de 10 cm, sin tener en cuenta más de 2.400 comentarios críticos de
profesionales de la seguridad, y una demostración clara de que con un equipo especial
se pueden leer los pasaportes desde 10 metros. A fecha de mayo de 2005, la propuesta está siendo revisada [8].
La autoridad de los pasaportes de Pakistán ha comenzado a expedir pasaportes con
etiquetas RFID.
Carné de conducir
El estado estadounidense de Virginia ha pensado en poner etiquetas RFID en los
carnés de conducción con el objetivo de que los policías y otros oficiales realicen
comprobaciones de una forma más rápida. La Asamblea General de Virginia también
espera que, al incluir las etiquetas, cueste mucho más obtener documentos de
identidad falsos. La propuesta se presentó por primera vez en el Driver's License
Modernization Act de 2002, que no fue promulgada, pero en 2004 el concepto todavía estaba considerándose.
La idea fue promovida por el hecho de que varios de los piratas aéreos de los
atentados del 11 de septiembre tenían carnés de conducir de Virginia fraudulentos. Sin
embargo, la American Civil Liberties Union dijo que además de ser un riesgo para la
privacidad y la libertad, la propuesta del RFID no habría entorpecido a los terroristas,
dado que la documentación falsa que portaban era válida, pues eran documentos
oficiales obtenidos con otra identificación falsa. La debilidad del sistema es que no falla
cuando se validan documentos en el momento, sino que falla al verificar la identidad
antes de expedirlos.
Bajo la propuesta, no se almacenaría ninguna información en la etiqueta salvo el
número correspondiente a la información del portador en una base de datos, sólo
accesible por personal autorizado. Además, para disuadir a las falsificaciones de identidad sólo sería necesario envolver un carné de conducir con papel de aluminio.
¿La señal de la bestia?
Ha habido polémica por parte de algunos miembros de la comunidad cristiana sobre
que el etiquetado RFID podría representar una marca de la bestia mencionada
específicamente en el Apocalipsis. Este tema es estudiado por aquellos cristianos
interesados en el campo de la escatología y el dispensacionalismo. Previamente se
había sugerido que otras formas de identificación tales como tarjetas de crédito y códigos UPC, podrían ser también señales de la bestia.
Blindajes Faraday como una contramedida al RFID
Se puede utilizar una jaula de Faraday para evitar que las señales de radiofrecuencia
se escapen o entren en una zona, actuando como un blindaje RF.
Si se rodeara un dispositivo RFID con un blindaje de Faraday tendría señales entrantes
y salientes muy atenuadas, hasta el punto de que no podrían ser utilizables. Un
blindaje de Faraday muy sencillo, valido para la mayoría de los propositos, sería un
envoltorio de papel de aluminio. Uno más efectivo sería un rectángulo de cobre
alrededor del objeto. Un RFID implantado sería más difícil de neutralizar con dicho
blindaje, pero incluso una cubierta simple de papel de aluminio atenuaría la componente de campo eléctrico de las señales.
Neutralizar permanentemente el RFID podría necesitar una fuerte corriente eléctrica
alterna adyacente al RFID, que sobrecargue la etiqueta y destruya su electrónica. En
algunos casos, dependiendo de la composición del RFID, un imán fuerte puede servir
para destruir mecánicamente la bobina o la conexión del chip por la fuerza mecánica
ejercida en la bobina. Con el desarrollo de la tecnología RFID, pueden ser necesarios otros métodos.
Las etiquetas de 125 kHz, 134 kHz (baja frecuencia), y en varios casos 13.56 MHz
(alta frecuencia) están unidas por un campo magnético en lugar de un campo
eléctrico,es lo que se denomina acoplamiento inductivo. Como la jaula de Faraday
blinda solamente la componente eléctrica del campo electromagnético, el blindaje de
papel de aluminio es ineficaz. Cualquier blindaje magnético, como por ejemplo una
hoja fina de hierro o acero, encapsulando la bobina de la antena de la etiqueta, será eficaz.
VPN
El concepto de Red Privada Virtual (RPV) aparece frecuentemente asociado a los de
conectividad, Internet y seguridad. Este artículo explica los fundamentos de esta moderna tecnología de conexión.
Las RPV son también conocidas con el acrónimo VPN, correspondiente a Virtual Private
Network (Red Privada Virtual en inglés).
La VPN es una tecnología de red que permite una extensión de la red local sobre una red pública o no controlada, como por ejemplo Internet.
El ejemplo más común es la posibilidad de conectar dos o más sucursales de una
empresa utilizando como vínculo Internet, permitir a los miembros del equipo de
soporte técnico la conexión desde su casa al centro de cómputo, o que un usuario
pueda acceder a su equipo doméstico desde un sitio remoto, como por ejemplo un hotel. Todo esto utilizando la infraestructura de Internet.
Para hacerlo posible de manera segura es necesario proveer los medios para garantizar la autenticación, integridad y confidencialidad de toda la comunicación:
Autenticación y autorización: ¿Quién está del otro lado? Usuario/equipo y
qué nivel de acceso debe tener.
Integridad: La garantía de que los datos enviados no han sido alterados. Para
ello se utiliza un metodo de comparación (Hash).Los algoritmos comunes de
comparacion son Message Digest(MD) y Secure Hash Algorithm (SHA).
Confidencialidad: Dado que los datos viajan a través de un medio
potencialmente hostil como Internet, los mismos son susceptibles de
intercepción, por lo que es fundamental el cifrado de los mismos. De este
modo, la información no debe poder ser interpretada por nadie más que los
destinatarios de la misma.Se hace uso de algoritmos de cifrado como Data
Encryption Standard (DES),Triple DES(3DES) y Advanced Encryption Standard
(AES).
No repudio, es decir un mensaje tiene que ir firmado, y el que lo firma no
puede negar que el mensaje lo envió él.
Requerimientos Básicos
Identificación de Usuario
Las VPN's (Redes Virtuales Privadas) deben verificar la identidad de los usuarios
y restringir su acceso a aquellos que no se encuentren autorizados.
Codificación de Datos
Los datos que se van a transmitir a través de la red pública (Internet), antes
deben ser cifrados, para que así no puedan ser leídos. Esta tarea se realiza con
algoritmos de cifrado como DES o 3DES.
Administración de claves
Las VPN's deben actualizar las claves de cifrado para los usuarios.
Soporte a protocolos múltiples
Las VPN's deben manejar los protocolos comunes, como son el Protocolo de
Internet (IP), intercambio de paquetes interred (IPX), etc.
Tipos de VPN (Red Privada Virtual)
Básicamente existen tres arquitecturas de conexión VPN:
VPN de acceso remoto
Éste es quizás el modelo más usado actualmente y consiste en usuarios o proveedores
que se conectan con la empresa desde sitios remotos (oficinas comerciales, domicilios,
hotel, aviones, etcétera) utilizando Internet como vínculo de acceso. Una vez
autenticados tienen un nivel de acceso muy similar al que tienen en la red local de la
empresa. Muchas empresas han reemplazado con esta tecnología su infraestructura
'dial-up' (módems y líneas telefónicas), aunque por razones de contingencia todavía conservan sus viejos modems. Existen excelentes equipos en el mercado.
VPN punto a punto
Este esquema se utiliza para conectar oficinas remotas con la sede central de
organización. El servidor VPN, que posee un vínculo permanente a Internet, acepta las
conexiones vía Internet provenientes de los sitios y establece el túnel VPN. Los
servidores de las sucursales se conectan a Internet utilizando los servicios de su
proveedor local de Internet, típicamente mediante conexiones de banda ancha. Esto
permite eliminar los costosos vínculos punto a punto tradicionales, sobre todo en las
comunicaciones internacionales.... Es más común el punto anterior, también llamada tecnología de túnel o tunneling:
Tunneling
Internet se construyó desde un principio como un medio inseguro. Muchos de los
protocolos utilizados hoy en día para transferir datos de una máquina a otra a través
de la red carecen de algún tipo de cifrado o medio de seguridad que evite que nuestras
comunicaciones puedan ser interceptadas y espiadas. HTTP, FTP, POP3 y otros muchos
protocolos ampliamente usados, utilizan comunicaciones que viajan en claro a través
de la red. Esto supone un grave problema, en todas aquellas situaciones en las que
queremos transferir entre máquinas información sensible, como pueda ser una cuenta
de usuario (nombre de usuario y contraseña), y no tengamos un control absoluto
sobre la red, a fin de evitar que alguien pueda interceptar nuestra comunicación por
medio de la técnica del hombre en el medio (man in the middle), como es el caso de la Red de redes.
¿Qué es el tunneling?
El problema de los protocolos que envían sus datos en claro, es decir, sin cifrarlos, es
que cualquier persona que tenga acceso físico a la red en la que se sitúan nuestras
máquinas puede ver dichos datos. Es tan simple como utilizar un sniffer, que
básicamente, es una herramienta que pone nuestra tarjeta de red en modo promiscuo
(modo en el que las tarjetas de red operan aceptando todos los paquetes que circulan
por la red a la que se conectan, sean o no para esa tarjeta). De este modo, alguien
que conecte su máquina a una red y arranque un sniffer recibirá y podrá analizar por
tanto todos los paquetes que circulen por dicha red. Si alguno de esos paquetes
pertenece a un protocolo que envía sus comunicaciones en claro, y contiene
información sensible, dicha información se verá comprometida. Si por el contrario,
ciframos nuestras comunicaciones con un sistema que permita entenderse sólo a las
dos máquinas que queremos sean partícipes de la comunicación, cualquiera que
intercepte desde una tercera máquina nuestros paquetes, no podrá hacer nada con
ellos, al no poder descifrar los datos. Una forma de evitar el problema que nos atañe,
sin dejar por ello de utilizar todos aquellos protocolos que carezcan de medios de
cifrado, es usar una útil técnica llamada tunneling. Básicamente, esta técnica consiste
en abrir conexiones entre dos máquinas por medio de un protocolo seguro, como
puede ser SSH (Secure SHell), a través de las cuales realizaremos las transferencias
inseguras, que pasarán de este modo a ser seguras. De esta analogía viene el nombre
de la técnica, siendo la conexión segura (en este caso de ssh) el túnel por el cual
enviamos nuestros datos para que nadie más aparte de los interlocutores que se sitúan
a cada extremo del túnel, pueda ver dichos datos. Ni que decir tiene, que este tipo de
técnica requiere de forma imprescindible que tengamos una cuenta de acceso seguro en la máquina con la que nos queremos comunicar.
VPN interna WLAN
Este esquema es el menos difundido pero uno de los más poderosos para utilizar
dentro de la empresa. Es una variante del tipo "acceso remoto" pero, en vez de utilizar
Internet como medio de conexión, emplea la misma red de área local (LAN) de la
empresa. Sirve para aislar zonas y servicios de la red interna. Esta capacidad lo hace
muy conveniente para mejorar las prestaciones de seguridad de las redes inalámbricas (WiFi).
Un ejemplo muy clásico es un servidor con información sensible, como las nóminas de
sueldos, ubicado detrás de un equipo VPN, el cual provee autenticación adicional más
el agregado del cifrado, haciendo posible que sólo el personal de RRHH habilitado pueda acceder a la información.
¿Por qué VPN?
Coste
La principal motivación del uso y difusión de esta tecnología es la reducción de los
costos de comunicaciones directos, tanto en líneas dial-up como en vínculos WAN
dedicados. Los costos se reducen drásticamente en estos casos:
En el caso de accesos remotos, llamadas locales a los ISP (Internet Service
Provider) en vez de llamadas de larga distancia a los servidores de acceso
remoto de la organización. O también mediante servicios de banda ancha.
En el caso de conexiones punto a punto, utilizando servicios de banda ancha
para acceder a Internet, y desde Internet llegar al servidor VPN de la
organización. Todo esto a un costo sensiblemente inferior al de los vínculos WAN dedicados.
Ancho de banda
Podemos encontrar otra motivación en el deseo de mejorar el ancho de banda utilizado
en conexiones dial-up. Las conexiones VPN de banda ancha mejoran notablemente la capacidad del vínculo, pero los costos son más altos..
Implementaciones
Todas las opciones disponibles en la actualidad caen en tres categorías básicas:
soluciones de hardware, soluciones basadas en cortafuegos y aplicaciones VPN por software.
El protocolo estándar de hecho es el IPSEC, pero también tenemos PPTP, L2F, L2TP,
SSL/TLS, SSH, etc. Cada uno con sus ventajas y desventajas en cuanto a seguridad,
facilidad, mantenimiento y tipos de clientes soportados.
Actualmente hay una línea de productos en crecimiento relacionada con el protocolo
SSL/TLS, que intenta hacer más amigable la configuración y operación de estas soluciones.
Las soluciones de hardware casi siempre ofrecen mayor rendimiento y
facilidad de configuración, aunque no tienen la flexibilidad de las versiones por
software. Dentro de esta familia tenemos a los productos de Nortel, Cisco,
Linksys, Netscreen, Symantec, Nokia, US Robotics, D-link etc.
En el caso basado en cortafuegos, se obtiene un nivel de seguridad alto por la
protección que brinda el cortafuegos, pero se pierde en rendimiento. Muchas
veces se ofrece hardware adicional para procesar la carga VPN. Por ejemplo:
Checkpoint NG, Cisco Pix.
Las aplicaciones VPN por software son las más configurables y son ideales
cuando surgen problemas de interoperatividad en los modelos anteriores.
Obviamente el rendimiento es menor y la configuración más delicada, porque se
suma el sistema operativo y la seguridad del equipo en general. Aquí tenemos
por ejemplo a las soluciones nativas de Windows, Linux y los Unix en general.
Por ejemplo productos de código abierto (Open Source) como OpenSSH, OpenVPN y FreeS/Wan.
Ventajas
Una de sus ventajas más importantes es su integridad, confidencialidad y
seguridad de datos.
Las VPN´s reducen costos y son sencillas de usar.
Su instalación es sencilla en cualquier PC.
Su control de acceso esta basado en políticas de la organización.
Los algoritmos de compresión que utiliza una VPN optimizan el tráfico del
usuario.
Las VPN´s evitan el alto costo de las actualizaciones y mantenimiento de PC's
remotas.
Las VPN´s ahorran en costos de comunicaciones y en costes operacionales.
Los trabajadores, mediante el uso de las VPN´s, pueden acceder a los servicios
de la compañía sin necesidad de llamadas.
Una organización puede ofrecer servicios a sus socios mediante VPN´s, ya que
éstas permiten acceso controlado y brindan un canal seguro para compartir la información de las organizaciones.
Tipos de Conexión
Conexión de Acceso Remoto
Una conexión de acceso remoto es realizada por un cliente o un usuario de un
computador que se conecta a una red privada, los paquetes enviados a través de la
conexión VPN son originados al cliente de acceso remoto, y este se autentica al servidor de acceso remoto, y el servidor se autentica ante el cliente.
Conexión VPN Router a Router
Una conexión VPN router a router es realizada por un router, y este a su vez se
conecta a una red privada. En este tipo de conexión, los paquetes enviados desde
cualquier router no se originan en los routers. El router que realiza la llamada se
autentica ante el router que responde y este a su vez se autentica ante el router que realiza la llamada.
Wi-Fi Protected Access WPA
WPA (Wi-Fi Protected Access - 1995 - Acceso Protegido Wi-Fi) es un sistema para
proteger las redes inalámbricas (Wi-Fi); creado para corregir las deficiencias del
sistema previo WEP (Wired Equivalent Privacy - Privacidad Equivalente a Cableado).
Los investigadores han encontrado varias debilidades en el algoritmo WEP (tales como
la reutilización del vector de inicialización (IV), del cual se derivan ataques estadísticos
que permiten recuperar la clave WEP, entre otros). WPA implementa la mayoría del
estándar IEEE 802.11i, y fue creado como una medida intermedia para ocupar el lugar
de WEP mientras 802.11i era finalizado. WPA fue creado por "The Wi-Fi Alliance" (La Alianza Wi-Fi), ver http://www.wi-fi.org/.
Historia
WPA fue diseñado para utilizar un servidor de autenticación (normalmente un servidor
RADIUS), que distribuye claves diferentes a cada usuario (a través del protocolo
802.1x ); sin embargo, también se puede utilizar en un modo menos seguro de clave
pre-compartida ([PSK] - Pre-Shared Key) para usuarios de casa o pequeña oficina. La
información es cifrada utilizando el algoritmo RC4 (debido a que WPA no elimina el
proceso de cifrado WEP, sólo lo fortalece), con una clave de 128 bits y un vector de
inicialización de 48 bits.
Una de las mejoras sobre WEP, es la implementación del Protocolo de Integridad de
Clave Temporal (TKIP - Temporal Key Integrity Protocol), que cambia claves
dinámicamente a medida que el sistema es utilizado. Cuando esto se combina con un
vector de inicialización (IV) mucho más grande, evita los ataques de recuperación]] de clave (ataques estadísticos) a los que es susceptible WEP.
Adicionalmente a la autenticación y cifrado, WPA también mejora la integridad de la
información cifrada. El chequeo de redundancia cíclica (CRC - Cyclic Redundancy
Check) utilizado en WEP es inseguro, ya que es posible alterar la información y
actualizar el CRC del mensaje sin conocer la clave WEP. WPA implementa un código de
integridad del mensaje (MIC - Message Integrity Code), también conocido como
"Michael". Además, WPA incluye protección contra ataques de "repetición" (replay
attacks), ya que incluye un contador de tramas.
Al incrementar el tamaño de las claves, el número de llaves en uso, y al agregar un
sistema de verificación de mensajes, WPA hace que la entrada no autorizada a redes
inalámbricas sea mucho más difícil. El algoritmo Michael fue el más fuerte que los
diseñadores de WPA pudieron crear, bajo la premisa de que debía funcionar en las
tarjetas de red inalámbricas más viejas; sin embargo es suceptible a ataques. Para
limitar este riesgo, las redes WPA se desconectan durante 60 segundos al detectar dos intentos de ataque durante 1 minuto.
WPA2
WPA2 está basada en el nuevo estándar 802.11i. WPA, por ser una versión previa, que
se podría considerar de "migración", no incluye todas las características del IEEE
802.11i, mientras que WPA2 se puede inferir que es la versión certificada del estándar 802.11i.
El estándar 802.11i fue ratificado en Junio de 2004.
La alianza Wi-Fi llama a la versión de clave pre-compartida WPA-Personal y WPA2-
Personal y a la versión con autenticación 802.1x/EAP como WPA-Enterprise y WPA2-
Enterprise.
Los fabricantes comenzaron a producir la nueva generación de puntos de accesos
apoyados en el protocolo WPA2 que utiliza el algoritmo de cifrado AES (Advanced
Encryption Standard). Con este algoritmo será posible cumplir con los requerimientos
de seguridad del gobierno de USA - FIPS140-2. "WPA2 está idealmente pensado para
empresas tanto del sector privado cómo del público. Los productos que son certificados
para WPA2 le dan a los gerentes de TI la seguridad que la tecnología cumple con
estándares de interoperatividad" declaró Frank Hazlik Managing Director de la Wi-Fi
Alliance. Si bien parte de las organizaciones estaban aguardando esta nueva
generación de productos basados en AES es importante resaltar que los productos
certificados para WPA siguen siendo seguros de acuerdo a lo establecido en el estándar 802.11i
3.2.5 Similitudes y diferencias de los modelos OSI y TCP/IP.
Aunque el modelo de referencia OSI sea universalmente reconocido, el estándar
abierto de Internet desde el punto de vista histórico y técnico es el Protocolo de control
de transmisión/Protocolo Internet (TCP/IP). El modelo de referencia TCP/IP y la pila de
protocolo TCP/IP hacen que sea posible la comunicación entre dos computadoras,
desde cualquier parte del mundo, a casi la velocidad de la luz. El modelo TCP/IP tiene
importancia histórica, al igual que las normas que permitieron el desarrollo de la
industria telefónica, de energía eléctrica, el ferrocarril, la televisión y las industrias de
vídeos.
El Departamento de Defensa de EE.UU. (DoD) creó el modelo TCP/IP porque
necesitaba una red que pudiera sobrevivir ante cualquier circunstancia, incluso una
guerra nuclear. Para mayor ilustración, supongamos que el mundo está en estado de
guerra, atravesado en todas direcciones por distintos tipos de conexiones: cables,
microondas, fibras ópticas y enlaces satelitales. Imaginemos entonces que se necesita
que fluya la información o los datos (organizados en forma de paquetes),
independientemente de la condición de cualquier nodo o red en particular de
Internetwork (que en este caso podrían haber sido destruidos por la guerra). El DoD
desea que sus paquetes lleguen a destino siempre, bajo cualquier condición, desde un
punto determinado a cualquier otro punto determinado. Este problema de diseño de
difícil solución fue lo que llevó a la creación del modelo TCP/IP, que desde entonces se
transformó en el estándar a partir del cual se desarrolló Internet.
A medida que obtenga más información acerca de las capas, tenga en cuenta el
propósito original de Internet; esto le ayudará a entender por qué motivo ciertas cosas
son como son. El modelo TCP/IP tiene cuatro capas: la capa de aplicación, la capa de
transporte, la capa de Internet y la capa de red. Es importante observar que algunas
de las capas del modelo TCP/IP poseen el mismo nombre que las capas del modelo
OSI. No confunda las capas de los dos modelos, porque la capa de aplicación tiene
diferentes funciones en cada modelo.
Capa de aplicación
Los diseñadores de TCP/IP sintieron que los protocolos de nivel superior deberían
incluir los detalles de las capas de sesión y presentación. Simplemente crearon una
capa de aplicación que maneja protocolos de alto nivel, aspectos de representación,
codificación y control de diálogo. El modelo TCP/IP combina todos los aspectos
relacionados con las aplicaciones en una sola capa y da por sentado que estos datos
están correctamente empaquetados para la siguiente capa.
Capa de transporte
La capa de transporte se refiere a los aspectos de calidad del servicio con respecto a la
confiabilidad, el control de flujo y la corrección de errores. Uno de sus protocolos, el
protocolo para el control de la transmisión (TCP), ofrece maneras flexibles y de alta
calidad para crear comunicaciones de red confiables, sin problemas de flujo y con un
nivel de error bajo. TCP es un protocolo orientado a la conexión. Mantiene un diálogo
entre el origen y el destino mientras empaqueta la información de la capa de aplicación
en unidades denominadas segmentos. Orientado a la conexión no significa que el
circuito exista entre los computadores que se están comunicando (esto sería una
conmutación de circuito). Significa que los segmentos de la Capa 4 viajan de un lado a
otro entre dos hosts para comprobar que la conexión exista lógicamente para un
determinado período. Esto se conoce como conmutación de paquetes.
Capa de Internet
El propósito de la capa de Internet es enviar paquetes origen desde cualquier red en
Internetwork de redes y que estos paquetes lleguen a su destino independientemente
de la ruta y de las redes que se utilizaron para llegar hasta allí. El protocolo específico
que rige esta capa se denomina Protocolo Internet (IP). En esta capa se produce la
determinación de la mejor ruta y la conmutación de paquetes. Esto se puede comparar
con el sistema postal. Cuando envía una carta por correo, usted no sabe cómo llega a
destino (existen varias rutas posibles); lo que le interesa es que la carta llegue.
Capa de red
El nombre de esta capa es muy amplio y se presta a confusión. También se denomina
capa de host a red. Es la capa que se ocupa de todos los aspectos que requiere un
paquete IP para realizar realmente un enlace físico y luego realizar otro enlace físico.
Esta capa incluye los detalles de tecnología de LAN y WAN y todos los detalles de las
capas física y de enlace de datos del modelo OSI.
El diagrama que aparece en la siguiente figura se denomina gráfico de protocolo.
Este gráfico ilustra algunos de los protocolos comunes especificados por el modelo de
referencia TCP/IP. En la capa de aplicación, aparecen distintas tareas de red que
probablemente usted no reconozca, pero como usuario de Internet, probablemente use
todos los días. Todas ellas se estudiarán durante el transcurso del currículum CNAP.
Estas aplicaciones incluyen las siguientes:
FTP : File Transfer Protocol (Protocolo de transporte de archivos)
HTTP: Hypertext Transfer protocol (Protocolo de transferencia de hipertexto)
SMTP: Simple Mail transport protocol (Protocolo de transporte de correo simple)
DNS: Domain Name Service (Servicio de nombre de dominio)
TFTP:Trival File transport protocol(Protocolo de transporte de archivo trivial)
El modelo TCP/IP enfatiza la máxima flexibilidad, en la capa de aplicación, para los
diseñadores de software. La capa de transporte involucra dos protocolos: el protocolo
de control de transmisión (TCP) y el protocolo de datagrama (UDP). Estos protocolos
se examinarán posteriormente con más detalle en el currículum CCNA. La capa
inferior, la capa de red, se relaciona con la tecnología LAN o WAN que se utiliza en
particular.
En el modelo TCP/IP existe solamente un protocolo de red: el protocolo Internet, o IP,
independientemente de la aplicación que solicita servicios de red o del protocolo de
transporte que se utiliza. Esta es una decisión de diseño deliberada. IP sirve como
protocolo universal que permite que cualquier computador en cualquier parte del
mundo pueda comunicarse en cualquier momento.
Si compara el modelo OSI y el modelo TCP/IP, observará que ambos presentan
similitudes y diferencias. Los ejemplos incluyen:
Actividad de laboratorio
En esta práctica de laboratorio aprenderá a relacionar las siete capas del modelo OSI con
las 4 capas del modelo TCP/IP y a nombrar protocolos TCP/IP primarios y utilidades que
operan en cada capa.
Similitudes
Ambos se dividen en capas
Ambos tienen capas de aplicación, aunque incluyen servicios muy distintos
Ambos tienen capas de transporte y de red similares
Se supone que la tecnología es de conmutación de paquetes (no de
conmutación de circuitos)
Los profesionales de networking deben conocer ambos
Diferencias
TCP/IP combina las funciones de la capa de presentación y de sesión en la capa
de aplicación
TCP/IP combina la capas de enlace de datos y la capa física del modelo OSI en
una sola capa
TCP/IP parece ser más simple porque tiene menos capas
Los protocolos TCP/IP son los estándares en torno a los cuales se desarrolló
Internet, de modo que la credibilidad del modelo TCP/IP se debe en gran parte
a sus protocolos. En comparación, no se crean redes a partir de protocolos
específicos relacionados con OSI, aunque todo el mundo utiliza el modelo OSI
como guía.
Aunque los protocolos TCP/IP representan los estándares en base a los cuales se ha
desarrollado Internet, aquí se utiliza el modelo OSI por los siguientes motivos:
Es un estándar mundial, genérico, independiente de los protocolos.
Es más detallado, lo que hace que sea más útil para la enseñanza y el
aprendizaje.
Al ser más detallado, resulta de mayor utilidad para el diagnóstico de fallas.
Muchos profesionales de networking tienen distintas opiniones con respecto al modelo
que se debe usar. Usted debe familiarizarse con ambos modelos. Utilizará el modelo
OSI como si fuera un microscopio a través del cual se analizan las redes, pero también
utilizará los protocolos TCP/IP durante el currículum CNAP. Recuerde que existe una
diferencia entre un modelo (es decir, capas, interfaces y especificaciones de protocolo)
y el protocolo real que se usa en networking. Usted usará el modelo OSI y los
protocolos TCP/IP.
Se concentrará en TCP como un protocolo de Capa 4 de OSI, IP como un protocolo de
Capa 3 de OSI y Ethernet como una tecnología de las Capas 2 y 1. El diagrama de la
figura indica que posteriormente durante el curso se examinará una tecnología de la
capa de enlace de datos y de la capa física en particular entre las diversas opciones
disponibles: esta tecnología será Ethernet.