Introduccion
From Livre IPv6
Principios fundamentales de IP
Internet goza de un gran éxito, muy superior a las predicciones más optimistas realizadas al momento de su concepción. Las razones de este éxito son múltiples; sin embargo, es posible tratar de identificar algunas de ellas ligadas a las características fundamentales de Internet y a la arquitectura de su protocolo de comunicación, IP (Internet Protocol).
Internet se basa en un modelo de red de redes. Su nombre proviene del inglés: Inter Networking. No hace ninguna hipótesis sobre el tipo de infraestructura o equipo utilizado. Los equipos terminales o puntos de conexión a las redes, son dispositivos con capacidad de procesamiento avanzado. Los datos se transmiten en unidades separadas llamadas datagramas (comúnmente conocidas como paquetes). A partir de estas premisas, los arquitectos de Internet retuvieron dos principios fundamentales: la comunicación "extremo a extremo" (End to End) y el "mejor esfuerzo" (Best Effort) para encaminar datagramas.
El principio de "extremo a extremo" significa que los interlocutores de una comunicación dialogan desde cada extremo de la red para establecer y gestionar su comunicación. Los elementos intermediarios son "transparentes" y no intervienen en el diálogo. Dado que los dispositivos en los extremos son "inteligentes", son capaces de tomar las decisiones necesarias. No hay una posición inherentemente privilegiada en la red: cada computadora conectada a Internet tiene el mismo potencial. Esto también permite extender el modelo cliente/servidor: un servidor ya no está necesariamente ligado a un equipo especial; cualquier computadora conectada a Internet puede fungir como servidor y cualquier otro equipo puede actuar como cliente. Es esta característica la que permitió la proliferación de servidores Web en todo el mundo. Cualquier persona que tenga una computadora conectada a Internet puede instalar su propio servidor Web. El principio extremo a extremo también es fundamental para las aplicaciones peer to peer (P2P).
El principio de "mejor esfuerzo" significa que ninguno de los elementos de interconexión ofrece alguna garantía en la entrega de datos. Simplemente hacen "todo lo posible" para su entrega. Por ejemplo, es posible que paquetes de datos sucesivos no puedan seguir la misma ruta; algunos pueden perderse y otros llegar fuera de orden, aunque todo esto es relativamente raro en Internet.
Por este principio se dice que el protocolo IP no es "fiable", pero sí "robusto". No es fiable al no poder garantizar el arribo de los datos enviados. La gran ventaja es que, al liberar a las redes de una tarea tan compleja, pueden reconfigurarse dinámicamente en caso de que falle un enlace o un equipo. Los protocolos de la capa de transporte, como TCP, son los responsables de gestionar la retransmisión de paquetes perdidos y de re ensamblar los que hubieran llegado fuera de orden; son ellos los que ofrecen la "fiabilidad" del servicio.
Estos dos principios permiten acoplar las diferencias entre las infraestructuras y entre los equipos utilizados para la interconexión. Ellos son los que han hecho posible el crecimiento de Internet como la conocemos hoy en día. Este crecimiento ahora se ve limitado por dos problemas principales: la falta de direcciones disponibles y la estabilidad debido al tamaño de las tablas de enrutamiento en los dispositivos de interconexión de los operadores red.
Las computadoras se identifican en Internet mediante direcciones IP únicas. El principio de datagrama requiere que la dirección del destinatario (dirección destino) se incluya en todos los paquetes transmitidos sobre la red. Para lograr un procesamiento muy veloz, los enrutadores deben encontrar rápidamente dicha dirección. En IPv4, éstas se codifican en una palabra binaria de 32 bits y siempre están en el mismo lugar en el encabezado. Este principio de ingeniería ha demostrado su eficacia, ya que permite la construcción de equipos de interconexión sencillos capaces de procesar un gran número de paquetes por segundo.
Una dirección codificada en 32 bits, teóricamente puede identificar 2^32, o alrededor de 4 mil millones de dispositivos. En una primera impresión, esta cifra puede parecer muy alta, pero las computadoras no se numeran secuencialmente. Se agrupan en redes y a cada red se le asigna un número que se codifica en algunos de los 32 bits de la dirección de las máquinas. En consecuencia, es posible notar que el número de redes disponibles no es tan grande, lo cual conduce a su escasez. La tendencia actual consiste en frenar al máximo la asignación de direcciones de red. Esto no es un problema para los sitios que disponen de grandes rangos de direcciones. Es una seria limitante para nuevos sitios en los llamados países "desarrollados" para los cuales un gran número de direcciones ha sido reservado. Pero está demostrando ser un problema mayor para algunos países emergentes, donde en ocasiones hasta menos de 10 redes de 250 máquinas han sido asignados para todo el país.
Los equipos de interconexión de redes encargados de encaminar los paquetes hasta su destino final, son los enrutadores. Para tomar decisiones sobre la ruta que deben seguir, consultan una tabla llamada de enrutamiento. Como el número de redes en Internet crece a una velocidad vertiginosa, estas tablas son cada vez más grandes y difíciles de mantener. Para paliar este problema, se concibió una solución de direccionamiento jerárquico llamada CIDR (Classeless Inter Domain Routing) que permite agrupar un conjunto de números de red contiguos en un solo prefijo. Además de la reducción en las tablas de encaminamiento, CIDR ayuda a reducir el exceso de asignación de direcciones a los sitios terminales, lo que contribuye a reducir un poco la escasez de direcciones. Con CIDR se modifica la propiedad de la dirección. En los planes iniciales de direccionamiento, el sitio era dueño de su prefijo; con CIDR, el prefijo es propiedad del operador, por lo que se vuelve necesario realizar una nueva numeración si el sitio cambia de operador. Este direccionamiento jerárquico ha demostrado su eficiencia operativa y las reglas actuales de direccionamiento en IPv6 generalizan este principio.
Otro paliativo a la escasez de direcciones es el uso de traductores de direcciones (NAT: Network Address Translator) que utilizan direcciones "privadas" al interior de un sitio. Estas direcciones no permiten la comunicación directa con una computadora conectada a Internet. Dado que las comunicaciones con el exterior siguen siendo necesarias, se utiliza un artificio para lograrlo: el enrutador de salida del sitio "convierte" todas las direcciones privadas en una o más direcciones oficiales. Así, este enrutador establece las comunicaciones en representación de las máquinas internas en el sitio.
Este mecanismo requiere de sólo unas pocas direcciones IP oficiales para todo un sitio que pudiera tener varios miles de máquinas. Este enfoque, que representa una clara violación del principio de conexión extremo a extremo, es suficiente para aplicaciones simples como el acceso a la Web, pero penaliza fuertemente la creación de muchas otras aplicaciones. Además, imposibilita la implementación de soluciones de alta seguridad basadas en la criptografía.
En resumen, estos mecanismos temporales fijan la red para su uso en un modo conocido como cliente/servidor. Los clientes están en el interior de la empresa en una internet "privada" y los servidores se encuentran fuera, en la Internet "pública". Sin embargo, este paradigma se ve desafiado por nuevas aplicaciones como el fax y la telefonía por Internet, donde cada dispositivo debe estar autorizado para recibir llamadas. Similarmente, los juegos en red, para los que se prevé un éxito notable, no funcionan con mecanismos de NAT, ya que las aplicaciones deben intercambiar sus direcciones.
El éxito de una red no depende solamente de las buenas las opciones tecnológicas adoptadas en el diseño del protocolo. También está relacionado con los servicios y aplicaciones disponibles en la red. IP desempeña un papel unificador en la frontera entre los medios de transmisión y las aplicaciones. En vez de mantener una separación entre la aplicación y el medio, la red permite que las aplicaciones puedan comunicarse entre los diferentes medios. El riesgo de mantener demasiado tiempo las direcciones privadas, es el romper esta comunicación entre mundos diferentes, que es la mayor creación de riqueza en la red. Se podría incluso llegar a un estado en el que todo mundo desarrollara un protocolo de red que mejor se adaptara a sus propias necesidades, a expensas de la interconectividad.
Volviendo a los dos principales problemas que limitaban el crecimiento de Internet, el agotamiento de direcciones disponibles y el crecimiento explosivo de las tablas de enrutamiento, se hacía imprescindible enfrentarlos al mismo tiempo apoyándose en los principios fundamentales que cimentaron el éxito de Internet. Esta es la tarea en que ha estado trabajando desde1992 el IETF (Internet Engineering Task Force), el grupo de estandarización de Internet, para definir el protocolo IPv6.
Tras más de 10 años de esfuerzos de estandarización, las especificaciones básicas del protocolo y las reglas de asignación de direcciones están claramente definidas. La mayoría de los enrutadores y sistemas operativos actuales incluyen la nueva versión del protocolo IP. Ahora es necesario sacar IPv6 de los laboratorios y plataformas de experimentación, garantizar la interoperabilidad con IPv4 cuando sea necesario, y desarrollar nuevas aplicaciones que aprovechen el espacio de direcciones casi ilimitado que ofrece IPv6. Uno de los retos en los próximos años, es el poder utilizar IPv6 en áreas hasta ahora poco atendidas por las redes (sector audiovisual, domótica, redes en vehículos automotores –VSN-, etcétera).