MOOC:Verb03

From Livre IPv6

Revision as of 08:06, 6 September 2020 by Vveque (Talk | contribs) (Mesures d'urgence)

Script 03 : Evolution d'Internet

Dans cette vidéo, nous allons présenter les principales phases de l'évolution de l'Internet qui ont conduit à son succès et son universalité. Sur plusieurs graphiques, nous verrons comment le nombre d'utilisateurs et le nombre de réseaux connectés ont augmenté. Nous verrons les conséquences sur les tables de routage de l'Internet. Nous expliquerons la manière dont les adresses IPv4 sont allouées. Nous présenterons les solutions développées pour pallier la pénurie des adresses.

Evolution en 4 phases

3) Sur le site de l'Internet Society, on trouve ce graphique qui présente des années 70 à 2000, une croissance en 3 phases pour arriver à environ 100 millions d'hôtes connectés. 20 ans plus tard, la croissance a continué de manière exponentielle pour arriver à 4,5 milliards d'utilisateurs (ajouter nombre d'h^tes) soit 59% de la population mondiale. C'est pourquoi il nous a paru nécessaire d'ajouter une quatrième phase que l'on a surnommé : "l'explosion".

Phase 1 : l'expérimentation

4) La première phase est dite expérimentale. En pleine guerre froide, le DARPA (Département de la Défense Américaine) souhaite interconnecter différents sites avec un contrôle décentralisé pour éviter une attaque du centre de contrôle et pour qu'une panne de site n'affecte pas le fonctionnement du réseau et des autres sites. L'intelligence répartie sur tous les éléments est le principe fondateur de l'Internet. C'est révolutionnaire pour l'époque car les réseaux étaient forcément centralisé et utilisaient des connexions, avec un centre de contrôle qui gérait un ensemble de noeuds dédiés à des fonctions basiques : connexion des hôtes, commutation. Le mode réparti va donc être décliné dans les premiers protocoles développés comme NCP (Network Control Protocol) ou le protocole de routage auquel participe l'ensemble des noeuds du réseau par échange d'informations de connectivité et construction locale d'une table de routage. Les autres principes fondateurs sont la commutation de paquets en mode sans connexion et l'interconnexion des technologies de communication existantes sans les modifier.

Les premiers protocoles vont être testés avec quelques noeuds. Les protocoles évoluent ainsi NCP qui assure à la fois le transfert des paquets et la fiabilité de ce transfert va évoluer en deux protocoles : IP, protocole simple pour l'interconnexion et TCP, protocole complexe, qui permet de fiabiliser le transfert des paquets mais qui sera exécuté par les hôtes pour conserver au réseau sa simplicité. IPv4 est spécifié en 1981 dans le RFC 791 qui définit notamment, l'adresse sur 32 bits, son format en 2 champs de longueur variable selon la classe de réseau.

5) En 1983, le réseau Arpanet a été séparé du réseau militaire et est principalement utilisé par des écoles et des universités américaines. Un événement important dans la diffusion des protocoles de l'Internet et de son adhésion par le plus grand nombre est l'intégration par l'Université de Berkeley des protocoles TCP/IP dans le noyau du système d'exploitation Unix.

Phase 2: les tests en vraie grandeur

6) Les années 80 voient la généralisation des stations de travail autonomes mais avec une puissance de calcul et un disque limités. Le système UNIX est le premier système non propriétaire et programmé en langage évolué. C' est un système multi-tâches et évolutif qui a été porté sur ces stations de travail. Cependant, elles ont besoin de communiquer entre elles pour l'accès à des ressources partagées comme le système de fichiers ou les imprimantes. Pour ces communications locales qui visent à émuler les systèmes centralisés, la pile TCP/IP va être massivement utilisée. De plus, les protocoles Internet proposent des applications de communication inter-personnelle comme le mail ou le transfert de fichiers, ou les news. Très vite, les chercheurs et les ingénieurs vont les utiliser pour échanger des informations scientifiques entre collègues du monde entier. Ces utilisateurs experts qui ne sont pas rebutés par des lignes de commandes et parlent couramment anglais, vont donc réaliser des tests en vraie grandeur de l'Internet. Dans un deuxième temps, la micro-informatique se développe et propose les premiers ordinateurs personnels certes limités mais très économiques et les particuliers commencent à s'équiper. Mais ces équipements vont se heurter aux très faibles débits d'accès des particuliers qui passent par le réseau téléphonique.


Phase 3 : l'universalité

7) Dés les années 90, on vient de voir que les particuliers commençaient à s'équiper en micro-ordinateurs personnels. Dans le même temps, la technologie ADSL va doper le débit d'accès résidentiel en utilisant toute la capacité des paires téléphoniques. Mais ces avancées/phénomènes ne suffisent pas à eux seuls à expliquer l'adhésion universelle à Internet. Les années 90 ont vu des progrès significatifs dans la conception des interfaces homme machine qui deviennent graphiques, intuitives et faciles à utiliser grâce à des fenêtres, des boutons ou des barres de défilement. L'accès au réseau et à ses informations ne nécessite plus de connaître les commandes Unix. Les informations contiennent toujours des textes mais sont aussi enrichies par des images, des sons et des vidéo. Dés cette époque, dans l'Internet se pose le problème de la recherche d'informations dans ce réseau mondial avec des volumes qui ne cessent de croire. Les premiers moteurs de recherche font leur apparition. Mais le progrès le plus significatif a été le développement de l'application Web. En effet, les sites Web sont chaînés entre eux de manière sémantique et non hiérarchique par des liens entre les documents, les liens hypertexte. Enfin, l'accès à une page Web nécessite le transfert d'une description HTML, qui est plus légère qu'un 'bitmap', puis sont transférés les images et autres contenus de la page HTML.

Les contenus s'enrichissent dans toutes les langues et dans tous les pays du monde, rendant le Web plus proche et plus attractif pour les particuliers.

Phase 4 : l'explosion

8) La 4ème phase que nous vivons actuellement pourrait s’appeler l’explosion ! 3 phénomènes expliquent cette croissance sans précédent. D'abord, le nombre d'hôtes utilisant Internet a augmenté car de nouveaux terminaux sont maintenant connectés à Internet tels que les consoles de jeux, les tablettes ou les télévisions. On parle d'écrans car souvent l'utilisateur se contentent de regarder une vidéo. Les générations 3 et 4 des réseaux sans fil et mobiles permettent désormais à des terminaux intelligents comme les smartphones, de transférer non seulement de la voix mais aussi des images, des vidéos et des données, de manière rapide, presque partout. Il y a désormais 4 à 5 hôtes par personnes : smartphone, tablette, PC entreprise, PC portable, console de jeux, etc.

De nouvelles applications sont massivement utilisées par les internautes comme la vidéo à la demande et le streaming, les réseaux sociaux, le pair-à-pair ou les jeux. Les communications inter-personnelles vidéo se généralisent. (comme on le constate sur ce schéma qui représente une minute d'utilisation d'Internet)

Enfin, ces 20 dernières années, de nombreux pays émergents, en Asie, en Amérique du Sud ou en Afrique, ont connu un développement économique important qui s'est accompagné par leur développement technologique incluant leur adhésion à l'Internet.

Evolution en chiffres

9) On peut voir sur ce graphique l'accroissement du nombre d'utilisateurs de l'Internet dans chaque région du monde, en 2000 et 2010. Pour toutes les régions du monde, l'accroissement a été très important. Mais c'est surtout en Asie qu'il a été le plus important, tant cette région est peuplée et a connu un boom économique sans précédent. Le nombre d'Internautes a été ainsi multiplié par 7 en Asie, pour prendre la tête du nombre d'utilisateurs à la place de l'Europe et des Etats-Unis. L'Amérique latine a aussi connu un essor sans précédent en multipliant ce nombre par 11.

10) Sur ces nouveaux graphiques, à gauche, on voit que le nombre d'utilisateurs de l'Internet augmente plus vite que la croissance de la population mondiale. En effet, le nombre d'internautes est d'environ 4,8 milliards en 2020 soit 59% de la population mondiale. La capacité d'adressage des 32 bits d'adresse est donc dépassée puisqu'elle est de 3,3 milliards d'adresse en théorie.

Un problème de taille !

11) L'Internet n'avait pas été prévu pour supporter une telle croissance et même si l'adresse IPv4 a une capacité théorique de 4,3 milliards d'adresses, le nombre d'hôtes connectés à Internet va encore augmenter. Il est prévu un déferlement avec l'arrivée des objets connectés (dont certains que nous utilisons déjà par exemple, les montres connectées) mais aussi l'Industrie 4.0, qui multipliera les capteurs et les robots.

Les 4 milliards d'adresse IPv4 ne sont pas allouées de manière unitaire car, nous l'avons vu, l'adresse IP a un format à 2 niveaux : un hôte particulier dans un réseau particulier. L'allocation d'une adresse IP se fait en fonction du nombre d'adresses d'hôtes nécessaires pour adresser tous les hôtes du réseau. On en déduit le nombre de bits dans le champ <hôte> et par soustraction à 32, celui du préfixe réseau. Par exemple, si l'on veut adresser 200 h^tes sur un réseau donné, on aura besoin de 8 bits pour le champ hôte car 2^8 est égal à 256 tandis que 2^7 est égal à 128. Le champ hôte sera donc sur 8 bits, et le champ réseau sur 24 bits

On dispose alors de 256 adresses d'hôtes dont seulement 200 seront utilisées. Le codage binaire de l'adresse engendre une première perte d'adresses.

Allocation des adresses

12) Au niveau mondial, l'IANA('Internet Assigned Numbers Authority') répartit grossièrement les plages d’adresse entre les organismes régionaux de distribution d'adresses appelés RIR (Regional Internet Registry) qui sont au nombre de 6 : African Network Information Center (AFRINIC), American Registry for Internet Numbers (ARIN), Asia-Pacific Network Information Centre (APNIC), Latin America and Caribbean Network Information Centre (LACNIC) et Réseaux IP Européens Network Coordination Centre (RIPE NCC).

Chaque RIR distribue ensuite des plages entre ses membres qui sont des organismes publics ou privés comme des opérateurs.

13) Par exemple, un RIR dispose d'une plage d'adresse dite en /8 ce qui fait que l'adresse réseau est sur 8 bits et l'adresse hôte sur 24 bits. Chaque bloc /8 comprend au total 16 777 216 adresses. Le RIR découpe son bloc en sous-blocs pour les allouer à ses membres, au plus près de leur besoin d'adresses. Il va allouer un préfixe réseau en /21 à un Fournisseur d'Accès à Internet local. Lequel va allouer à son tour des sous-préfixes à ses différents clients.

La capacité de chaque préfixe correspond à la puissance de 2 immédiatement supérieure au nombre d'adresses souhaitées par le client et on ne peut pas éviter les adresses inutilisées par les membres. Certaines plages ne peuvent plus être allouées si elles sont trop petites.

Mesures d'urgence

14) Dés le début des années 90, l'accroissement du nombre d'hôtes a alerté les instances de l'Internet et plusieurs mesures d'urgence ont été prises. La première mesure a consisté à abandonner le système de classes d'adresses. En effet, les classes étaient définies par la valeur du premier octet et leur nombre d'adresse dépendait de la taille du réseau. Cependant, les tailles prédéfinies étaient respectivement, pour A, 16 M d'hôtes, pour B, 65000 et pour C, 256 ! On voit bien que la granularité d'allocation était trop grossière et menait à un gaspillage excessif. Un autre inconvénient était une représentation trop importante des très grands réseaux (50%) aux détriments des petits réseaux, qui étaient les plus nombreux.

Le Classless Inter-Domain Routing (CIDR), est mis au point en 1993 et la distinction entre les adresses de classe A, B ou C a été ainsi rendue obsolète, de sorte que la totalité de l'espace d'adressage unicast puisse être gérée comme une collection unique de sous-réseaux indépendamment de la notion de classe. La longueur du préfixe réseau ne pouvant plus être déduite de l'adresse IP elle-même, elle est alors spécifiée pour chaque adresse en ajoutant à la fin "/x" où x est le nombre de bits dans le préfixe réseau. Par exemple, si un FAI a besoin de 8000 adresses, avec les classes, on lui aurait allouer une classe B qui dispose de 65536 adresses d'où un énorme gaspillage Sans classe, on peut allouer à ce FAI un bloc /19 soit 8192 adresses ce qui est proche de son besoin.

15) La deuxième mesure consiste à économiser les adresses publiques d'une part en utilisant un adressage privé dans le sous-réseau, et d'autre part, en partageant l'adresse publique allouée entre les hôtes du sous-réseau. Un système de translation d'une adresse privée vers une adresse publique a été alors développé dans les routeurs et les box : NAT ou Network Address Translation. Ce mécanisme permet de connecter à Internet plus d'un hôte par maison ou entreprise alors que le forfait de connexion Internet standard d'un FAI ne fournit qu'une seule adresse publique et routable à chaque abonné. Cela implique de modifier deux champs des entêtes IP et TCP : l'adresse IP source et ainsi que le port TCP ou UDP source, et ce pour chaque paquet sortant.

16) Nous allons détailler le fonctionnement de NAT à travers un exemple courant d'interconnexion d'une maison à son réseau d'opérateur. Dans le réseau local, chaque hôte sur le réseau local du domicile dispose d'une adresse publique. En l'absence de translation, le réseau résidentiel dispose d'une plage d'adresse allouée par son opérateur, par exemple : 123.45.67.0/28 qui lui donnent la possibilité d'adresser jusqu'à 16 hôtes. Ces adresses sont publiques et donc routables sur l'Internet. Depuis le début du raccordement des particuliers à Internet, le fournisseur d'accès ne distribue avec le forfait qu'une seule adresse IP publique à chaque abonné. Comme il y a plus d'un hôte à raccorder dans chaque maison, le routeur ou la box met en place un adressage privé c'est-à-dire qu'il distribue des adresses privées à chaque machine connectée au moyen du protocole de configuration automatique, DHCP. Dans RFC 6761, plusieurs plages d'adresses privées sont réservées dont le préfixe : 192.168.0.0/16.

Maintenant dans le réseau local, les adresses allouées sont privées et non routables sur l'Internet, la mécanisme de translation NAT au passage d'un paquet sortant va remplacer l'adresse IP source privée par l'adresse publique de cet abonné. Il ajoute en plus une marque (numéro de port TCP) pour différencier l'adresse de Maman de celle d'Alice ! Cette translation est enregistrée dans une table ce qui permet de faire la translation inverse lorsqu'un paquet arrive de l'Internet.

Bilan des mesures d'urgence

18) CIDR a permis l'utilisation de toutes les plages d'adresses disponibles et d'éviter le gaspillage inhérent aux systèmes avec classes. Il permet de plus de réduire le nombre d'entrées dans les tables de routage, car l'allocation par blocs et sous-blocs permet de synthétiser (summarize) de multiples sous-réseaux en une adresse et un masque de super réseau.

NAT est bien une solution temporaire à la pénurie d’adresses et a permis de ralentir la croissance de la courbes du nombre d'adresses allouées dès 95, qui d'exponentielle devient linéaire.

De plus, certains opérateurs, par manque d'adresses publiques, ont recours à la technique du "double NAT" dans laquelle le réseau de l'opérateur lui-même est en adressage privé. Ainsi, le client de l'opérateur n'a même plus une adresse publique. Le NAT du client final se retrouve à faire un passage d'un adressage privé à un autre adressage privé. Cette solution a été notamment adoptée par les opérateurs mobiles lorsque leurs utilisateurs se sont mis à utiliser massivement les services de données et Internet.

Néanmoins, la translation d'adresses n'est pas sans conséquences sur le réseau et le transfert de paquets. Son premier inconvénient est pour le routeur, un traitement plus complexe de chaque paquet qui ralentit le relayage. Le temps de traitement n'est pas préjudiciable tant que le NAT est cantonné au routeur d'accès à Internet (la box ou le routeur de l'entreprise) où le trafic est faible et le débit des liens aussi. NAT impose aussi le maintien d'un état des adresses et ports translatés dans les noeuds du réseau, ce qui est contraire aux principes d'indépendance du réseau vis-à-vis de ses utilisateurs ou applications. En effet, le mode datagramme implique des paquets auto-suffisants (portant les adresses pour le routage) et indépendants les uns des autres (on ne devrait pas savoir qu'un paquet qui arrive au routeur est la réponse à un paquet envoyé précédemment).

NAT nuit au bon fonctionnement des applications client-serveur ou pair-à-pair. En effet, un serveur ou un téléphone IP ont besoin d'une adresse IP publique et d'un numéro de port réservé pour être contacté, ce qui n'est plus possible derrière une passerelle NAT. Pour contourner ce problème, des mécanismes complexes de redirection de ports ont été mis en place.

Pour les applications client-serveur, il coupe les connexions de bout-en-bout qui sont fournis par le protocole de transport et empêche certains de ses mécanismes de bien fonctionner. La communication est alors une succession de tronçons entre deux passerelles NAT.


19) Conclusion La pénurie d'adresses publiques est un phénomène connu qui empire chaque année pour de multiples raisons. Depuis 2011, les RIRE ont presque alloué tous leurs blocs d'adresse. Des solutions ont été mises en oeuvre mais elles sont temporaires ou présentent d'autres inconvénients. Ainsi, l'utilisation d'un adressage privé et de NAT ne peuvent être qu'une solution temporaire qu'il convient d'abandonner. Il faut retrouver un réseau simple. La demande d'adresses va exploser avec l'Internet des objets et l'industrie 4.0, puisque près de xxx milliards d'objets connectés sont prévu d'ici à xxx. https://fr.statista.com/statistiques/584481/internet-des-objets-nombre-d-appareils-connectes-dans-le-monde--2020/

Le protocole IPv6 en donnant une capacité d'adressage immense va permettre d'intégrer ces nouveaux usages et de redonner sa simplicité au réseau.

Personal tools