MOOC:Verb03
From Livre IPv6
Contents
Script 03 : Evolution d'Internet
Dans cette vidéo, nous allons présenter les principales phases de l'évolution de l'Internet qui ont conduit à son universalité. Sur plusieurs graphiques, nous verrons comment le nombre d'utilisateurs et le nombre de réseaux connectés ont augmenté. Nous verrons les conséquences sur les tables de routage de l'Internet. Nous expliquerons la manière dont les adresses IPv4 ont été allouées et la conséquence sur la pénurie des adresses.
Evolution en 4 phases
3) Sur le site de l'Internet Society, on trouve ce graphique qui présente des années 70 à 2000, une croissance en 3 phases pour arriver à environ 100 millions d'hôtes connectés. 20 ans plus tard, la croissance a continué de manière exponentielle pour arriver à 4,5 milliards d'utilisateurs (ajouter nombre d'h^tes) soit 59% de la population mondiale. C'est pourquoi il nous a paru nécessaire d'ajouter une quatrième phase que l'on a surnommé : "l'explosion".
Phase 1 : l'expérimentation
4) La première phase est dite expérimentale. En pleine guerre froide, le DARPA (Département de la Défense Américaine) souhaite interconnecter différents sites avec un contrôle décentralisé pour éviter une attaque du centre de contrôle et pour qu'une panne de site n'affecte pas le fonctionnement du réseau et des autres sites. L'intelligence répartie sur tous les éléments est le principe fondateur de l'Internet. C'est révolutionnaire pour l'époque car les réseaux était forcément centralisé :avec un centre de contrôle qui gérait un ensemble de noeuds dédiés à des fonctions basiques : connexion des hôtes, commutation. Le mode réparti va donc être décliné dans les premiers protocoles développés comme NCP (Network Control Protocol) ou le protocole de routage auquel participe l'ensemble des noeuds du réseau par échange d'informations de connectivité et construction locale d'une table de routage. Les autres principes fondateurs sont la commutation de paquets en mode sans connexion et l'interconnexion des technologies de communication existantes sans les modifier.
Les premiers protocoles vont être testés avec quelques noeuds. Les protocoles évoluent ainsi NCP qui assure à la fois le transfert des paquets et la fiabilité de ce transfert va évoluer en deux protocoles : IP, protocole simple pour l'interconnexion et TCP, protocole complexe, qui permet de fiabiliser le transfert des paquets mais qui sera exécuté par les hôtes pour conserver au réseau sa simplicité. IPv4 est spécifié en 1981 dans le RFC 791 et on y trouve l'adresse sur 32 bits, son format en 2 champs de longueur variable selon la classe de réseau.
5) En 1983, le réseau Arpanet a été séparé du réseau militaire et est principalement utilisé par des écoles et des universités américaines. Un événement important dans la diffusion des protocoles de l'Internet et de son adhésion par le plus grand nombre est l'intégration par l'Université de Berkeley des protocoles TCP/IP dans le noyau d'Unix.
Phase 2: les tests en vraie grandeur
6) Les années 80 voient la généralisation des stations de travail autonomes mais avec une puissance de calcul et un disque limités. Le système UNIX est le premier système non propriétaire et programmé en langage évolué. C' est un système multi-tâches et évolutif qui a été porté sur ces stations de travail. Cependant, elles ont besoin de communiquer entre elles pour l'accès à des ressources partagées comme le système de fichiers ou aux imprimantes. Pour ces communications locales qui visent à émuler les systèmes centralisés, la pile TCP/IP va être massivement utilisée. De plus, les protocoles Internet proposent des applications inter-personnelles comme le mail ou le transfert de fichiers, et même les news. Très vite, les chercheurs et les ingénieurs vont s'en servir pour échanger des informations scientifiques partout dans le monde. Ces utilisateurs experts qui ne sont pas rebutés par des commandes en ligne et parlent couramment anglais, vont donc réaliser des tests en vraie grandeur de l'Internet. Dans un deuxième temps, la micro-informatique se développe et propose les premiers ordinateurs personnels certes limités mais très économiques et les particuliers commencent à s'équiper. Mais ces équipements vont se heurter aux très faibles débits d'accès des particuliers qui passent par le réseau téléphonique.
L'informatique de centralisée devient répartie ou en réseau.
Phase 3 : l'universalité
7) On vient de voir que les particuliers commençaient à s'équiper en micro-ordinateur ou PC. Dans le même temps, la technologie ADSL va doper le débit d'accès résidentiel en utilisant toute la capacité des paires téléphonique. Mais ces phénomènes ne suffisent pas à eux seuls à expliquer l'adhésion universelle à Internet. Les années 90 ont vu des progrès significatifs dans la conception des interfaces homme machine qui deviennent graphiques, intuitives et faciles à utiliser grâce à des fenêtres, des boutons ou des barres de défilement. L'accès au réseau n'utilise plus de commandes Unix. Les informations disponibles ne sont plus simplement du texte, mais enrichies par des images, des sons et des vidéo. Dés cette époque, dans l'Internet se pose le problème de la recherche d'informations dans ce réseau mondial avec des volumes qui ne cessent de croire. Les premiers moteurs de recherche font leur apparition. Mais le progrès le plus significatif a été le développement de l'application Web. En effet, les sites Web sont chaînés entre eux de manière sémantique et non hiérarchique par des liens entre les documents, les liens hypertexte. Enfin, l'accès à une page Web nécessite le transfert d'une description HTML qui est plus légère qu'un bitmap, puis sont transférés les images et autres contenus de la page HTML.
Les contenus s'enrichissent dans toutes les langues et dans tous les pays, rendant le Web plus attractif pour les particuliers.
Phase 4 : l'explosion
8) La 4ème phase que nous vivons actuellement pourrait s’appeler l’explosion ! 3 phénomènes expliquent cette croissance sans précédent. D'abord, le nombre d'hôtes utilisant Internet a augmenté car de nouveaux terminaux sont maintenant connectés à Internet tels que les consoles de jeux, les tablettes ... Les générations 3 et 4 des réseaux sans fil et mobiles permettent désormais à des terminaux intelligents comme les smartphones, de transférer non seulement de la voix mais aussi des images, des vidéos et des données, de manière rapide, presque partout. Il y a désormais 4 à 5 hôtes par personnes : smartphone, tablette, PC entreprise, PC portable, console de jeux, etc.
De nouvelles applications sont massivement utilisées par les internautes comme la vidéo à la demande et le streaming, les réseaux sociaux, le pair-à-pair ou les jeux. Les communications inter-personnelles vidéo se généralisent. (comme on le constate sur ce schéma qui représente une minute d'utilisation d'Internet)
Enfin, ces 10 dernières années, de nombreux pays émergents se sont développés et sont maintenant connectés à l'Internet comme en Asie, en Amérique du Sud et en Afrique.
Evolution en chiffres
9) On peut voir sur ces deux graphiques, le taux de pénétration de l'Internet dans chaque région du monde, en 2008 à gauche puis en 2019 à droite. a commenter avec nouveaux histogrammes
10) Sur ces nouveaux graphiques, à gauche, on voit que le nombre d'utilisateurs de l'Internet augmente plus vite que la croissance de la population mondiale. En effet, le nombre d'internautes est d'environ 4,8 milliards en 2020 soit 59% de la population mondiale. La capacité d'adressage des 32 bits d'adresse est donc dépassée puisqu'elle est de 3,3 milliards d'adresse en théorie.
Un problème de taille !
11) L'Internet n'avait pas été prévu pour supporter une telle croissance et même si l'adresse IPv4 a une capacité théorique de 4,3 milliards d'adresses, le nombre d'hôtes connectés à Internet va encore augmenter avec notamment l'arrivée des objets connectés que nous utilisons déjà par exemple, les montres connectées, les caméras Wi-Fi, et déferlement que va engendrer l'Industrie 4.0.
Les 4 milliards d'adresse IPv4 ne sont pas allouées individuellement car rappelons que l'adresse IP est hiérarchique : un hôte dans un réseau particulier. Un réseau va se voir attribuer une plage d'adresses d'hôtes en fonction de sa taille. Par exemple, si l'on veut adresser 200 h^tes sur un réseau donné, on aura besoin de 8 bits pour le champ hôte car 2^8 est égal à 256 tandis que 2^7 est égal à 128. On dispose donc de 256 adresses d'hotes dont seulement 200 seront utilisées. Il y a donc un gaspillage lors de l'attribution de plages d'adresse.
Pénurie des adresses
12) Au niveau mondial, les plages d’adresse sont réparties grossièrement entre des organismes régionaux appelés RIR (Regional Internet Registry) qui sont au nombre de 6 : African Network Information Center (AFRINIC), American Registry for Internet Numbers (ARIN), Asia-Pacific Network Information Centre (APNIC), Latin America and Caribbean Network Information Centre (LACNIC) et Réseaux IP Européens Network Coordination Centre (RIPE NCC).
Chaque RIR distribue ensuite des plages entre ses membres qui sont des organismes publics ou privés comme des opérateurs.
On s'aperçoit alors que le nombre de réseaux disponibles n'est pas si important que cela conduit à une pénurie. La tendance actuelle consiste à freiner au maximum l'allocation des adresses réseaux. Ce n'est pas un problème pour les sites déjà équipés disposant déjà de larges plages d'adresses. Cette contrainte est déjà forte pour les nouveaux sites dans les pays dits "développés" pour lesquels un grand nombre d'adresses a été réservé mais se révèle être un problème majeur pour les pays émergents où parfois moins de 10 réseaux de 250 machines ont été attribués pour l'ensemble du pays.
13) Par exemple, un RIR dispose d'une plage d'adresse dite en /8 ce qui fait que l'adresse réseau est sur 8 bits et l'adresse hôte sur 24 bits. Il va allouer un préfixe réseau en /21 à un de ses membres qui est un Fournisseur d'Accès à Internet local. Lequel va allouer à son tour des sous-préfixes à ses différents clients.
La capacité de chaque préfixe correspond à une valeur binaire supérieure au nombre d'adresses souhaités par le client et on ne peut pas éviter les adresses inutilisées par les membres. Certaines plages ne peuvent être allouées si elles sont trop petites.
TROP TROP DETAILLE :
14) NAT permet un partage d'une adresse publique entre de multiples hôtes derrière un routeur dans un réseau privé. Un système de translation d'une adresse privée vers une adresse publique a été développé dans les routeurs et les box : NAT ou Network Address Translation. Ce mécanisme permet de connecter à Internet plus d'un hôte par maison alors que le forfait de connexion Internet standard ne fournit qu'une seule adresse publique et routable à chaque abonné du FAI. Cela implique de modifier deux champs des entêtes IP et TCP : l'adresse IP source et ainsi que le port TCP ou UDP source, et ce pour chaque paquet entrant ou sortant. Ce système de translation est aussi utilisé par les opérateurs mobiles qui ne disposent pas d’assez d’adresses à allouer pour tous leurs abonnés.