Recherche
Archives
Informations
65 visites ce jour / 13953 - adresse IP : 54.166.3.44 - système : - navigateur :
Téléchargements

data De plus en plus de personnes utiliseront internet. Aujourd’hui, selon l’Internet World Stats, leur nombre s’élève à 1,7 milliard, à comparer à la population mondiale de 6,7 milliards. La National Science Foundation (NSF) estime qu’en 2020, la planète comptera 5 milliards d’internautes. Ce changement d’échelle posera forcément des problèmes techniques, quelle que soit l’architecture du futur pour le web.

Internet sera de plus en plus dispersé géographiquement car l’essentiel de sa croissance proviendra, durant les 10 prochaines années, des pays en voie de développement. Aujourd’hui, selon l’Internet World Stats, les régions dont le taux de pénétration est le plus bas sont l’Afrique (7%), l’Asie (19%) et le Moyen-Orient (28%), contre 74 % pour l’Amérique du Nord. Le rééquilibrage auquel on va assister se traduira par une présence accrue des jeux de caractères non-ASCII.

Aujourd’hui, internet est essentiellement un réseau reliant 575 millions d’ordinateurs. Durant les années 2010, le nombre d’appareils divers connectés va dépasser celui des ordinateurs. La NSF estime en effet que des milliards de capteurs équipant des bâtiments, ponts, systèmes de sécurité ou compteurs électriques seront reliés au réseau. En 2020, les objets connectés

à internet seront plus nombreux que les êtres humains.

Les contenus accessibles via internet totaliseront des volumétries qui se compteront en exaoctets (1 million de To), voire en Zettaoctets (1000 exaoctets). Il s’agira principalement d’images et de vidéos en haute définition. Cisco estime que le trafic mondial passera à 44 exaoctets par mois d’ici à 2012, soit deux fois plus qu’aujourd’hui. De plus, ce contenu sera essentiellement créé ou relayé par des acteurs géants comme Google. Cette évolution pourrait conduire à adopter une architecture de réseau centrée sur les contenus plutôt que sur le transport.

Le nombre d’abonnés au haut débit mobile – 3G, Wimax et autres technologies – est en pleine explosion. En 2008, il atteignait 257 millions (selon Informa), soit une croissance de 85 % sur un an. C’est actuellement l’Asie qui compte le plus d’abonnés au haut débit mobile mais l’Amérique latine bénéficie de la plus forte croissance (nombre multiplié par 4 en 2008). Informa estime qu’en 2014, 2,5 milliards de personnes à travers le monde accéderont à internet via une connexion sans fil à haut débit.

Selon une étude récemment menée par Telecom Trends International, le Cloud Computing devrait générer un chiffre d’affaires de 45,5 milliards de dollars à l’horizon 2015. C’est la raison pour laquelle le National Science Foundation encourage les chercheurs à trouver des solutions pour mettre en relation les utilisateurs et les applications déployées sur des infrastructures Cloud, tout en prenant en compte la problématique de la mesure des performances et des délais de latence.

Internet en 2010 consomme beaucoup trop d’énergie. Selon le Lawrence Berkeley National Laboratory, sa consommation d’électricité a doublé entre 2000 et 2006. Tous les experts admettent que sa future architecture devra être plus économe. Le problème, c’est que le trafic augmente plus rapidement que ne baisse la consommation électrique des équipements, si bien qu’internet continue pour l’instant à être de plus en plus énergivore. La tendance pourrait s’inverser avec l’augmentation du prix de l’énergie et la mise en œuvre de technologies de routage tenant compte de la consommation.

Les principales faiblesses d’internet en matière de sécurité résultent d’un manque de technologies de supervision intégrées au réseau. La National Science Foundation s’est attaquée au problème en cherchant à promouvoir l’émergence de nouveaux outils qui permettront par exemple d’automatiser le redémarrage des systèmes, de gérer des protocoles d’auto-diagnostic, d’assurer un meilleur suivi des événements, ou encore, d’améliorer la granularité des données de supervision collectées. Cette panoplie devrait offrir une meilleure visibilité sur l’état de santé des réseaux.

De plus en plus d’utilisateurs seront tributaires de connexions intermittentes, qu’elles soient filaires ou sans fil. L’architecture du futur devra prendre en compte ces contraintes, par exemple grâce à des technologies qui toléreront des délais de latence très importants ou qui seront capables de réémettre des informations au moment opportun. Dans le même registre, des recherches sont menées quant au développement d’un protocole Internet interplanétaire, compatible avec des délais de latence se comptant en heures.

Internet attirera un nombre croissant de pirates. Les risques encourus seront d’autant plus importants que de plus en plus d’infrastructures critiques seront connectées, comme le réseau électrique. Les experts qui travaillent sur la refonte d’internet cherchent en priorité à améliorer sa sécurité. Ils sont unanimes pour considérer que celle-ci ne peut pas résulter d’une simple greffe sur l’architecture existante. Il faut au contraire reconstruire des fondations plus sures prenant nativement en compte les aspects confidentialité, intégrité, vie privée et authentification forte. Bref, ils ont du pain sur la planche.

Lire l’article sur : Reseaux et Telecoms…

Laisser un commentaire

Vous devez être connecté pour publier un commentaire.