Cofondateur de la société Cedexis, je vais bientôt fêter mon dixième anniversaire dans internet, après avoir commencé dans le minitel et développé le premier site internet chez France Télécom, à une époque où le seul fait de prononcer le mot « internet » justifiait presque un licenciement pour faute grave.
Cedexis n'est pas un opérateur, un diffuseur ou un éditeur de contenu, mais un aiguilleur, qui joue à l'égard du trafic sur internet le même rôle que les aiguilleurs du ciel envers le trafic aérien. Notre mission est de « monitorer » l'état de santé d'internet en temps réel afin d'orienter chaque internaute vers le prestataire le plus performant. Nous permettons ainsi aux éditeurs de contenu d'améliorer leurs performances tout en optimisant leurs coûts. En tant que tiers certificateur, nous ne servons aucun intérêt particulier, à la différence de certains lobbies, qui peuvent chercher à influencer les parlementaires. Notre seul objectif est d'améliorer la performance et la transparence de la qualité du service apporté aux éditeurs de contenu. Start-up née à Cachan il y a plus d'un an, Cedexis a quasiment atteint l'équilibre financier, avec 110 clients, qui sont de grands comptes.
J'ai la lourde mission de vous présenter la partie immergée de l'iceberg, c'est-à-dire les dessous d'internet, sa technique et l'impact de la croissance du trafic sur les fournisseurs d'accès à internet (FAI) ou internet service providers (ISP), les éditeurs de contenus et l'économie globale des métiers du numérique. Le nôtre est « de faire économiser des milliards d'heures de temps perdu aux internautes du monde entier ».
On peut représenter internet comme un nuage. D'un côté, se situent les hébergeurs, qui mettent les contenus à disposition, de l'autre, les internautes, qui cherchent une information. La connexion traverse le nuage. Le principe est simple mais il y a dans le monde pas moins de 32 000 réseaux, entre lesquels il existe de multiples interconnexions, à travers lesquelles l'internaute doit se frayer un passage pour chercher un contenu. Sa circulation s'effectue à travers certains goulots d'étranglement pareils à ceux du trafic routier où se croisent autoroutes, nationales ou départementales. Un internaute peut passer par un opérateur pour accéder à un contenu, mais il arrive que le site ne soit pas accessible ou que la donnée se perde en route. La concurrence qui se crée au passage d'un réseau à un autre produit des latences, des goulots d'étranglement, des pannes électriques ou des pannes de réseau, ce qui fait que beaucoup d'informations vont et viennent sur le réseau.
Il faut concevoir internet comme un être vivant, en qui rien n'est figé. Hier encore, des pannes importantes sont survenues chez les opérateurs, ce qui peut être lié à tel ou tel événement. Au Japon, le trafic s'est réduit de 27 % lors du tsunami. La coupure brutale d'internet en Égypte a eu un impact sur les pays voisins. En Libye, le réseau a pu être coupé en soirée, rebranché vers deux heures du matin, peut-être par les mouvements de résistance, coupé à nouveau vers quatre heures et remis en fonction à neuf. Les coupures n'ont pas toujours la même forme. En Égypte, elles n'ont affecté que certains réseaux : celui des entreprises financières continuait de fonctionner, alors que l'accès classique à internet était suspendu. En Libye, on peut accéder à un site comme LeMonde.fr mais non à Facebook, You Tube ou Google, ce qui est pour le moins surprenant.
Internet est moins fiable qu'on ne le croit généralement. Il n'est pas « scalable », c'est-à-dire qu'il répond difficilement à une importante montée en charge du nombre d'utilisateurs. Quand un match commence à Roland-Garros, les internautes se ruent sur le site ; or l'impact du passage de 10 000 à 10 000 connexions simultanées sur le réseau est important.
J'ajoute que les opérateurs ne travaillent pas pour rien : internet n'est pas gratuit et l'on doit poser le problème des coûts.
Pour anticiper ce qui se produira au cours de la prochaine décennie, observons l'évolution constatée aux Etats-Unis depuis vingt ans. Le trafic web, c'est-à-dire le trafic vers les pages d'accès à internet, qui a pu atteindre 57 % du trafic total, est retombé à 23 %. La partie FTP (file transfer protocol), qui correspond aux transferts de contenus et de fichiers, est en forte baisse. Le pear to pear, procédé utile pour soulager les réseaux mais qu'on associe le plus souvent au piratage, est en léger recul. Enfin, la vidéo, qui ne représentait pratiquement rien en 2000, occupe à présent une part considérable du trafic.
Le développement exponentiel constaté par Cisco entre 2005 et 2010 n'est pas prêt de s'interrompre. Les FAI envisagent la télévision connectée comme un véritable cauchemar. S'il suffit d'introduire une clé wifi, pour transformer la télévision en un accès à internet, l'internaute voudra zapper entre les sites aussi rapidement qu'entre des chaînes télévisées. On imagine le débit qu'il faudra pour offrir sur 107 cm de diagonale une image de même qualité que sur 10x10 cm… L'éventualité de la télévision connectée justifie les conclusions de Cisco, qui anticipe, entre 2010 et 2015, une croissance exponentielle d'internet.
En 2008-2009, quelque 400 millions d'utilisateurs regardaient en moyenne des vidéos d'une dizaine de minutes, dont la qualité était de 300 kilobitsseconde ; dans dix ans, ils seront deux milliards et ils regarderont en moyenne, surtout s'ils disposent de la télévision connectée, des films de deux heures, dont la qualité sera de 7,5 mégabitsseconde, ce qui multipliera par vingt-cinq la taille des données à transmettre. En moins de cinq ans, les capacités nécessaires pour absorber le trafic seront donc multipliées par 1 500 !