Journal d'investigation en ligne et d'information‑hacking
Édito
par bluetouff

Deep Packet Inspection : comprendre les racines du mal

Le rôle des différents acteurs d'Internet, ces dernières années, a évolué en fonction des modifications subies par le réseau. A l'origine, certains choix technologiques ont déséquilibré le trafic. Aujourd'hui, ces choix ont un coût, ils ont en partie autorisé l'apparition de certains intermédiaires qui n'auraient aujourd'hui aucune raison d'être si nous étions par exemple tous en fibre symétrique sur du Gigabit depuis le départ... Mais Internet ne s'est pas bâti en un jour.

Le rôle des différents acteurs d'Internet, ces dernières années, a évolué en fonction des modifications subies par le réseau. A l'origine, certains choix technologiques ont déséquilibré le trafic. Aujourd'hui, ces choix ont un coût, ils ont en partie autorisé l'apparition de certains intermédiaires qui n'auraient aujourd'hui aucune raison d'être si nous étions par exemple tous en fibre symétrique sur du Gigabit depuis le départ... Mais Internet ne s'est pas bâti en un jour. Ces choix technologiques, eux aussi dictés par des raisons économiques, se sont attachés dans un premier temps à des concepts tels que :

  • l'ouverture des protocoles de communication, seul garantie pour tous les opérateurs que leurs systèmes parlent le même langage afin de communiquer de manière optimale ;
  • la non discrimination, qui impacte le réseau directement par l'accès aux contenus (une composante essentielle de la Neutralité du Net) ;
  • principe de "best effort", lui aussi très directement lié au concept de neutralité mais que la logique de "services managés" offerts par le Deep Packet Inspection pourrait, peu à peu remettre en cause.

Dans les faits, ceci s'est traduit, pour de nombreux opérateurs, par le même choix fait en France, que celui d'Orange. L'opérateur, artisan des technologies xDSL, a fait le choix d'un débit asymétrique devenu un standard de fait. A l'époque on avait le choix entre 2 mégas symétriques, ou 20 mégas de débit descendant contre 1 méga de débit ascendant. Le choix s'est donc porté sur une asymétrie, les opérateurs sont partis du principe que l'internaute "consommerait" plus d'Internet dans un sens que dans l'autre.

Philosophiquement, sur le temps, on commence à comprendre qu'il s'agit là d'une erreur. Si un internaute qui découvre le réseau va dans un premier temps l'utiliser à sens unique pour être uniquement récepteur d'informations, très vite, il devient contributeur, puis à son tour, producteur de contenus. Et c'est bien quand l'internaute commence à faire de l'Internet, en devenant un noeud actif du réseau, que les choses se compliquent.

  • Il a de nouveaux besoins techniques : besoin d'un confort de débit en émission de données.
  • Il a de nouvelles responsabilités juridiques (il devient éditeur de contenus),
  • Il a de nouveaux besoins en matière de sécurité : il doit pouvoir mettre de l'information à disposition sans que cette dernière ne soit altérée par des tiers, ce qui implique de fait la protection de ses données personnelles.

L'internaute semble avoir évolué plus vite que les contrats des fournisseurs d'accès Internet, dont certains ont toujours le toupet d'interdire à leur client de disposer d'un serveur web sur leur connexion domestique, nous parlons ici de Numericable qui ne devrait même pas avoir le droit de qualifier son offre de connexion à Internet, tant cette clause contractuelle est par nature "anti Internet". Aujourd'hui, si un opérateur souhaite réduire à néant toute utilisation serveur faite par un particulier sur un protocole donné, le Deep Packet Inspection lui en donne les moyens. Mieux encore, il lui permet de facturer cette utilisation serveur. Tout ceci est fort séduisant. Ainsi il pourrait "taxer" un internaute souhaitant devenir son propre éditeur de contenus en mode auto hébergé. Si pour Numericable et son réseau pseudo très haut débit avec ses 5 mégas en envoi de données peut paraître risible, pour un fournisseur d'accès comme Orange qui en propose 100 symétriques en émission/réception... ça devient tout de suite plus intéressant.

L'autre souci d'un réseau comme Internet, dans lequel chaque noeud est récepteur, mais aussi surtout émetteur, c'est qu'il est par nature plus complexe à surveiller. Ajoutez à cette problématique le chaos induit par les différentes juridictions dans lesquelles vivent ces internautes, l'architecture hétérogène des fournisseurs d'accès de ces internautes, et vous avez quelque chose qui ressemble assez étrangement à un reflet du monde réel... sauf que tout va plus vite et que les données qui transitent sur le réseau sont dans une sorte de zone Schengen mondiale. Puisqu'il est compliqué de tout surveiller, on est forcément tenté, un jour ou l'autre de disposer des caméras un peu partout. Ces caméras sur Internet, ce sont des sondes qui permettent la collecte de données (plus efficaces encore qu'un radar en plein milieu de l'autoroute, certes. Elles permettent le fameux "management" du trafic, un terme cher aux équimentiers qui leur permet de d'habiller avec des mots pas trop violents une véritable surveillance, un véritable bridage d'Internet.

0 Commentaires
Une info, un document ? Contactez-nous de façon sécurisée