IOL : mais à quoi ça pourrait bien servir ?

92598bf66d5c4602900f944ac180a1e1_bc9fe3a176844ad7bd96ffaddef2e978_1_postLe système d’interception des communications Internet (IOL, Interceptions Obligations Légales), mis en place depuis 2009 par le gouvernement français — via, notamment, l’entreprise Qosmos — permet d’écouter les personnes connectées au réseau. Tout le réseau français.

La question de l’ampleur de l’utilisation de ce système est posée, renvoyant dos-à-dos (pour ceux qui daignent s’intéresser à cette révélation) les défenseurs d’une thèse d’une surveillance « systématique », « massive », ou « ciblée ». Comme si le système des sondes IOL n’était qu’une sorte de réseau de caméras de vidéo-surveillance des communications numériques. Pourtant, la loi renseignement, via la mise en place des « boîtes noires » chez les opérateurs Internet démontre que la surveillance pure n’est pas le principal objectif de ces systèmes. Ou plutôt : la détection des criminels par ce type de systèmes requiert la mise en œuvre d’une « politique algorithmique » très vaste, et utilisable pour de nombreuses autres choses.

Sans robots, la surveillance est aveugle

Envisager la surveillance numérique comme un outil intrusif, équivalent à ce que pourrait faire La Poste en ouvrant les courriers pour lire les correspondances des contribuables est un raccourci intellectuel décalé et sans intérêt. Le principe même de connaître le contenu des communications en tant que telles n’est pas pertinent pour un État et son administration. La quantité d’informations inutiles en termes de lutte contre la criminalité, le terrorisme ou tout élément mettant en danger la sécurité de l’État est d’une ampleur si immense, que le tri discriminant à la volée des contenus et menant à des alertes positives relève plus du fantasme que d’autre chose.

La seule manière de repérer, puis écouter ensuite des criminels à l’échelle d’un pays sur les réseaux de communication passe donc par le « profilage algorithmique ». Ce que le gouvernement a annoncé tardivement en 2015, lors du vote de la loi renseignement.

Les « algorismes© » secrets de Bernard Cazeneuve sont des systèmes logiciels de profilage prédictifs : ils sont les agents administratifs numériques d’une forme moderne des fiches de renseignements. Ces fiches n’ont pas besoin d’être individuelles — de par leur fonction de profilage — mais au contraire, elles travaillent par ensembles. Les sondes IOL sont des yeux, des oreilles, les robots que constituent les algorithmes de profilage, sont leur cerveau.

Gouverner, c’est prévoir

L’intérêt d’un système d’écoute des communications au niveau national — implémenté chez les fournisseurs d’accès Internet — se situe dans le cadre de la gouvernance algorithmique prédictive. Le principe de cette nouvelle forme de gouvernance est lié aux nouvelles pratiques du pouvoir, plus soucieux de contrôler l’opinion et sa propre communication… que du bien public. Pour autant, si de tels systèmes peuvent donner l’illusion de resserrer une nasse numérique autour de terroristes ou de criminels afin de connaître par avance leurs intentions, ils nécessitent par essence de connaître les habitudes et les comportements de ceux… qui n’en sont pas. La majorité.

Quelques explications nécessaires à la bonne compréhension du sujet : un système informatique de détection des terroristes sur Internet ne « sait » rien. Si des critères précis sont donnés par avance au système (le fameux algorisme©) ils ne peuvent être fiables — seuls — puisque fabriqués par avance, et ne correspondant pas à la réalité. Les algorithmes prédictifs travaillent par apprentissage, ils se nourrissent donc en permanence de données qu’ils comparent, trient, et au final « analysent » en fonction de plusieurs ensembles remis à jour en permanence. Les algorismes© ont donc besoin de savoir comment se comporte la masse d’Internautes inoffensifs : heures les plus fréquentes de connexion, types de sites visités, fréquence d’échange sur les réseaux sociaux, utilisation de la messagerie, des types de protocoles utilisés, etc., etc.

Un système prédictif de surveillance va donc se créer des échantillons de populations, des ensembles de profils, les « ranger » en fonction de certains critères établis par les comportements divers et variés des utilisateurs. Au fur et à mesure de la « quête » (sans fin) de ces agents statistiques, divers modèles comportementaux vont se générer, « discuter ensemble », se comparer. Ceux qui, en opérant sur Internet, sortent de ces modèles (avec plus ou moins de force) se retrouvent donc discriminés par les algorismes©, c’est-à-dire pointés du doigt par les agents digitaux (© @touitouit) repérés comme des personnes à comportement divergent. C’est là que la traque des méchants peut commencer, ce que l’ on appelle (dans notre jargon © @Rihan_Cypel) « la surveillance ciblée ».

Un pouvoir, ça peut énormément

Si le pouvoir politique français s’est doté — dans un premier temps —d’un système de sondes numériques à base de DPI via, notamment, l’entreprise Qosmos, bien connue pour son commerce d’armes numériques auprès de dictatures pays peu connus pour leur respect des droits de l’homme mais en liens commerciaux avec la France, puis d’une loi idoine pour généraliser la surveillance sans contrôle de l’autorité judiciaire, ce n’est pas pour rien.

Qu’une volonté de traquer le terroriste existe, c’est une évidence, et personne ne peut s’en plaindre, mais dans ce cas là pourquoi ne pas avoir soumis ce système à la sagacité parlementaire, à l’époque ? Parce que cela aurait été trop contesté ? Admettons. Pour autant, croire qu’un théâtre d’opération de surveillance numérique à l’échelle nationale ne puisse servir qu’à seulement traquer des méchants est un peu naïf. Surtout quand celui-ci est mis en œuvre dans le plus grand secret. Ce qui est certain est la chose suivante, dans tous les cas de figure : la surveillance prédictive des boîtes noires est basée sur des systèmes apprenants, sur une modélisation de groupes importants de populations et peut très facilement permettre de connaître autre chose  que les seuls déviants discriminés par les algorismes©. Elles peut en outre finir par créer une somme monumentale de faux-positifs avec les tragiques conséquences que l’on imagine aisément.

Le sociologue Fabien Jobard, qui travaille depuis longtemps sur la problématique des mouvements sociaux, et des politiques de répression policière fait un parallèle dans un article sur Mediapart avec la situation actuelle et les politiques de l’ex Allemagne de l’Est à ce sujet :

« Il y a quelques années, je m’étais intéressé au « maintien de l’ordre » dans les régimes autoritaires, en RDA plus précisément. Ce qui était fascinant dans ce pays, des années 1960 à la fin des années 1980, c’est que la « répression » s’exerçait essentiellement par la prévention ; la prévention des troubles, de la déstabilisation, des menées anti-socialistes ou ennemies. Le vocabulaire ne manquait jamais, mais le quotidien de la surveillance était toujours le même : l’écoute, le fichage, l’assignation à domicile, l’éloignement. Le but était que la voie publique ne laisse jamais paraître la moindre banderole, ne laisse jamais entendre la moindre parole contestataire. »

Le pouvoir socialiste français actuel, assigne à résidence des militants écologistes lors de la Cop21, interdit par avance des manifestants (et les interpelle avant même qu’il ne rentre dans la manifestation du 23 juin), organise à la place des syndicats des « manifestations cloisonnées » et menace en permanence de soumettre les contestataires de sa politique par la force. Ce même pouvoir fait voter la Loi renseignement, parle de « guerre », s’arroge des pouvoirs de surveillance digne des pires Etats policiers sous prétexte de lutter contre le terrorisme, et ne jouerait pas avec les possibilités qu’offre la gouvernance algorithmique prédictive ?

Ce serait vraiment… surprenant.

Pour tout dire, ce n’est pas le massif, le systématique ou la pêche au harpon qui se joue en ce moment. Non. C’est une nouvelle manière de gouverner, prévoir, observer et manipuler les populations. Les faire rentrer dans une nouvelle société. Celle de la peur, de l’omnipotence du pouvoir et de sa capacité à connaître ses opposants les plus vindicatifs. Mais aussi savoir ce que la masse peut accepter ou non, et comment la contraindre. Pas par la force, mais par la manipulation.

Cette question de IOL, des algorismes© prédictifs va donc bien au delà de la vie privée en tant que telle, du secret des correspondances, ou du droit ou non à être observé. Cette question touche à l’essence même de notre système politique et social. A la démocratie, en réalité. Ou ce qu’il en reste.

Twitter Facebook Google Plus email

Auteur: drapher

Journaliste (atypique mais encarté) web et radio — @_Reflets_ et d'autres médias. Ni "désengagé" ni objectif ou neutre, mais attaché à décrire et analyser la réalité, même la plus déplaisante. On the net since 1994. Gopher is power ;-)

4 thoughts on “IOL : mais à quoi ça pourrait bien servir ?”

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *