Journal d'investigation en ligne et d'information‑hacking
par drapher

Sous le règne de la gouvernance algorithmique

Le problème central du projet de loi sur le renseignement, est celui des "boites noires" — installées chez les FAI, les hébergeurs — et permettant une surveillance des "comportements terroristes" grâce à des algorithmes (secrets). Jean-Jacques Urvoas, interrogé ce matin  (très légèrement) sur RMC à ce sujet par Bourdin, a pu "rassurer" les citoyens. Jean-Jacques Bourdin, a aboyé très fort, laissant entendre qu'il s'inquiétait de la possibilité de… quoi au juste ? Une surveillance de masse ?

Le problème central du projet de loi sur le renseignement, est celui des "boites noires" — installées chez les FAI, les hébergeurs — et permettant une surveillance des "comportements terroristes" grâce à des algorithmes (secrets).

Jean-Jacques Urvoas, interrogé ce matin  (très légèrement) sur RMC à ce sujet par Bourdin, a pu "rassurer" les citoyens. Jean-Jacques Bourdin, a aboyé très fort, laissant entendre qu'il s'inquiétait de la possibilité de… quoi au juste ? Une surveillance de masse ? Un problème pour les libertés ? Un peu, oui, mais avec tellement d'incompréhension technique et technologique dans son propos, que le député socialiste a pu opérer, en réalité — avec une facilité déconcertante — à l'avant-vente de l'implantation des système de contrôle et de surveillance internet ("intelligents").

La problématique d'atteinte aux libertés amenant à une gouvernance politique anti-démocratique  ne peut pas être abordée avec des personnes qui ne comprennent pas la moitié du contenu des questions qu'elles posent. La question des algorithmes en est une. Elle est centrale. Cet article est là pour aider nos confrères à mieux comprendre de quoi ils parlent, comme la veille de l'intervention du député Urvoas, où le débat entre journalistes était très léger, et c'est un euphémisme.

Et si je tape djihadiste ?

C'est la question à deux euros de Jean-Jacque Bourdin à l'autre Jean-Jacques, Urvoas, au sujet de la loi sur le renseignement. La réponse arrive très vite, bien préparée : "mais voyons, pas du tout, ce n'est pas ça qui… etc, etc…". Protection des libertés, pas de surveillance de masse, surveillance des seuls terroristes : le discours est connu, il est creux, mais surtout totalement décalé de la réalité. Mensonger pour dire les choses clairement.

L'interview d'Urvoas par Bourdin

Les journalistes ne voient qu'une seule chose, la surveillance par mots-clés. Ils ne peuvent appréhender les dispositifs dits des "boites noires internet" que par le seul prisme humain : pour eux, les boites noires vont surveiller ce que tapent les individus sur un moteur de recherche, par exemple, ou retenir les sites "terroristes" visités par des internautes. Et ce n'est pas là que la problématique se pose dans toute sa complexité — bien que ce procédé de surveillance puisse être aussi mis en place et soit parfaitement anti-démocratique en termes de libertés individuelles et de droit d'accès à l'information, à la vie privée. Ce que devraient demander les journalistes est autre chose. Aidons-les un peu.

Qu'est-ce qu'un algorithme (secret) ?

Un algorithme, et de nombreux lecteurs de Reflets le savent très bien, est une "méthode générale pour résoudre un ensemble de problèmes", et donc, en informatique, une suite d'actions données à une machine via un langage informatique pour qu'elle opère, avec un résultat final, à partir d'entrées qui mènent vers des sorties. L'exemple type d'un algorithme, sans parler d'informatique, est une recette de cuisine. En 2015, les algorithmes informatiques sont très "puissants", ils possèdent — sur le réseau — une forme d'autonomie.

Pour les lecteurs les moins avertis — comme par exemple les journalistes qui ne manqueront pas de nous lire — disons que les algorithmes appellent d'autres "instances algorithmiques" pour les aider à procéder correctement dans leurs actions, qu'ils ont une forme de complexité qui leur offrent une certaine "intelligence". Les programmeurs (désormais appelés développeurs) d'un algorithme (ou d'un bout d'algorithme au sein d'un code très vaste) ne savent pas tout ce que fait le code dans son ensemble. Parce que leur code hérite  souvent de fonctions d'autres codes qu'ils n'ont pas eux même codés, par exemple, mais dont ils ont besoin, pour que leur programme fasse ce qu'il doit faire.

Les"gros algorithmes de surveillance" des "comportements terroristes" au sein des boites noires, sont donc une suite de programmes, très vastes dans leurs fonctionnalités —  et qui obligatoirement — vont travailler avec les données et des méta-données de la population, dans son ensemble (Cet article de Laurent Chemla explique très bien le problème). Le principe sera d'essayer de profiler des internautes de façon purement informatique (sans intervention humaine) via la récupération d'une somme très conséquente d'actions opérées sur le réseau internet. Ce sont donc des "robots" qui fouilleront, ordonneront, trieront, capteront, fabriqueront du profil humain. Des robots logiciels. Des algorithmes. Qui vont "s'adapter", "affiner" leurs profilages, et s'attacher à devenir de plus en plus efficaces. Ils devront pour ce faire, capturer de nombreux comportements, pour les comparer. Avec ce qui devrait être le comportement de terroristes actifs… ou potentiels.

La question de l'humain et du robot : la gouvernance algorithmique

Ce qui va être voté par les parlementaires français n'est donc pas un simple "système de surveillance d'Internet pour traquer les comportements terroristes", mais une nouvelle forme de gouvernance permettant à des agents informatiques d'opérer sur le terrain d'Internet. Le premier ministre propose de lâcher sur les citoyens français, des formes d'intelligences artificielles, dont personne n'a idée de leur contenu ou fonctionnement, et qui pourront dénoncer aux "agents humains de l'Etat", qui elles estiment suspects.

Le politique délègue à des machines une capacité de renseignement sur les communications humaines ? C'est une première dans ce pays. Si gouverner est prévoir, il est sans aucun doute nécessaire de discuter fermement avec l'instance politique du droit qu'elle compte s'octroyer de "prévoir" par le biais d'algorithmes, donc de machines.

Cette nouvelle forme de gouvernance, que l'on peut appeler gouvernance algorithmique pose de nombreuses questions de sociétés. Bien au delà de celles ayant trait au pouvoir donné aux agents de la force publique et du renseignement.

Les fantasmes dénoncés par Manuel Valls sont pourtant réalité

Un homme aussi intelligent que le premier ministre français devrait quand même mesurer ses paroles lorsqu'il parle de sujets techniques qu'il ne maîtrise pas. Surtout lorsqu'il accuse les opposants au projet de loi sur le renseignement d'être "en plein fantasme". Manuel Valls devrait s'intéresser aux ouvrages d'anticipation, de science-fiction qui décrivent des sociétés futuristes — à l'époque de leur écriture —  et totalitaires, ou tout du moins excessivement limitées d'un point de vue des libertés humaines, et ce, par le biais des machines.

Les possibilités technologique décrites dans ces ouvrages de Philip K. Dick, tel Minority Report, sont aujourd'hui en place. Non pas qu'elles seront au final fiables à 100%, loin de là, mais leur mise en œuvre, et le fantasme sécuritaire, celui de Manuel Valls, justement, est lui réel, par contre, et se met en place.

La précognition informatique, puisque c'est de cela dont parle le projet des boites noires, est un fantasme, que la technologie peut tenter d'atteindre. Des algorithmes cherchant à prévoir les futurs comportements des êtres humains composant la société. Une société composée d'internautes, des humains très inquiets, puisque sachant que des agents informatiques les surveillent et peuvent les assimiler à un comportement "déviant".

C'est cette société que Manuel Valls, Jean-Jacques Urvoas, François Hollande et tous ceux qui voteront la loi sur le renseignement veulent mettre en place. Une société où le pouvoir politique délègue à des intelligences artificielles la faculté, de secrètement profiler n'importe qui. Une société qui accepte que des agents de renseignement de l'Etat soient des programmes informatiques.

Ces agents ne payent pas de cotisations retraite ou chômage, ne mangent pas, ne dorment pas, ne touchent pas de salaire, ne rendent de compte à personne dans leurs actions, ne peuvent être blâmés pour des fautes commises. Ils travaillent jour et nuit, sans bruit. Et chacun devra se poser la question, en se connectant au réseau : sont-ils là ? Que font-ils ? Suis-je suspect à leurs yeux ? M'ont-ils observé, comparé avec d'autres ?

Les journalistes qui veulent questionner les décideurs politiques sur les dangers des "boites noires" doivent oser poser ces questions : pouvons-nous, sans concertation nationale large, sans que la "justice judiciaire" ne puisse être partie prenante, laisser se mettre en place une gouvernance politique algorithmique ?

0 Commentaires
Une info, un document ? Contactez-nous de façon sécurisée