Le bide de la vidéosurveillance algorithmique
Et pourquoi elle sera pérennisée
Des IA peu performantes, un faible intérêt opérationnel, des faux-positifs en pagaille ; l’expérimentation de la vidéosurveillance algorithmique (VSA) permise par la loi JO a montré ses limites. Mais les perspectives promises par ces logiciels ont enchanté les forces de sécurité, qui se positionnent toutes pour leur pérennisation.
Déposé le 14 janvier sur le bureau du ministère de l’Intérieur, le rapport d’évaluation de l’expérimentation VSA est tombé. Ce document a pour objectif d’alimenter les débats sur la pérennisation du dispositif de contrôle algorithmique de la population. Il est le fruit du travail d’une commission qui a pu assister au déploiement de ces technologies durant plusieurs mois et recueillir le retour d’expérience des quatre utilisateurs que sont la Préfecture de Police (PP), la Régie Autonome des Transports Parisien (RATP), la Société Nationale des Transports (SNCF), et la ville de Cannes.
Permise par la loi du 19 mai 2023 autorisant officiellement l’usage de ces technologies controversées — la VSA était en réalité utilisée depuis des années par de nombreuses villes sans aucun cadre légal et idem pour le ministère de l’Intérieur qui utilisait la reconnaissance faciale depuis 2015 en cachette — l’implémentation de ces technologies est justifiée par un impératif de lutte contre le terrorisme et d’atteinte grave à la sécurité des personnes. Il détecte automatiquement et en temps réel huit situations (ou cas d’usage : colis abandonné, départ de feu,* etc. ). Censés venir combler l’inefficacité patente de la vidéosurveillance traditionnelle** , les deux logiciels testés sont ceux de l’entreprise Videtics déployés dans la ville de Cannes, et celui de la start-up Wintics, utilisés par la PP, la SNCF et la RATP.
Ces logiciels reposent sur la vision par ordinateur, une branche de l’intelligence artificielle qui analyse les pixels d’une image pour détecter un humain, un objet — on aura alimenté la base de données de dizaines de milliers d’images pour que le système puisse les identifier — ou une situation. Une fois détecté, une alerte est remontée en temps réel à l’opérateur de vidéosurveillance, qui peut ensuite décider ou non de déclencher une intervention sur le terrain.
Pour que le logiciel trouve un intérêt aux yeux de son utilisateur, la question de la fréquence et de la pertinence des alertes remontées aux agents est cruciale ; on peut en distinguer trois types pour mesurer la pertinence : le vrai positif (l’événement se produit et l’alarme se déclenche, le graal), le vrai négatif (l’événement a lieu mais aucune alarme n’est remontée), le faux positif (aucun événement à l’horizon, mais l’alarme sonne quand même). Sur l’ensemble des alertes remontées par les deux logiciels, deux cas d’usage représentent à eux seuls 98 % des alertes ; il s’agit, pratiquement a parts égales, de la détection d’objets abandonnés et d’intrusions dans une zone dite non autorisée. La faible pertinence des deux tiers de ces alertes traitées par les agents attire tout de suite l’œil : seul un tiers a fait l’objet d’un simple « intérêt opérationnel ». Si on rapporte ce même pourcentage au nombre total d’alertes générées, on dégringole à 22 % d’alertes pertinentes.
Cet « intérêt opérationnel »ne signifie pas ici que le logiciel a contribué à sauver des vies face à la menace terroriste ou déclenché systématiquement une intervention sur le terrain. On ne recense par exemple pas la moindre intervention pendant le festival de Cannes, un seul-procès verbal émis par la SNCF (sur un total de 6 interventions) et zéro, côté RATP, sur toute la durée de l’expérimentation.
Plusieurs facteurs aussi bien techniques qu’opérationnels expliquent une large partie de ces résultats.
L’imprécision des algorithmes — mal entraînés et surtout peu habitués à faire face à tant de situations parfois trop complexes — a produit quantités de faux positifs qui, pour certains, ne manquent pas de sel. L’intelligence artificielle confondait par exemple les départs de feu avec des gyrophares, des enseignes lumineuses, des fontaines au lever du soleil, mais aussi les sans-abri avec des colis abandonnés, une « personne au sol » avec un trottoir, ou encore une arme à feu avec quelqu’un qui se grattait le nez ou qui avait le malheur de porter un sac en bandoulière, alors que « certaines armes portées légalement par les policiers n'ont pas été détectées ».
Dans le rapport, des copies d’écrans issues des logiciels nous montrent des pigeons injustement détectés, en précisant que des insectes, des animaux, des flaques d’eau, ou encore le mouvement de branches, ont également contribué à la remontée de fausses alertes.
La complexité des situations, ou autrement dit le grand nombre de paramètres à prendre en compte pour la VSA, rentre également en ligne de compte. Et le cas d’usage de « l’ objet abandonné » en est un bon exemple.
Avec 14.000 objets abandonnés en moyenne chaque année sur son réseau, les attentes de la SNCF étaient grandes. Mais il est difficile pour une IA de détecter et de suivre le propriétaire d’un sac laissé seul quelques instants dans une zone grouillant de voyageurs.
Si l’absence d’identification d’objets (vrai négatif) est souligné, c’est surtout l’importante quantité de mauvaises alertes (62% de faux positifs) qui frappe. Les seaux, les bancs, les poubelles, les panneaux, mais aussi une personne assise, ou portant un haut d’une couleur similaire au mur auquel elle s’adosse, sont autant de pièges dans lesquels l’IA est tombée.
L’expérimentation montre que ces algorithmes ont encore besoin de conditions optimales pour s’épanouir, comme bénéficier d’un éclairage suffisant et d’un espace ouvert.

Un seul un cas d’usage, « la détection d’intrusion », a fait l’unanimité technique auprès de tous les utilisateurs — et malgré un faible nombre d’alertes : la détection de personnes ou de véhicules circulant en sens inverse, ainsi que celle des attroupements ont été jugés satisfaisants par les opérateurs de transports.
Pour expliquer une partie de ces déboires, le rapport met également en avant plusieurs éléments d’ordre opérationnel. « La forte présence policière sur Paris pendant les JO a diminué l’intérêt de l’IA » explique la Préfecture de Police, que l’on est tenté de croire sur parole : le quadrillage policier (hors sécurité privée) était de neuf agents pour une caméra dans la capitale.*** L’installation et le temps de configuration nécessaire des logiciels aurait été trop court, empêchant notamment les éditeurs de logiciels de bénéficier d’une période de calibrage et de tests suffisante, réduisant de facto la capacité des utilisateurs à s’approprier correctement ces outils de surveillance.
Communication fantôme
Les performances du dispositif de communication et d’information aux citoyens quant à l’analyse algorithmique de leurs comportements laissent elles aussi à désirer. Seules « 32 personnes ont vu la page internet concernée par l’expérimentation [de la SNCF] » indique la commission, qui se demande si cela est dû à la petitesse de l’affichage, à une compréhension insuffisante de l’expérimentation, ou simplement parce que peu de personnes se sentaient concernées. Le cabinet de conseil Verian a été mandaté pour interroger un panel de citoyens et évaluer leur compréhension du dispositif. Si 90 % des répondants « adhèrent » à l’utilisation de la vidéosurveillance pour lutter contre la délinquance — malgré des effets quasi nuls sur le sujet — seulement une personne sur cinq déclare avoir compris en quoi consistait la VSA. Le panel remonte également des inquiétudes quant au risque d’une « surveillance généralisée », d'une « diminution des libertés », mais aussi d'un « détournement à des fins économiques » de cette surveillance algorithmique (voir notre enquête sur le sujet ) qui serait pour certains « perçu comme de la surveillance et non de la protection ».
Jeté de fleurs
Malgré des performances techniques décevantes et un intérêt opérationnel limité, les utilisateurs ont tous fait part de leur enthousiasme sur l’utilité de la VSA. Si la Préfecture de Police précise que cet outil est « peut être l’avenir, mais pas le présent », les équipes opérationnelles avancent que l’outil gagnerait en pertinence s’il était manipulé au quotidien, et non sur quelques événements ponctuels.
Elles perçoivent entre autres une utilité pour le maintien de l’ordre en manifestation, en prenant l’exemple de la détection d’un « cortège qui change brutalement de direction ». Interrogé par la commission, leur patron Laurent Nunez s’est déclaré « très favorable » à la pérennisation du dispositif.
Côté RATP, la VSA est perçue comme « fondamentale pour renforcer la sécurité du quotidien », avec un intérêt certain pour la détection d’intrusion et de regroupement. Les agents de SNCF parlent eux d’un « outil bon à prendre » dont la production de fausses alertes ne serait « pas dérangeante » et préfère suggérer l’ajout de nouvelles fonctionnalités : « dégradations de biens , actes violents, et recherche automatique de personnes en temps réel et à posteriori ». La ville de Cannes, malgré un nombre d’alertes famélique, parle de « perspectives intéressantes » et souhaite une « pérennisation du système ».
Si un temps de paramétrage plus long et des algorithmes d’entreprises privées mieux entrainés (alimentés gratuitement par l’analyse du comportement des citoyens) permettront sans doute de meilleures performances de la VSA à l'avenir, cette expérimentation marque surtout une étape cruciale dans la mise en place de dispositifs de surveillance et de dissuasion toujours plus sophistiqués.
Cette nouvelle infrastructure (logiciels, réseaux, équipements) ouvre techniquement une voie royale à la reconnaissance faciale. Son utilisation en temps réel est d’ailleurs vivement souhaitée par la France, qui a œuvré pour que cette pratique soit permise dans l’IA Act (règlement européen sur l’intelligence artificielle) et autorisée pour du maintien de l’ordre.
Arguant que « l’ordre public fait partie de la sécurité nationale » le journal d’investigation Disclose révèle que la France souhaite utiliser également l’IA pour interpréter les émotions (pendant les contrôle aux frontières), mais surtout pour le fichage des opinions religieuses, politiques ou des orientations sexuelles .
Alors que la pérennisation de la VSA n’a jamais semblé aussi proche — un amendement a été déposé récemment pour étendre l’extension du dispositif pendant trois années supplémentaires — et que la fièvre autoritaire s’accentue un peu partout , un débat sérieux et d’envergure sur les conséquences de l’analyse automatisée et massive des comportements humains dans l’espace public n’a jamais semblé aussi urgent.
*Le non-respect du sens de circulation ; le franchissement d’une zone interdite ; la présence ou l’utilisation d’une arme ; un départ de feu ; un mouvement de foule une personne au sol ; une densité trop importante ; un colis abandonné.
** Cf. notamment Eric L. Piza & al., « CCTV surveillance for crime prevention. A 40-year systematic review with meta-analysis », Criminology and Public Policy, Ohio State University, vol. 18, n° 1, février 2019.
*** A raison de 4005 caméras recensées au moment des JO et 35.000 forces de l’ordre déployés chaque jours dans la capitale.