Prière de ne pas déposer vos ordures
Une start up les détecte automatiquement
Détecter automatiquement des dépôts sauvages d’ordures, c’est possible ! Les identifier et sanctionner leurs auteurs aussi, tout cela grâce à une start up qui propose un logiciel de vidéosurveillance algorithmique. Problème : c’est illégal. Le dispositif est pourtant déjà déployé dans une centaine de communes en France.
L’abandon, les dépôts de déchets ou de matériaux illégaux sont une problématique bien connue des municipalités qui parlent de « dépôts sauvages ». La lutte contre ce phénomène a même été définie comme une « priorité » par le gouvernement en 2020. Qu’ils soient intentionnels ou involontaires, produits par des particuliers ou des entreprises, qu’il s’agisse de déchets « diffus » (articles de consommation nomade, mégots de cigarette, films et sacs plastique, etc.) ou plus volumineux (déchets de construction inertes ou non, déchets verts et encombrants), leurs impacts peuvent être multiples : dégradation des paysages et du cadre de vie, nuisances pour le voisinage et l’environnement public, pollution des sols, etc. S’il n’existe à ce jour aucune étude quantitative exhaustive pour mesurer l’ampleur du phénomène sur le territoire, selon une étude réalisée sur un panel de 1.027 personnes, 63 % des Français ont été exposés à des déchets sauvages en zone urbaine, et 61 % en zone rurale.
Les collectivités territoriales estiment de leur côté que les auteurs de ces délits (passibles d’une amende de 75.000 à 375.000 € pour les personnes morales) se composent d’un tiers d’habitants du territoire local et d’un quart de professionnels — le reste pouvant être des touristes ou des habitants de villes voisines. Dans une enquête nationale de l’ADEME, un peu moins de la moitié des collectivités interrogées déclarent agir pour identifier et signaler ces dépôts. Les moyens humains (brigades vertes, policiers municipaux) sont privilégiés : fouille des déchets pour retrouver les auteurs de l’infraction ou mobilisation de la population (promeneurs, voisins vigilants). La vidéosurveillance sur les « points noirs » ferait partie des dispositifs les plus efficaces pour prévenir et identifier les contrevenants.
Avec un coût estimé à 1,6 milliard d’euros en France, les collectivités dépenseraient en moyenne 59.000 euros par an pour lutter contre les dépôts sauvages. Un marché considérable qui attire depuis quelques années les entreprises de vidéosurveillance algorithmique. Wintics, XXII, Avigilon, Videtics, Vigitrash, Alpha surveillance, Viginomad… de nombreuses entreprises françaises s’appuient sur l’intelligence artificielle et l’une de ses branches, la vision par ordinateur (l’analyse des pixels d’un flux vidéo), pour détecter automatiquement la présence de dépôts sauvages et identifier les contrevenants.
Vizzia, une société française fondée en 2021 par deux jeunes entrepreneurs issus de Polytechnique et d’HEC, fait figure de leader en France sur ce segment de la sécurité urbaine. Avec une levée de fonds privés de 3,40 M€ et de plus de 734.000 € de fonds publics, via le plan France 2030 (opéré par Bpifrance), l’entreprise revendique aujourd’hui 150 villes équipées réparties sur tout le territoire. Bien aidés par une large couverture médiatique — 13 heures sur France 2, journal de 20 heures de TF1, sans compter de nombreux reportages sur les antennes régionales —, les arguments commerciaux de Vizzia ont de quoi séduire les communes. Aux promesses d’efficacité sans faille pour détecter les contrevenants, s’ajoute celle d’un retour sur investissement alléchant. Dans l’une de ses présentations commerciales, la start up indique que chacune de leurs caméras installées rapporterait à la commune 24.000 € par mois « via les amendes administratives et la baisse des coûts de collecte ».
« Sans erreur et sans intelligence artificielle »
L’offre de Vizzia peut se résumer ainsi : l’entreprise fournit une caméra à deux optiques et un logiciel. La caméra filme la zone potentielle de dépôts d’ordure et la route ou les chemins avoisinants, le logiciel peut détecter automatiquement l’apparition d’un dépôt, mais aussi un véhicule, sa plaque d’immatriculation, ou la présence d’un piéton dans la zone.
Ce même logiciel dispose d’une interface qui permet de visionner des séquences vidéo de 2 minutes du délit détecté, mais aussi une « automatisation de la procédure administrative », soit un remplissage, envoi et suivi simplifié des amendes*. Pour finir, Vizzia propose un « accompagnement juridique et administratif » pour aider à la rédaction des analyses d’impact relatives à la protection des données (AIPD) à la Commission nationale de l’informatique et des libertés (CNIL) et les demandes préfectorales, documents obligatoires pour toute commune souhaitant déployer un projet de contrôle algorithmique.
Le gain de temps et d’efficacité pour les agents par rapport à un système de vidéosurveillance classique semble évident, à en croire les retours des municipalités équipées.
Le chef de la police de Méru (60) précise : « On ne cherche pas l’infraction, ça tombe dans le panier tout seul. Elle traite les infractions même quand on est fermé (…). Les documents sont préremplis. On a plus qu’à mettre les coordonnées de la personne en infraction que l’on repère grâce à sa plaque d’immatriculation, par exemple ».
Une collectivité a-t-elle le droit d’appliquer un traitement algorithmique dans l’espace public pour détecter un dépôt de déchets ou de matériaux illégaux, et ayant pour finalité le déclenchement d’une procédure judiciaire à l’encontre d’une personne ?
Pour la CNIL, la réponse est claire : « Il est interdit pour une collectivité de mettre en œuvre, sur leur parc de vidéoprotection filmant la voie publique, des algorithmes pour détecter des dépôts sauvages (intervention immédiate ou enclenchement de procédures administratives ou judiciaires) en l’absence d’un texte l’autorisant. »
Quant à la loi JO du 19 mai 2023 — dont la période d’expérimentation est dépassée depuis mars 2025 — aucun des 8 cas d’usages prévus n’inclut la détection de dépôts sauvages par une IA.
Pour le juriste Sébastien Le Querrec, membre de La Quadrature du Net, « la constatation de dépôts sauvages est encadrée par le code de la sécurité intérieure et cela exclut les traitements algorithmiques. Les communes qui utiliseraient ce type de dispositif verraient leurs procédures [administratives] courir un grand risque de se faire annuler en cas de contestation. »
Mais contrairement à ses concurrents, qui s’appuient sans ambiguïté - et en dehors de tout cadre légal - sur un traitement algorithmique pour détecter les dépôts sauvages, Vizzia semble avoir trouvé la parade pour se conformer à la législation.
Créée avec l’aide du CNRS, la start-up explique que son logiciel s’appuie sur une technologie maison, brevetée, « avec un taux de détection inédit (100 %) » qui permettrait d’identifier automatiquement les dépôts sauvages, « sans erreurs et sans intelligence artificielle », baptisée APDACP (Appareil Photographique à Déclenchement Automatique sur Changement Permanent).
Des caméras qui ont « la particularité de détecter, non pas les mouvements et comportements des personnes, mais le concept d’apparition d’un nouveau déchet sur une scène statique, sans erreur, » d’après Alexandre Leboucher, cofondateur de Vizzia.

Mais comment un logiciel d’analyse d’images vidéo fait-il pour détecter automatiquement des dépôts, des informations inscrites sur les plaques d’immatriculation et une présence humaine sans intelligence artificielle (ou traitement algorithmique) comme l’affirme Vizzia ?
Publicité mensongère
Contrairement aux déclarations de son fondateur et aux informations publiées sur leur site Internet, Vizzia indique à plusieurs reprises s’appuyer sur l’IA pour identifier des délits, à commencer… par leur site Internet :« _ Vizzia a développé une caméra détectant les dépôts sauvages à l’aide de l’intelligence artificielle » ou encore « Les caméras Vizzia peuvent détecter automatiquement les dépôts sauvages de déchets grâce à un algorithme et de l’intelligence artificielle _» - À noter qu’après nos entretiens, les pages web ou figuraient ces informations ont été retirées par Vizzia.
Sur son site Web dédié au marché suisse, on peut tout de même lire qu’il s’agit d’ « algorithmes par computer vision »décrits comme « surperformants ». Quant à la plateforme de l’Union des groupements d’achats publics (UGAP) - qui permet aux mairies de faciliter l’achat de produits et services de prestataires privés - l’entreprise vante un logiciel permettant « une détection des incivilités par analyse de pixels : un logiciel intelligent » et précise que ce ne sont plus 100 % mais « 98 % des dépôts sauvages qui sont détectés ». L’erreur informatique serait donc possible.
Contactée, la start-up se défend en expliquant que leur produit « n’apprend pas, ne s’adapte pas, et ne tire aucune conclusion de son expérience ». En évitant soigneusement de répondre à la quasi-totalité des questions de Reflets - notamment sur l’usage répété du terme d’intelligence artificielle sur leurs supports de communication, la manière dont leur algorithme est entraîné, alimenté et amélioré pour détecter un dépôt, une présence humaine, ou identifier les plaques d’immatriculation - Julien Couturier (Responsable Affaires publiques de Vizzia) nous répond que leur produit « se borne à répliquer ce pour quoi il a été programmé initialement. Il n’y a donc pas de Deep Learning ou de Machine Learning. Et oui, il lui arrive de faire des erreurs ».

Pourtant, dans le brevet déposé en mars 2023 qui décrit le fonctionnement du logiciel et que Reflets a pu consulter, le terme d’« apprentissage machine »apparaît 15 fois dans le document de 30 pages. On découvre notamment que la détection des dépôts sauvages se fait via « un algorithme d’apprentissage machine » s’appuie sur du deep learning (ou réseau de neurones) : « ladite première fonction logicielle comportant la mise en œuvre d’un modèle d’apprentissage machine configuré pour détecter et classifier les plaques d’immatriculation et les visages ».
Mais l’intelligence artificielle de Vizzia va plus loin. Le document technique précise que l’algorithme a été entraîné pour détecter une « activité caractéristique d’un être humain ». Il s’agit ici d’analyser les données comportementales des personnes, en détectant automatiquement « la posture » (une personne penchée, « probablement en train de déposer un objet ») et ses mouvements (une personne faisant un « aller et retour », ou qui correspond à « un être humain qui se baisse et se relève »). Le processus technique est résumé ainsi : « Selon différents exemples, l’activité caractéristique comprend la détection d’une posture, d’un mouvement et/ou encore d’un ensemble formé par un être humain et un objet. Un algorithme d’apprentissage machine peut être utilisé afin de reconnaître une forme, un mouvement ou une posture automatiquement. »
Interrogée (voir le Making of) sur l’usage illégal de ce traitement algorithmique dans l’espace public par Vizzia - mais aussi sur la validation des analyses d’impact relatives à ces projets de surveillance - la CNIL indique qu’elle a enregistré « une plainte à l’encontre de cette entreprise qui est en cours d’instruction »et ne peut en conséquence communiquer aucun élément sur le sujet.
Combien de personnes ont été sanctionnées financièrement via ce dispositif technique qu’aucun texte de loi n’autorise ? Malgré une couverture médiatique importante, les villes équipées du logiciel Vizzia ont-elles informé leurs administrés, ou recueilli leur consentement sur l’utilisation de ce traitement algorithmique de leurs comportements ? Comment la CNIL, garante de la protection des données personnelles de la population, a-t-elle pu valider des dizaines de projets qu’elle définit elle-même comme « interdits » ? Bpifrance a-t-elle subventionné plus de 734.000 € d’argent public en connaissance de cause ? À ces questions aujourd’hui sans réponse, s’ajoutent celles de l’automatisation de la répression dans l’espace public, produite par des intelligences artificielles faillibles et conçues en toute opacité par des entreprises privées prêtes à tout pour commercialiser leurs produits.
Making of
Contactée une première fois au sujet de sa position interdisant l’usage d’algorithmes pour détecter les dépôts sauvages, la CNIL répond de façon surprenante que la seule chose qui peut nous être communiquée à ce stade est que « le contexte juridique est en cours de construction et que nous avons des échanges avec le ministère de l’Écologie à ce sujet ».
Sollicité sur la construction en cours d’une loi autorisant cette pratique, le ministère de la Transition écologique, de la Biodiversité, de la Forêt, de la Mer et de la Pêche nous répond que cette surveillance algorithmique « soulève un certain nombre de questions sur le plan de la proportionnalité, du respect de la vie privée » — et nous renvoie vers la position de la CNIL interdisant cette pratique. Tout en reconnaissant que ces outils « facilitent le travail d’enquête et de flagrance des collectivités », le ministère confirme que des réflexions sont en cours avec la CNIL pour identifier un cadre législatif et réglementaire approprié, mais qu’il est « encore trop tôt pour savoir si l’utilisation de ces technologies est proportionnée au regard des enjeux tant environnementaux que ceux relatifs aux traitements automatisés ».
Dans un second temps, nous avons sollicité la CNIL au sujet des analyses d’impacts relatives à la protection des données (AIPD), document obligatoire pour toute commune qui souhaite déployer un projet de vidéoprotection couplé à un traitement algorithmique (ou projet de vidéosurveillance algorithmique). Les questions envoyées étaient les suivantes :
La société Vizzia affirme avoir réalisé des AIPD auprès de vos services. Pouvez-vous confirmer qu’un ou plusieurs projets ont bien fait l’objet d’une AIPD en lien avec le logiciel Vizzia (sans forcément mentionner les villes concernées) ?
Si oui, sur quelle base technique et juridique ces traitements ont-ils été autorisés ?
Après plusieurs relances, la CNIL nous finalement a répondu qu’elle « avait enregistré une plainte à l’encontre de cette entreprise qui est en cours d’instruction et qu’elle ne pouvait donc communiquer aucun élément sur le sujet ».
- L’article L541-3 du Code de l’Environnement permet de demander au pollueur de présenter ses observations écrites ou orales, de lui appliquer une amende administrative jusqu’à 15.000 €.