« Expérimentation vidéoprotection augmentée » : les usagers des transports franciliens ont pu croiser, ces derniers jours, ces affiches à fond jaune dans plusieurs stations de la RATP et de la SNCF. Elles visent à les prévenir qu’en ce week-end des 20 et 21 avril, les images de vidéosurveillance captées sur place pourront faire l’objet d’un traitement algorithmique. Autrement dit, être passées au crible par un système d’intelligence artificielle (IA) chargé de détecter en temps réel des comportements suspects.

Autorisée à des fins sécuritaires et à titre expérimental par la loi sur les Jeux olympiques du 19 mai 2023, cette technologie a été testée une première fois début mars, lors de deux concerts parisiens du groupe Depeche Mode. Cette fois, c’est à l’occasion d’un concert des Black Eyed Peas à la Défense Arena samedi, puis du match de football Paris Saint-Germain (PSG) - Olympique lyonnais (OL) au parc des Princes dimanche, que la vidéosurveillance algorithmique (VSA) sera expérimentée.

Entre vendredi et lundi, les images issues de centaines de caméras urbaines pourront être traitées par le logiciel Cityvision, que développe la start-up française Wintics. Il s’agira des caméras installées dans les stations Paris-Gare de Lyon, pont du Garigliano, Nanterre-Préfecture et La Défense-Grande Arche.

Le but sera de détecter plus rapidement, dans ces flux d’images, un bagage abandonné, un mouvement de foule, une intrusion en zone interdite au public, une densité trop élevée… Face à l’inquiétude des défenseurs des libertés, les autorités assurent qu’aucune fonctionnalité de reconnaissance faciale ne pourra être activée.

« Pas optimal »

Ce deuxième test intervient quelques jours après la publication, le 10 avril, d’un rapport sénatorial pour le moins sévère envers le déploiement actuel de cette technologie. « Nous avons compris, lors du concert de Depeche Mode ayant servi d’expérimentation, que l’outil ne fonctionnait pas », ont notamment écrit les sénatrices Agnès Canayer (rattachée LR) et Marie-Pierre de La Gontrie (PS) après avoir mené près d’une centaine d’auditions depuis novembre.

La VSA constitue le principal bémol de leur rapport, qui se montre pour le reste plutôt rassurant sur l’état de préparation de la France en matière de sécurité, à moins de 100 jours des Jeux. « À l’heure actuelle, nous sommes sur la bonne voie pour que les JO soient une fête du sport et que les risques majeurs soient suffisamment anticipés », a déclaré Agnès Canayer.

Les deux rapporteures ont en revanche estimé que la VSA ne serait « pas optimale » au moment des Jeux et qu’il faudrait « compenser par plus de forces de l’ordre » dédiées à la détection des comportements suspects. « En aucun cas il y a là un moyen de sécurisation », fustige encore leur rapport.

Des données en très grand nombre

Comment expliquer ces lacunes ? À cause du déploiement tardif de cette technologie, selon ces deux sénatrices. Le fait que le décret d’application ait été édicté trois mois après le vote de la loi, en août 2023, et le comité de suivi constitué seulement fin novembre a selon elles « retardé la mise en œuvre effective de ces technologies nouvelles, limitant le temps utile d’expérimentation ». « Un tel outil nécessitait d’importantes mesures de préfiguration et de réglage afin d’être pleinement efficace », poursuit leur rapport.

Pour fonctionner correctement, ces algorithmes doivent en effet avoir été entraînés sur des données en très grand nombre, expliquent les professionnels du secteur. De fait, les pays qui ont déjà déployé ces logiciels (Israël, la Russie ou la Chine) l’ont fait à très grande échelle. Il faut aussi des caméras de bonne qualité, ce qui nécessite un certain investissement financier. Car les ombres, les réflexions et les changements d’illumination ont tendance à compliquer la tâche des algorithmes.

Des tests effectués à Londres en 2017 ainsi que dans l’Utah (États-Unis) en 2021 ont révélé des outils moins fiables pour l’analyse de comportements humains que pour l’identification d’objets. Ces études ont notamment pointé la multiplication des « faux positifs », autrement dit des personnes identifiées à tort comme étant « suspectes ». En vertu de la loi du 19 mai 2023, l’expérimentation de la VSA en France se poursuivra bien au-delà des Jeux olympiques puisqu’elle doit prendre fin le 1er mars 2025.