Si pour vous Depeche Mode, c’est avant tout le survivant de la dark wave à la mode de l’Essex, nimbée de nappes de synthétiseurs, vous allez être surpris.
Car, si le groupe anglais, récemment amputé de son membre fondateur Andrew Fletcher, fait parler de lui ces temps, ce n’est pas tant pour sa tournée Memento Mori – mais du fait que des caméras de surveillance algorithmique seront testées lors de l’escale parisienne du groupe, les 3 et 5 mars prochains. Dans ce contexte, six caméras équipées d’un logiciel idoine seront placées aux abords de la salle de spectacle de Bercy.
Les autres chroniques de Nicolas Capt
Contrôler les foules avec l'IA
Mais, au fond, de quoi parle-t-on? Il s’agit, explique la Préfecture de police de Paris, de tester, en conditions réelles, un système de vidéosurveillance ayant recours à l’intelligence artificielle, en vue des prochains Jeux olympiques de Paris. Cet outil de contrôle des foules d’un nouveau genre permet de détecter automatiquement un certain nombre d’événements anormaux, allant de la présence ou de l’utilisation d’une arme à un mouvement de foule, en passant par un départ de feu ou un colis abandonné.
Au fond, ce dispositif est appelé à venir en aide aux opérateurs de vidéosurveillance en facilitant la détection d’incidents de divers types dans les images captées par les caméras de surveillance, lesquelles seront conservées quelque douze mois. Rendue possible, sous forme d’expérimentation, par une loi dite «Jeux olympiques», l’utilisation de la vidéosurveillance algorithmique sera possible jusqu’en mars 2025.
A lire aussi sur les JO 2024
Violation de la vie privée?
Saluée par les autorités comme un outil efficient de contrôle des foules, le projet fait bondir les associations de protection de la vie privée qui y voient, sous couvert d’une amélioration de la sécurité, le cheval de Troie de la vidéosurveillance algorithmique intrusive. Ces associations s’inquiètent notamment des biais discriminatoires (soit le fait que certains groupes d’individus pourraient être vus comme plus à risque en raison de leur apparence) mais aussi du biais dit d’automation, soit d’une confiance aveugle mise dans la machine.
De son côté, le Ministère français de l’Intérieur se dit serein, tout en escomptant des contentieux judiciaires, et précise que le dispositif ne permettra pas, en l’état, de reconnaissance faciale. Pas certain que cette garantie suffise à rassurer tant il est éprouvé que les dispositifs de contrôle ont plutôt tendance à s’étendre avec le temps, et non l’inverse.
Cela a ainsi été le cas lors d’une expérimentation dans une station de métro londonienne, conduite entre 2022 et 2023: six mois après le début du test, les visages initialement floutés ont été remis en clair lorsque des usagers étaient suspectés de frauder. Surveillance, quand tu nous tiens!