Vidéosurveillance algorithmique

La vidéosurveillance algorithmique (VSA) est un système de vidéosurveillance utilisant l'intelligence artificielle. Parfois également appelés vidéosurveillance "intelligente", "automatisée" ou "augmentées"[1], cet outil permet d'analyser automatiquement des images par des logiciels pour reconnaitre par exemple des mouvements suspects, des formes.

Définition et utilisation

La vidéosurveillance algorithmique permet d'analyser en temps réel les flux vidéos grâce à un logiciel qui se connecte au réseau existant des caméras en mettant de la “détection” et “tracking”. Avec cette technologie on transfère ce travail d’analyse à un logiciel qui produirait des notifications ou des alertes dès qu’il repère un événement qu’on lui aurait apprit à détecter. Les grands distributeurs de ce type de logiciel en Europe sont Breifcam, concepteur israélien et Two-i, concepteur français.

Encadrement juridique de son utilisation

L'encadrement de ces pratiques n'est pas encore claire. Néanmoins en France, la CNIL et la Quadrature du Net sont des organismes qui défendent les droits et libertés des personnes face aux avancées numériques. Ils publient des rapports et des enquêtes pour tendre vers un encadrement des pratiques.

Exemples d'utilisation

France

Cadre des Jeux Olympiques

En France, le débat émerge avec l'organisation des Jeux Olympiques et Paralympiques de Paris 2024 pour lesquels il est envisagé d'expérimenter l'utilisation de la vidéosurveillance algorithmique. Débattu au parlement en pleine crise sur la réformes des retraites, l'article 7 de la loi sur les Jeux Olympiques, est adopté par l'assemblée nationale le 23 mars 2023. Ce dispositif pourra être utilisé dans le cadre des jeux mais aussi pour des manifestations sportives, récréatives ou culturelles qui par leur ampleur ou leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes[2]. Il est notamment prévu de tester le dispositif dans le cadre de la Coupe du monde de rugby organisée de septembre à octobre 2023. Pour le moment, l'utilisation de données biométriques (reconnaissance faciale notamment) dans le dispositif est exclue[3]. La période d'application du dispositif est prévue pour se terminer au 31 décembre 2024.

Hors du cadre légal

En , Streetpress affirme que des magasins des enseignes E. Leclerc, Carrefour, G20, Système U, Biocoop, Kiabi et Fnac ont déployé illégalement la solution de vidéosurveillance de l'entreprise française Veesion, qui utilise l'intelligence artificielle pour surveiller le comportement de leur clientèle[4]. Le site de l'entreprise mentionne aussi comme clientèle les enseignes Pharmabest, Intersport, LeaderSanté, Aprium pharmacie, et Spar[5]. Le logiciel est vendu en avançant sa supposée efficacité et sa simplicité d'usage. Il peut envoyer une image du supposé vol au vigile à travers l'application Telegram, et présente une projection de l'économie effectuée grâce au logiciel dans le cas où le vol peut être interrompu[4]. Streetpress rappelle que la loi du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 n'autorise la vidéosurveillance que dans les « lieux accueillant des manifestations, leurs abords et les transports en commun »[6],[4] , ce qui exclut les magasins et la collecte de données biométriques précise La quadrature du net[7],[4]. Cela ne respecte pas non plus le consentement selon la CNIL[4]. L'association La quadrature du net affirme aussi que l'État a rappelé aux professionnels du secteur l'illégalité de la vidéosurveillance algorithmique en supermarché[8].

Chine

En Chine, la technologie participe à une politique de contrôle social. Depuis 2017, la vidéosurveillance algorithmique sert à faire respecter la loi. Sont ainsi soumis à l'opprobre public les piétons ne respectant pas les feux rouges aux passages piétons, leurs visages étant affichés dans l'espace public[9]. Le dispositif sert plus globalement à identifier les comportements jugés suspects avec pour objectif de l'intégrer au système de crédit social qui a pris forme dès les années 2000[10].

Craintes

En France la Commission nationale de l'Informatique et des Libertés (CNIL) fait part de ses réserves dans un rapport du 19 juillet 2022 en soulignant "les risques pour les droits et libertés des personnes"[11]. Elle y précise ainsi le caractère "intrusif" d'un tel dispositif notamment en matière de préservation de l'anonymat dans l'espace public. Les craintes sont aussi partagées par des associations de défense des libertés ainsi que le Conseil national des barreaux. Amnesty International dénonce "une offensive généralisée contre le droit à la vie privée, le droit de manifester et les droits aux libertés de réunion et d’expression"[3].

Au niveau européen, un règlement est en cours de négociation sur l'intelligence artificielle. Le 17 mars 2023, plusieurs eurodéputés ont mis en garde la France sur une possible non conformité de l'article 7 de la loi sur les Jeux Olympiques avec le règlement qui devrait être promulgué au mois d'avril[2].

D'autres organismes de défense comme la Quadrature du Net critiquent le "solutionnisme technologique" et pointent du doigt le manque d'efficacité de ces démarches.

Références

  1. « Qu’est-ce que la vidéosurveillance algorithmique ? », sur La Quadrature du Net, (consulté le ).
  2. a et b « JO 2024 : les députés autorisent la vidéosurveillance algorithmique avant, pendant et après les Jeux », Le Monde.fr,‎ (lire en ligne, consulté le )
  3. a et b Par David Charpentier Le 23 mars 2023 à 17h00, « Paris 2024 : il y aura bien des caméras « intelligentes » pour les Jeux olympiques », sur leparisien.fr, (consulté le ).
  4. a b c d et e Thomas Jusquiame, « Leclerc, Fnac, Biocoop et de nombreux commerces surveillent illégalement leurs clients », sur Streetpress, (consulté le ).
  5. Veesion, « site web », sur veesion.io (consulté le ).
  6. Article 10 de la Loi no 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses autres dispositions (1)
  7. L'article 4 du Règlement général sur la protection des données définit en 14. les « données biométriques » comme « les données à caractère personnel résultant d'un traitement technique spécifique, relatives aux caractéristiques physiques, physiologiques ou comportementales d'une personne physique, qui permettent ou confirment son identification unique, telles que des images faciales ou des données dactyloscopiques ».
  8. « Veesion, la start-up illégale qui surveille les supermarchés » Accès libre, sur La Quadrature du net, (consulté le ).
  9. « Comment la Chine utilise la reconnaissance faciale pour faire respecter la loi », sur Les Echos, (consulté le ).
  10. « En Chine, la vie sous l'oeil inquisiteur des caméras », sur Les Echos, (consulté le ).
  11. « Caméras dites « augmentées » dans les espaces publics : la position de la CNIL | CNIL », sur cnil.fr (consulté le ).

Voir aussi

Liens externes