JO Paris 2024 : faut-il craindre des dérives de la vidéosurveillance algorithmique ?

Alors que des caméras de vidéosurveillance algorithmique vont être testées à Paris les 3 et 5 mars, quels sont les risques pour les libertés individuelles ?

La vidéo surveillance algorithmique va être déployée en France (crédit : getty image)
La vidéo surveillance algorithmique va être déployée en France (crédit : getty image)

Un dispositif inédit. Les 3 et 5 mars prochains, des caméras de vidéosurveillance utilisant l’intelligence artificielle vont être déployées près de l’Accor Arena de Bercy à l’occasion des deux concerts de Depeche Mode. Objectif : tester le système dans des conditions réelles en amont des Jeux olympiques. Qu’est-il prévu et faut-il s’en inquiéter ?

Comment va fonctionner la vidéosurveillance à Paris ?

Le ministère de l’Intérieur a expliqué que six caméras équipées du logiciel de la société parisienne Wintics vont être installées par la Préfecture de police aux abords de la salle de spectacle. D’autres tests doivent être conduits en collaboration avec la SNCF et la RATP ensuite.

A terme, les caméras équipées d’un système d’intelligence artificielle pourront détecter huit types d'événements : le non-respect du sens de circulation, le franchissement d'une zone interdite, la présence ou l'utilisation d'une arme, un départ de feu, un mouvement de foule, une personne au sol, une densité trop importante ou un colis abandonné.

"Il s'agit d'une aide à la lecture des images dans le flot d'une salle de contrôle, pour être sûr que l'opérateur ne manque pas" un évènement important, a précisé le ministère. Concrètement, les images de vidéosurveillance sont transmises à un algorithme qui alerte les équipes de sécurité en cas d'évènement considéré comme "à risque". Ces images pourront être conservées 12 mois.

Y a-t-il des risques de surveillance de masse ?

La vidéosurveillance algorithmique a été rendue possible à la suite de la promulgation de la “loi Jeux Olympiques” en mai dernier. Le gouvernement a annoncé en septembre que l’expérimentation pourra être prolongée jusqu’en mars 2025.

En mars 2023, 38 organisations européennes et internationales, dont Amnesty International ou Human Rights Watch, ont exprimé leur “vive inquiétude”. “Ce projet de loi ouvre la voie à l’utilisation d’une vidéosurveillance algorithmique intrusive sous couvert d’assurer la sécurité lors d’événements de grande ampleur”, précisait un communiqué.

Les ONG alertaient sur le fait que les mesures ne répondaient pas “aux principes de nécessité et de proportionnalité” et impliquaient “des risques inacceptables vis-à-vis de plusieurs droits fondamentaux tels que le droit à la vie privée, le droit à la liberté de réunion et d’association et le droit à la non-discrimination”.

La question de la reconnaissance faciale

Outre le “biais discriminatoire” ciblant un groupe d’individus en particulier, le “biais d'automatisation” est pointé. Il est décrit comme une confiance excessive en la machine qui détermine si un individu est suspect ou non.

“On s'attend à du contentieux", avec des recours devant les tribunaux administratifs et le Conseil d'Etat "mais on est serein", écrit LCI, citant le ministère de l'Intérieur. Les dispositifs de reconnaissance faciale, à l’origine de nombreuses tensions, ont été écartés et ne seront pas employés en France. Pour l’instant.

"La mise en place de la vidéosurveillance algorithmique est une étape sans retour, explique un expert dans la revue Wired dont France Culture se fait l’écho. (...) Peu importe les garanties éthiques, quand le dispositif est en place, ce qui compte, ce sont les mises à jour du système." Le magazine revient sur l’exemple de Londres qui a testé entre octobre 2022 et septembre 2023 un système de vidéosurveillance algorithmique à la station de Willesden Green. Six mois après la mise en place du système, il a été décidé de rétablir les images des visages floutées lorsque les personnes étaient soupçonnées de frauder.

À LIRE AUSSI >> Comment l’intelligence artificielle est utilisée en médecine ?

VIDÉO - Vidéosurveillance algorithmique : L'intelligence artificielle vous regarde