JO 2024 : des caméras dopées à l'intelligence artificielle pour assurer la sécurité

Publié le 17 janvier 2023 à 19h57, mis à jour le 18 janvier 2023 à 10h53

Source : Sujet TF1 Info

Le projet de loi relatif aux JO 2024 sera débattu au Parlement à partir du 24 janvier.
Face au défi sécuritaire que représente l’événement, un arsenal inédit va être déployé.
Caméras dopées à l'IA et logiciels de gestion de foules seront mis à contribution notamment.

Taxi volant, navette autonome, robot d'assistance... La technologie sera au cœur des Jeux olympiques 2024 à Paris. Un gigantesque laboratoire où l’intelligence artificielle (IA), notamment dans le domaine de la sûreté, sera également mise à contribution, une première à l’échelle du territoire. Le défi sécuritaire que représente l'événement donne des sueurs froides aux pouvoirs publics, en particulier des centaines de milliers de personnes attendues le long de la Seine pour la cérémonie d'ouverture. Le ministère de l’Intérieur réclame, à ce titre, la mise à disposition de moyens supplémentaires en matière de vidéosurveillance.

Un arsenal encore inédit, à base de logiciel de gestion de foules et de caméras dites "intelligentes", figure, entre autres, dans le projet de loi relatif aux JO 2024, dont les discussions débuteront le 24 janvier au Parlement. Objectif affiché, ne pas réitérer le fiasco de la finale de la ligue des champions de football, au Stade de France l’an dernier. 

Loin des dispositifs de vidéoprotection classiques

Selon le texte présenté par l’exécutif, ces dispositifs s’appuyant sur des technologies d’intelligence artificielle serviront "pour la détection et le signalement en temps réel d'évènements prédéterminés" présentant un risque dans des lieux accueillant des compétitions et dans les transports en commun. Ils pourront également être déployés lors de manifestations sportives, récréatives ou culturelles, est-il précisé. 

 

"Le projet de loi met en place un cadre juridique qui autorise l’usage de ces technologies à titre expérimental et uniquement pour une durée limitée", souligne, auprès de TF1info, Marie Duboys Fresney, adjointe au service des affaires économiques à la Cnil. Le déploiement de ce type de technologies marque un changement de nature par rapport aux dispositifs de vidéoprotection classiques, d’où ces précautions. "Ces dispositifs procèdent à des analyses automatisées dans l’espace public. Il y a donc un risque d’atteinte à la vie privée et aux droits et libertés des personnes qui est beaucoup plus attentatoire. Ce n’est plus juste un agent qui regarde des images derrière un écran", souligne-t-elle. 

Il y aura nécessairement un contrôle humain derrière, qui décidera ou non d’intervenir ou de procéder à une interpellation
Marie Duboys Fresney, adjointe au service des affaires économiques à la Cnil

Concrètement, ces outils de surveillance s’appuient sur des technologies d’intelligence artificielle qui analyseront en direct les flux d’images provenant des caméras de vidéosurveillance ou des drones qui survoleront les abords des stades.  Conformément à l’avis de la Cnil, la prise de décision, en revanche, ne sera pas automatisée. "Imaginons que l’algorithme détecte un mouvement de foule, la présence d’un objet dangereux ou un comportement suspect, il y aura nécessairement un contrôle humain derrière, qui décidera ou non d’intervenir ou de procéder à une interpellation", indique Marie Duboys Fresney. De plus, le projet de loi garantit, à ce stade, l’exclusion totale des technologies de reconnaissance faciale et de traitements de données biométriques, ajoute-t-elle.

Par ailleurs, conformément à l’avis de la Cnil, un décret devra également fixer précisément le type d’événements prédéfinis pouvant faire l’objet d’une analyse automatisée. "Une expérimentation n’a pas forcément vocation à aboutir à des dispositions pérennes. À ce jour, on ne connaît pas l’efficacité de ces dispositifs, et c’est justement tout l’intérêt de cette démarche. La Cnil a d’ailleurs insisté sur la nécessité d’avoir un rapport d’évaluation. Est-ce que ça fonctionne et à quel prix ? Quelles sont les risques et comment les limiter, le cas échéant ?", détaille la juriste de la Cnil. Même si la loi comporte un certain nombre de gardes fou, l'opacité de ces technologies pose des questions. 

Un premier pas vers la surveillance de masse ?

Pour l'association de défense des libertés "La Quadrature du Net", le déploiement de la vidéosurveillance algorithmique marque un tournant majeur, un premier pas vers la surveillance de masse. "Les événements sportifs ont toujours été un lieu d’expérimentation de mesures autoritaires, rappelle Noémie Levain, juriste au sein de l'association, contactée par TF1info. "L'État instrumentalise les Jeux olympiques pour justifier l’extension des technologies de surveillance dans l’espace public, en utilisant la reconnaissance faciale comme épouvantail de manière à minimiser l’impact de ces technologies. On sait très bien que c’est l’étape d’après", pointe cette spécialiste des questions de droit. "Ce n’est pas juste un petit logiciel pour aider les policiers. À chaque étape du développement de ces algorithmes, il y a des choix politiques", souligne-t-elle. 

Il y a trois ans, l'association "La Quadrature du Net" a lancé l'initiative "Technolopolice", dans le but de recenser justement les nouvelles technologies policières en France. Le contexte sécuritaire, notamment au regard de la menace terroriste, encourage le développement de ces outils de surveillance. "A ce jour, il n'y a aucune étude sérieuse qui démontre que ces dispositifs sont efficaces. C'est même plutôt l'inverse", soutient Noémie Levain, qui cite à l'appui une étude commandée par l'École des Officiers de la Gendarmerie Nationale (EOGN). Si l'on en croit les conclusions, les images des caméras de vidéosurveillance seraient utilisées dans "environ une enquête sur dix" et se révèlent utiles pour les résoudre que "dans 1,13 % des cas". Pas très convaincant, en effet.

Du côté du ministère de l'Intérieur, on rappelle qu'il n'y a aucun cadre légal et juridique à ce stade et qu'il est donc difficile d’identifier objectivement les cas d'usage derrière cette technologie. La réflexion sera nourrie par le débat parlementaire. Puis, lorsque la loi sera définitivement votée, on en discutera avec les industriels pour savoir ce qu’on pourra mettre en place, indique, auprès de TF1info, une source au ministère. "L'intelligence artificielle est un sujet qui fait débat. Le ministre a choisi de ne pas y intégrer la reconnaissance faciale. De plus, le projet de loi reprend l'ensemble des garanties qui avaient été identifiées par la Commission nationale de l'informatique et des libertés et le Conseil d’État. On avance à pas de velours, en espérant un débat apaisé et constructif", ajoute le minist-re


Matthieu DELACHARLERY

Tout
TF1 Info