JO de Paris 2024 : pourquoi la loi sur les caméras « intelligentes » ne règle rien à la polémique

Policiers et agents du centre de supervision urbain travaillant avec le système de vidéosurveillance, le 26 Avril 2016 à Nice en France.(Photo by VALERY HACHE / AFP)
Policiers et agents du centre de supervision urbain travaillant avec le système de vidéosurveillance, le 26 Avril 2016 à Nice en France.(Photo by VALERY HACHE / AFP)

PARIS 2024 - Verrons-nous des caméras « intelligentes » (aussi dites « augmentées ») se multiplier à l’approche des JO ? L’Assemblée nationale doit étudier cette semaine le projet de loi relatif aux Jeux Olympiques et Paralympiques de 2024 mais une mesure cristallise les débats : l’utilisation de la vidéosurveillance algorithmique (VSA) à titre expérimental. Ce dispositif doit être utilisé pour alerter les forces de l’ordre en cas de « comportement suspect »... mais c’est là que le bât blesse.

Qu’est-ce que la VSA ?

La VSA repose sur des caméras de surveillance classique, mais dont les images sont analysées par l’intelligence artificielle. En cas d’alerte repérée par ces yeux algorithmiques, il sera décidé, ou non, de l’envoi des forces de l’ordre sur le terrain.

C’est cette technologie qui doit être mis en place pour les JO 2024 mais également en test lors de la Coupe du monde de Rugby 2023. L’objectif de la VSA est de « détecter, en temps réel, des événements prédéterminés susceptibles de présenter ou de révéler ces risques et de les signaler », peut-on lire à l’article 7 du projet de loi. En clair : pas de reconnaissance faciale, mais une détection de comportements.

Voilà justement tout le problème : qu’est-ce qui peut être considéré comme un « comportement suspect » ? La définition, ces fameux « événements prédéterminés » inscrits dans la loi sont très flous. Il y a bien sûr ce qui semble être l’évidence : une agression, une fuite se caractérisent par des mouvements brusque qui pourraient alors faire sonner l’alarme des caméras. Mais la réalité est infiniment plus complexe, tant il est difficile de stéréotyper des mouvements correspondants à des actions particulières.

« C’est le fruit d’un stéréotype, d’une interprétation morale, subjective et arbitraire », dénonce à ce sujet Noémie Levain, juriste à La Quadrature du Net, une association de défense des droits et libertés des citoyens sur Internet. Contactée par Le HuffPost, elle explique : « Par exemple, peut être considéré comme un comportement suspect, quelqu’un de statique dans la rue. La machine peut se dire qu’il va faire le guet, alors que la majorité des personnes qui sont statiques dans l’espace public sont des personnes qui mendient ou alors qui juste attendent ».

Il y a toujours un humain derrière

Le fonctionnement de la VSA repose sur ce qu’on appelle du « machine learning » ou apprentissage automatique, c’est-à-dire ici qu’à partir des données fournies à l’algorithme, celui-ci va apprendre à reconnaître un « comportement suspect ». Or, « les données avec lesquelles on va entrainer l’algorithme ne seront jamais exhaustives et neutres », estime Noémie Levain.

D’autant plus que les situations peuvent évoluer. Les recommandations du gouvernement lors de la pandémie du Covid-19 en est un parfait exemple : « Avant le Covid, se tenir à moins d’un mètre de distance c’était à priori pas problématique », détaille la juriste. « Ensuite, il y a un choix politique et moral : qu’est-ce qu’on va regarder ? Qu’est-ce qu’on va apprendre à l’algorithme ? Que va-t-on lui définir comme étant suspect ? »

La Commission nationale de l’informatique et des libertés (CNIL) reconnaît elle-même que la loi ne va pas jusqu’à ce point de détail : « Le cadre général est prévu par la loi. Et les fournisseurs de logiciel devront obtenir une attestation de conformité et décrire techniquement et précisément comment les algorithmes fonctionnent pour éviter les biais », explique Thomas Dautieu, directeur de l’accompagnement juridique à la CNIL et contacté par Le HuffPost.

Des comportements définis...après le vote

Définir exactement ce qui est « susceptibles de présenter ou de révéler des risques » n’interviendra que dans un second temps. Une fois le texte voté au parlement, donc.« Ce sera le rôle d’un décret que de dire “ on ne peut utiliser des caméras augmentées que pour repérer par exemple, un mouvement de foule, un bagage abandonné, un geste suspect ” », détaille Thomas Dautieu. « La CNIL pourra rendre un avis sur ce décret, après ce sera au gouvernement de décider de suivre ou non notre avis. »

La Commission pourra en amont accompagner et aider les concepteurs d’intelligence artificielle de ces logiciels « pour qu’ils puissent nous démontrer comment ils ont développé ces algorithmes et à partir de quelles données », précise Thomas Dautieu. Le but étant d’éviter au maximum de fausses alertes, « car la qualité des données garantie la qualité des algorithmes par la suite ».

La CNIL sera également chargée des contrôles lors du déploiement de ces caméras « intelligentes » pour vérifier « qu’il n’y a pas de biais et que tout est conforme aux garanties prévues par la loi ». Reste à savoir ce que comportera exactement le décret à venir.Une seule certitude, il ne sera publié qu’après le vote, ce qui signifie que le contrôle démocratique des algorithme qui dirigent le comportement de ces caméras n’aura pas lieu.

À voir également sur Le HuffPost :

JO 2024 à Paris : un système d’intelligence artificielle sera expérimenté

Pour être volontaire aux JO 2024, voici la marche à suivre