this post was submitted on 07 Oct 2024
14 points (100.0% liked)

France

2216 readers
54 users here now

La France et les Français

Communautés principales

Nous rejoindre sur Matrix: https://matrix.to/#/#jlai.lu:matrix.org

🔍 Recherche

FAQ, guides et ressources :

Actualité internationale

Loisirs:

Vie Pratique:

Société:

Villes/Régions

Pays:

Humour:

Fedivers:

Règles

  1. Multi-lingual community: posts in other language than French are allowed. 🚀

  2. Tous les francophones sont bienvenus. 🐌

  3. Remember the human : pas d’insultes, pas d’agressivité, pas de harcèlement entre utilisateurs. 🤖

  4. Xénophobie, racisme et autre forme de discrimination sont interdits.🌈

  5. Pas de doublon. Pas de spam. Évitez les paywalls autant que possible.☔

  6. Utilisez la fonction "Report" pour signaler le contenu contrevenant aux règles.🏴

  7. Le contenu doit être en rapport avec la France ou la population française.🇨🇵


Communauté de secours:

founded 2 years ago
MODERATORS
 

C’est sans surprise que le Premier ministre, Michel Barnier, a annoncé, dans son discours de politique générale du 1er octobre, la généralisation de «la méthode expérimentée pendant les Jeux olympiques et paralympiques». En d’autres termes, la vidéoprotection augmentée par algorithmes, adoptée à titre expérimental et temporaire par la loi du 19 mai 2023, est appelée à être pérennisée, avant même la remise du rapport d’évaluation de l’expérimentation.

Le régime de la «vidéosurveillance», c’est-à-dire l’enregistrement et la transmission d’images de la voie publique aux autorités «aux fins d’assurer la protection des bâtiments et installations publics et de leurs abords» est déjà ancien. Introduite par la loi d’orientation et de programmation relative à la sécurité du 21 janvier 1995, la vidéosurveillance a été rebaptisée «vidéoprotection» par la loi d’orientation et de programmation pour la performance de la sécurité intérieure du 14 mars 2011 (Loppsi 2), afin de rendre le terme plus positif : le citoyen doit en permanence être protégé, et non surveillé. La logique qui conduit à postuler un besoin toujours plus important de protection n’a, en revanche, jamais été interrogée, de même que l’efficacité concrète de la vidéoprotection sur le terrain reste à démontrer.

Les études sur ce point sont rares et le législateur peu intéressé par leurs conclusions. L’une des preuves est le fait que le rapport d’évaluation de l’expérimentation de la vidéoprotection algorithmique doive être remis au Parlement le 31 décembre 2024, soit trois mois avant la fin de l’expérimentation en mars 2025. Sans même attendre cette remise, le préfet de police, Laurent Nuñez, a déjà affirmé mercredi 25 septembre que le bilan de l’expérimentation était «positif».

Annoncée plusieurs mois avant la remise du rapport d’évaluation, la généralisation de la vidéoprotection augmentée par des systèmes d’intelligence artificielle, dont les bienfaits sont postulés semble-t-il par principe, s’inscrit dans une logique de fuite en avant sécuritaire peu transparente, sans évaluation des conséquences sociales et éthiques de l’adoption de ces technologies.

Il y a pourtant tout lieu d’interroger le dispositif et de prendre le temps du débat public. La vidéoprotection algorithmique, telle qu’elle est expérimentée actuellement en France, n’implique certes pas la reconnaissance faciale en temps réel dans l’espace public. Il s’agit, sur autorisation préfectorale et dans le cadre de manifestations sportives ou culturelles, d’identifier automatiquement et de signaler une série de huit «événements» définis par décret du 28 août 2023. Départs de feux, véhicules roulant à contresens ou encore mouvements de foule font partie des «événements» dont la détection automatique paraît de prime abord pertinente, sous réserve qu’elle facilite réellement la réaction des autorités compétentes sur le terrain, ce que seul le rapport d’évaluation de l’expérimentation permettra d’apprécier. D’autres événements définis par le même décret laissent circonspects, à l’instar de la détection automatique de la «densité trop importante de personnes», manifestement définie discrétionnairement par les services préfectoraux, ou encore du non-respect «du sens de circulation commun» par un piéton qui laisse entrevoir une société de la surveillance peu enviable. Corriger les imprécisions et lacunes

Une première nécessité consiste à corriger ces imprécisions, ne serait-ce que par transparence envers les administrés et pour éviter les dérives d’un dispositif qui constituerait, en l’état, une arme terrifiante aux mains d’un gouvernement moins soucieux des libertés fondamentales. Une autre mesure indispensable réside dans l’interdiction inconditionnelle de la reconnaissance faciale, laquelle nous conduit peu à peu au modèle dystopique de la surveillance étatique permanente, que nos sociétés démocratiques doivent être en mesure d’éviter. Il n’y a en effet qu’un pas entre l’identification d’«événements» déterminés et celle des individus sur la base de leurs données biométriques. Sur ce plan, le droit européen souvent invoqué est de peu de secours. Si le Règlement sur l’intelligence artificielle adopté le 13 juin 2024 fait en théorie de la «notation sociale» une ligne rouge, son article 5 permet bien l’utilisation de systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives, en cas de «menace réelle et prévisible d’attaque terroriste» ou encore en vue de «la localisation ou l’identification d’une personne soupçonnée d’avoir commis une infraction pénale» punissable d’une peine d’au moins quatre ans d’emprisonnement. Autrement dit, le législateur est seul arbitre du choix de société que constitue le déploiement de la vidéoprotection algorithmique, sur lequel il sera difficile de revenir.

Enfin, ce débat doit être l’occasion de remédier aux nombreuses lacunes du régime juridique de la vidéoprotection classique. A titre d’exemple, le fonctionnement comme la composition des Commissions départementales de vidéoprotection, créées dès 1995 et dotées du pouvoir d’annuler l’implantation d’un dispositif illégal depuis la Loppsi 2, sont parfaitement obscurs et doivent être encadrés. La loi devrait par la même occasion prévoir l’institution systématique et dès la première caméra, avec ou sans IA, d’un comité d’éthique de la vidéoprotection – faculté actuellement laissée à la totale discrétion des collectivités. Une composition transparente et un certain nombre de fonctions consultatives obligatoires permettraient, notamment, d’associer de manière systématique les administrés à la politique de sécurité locale.

Ce n’est qu’en évaluant correctement le dispositif actuel, sans présumer de la nécessité de le pérenniser et certainement pas en l’état, que ces trois conditions de la réussite du débat sur la vidéoprotection algorithmique qui s’annonce pourront être remplies.

you are viewing a single comment's thread
view the rest of the comments
[–] klaqaus@sh.itjust.works 1 points 2 months ago* (last edited 2 months ago)

On se souviendra aussi de cette start up qui derrière une VSA mystérieuse faisait en fait taffer des gens à Madagascar : https://www.francetvinfo.fr/internet/intelligence-artificielle/video-a-madagascar-les-petites-mains-bien-reelles-de-l-intelligence-artificielle_6515243.html