Archives

Caméras intelligentes : un déploiement en manque de cadre juridique

L’intelligence artificielle appliquée à la vidéo ouvre de nouvelles perspectives d’usages pour gérer la mobilité ou piloter les risques. Si la détection d’objets ou de phénomènes n’est pas problématique, il en va autrement de l’analyse automatisée des comportements humains. Et faute d’un cadre précis, les collectivités doivent naviguer entre les décisions de la Cnil.

Comptage de véhicules et analyse du trafic, surveillance des inondations ou des départs de feux, les nouvelles générations de caméras se transforment désormais en capteurs au service de la smart city. Des algorithmes d’analyse d’image repèrent ainsi automatiquement des formes, les caractérisent pour dissocier, par exemple, un camion, un deux-roues d’une voiture particulière. Une caméra peut aussi identifier un colis abandonné ou un obstacle situé dans une zone de trafic. La miniaturisation des caméras, qui embarquent désormais une puissance de calcul, offre aux collectivités la possibilité de s’abstraire d’installations onéreuses telles qu’un centre de supervision ou un réseau en fibre optique pour relier les caméras. Des "avancées" technologiques dont les communes petites et moyennes sont les premières à bénéficier, bien au-delà des agglomérations où étaient cantonnées jusqu’ici les caméras. Ces dernières bénéficient en outre d’une optimisation de leurs installations, l’intelligence artificielle évitant aux agents de surveiller en permanence des dizaines d’écrans.

Vide juridique

"Les caméras contribuent à l’efficience des politiques publiques avec des gains économiques mais aussi sociétaux", a assuré Guillaume Charon en charge de la smart city chez Genetec à l’occasion d’un webinaire organisé par Smart City Mag. Les collectivités ne peuvent pour autant pas tout faire, loin de là. "La reconnaissance automatique d’objets ne pose pas de problème majeur, il en va autrement de l’analyse algorithmique de comportements humains", a rappelé Thomas Dautieu, directeur de la conformité à la Cnil. Car en dépit du nombre impressionnant de textes régissant la vidéoprotection - code de la sécurité intérieure, lois antiterrorisme, directive "Police-Justice" et RGPD – l’usage de l’intelligence artificielle pour analyser des comportements humains se caractérise surtout par un "vide juridique".

Captation du son interdite

Aujourd’hui, c’est surtout au travers de décisions ponctuelles que les collectivités peuvent savoir ce qu’il est possible, ou non, de faire. La captation de sons sur la voie publique, comme l’avait envisagé la ville de Saint-Étienne en 2019 pour lutter contre les incivilités (voir notre article du 30 octobre 2019), est ainsi pour le moment interdite. La Commission avait jugé cet usage "disproportionné" par rapport aux finalités recherchées par la collectivité et pointé la difficulté technique de dissocier les sons provenant de l’espace public de ceux relevant de la sphère privée. Et après avoir dit non à l’usage de caméras pour contrôler le respect du port du masque ou la distanciation sociale sur un marché de Cannes, la Cnil a validé le décret le rendant possible, uniquement dans les transports publics et "à des fins statistiques" (voir notre article du 11 mars 2021).

Pas de sanction automatique

La sanction automatique d’infractions - en dehors des infractions routières dans le cadre du système Lapi - n’est également pas possible en l’état actuel de la réglementation. Ce qui n’empêche pas des expérimentations. Tout récemment, la métropole de Nice Côte d’Azur a ainsi démarré un test sur la détection en temps réel des dépôts sauvages. Les alertes générées par les algorithmes ne sont destinées qu’aux agents du centre de supervision, à charge pour eux de déclencher une mise en demeure par haut-parleur ou de dépêcher sur place les forces de l’ordre. Et la collectivité assure ne conserver aucune donnée personnelle. Si la métropole de Nice fait partie des "bons clients de la Cnil" selon son directeur de la conformité, elle est loin d’être isolée. Dans son observatoire participatif de la Technopolice, la Quadrature du Net dénombre pas moins d’une trentaine de projets municipaux autour de la vidéosurveillance automatisée ou de la détection de "situations anormales". S’y ajoutent les promesses électorales des présidents d’Auvergne-Rhône-Alpes et d’Île-de-France d’utiliser la reconnaissance faciale dans les transports publics.

Le cadre juridique manquant

Si la Cnil réfute toute idée d’empêcher les collectivités d’innover, elle appelle – tout comme les industriels – à définir un cadre juridique adapté pour l’usage des algorithmes d’analyse d’image. Un cadre qu’elle souhaite voir précéder d’un débat démocratique, notamment sur l’usage de la reconnaissance faciale. Car comme elle le soulignait dans un avis sur les caméras thermiques, "le développement incontrôlé [des caméras intelligentes] présente le risque de généraliser un sentiment de surveillance chez les citoyens, de créer un phénomène d’accoutumance et de banalisation de technologies intrusives, et d’engendrer une surveillance accrue, susceptible de porter atteinte au bon fonctionnement de notre société démocratique". Un débat qui, pour le moment, se fait toujours attendre.

L’identification biométrique à distance interdite en Europe ?

Le 21 juin, l’EDPB (European Data Protection Board ou Comité européen de la protection des données) et l’EDPS (European Data Protection Supervisor ou Contrôleur européen de la protection des données) ont adopté un avis conjoint sur la stratégie de l’Union européenne en matière d’intelligence artificielle (voir notre article du 22 avril 2021). S’ils valident globalement le principe d’une régulation par les risques, ils demandent l’interdiction explicite des techniques d’identification biométrique à distance (reconnaissance faciale, de la démarche, de la voix…) dans l’espace public. Ils recommandent aussi d’interdire les algorithmes qui pourraient aboutir à des discriminations fondées sur l’origine ethnique, le sexe ou l’orientation sexuelle. Les deux organisations veulent enfin limiter à certains cas d’usage très précis l’usage de l’IA pour capter les émotions d’un individu.