La Défenseure des droits dénonce les risques discriminatoires de la reconnaissance faciale

Face au risque de discrimination et de violation des droits fondamentaux, la Défenseure des droits appelle à la plus grande vigilance sur l’usage des technologies biométriques telles que la reconnaissance faciale. Elle invite notamment à interdire l’ajout de fonctionnalités biométriques aux caméras de vidéosurveillance et caméras-piétons.

Lentement mais durablement, la biométrie s’immisce dans nos vies pour simplifier l’accès à un compte bancaire ou déverrouiller un smartphone. Elle est également déployée dans les aéroports pour accélérer le contrôle des passagers. C’est aussi la technologie privilégiée pour l’enrôlement dans l’application d’authentification Alicem testée par le ministère de l’Intérieur. Elle intéresse surtout de multiples secteurs d’activité des ressources humaines à la sécurité des biens et des personnes.

Un taux d’erreur inacceptable

Or pour la Défenseure des droits, dans un rapport publié le 20 juillet 2021 visant à alimenter les réflexions en cours sur l’intelligence artificielle au niveau national et européen, toutes ces technologies biométriques, pourraient se développer "au détriment d'une partie de la population" ou "au prix d'une surveillance généralisée". Le risque de discrimination est plus particulièrement pointé du doigt. "Si les systèmes d’authentification, notamment de reconnaissance faciale, peuvent proposer des taux de précision atteignant 99,5%, ces 0,5% restants peuvent représenter une multitude d’individus exposés à un traitement inégal", note le rapport. Un risque de discrimination qui dépasserait la sphère policière et pourrait aussi concerner des usages "privés". Le rapport cite le cas des ressources humaines où l’analyse automatique des émotions et la notation de la personnalité des candidats pourraient aboutir à exclure de l’emploi des personnes handicapées ou tout simplement différentes.

Interdire la reconnaissance faciale dans l’espace public

Dans la lignée de la Cnil, la Défenseure des droits souligne ensuite l’impossible consentement des personnes quand la technologie est déployée sur l’espace public. "Les technologies biométriques d’identification et d’évaluation ne permettent pas aux personnes de s’opposer à leur utilisation ou de leur préférer une voie alternative", déplore-t-elle. Cette catégorie d’usage pourrait aussi aboutir à "collecter de manière généralisée et indifférenciée les données biométriques de chaque personne entrant dans leur champ d’opération, enfants compris". Pour ces raisons, elle appelle à une interdiction de toute technologie de reconnaissance faciale dans l’espace public applicable à l’ensemble des dispositifs (vidéosurveillance, caméras-piétons) comme le législateur l’a d’ores et déjà acté pour les drones. Et si la loi venait à autoriser leur utilisation dans certains domaines, elle demande à ce que les autorisations soient délivrées au compte-gouttes, pour des durées limitées, sous le strict contrôle de la Cnil.

Garder les algorithmes sous contrôle

D’une manière plus générale, la Défenseure des droits souhaite que les alternatives aux solutions biométriques soient systématiquement étudiées. Elle préconise que les analyses d’impact et le contrôle des systèmes biométriques ne se limitent pas aux dimensions cybersécurité et protection des données personnelles mais intègrent l’analyse des biais discriminatoires et le respect des droits des mineurs. Elle recommande que les algorithmes soient régulièrement audités après leur déploiement pour vérifier leurs effets. Elle invite à améliorer la fiabilité des algorithmes en les entrainant sur des bases de données plus variées "à même de refléter la diversité de la population réelle". Elle préconise enfin d’abaisser le seuil d’évaluation des marchés publics informatiques de l’Etat - aujourd’hui contrôlés par la Dinum dès qu’ils dépassent 9 millions d’euros - et d’intégrer à leur contrôle, au-delà des aspects budgétaires, une appréciation des risques de discrimination.

La région Auvergne-Rhône-Alpes veut s'essayer à la reconnaissance faciale dans les transports

En région Auvergne-Rhône-Alpes, un projet de délibération controversé a été présenté lundi 19 juillet 2021 par Laurent Wauquiez à l’assemblée régionale pour lui permettre de déployer la reconnaissance faciale dans les gares, la vidéoprotection à l’intérieur des cars scolaires et interurbains, de financer l’achat de logiciel d’analyses comportementales. Il s'agirait, rapporte l'association de la Quadrature du Net dans son communiqué du 16 juillet 2021, de renforcer le bouclier "vidéoprotection" avec "10.000 caméras supplémentaires et en l’étendant à la vidéoprotection intelligente ainsi qu’à l’expérimentation de systèmes innovants" tels que "la technologie biométrique". "Protéger nos lycéens, nos enfants dans les cars, les usagers des trains, c'est notre responsabilité. La reconnaissance faciale a posteriori permettra d'identifier les criminels et les interpeller. Voter contre, c'est empêcher de les retrouver. J'assume de protéger les habitants", s'est justifié Laurent Wauquiez dans un tweet du 19 juillet. Avec ce projet, encore peu détaillé, le président de la région Auvergne-Rhône-Alpes s'inscrit dans la lignée de Valérie Pécresse pour l'Ile-de-France et de Christian Estrosi pour la région Paca . Tous deux ont aussi exprimé à plusieurs reprises leur souhait de mettre en place la reconnaissance faciale dans les transports. 
La législation autour de la reconnaissance faciale est toutefois complexe et restrictive. 
"[...] De tels dispositifs seraient illégaux car ils ne remplissent en aucun cas les critères posés par la loi française ou le droit européen", rappelle la Quadrature du Net. "Ils n’obéissent nullement à une "nécessité absolue", ne présentent pas les "garanties appropriées" et ne sont encadrés par aucun texte spécifique comme l’exige pourtant l’article 10 de la directive Police-Justice", poursuit l'association avant de conclure : "c’est pour cela que nous avons gagné contre le projet de portiques de reconnaissance faciale à Nice et Marseille, que nous avons attaqué le projet de surveillance de Marseille (notre article du 2 mars 2020). 
V.F / Localtis

Ces expérimentations qui inquiètent

Les expérimentations de reconnaissance faciale dans l’espace public se multiplient en Europe, suscitant la controverse. En Hongrie, Lettonie et Grèce le projet iBorderCtrl, prétendant détecter un mensonge à partir des traits du visage, a ainsi choqué les associations protégeant les droits des migrants. En Suède et en France, les autorités nationales en charge de la protection des données ont mis un terme à l’usage de la reconnaissance faciale pour filtrer les entrées d’établissements scolaires au motif que le dispositif était disproportionné par rapport à l’objectif poursuivi. Un sort qu’a également connu le projet italien d’utiliser la reconnaissance faciale pour repérer les étrangers en situation irrégulière.
O.D pour Localtis

 

 

Pour aller plus loin

Voir aussi

Abonnez-vous à Localtis !

Recevez le détail de notre édition quotidienne ou notre synthèse hebdomadaire sur l’actualité des politiques publiques. Merci de confirmer votre abonnement dans le mail que vous recevrez suite à votre inscription.

Découvrir Localtis

Choix du format

 

Pour en savoir plus sur le traitement de vos données nous vous invitons à consulter notre Politique de protection des données à caractère personnelle