Résister à l'essor de la reconnaissance faciale

Sur la place de la République de Belgrade, des caméras en forme de dôme sont bien en vue sur les appliques murales, scrutant silencieusement les gens qui traversent la place centrale. C’est l’un des 800 sites de la ville que le gouvernement serbe a déclaré l’année dernière qu’il surveillerait à l’aide de caméras équipées d’un logiciel de reconnaissance faciale, acheté à la société d’électronique Huawei à Shenzhen, en Chine.Le gouvernement n’a pas demandé aux habitants de Belgrade s’ils voulaient les caméras. dit Danilo Krivokapić, qui dirige une organisation de défense des droits humains appelée la Fondation SHARE, basée dans la vieille ville de la ville. Cette année, elle a lancé une campagne intitulée Hiljade Kamera – « des milliers de caméras » – qui remet en question la légalité et l’efficacité du projet et se prononce contre la télésurveillance automatisée. Belgrade vit un changement qui s’est déjà produit ailleurs. La technologie de reconnaissance faciale (FRT) est utilisée depuis longtemps aux frontières des aéroports et sur les smartphones, et en tant qu’outil pour aider la police à identifier les criminels. Mais il s’insinue désormais davantage dans les espaces privés et publics. De Quito à Nairobi, de Moscou à Detroit, des centaines de municipalités ont installé des caméras équipées de FRT, promettant parfois de fournir des données aux centres de commande centraux dans le cadre de solutions de « ville sûre » ou de « ville intelligente » contre la criminalité. La pandémie COVID-19 pourrait accélérer leur propagation.La tendance est la plus avancée en Chine, où plus de 100 villes ont acheté des systèmes de surveillance par reconnaissance faciale l’année dernière, selon Jessica Batke, qui a analysé des milliers d’avis de marchés publics pour ChinaFile, un magazine publié par le Center on USA-China Relations à New York.

Un système de balayage par reconnaissance faciale à l’entrée d’une station de métro de Zhengzhou, en Chine (en décembre 2019) .Crédit: Gilles Sabrié / NYT / Redux / eyevine

Résister à l'essor de la reconnaissance faciale

Mais la résistance grandit dans de nombreux pays. Les chercheurs, ainsi que les défenseurs des libertés civiles et les juristes, sont parmi ceux qui sont perturbés par la montée en puissance de la reconnaissance faciale. Ils surveillent son utilisation, exposent ses méfaits et font campagne pour des garanties ou des interdictions catégoriques. Une partie du travail consiste à révéler l’immaturité de la technologie: elle contient encore des inexactitudes et des préjugés raciaux. Les opposants sont également préoccupés par le fait que la police et les forces de l’ordre utilisent le FRT de manière discriminatoire et que les gouvernements pourraient l’utiliser pour réprimer l’opposition, cibler les manifestants ou limiter les libertés – comme dans le cas de la surveillance dans la province chinoise du Xinjiang.

Des défis juridiques sont apparus en Europe et dans certaines parties des États-Unis, où des détracteurs de la technologie ont intenté des poursuites pour empêcher son utilisation dans le maintien de l’ordre. De nombreuses villes américaines ont interdit aux agences publiques d’utiliser la reconnaissance faciale – au moins temporairement – ou ont adopté des lois pour exiger plus de transparence sur la manière dont la police utilise les outils de surveillance. L’Europe et les États-Unis examinent actuellement des propositions visant à réglementer la technologie, de sorte que les prochaines années pourraient définir comment l’utilisation du FRT est limitée ou enracinée. « Ce qui unit la vague actuelle de refus, c’est l’insistance sur le fait que ces technologies ne sont pas inévitables », a écrit Amba Kak, juriste à l’AI Now Institute de l’Université de New York, dans un rapport de septembre1 sur la réglementation de la biométrie.

Problèmes de surveillance

En 2019, 64 pays utilisaient le FRT pour la surveillance, déclare Steven Feldstein, chercheur en politique au Carnegie Endowment for International Peace à Washington DC, qui a analysé la diffusion mondiale de la technologie2. Feldstein a constaté que des villes de 56 pays avaient adopté des plateformes de villes intelligentes souvent apparemment encouragées par des prêts bonifiés de banques chinoises. (Des entreprises américaines, européennes, japonaises et russes vendent également des caméras et des logiciels, a noté Feldstein.) Le projet de Belgrade illustre les préoccupations que beaucoup ont à propos de l’essor des systèmes de villes intelligentes: rien ne prouve qu’ils réduisent la criminalité plus que les caméras vidéo ordinaires, et le public en sait peu sur les systèmes qui sont apparemment à leur avantage. Krivokapić se dit préoccupé par le fait que la technologie semble plus adaptée pour offrir à un gouvernement de plus en plus autoritaire un outil pour freiner la dissidence politique. « Avoir des caméras dans une jeune démocratie comme la Serbie peut être problématique en raison du potentiel d’abus politique », déclare Ljubiša Bojić, coordinateur du Digital Sociometrics Lab de l’Université de Belgrade, qui étudie les effets de l’intelligence artificielle (IA) sur la société. « Bien que la situation ait changé depuis la tourmente des années 90, le dogme de l’état policier et la peur des agences de renseignement font de la Serbie un endroit inapproprié pour la mise en place de caméras AI. » Lorsque le gouvernement a annoncé le projet, il a donné peu de détails. Mais SHARE a trouvé un communiqué de presse de 2018 sur le site Web de Huawei (que la société a supprimé) annonçant des tests de caméras haute définition à Belgrade. Le document indiquait que les caméras avaient aidé la police serbe à résoudre plusieurs affaires pénales majeures et à améliorer la sécurité lors de grands événements sportifs. Cette année, le gouvernement a révélé que le programme consistait à acheter 8 000 caméras à utiliser dans les voitures de police, comme caméras portées sur le corps et sur les bâtiments.

Caméras de la société d’électronique chinoise Huawei au-dessus d’un café donnant sur la place de la République de Belgrade Crédit: Vladimir Zivojinovic for Nature

« De nombreuses questions restent sans réponse », dit Krivokapić. « Par exemple, où les données seront-elles stockées ? En Serbie ou en Chine ? Huawei aura-t-il accès aux données ?  » Après que SHARE et d’autres aient insisté pour obtenir plus de détails, le gouvernement serbe a déclaré que les données ne seraient ni collectées ni conservées par Huawei. Mais Lee Tien, un avocat de haut niveau à l’Electronic Frontier Foundation à San Francisco, en Californie, dit que l’une des principales raisons pour lesquelles les grandes entreprises technologiques – que ce soit en Chine ou ailleurs – s’impliquent dans la fourniture de technologies de surveillance de l’IA aux gouvernements est qu’elles espèrent le faire. collecter une masse de données qui pourraient améliorer leurs algorithmes.La Serbie modélise ses lois sur la protection des données sur le règlement général sur la protection des données (RGPD) de l’Union européenne, mais on ne sait pas si les projets du ministère de l’Intérieur satisfont aux lois du pays, a déclaré le commissaire à la protection des données de la Serbie. en mai. (Le ministère de l’Intérieur a refusé de commenter cet article et Huawei n’a pas répondu aux questions.)

Dans l’ensemble, aucune étude n’a prouvé que les villes « sûres » ou « intelligentes » réduisent la criminalité, déclare Pete Fussey, sociologue à l’université d’Essex à Colchester, au Royaume-Uni, qui étudie les droits de l’homme, la surveillance et le maintien de l’ordre. Il dit que des affirmations anecdotiques sont exploitées en une preuve de principe pour une technologie de surveillance qui est encore très nouvelle. « L’histoire de la technologie et de l’application de la loi est jonchée d’exemples d’orgueil et de revendications extravagantes », dit-il. « Il est raisonnablement peu controversé de dire que les caméras de surveillance en général sont plus efficaces pour lutter contre les crimes contre les choses que contre les personnes. Une fois que vous commencez à vous lancer dans la surveillance automatisée, cela devient plus difficile, en partie parce qu’elle n’est pas utilisée autant. « 

Poussée pandémiqueNous sommes tous dans la base de donnéesAppels à la réglementation

En septembre 2019, le Ada Lovelace Institute, basé à Londres, un institut de recherche financé par une organisation caritative qui examine l’intelligence artificielle et la société, a publié une enquête représentative au niveau national3 de plus de 4000 adultes britanniques sur le FRT. Il a révélé que la majorité des gens soutenaient la reconnaissance faciale lorsqu’ils pouvaient voir un avantage public, comme dans les enquêtes criminelles, pour déverrouiller les smartphones ou pour vérifier les passeports dans les aéroports. Mais 29% étaient mal à l’aise avec l’utilisation de la technologie par la police, affirmant qu’elle enfreint la vie privée et normalise la surveillance, et qu’ils ne font pas confiance à la police pour l’utiliser de manière éthique. Il n’y avait pratiquement aucun soutien pour son utilisation dans les écoles, au travail ou dans les supermarchés. « Le public s’attend à ce que la technologie de reconnaissance faciale dans les services de police soit accompagnée de garanties et liée à un intérêt public », conclut l’enquête. De nombreux chercheurs et certaines entreprises, notamment Google, Amazon, IBM et Microsoft, ont appelé à l’interdiction de la reconnaissance faciale. – au moins sur l’utilisation de la technologie par la police – jusqu’à ce que des réglementations plus strictes soient adoptées. Certains évoquent avec admiration le RGPD, qui interdit le traitement des données biométriques sans consentement – bien qu’il offre également de nombreuses exceptions, comme si les données sont « manifestement publiques », ou si l’utilisation est « nécessaire pour des raisons d’intérêt public substantiel ». En ce qui concerne l’utilisation commerciale de la reconnaissance faciale, certains chercheurs craignent que les lois axées uniquement sur l’obtention du consentement pour l’utiliser ne soient pas assez strictes, dit Woodrow Hartzog, un ordinateur scientifique et professeur de droit à la Northeastern University de Boston, Massachusetts, qui étudie la surveillance faciale. Il est très difficile pour un individu de comprendre les risques de consentir à la surveillance faciale, dit-il. Et ils n’ont souvent pas de moyen significatif de dire « non ».

Hartzog, qui considère la technologie comme « la plus dangereuse jamais inventée », déclare que si les législateurs américains autorisent les entreprises à utiliser la reconnaissance faciale « malgré ses inévitables abus », ils devraient rédiger des règles interdisant la collecte et le stockage des « empreintes faciales » à partir de lieux tels que les gymnases et les restaurants, et interdisent l’utilisation de la FRT en combinaison avec la prise de décision automatisée telle que la police prédictive, le ciblage publicitaire et l’emploi.L’Algorithmic Justice League, une organisation de campagne dirigée par des chercheurs fondée par l’informaticienne Joy Buolamwini au Massachusetts L’Institut de technologie de Cambridge a joué un rôle de premier plan dans l’appel à un moratoire fédéral américain sur la reconnaissance faciale. En 2018, Buolamwini a co-écrit un article montrant comment les systèmes d’analyse faciale sont plus susceptibles de mal identifier le sexe des visages à la peau plus foncée et féminine4. Et en mai, elle et d’autres chercheurs ont fait valoir dans un rapport que les États-Unis devraient créer un bureau fédéral pour gérer les demandes de FRT – un peu comme la Food and Drug Administration des États-Unis approuve les médicaments ou les dispositifs médicaux5. « Ce qu’un bureau fédéral ferait, c’est fournir plusieurs niveaux de clairance avant qu’un produit puisse entrer sur le marché. Si les risques l’emportent largement sur les avantages déclare Erik Learned-Miller, informaticien à l’Université du Massachusetts à Amherst qui a co-rédigé le rapport. En Chine également, les gens ont exprimé leur gêne. avec une utilisation généralisée de la reconnaissance faciale – au moins par des entreprises privées. Une enquête en ligne menée auprès de plus de 6000 personnes en décembre 2019 par le Nandu Personal Information Protection Research Center, un groupe de réflexion affilié au journal Southern Metropolis Daily à Guangzhou, a révélé que 80% des personnes s’inquiétaient du laxisme de la sécurité dans les systèmes de reconnaissance faciale et 83 % voulaient plus de contrôle sur leurs données de visage, y compris la possibilité de les supprimer. Les journaux chinois ont publié des articles remettant en question l’utilisation du FRT, et le gouvernement a mis en place des lois plus strictes sur la protection des données. Mais le débat ne remet généralement pas en question l’utilisation des caméras par la police et le gouvernement, et les lois sur la protection des données ne mettent pas de limites à la surveillance gouvernementale, déclare Graham Webster, qui étudie les politiques numériques de la Chine à l’université de Stanford en Californie.

Un ingénieur logiciel de Hanwang Technology à Pékin teste un programme de reconnaissance faciale qui identifie les personnes portant des masques faciaux.Crédit: Thomas Peter

Les règles européennes en matière de protection des données stipulent que la police peut traiter des données à des fins biométriques si cela est nécessaire et sous réserve de garanties appropriées. Une question clé ici, dit Fussey, est de savoir si cela serait proportionné, par exemple, à mettre des dizaines de milliers de personnes sous surveillance vidéo pour attraper un criminel.Jusqu’à présent, les juges britanniques ont suggéré qu’ils pensaient que cela pourrait l’être, mais seulement si le l’utilisation de la technologie par la police fait l’objet de contrôles plus stricts. L’année dernière, un homme du nom d’Ed Bridges a poursuivi la police du sud du Pays de Galles, alléguant que ses droits à la vie privée avaient été violés parce qu’il avait été scanné par des caméras de reconnaissance faciale en direct à deux reprises à Cardiff, au Royaume-Uni, lorsque la police cherchait des foules pour trouver des personnes sur une liste de surveillance. En août, un tribunal britannique a statué que les actions étaient illégales: la police n’avait pas suffisamment de directives et de règles sur le moment où elle pouvait utiliser le système et qui figurerait dans sa base de données, et elle n’avait pas suffisamment vérifié les préjugés raciaux ou sexistes du logiciel. . Mais les juges n’ont pas convenu que la caméra avait enfreint le droit à la vie privée de Bridges: c’était une ingérence « proportionnée », ont-ils déclaré. L’UE envisage un cadre d’IA qui pourrait fixer des règles pour la biométrie. Cette année, un livre blanc – un prélude au projet de loi – a suggéré que des règles spéciales pourraient être nécessaires pour l’IA « à haut risque », qui inclurait la reconnaissance faciale. La plupart des personnes et des entreprises qui ont écrit dans une consultation qui a suivi le document ont estimé que des réglementations supplémentaires étaient nécessaires pour utiliser le FRT dans les espaces publics.En fin de compte, les personnes touchées par le FRT doivent discuter de ce qu’elles jugent acceptable, dit Aidan Peppin, un scientifique social au Institut Ada Lovelace. Cette année, il a aidé à diriger un conseil de biométrie des citoyens, avec des ateliers approfondis avec environ 60 personnes à travers le pays. Les participants donnent leur point de vue sur la biométrie, ce qui éclairera un examen britannique de la législation dans ce domaine. « La voix publique doit être au centre de ce débat », dit-il.

Tags: , , ,