Comment la police de Myrtle Beach SC utilise-t-elle un logiciel de reconnaissance faciale ?

L’utilisation du logiciel par la police de Myrtle Beach en plus d’autres rapports Vest a confirmé que le département a utilisé le programme pendant cette période « Après l’essai, nous avons choisi de ne pas acheter le programme, et c’était la fin de notre implication. D’après notre expérience, les tactiques d’enquête utilisant la technologie dont nous disposons actuellement ont réussi à identifier et à tenir pour responsables les personnes qui commettent des crimes dans notre ville. » Pourtant, ont déclaré les défenseurs et d’autres, l’utilisation de la technologie par le service de police soulève des questions sur ce qui constitue la confidentialité en ligne et si les agents des forces de l’ordre devraient avoir un accès facile aux photos et autres informations que les gens publient sur des sites Web personnels ou des comptes de médias sociaux. « Nous avons certains droits dans ce pays où nous pouvons vaquer à nos occupations quotidiennes sans surveillance … ce que cela fait en fait est juste complètement saper cela », a déclaré Frank Knaack, directeur exécutif de l’American Civil Liberties Union en Caroline du Sud. « Nous ne savons pas comment ils l’utilisent. Il n’y a pas de contrôle de l’État dessus, il n’y a pas de contrôle judiciaire sur la possibilité pour les forces de l’ordre d’utiliser cette technologie. Les agents pourraient espionner les personnes sur lesquelles ils veulent garder un œil.

Comment fonctionne Clearview AI et comment la police de Myrtle Beach l’a utilisé

Chris Tyndall qui a d’abord signalé que des centaines de services de police locaux à travers le pays avaient utilisé Clearview AI notamment le département du shérif du comté de Georgetown, le département du shérif du comté de Charleston et la police de Beaufort. Le bureau du procureur général de l’État et SLED ont également utilisé la technologie. Le département du shérif du comté de Charleston et la police de Spartanburg ont utilisé le logiciel Clearview AI le plus souvent, les agences totalisant respectivement entre 501 et 1 000 et 1001 à 5 000 recherches. « Le programme a été utilisé lors d’enquêtes sur des personnes impliquées ou soupçonnées d’être impliquées dans des crimes », a déclaré Vest. « Il a été utilisé parallèlement aux méthodes d’enquête standard, et les résultats n’ont pas été utilisés pour procéder à des arrestations. » Début janvier, les responsables de la police ont commencé à envisager d’acheter ou non un abonnement au logiciel, bien que le département ait finalement choisi de ne pas le faire, a déclaré Vest. Au cours de la période d’essai de l’agence avec Clearview, a déclaré Vest, le chef de la police a été informé que les agents utilisaient la technologie, mais pas le maire Brenda Bethune et les membres du conseil municipal. Bethune a déclaré qu’elle croyait comprendre que le logiciel n’était utilisé qu’à titre d’essai et n’avait jamais été acheté par la ville. « Si nous avions continué à utiliser le programme et avions l’intention d’acheter le programme, nous partagerions les résultats de l’essai et la justification de l’achat avec le City Leadership Council et le maire », a déclaré Vest. « Nous avons choisi de ne pas acheter le programme, et notre implication avec l’entreprise s’est arrêtée là. »

Préoccupations éthiques concernant les logiciels de reconnaissance faciale

Généralement, les logiciels d’intelligence artificielle fonctionnent en collectant une quantité massive de données dans une base de données centralisée, puis en déployant du code pour détecter des modèles dans ces données et tirer des conclusions sur la base de ces modèles. Un logiciel de synthèse vocale, comme celui utilisé dans Google Translate, est un bon exemple de la façon dont un programme d’intelligence artificielle peut prendre une masse de données (plusieurs utilisateurs prononçant tous les mêmes mots légèrement différemment) et conclure quelles traductions correspondent le mieux à quoi. une personne dit. Ces « conclusions » atteintes par le logiciel sont ensuite rajoutées dans la base de données centrale, permettant au programme « d’apprendre » alors qu’il continue de fonctionner encore et encore. Un logiciel d’intelligence artificielle peut également être utilisé pour analyser des photographies et trouver des motifs dans les images. Le logiciel de reconnaissance faciale de Clearview AI entre dans cette catégorie. Feng Luo, professeur à l’Université de Clemson et directeur fondateur de l’Institut de recherche sur l’IA pour la science et l’ingénierie de Clemson, a expliqué que le logiciel de reconnaissance faciale fonctionne en faisant reconnaître par un programme informatique les motifs dans les images, ou les visages, qu’il lit. Ces motifs peuvent inclure tout, de la façon dont les yeux et le nez d’une personne sont façonnés, à leurs poils faciaux, à la structure osseuse de leur visage, en fonction des ombres, des plis et des indentations visibles sur une photographie. « L’idée générale est de créer un outil de classification, vous voulez classer les images en différentes catégories », a déclaré Luo. « Nous pouvons facilement séparer les fonctionnalités… (mais) c’est une tâche difficile. Vous avez besoin d’un grand ensemble de données d’entraînement. Clearview AI, selon la société, rassemble des photos et d’autres informations accessibles au public sur le Web, des comptes de médias sociaux publics aux sites Web de photos d’identité, puis déploie un programme de reconnaissance faciale pour catégoriser ces images et les faire correspondre aux photos soumises par les policiers. Cela signifie que si la police a une photo quelque peu floue d’une personne qu’elle soupçonne d’avoir commis un crime, peut-être prise à partir d’une caméra de sécurité, elle peut brancher cette photo dans le logiciel de Clearview AI et recevoir des correspondances possibles en retour. Mais ce type de logiciel, selon les critiques, est mûr pour les biais et les abus. Parce qu’il y a tellement de différences minimes entre les visages des gens, et parce que la qualité, l’angle et l’éclairage d’une photo peuvent varier, les logiciels de reconnaissance faciale peuvent facilement confondre une personne avec une autre. Et dans le système de justice pénale, cela peut signifier que les personnes de couleur sont plus fréquemment ciblées comme correspondances par ce logiciel, surtout si le logiciel dessine à partir de photos d’identité, qui présentent plus fréquemment des individus noirs et bruns. « Si vous n’avez pas assez de données, vos données sont biaisées », a expliqué Luo. « Si vous n’avez qu’une photo d’un groupe, les outils ne peuvent pas s’appliquer aux autres groupes. » Hoan Ton-That, le PDG de Clearview AI, a déclaré dans un e-mail que le logiciel de son entreprise ne collecte que des données accessibles au public et que des études indépendantes n’ont trouvé « aucun préjugé racial » dans le logiciel. « Le logiciel de Clearview AI ne recherche que les informations accessibles au public qui sont disponibles pour toute personne disposant d’un ordinateur et d’une connexion Internet et ne recherche aucune donnée privée », a-t-il écrit. « En tant que personne métisse, créer une technologie non biaisée est important pour moi. » Les critiques du logiciel de reconnaissance faciale disent que même si la police utilise la technologie avec de bonnes intentions, son utilisation permet essentiellement à un organisme gouvernemental de surveiller le public sur la base de photographies qui apparaissent en ligne. « Les problèmes liés à la reconnaissance faciale sont nombreux. C’est un outil de surveillance très puissant qui permet la surveillance de masse des personnes, ce qui peut être fait à leur insu », a déclaré Jeramie Scott, avocat principal de l’Electronic Privacy Information Center à Washington, DC, une organisation qui soutient la confidentialité numérique et s’engage dans des litiges. contre les agences gouvernementales et d’autres groupes pour empêcher la propagation et l’utilisation de technologies telles que les logiciels de reconnaissance faciale. Le logiciel de reconnaissance faciale, a déclaré Scott, « crée essentiellement une identification numérique que le gouvernement et les forces de l’ordre peuvent contrôler ». Même si un service de police n’a pas payé d’abonnement à Clearview AI, a déclaré Scott, l’agence peut toujours avoir des enregistrements du programme sur les personnes qu’ils ont recherchées dans la base de données. « Vraisemblablement, s’ils l’utilisaient pour identifier quelqu’un, ils auraient les hits qui reviendraient », a déclaré Scott. « Je suppose qu’ils conservent probablement ces informations dans le dossier d’enquête. » En réponse à des questions sur la vie privée des individus, Vest a déclaré que la police de Myrtle Beach prenait ces préoccupations au sérieux et n’utilisait pas Clearview pour surveiller le public, uniquement pour rechercher des personnes soupçonnées de crimes. « Nous prenons la sécurité de notre communauté au sérieux et comprenons que la confidentialité individuelle fait partie de cet engagement », a déclaré Vest. «Nous comprenons qu’il existe des problèmes de confidentialité avec les technologies émergentes, et nous ne prenons pas ces préoccupations à la légère. Nous exigeons de nos agents un niveau élevé de responsabilité et d’intégrité et nous attendons de notre communauté qu’elle fasse de même. » Ton-That, a déclaré que la société n’avait pas l’intention que les forces de l’ordre utilisent son logiciel pour surveiller le public. « La base de données de Clearview AI ne contient que des informations accessibles au public, pas d’informations privées, et est utilisée pour les enquêtes après le crime, pas pour la surveillance en temps réel », a écrit Ton-That dans un e-mail. « Le logiciel de Clearview AI ne recherche que les informations accessibles au public qui sont accessibles à toute personne disposant d’un ordinateur et d’une connexion Internet et ne recherche aucune donnée privée. »

Clearview AI pourrait-il être interdit?

Alors que les services de police du pays cherchent régulièrement à utiliser les nouvelles technologies pour faciliter leur travail policier, ces outils peuvent dépasser les limites de la confidentialité, a déclaré Knaack, de l’ACLU de Caroline du Sud. Pour illustrer ce point, Knaack a souligné les empreintes digitales  : lorsqu’une personne sort en public, elle laisse ses empreintes partout, mais cela ne signifie pas que les policiers peuvent suivre une personne et recueillir ses empreintes digitales et garder une trace de chaque endroit où ils ont été. Clearview AI, qui collecte une grande quantité de photos publiées en ligne, fait essentiellement cela, a déclaré Knaack. « C’est la capacité des forces de l’ordre à prendre ce que nous faisons en public et à le mettre dans une base de données et à voir tout ce que nous faisons en public », a-t-il déclaré. L’ACLU à l’échelle nationale est actuellement impliquée dans une action en justice contre Clearview AI dans l’Illinois, alléguant que la technologie de l’entreprise viole les droits à la vie privée du public. Mais même si la police utilisant un logiciel de reconnaissance faciale peut susciter des inquiétudes chez certaines personnes, la législature de l’État peut ne pas être disposée à interdire purement et simplement l’utilisation de la technologie, a déclaré le représentant de l’État William Bailey, R-Little River. Bien que certains législateurs puissent vouloir protéger la vie privée des gens, a-t-il déclaré, d’autres peuvent hésiter à détourner l’application de la loi. « Je peux honnêtement dire que je vois les deux côtés des choses », a déclaré Bailey, ancien policier et directeur de la sécurité publique à North Myrtle Beach. « Je peux voir que le gouvernement utilise (vos photos) pour des choses que vous n’aviez pas l’intention d’utiliser (pour), mais je peux aussi voir que vous avez publié une photo et qu’elle est là. » À moins d’interdire l’utilisation de logiciels de reconnaissance faciale à l’échelle de l’État, les conseils municipaux et de comté pourraient être plus disposés à interdire cette technologie, a déclaré Scott, d’EPIC. En Caroline du Sud, le représentant de l’État Leonidas Stavrinakis, D-Charleston, a présenté un projet de loi plus tôt cette année qui interdirait aux policiers d’utiliser la technologie de surveillance biométrique en conjonction avec leurs caméras portées sur le corps, bien que cette législation n’ait pas dépassé un comité législatif. cette session. On ne sait pas encore si des villes ou des comtés de Caroline du Sud interdisent l’utilisation d’un logiciel de reconnaissance faciale. Pourtant, a déclaré Bailey, le public sachant que la police a accès à une base de données contenant toutes les photos qu’ils ont publiées publiquement en ligne pourrait provoquer un « retour de flammes ». « (La police) a consulté les pages Facebook des gens pour savoir qui ils sont et avec qui ils courent. Je pense que le hic, c’est de le faire avec la base de données », a déclaré Bailey. « Je pense que c’est là que vous allez avoir un énorme retour de flamme. »

Histoires connexes de l’État à Columbia SC

Récipiendaire de plusieurs prix locaux et nationaux chapitre Keystone Statecom.

Tags: ,