La controverse de Clearview AI met en lumière la montée de la surveillance de haute technologie | Monde| Dernières nouvelles et perspectives du monde entier

Vous ne voulez pas que votre visage apparaisse dans la base de données de Clearview AI ? Le PDG de l’entreprise ne semble pas s’en soucier. « Toutes les informations que nous collectons sont collectées légalement et ce sont toutes des informations accessibles au public », a déclaré Hoan Ton-That lundi lors du Global Media Forum (GMF) de DW, répondant aux critiques selon lesquelles la technologie controversée de l’entreprise porte atteinte à la vie privée de centaines de millions de personnes. Ses commentaires interviennent alors que des militants de la protection de la vie privée ont déposé des plaintes pour protection des données contre Clearview AI dans cinq pays européens. Ils soutiennent que le logiciel – un moteur de recherche de visages qui parcourt des milliards de photos – viole les règles strictes de confidentialité du Royaume-Uni et de l’UE. La controverse met en évidence comment, à mesure que la technologie de l’intelligence artificielle mûrit, elle pourrait donner lieu à une surveillance à une échelle sans précédent. Hoan Ton-That de Clearview AI affirme que la technologie de l’entreprise utilise des informations accessibles au public. Amos Toh, chercheur principal à l’ONG Human Rights Watch, a averti lors du GMF que les gouvernements et les entreprises utilisent de plus en plus la reconnaissance faciale pour espionner leurs citoyens et leurs clients. La technologie utilise l’IA pour identifier les individus dans les images. « Nous avons vu la reconnaissance faciale être utilisée en Russie pour détenir des manifestants pacifiques, nous avons vu la reconnaissance faciale être utilisée sur des enfants en Argentine », a déclaré Toh lors de la conférence, qui s’est tenue principalement en ligne en raison de la pandémie. Il a ajouté que la technologie de reconnaissance faciale est souvent inexacte et susceptible de discriminer les minorités. « Et même si c’est exact, il existe également un potentiel immense de … violations des droits humains », a-t-il déclaré.

Comment fonctionne la surveillance Clearview AI

Des centaines d’entreprises à travers le monde travaillent sur un logiciel de reconnaissance faciale. Les analystes estiment que le marché mondial valait environ 10 milliards de dollars (8,25 milliards d’euros) l’année dernière seulement. Et pourtant, aucune autre entreprise n’a suscité autant de réactions négatives que Clearview AI. La technologie de l’entreprise est basée sur une base de données biométrique de milliards de photos extraites de sites Web tels que Facebook, Twitter ou Instagram. Une fois que les clients payants téléchargent une photo, le programme crache toutes les autres images qu’il a de la personne, ainsi que des informations sur qui elle est probablement. Amos Toh de Human Rights Watch affirme que la technologie de reconnaissance faciale peut conduire à des violations des droits humains Les forces de l’ordre ont défendu l’utilisation du logiciel comme outil pour identifier les victimes et les auteurs de maltraitance d’enfants ou pour lutter contre le terrorisme. La police américaine l’a déployé, par exemple, pour identifier certains des émeutiers impliqués dans la prise du Capitole américain le 6 janvier. Le PDG Ton-That a déclaré lors du GMF que sa société, qui aurait fermé tous les comptes qu’elle avait avec entreprises privées, « ne vend qu’aux forces de l’ordre pour le moment ». Il a ajouté que « des milliers et des milliers de crimes ont été résolus, ce qui n’aurait pas été le cas autrement ». Mais Amos Toh de Human Rights Watch a rétorqué que néanmoins, « le potentiel d’abus dans de nombreux cas l’emporte sur les avantages prétendus ». « Nous savons que la reconnaissance faciale a certainement été très efficace pour faciliter les violations des droits humains ici [in the US] et à l’étranger », a-t-il déclaré à la conférence.

Entrez les chiens de garde de la vie privée

Depuis que les médias ont fait état du logiciel de Clearview AI au début de 2020, les régulateurs de l’Australie aux États-Unis ont jeté leur dévolu sur le logiciel de l’entreprise. La semaine dernière, le commissaire à la protection de la vie privée du Canada a statué que l’utilisation par sa police constituait une grave violation des lois sur la protection de la vie privée. Mais nulle part le contrecoup n’a été aussi bruyant qu’en Europe, une région qui se targue souvent d’être un leader mondial de la protection des données. L’été dernier, l’organisme de surveillance de la vie privée de l’Union européenne a déclaré que l’utilisation du logiciel de Clearview AI par la police serait, « en l’état, probablement pas conforme au régime de protection des données de l’UE ». Une autorité régionale allemande de protection des données a décidé en janvier 2021 que l’entreprise devait supprimer le profil biométrique d’un chercheur en protection de la vie privée, qui avait déposé une plainte. Et en février, l’organisme suédois de surveillance de la vie privée a déclaré que la police du pays avait enfreint la loi en utilisant le logiciel. Mais aucune de ces décisions n’a créé un précédent suffisant pour interdire l’utilisation du logiciel dans l’ensemble du bloc, a déclaré Ioannis Kouvakas, juriste à l’ONG Privacy International. C’est pourquoi, en mai, l’organisation et quatre autres ONG ont déposé des plaintes supplémentaires auprès d’organismes de surveillance des données en Autriche, en France, en Grèce, en Italie et au Royaume-Uni. Ils soutiennent que les informations sur les résidents européens dans la base de données de Clearview AI ont été collectées à leur insu ou sans leur consentement. Les cinq affaires sont pendantes; certaines décisions pourraient intervenir dès les prochaines semaines, selon les militants.

Tags: ,