Les commerciaux utilisent des images de profil Deepfake sur LinkedIn

Avez-vous déjà ignoré un avocat LinkedIn apparemment aléatoire et avez-vous eu le sentiment étrange que quelque chose dans le profil semblait juste… éteint ? Eh bien, il s’avère que, dans certains cas, ces représentants commerciaux qui vous traquent ne sont peut-être pas du tout des êtres humains. Oui, les deepfakes générés par l’IA sont venus pour LinkedIn et ils aimeraient se connecter. C’est selon une récente recherche Renée DiResta de l’Observatoire Internet de Stanford détaillée dans un récent rapport NPR. DiResta, qui s’est fait un nom en parcourant des torrents de contenu de désinformation russe à la suite des élections de 2016, a déclaré qu’elle avait pris conscience d’un phénomène apparent de fausses images de profil LinkedIn générées par ordinateur après qu’un compte particulièrement étrange ait tenté de connecter avec elle. L’utilisateur, qui aurait tenté de lancer DiResta sur un logiciel sans importance, a utilisé une image avec d’étranges incongruités qui lui ont semblé étranges pour une photo d’entreprise. Plus particulièrement, DiResta dit avoir remarqué que les yeux des personnages étaient parfaitement alignés au milieu de l’image, un signe révélateur des images générées par l’IA. Regardez toujours les yeux, chers humains. « Le visage m’a sauté aux yeux comme étant faux », a déclaré DiResta à NPR. À partir de là, DiResta et son collègue de Stanford Josh Goldstein ont mené une enquête qui a révélé plus de 1 000 comptes LinkedIn en utilisant des images qui, selon eux, semblent avoir été créées par un ordinateur. Bien qu’une grande partie de la conversation publique autour des contrefaçons profondes ait mis en garde contre le potentiel dangereux de la technologie pour la désinformation politique, DiResta a déclaré que les images, dans ce cas, semblent massivement conçues pour fonctionner davantage comme des laquais de la vente et de l’escroquerie. Les entreprises auraient utilisé les fausses images pour déjouer le système de LinkedIn, créant des comptes alternatifs pour envoyer des argumentaires de vente afin d’éviter de se heurter aux limites de LinkedIn sur les messages, note NPR. cas d’utilisation commerciale banale avec la technologie de l’IA, et les questions d’éthique et d’attentes qui en résultent », a écrit DiResta dans un Tweet. « Quelles sont nos hypothèses lorsque nous rencontrons d’autres personnes sur les réseaux sociaux ? Quelles actions franchissent la ligne de la manipulation ? » Dans une déclaration envoyée à Gizmodo, LinkedIn a déclaré qu’il avait enquêté et supprimé les comptes qui enfreignaient ses politiques concernant l’utilisation de fausses images. « Nos politiques indiquent clairement que chaque profil LinkedIn doit représenter une personne réelle. Nous mettons constamment à jour nos défenses techniques pour mieux identifier les faux profils et les supprimer de notre communauté, comme nous l’avons fait dans ce cas », a déclaré un porte-parole de LinkedIn. « En fin de compte, il s’agit de s’assurer que nos membres peuvent entrer en contact avec de vraies personnes, et nous nous efforçons de garantir qu’ils disposent d’un environnement sûr pour le faire. »Deepfake Creators  : Où est le paysage infernal de la désinformation qui nous avait été promis ?

Les experts en désinformation et les commentateurs politiques ont prévenu un type de dystopie profonde pendant des années, mais les résultats dans le monde réel ont, pour l’instant du moins, été moins impressionnants. Internet a été brièvement captivé l’année dernière avec cette fausse vidéo TikTok mettant en vedette quelqu’un se faisant passer pour Tom Cruise, bien que de nombreux utilisateurs aient pu immédiatement en repérer la non-humanité. Ceci, et d’autres contrefaçons populaires (comme celui-ci censé mettre en vedette Jim Carey dans The Shining, ou celui-ci représentant un bureau plein de clones de Michael Scott) présentent un contenu clairement satirique et relativement inoffensif qui ne sonne pas tout à fait le « Danger pour la démocratie ». » alarme. D’autres affaires récentes ont cependant tenté de se plonger dans le bourbier politique. Les vidéos précédentes, par exemple, ont montré comment les créateurs ont pu manipuler une vidéo de l’ancien président Barack Obama pour dire des phrases qu’il n’a jamais vraiment prononcées. Puis, plus tôt ce mois-ci, une fausse vidéo prétendant montrer le président ukrainien Volodymyr Zelenskyy se rendant a fait son tour sur les réseaux sociaux. Encore une fois, il convient de souligner que celui-ci ressemblait à de la merde. Voyez par vous-même.Deepfakes, même de tendance politique, sont certainement là, mais les préoccupations concernant les images de retard de croissance de la société ne se sont pas encore concrétisées, une déception apparente laissant certains commentateurs post-électoraux américains demander : «Où sont les Deepfakes dans cette présidentielle? Élection? »

Les humains sont de moins en moins capables de repérer les images Deepfake

Pourtant, il y a une bonne raison de croire que tout cela pourrait changer… éventuellement. Une étude récente publiée dans les Actes de l’Académie nationale des sciences a révélé que les visages générés par ordinateur (ou « synthétisés ») étaient en fait jugés plus fiables que les portraits de personnes réelles. Pour l’étude, les chercheurs ont rassemblé 400 visages réels et généré 400 autres portraits extrêmement réalistes à l’aide de réseaux de neurones. Les chercheurs ont utilisé 128 de ces images et testé un groupe de participants pour voir s’ils pouvaient faire la différence entre une vraie image et une fausse. Un groupe distinct de répondants a été invité à juger de la fiabilité des visages sans laisser entendre que certaines des images n’étaient pas du tout humaines. Les résultats ne sont pas de bon augure pour Team Human. Lors du premier test, les participants n’ont pu identifier correctement si une image était réelle ou générée par ordinateur que 48,2 % du temps. La fiabilité de l’évaluation du groupe, quant à elle, a donné aux visages de l’IA un score de fiabilité plus élevé (4,82) que les visages humains (4,48).

« L’accès facile à de telles fausses images de haute qualité a entraîné et continuera d’entraîner divers problèmes, notamment des faux profils en ligne plus convaincants et, à mesure que la génération audio et vidéo synthétique continue de s’améliorer, des problèmes d’images intimes non consensuelles, de fraude et de campagnes de désinformation. « , ont écrit les chercheurs. « Nous encourageons donc ceux qui développent ces technologies à se demander si les risques associés sont supérieurs à leurs avantages. » de nouvelles questions autour de l’authenticité, du droit d’auteur, de la désinformation politique et de la grande vérité en « T » dans les années et les décennies à venir. À court terme cependant, les sources les plus importantes de contenu politiquement problématique ne proviendront pas nécessairement de deepfakes très avancés et pilotés par l’IA à tous, mais plutôt de soi-disant «faux bon marché» plus simples qui peuvent manipuler les médias avec des logiciels beaucoup moins sophistiqués, voire aucun. Des exemples de ceux-ci incluent une vidéo virale de 2019 exposant une Nancy Pelosi soi-disant martelée qui articule ses mots (cette vidéo a en fait été ralentie de 25%) et celle-ci d’un Joe Biden maladroit qui essaie de vendre une assurance automobile aux Américains. Cette affaire n’était en fait qu’un homme imitant mal la voix du président doublée sur la vidéo réelle. Bien que ceux-ci soient beaucoup moins sexy que certains deepfakes de la bande pipi de Trump, ils ont tous deux attiré énormément d’attention en ligne. Mise à jour le 29/03, 09h00  : Déclaration ajoutée de LinkedIn.

Tags: