Au-delà des campagnes mondiales de désinformation, les deepfakes ont un nouveau rôle  : le spam d'entreprise

Je me suis demandé s’il faisait semblant de travailler pour l’entreprise qu’il prétendait représenter mais plutôt l’intersection d’un cas d’utilisation commerciale assez banal avec la technologie de l’IA, et les questions d’éthique et d’attentes qui en résultent », a écrit DiResta dans un Tweet. « Quelles sont nos hypothèses lorsque nous rencontrons d’autres personnes sur les réseaux sociaux ? Quelles actions franchissent la ligne de la manipulation ? » LinkedIn n’a pas immédiatement répondu à la demande de commentaire de Gizmodo, mais a déclaré à NPR qu’il avait enquêté et supprimé les comptes qui enfreignaient ses politiques concernant l’utilisation de fausses images. « Nos politiques indiquent clairement que chaque profil LinkedIn doit représenter une personne réelle », a déclaré un porte-parole de LinkedIn à NPR. « Nous mettons constamment à jour nos défenses techniques pour mieux identifier les faux profils et les supprimer de notre communauté, comme nous l’avons fait dans ce cas. »

Deepfake Creators  : Où est le paysage infernal de la désinformation qui nous avait été promis ?

h2>Les humains sont de moins en moins capables de repérer les images Deepfake

Pourtant, il y a une bonne raison de croire que tout cela pourrait changer… éventuellement. Une étude récente publiée dans les Actes de l’Académie nationale des sciences a révélé que les visages générés par ordinateur (ou « synthétisés ») étaient en fait jugés plus fiables que les portraits de personnes réelles. Pour l’étude, les chercheurs ont rassemblé 400 visages réels et généré 400 autres portraits extrêmement réalistes à l’aide de réseaux de neurones. Les chercheurs ont utilisé 128 de ces images et testé un groupe de participants pour voir s’ils pouvaient faire la différence entre une vraie image et une fausse. Un groupe distinct de répondants a été invité à juger de la fiabilité de leur vision des visages sans laisser entendre que certaines des images n’étaient pas du tout humaines. Les résultats ne sont pas de bon augure pour Team Human. Lors du premier test, les participants n’ont pu identifier correctement si une image était réelle ou générée par ordinateur que 48,2 % du temps. La fiabilité de l’évaluation du groupe, quant à elle, a donné aux visages de l’IA un score de fiabilité plus élevé (4,82) que les visages humains (4,48). de faux profils en ligne et – à mesure que la génération audio et vidéo synthétique continue de s’améliorer – des problèmes d’images intimes non consensuelles, de fraude et de campagnes de désinformation », ont écrit les chercheurs. « Nous encourageons donc ceux qui développent ces technologies à se demander si les risques associés sont supérieurs à leurs avantages. » Ces résultats valent la peine d’être pris au sérieux et soulèvent la possibilité d’une incertitude publique significative autour des deepfakes qui risque d’ouvrir une boîte de pandore de nouvelles questions compliquées sur l’authenticité, le droit d’auteur, la désinformation politique et la grande vérité en « T » dans les années et les décennies à venir.. À court terme cependant, les sources les plus importantes de contenu politiquement problématique ne proviendront pas nécessairement de deepfakes très avancés, pilotés par l’IA, mais plutôt de soi-disant «faux bon marché» plus simples qui peuvent manipuler les médias avec des logiciels beaucoup moins sophistiqués, ou pas du tout. Des exemples de ceux-ci incluent une vidéo virale de 2019 exposant une Nancy Pelosi soi-disant martelée qui articule ses mots (cette vidéo a en fait été ralentie de 25%) et celle-ci d’un Joe Biden maladroit qui essaie de vendre une assurance automobile aux Américains. Cette affaire n’était en fait qu’un homme imitant mal la voix du président doublée sur la vidéo réelle. Bien que ceux-ci soient beaucoup moins sexy que certains deepfakes de la bande pipi de Trump, ils ont tous deux attiré énormément d’attention en ligne.

Tags: