Crédit d’image : AP
San Francisco : Facebook a collaboré avec des chercheurs de la Michigan State University (MSU) pour développer une méthode de détection et d’attribution des deepfakes.
Il repose sur l’ingénierie inverse, en partant d’une seule image générée par l’IA vers le modèle génératif utilisé pour la produire.
« Notre méthode d’ingénierie inverse va encore plus loin dans l’attribution d’images en aidant à déduire des informations sur un modèle génératif particulier en se basant uniquement sur les deepfakes qu’il produit », ont déclaré les chercheurs Xi Yin et Tal Hassner de Facebook.
C’est la première fois que des chercheurs ont pu identifier les propriétés d’un modèle utilisé pour créer un deepfake sans aucune connaissance préalable du modèle.
Les deepfakes sont traités comme des contrefaçons vidéo qui donnent l’impression que les gens disent des choses qu’ils n’ont jamais faites, comme les vidéos populaires contrefaites du PDG de Facebook Zuckerberg et celle de la présidente de la Chambre des représentants américaine Nancy Pelosi qui sont devenues virales.
Les deepfakes sont devenus si crédibles ces dernières années qu’il peut être difficile de les distinguer des images réelles.
L’attribution d’image peut identifier le modèle génératif d’un deepfake s’il faisait partie d’un nombre limité de modèles génératifs vus pendant la formation.
« Lors de l’attribution de l’image, ces deepfakes sont signalés comme ayant été produits par des modèles inconnus, et on ne sait plus d’où ils viennent ni comment ils ont été produits », a déclaré Facebook.
La société a déclaré qu’avec la nouvelle méthode, les chercheurs pourront désormais obtenir plus d’informations sur le modèle utilisé pour produire des deepfakes particuliers.
« Notre méthode sera particulièrement utile dans des contextes réels où les seules informations dont disposent les détecteurs de deepfake sont souvent le deepfake lui-même », a déclaré Facebook.
des vidéos ou des fichiers audio manipulés par l’intelligence artificielle (IA) qui sont très difficiles à identifier s’ils sont faux ou non.