Facebook doit-il être tenu responsable si son algorithme publicitaire est discriminatoire  ? – Mère Jones

L’année dernière, Samantha Liapes voulait acheter une assurance. Elle avait besoin d’une assurance pour sa maison. Elle avait besoin d’une assurance pour sa voiture. Et elle avait besoin d’une assurance-vie. Ces produits financiers peuvent prévenir un désastre financier et protéger les êtres chers. Ils viennent également à des prix variables. Pour les consommateurs, le marché de l’assurance peut être déroutant : il peut être difficile de savoir comment commencer à chercher une police ou quels tarifs sont possibles. Pour toucher des clients potentiels, l’industrie s’est tournée vers l’une des plus grandes plateformes publicitaires au monde : Facebook.

Mais selon les avocats représentant Liapes et d’autres résidents de Californie, Facebook n’a pas diffusé d’annonces d’assurance Liapes. La raison, allèguent-ils dans un procès, est que Facebook éloigne les publicités d’assurance des femmes et des utilisateurs plus âgés, y compris Liapes. Facebook nie toute discrimination dans ce cas, mais il affirme qu’en tant que plate-forme numérique, il a le droit légal d’envoyer différentes annonces à des personnes d’âge et de sexe différents.

« L’avenir d’Internet est en jeu dans cette affaire. »

L’affaire Liapes est l’une des nombreuses, ces dernières années, qui a tenté de changer la façon dont Facebook diffuse des publicités à ses utilisateurs dans des domaines couverts par les lois fédérales et étatiques sur les droits civiques, y compris le logement, l’emploi et les services financiers. Cela fait également partie d’une question plus large à laquelle la Silicon Valley est confrontée  : les plateformes Internet sont-elles soumises aux lois sur les droits civiques qui régissent les autres entreprises ? Un restaurant ne peut pas proposer aux femmes un menu et aux hommes un autre. Concernant certaines publicités, Facebook peut-il offrir des opportunités aux hommes mais pas aux femmes ?

Hors ligne, ce type de discrimination est illégal. Au niveau fédéral, des lois datant des années 1960 et 1970 interdisent la discrimination dans les opportunités de logement, d’emploi et de crédit. Mais certaines lois étatiques sur les logements publics vont beaucoup plus loin, protégeant davantage de personnes contre un plus large éventail de discriminations en dehors de ces zones sélectionnées. « Les lois sur les locaux publics font partie des lois les plus importantes sur les droits civils », déclare David Brody, avocat principal au Lawyers’ Committee for Civil Rights Under Law et chef de son Digital Justice Initiative. « Ils ont été la pierre angulaire de la réduction de la ségrégation Jim Crow. » De nos jours, dit Brody, les lois sur les logements publics « peuvent jouer un très grand rôle dans la prévention et la réduction de ce type de ségrégation et de redlining en ligne ». Brody et le comité des avocats ont soumis un mémoire d’amicus soutenant la poursuite de Liapes contre Facebook.

L’affaire, déposée l’année dernière, allègue que le géant des médias sociaux viole la loi californienne sur les logements publics, le Unruh Civil Rights Act, en dirigeant les publicités pour les polices d’assurance loin des femmes et des utilisateurs plus âgés. Priver ces utilisateurs d’un accès égal aux produits d’assurance, soutient la plainte, constitue une discrimination fondée sur le sexe et l’âge. Le modèle économique de Facebook repose sur sa capacité à diriger des publicités vers les utilisateurs qui cliqueront dessus. Si Facebook cible davantage d’annonces d’assurance pour les hommes et les jeunes utilisateurs, ce que la découverte et un essai pourraient aider à déterminer, c’est probablement parce que l’algorithme de l’entreprise a découvert qu’ils sont plus susceptibles de cliquer sur l’annonce.

« Il existe de très nombreuses campagnes publicitaires pour les opportunités économiques sur Facebook, où Facebook, et parfois Facebook et leurs annonceurs, utilisent le sexe et l’âge pour décider que les femmes et les personnes âgées se verront refuser des publicités pour ces opportunités économiques », explique Peter Romer. Friedman, l’un des avocats qui ont déposé la plainte. « En refusant ce service, en raison du sexe et de l’âge, Facebook fournit clairement des services inférieurs et discriminatoires aux femmes et aux personnes âgées. » Facebook rejette cette allégation et demande au juge de rejeter l’affaire. Une audience sur la requête de l’entreprise est prévue pour la mi-juin. La société n’a pas répondu à une demande de commentaire de Mother Jones.

Toutes les lois des États sur les logements publics ne s’appliquent pas aux entreprises en ligne. Mais la Californie le fait. Cela semblerait en faire un cas clair sur les faits : les publicités sont-elles effectivement dirigées loin des femmes et des personnes âgées, et si oui, est-ce que Facebook le fait à dessein ? Mais la défense de Facebook s’attaque à une tension clé qui aidera à déterminer l’équité des plateformes Internet à l’avenir. L’entreprise fait valoir que non seulement elle n’est pas discriminatoire, mais qu’elle est totalement à l’abri de l’enquête. L’argument découle de l’article 230 de la Communications Decency Act de 1996 du gouvernement fédéral, qui exonère les éditeurs Internet de toute responsabilité quant à ce que des tiers publient sur leurs plateformes. Facebook, affirment les avocats de la société, est donc à l’abri des allégations de discrimination dans la façon dont il diffuse ses publicités, car les publicités sont du contenu tiers.

« Je pense que l’avenir d’Internet est en jeu dans cette affaire et dans d’autres affaires qui définissent l’étendue de la responsabilité pour discrimination à l’encontre des utilisateurs d’une plate-forme », a déclaré Romer-Friedman. Certes, si les tribunaux prennent cette affaire et d’autres comme celle-ci au sérieux, cela pourrait augurer de sérieux changements dans la façon dont Facebook et d’autres plateformes qui ciblent les publicités personnalisées font des affaires.

Pour comprendre les allégations contre Facebook, il est important de comprendre le processus de diffusion des publicités de Facebook. Le procès répertorie 14 annonces que Liapes, qui avait 46 ans lorsque la plainte a été déposée, dit qu’elle n’a pas reçu, prétendument en raison de son âge et de son sexe. Facebook conteste cela. « Si, comme le prétend la plaignante, elle était intéressée par les publicités d’assurance sur Facebook mais n’a pas reçu celles » énumérées dans la plainte, les avocats de la société ont écrit en réponse, « la déduction la plus raisonnable est que l’algorithme a livré d’autres publicités d’assurance à son fil d’actualité ou déterminé qu’elle trouverait d’autres types d’annonces encore plus intéressantes.

Le processus de ciblage publicitaire de Facebook comporte deux étapes, et la poursuite allègue une discrimination dans les deux. Dans une première étape, l’annonceur sélectionne un public cible à l’aide des outils de Facebook. Une option consiste pour l’annonceur à définir des paramètres pour les annonces qu’il souhaite placer sur Facebook. Il peut le faire en sélectionnant des critères de ciblage, tels que la situation géographique et les intérêts des utilisateurs, ainsi que l’âge et le sexe. En août dernier, Facebook a éliminé l’option de cibler les publicités par « affinité multiculturelle », une catégorie que Facebook n’a jamais définie mais qui était considérée comme une large approximation de la race. Cependant, d’autres proxys potentiels pour la race, tels que le code postal, restent disponibles pour les annonceurs. Alternativement, un annonceur peut télécharger les informations de contact de ses clients existants et demander à Facebook de trouver des utilisateurs similaires auxquels faire de la publicité en fonction des caractéristiques de sa clientèle actuelle, une fonctionnalité appelée Lookalike Audiences. Une fois cela fait, le rôle de l’annonceur est terminé.

« Ce n’est pas parce que vous appelez cela un algorithme que ce n’est pas discriminatoire. »

La deuxième étape est entièrement dirigée par Facebook. Facebook utilise son propre algorithme de diffusion d’annonces pour diffuser les annonces au sein du public sélectionné par l’annonceur. Cet algorithme utilise des milliers d’entrées pour envoyer une annonce aux personnes qui, selon Facebook, sont les plus susceptibles d’interagir avec cette annonce. Sa capacité à cibler précisément les utilisateurs est ce qui rend la diffusion d’annonces sur Facebook si attrayante pour les entreprises et si lucrative pour Facebook. L’année dernière, la société a réalisé un total de près de 86 milliards de dollars, dont 84 milliards de dollars provenaient de la vente de publicités.

La poursuite allègue que Facebook discrimine dans un premier temps en encourageant les annonceurs d’assurance à limiter l’audience de l’annonce par sexe et âge, et en appliquant le sexe et l’âge lors du développement d’audiences similaires. Dans la deuxième phase, affirme la poursuite, l’algorithme de diffusion des publicités de Facebook utilise l’âge et le sexe pour éloigner les publicités d’assurance des femmes et des utilisateurs plus âgés, même si l’annonceur n’avait pas placé ces limites dans la première étape.

Il est difficile de prouver que l’algorithme de livraison de Facebook envoie des annonces d’assurance loin des femmes et des personnes âgées, car l’algorithme lui-même n’est pas transparent. Au lieu de cela, les groupes de défense des droits civiques et les chercheurs découvrent l’algorithme en exécutant des tests dans lesquels ils achètent des publicités, ne sélectionnent aucun ciblage par âge ou par sexe, puis surveillent si les publicités sont diffusées avec une asymétrie d’âge ou de sexe. De nombreuses études de ce type ont montré que l’algorithme de livraison discrimine effectivement.

L’algorithme de Facebook apprend de ses utilisateurs. Si les hommes cliquent davantage sur une annonce, il apprend à envoyer l’annonce aux hommes pour maximiser l’engagement. « Dans ces domaines où les publicités concernent des opportunités de vie importantes, et nous essayons de changer les modèles démographiques vraiment biaisés dans la société, leurs algorithmes ne devraient pas être réglés juste pour aller de pair avec cela », déclare Aaron Rieke, directeur général d’Upturn. une organisation à but non lucratif qui promeut les droits civils dans la technologie et a déposé un mémoire d’amicus dans cette affaire à l’appui des plaignants.

En 2019, Upturn s’est associé à des chercheurs de l’Université Northeastern et de l’Université de Californie du Sud pour étudier l’algorithme de diffusion des annonces. Les annonces que les chercheurs ont placées pour des emplois dans l’industrie du bois ont atteint 90 pour cent d’hommes, tandis que 85 pour cent des annonces de caissiers de supermarché ont été livrées à des femmes. Les chercheurs avaient spécifié le même public pour les deux publicités, ce qui signifie que l’algorithme de diffusion des publicités de Facebook a créé l’asymétrie entre les sexes. Plus tôt cette année, des chercheurs de l’Université de Californie du Sud ont de nouveau publié des offres d’emploi sur Facebook avec les mêmes paramètres de ciblage. Encore une fois, la livraison de Facebook a montré une asymétrie entre les sexes qui reflétait les disparités du monde réel.

Dans le cas californien, Facebook soutient que ce n’est pas parce que des études ont montré une asymétrie de genre sur les annonces de test que cette asymétrie apparaît dans les offres d’emploi en général ou dans d’autres types d’annonces. Les chercheurs pensent que c’est peu probable. Leurs résultats suggèrent que « ce genre de chose vaut probablement pour d’autres types d’annonces », explique Aleksandra Korolova, informaticienne à l’USC qui a participé aux études publicitaires de 2019 et 2021.

Les allégations de discrimination dans le ciblage publicitaire de Facebook ne sont pas nouvelles. Pendant des années, les annonceurs ont pu utiliser des libellés « affinité multiculturelle » ou « affinité ethnique », ainsi que l’âge, le sexe et d’autres caractéristiques protégées par la loi, pour cibler les publicités. Au printemps 2016, des avocats de l’ACLU ont découvert que Facebook autorisait les annonceurs à cibler des publicités pour des logements, des emplois et des opportunités de crédit en utilisant ces caractéristiques, même si la discrimination dans de telles publicités est interdite par la loi fédérale. Un exposé de ProPublica sur le problème rencontré a fait pression sur Facebook pour qu’il change sa technologie publicitaire. Malgré le tollé, les journalistes ont continué à découvrir des moyens par lesquels les publicités pouvaient discriminer dans les domaines couverts par les lois fédérales sur les droits civils. En fin de compte, le vrai changement est venu des poursuites judiciaires. En mars 2019, Facebook a réglé trois poursuites et deux plaintes de la Commission pour l’égalité des chances en matière d’emploi en promettant de créer un nouveau portail d’achat d’annonces pour le logement, l’emploi et les annonces de crédit. Les annonceurs plaçant ces annonces ne seraient plus en mesure de cibler en fonction de l’affinité multiculturelle, du sexe, de l’âge et d’autres caractéristiques protégées. Il supprimerait également ces caractéristiques de son outil Lookalike Audience pour ces types d’annonces. Facebook n’a jamais reconnu les actes répréhensibles.

Alors que le règlement comprenait des publicités pour des prêts et des hypothèques, il n’incluait pas d’autres services financiers, y compris les opportunités bancaires et les assurances. Aborder toute discrimination dans ces domaines aurait nécessité l’application des lois de l’État sur les logements publics. Le règlement n’a pas non plus touché au propre algorithme de diffusion des annonces de Facebook, mais s’est plutôt concentré sur la première étape de l’achat d’annonces, dans laquelle l’annonceur sélectionne son public. Bien qu’importants, les règlements ont laissé beaucoup de place aux préjugés dans la façon dont les annonces sont sélectionnées et diffusées.

Avant que le règlement ne soit conclu, Facebook utilisait le même moyen de défense contre les allégations de discrimination en matière de logement qu’il utilise maintenant dans l’affaire de discrimination en matière d’assurance : qu’il est à l’abri des réclamations par l’article 230. Dans un sens, l’entreprise a raison. Ce qui est livré est du contenu tiers – des publicités – et Facebook est à l’abri de toute responsabilité pour ce matériel. Mais c’est aussi une lecture large de l’article 230 qui ouvre le monde lucratif et omniprésent du ciblage publicitaire en ligne à une discrimination incontrôlée.

Cet argument manque également le point de la poursuite. Bien que les publicités soient du contenu tiers, les publicités elles-mêmes ne sont pas le problème. Le problème réside dans la manière dont ils sont prétendument livrés, et les deux phases du système de livraison sont déterminées par Facebook. C’est particulièrement vrai pour l’algorithme de diffusion d’annonces de Facebook. « Ce n’est pas une situation où vous êtes accroché pour quelque chose que quelqu’un d’autre a fait », explique Rieke. « C’est de cela que l’article 230 est censé vous protéger. C’est la conséquence de vos propres décisions volontaires de maximisation des bénéfices.

Pourtant, Facebook soutient que ses propres décisions sur la façon de cibler les publicités, y compris dans la phase de livraison où l’annonceur n’est pas impliqué, sont protégées. « Les décisions d’un site Web de suggérer ou de faire correspondre du contenu tiers aux utilisateurs reflètent des décisions éditoriales qui sont des fonctions d’éditeur protégées en vertu de la CDA », a déclaré la société au tribunal en demandant le rejet de l’affaire californienne. « Les tribunaux ont déterminé que la LDC s’applique même si ces décisions sont contestées comme discriminatoires. »

Romer-Friedman et les défenseurs des droits civiques veulent que le tribunal voie les choses différemment. « Un algorithme n’est qu’un ensemble d’instructions », dit-il. « Un algorithme pourrait dire : ne montrez aucune annonce de logement aux Noirs, ne montrez aucune offre d’emploi aux femmes. Ce n’est pas parce que vous appelez cela un algorithme qu’il n’est pas discriminatoire de manière intentionnelle et illégale.

L’affaire survient à ce que Rieke décrit comme le summum des protections de l’article 230, après que les tribunaux aient interprété la loi de manière extensive. Mais cela survient également à un moment où l’article 230 est examiné de plus près par les législateurs, démocrates et républicains. En février, quatre sénateurs démocrates ont présenté une loi, appelée SAFE TECH Act, qui supprimerait la protection de l’article 230 dans les affaires de droits civils comme celle de la Californie.

En fait, éliminer les biais du ciblage publicitaire, en particulier des algorithmes de Facebook, est une route désordonnée que les entreprises technologiques ne veulent pas emprunter. Peut-être le plus évidemment, les modifications apportées à son ciblage publicitaire affecteraient probablement les résultats de Facebook. Korolova souligne qu’il a fallu trois ans à Facebook et plusieurs poursuites pour changer la façon dont les annonceurs pour le logement, le crédit et l’emploi pouvaient cibler leur contenu. Cela fait deux ans que des études ont montré des inégalités entre les sexes dans l’algorithme de diffusion des publicités de Facebook, mais les chercheurs ne sont au courant d’aucun effort de Facebook pour résoudre le problème. « S’ils n’apportent pas de changements, cela suggère que cela pourrait être lié à leurs intérêts commerciaux », dit-elle.

Une deuxième explication pourrait être que la reconnaissance des biais, notamment dans ses propres algorithmes, pourrait devenir une boîte de Pandore que Facebook ne souhaite pas ouvrir. Le procès en Californie demande à Facebook de supprimer les catégories de sexe et d’âge de son ciblage des annonces d’assurance. Mais Rieke doute que cela résolve le problème, en particulier en ce qui concerne les audiences similaires dans la première phase et, dans la deuxième phase, le propre algorithme de livraison de Facebook. Il n’y a pas qu’un seul champ de saisie indiquant à l’algorithme de diffusion des annonces le sexe ou l’âge d’un utilisateur, mais des dizaines de milliers d’entrées en corrélation avec le sexe et l’âge. En fait, note-t-il, lorsque Facebook a supprimé ces classifications dans l’outil Lookalike Audience pour le logement, l’emploi et le crédit à la suite du règlement de 2019, Upturn a constaté que les biais de ces audiences n’avaient pas changé.

La difficulté de supprimer le biais prétendument intégré aux algorithmes donne une idée de la raison pour laquelle Facebook a refusé de le modifier pendant des années et se cache à plusieurs reprises derrière l’article 230 devant les tribunaux. Selon Rieke et Korolova, il existe quelques options pour supprimer les biais des propres algorithmes de Facebook. Premièrement, Facebook pourrait rééquilibrer sa diffusion publicitaire dans des zones protégées par les lois sur les droits civiques. Par exemple, une fois que son algorithme de diffusion d’annonces a sélectionné un public avec une asymétrie de genre pour une offre d’emploi, Facebook pourrait rééquilibrer automatiquement le public cible pour éliminer les biais. Une deuxième option serait de distribuer l’annonce au hasard au sein de l’audience sélectionnée par l’annonceur, sans l’utiliser dans l’algorithme de diffusion de Facebook. Troisièmement, Facebook pourrait supprimer ces publicités des fils d’actualité des gens et les promouvoir à la place en tant qu’annonces dans un onglet de style Craigslist, où toute personne intéressée par les annonces d’emploi, de logement ou de services financiers pourrait parcourir sur un pied d’égalité.

Il est possible que ni le Congrès ni les tribunaux ne rendent Facebook et d’autres entreprises technologiques responsables de la partialité de leurs systèmes de ciblage publicitaire. Mais maintenir le statu quo perpétuerait un Internet inégal dans lequel certaines personnes bénéficient de meilleures opportunités économiques que d’autres.

« Quel est le coût de Facebook ? » demande Brody du comité des avocats. « Vous ne payez pas avec des dollars, vous payez avec vos données. Ce que fait Facebook pour certains utilisateurs, c’est qu’ils obtiennent plus lorsqu’ils paient ce coût avec leurs données, par rapport à d’autres utilisateurs qui reçoivent moins lorsqu’ils paient ce coût. Ce n’est pas un service gratuit. C’est un troc. »

Tags: