Comprendre les biais et les algorithmes en marketing

Jio Saavn ou Google Podcast – vous voyez quelques recommandations sur les meilleures listes de lecture hebdomadaires et étonnamment, les publicités de produits dont vous discutiez avec un ami hier soir apparaissent sur votre écran. Vous planifiez peut-être un voyage, mais dans quelques heures ou une journée, vous voyez un changement de prix.

Cette planification de voyage ne s'arrête pas là – vous commencez à recevoir des notifications sur la météo, les offres de prix, les meilleurs endroits à visiter dans la région, etc. Tout cela ne semble-t-il pas si cool ? Oui. Vous venez de commencer quelque chose, mais vous y êtes accro à cause de la technologie. Que se passe-t-il dans les coulisses est une question importante à se poser ? Toutes ces applications utilisent Artificial

Comprendre les biais et les algorithmes en marketing

Les algorithmes d'intelligence (IA) et d'apprentissage automatique (ML) pour former / enseigner leurs modèles l'imaginent comme un robot par souci de simplicité) sur la base des données que nous fournissons via notre recherche, nos préférences, ce que nous aimons / n'aimons pas et bien plus encore dont nous ne sommes pas conscients . En conséquence, ce robot travaille sous le capot et nous montre tout ce qui pourrait nous intéresser.

Les algorithmes sont l'ensemble des instructions conçues pour effectuer une tâche spécifique. Vous vous demandez peut-être pourquoi parlons-nous de biais ou d'équité des algorithmes alors que cela est courant chez les humains, mais pas chez les ordinateurs ? Droite ? Comment un ordinateur (un algorithme en particulier) peut-il apprendre à prendre parti ou à faire la distinction entre les groupes majoritaires et minoritaires, alors que tout est basé sur les mathématiques et la logique ? Ne devrait-on pas considérer que les algorithmes sont neutres ? La réponse est un peu compliquée. Pour mieux comprendre cela, nous discuterons de quelques exemples qui mettront en évidence le problème, puis nous proposerons des solutions pour corriger le biais. Nous allons commencer par un exemple technique et vous présenter quelques exemples commerciaux.

Certains d’entre vous se souviennent de l’époque où Facebook ne vous a pas permis de créer un compte en raison d’un problème avec votre nom d’utilisateur et a demandé une pièce d’identité ? Facebook a utilisé un algorithme automatique pour classer les noms d’utilisateurs comme « vrais » et « faux ». Cela a fini par bloquer aussi beaucoup de comptes réels et cela a été appelé nymwars. Identifier un nom américain blanc est facile par rapport au nom unique d’une personne appartenant à un groupe ethnique ou à une culture sous-représentée. Cela signifie que la logique d'identification appliquée à la majorité pourrait être invalide pour le groupe minoritaire. Pouvons-nous maintenant conclure qu'il y avait un biais dans l'algorithme ? Oui ! Le vrai problème réside dans les données utilisées pour entraîner l'algorithme (robot) qui catégorise les noms d'utilisateur. Ces algorithmes ne peuvent pas être précis dans leurs résultats s’ils sont entraînés avec un ensemble de données plus petit. Ainsi, les minorités qui ne font pas de mégadonnées seront toujours victimes d’injustice.

Malheureusement, c'est ce qui arrive la plupart du temps. Ce problème du jeu de données biaisé et des algorithmes correspondants peut être résolu par les programmeurs (les nerds qui écrivent les algorithmes) lorsqu'ils implémentent un algorithme, comme un classificateur de nom d'utilisateur (un outil pour trier les noms d'utilisateur). Au lieu de choisir de se concentrer uniquement sur une grande partie des données pour tester et valider l'algorithme, les développeurs doivent se concentrer sur l'écriture d'algorithmes de manière à aborder tous les cas possibles, y compris les cas minoritaires.

Lorsqu'un développeur a l'intention de généraliser le code pour qu'il soit juste pour tout le monde, il manque encore beaucoup de cas. Nous suggérons aux programmeurs de se concentrer sur des cas particuliers et d'essayer de réduire autant que possible l'iniquité jusqu'à ce que tout disparaisse. Lutter contre l'iniquité et ne pas accroître l'équité est la clé ici !

Passons maintenant directement au monde des affaires: annonces et systèmes de recommandation.

Algorithmes publicitaires: Pouvez-vous croire que les femmes étaient moins susceptibles de voir des publicités pour un service de coaching de carrière pour des postes de direction de « 200 000 $ + » en Inde ? De plus, les publicités Google ont également un angle de course. Ces statistiques étonnantes pourraient vous avoir laissé sidéré. Continuons un peu plus pour voir comment les annonces variaient entre les Américains et les Afro-Américains. Les chercheurs ont constaté que les annonces du service de vérification des antécédents étaient plus susceptibles d'apparaître dans une annonce de recherche payante affichée après une recherche de noms traditionnellement associés aux Afro-Américains (par exemple DeShawn) par rapport aux noms américains (par exemple Geoffrey). Cette disparité peut être attribuée à des algorithmes publicitaires (qui reposent sur des données de recherche « passées ») et ces algorithmes ont conclu qu'une personne recherchant « Deshawn » est plus susceptible que quelqu'un recherchant « Geoffrey » de cliquer sur une annonce liée à une arrestation (ce est totalement synchronisé avec l'objectif ultime des algorithmes de générer des revenus pour Google). Ici, les algorithmes publicitaires reflètent nos préjugés humains dans les ensembles de données que les marques collectent, et les algorithmes apprennent en permanence à partir des données.

Imaginons, par exemple, qu’une marque veuille prédire si elle doit cibler quelqu'un avec une publicité. Imaginons également que dans le passé, cette marque n’a pas ciblé d’annonces sur la communauté LGBTQ. Ces fonctionnalités seront présentes dans l'ensemble de données de cette marque et, par conséquent, les algorithmes d'IA sont susceptibles de conclure que les personnes de la communauté LGBTQ sont moins susceptibles d'acheter les produits de la marque et ne doivent donc pas être ciblées avec les publicités particulières. Bien qu'ils ne soient pas testés empiriquement, ces algorithmes publicitaires discriminent le public indien en fonction de la caste (les individus appartenant aux échelons supérieurs du système des castes étant ciblés avec un ensemble disparate d'annonces par rapport à leurs homologues des castes inférieures). Ça fait peur ?

Pour une publicité équitable, les algorithmes peuvent supprimer les préjugés humains indiqués dans les données d'entraînement historiques, mais uniquement en ajoutant du bruit aux données. En termes simples, le bruit signifie englober diverses opinions et une large représentation des données d'apprentissage, c'est-à-dire des données sur lesquelles les algorithmes sont entraînés. Le bruit est la clé ici !

Algorithme de recommandation: Passons aux algorithmes de recommandation. Les chercheurs ont suggéré que les systèmes de recommandation sont biaisés et s'écartent des préférences des utilisateurs au fil du temps. Les recommandations avaient tendance à être soit plus diverses que ce qui intéressait les utilisateurs, soit trop restreintes et se concentrent sur quelques éléments. En outre, les algorithmes ont amené les profils d'utilisateurs féminins à se rapprocher de la population à prédominance masculine, ce qui a donné lieu à des recommandations qui s'écartaient des préférences des utilisatrices (et les suggèrent avec des services que les consommateurs masculins préfèrent).

À titre d'exemple parallèle, un groupe relativement restreint d'artistes superstars sur des plates-formes musicales (comme Gaana, Spotify et Saavn) devrait recevoir une grande partie de l'attention et de l'espace numérique, tandis que la majorité des artistes de la longue traîne reçoivent très peu d'attention et espace. Cela peut donner un avantage indu et injuste aux artistes superstars minoritaires par rapport aux artistes majoritaires moins populaires.

De même, Zomato recommander un paneer tikka masala sur un sandwich tofu-grains entiers optimise les profits de l'entreprise au détriment de la santé du consommateur (en supposant que l'objectif du consommateur est de ne pas céder aux envies et de prendre soin de sa santé). Dans tous ces exemples, les algorithmes de recommandation optimisent les décisions de recommandation pour un seul objectif privé, c'est-à-dire pour augmenter le profit, l'engagement et les clics des applications. Mais un point important est que ces décisions ont des effets secondaires graves: recommander des produits populaires répétés qui maximisent les interactions et les clics peut maximiser les objectifs de l'entreprise, mais peut également nuire aux individus ou à la société (en obligeant progressivement les femmes à s'adapter aux préférences des hommes et en ne leur donnant pas une chance équitable). à des artistes moins populaires).

Dans tous ces exemples, les algorithmes de recommandation optimisent les décisions de recommandation pour un seul objectif privé, c'est-à-dire pour augmenter le profit, l'engagement et les clics des applications. Mais un point important est que ces décisions ont des effets secondaires graves: recommander des produits populaires répétés qui maximisent les interactions et les clics peut maximiser les objectifs de l'entreprise, mais peut également nuire aux individus ou à la société (en obligeant progressivement les femmes à s'adapter aux préférences des hommes et en ne leur donnant pas une chance équitable). à des artistes moins populaires).

Cet article est une tentative des auteurs de sensibiliser à l'impact que les algorithmes ont dans nos vies. S'appuyant sur la recherche scientifique, les auteurs proposent quelques solutions que les entreprises peuvent intégrer pour réduire l'injustice associée aux algorithmes.

À propos des auteurs: Jubi Taneja est doctorant à l'Université de l'Utah, États-Unis et Anuj Kapoor est professeur adjoint (marketing) à l'IIM Ahmedabad, en Indeac.in

Array

Tags: ,