Timnit Gebru, ancien sceptique de Google AI, repart à zéro

Lorsqu’elle a codirigé l’équipe Ethical AI de Google, Timnit Gebru était une voix d’initié de premier plan qui remettait en question l’approche de l’industrie technologique en matière d’intelligence artificielle. C’était avant que Google ne la chasse de l’entreprise il y a plus d’un an. Maintenant, Gebru essaie d’apporter des changements de l’extérieur en tant que fondateur du Distributed Artificial Intelligence Research Institute, ou DAIR.

Né de parents érythréens en Éthiopie, Gebru a récemment expliqué à l’Associated Press à quel point les priorités de Big Tech en matière d’IA – et ses plateformes de médias sociaux alimentées par l’IA – servent l’Afrique et ailleurs. Le nouvel institut se concentre sur la recherche sur l’IA du point de vue des lieux et des personnes les plus susceptibles d’en subir les méfaits. Elle est également co-fondatrice du groupe Black in AI, qui promeut l’emploi et le leadership des Noirs dans le domaine.

Et elle est connue pour avoir co-écrit une étude historique de 2018 qui a révélé des préjugés raciaux et sexistes dans les logiciels de reconnaissance faciale. L’interview a été modifiée pour plus de longueur et de clarté. Q : Quelle a été l’impulsion pour DAIR ? R : Après avoir été viré de Google, je savais que je serais mis sur liste noire par tout un tas de grandes entreprises technologiques.

Ceux que je ne serais pas — ce serait juste très difficile de travailler dans ce genre d’environnement. Je n’allais tout simplement plus faire ça. Lorsque j’ai décidé de (créer DAIR), la toute première chose qui m’est venue à l’esprit est que je voulais qu’il soit distribué.

J’ai vu comment les gens dans certains endroits ne peuvent tout simplement pas influencer les actions des entreprises technologiques et le cours que prend le développement de l’IA. S’il y a de l’IA à construire ou à rechercher, comment le faites-vous bien ? Vous voulez impliquer les communautés qui sont généralement en marge afin qu’elles puissent en bénéficier. Lorsqu’il y a des cas où il ne devrait pas être construit, nous pouvons dire : « Eh bien, cela ne devrait pas être construit ».

Nous n’abordons pas la question du point de vue du solutionnisme technologique. Q : Quelles sont les applications d’IA les plus préoccupantes qui méritent un examen plus approfondi ? R : Ce qui est si déprimant pour moi, c’est que même les applications pour lesquelles tant de personnes semblent maintenant être plus conscientes des méfaits — elles augmentent au lieu de diminuer. On parle depuis longtemps de reconnaissance faciale et de surveillance basée sur cette technologie.

Il y a quelques victoires : un certain nombre de villes et de municipalités ont interdit l’utilisation de la reconnaissance faciale par les forces de l’ordre, par exemple. Mais ensuite, le gouvernement utilise toutes ces technologies contre lesquelles nous avons mis en garde. D’abord, dans la guerre, puis pour empêcher les réfugiés – à cause de cette guerre – d’entrer.

Ainsi, à la frontière américano-mexicaine, vous verrez toutes sortes de choses automatisées que vous n’avez jamais vues auparavant. La principale façon dont nous utilisons cette technologie est d’empêcher les gens d’entrer. Q : Pouvez-vous décrire certains des projets que DAIR poursuit et qui n’auraient peut-être pas eu lieu ailleurs ? R : L’une des choses sur lesquelles nous nous concentrons est le processus par lequel nous effectuons cette recherche.

L’un de nos premiers projets consiste à utiliser l’imagerie satellitaire pour étudier l’apartheid spatial en Afrique du Sud. Notre chercheur (Raesetje Sefala) est quelqu’un qui a grandi dans un township. Ce n’est pas elle qui étudie dans une autre communauté et qui s’y lance.

C’est elle qui fait des choses qui sont pertinentes pour sa communauté. Nous travaillons sur des visualisations pour comprendre comment communiquer nos résultats au grand public. Nous réfléchissons attentivement à qui voulons-nous atteindre.

Q : Pourquoi l’accent mis sur la distribution ? R : La technologie affecte le monde entier en ce moment et il existe un énorme déséquilibre entre ceux qui la produisent et influencent son développement, et ceux qui en ressentent les dommages. Parlant du continent africain, il paie un coût énorme pour le changement climatique qu’il n’a pas causé. Et puis nous utilisons la technologie de l’IA pour empêcher les réfugiés climatiques d’entrer.

C’est juste une double peine, non ? Afin d’inverser cela, je pense que nous devons nous assurer que nous plaidons pour que les personnes qui ne sont pas à la table, qui ne dirigent pas ce développement et n’influencent pas son avenir, puissent avoir l’opportunité de le faire. Q : Qu’est-ce qui vous a intéressé à l’IA et à la vision par ordinateur ? R : Je n’ai pas fait le lien entre être ingénieur ou scientifique et, vous savez, les guerres ou les problèmes de main-d’œuvre ou quelque chose comme ça. Pendant une grande partie de ma vie, je pensais juste aux sujets que j’aimais.

Je m’intéressais à la conception de circuits. Et puis j’aimais aussi la musique. J’ai joué du piano pendant longtemps et j’ai donc voulu combiner un certain nombre de mes intérêts.

Et puis j’ai trouvé le groupe audio chez Apple. Et puis, quand je revenais faire une maîtrise et un doctorat, j’ai suivi un cours sur le traitement d’images qui touchait à la vision par ordinateur. Q : En quoi votre expérience Google a-t-elle modifié votre approche ? R : Lorsque j’étais chez Google, je passais une grande partie de mon temps à essayer de changer le comportement des gens.

Par exemple, ils organisaient un atelier et ils avaient tous les hommes — comme 15 d’entre eux — et je leur envoyais juste un e-mail, « Écoutez, vous ne pouvez pas avoir un atelier comme ça. » Je consacre maintenant plus d’énergie à réfléchir à ce que je veux construire et à la manière de soutenir les personnes qui sont déjà du bon côté d’un problème. Je ne peux pas passer tout mon temps à essayer de réformer les autres.

Il y a beaucoup de gens qui veulent faire les choses différemment, mais qui ne sont tout simplement pas en position de pouvoir pour le faire. Q : Pensez-vous que ce qui vous est arrivé chez Google a amené un examen plus approfondi de certaines de vos préoccupations concernant les modèles d’apprentissage des langues ? Pourriez-vous décrire ce qu’ils sont? Q : Une partie de ce qui m’est arrivé chez Google était liée à un article que nous avons écrit sur les grands modèles de langage — un type de technologie linguistique. La recherche Google l’utilise pour classer les requêtes ou les boîtes de questions-réponses que vous voyez, la traduction automatique, la correction automatique et tout un tas d’autres choses.

Et nous assistions à cette ruée vers l’adoption de modèles de langage de plus en plus grands avec plus de données, plus de puissance de calcul, et nous voulions mettre en garde les gens contre cette ruée et réfléchir aux conséquences négatives potentielles. Je ne pense pas que le journal aurait fait des vagues s’il ne m’avait pas viré. Je suis heureux qu’il ait attiré l’attention sur cette question.

Je pense qu’il aurait été difficile d’amener les gens à réfléchir à de grands modèles de langage si ce n’était pas pour cela. Je veux dire, j’aimerais ne pas me faire virer, évidemment. Q : Aux États-Unis, recherchez-vous des actions de la part de la Maison Blanche et du Congrès pour réduire certains des dommages potentiels de l’IA ? R : Pour l’instant, il n’y a tout simplement pas de réglementation.

J’aimerais qu’une sorte de loi oblige les entreprises technologiques à nous prouver qu’elles ne causent pas de tort. Chaque fois qu’ils introduisent une nouvelle technologie, il incombe aux citoyens de prouver que quelque chose est nocif, et même alors, nous devons nous battre pour être entendus. De nombreuses années plus tard, on pourrait parler de réglementation, puis les entreprises technologiques sont passées à autre chose.

Ce n’est pas ainsi que fonctionnent les compagnies pharmaceutiques. Ils ne seraient pas récompensés pour ne pas avoir regardé (les dommages potentiels) – ils seraient punis pour ne pas avoir regardé. Nous devons avoir ce genre de norme pour les entreprises de technologie.