À une époque où l’IA définit de plus en plus l’expérience client, comprendre le fonctionnement interne de ces technologies n’a jamais été aussi crucial, en particulier pour les spécialistes du marketing. Un récent rapport de Bloomberg a mis en lumière la main-d’œuvre humaine formant le chatbot Bard de Google, soulignant le rôle essentiel de milliers d’entrepreneurs dans l’élaboration des réponses de cet outil d’IA. Ce rapport approfondi révèle les réalités du développement de l’IA et présente des implications importantes pour les personnes qui les utilisent. La qualité, la précision et la fiabilité des interactions basées sur l’IA peuvent avoir un impact sur la réputation de la marque, la confiance des clients et, en fin de compte, sur vos résultats. En approfondissant les processus humains derrière le chatbot Bard AI, nous obtenons des informations précieuses sur les défis et les opportunités qui attendent les entreprises qui utilisent l’IA dans leurs stratégies marketing.
Un aperçu du terrain d’entraînement de l’IA
Bard de Google est bien connu pour ses réponses rapides et confiantes à diverses questions. Cependant, des contractuels anonymes révèlent à Bloomberg que derrière ces prouesses de l’IA se cache le travail d’humains frustrés. Ces sous-traitants, issus d’entreprises telles que Appen Ltd. et Accenture Plc, travaillent dans des délais serrés pour s’assurer que les réponses du chatbot sont fiables, précises et impartiales.
Travailler sous pression
Ces sous-traitants, dont certains ne gagnent que 14 dollars de l’heure, ont subi une pression croissante au cours de l’année dernière alors que Google et OpenAI s’affrontent dans une course aux armements en IA. Les tâches sont devenues plus complexes et la charge de travail a augmenté, souvent sans que les entrepreneurs aient une expertise spécifique dans les domaines qu’ils examinent. Un entrepreneur anonyme a déclaré : « Dans l’état actuel des choses, les gens ont peur, sont stressés, sous-payés, ne savent pas ce qui se passe. Et cette culture de la peur n’est pas propice à obtenir la qualité et le travail d’équipe que vous attendez de nous tous.
Le rôle des sous-traitants dans la formation en IA
Le rôle des sous-traitants est d’examiner les réponses de l’IA, d’identifier les erreurs et d’éliminer les biais potentiels. Ils travaillent avec des instructions alambiquées et des délais serrés, souvent aussi courts que trois minutes. Selon des documents partagés avec Bloomberg, les entrepreneurs sont fréquemment invités à décider si les réponses du modèle d’IA contiennent des preuves vérifiables. Ils analysent les réponses pour des facteurs tels que la spécificité, la fraîcheur de l’information et la cohérence. Un exemple dans le rapport Bloomberg explique comment un évaluateur pourrait utiliser des preuves pour déterminer le dosage correct d’un médicament contre l’hypertension appelé Lisinopril. Les contractants doivent s’assurer que les réponses ne contiennent pas de contenu préjudiciable, offensant ou trop sexuel. Ils doivent également se prémunir contre les informations inexactes, trompeuses ou mensongères.
Mettre en évidence le facteur humain derrière l’IA
Même si les chatbots IA comme Bard sont considérés comme des avancées technologiques révolutionnaires, la vérité est que leur efficacité dépend du travail d’entrepreneurs humains. Laura Edelson, informaticienne à l’Université de New York, a déclaré à Bloomberg : « Il convient de rappeler que ces systèmes ne sont pas l’œuvre de magiciens – ils sont l’œuvre de milliers de personnes et leur travail mal rémunéré ». Malgré le rôle essentiel des sous-traitants, leur travail est souvent entouré de mystère et ils ont peu de communication directe avec Google.
Préoccupations concernant la qualité des produits d’IA
Les sous-traitants s’inquiètent de leurs conditions de travail, qui, selon eux, pourraient affecter la qualité des produits d’IA. Les sous-traitants sont un élément indispensable de la formation à l’IA, comme l’a déclaré Ed Stackhouse, un travailleur d’Appen, dans une lettre au Congrès. Stackhouse a averti que la vitesse requise pour l’examen du contenu pourrait faire de Bard un produit « défectueux » et « dangereux ». Google a répondu à ces préoccupations en déclarant qu’il entreprenait un travail approfondi pour développer ses produits d’IA de manière responsable, en utilisant des processus de test, de formation et de rétroaction rigoureux pour garantir la factualité et réduire les préjugés. Bien que la société déclare qu’elle ne s’appuie pas uniquement sur des évaluateurs humains pour améliorer l’IA, il a été souligné que des inexactitudes mineures peuvent s’infiltrer, ce qui pourrait induire les utilisateurs en erreur. Alex Hanna, directeur de la recherche au Distributed AI Research Institute et ancien éthicien de Google AI, a déclaré : « Il est toujours troublant que le chatbot se trompe sur les principaux faits. »
Un appel au changement
Malgré les inquiétudes croissantes concernant les conditions de travail et la qualité des produits d’IA, il est clair que les sous-traitants humains sont un élément essentiel du développement de l’IA. Le défi consiste à s’assurer qu’ils sont correctement rémunérés et qu’ils disposent des ressources nécessaires pour accomplir leur travail. Emily Bender, professeur de linguistique informatique à l’Université de Washington, a souligné ce point en disant : « Le travail de ces contractuels chez Google et d’autres plateformes technologiques est une histoire d’exploitation du travail. » Alors que la révolution de l’IA se poursuit, le rôle des sous-traitants humains dans l’élaboration et le perfectionnement de ces technologies restera vital. Leurs voix et leurs préoccupations doivent être entendues et prises en compte pour assurer le développement continu de produits d’IA fiables, précis et éthiques. Image en vedette : Maurice NORBERT/Shutterstock