Il semble que ce soit hier (même si cela fait presque six mois) qu’OpenAI a lancé ChatGPT et a commencé à faire les gros titres. ChatGPT a atteint 100 millions d’utilisateurs en trois mois, ce qui en fait l’application à la croissance la plus rapide depuis des décennies. À titre de comparaison, il a fallu neuf mois à TikTok – et deux ans et demi à Instagram – pour atteindre le même jalon. Désormais, ChatGPT peut utiliser GPT-4 avec la navigation sur Internet et des plugins de marques comme Expedia, Zapier, Zillow, etc. pour répondre aux invites des utilisateurs. Les grandes entreprises technologiques comme Microsoft se sont associées à OpenAI pour créer des solutions client basées sur l’IA. Google, Meta et d’autres construisent leurs modèles de langage et leurs produits d’IA. Plus de 27 000 personnes – dont des PDG de la technologie, des professeurs, des chercheurs et des politiciens – ont signé une pétition pour suspendre le développement par l’IA de systèmes plus puissants que GPT-4. Maintenant, la question n’est peut-être pas de savoir si le gouvernement des États-Unis devrait réglementer l’IA – s’il n’est pas déjà trop tard. Voici les développements récents dans la réglementation de l’IA et comment ils peuvent affecter l’avenir de l’avancement de l’IA.
Les agences fédérales s’engagent à lutter contre les préjugés
Quatre agences fédérales américaines clés – le Consumer Financial Protection Bureau (CFPB), la Division des droits civils du ministère de la Justice (DOJ-CRD), l’Equal Employment Opportunity Commission (EEOC) et la Federal Trade Commission (FTC) – ont publié une déclaration sur le ferme engagement à lutter contre les préjugés et la discrimination dans les systèmes automatisés et l’IA. Ces agences ont souligné leur intention d’appliquer les réglementations existantes à ces technologies émergentes pour s’assurer qu’elles respectent les principes d’équité, d’égalité et de justice.
- Le CFPB, responsable de la protection des consommateurs sur le marché financier, a réaffirmé que les lois financières existantes relatives aux consommateurs s’appliquent à toutes les technologies, quelle que soit leur complexité ou leur nouveauté. L’agence a été transparente dans sa position selon laquelle la nature innovante de la technologie de l’IA ne peut pas être utilisée comme moyen de défense pour violer ces lois
- Le DOJ-CRD, l’agence chargée de protéger contre la discrimination dans divers aspects de la vie, applique la loi sur le logement équitable aux services de sélection des locataires basés sur des algorithmes. Cela illustre comment les lois existantes sur les droits civils peuvent être utilisées pour automatiser les systèmes et l’IA
- L’EEOC, responsable de l’application des lois anti-discrimination dans l’emploi, a publié des directives sur la manière dont l’Americans with Disabilities Act s’applique à l’IA et aux logiciels utilisés pour prendre des décisions en matière d’emploi
- La FTC, qui protège les consommateurs contre les pratiques commerciales déloyales, s’est dite préoccupée par le potentiel des outils d’IA à être intrinsèquement biaisés, inexacts ou discriminatoires. Il a averti que le déploiement de l’IA sans évaluation adéquate des risques ou faire des allégations non fondées sur l’IA pourrait être considéré comme une violation de la loi FTC
Par exemple, le Center for Artificial Intelligence and Digital Policy a déposé une plainte auprès de la FTC concernant la publication par OpenAI de GPT-4, un produit «partial, trompeur et présentant un risque pour la vie privée et la sécurité publique».
Un sénateur interroge les entreprises d’IA sur la sécurité et les abus
Le sénateur américain Mark R. Warner a envoyé des lettres aux principales sociétés d’IA, notamment Anthropic, Apple, Google, Meta, Microsoft, Midjourney et OpenAI. Dans cette lettre, Warner a exprimé ses inquiétudes concernant les considérations de sécurité dans le développement et l’utilisation des systèmes d’intelligence artificielle (IA). Il a demandé aux destinataires de la lettre de donner la priorité à ces mesures de sécurité dans leur travail. Warner a mis en évidence un certain nombre de risques de sécurité spécifiques à l’IA, tels que les problèmes de chaîne d’approvisionnement des données, les attaques d’empoisonnement des données, les exemples contradictoires et l’utilisation abusive ou malveillante potentielle des systèmes d’IA. Ces préoccupations s’inscrivaient dans le contexte de l’intégration croissante de l’IA dans divers secteurs de l’économie, tels que la santé et la finance, qui soulignent la nécessité de prendre des précautions de sécurité. La lettre posait 16 questions sur les mesures prises pour assurer la sécurité de l’IA. Cela impliquait également la nécessité d’un certain niveau de réglementation dans le domaine pour prévenir les effets nocifs et garantir que l’IA ne progresse pas sans des garanties appropriées. Les entreprises d’IA ont été invitées à répondre avant le 26 mai 2023.
La Maison Blanche rencontre les leaders de l’IA
L’administration Biden-Harris a annoncé des initiatives pour favoriser l’innovation responsable dans l’intelligence artificielle (IA), protéger les droits des citoyens et assurer la sécurité. Ces mesures s’alignent sur la volonté du gouvernement fédéral de gérer les risques et les opportunités associés à l’IA. La Maison Blanche vise à donner la priorité aux personnes et aux communautés, en promouvant l’innovation en IA pour le bien public et en protégeant la société, la sécurité et l’économie. De hauts responsables de l’administration, dont la vice-présidente Kamala Harris, ont rencontré les dirigeants d’Alphabet, d’Anthropic, de Microsoft et d’OpenAI pour discuter de cette obligation et de la nécessité d’une innovation responsable et éthique. Plus précisément, ils ont discuté de l’obligation des entreprises d’assurer la sécurité des LLM et des produits d’IA avant leur déploiement public. De nouvelles mesures compléteraient idéalement les mesures de grande envergure déjà prises par l’administration pour promouvoir l’innovation responsable, telles que la Déclaration des droits de l’IA, le Cadre de gestion des risques liés à l’IA et les plans pour une ressource nationale de recherche sur l’IA. Des mesures supplémentaires ont été prises pour protéger les utilisateurs à l’ère de l’IA, comme un décret visant à éliminer les préjugés dans la conception et l’utilisation des nouvelles technologies, y compris l’IA. La Maison Blanche a noté que la FTC, le CFPB, l’EEOC et le DOJ-CRD se sont collectivement engagés à tirer parti de leur autorité légale pour protéger les Américains contre les dommages liés à l’IA. L’administration a également abordé les préoccupations de sécurité nationale liées à la cybersécurité et à la biosécurité de l’IA. Les nouvelles initiatives comprennent un financement de 140 millions de dollars de la National Science Foundation pour sept instituts nationaux de recherche sur l’IA, des évaluations publiques des systèmes d’IA générative existants et de nouvelles orientations politiques de l’Office of Management and Budget sur l’utilisation de l’IA par le gouvernement américain.
L’audience sur la surveillance de l’IA explore la réglementation de l’IA
Les membres du sous-comité sur la vie privée, la technologie et la loi ont tenu une audience sur la surveillance de l’IA avec des membres éminents de la communauté de l’IA pour discuter de la réglementation de l’IA.
Aborder la réglementation avec précision
Christina Montgomery, Chief Privacy and Trust Officer d’IBM, a souligné que si l’IA a considérablement progressé et fait désormais partie intégrante des sphères des consommateurs et des entreprises, l’attention accrue du public qu’elle reçoit nécessite une évaluation minutieuse de l’impact potentiel sur la société, y compris les préjugés et les abus. Elle a soutenu le rôle du gouvernement dans l’élaboration d’un cadre réglementaire solide, proposant l’approche de « réglementation de précision » d’IBM, qui se concentre sur des règles de cas d’utilisation spécifiques plutôt que sur la technologie elle-même, et a décrit ses principaux composants. Montgomery a également reconnu les défis des systèmes d’IA générative, préconisant une approche réglementaire basée sur les risques qui n’entrave pas l’innovation. Elle a souligné le rôle crucial des entreprises dans le déploiement responsable de l’IA, détaillant les pratiques de gouvernance d’IBM et la nécessité d’un comité d’éthique de l’IA dans toutes les entreprises impliquées dans l’IA.
Aborder les effets économiques potentiels du GPT-4 et au-delà
Sam Altman, PDG d’OpenAI, a souligné le profond engagement de l’entreprise envers la sécurité, la cybersécurité et les implications éthiques de ses technologies d’IA. Selon Altman, l’entreprise effectue des tests de pénétration internes et tiers sans relâche et des audits réguliers de ses contrôles de sécurité. OpenAI, a-t-il ajouté, est également à l’avant-garde de nouvelles stratégies pour renforcer ses systèmes d’IA contre les cybermenaces émergentes. Altman semblait particulièrement préoccupé par les effets économiques de l’IA sur le marché du travail, car ChatGPT pourrait automatiser certains emplois. Sous la direction d’Altman, OpenAI travaille avec des économistes et le gouvernement américain pour évaluer ces impacts et concevoir des politiques pour atténuer les dommages potentiels. Altman a mentionné leurs efforts proactifs dans la recherche d’outils politiques et de programmes de soutien comme Worldcoin qui pourraient atténuer le choc des perturbations technologiques à l’avenir, comme la modernisation des allocations de chômage et la création de programmes d’aide aux travailleurs. (Un fonds en Italie, quant à lui, a récemment réservé 30 millions d’euros pour investir dans les services aux travailleurs les plus exposés au risque de déplacement de l’IA.) Altman a souligné la nécessité d’une réglementation efficace de l’IA et a promis le soutien continu d’OpenAI pour aider les décideurs. L’objectif de l’entreprise, a affirmé Altman, est d’aider à formuler des réglementations qui à la fois stimulent la sécurité et permettent un large accès aux avantages de l’IA. Il a souligné l’importance de la participation collective des diverses parties prenantes, des stratégies réglementaires mondiales et de la collaboration internationale pour assurer l’évolution sûre et bénéfique de la technologie de l’IA.
Explorer le potentiel de dommages causés par l’IA
Gary Marcus, professeur de psychologie et de sciences neurales à NYU, a exprimé ses inquiétudes croissantes concernant l’utilisation abusive potentielle de l’IA, en particulier des modèles de langage puissants et influents comme GPT-4. Il a illustré son inquiétude en montrant comment lui et un ingénieur logiciel ont manipulé le système pour concocter un récit entièrement fictif sur des extraterrestres contrôlant le Sénat américain. Ce scénario illustratif a exposé le danger que les systèmes d’IA fabriquent des histoires de manière convaincante, ce qui alarme le potentiel d’utilisation de cette technologie dans des activités malveillantes – telles que l’ingérence électorale ou la manipulation du marché. Marcus a souligné le manque de fiabilité inhérent aux systèmes d’IA actuels, qui peut entraîner de graves conséquences sociétales, allant de la promotion d’accusations sans fondement à la fourniture de conseils potentiellement préjudiciables. Un exemple était un chatbot open source semblant influencer la décision d’une personne de se suicider. Marcus a également souligné l’avènement de la «datocratie», où l’IA peut subtilement façonner les opinions, dépassant peut-être l’influence des médias sociaux. Un autre développement alarmant qu’il a attiré l’attention est la publication rapide d’extensions d’IA, comme les plug-ins ChatGPT d’OpenAI et l’AutoGPT qui en découle, qui ont un accès direct à Internet, une capacité d’écriture de code et des pouvoirs d’automatisation améliorés, ce qui peut aggraver les problèmes de sécurité. Marcus a clôturé son témoignage par un appel à une collaboration plus étroite entre les scientifiques indépendants, les entreprises technologiques et les gouvernements pour garantir la sécurité et l’utilisation responsable de la technologie de l’IA. Il a averti que si l’IA présente des opportunités sans précédent, le manque de réglementation adéquate, l’irresponsabilité des entreprises et le manque de fiabilité inhérent pourraient nous conduire à une « tempête parfaite ».
Pouvons-nous réglementer l’IA ?
Alors que les technologies d’intelligence artificielle repoussent les limites, les appels à la réglementation continueront de se multiplier. Dans un climat où les partenariats Big Tech se multiplient et les applications se multiplient, cela sonne l’alarme : est-il trop tard pour réglementer l’IA ? Les agences fédérales, la Maison Blanche et les membres du Congrès devront continuer à enquêter sur le paysage urgent, complexe et potentiellement risqué de l’IA tout en veillant à ce que les progrès prometteurs de l’IA se poursuivent et que la concurrence des Big Tech ne soit pas entièrement réglementée hors du marché. Image en vedette : Katherine Welles/Shutterstock