La NTIA reçoit plus de 1 450 commentaires sur la responsabilité de l’IA

L’Administration nationale des télécommunications et de l’information (NTIA), une division du Département du commerce des États-Unis, a appelé le public à commenter les stratégies visant à encourager la responsabilité dans les systèmes d’intelligence artificielle (IA) fiables. L’objectif était de solliciter les commentaires des parties prenantes afin de formuler des suggestions pour un prochain rapport sur les cadres de garantie et de responsabilisation en matière d’IA. Ces suggestions pourraient avoir guidé les futures réglementations fédérales et non gouvernementales.

La promotion d’une IA digne de confiance qui respecte les droits de l’homme et les principes démocratiques était l’un des principaux objectifs fédéraux selon la demande de la NTIA. Néanmoins, des lacunes subsistaient pour garantir que les systèmes d’IA étaient responsables et respectaient des règles d’IA fiables en matière d’équité, de sécurité, de confidentialité et de transparence. Les mécanismes de responsabilisation tels que les audits, les évaluations d’impact et les certifications pourraient offrir l’assurance que les systèmes d’IA respectent des critères fiables.

Cependant, la NTIA a observé que la mise en œuvre d’une responsabilité efficace présentait encore des défis et des complexités. La NTIA a discuté de diverses considérations concernant l’équilibre entre les objectifs d’IA fiables, les obstacles à la mise en œuvre de la responsabilité, les chaînes d’approvisionnement et les chaînes de valeur complexes de l’IA, et les difficultés de normalisation des mesures.

Plus de 1 450 commentaires sur la responsabilité de l’IA

Les commentaires ont été acceptés jusqu’au 12 juin pour aider à façonner le futur rapport de la NTIA et orienter les développements politiques potentiels concernant la responsabilité de l’IA.

Le nombre de commentaires a dépassé 1 450. Les commentaires, qui peuvent être recherchés à l’aide de mots clés, incluent parfois des liens vers des articles, des lettres, des documents et des poursuites concernant l’impact potentiel de l’IA.

Les entreprises technologiques répondent à la NTIA

Les commentaires comprenaient des commentaires des entreprises technologiques suivantes qui s’efforcent de développer des produits d’IA pour le lieu de travail.

Lettre d’OpenAI à la NTIA

Dans la lettre d’OpenAI, il s’est félicité que la NTIA présente le problème comme un « écosystème » de mesures de responsabilité nécessaires à l’IA pour garantir une intelligence artificielle digne de confiance. Les chercheurs d’OpenAI pensaient qu’un écosystème de responsabilité en matière d’IA mature serait composé d’éléments de responsabilité généraux qui s’appliqueraient largement à tous les domaines et d’éléments verticaux adaptés à des contextes et des applications spécifiques. OpenAI s’est concentré sur le développement de modèles de base – des modèles d’IA largement applicables qui apprennent à partir de vastes ensembles de données.

Il considère la nécessité d’adopter une approche axée sur la sécurité pour ces modèles, quels que soient les domaines particuliers dans lesquels ils pourraient être utilisés. OpenAI a détaillé plusieurs approches actuelles de la responsabilité de l’IA. Il publie des « cartes système » pour offrir une transparence sur les problèmes de performances et les risques importants des nouveaux modèles.

Il effectue des tests qualitatifs de « red teaming » pour sonder les capacités et les modes de défaillance. Il effectue des évaluations quantitatives pour diverses capacités et risques. Et il a des politiques d’utilisation claires interdisant les utilisations nuisibles ainsi que des mécanismes d’application.

OpenAI a reconnu plusieurs défis importants non résolus, notamment l’évaluation des capacités potentiellement dangereuses à mesure que les capacités du modèle continuent d’évoluer. Il a discuté des questions ouvertes concernant les évaluations indépendantes de ses modèles par des tiers. Et il a suggéré que des exigences d’enregistrement et de licence pourraient être nécessaires pour les futurs modèles de fondation présentant des risques importants.

Alors que les pratiques actuelles d’OpenAI se concentrent sur la transparence, les tests et les politiques, l’entreprise semble disposée à collaborer avec les décideurs politiques pour développer des mesures de responsabilité plus solides. Il a suggéré que des cadres réglementaires adaptés pourraient être nécessaires pour des modèles d’IA compétents. Dans l’ensemble, la réponse d’OpenAI reflétait sa conviction qu’une combinaison d’efforts d’autorégulation et de politiques gouvernementales jouerait un rôle essentiel dans le développement d’un écosystème efficace de responsabilité en matière d’IA.

Lettre de Microsoft à la NTIA

Dans sa réponse, Microsoft a affirmé que la responsabilité devrait être un élément fondamental des cadres pour faire face aux risques posés par l’IA tout en maximisant ses avantages. Les entreprises qui développent et utilisent l’IA devraient être responsables de l’impact de leurs systèmes, et les institutions de surveillance ont besoin de l’autorité, des connaissances et des outils pour exercer une surveillance appropriée. Microsoft a présenté les leçons de son programme d’IA responsable, qui vise à garantir que les machines restent sous contrôle humain.

La responsabilité est intégrée à leur structure de gouvernance et à leur norme d’IA responsable et comprend :

  • Mener des évaluations d’impact pour identifier et traiter les dommages potentiels
  • Surveillance supplémentaire des systèmes à haut risque
  • Documentation pour s’assurer que les systèmes sont adaptés à l’usage
  • Pratiques de gouvernance et de gestion des données
  • Faire progresser la direction et le contrôle humains
  • Microsoft a décrit comment il mène une équipe rouge pour découvrir les dommages et les défaillances potentiels et publie des notes de transparence pour ses services d’IA. Le nouveau moteur de recherche Bing de Microsoft applique cette approche d’IA responsable

Microsoft a formulé six recommandations pour faire progresser la responsabilité :

  • S’appuyer sur le cadre de gestion des risques de l’IA du NIST pour accélérer l’utilisation de mécanismes de responsabilité tels que les évaluations d’impact et l’équipe rouge, en particulier pour les systèmes d’IA à haut risque
  • Développer un cadre juridique et réglementaire basé sur la pile technologique d’IA, y compris les exigences de licence pour les modèles de base et les fournisseurs d’infrastructure
  • Faire progresser la transparence en tant que catalyseur de la responsabilité, par exemple par le biais d’un registre des systèmes d’IA à haut risque
  • Investissez dans le renforcement des capacités des législateurs et des régulateurs pour suivre les développements de l’IA
  • Investissez dans la recherche pour améliorer les critères d’évaluation de l’IA, l’explicabilité, l’interaction homme-ordinateur et la sécurité
  • Développez et alignez-vous sur les normes internationales pour soutenir un écosystème d’assurance, y compris les normes ISO AI et les normes de provenance du contenu
  • Dans l’ensemble, Microsoft semblait prêt à s’associer aux parties prenantes pour développer et mettre en œuvre des approches efficaces de la responsabilité de l’IA

Microsoft, dans l’ensemble, semblait prêt à s’associer aux parties prenantes pour développer et mettre en œuvre des approches efficaces de la responsabilité de l’IA.

Lettre de Google à la NTIA

La réponse de Google a accueilli favorablement la demande de commentaires de la NTIA sur les politiques de responsabilité de l’IA.

Il a reconnu la nécessité d’une autorégulation et d’une gouvernance pour parvenir à une IA digne de confiance. Google a souligné son propre travail sur la sécurité et l’éthique de l’IA, comme un ensemble de principes d’IA axés sur l’équité, la sécurité, la confidentialité et la transparence. Google a également mis en place des pratiques d’IA responsable en interne, notamment en procédant à des évaluations des risques et à des évaluations de l’équité.

Google a approuvé l’utilisation des cadres réglementaires existants, le cas échéant, et des interventions basées sur les risques pour l’IA à haut risque. Elle a encouragé l’utilisation d’une approche collaborative fondée sur le consensus pour l’élaboration de normes techniques. Google a convenu que les mécanismes de responsabilité tels que les audits, les évaluations et les certifications pourraient fournir l’assurance de systèmes d’IA fiables.

Mais il a noté que ces mécanismes sont confrontés à des défis de mise en œuvre, notamment l’évaluation de la multitude d’aspects qui ont un impact sur les risques d’un système d’IA. Google a recommandé de concentrer les mécanismes de responsabilisation sur les principaux facteurs de risque et a suggéré d’utiliser des approches ciblant les façons les plus probables dont les systèmes d’IA pourraient avoir un impact significatif sur la société. Google a recommandé un modèle de réglementation de l’IA « en étoile », avec des régulateurs sectoriels supervisant la mise en œuvre de l’IA avec les conseils d’une agence centrale comme le NIST.

Il a soutenu la clarification de la manière dont les lois existantes s’appliquent à l’IA et l’encouragement de mesures de responsabilité proportionnelles fondées sur le risque pour l’IA à haut risque. Comme d’autres, Google pensait qu’il faudrait un mélange d’autorégulation, de normes techniques et de politiques gouvernementales limitées et basées sur les risques pour faire progresser la responsabilité de l’IA.

Lettre anthropique à la NTIA

La réponse d’Anthropic a décrit la conviction qu’un écosystème de responsabilité en matière d’IA robuste nécessite des mécanismes adaptés aux modèles d’IA.

Elle a identifié plusieurs défis, notamment la difficulté d’évaluer rigoureusement les systèmes d’IA et d’accéder aux informations sensibles nécessaires aux audits sans compromettre la sécurité. Financement soutenu par Anthropic pour les éléments suivants :

  • Évaluations modèles : Les évaluations actuelles sont un patchwork incomplet et nécessitent une expertise spécialisée. Il a recommandé de normaliser les évaluations des capacités axées sur des risques tels que la tromperie et l’autonomie
  • Recherche sur l’interprétabilité : les subventions et le financement de la recherche sur l’interprétabilité pourraient permettre des modèles plus transparents et compréhensibles.

    Cependant, les réglementations exigeant l’interprétabilité sont actuellement irréalisables

  • Pré-enregistrement des grands cycles de formation à l’IA : les développeurs d’IA doivent signaler les grands cycles de formation aux régulateurs pour les informer des nouveaux risques dans le cadre des protections de confidentialité appropriées
  • Équipe rouge externe : tests contradictoires obligatoires des systèmes d’IA avant leur publication, soit par le biais d’une organisation centralisée comme le NIST, soit via l’accès des chercheurs. Cependant, les talents de l’équipe rouge résident actuellement dans des laboratoires privés d’IA
  • Des auditeurs dotés d’une expertise technique, soucieux de la sécurité et flexibles : les auditeurs ont besoin d’une expérience approfondie de l’apprentissage automatique tout en prévenant les fuites ou le piratage, mais doivent également opérer dans le cadre de contraintes qui favorisent la compétitivité
  • Anthropic a recommandé de déterminer la portée des mesures de responsabilisation en fonction des capacités d’un modèle et des risques démontrés, évalués au moyen d’évaluations ciblées des capacités. Il a suggéré de clarifier les cadres de propriété de la propriété intellectuelle pour l’IA afin de permettre des licences équitables et de fournir des conseils sur les questions antitrust pour permettre des collaborations en matière de sécurité
  • Dans l’ensemble, Anthropic a souligné les difficultés d’évaluation rigoureuse et d’accès aux informations sur les systèmes d’IA avancés en raison de leur nature sensible.

    Il a fait valoir que le financement des évaluations des capacités, la recherche sur l’interprétabilité et l’accès aux ressources informatiques sont essentiels à un écosystème efficace de responsabilisation en matière d’IA qui profite à la société

À quoi s’attendre ensuite

Les réponses à la demande de commentaires de la NTIA montrent que si les entreprises d’IA reconnaissent l’importance de la responsabilité, il reste des questions et des défis ouverts concernant la mise en œuvre et la mise à l’échelle efficaces des mécanismes de responsabilité. Ils indiquent également que les efforts d’autorégulation des entreprises et les politiques gouvernementales joueront un rôle dans le développement d’un solide écosystème de responsabilité en matière d’IA. À l’avenir, le rapport de la NTIA devrait formuler des recommandations pour faire progresser l’écosystème de responsabilité en matière d’IA en tirant parti et en s’appuyant sur les efforts d’autorégulation, les normes techniques et les politiques gouvernementales existants.

La contribution des parties prenantes par le biais du processus de commentaires contribuera probablement à façonner ces recommandations. Cependant, la mise en œuvre des recommandations dans des changements politiques concrets et des pratiques industrielles qui peuvent transformer la façon dont l’IA est développée, déployée et supervisée nécessitera une coordination entre les agences gouvernementales, les entreprises technologiques, les chercheurs et les autres parties prenantes. Le chemin vers une responsabilisation mature en matière d’IA promet d’être long et difficile.

Mais ces premières étapes montrent qu’il existe un élan vers la réalisation de cet objectif. Image en vedette : EQRoy/Shutterstock

Tags: