Le PDG d'OpenAI répond à l'enquête de la FTC alors que les inquiétudes concernant l'IA augmentent

comme le révèle un document divulgué obtenu par le Washington Post juillet 2023 Objet de l’enquête : OpenAI a-t-il violé la section 5 de la loi FTC

L’inquiétude croissante de la FTC à propos de l’IA générative

L’enquête sur les pratiques d’une grande entreprise d’IA n’est pas une surprise. L’intérêt de la FTC pour les risques génératifs de l’IA n’a cessé de croître depuis que ChatGPT est devenu très populaire.

Attention à la technologie de prise de décision automatisée

En avril 2021, la FTC a publié des directives sur l’intelligence artificielle (IA) et les algorithmes, avertissant les entreprises de s’assurer que leurs systèmes d’IA sont conformes aux lois sur la protection des consommateurs. Il a noté que l’article 5 de la loi FTC, la loi sur les rapports de crédit équitables et la loi sur l’égalité des chances en matière de crédit étaient des lois importantes pour les développeurs et les utilisateurs d’IA. La FTC a averti que les algorithmes basés sur des données biaisées ou une logique erronée pourraient conduire à des résultats discriminatoires, même s’ils ne sont pas intentionnels. La FTC a décrit les meilleures pratiques pour le développement éthique de l’IA sur la base de son expérience dans l’application des lois contre les pratiques déloyales, la tromperie et la discrimination. Les recommandations incluent des systèmes de test de biais, permettant des audits indépendants, limitant les allégations marketing exagérées et évaluant les dommages sociétaux par rapport aux avantages. « Si votre algorithme entraîne une discrimination de crédit contre une classe protégée, vous pourriez vous retrouver face à une plainte alléguant des violations de la loi FTC et de l’ECOA », prévient le guide.

Contrôle de l’IA

La FTC a rappelé aux entreprises d’IA ses directives sur l’IA de 2021 en ce qui concerne les allégations marketing exagérées ou non fondées concernant les capacités de l’IA. Dans le message de février 2023, l’organisation a mis en garde les spécialistes du marketing contre le fait de se laisser emporter par le battage médiatique de l’IA et de faire des promesses que leurs produits ne peuvent pas tenir. Problèmes courants cités  : affirmer que l’IA peut faire plus que ce que la technologie actuelle permet, faire des comparaisons non étayées avec des produits non IA et ne pas tester les risques et les biais. La FTC a souligné que le marketing faux ou trompeur constitue une conduite illégale quelle que soit la complexité de la technologie. Le rappel est intervenu quelques semaines après que ChatGPT d’OpenAI ait atteint 100 millions d’utilisateurs. La FTC a également publié une liste d’emplois pour les technologues à cette époque – y compris ceux ayant une expertise en IA – pour soutenir les enquêtes, les initiatives politiques et la recherche sur la protection des consommateurs et la concurrence dans l’industrie technologique.

Deepfakes et tromperie

Environ un mois plus tard, en mars, la FTC a averti que les outils d’IA génératifs tels que les chatbots et les deepfakes pourraient faciliter une fraude généralisée s’ils étaient déployés de manière irresponsable. Il a averti les développeurs et les entreprises utilisant les médias synthétiques et l’IA générative de tenir compte des risques inhérents d’utilisation abusive. L’agence a déclaré que les mauvais acteurs peuvent exploiter le contenu réaliste mais faux de ces systèmes d’IA pour les escroqueries par hameçonnage, le vol d’identité, l’extorsion et d’autres préjudices. Bien que certaines utilisations puissent être bénéfiques, la FTC a exhorté les entreprises à peser la fabrication ou la vente de tels outils d’IA compte tenu de l’exploitation criminelle prévisible. La FTC a conseillé aux entreprises qui continuent de développer ou d’utiliser l’IA générative de prendre de solides précautions pour éviter les abus. Il a également mis en garde contre l’utilisation de médias synthétiques dans un marketing trompeur et l’omission de divulguer lorsque les consommateurs interagissent avec des chatbots IA par rapport à de vraies personnes.

L’IA propage des logiciels malveillants

En avril, la FTC a révélé comment les cybercriminels exploitaient l’intérêt pour l’IA pour diffuser des logiciels malveillants via de fausses publicités. Les fausses publicités faisaient la promotion d’outils d’IA et d’autres logiciels sur les réseaux sociaux et les moteurs de recherche. En cliquant sur ces publicités, les utilisateurs sont dirigés vers des sites clonés qui téléchargent des logiciels malveillants ou exploitent des portes dérobées pour infecter des appareils sans être détectés. Les informations volées étaient ensuite vendues sur le dark web ou utilisées pour accéder aux comptes en ligne des victimes. Pour éviter d’être piraté, la FTC a conseillé de ne pas cliquer sur les publicités de logiciels. En cas d’infection, les utilisateurs doivent mettre à jour les outils de sécurité et les systèmes d’exploitation, puis suivre les étapes pour supprimer les logiciels malveillants ou récupérer les comptes compromis. La FTC a averti le public de se méfier des cybercriminels de plus en plus sophistiqués dans la diffusion de logiciels malveillants via les réseaux publicitaires.

Les agences fédérales s’unissent pour lutter contre la réglementation de l’IA

Vers la fin avril, quatre agences fédérales – le Bureau de protection financière des consommateurs (CFPB), la Division des droits civils (DOJ) du ministère de la Justice, la Commission pour l’égalité des chances en matière d’emploi (EEOC) et la FTC – ont publié une déclaration sur la manière dont elles surveiller le développement de l’IA et appliquer les lois contre la discrimination et les préjugés dans les systèmes automatisés. Les agences ont affirmé leur autorité sur l’IA en vertu des lois existantes sur les droits civils, les prêts équitables, l’égalité des chances et la protection des consommateurs. Ensemble, ils ont averti que les systèmes d’IA pourraient perpétuer des préjugés illégaux en raison de données erronées, de modèles opaques et de choix de conception inappropriés. Le partenariat visait à promouvoir une innovation IA responsable qui augmente l’accès, la qualité et l’efficacité des consommateurs sans violer les protections de longue date.

IA et confiance des consommateurs

En mai, la FTC a mis en garde les entreprises contre l’utilisation de nouveaux outils d’IA génératifs comme les chatbots pour manipuler injustement les décisions des consommateurs. Après avoir décrit les événements du film Ex Machina, la FTC a affirmé que la persuasion humaine des chatbots IA pourrait orienter les gens vers des choix néfastes en matière de finances, de santé, d’éducation, de logement et d’emploi. Bien que pas nécessairement intentionnels, la FTC a déclaré que les éléments de conception qui exploitent la confiance humaine dans les machines pour tromper les consommateurs constituent des pratiques déloyales et trompeuses en vertu de la loi de la FTC. L’agence a conseillé aux entreprises d’éviter de sur-anthropomorphiser les chatbots et d’assurer la divulgation des promotions payantes tissées dans les interactions de l’IA. Avec l’augmentation de l’adoption de l’IA générative, l’alerte de la FTC met les entreprises en demeure d’évaluer de manière proactive les impacts sociétaux en aval. Ces outils se précipitant sur le marché sans un examen éthique ou des protections appropriées risqueraient une action de la FTC sur le préjudice qui en résulterait pour les consommateurs.

Un avis sur les risques de l’IA

La présidente de la FTC, Lina Khan, a fait valoir que l’IA générative présente des risques d’enraciner une domination technologique importante, de suralimenter la fraude et d’automatiser la discrimination si elle n’est pas contrôlée. Dans un éditorial du New York Times publié quelques jours après l’avertissement de confiance des consommateurs, Khan a déclaré que la FTC vise à promouvoir la concurrence et à protéger les consommateurs à mesure que l’IA se développe. Khan a averti que quelques entreprises puissantes contrôlaient les entrées clés de l’IA comme les données et l’informatique, ce qui pourrait renforcer leur domination en l’absence de vigilance antitrust. Elle a averti que le faux contenu réaliste de l’IA générative pourrait faciliter les escroqueries généralisées. De plus, les données biaisées mettent en danger les algorithmes qui empêchent illégalement les gens d’accéder à des opportunités. Bien que nouveaux, Khan a affirmé que les systèmes d’IA ne sont pas exemptés de la protection des consommateurs et des autorités antitrust de la FTC. Avec une surveillance responsable, Khan a noté que l’IA générative pourrait se développer de manière équitable et compétitive, en évitant les pièges des autres géants de la technologie.

IA et confidentialité des données

En juin, la FTC a averti les entreprises que les protections de la vie privée des consommateurs s’appliquaient également aux systèmes d’IA reposant sur des données personnelles. Dans des plaintes contre Amazon et Ring, la FTC a allégué des pratiques déloyales et trompeuses utilisant des données vocales et vidéo pour former des algorithmes. Le président de la FTC, Khan, a déclaré que les avantages de l’IA ne l’emportent pas sur les coûts de confidentialité de la collecte de données invasive. L’agence a affirmé que les consommateurs conservent le contrôle de leurs informations même si une entreprise les possède. Des garanties et des contrôles d’accès stricts sont attendus lorsque les employés examinent des données biométriques sensibles. Pour les données des enfants, la FTC a déclaré qu’elle appliquerait pleinement la loi sur la protection de la vie privée des enfants, la COPPA. Les plaintes ont ordonné la suppression des données biométriques mal acquises et de tous les modèles d’IA qui en sont dérivés. Le message pour les entreprises technologiques était clair  : bien que le potentiel de l’IA soit vaste, les obligations légales en matière de confidentialité des consommateurs restent primordiales.

Concours d’IA générative

Vers la fin juin, la FTC a publié des directives avertissant que la croissance rapide de l’IA générative pourrait soulever des problèmes de concurrence si les intrants clés passaient sous le contrôle de quelques entreprises technologiques dominantes. L’agence a déclaré que des intrants essentiels tels que des données, des talents et des ressources informatiques sont nécessaires pour développer des modèles d’IA génératifs de pointe. L’agence a averti que si une poignée de grandes entreprises technologiques acquéraient trop de contrôle sur ces intrants, elles pourraient utiliser ce pouvoir pour fausser la concurrence sur les marchés de l’IA générative. La FTC a averti que les tactiques anticoncurrentielles telles que le regroupement, la vente liée, les accords exclusifs ou le rachat de concurrents pourraient permettre aux opérateurs historiques d’éliminer les rivaux émergents et de consolider leur avance. La FTC a déclaré qu’elle surveillerait les problèmes de concurrence entourant l’IA générative et prendrait des mesures contre les pratiques déloyales. L’objectif était de permettre aux entrepreneurs d’innover avec des technologies d’IA transformatrices, comme les chatbots, qui pourraient remodeler les expériences des consommateurs dans tous les secteurs. Avec les bonnes politiques, la FTC pense que l’IA générative émergente peut exploiter tout son potentiel économique.

Allégations marketing suspectes

Début juillet, la FTC a mis en garde contre les outils d’IA qui peuvent générer des deepfakes, des voix clonées et une augmentation du texte artificiel, de même que des outils prétendant détecter un tel contenu généré par l’IA. Cependant, les experts ont averti que les allégations marketing de certains outils de détection pourraient exagérer leurs capacités. La FTC a mis en garde les entreprises contre l’exagération de la précision et de la fiabilité de leurs outils de détection. Compte tenu des limites de la technologie actuelle, les entreprises doivent s’assurer que le marketing reflète des évaluations réalistes de ce que ces outils peuvent et ne peuvent pas faire. En outre, la FTC a noté que les utilisateurs doivent se méfier des affirmations selon lesquelles un outil peut détecter tous les faux IA sans erreur. Une détection imparfaite pourrait conduire à accuser injustement des personnes innocentes comme les candidats à un emploi de créer de faux contenus.

Que va découvrir la FTC ?

L’enquête de la FTC sur OpenAI intervient au milieu d’un examen réglementaire croissant des systèmes d’IA générative. Comme ces technologies puissantes permettent de nouvelles fonctionnalités telles que les chatbots et les deepfakes, elles soulèvent de nouveaux risques liés aux préjugés, à la confidentialité, à la sécurité, à la concurrence et à la tromperie. OpenAI doit répondre aux questions de savoir s’il a pris les précautions adéquates dans le développement et la publication de modèles tels que GPT-3 et DALL-E qui ont façonné la trajectoire du domaine de l’IA. La FTC semble s’efforcer de s’assurer que les pratiques d’OpenAI sont conformes aux lois sur la protection des consommateurs, en particulier en ce qui concerne les allégations marketing, les pratiques en matière de données et l’atténuation des dommages sociétaux. La manière dont OpenAI répond et si des mesures d’application sont prises pourraient créer des précédents importants pour la réglementation à mesure que l’IA progresse. Pour l’instant, l’enquête de la FTC souligne que le battage médiatique autour de l’IA ne devrait pas dépasser la surveillance responsable. Les systèmes d’IA robustes sont très prometteurs mais présentent des risques s’ils sont déployés sans protections suffisantes. Les grandes entreprises d’IA doivent s’assurer que les nouvelles technologies sont conformes aux lois de longue date protégeant les consommateurs et les marchés. Image en vedette : Ascannio/Shutterstock