ChatGPT et les outils d'IA générative font face à des problèmes juridiques dans le monde entier

La récente interdiction de ChatGPT en Italie n’est que l’un des nombreux défis juridiques potentiels auxquels OpenAI est confronté. Alors que l’Union européenne s’efforce d’adopter une loi sur l’intelligence artificielle, que les États-Unis définissent une déclaration des droits de l’IA et que le Royaume-Uni recommande aux agences existantes de réglementer l’IA, les utilisateurs de ChatGPT ont déposé des plaintes à l’échelle mondiale contre OpenAI pour des problèmes de sécurité potentiels.

OpenAI et problèmes de sécurité mondiaux

les régulateurs de la confidentialité en Suède et en Espagne n’ont pas l’intention d’enquêter sur ChatGPT pour le moment, mais le peuvent à l’avenir si les utilisateurs déposent des plaintes contre la technologie de l’IA. Et ce ne sont là que quelques-unes des récentes plaintes, enquêtes et commentaires de divers pays sur la responsabilité des entreprises d’IA. Pendant ce temps, en Allemagne, Ulrich Kelber, porte-parole du commissaire fédéral à la protection des données de la région, a déclaré qu’une interdiction similaire à celles d’autres pays pourrait suivre si OpenAI viole le RGPD ou des politiques similaires. Cependant, Volker Wissing, ministre allemand des transports et de l’infrastructure numérique, a indiqué qu’une interdiction n’était pas la meilleure approche. « Nous n’avons pas besoin d’une interdiction des applications d’IA, mais de moyens de garantir des valeurs telles que la démocratie et la transparence », déclare Wissing. Le Canada semble également emboîter le pas après que son bureau du commissaire à la protection de la vie privée a lancé une enquête sur une plainte contre ChatGPT collectant des données personnelles sans consentement. Et en France, Jean-Noël Barrot, ministre de la Transition numérique et des Télécommunications, a commenté la vague d’excitation de l’IA, suivie de la peur de l’IA. Le plan du pays, semble-t-il, est de maîtriser la technologie de l’IA et de développer des modèles et des technologies qui défendent les valeurs françaises.

Les pays interdiront-ils définitivement ChatGPT ?

OpenAI a récemment publié une FAQ pour les utilisateurs italiens et a réaffirmé son engagement à créer des systèmes sûrs, précis et privés. Mais quelles sont les chances que les enquêtes contre OpenAI aboutissent à une interdiction permanente de sa technologie en Italie et dans d’autres pays ? Considérant qu’un juge en Colombie a récemment utilisé ChatGPT pour aider à une décision de justice et qu’un autre en Inde l’a utilisé pour décider d’une caution, OpenAI a quelques chances en sa faveur. ChatGPT+ avec le modèle GPT-4 offre des points étonnamment équilibrés sur l’impact de sa technologie et les risques qu’elle pose. En réponse à l’invite « Un pays comme l’Italie devrait-il interdire ChatGPT en raison de problèmes de traitement des données ? », ChatGPT+ répond  : « Confidentialité des données  : il est essentiel que les systèmes d’IA se conforment aux réglementations sur la protection des données, telles que le règlement général sur la protection des données de l’UE ( RGPD). Il est crucial de s’assurer que ChatGPT suit ces règles et respecte la vie privée des utilisateurs. S’il y a des inquiétudes concernant le traitement des données, il serait utile de vérifier si OpenAI est conforme aux réglementations nécessaires. La réponse se poursuit par un aperçu des avantages de l’IA, de l’éthique et des préjugés, de la compétitivité et des alternatives. Capture d’écran de ChatGPT, avril 2023 Bien sûr, si un pays n’a pas accès à ChatGPT, certains utilisateurs peuvent y accéder en utilisant un service de réseau privé virtuel (VPN). Google Trends montre que l’Italie a connu un pic de recherches de VPN début avril, coïncidant avec l’interdiction de ChatGPT.

Les poursuites contre la technologie OpenAI peuvent-elles affecter les utilisateurs ?

Les utilisateurs d’OpenAI sont-ils légalement responsables des problèmes découlant de l’utilisation et de la sortie de ses outils ? Cela dépend, selon les conditions d’utilisation d’OpenAI. Si les utilisateurs enfreignaient les conditions ou les politiques d’OpenAI lors de l’utilisation d’outils tels que ChatGPT ou l’API, ils pourraient être tenus de se défendre. OpenAI ne garantit pas que ses services fonctionneront toujours comme prévu ou que certains contenus (entrée et sortie d’un outil d’IA générative) sont sûrs – notant qu’il ne sera pas tenu responsable de tels résultats. La plupart des offres OpenAI pour indemniser les utilisateurs pour les dommages causés par ses outils sont le montant que l’utilisateur a payé pour les services au cours de l’année écoulée, soit 100 $, en supposant qu’aucune autre loi régionale ne s’applique.

Plus de poursuites en IA

Les cas ci-dessus ne sont que la pointe de l’iceberg juridique de l’IA. OpenAI et ses pairs sont confrontés à des problèmes juridiques supplémentaires, notamment les suivants.

  • Un maire australien peut poursuivre OpenAI pour diffamation pour des informations inexactes à son sujet fournies par ChatGPT
  • GitHub Copilot fait face à un recours collectif concernant les droits légaux des créateurs du codage open source dans les données de formation Copilot
  • Stability AI, DeviantArt et Midjourney font face à un recours collectif concernant l’utilisation de StableDiffusion, qui a utilisé des œuvres d’art protégées par le droit d’auteur dans ses données de formation
  • /li>

Chaque cas a le potentiel de bouleverser l’avenir du développement de l’IA. Image en vedette : Giulio Benzin/Shutterstock

Tags: