Explorer l'interdiction de ChatGPT en Italie et son impact potentiel

pour être accueilli par ceci  : « ChatGPT désactivé pour les utilisateurs en Italie Cher client ChatGPT, Nous avons le regret de vous informer que nous avons désactivé ChatGPT pour les utilisateurs en Italie à la demande. de la Garante italienne. Capture d’écran d’OpenAI, avril 2023 OpenAI a envoyé ce message aux utilisateurs italiens à la suite d’une enquête de la Garante per la protezione dei dati personali (garante de la protection des données personnelles). La Garante cite des violations spécifiques comme suit  :

  • OpenAI n’a pas correctement informé les utilisateurs qu’il collectait des données personnelles
  • OpenAI n’a fourni aucune raison légale de collecter des informations personnelles pour former son algorithme
  • ChatGPT traite les informations personnelles de manière inexacte sans utiliser de faits réels
  • OpenAI n’a pas demandé aux utilisateurs de vérifier leur âge, même si le contenu généré par ChatGPT est destiné aux utilisateurs de plus de 13 ans et nécessite un consentement parental pour les moins de 18 ans

En effet, un pays entier a perdu l’accès à une technologie très utilisée parce que son gouvernement craint que des données personnelles ne soient traitées de manière inappropriée par un autre pays – et que la technologie ne soit pas sûre pour un public plus jeune. Diletta De Cicco, conseillère basée à Milan sur la confidentialité des données, la cybersécurité et les actifs numériques auprès de Squire Patton Boggs, a déclaré : « Sans surprise, la décision du Garante est intervenue juste après qu’une violation de données ait affecté les conversations des utilisateurs et les données fournies à OpenAI. Cela arrive également à un moment où les IA génératives font leur chemin dans le grand public à un rythme rapide (et ne sont pas seulement adoptées par les utilisateurs férus de technologie). De manière un peu plus surprenante, alors que le communiqué de presse italien fait référence au récent incident de violation, il n’y a aucune référence à cela dans la décision italienne pour justifier l’interdiction temporaire, qui est basée sur : l’inexactitude des données, le manque d’informations aux utilisateurs et aux personnes en général, vérification de l’âge manquante pour les enfants et absence de base légale pour les données de formation. Bien qu’OpenAI LLC opère aux États-Unis, elle doit se conformer au Code italien de protection des données personnelles car elle traite et stocke les informations personnelles des utilisateurs en Italie. Le Code de protection des données personnelles était la principale loi italienne concernant la protection des données privées jusqu’à ce que l’Union européenne promulgue le Règlement général sur la protection des données (RGPD) en 2018. La loi italienne a été mise à jour pour correspondre au RGPD.

Qu’est-ce que le RGPD ?

Le GDPR a été introduit dans le but de protéger la confidentialité des informations personnelles dans l’UE. Les organisations et les entreprises opérant dans l’UE doivent se conformer aux réglementations GDPR sur le traitement, le stockage et l’utilisation des données personnelles. Si une organisation ou une entreprise doit traiter les informations personnelles d’un utilisateur italien, elle doit se conformer à la fois au Code italien de protection des données personnelles et au RGPD.

Comment ChatGPT pourrait-il enfreindre les règles du RGPD ?

Si OpenAI ne peut pas prouver son dossier contre la Garante italienne, cela peut déclencher un examen supplémentaire pour violation des directives du RGPD concernant les éléments suivants  :

  • ChatGPT stocke les entrées des utilisateurs – qui peuvent contenir des informations personnelles des utilisateurs de l’UE (dans le cadre de son processus de formation)
  • OpenAI permet aux formateurs de visualiser les conversations ChatGPT
  • OpenAI permet aux utilisateurs de supprimer leurs comptes mais dit qu’ils ne peuvent pas supprimer des invites spécifiques. Il note que les utilisateurs ne doivent pas partager d’informations personnelles sensibles dans les conversations ChatGPT

OpenAI propose des raisons juridiques pour le traitement des informations personnelles des utilisateurs de l’Espace économique européen (qui comprend les pays de l’UE), du Royaume-Uni et de la Suisse dans la section 9 de la politique de confidentialité. La page Conditions d’utilisation définit le contenu comme l’entrée (votre invite) et la sortie (la réponse générative de l’IA). Chaque utilisateur de ChatGPT a le droit d’utiliser le contenu généré à l’aide des outils OpenAI à titre personnel et commercial. OpenAI informe les utilisateurs de l’API OpenAI que les services utilisant les données personnelles des résidents de l’UE doivent respecter le RGPD, le CCPA et les lois locales applicables en matière de confidentialité pour ses utilisateurs. Au fur et à mesure que chaque IA évolue, le contenu génératif de l’IA peut contenir des entrées d’utilisateurs dans le cadre de ses données de formation, qui peuvent inclure des informations personnellement sensibles d’utilisateurs du monde entier. Rafi Azim-Khan, responsable mondial du droit de la confidentialité des données et du marketing pour Pillsbury Winthrop Shaw Pittman LLP, a déclaré : « Les lois récentes proposées en Europe (loi sur l’IA) ont attiré l’attention, mais il peut souvent être erroné d’ignorer d’autres lois qui sont déjà en vigueur qui peuvent s’appliquer, comme le RGPD. L’action coercitive du régulateur italien contre OpenAI et ChatGPT cette semaine a rappelé à tous que des lois telles que le RGPD ont un impact sur l’utilisation de l’IA. Azim-Khan a également souligné les problèmes potentiels avec les sources d’informations et les données utilisées pour générer des réponses ChatGPT. « Certains des résultats de l’IA montrent des erreurs, il y a donc des inquiétudes quant à la qualité des données extraites d’Internet et/ou utilisées pour former la technologie », a-t-il noté. « Le GDPR donne aux individus le droit de rectifier les erreurs (comme le fait le CCPA/CPRA en Californie). »

Qu’en est-il du CCPA, de toute façon?

OpenAI aborde les problèmes de confidentialité pour les utilisateurs californiens dans la section cinq de sa politique de confidentialité. Il divulgue les informations partagées avec des tiers, y compris les sociétés affiliées, les fournisseurs, les prestataires de services, les forces de l’ordre et les parties impliquées dans les transactions avec les produits OpenAI. Ces informations incluent les informations de contact et de connexion de l’utilisateur, l’activité du réseau, le contenu et les données de géolocalisation.

Comment cela pourrait-il affecter l’utilisation de Microsoft en Italie et dans l’UE ?

Pour répondre aux préoccupations concernant la confidentialité des données et le RGPD, Microsoft a créé le Trust Center. Les utilisateurs de Microsoft peuvent en savoir plus sur la manière dont leurs données sont utilisées sur les services Microsoft, notamment Bing et Microsoft Copilot, qui s’exécutent sur la technologie OpenAI.

Les utilisateurs de l’IA générative devraient-ils s’inquiéter ?

« La ligne de fond est la suivante [the Italian Garante case] pourrait être la pointe de l’iceberg alors que d’autres responsables de l’exécution examinent de plus près les modèles d’IA », déclare Azim-Khan. « Il sera intéressant de voir ce que feront les autres autorités européennes de protection des données », si elles suivront immédiatement la Garante ou adopteront plutôt une approche attentiste », ajoute De Cicco. « On aurait espéré voir une réponse commune de l’UE à une question aussi sensible sur le plan social. » Si le Garante italien gagne son procès, d’autres gouvernements pourraient commencer à enquêter sur d’autres technologies – y compris les pairs et les concurrents de ChatGPT, comme Google Bard – pour voir s’ils violent des directives similaires pour la sécurité des données personnelles et des publics plus jeunes. « D’autres interdictions pourraient suivre celle italienne », déclare Azim-Khan. Au minimum, nous pourrions voir des développeurs d’IA devoir supprimer d’énormes ensembles de données et recycler leurs bots. Image en vedette : pcruciatti/Shutterstock