OpenAI se conforme aux réglementations sur la confidentialité alors que la loi européenne sur l'IA progresse

OpenAI a satisfait aux exigences de la Garante italienne, en levant l’interdiction de ChatGPT de près d’un mois en Italie. La société a apporté plusieurs améliorations à ses services, notamment en clarifiant l’utilisation des données personnelles, afin de se conformer à la législation européenne sur la protection des données. La résolution de ce problème intervient alors que l’Union européenne se rapproche de la promulgation de la loi sur l’intelligence artificielle, qui vise à réglementer la technologie de l’IA et pourrait avoir un impact sur les outils d’IA générative à l’avenir.

OpenAI répond aux exigences de la garantie

Selon une déclaration de la Garante italienne, OpenAI a résolu les problèmes avec la Garante, mettant fin à l’interdiction de ChatGPT de près d’un mois en Italie. Le Garante a tweeté : « #GarantePrivacy reconnaît les avancées réalisées par #OpenAI pour concilier les avancées technologiques avec le respect des droits des personnes et espère que l’entreprise poursuivra ses efforts pour se conformer à la législation européenne sur la protection des données. » Pour se conformer à la demande du Garante, OpenAI a fait ce qui suit  : Capture d’écran de ChatGPT, avril 2023 Bien qu’OpenAI ait résolu cette plainte, ce n’est pas le seul obstacle législatif auquel les entreprises d’IA sont confrontées dans l’UE.

La loi sur l’IA se rapproche de devenir une loi

Une récente lettre ouverte à tous les laboratoires d’IA du FLI pour suspendre le développement de l’IA pendant six mois a reçu plus de 27 000 signatures. Les noms notables soutenant la pause incluent Elon Musk, Steve Wozniak et Yoshua Bengio.

Comment la loi sur l’IA pourrait-elle avoir un impact sur l’IA générative ?

En vertu de la loi européenne sur l’IA, la technologie de l’IA serait classée par niveau de risque. Les outils qui pourraient avoir un impact sur la sécurité et les droits humains, tels que la technologie biométrique, devraient se conformer à des réglementations plus strictes et à une surveillance gouvernementale. Les outils d’IA générative devraient également divulguer l’utilisation de matériel protégé par le droit d’auteur dans les données de formation. Compte tenu des poursuites en cours concernant le code open source et l’art protégé par le droit d’auteur utilisé dans les données de formation par GitHub Copilot, StableDiffision et d’autres, ce serait un développement particulièrement intéressant. Comme pour la plupart des nouvelles législations, les entreprises d’IA encourront des coûts de mise en conformité pour s’assurer que les outils répondent aux exigences réglementaires. Les grandes entreprises seront en mesure d’absorber les coûts supplémentaires ou de les répercuter sur les utilisateurs que les petites entreprises, ce qui pourrait entraîner moins d’innovations par les entrepreneurs et les startups sous-financées. Image en vedette : 3rdtimeluckystudio/Shutterstock