OpenAI, créateurs de ChatGPT, s'engage à développer des systèmes d'IA sûrs

OpenAI a publié un nouveau billet de blog s’engageant à développer une intelligence artificielle (IA) sûre et largement bénéfique. ChatGPT, optimisé par le dernier modèle d’OpenAI, GPT-4, peut améliorer la productivité, renforcer la créativité et fournir des expériences d’apprentissage personnalisées. Cependant, OpenAI reconnaît que les outils d’IA comportent des risques inhérents qui doivent être traités par des mesures de sécurité et un déploiement responsable. Voici ce que l’entreprise fait pour atténuer ces risques.

Assurer la sécurité des systèmes d’IA

OpenAI effectue des tests approfondis, recherche des conseils externes auprès d’experts et affine ses modèles d’IA avec des commentaires humains avant de publier de nouveaux systèmes. La sortie de GPT-4, par exemple, a été précédée de plus de six mois de tests pour garantir sa sécurité et son alignement avec les besoins des utilisateurs. OpenAI estime que les systèmes d’IA robustes doivent être soumis à des évaluations de sécurité rigoureuses et soutient la nécessité d’une réglementation.

Apprendre de l’utilisation dans le monde réel

L’utilisation dans le monde réel est un élément essentiel du développement de systèmes d’IA sûrs. En publiant prudemment de nouveaux modèles à une base d’utilisateurs en expansion progressive, OpenAI peut apporter des améliorations qui résolvent des problèmes imprévus. En proposant des modèles d’IA via son API et son site Web, OpenAI peut surveiller les abus, prendre les mesures appropriées et développer des politiques nuancées pour équilibrer les risques.

Protéger les enfants et respecter la vie privée

OpenAI donne la priorité à la protection des enfants en exigeant la vérification de l’âge et en interdisant l’utilisation de sa technologie pour générer du contenu préjudiciable. La confidentialité est un autre aspect essentiel du travail d’OpenAI. L’organisation utilise les données pour rendre ses modèles plus utiles tout en protégeant les utilisateurs. De plus, OpenAI supprime les informations personnelles des ensembles de données de formation et affine les modèles pour rejeter les demandes d’informations personnelles. OpenAI répondra aux demandes de suppression d’informations personnelles de ses systèmes.

Améliorer la précision factuelle

La précision factuelle est un objectif important pour OpenAI. GPT-4 est 40 % plus susceptible de produire un contenu précis que son prédécesseur, GPT-3.5. L’organisation s’efforce d’éduquer les utilisateurs sur les limites des outils d’IA et la possibilité d’inexactitudes.

Recherche et engagement continus

OpenAI croit en l’importance de consacrer du temps et des ressources à la recherche d’atténuations et de techniques d’alignement efficaces. Cependant, ce n’est pas quelque chose qu’il peut faire seul. La résolution des problèmes de sécurité nécessite un débat, une expérimentation et un engagement approfondis entre les parties prenantes. OpenAI reste déterminé à favoriser la collaboration et le dialogue ouvert pour créer un écosystème d’IA sûr.

Critiques sur les risques existentiels

@OpenAI trahit son… — Geoffrey Miller (@primalpoly) 5 avril 2023 Un autre utilisateur a exprimé son mécontentement face à l’annonce Bien que l’annonce d’OpenAI souligne son engagement en matière de sécurité, de confidentialité et d’exactitude, il est essentiel de reconnaître la nécessité de poursuivre les discussions pour répondre à des préoccupations plus importantes. Image en vedette : TY Lim/Shutterstock

Source : OpenAI