Maintenant disponible dans ChatGPT et Bing

OpenAI vient de publier son dernier modèle d’IA, GPT-4, qui présente des performances de niveau humain sur diverses références professionnelles et académiques. GPT-4 est un grand modèle multimodal qui peut accepter des entrées d’image et de texte et générer des sorties de texte. Dans cet article, nous examinerons les capacités, les limites et les risques liés à son utilisation de GPT-4. À la fin, vous comprendrez mieux l’impact potentiel de GPT-4 et ce dont il est et n’est pas capable.

Capacités

Les capacités de GPT-4 sont une amélioration par rapport au modèle précédent, GPT-3.5, en termes de fiabilité, de créativité et de gestion des instructions nuancées. OpenAI a testé le modèle sur diverses références, y compris des examens simulés conçus pour les humains, et a constaté que GPT-4 surpassait les grands modèles de langage existants. Il fonctionne également bien dans des langues autres que l’anglais, y compris les langues à faibles ressources telles que le letton, le gallois et le swahili.

Entrées visuelles

GPT-4 peut accepter à la fois du texte et des images en entrée, ce qui le rend capable de générer des sorties de texte basées sur des entrées composées à la fois de texte et d’images. Bien que la capacité d’entrée visuelle du modèle soit encore au stade de l’aperçu de la recherche, elle a montré des capacités similaires aux entrées de texte uniquement.

Pilotabilité

OpenAI a travaillé sur chaque aspect du plan décrit dans son article sur la définition du comportement des IA, y compris la dirigeabilité. Les développeurs peuvent désormais prescrire le style et la tâche de leur IA en décrivant les instructions dans le message « système ». Les utilisateurs d’API peuvent personnaliser l’expérience de leurs utilisateurs dans certaines limites, ce qui permet une personnalisation importante.

Limites

GPT-4 n’est pas parfait et présente des limitations similaires à celles des modèles GPT précédents. Il peut toujours « halluciner » des faits et faire des erreurs de raisonnement, il convient donc d’être prudent lors de l’utilisation des sorties du modèle de langage, en particulier dans des contextes à enjeux élevés. GPT-4 ne connaît pas les événements après septembre 2021, ce qui peut l’amener à faire de simples erreurs de raisonnement et à accepter de fausses déclarations comme vraies. Il peut également échouer à des problèmes difficiles comme les humains, tels que l’introduction de problèmes de sécurité dans son code. GPT-4 peut faire des prédictions sûres mais incorrectes et ne vérifie pas toujours soigneusement son travail. Fait intéressant, le modèle de base est bon pour prédire l’exactitude de ses réponses, mais cette capacité est réduite après la post-formation.

Risques et atténuations

Bien que les capacités de GPT-4 soient importantes, elles présentent de nouveaux risques, tels que la génération de conseils nuisibles, de code bogué ou d’informations inexactes. OpenAI s’est efforcé d’atténuer ces risques, en s’engageant avec plus de 50 experts pour tester le modèle de manière contradictoire et en collectant des données supplémentaires pour améliorer la capacité de GPT-4 à refuser les demandes dangereuses. En conséquence, OpenAI a apporté de nombreuses améliorations à GPT-4 pour le rendre plus sûr que GPT-3.5. GPT-4 est 82 % moins susceptible de fournir un contenu inapproprié que la version précédente, et il suit mieux les politiques concernant les sujets sensibles tels que les conseils médicaux et l’automutilation. Alors qu’OpenAI a rendu le modèle plus résistant aux mauvais comportements, la génération de contenu qui va à l’encontre des règles d’utilisation est toujours possible. GPT-4 peut être utile ou nuisible à la société, dit OpenAI, donc il travaille avec d’autres chercheurs pour comprendre les impacts potentiels.

Processus de formation

Comme les modèles GPT précédents, le modèle de base GPT-4 a été formé pour prédire le mot suivant dans un document à l’aide de données accessibles au public et de données sous licence OpenAI. Le réglage fin du comportement du modèle à l’aide de l’apprentissage par renforcement avec rétroaction humaine (RLHF) l’aligne sur l’intention de l’utilisateur dans les garde-corps.

Mise à l’échelle prévisible

Un objectif important du projet GPT-4 a été de créer une pile d’apprentissage en profondeur qui évolue de manière prévisible. OpenAI a développé une infrastructure et une optimisation avec un comportement prévisible à plusieurs échelles et peut prédire avec précision la perte finale de GPT-4 pendant la formation.

Disponibilité

Microsoft confirme que la nouvelle expérience de recherche Bing fonctionne désormais sur GPT-4. Bien qu’il ait une limite d’utilisation, vous pouvez également accéder à GPT-4 avec un abonnement ChatGPT Plus. OpenAI peut ajuster le plafond d’utilisation en fonction de la demande et des performances du système. La société envisage d’ajouter un autre niveau d’abonnement pour permettre une utilisation accrue du GPT-4. Pour accéder à l’API GPT-4, vous devez vous inscrire sur la liste d’attente.

Conclusion

La création de GPT-4 marque une étape importante dans les efforts d’OpenAI pour développer l’apprentissage en profondeur. Bien qu’imparfait, il a affiché des performances de niveau humain sur divers critères académiques et professionnels, ce qui en fait un outil puissant. Cependant, il convient d’être prudent lors de l’utilisation des sorties du modèle de langage dans des contextes à enjeux élevés. OpenAI s’est efforcé d’atténuer les risques et de créer une pile d’apprentissage en profondeur qui évolue de manière prévisible, ce qui sera essentiel pour les futurs systèmes d’IA. Image en vedette : Muhammad S0hail/Shutterstock

Source : OpenAI

Tags: