OpenAI arrête un détecteur d'IA défectueux

OpenAI a abandonné son classificateur d’IA, un outil conçu pour identifier le texte généré par l’IA, suite à des critiques sur sa précision. La résiliation a été subtilement annoncée via une mise à jour d’un article de blog existant. L’annonce d’OpenAI se lit comme suit  : « Depuis le 20 juillet 2023, le classificateur AI n’est plus disponible en raison de son faible taux de précision. Nous nous efforçons d’intégrer les commentaires et recherchons actuellement des techniques de provenance plus efficaces pour le texte. Nous nous sommes engagés à développer et à déployer des mécanismes permettant aux utilisateurs de comprendre si le contenu audio ou visuel est généré par l’IA. »

L’ascension et la chute du classificateur d’OpenAI

L’outil a été lancé en mars 2023 dans le cadre des efforts d’OpenAI pour développer des outils de classification d’IA qui aident les gens à comprendre si le contenu audio ou visuel est généré par l’IA. Il visait à détecter si des passages de texte avaient été écrits par un humain ou une IA en analysant les caractéristiques linguistiques et en attribuant une « cote de probabilité ». L’outil a gagné en popularité mais a finalement été abandonné en raison de lacunes dans sa capacité à différencier l’écriture humaine de l’écriture machine.

Douleurs croissantes pour la technologie de détection de l’IA

L’arrêt brutal du classificateur de texte d’OpenAI met en évidence les défis permanents du développement de systèmes de détection d’IA fiables. Les chercheurs avertissent que des résultats inexacts pourraient entraîner des conséquences inattendues s’ils sont déployés de manière irresponsable. Kristi Hines du Search Engine Journal a récemment examiné plusieurs études récentes révélant des faiblesses et des biais dans les systèmes de détection d’IA. Les chercheurs ont découvert que les outils qualifiaient souvent à tort le texte écrit par l’homme comme étant généré par l’IA, en particulier pour les anglophones non natifs. Ils soulignent que les progrès continus de l’IA nécessiteront des progrès parallèles dans les méthodes de détection pour garantir l’équité, la responsabilité et la transparence. Cependant, les critiques affirment que le développement de l’IA générative dépasse rapidement les outils de détection, permettant une évasion plus facile.

Dangers potentiels d’une détection d’IA non fiable

Les experts mettent en garde contre le recours excessif aux classificateurs actuels pour les décisions à enjeux élevés comme la détection du plagiat universitaire. Conséquences potentielles de l’utilisation de systèmes de détection d’IA inexacts  :

  • Accuser injustement des écrivains humains de plagiat ou de tricherie si le système signale par erreur leur travail original comme étant généré par l’IA
  • Permettre au contenu plagié ou généré par l’IA de ne pas être détecté si le système ne parvient pas à identifier correctement le texte non humain
  • Renforcer les biais si l’IA est plus susceptible de classer à tort les styles d’écriture de certains groupes comme non humains
  • Diffuser des informations erronées si un contenu fabriqué ou manipulé n’est pas détecté par un système défectueux

En résumé

Alors que le contenu généré par l’IA se généralise, il est crucial de continuer à améliorer les systèmes de classification pour renforcer la confiance. OpenAI a déclaré qu’il restait dédié au développement de techniques plus robustes pour identifier le contenu de l’IA. Cependant, l’échec rapide de son classificateur démontre que la mise au point d’une telle technologie nécessite des progrès significatifs. Image en vedette : photosince/Shutterstock