Google dit qu'il classe le contenu généré par l'IA comme "spam"

Le patron de tout le monde, l’algorithme de Google, classe le contenu généré par l’IA comme spam. John Mueller, l’autorité SEO de Google, a résolu le problème en s’exprimant lors d’un récent « Hangout Google Search Central SEO pendant les heures de bureau ».

Selon un rapport de Matt Southern du Search Engine Journal, Mueller dit que GPT-3 et d’autres générateurs de contenu ne sont pas considérés comme des contenus de qualité, aussi convaincants soient-ils : ceux-ci tomberaient essentiellement dans la catégorie des contenus générés automatiquement qui sont quelque chose que nous avons dans les Consignes aux webmasters depuis presque le début. Je soupçonne que la qualité du contenu est peut-être un peu meilleure que celle des outils de la très vieille école, mais pour nous, il s’agit toujours de contenu généré automatiquement, ce qui signifie que pour nous, il est toujours contraire aux consignes aux webmasters. Nous considérons donc qu’il s’agit de spam.

Le rapport de Southern souligne que cela a pratiquement toujours été le cas. Pour le meilleur ou pour le pire, Google penche pour le respect du travail des écrivains humains. Et cela signifie réduire au minimum le contenu généré par les bots.

Mais pourquoi? Jouons un instant à l’avocat du diable. Pour qui Google et John Mueller se prennent-ils ? Si je suis un éditeur, ne devrais-je pas avoir le droit d’utiliser tous les moyens que je veux pour générer du contenu ? La réponse est oui, avec une tasse de thé sur le côté. Le marché peut certainement déterminer s’il veut des informations avisées d’experts humains ou… tout ce qu’une IA peut halluciner.

Mais cela ne signifie pas que Google doit le supporter. Il ne devrait pas non plus. Aucune société avec des actionnaires sains d’esprit n’autoriserait le contenu généré par l’IA à représenter sa section « actualités ».

Il n’y a tout simplement aucun moyen de vérifier l’efficacité d’un rapport généré par l’IA à moins que vous n’ayez des journalistes capables de vérifier tout ce que l’IA affirme. Et cela, chers lecteurs, est une plus grande perte de temps et d’argent que de simplement laisser les humains et les machines travailler en tandem dès le début d’un contenu. La plupart des journalistes humains utilisent un certain nombre d’outils technologiques pour faire leur travail.

Nous utilisons des correcteurs orthographiques et grammaticaux pour essayer d’éliminer les fautes de frappe avant de rendre notre copie. Et le logiciel que nous utilisons pour formater et publier notre travail a généralement une douzaine de plug-ins manipulant le référencement, les balises et autres marques numériques pour nous aider à atteindre le bon public. Mais, en fin de compte, la diligence raisonnable revient à la responsabilité humaine.

Et jusqu’à ce qu’une IA puisse être tenue responsable de ses erreurs, Google rend service à tout le monde en marquant tout ce que les machines ont à dire comme spam. Il y a, bien sûr, de nombreuses mises en garde. Google permet à de nombreux éditeurs d’utiliser des résumés d’articles de presse générés par l’IA ou d’utiliser des agrégateurs d’IA pour publier des publications.

Essentiellement, le grand G veut juste s’assurer qu’il n’y a pas de mauvais acteurs qui génèrent de faux articles d’actualités pour le référencement des jeux pour les succès publicitaires. Vous n’avez pas besoin d’aimer les médias grand public pour savoir que les fausses nouvelles sont mauvaises pour l’humanité. Vous pouvez regarder l’intégralité du Hangout ci-dessous .

Tags: