John Mueller de Google sur 404ing ou en utilisant Rel Canonical sur les paramètres d'URL

Il y a une réponse intéressante de John Mueller de Google sur ce qu’il faut faire avec les URL qui peuvent apparaître en double à cause des paramètres d’URL, comme les UTM, à la fin des URL. John a dit qu’il ne fallait absolument pas 404 ces URL, ce avec quoi personne ne contesterait. Mais il a également dit que vous pouvez utiliser le rel=canonical car c’est pour cela qu’il a été conçu.

Le plus important est qu’il a dit que cela n’avait probablement pas d’importance pour le référencement.Maintenant, j’ai dû lire la réponse de John plusieurs fois sur Reddit et peut-être que j’interprète mal la dernière partie, alors aidez-moi ici.Voici la question :Bonjour ! Nouveau dans la communauté mais dans le référencement depuis environ 5 ans.

J’ai commencé un nouveau travail en tant que seul responsable SEO et je pense au budget de crawl. Il y a environ 20 000 URL non indexées explorées par rapport aux 2 000 qui sont explorées et indexées – ce n’est pas dû à une erreur, mais en raison du nombre élevé d’URL spécifiques à l’UTM/de la campagne et (intentionnellement) aux pages 404. J’espérais équilibrer un peu ce budget d’exploration et supprimer les URL UTM/campagne de l’exploration via robots.

txt et en transformant certains des 404 en 410 (cela aiderait également à la santé globale du site). Quelqu’un peut-il m’aider à comprendre si cela pourrait être une bonne idée/pourrait potentiellement causer des dommages ? Réponse 404 de John  : Les pages qui n’existent pas devraient renvoyer 404. Vous ne gagnez rien en termes de référencement pour les rendre 410.

La seule raison pour laquelle j’ai entendu dire que je pouvais suivre est que cela facilite la reconnaissance des 404 accidentels par rapport aux pages supprimées connues en tant que 410. (IMO si vos pages importantes deviennent accidentellement 404, vous le remarquerez probablement rapidement quel que soit le code de résultat) Réponse canonique de John  : pour les paramètres UTM, je définirais simplement le rel-canonical et les laisserais tranquilles. Le rel canonique ne les fera pas tous disparaître (ni robots.

txt), mais c’est une approche plus propre que le blocage (c’est pour cela que le rel canonique a été conçu, essentiellement). D’accord, jusqu’à présent. ).

Le rel-canonical sur les URL UTM est certainement une solution plus propre que de les laisser s’accumuler et s’épanouir d’elles-mêmes. Corriger cela tôt signifie que vous n’obtiendrez pas 10 générations de référenceurs qui vous informeront du « problème de contenu en double » (qui n’est pas un problème là-bas de toute façon s’ils ne sont pas indexés ; et quand ils sont indexés, ils sont abandonnés en tant que doublons de toute façon), donc je suppose que c’est un bon investissement dans votre future utilisation du temps 🙂 Donc, Google gérera probablement les URL en double, les paramètres UTM de toute façon, même s’ils les indexent. Mais pour faire plaisir aux consultants SEO,? C’est ce qu’il dit ici ? J’aime cette réponse, si c’est son message – mais peut-être que je me suis trompé? Discussion sur le forum de Reddit.

Tags: