Mueller de Google sur l'hébergement partagé et l'impact du classement

Une récente étude SEO a cherché à découvrir s’il y avait un impact négatif sur le classement des sites hébergés en mutualisation. John Mueller a donné son opinion sur les résultats des tests.

Recherche sur l’hébergement Web et le classement

Les auteurs du rapport suggèrent que Google utiliserait peut-être la présence de sites de spam sur un serveur partagé comme un signal de qualité négativeco / XAQHwgyG00

Méthodologie d’étude des hôtes partagés

Les auteurs de l’étude se sont donné beaucoup de mal pour protéger leurs sites Web de toute interférence extérieure. Ils ont assuré que rien n’affectait les résultats de l’étude autre que les événements naturels de les publier tous en même temps pour indexation par Google.La méthodologie reposait sur une ancienne approche de recherche qui utilise un mot-clé inventé qui n’a jamais existé en ligne auparavant. impression. Le terme de recherche créé est le mot-clé artificiel inventé, hegenestio.

Résultats de l’étude de recherche sur les hôtes partagés

»Ensuite selon les données de l’expérience, roi plus haut dans les SERP pourrait très bien être l’un d’entre eux. »Les auteurs de la recherche SEO couvrent leurs déclarations avec des mots comme« pourrait très bien », ce qui rend les déclarations moins concluantes. Il faut se demander, est-ce que les auteurs ont découvert quelque chose ou fait la couverture indiquer que tout cela est juste un appât pour les liens?

Commentaires de John Mueller de Google sur l’étude

»John Mueller a tweeté cette réponse : « Êtes-vous en train de dire que ce qui fonctionne pour des mots-clés inventés sur des sites Web artificiels fonctionnera pour un site Web dans un créneau actif? Cela semble assez difficile. (Même en dehors des aspects techniques de «qu’est-ce que l’hébergement mutualisé de toute façon» – AWS est un hébergement mutualisé) »Mueller de Google a poursuivi avec ce tweet: »Je ne connais aucun algorithme de classement qui tiendrait compte de telles adresses IP. Regardez Blogger, il y a d’excellents sites hébergés là-bas qui fonctionnent bien (en ignorant les limitations sur la page, etc.), il y a des sites terribles hébergés là-bas. C’est la même infrastructure, les mêmes adresses IP. »

Problème avec les études SEO basées sur des mots inventés

Un problème avec les études qui utilisent des mots absurdes réside dans la manière dont les algorithmes de Google réagissent aux expressions de mots clés inexistantes diffère de ce qu’ils répondent aux expressions de mots clés réels. Les algorithmes de Google tentent de comprendre le sens d’un mot. Il s’appuie sur le langage pour classer les pages Web. Donc, évidemment, sans langage, sans compréhension, l’algorithme ne peut pas démarrer comme il le fait normalement. Il ne reste plus qu’à Google de recourir à une simple correspondance de mots. Et ce n’est pas l’algorithme de classement régulier de Google, c’est donc un peu exagéré de supposer que les résultats d’un test qui utilise un mot inventé vont refléter ce que fait l’algorithme de classement régulier de Google.PublicitéContinuer la lecture ci-dessousC’est une mise en garde importante contre l’utilité du étude.

Auteurs de recherche Définition du mauvais voisinage

Un problème avec le test est qu’il semble que les auteurs peuvent mal comprendre ce que signifie le terme SEO Bad Neighborhood.Selon l’article :«MAUVAIS QUARTIER

selon laquelle l’hébergement Web est lié aux «mauvais quartiers» est incorrecte.

Cyrus Shepard change d’avis

et mon tweet s’est extrapolé trop loin (la plupart des hébergements mutualisés conviennent – vous éviteriez probablement les opérateurs bon marché / spammeurs). Les données cependant… »

Les études de recherche peuvent être problématiques

professeur adjoint à l’UCLA et associé et responsable de la production à Amplitude Digital (@AmplitudeAgency) à propos de cette étude et il a offert cet avis: et la théorie du mauvais voisinage a fait le tour des cercles de référencement pendant des années, mais je n’ai jamais eu l’impression qu’elle contenait beaucoup d’eau.Bien que le test de redémarrage ait fait des efforts extraordinaires pour exclure des possibilités connues telles que la vitesse du site, je pense toujours qu’il souffre d’un biais de confirmation. Je recommande vivement un article que Jeff a écrit sur le sujet de la recherche SEO intitulé, Avons-nous les mathématiques pour vraiment décoder les algorithmes de Google? (lien à la fin de cet article)

Insights et études SEO

Ce n’est pas mon avis, c’est une déclaration de fait tirée de mon expérience réelle. Le seul moment où l’hébergement partagé devient problématique, c’est quand un site connaît un grand succès. C’est pourquoi je paie également pour des serveurs dédiés. Les serveurs partagés ne peuvent pas gérer les sites Web à très fort trafic. Je peux le dire en toute confiance car j’ai été expulsé d’un serveur partagé parce que le trafic élevé de mon site a ralenti le serveur au point que le site de tout le monde a généré 500 erreurs. Donc, vous savez.. Parlant d’expérience.Si vous débutez ou n’avez pas de trafic excessif, il est parfaitement normal de le mettre sur un hébergeur partagé puis de le mettre à niveau lorsque vous le dépassez. Dans mon expérience professionnelle, basé sur ce que je sachez, je suis d’accord avec ce que John Mueller a suggéré, à savoir que les éditeurs devraient héberger «là où cela a du sens» pour eux.

Citations

Avons-nous les moyens de décoder véritablement les algorithmes de Google?

Tags: ,