Mueller de Google sur l'hébergement partagé et l'impact du classement

Une récente étude SEO a cherché à découvrir s'il y avait un impact négatif sur le classement des sites hébergés en mutualisation. John Mueller a donné son opinion sur les résultats des tests.

Recherche sur l’hébergement Web et le classement

Une société de référencement a entrepris une étude à long terme pour déterminer si l'hébergement mutualisé affecte négativement le classement.L'article commence par déclarer que l'hébergement Web a des implications SEO:« … D'innombrables agences de conception Web de mauvaise qualité placeront les bénéfices sur le produit et installeront des clients avec un hébergement de niveau inférieur vendu via leurs propres comptes revendeurs… sans aucune considération pour les effets SEO à long terme potentiellement néfastes sur le site Web de leur client. » Les auteurs de l'étude révèlent qu'ils ont créé l'étude avec la préoccupation des « effets potentiellement nocifs sur le référencement » de l'hébergement partagé. « Préoccupés par les effets potentiellement néfastes sur le référencement que l'hébergement d'un site Web sur l'une de ces options d'hébergement partagé pourrait avoir sur les sites Web de milliers d'entreprises propriétaires, nous avons décidé de lancer une expérience technique de référencement pour savoir quel effet cela avait, le cas échéant Les auteurs du rapport suggèrent que Google utiliserait peut-être la présence de sites de spam sur un serveur partagé comme un signal de qualité négative.Voici leur hypothèse:« Les solutions d'hébergement partagé moins chères attirant généralement de nombreux sites Web de qualité inférieure (comme les sites Web de spam et PBN), nous nous sommes demandé s'il était possible que les algorithmes de Google considèrent l'utilisation de ce type d'hébergement comme faisant partie du modèle d'un site Web de qualité inférieure. » Donc il semble que les auteurs testent une hypothèse concernant Google, une hypothèse qui n'est basée sur aucune preuve réelle ou déclaration de Google pour y faire allusion. C’est juste une opinion sans fondement et, comme vous le verrez, elle repose également sur une mauvaise interprétation de ce qu’est un « mauvais voisinage ».L'article est devenu viral sur Twitter et Facebook, avec de nombreux référenceurs de premier plan en faisant la promotion.Méthodologie d'étude des hôtes partagés

Les auteurs de l'étude se sont donné beaucoup de mal pour protéger leurs sites Web de toute interférence extérieure. Ils ont assuré que rien n'affectait les résultats de l'étude autre que les événements naturels de les publier tous en même temps pour indexation par Google.La méthodologie reposait sur une ancienne approche de recherche qui utilise un mot-clé inventé qui n'a jamais existé en ligne auparavant. impression. Le terme de recherche créé est le mot-clé artificiel inventé, hegenestio.

Mueller de Google sur l'hébergement partagé et l'impact du classement

Résultats de l’étude de recherche sur les hôtes partagés

Les résultats de l'étude ont confirmé leur hypothèse préexistante. Ils ont découvert que l'hébergement mutualisé peut avoir un impact négatif sur les classements de recherche.Selon les auteurs de la recherche:« Les résultats de cette expérience suggèrent que les options d'hébergement partagé bon marché peuvent en fait avoir un effet néfaste sur les performances organiques et le classement des sites Web hébergés là-bas si votre site Web finit par être hébergé avec des sites de qualité inférieure et potentiellement spammeurs (à condition que tous les sites Web soient observées sont par ailleurs sur un pied d'égalité). « Curieusement, alors que les auteurs de l'étude disent que l'hébergement mutualisé » peut en fait avoir un effet néfaste « , ils désavouent en fait les résultats de leur étude dans un paragraphe suivant en déclarant « Ensuite, dans le paragraphe suivant « L'hébergement de votre site Web sur un serveur dédié et une adresse IP présente de nombreux avantages et maintenant, selon les données de l'expérience, roi plus haut dans les SERP pourrait très bien être l'un d'entre eux. « Les auteurs de la recherche SEO couvrent leurs déclarations avec des mots comme » pourrait très bien « , ce qui rend les déclarations moins concluantes. Il faut se demander, est-ce que les auteurs ont découvert quelque chose ou fait la couverture indiquer que tout cela est juste un appât pour les liens ?

Commentaires de John Mueller de Google sur l’étude

L'analyste Google Webmaster Trends, John Mueller, a tweeté que la recherche était erronée et ne reflétait pas la façon dont Google classait réellement les sites Web.Mueller a affirmé que la recherche basée sur des sites Web artificiels (une référence au mot-clé inventé utilisé dans la recherche) était défectueuse. comme celui-ci ne sont pratiquement jamais indicatifs d'un effet particulier dans la recherche Google normale. … Ce ne sont pas des données utiles. L'hôte là où cela a du sens pour vous. « Les sites Web artificiels comme celui-ci n'indiquent pratiquement jamais un effet particulier dans la recherche Google normale. C'est une expérience cool, une bonne rédaction et une bonne analyse, et j'adore quand les gens expérimentent comme ça, mais ce ne sont pas des données utiles.Hôte où cela a du sens pour vous. – 🍌 John &#x1f34c « Pourriez-vous nous présenter des données plus utiles que pour étayer vos affirmations ? »John Mueller a tweeté cette réponse: « Êtes-vous en train de dire que ce qui fonctionne pour des mots-clés inventés sur des sites Web artificiels fonctionnera pour un site Web dans un créneau actif ? Cela semble assez difficile. (Même en dehors des aspects techniques de « qu'est-ce que l'hébergement mutualisé de toute façon » – AWS est un hébergement mutualisé) « Mueller de Google a poursuivi avec ce tweet:« Je ne connais aucun algorithme de classement qui tiendrait compte de telles adresses IP. Regardez Blogger, il y a d'excellents sites hébergés là-bas qui fonctionnent bien (en ignorant les limitations sur la page, etc.), il y a des sites terribles hébergés là-bas. C'est la même infrastructure, les mêmes adresses IP. « 

Problème avec les études SEO basées sur des mots inventés

Un problème avec les études qui utilisent des mots absurdes réside dans la manière dont les algorithmes de Google réagissent aux expressions de mots clés inexistantes diffère de ce qu'ils répondent aux expressions de mots clés réels. Les algorithmes de Google tentent de comprendre le sens d'un mot. Il s'appuie sur le langage pour classer les pages Web. Donc, évidemment, sans langage, sans compréhension, l'algorithme ne peut pas démarrer comme il le fait normalement. Il ne reste plus qu'à Google de recourir à une simple correspondance de mots. Et ce n'est pas l'algorithme de classement régulier de Google, c'est donc un peu exagéré de supposer que les résultats d'un test qui utilise un mot inventé vont refléter ce que fait l'algorithme de classement régulier de Google.PublicitéContinuer la lecture ci-dessousC'est une mise en garde importante contre l'utilité du étude.

Auteurs de recherche Définition du mauvais voisinage

Un problème avec le test est qu'il semble que les auteurs peuvent mal comprendre ce que signifie le terme SEO Bad Neighborhood.Selon l'article:« MAUVAIS QUARTIER

Dans le contexte où un site Web est hébergé, un « mauvais voisinage » est communément appelé un hôte, une adresse IP et / ou un autre emplacement virtuel où une collection de sites Web de mauvaise qualité, pénalisés et / ou potentiellement problématiques (p. jeux d'argent, pharma) sont hébergés. « C'est une déclaration incorrecte. Un mauvais voisinage a toujours été compris dans le contexte des modèles de liens et du spam des sites auxquels les liens sont liés. Dans le passé, les directives aux webmasters de Google faisaient référence aux mauvais quartiers dans le contexte des modèles de liens: « Ne participez pas à des plans de liens conçus pour augmenter le classement ou le PageRank de votre site. En particulier, évitez les liens vers des spammeurs Web ou des « mauvais quartiers » sur le Web, car votre propre classement pourrait être affecté par ces liens. « PublicitéContinuer la lecture ci-dessous Matt Cutts a lui-même utilisé l'expression » mauvais quartiers « et c'était également dans le contexte de Par exemple, dans ce billet de blog de 2006, il explique pourquoi certains sites ont été supprimés de l'index de Google suite à une mise à jour appelée Big Daddy. Matt utilise l'expression « mauvais voisinage » dans le contexte des liens. « Les gens ont demandé plus de détails sur les » pages supprimées de l'index « , alors j'ai pensé que j'écrirais un aperçu de tout ce que je savais, pour avoir tout cela en un seul endroit.… Les sites… étaient des sites sur lesquels nos algorithmes avaient très peu confiance dans les liens entrants ou les liens sortants de ce site. Parmi les exemples qui pourraient en être la cause, citons des liens réciproques excessifs, des liens vers des quartiers contenant du spam sur le Web ou des achats / ventes de liens. « L'expression » mauvais voisinage « est généralement comprise dans le contexte des modèles de liens, et non de l'hébergement Web ou des adresses IP. Le contexte n'est jamais l'hébergeur Web ou l'adresse IP, contrairement à l'hypothèse mal informée des auteurs de l'étude selon laquelle l'hébergement Web est lié aux « mauvais quartiers » est incorrecte.

Cyrus Shepard change d’avis

Cyrus Shepard a changé d'avis le lendemain sur les résultats de la recherche. J'admire les gens prêts à changer d'avis. Le lendemain, il a tweeté: « Donc et mon tweet s'est extrapolé trop loin (la plupart des hébergements mutualisés conviennent – vous éviteriez probablement les opérateurs bon marché / spammeurs). Les données cependant… « 

Les études de recherche peuvent être problématiquesInsights et études SEO

Les études de référencement peuvent être problématiques. Bien que les référenceurs à l'origine de cette dernière étude se soient donné beaucoup de mal pour pare-feu le test pour l'isoler de tout ce qui pourrait biaiser les résultats, la base de l'étude elle-même était imparfaite.Le pare-feu du test n'avait pas d'importance car les études de référencement basées sur l'inexistence Les mots clés ne peuvent pas offrir des informations sur le fonctionnement réel des algorithmes de Google, pour les raisons que j'ai exposées ci-dessus et comme cela a été confirmé par John Mueller de Google Ce n’est pas mon avis, c’est une déclaration de fait tirée de mon expérience réelle. Le seul moment où l’hébergement partagé devient problématique, c’est quand un site connaît un grand succès. C’est pourquoi je paie également pour des serveurs dédiés. Les serveurs partagés ne peuvent pas gérer les sites Web à très fort trafic. Je peux le dire en toute confiance car j'ai été expulsé d'un serveur partagé parce que le trafic élevé de mon site a ralenti le serveur au point que le site de tout le monde a généré 500 erreurs. Donc, vous savez … Parlant d'expérience.Si vous débutez ou n'avez pas de trafic excessif, il est parfaitement normal de le mettre sur un hébergeur partagé puis de le mettre à niveau lorsque vous le dépassez. Dans mon expérience professionnelle, basé sur ce que je sachez, je suis d'accord avec ce que John Mueller a suggéré, à savoir que les éditeurs devraient héberger « là où cela a du sens » pour eux.

Citations

Avons-nous les moyens de décoder véritablement les algorithmes de Google ?

Array

Tags: , ,