Essayer d’optimiser votre site par les moteurs de recherche peut parfois donner l’impression de lire une boule de cristal. Chaque propriétaire de site Web veut savoir ce qu’il faut pour se classer en tête des résultats de recherche, mais malgré les communications périodiques des sociétés de recherche et les meilleurs efforts des experts en référencement, il est toujours difficile de dire exactement comment tout cela fonctionne. C’est parce que les algorithmes les sociétés de recherche utilisent pour déterminer le classement sont complexes, et elles ne sont devenues plus complexes au fil du temps, car les changements sont superposés dans un jeu du chat et de la souris en constante évolution entre les sociétés de recherche et les propriétaires de sites Web essayant de découvrir des failles qui les aident à obtenir de meilleurs résultats rang. En conséquence, les sociétés de recherche sont généralement assez discrètes sur le fonctionnement exact de leurs algorithmes. Google domine la recherche depuis les années 1990 et la société continue d’être le plus grand acteur aujourd’hui. De plus, 41 pour cent de la population mondiale – plus de 3 milliards d’utilisateurs – utilisent les navigateurs Chrome, selon une étude récente d’Atlas VPN. Plus récemment, les préoccupations concernant la confidentialité ont légèrement modifié le paysage, car les sociétés de recherche moins gourmandes en données telles que DuckDuckGo gagne des parts de marché. Mais ces changements sont faibles par rapport à la domination de Google. Le rôle de l’optimiseur de moteur de recherche lui-même a également évolué, commençant par un poste principalement non technique axé sur la rédaction de contenu et la création de liens, vers un poste profondément technique, avec un ensemble de compétences plus proche de celui d’un ingénieur. Dans son itération actuelle, le domaine est plus complexe que jamais, obligeant les travailleurs à utiliser leurs compétences en contenu parallèlement à leurs capacités techniques. Cela dit, il y a beaucoup à gagner à maîtriser quelques bases simples. Voici ce que vous devez savoir pour commencer.EN SAVOIR PLUS SUR SEO13 Méthodes efficaces pour améliorer votre stratégie de référencement
Un contenu de qualité reste le premier pilier du référencement
Kate Neuens, qui travaille en tant que responsable de l’optimisation des moteurs de recherche, a déclaré qu’il existe trois piliers principaux du référencement. Le premier pilier est la création de contenu, appelée « référencement sur la page ». Lorsque Neuens a commencé dans l’industrie en 2012, elle s’est principalement concentrée sur ce domaine, créant du contenu sur une variété de sujets pour son entreprise afin que son site soit classé pour différents termes de recherche. Neuens a commencé à travailler dans le référencement à un moment intéressant. Google venait de pousser l’une de ses plus grandes mises à jour d’algorithme de recherche, modifiant ses critères de classement pour décourager les sites Web essayant de jouer avec l’algorithme. Avant la mise à jour de 2011 – appelée mise à jour Panda, du nom de son ingénieur en chef – le travail de référencement était beaucoup plus un Far West. Les gens se sont appuyés sur des astuces bon marché pour classer leurs sites Web, souvent au détriment de fournir des résultats utiles à l’utilisateur. « Il y avait du plagiat, des gens volaient simplement le contenu d’autres personnes et le mettaient sur leurs sites Web pour les aider à se classer. » Un L’approche consistait à regrouper autant de termes de recherche que possible dans un article, dans l’espoir que le classement augmenterait avec le nombre de correspondances de mots clés. Cette pratique, connue sous le nom de « bourrage de mots clés », a souvent entraîné une écriture guindée et remplie de mots clés répétitifs, et même de mots clés cachés intégrés dans la structure des pages Web. « Les gens ne faisaient que pomper du contenu de mauvaise qualité », a déclaré Neuens. « Il y avait du plagiat, des gens volaient simplement le contenu d’autres personnes et le mettaient sur leurs sites Web pour les aider à se classer. » Le but de la mise à jour de Panda était de dévaluer le contenu de mauvaise qualité et de récompenser le contenu de haute qualité, déterminé par la profondeur et l’étendue des sujets abordés, a-t-elle déclaré. Des tactiques telles que le plagiat de contenu et le bourrage de mots clés ne fonctionnaient plus, ce qui a obligé les stratégies de référencement à se concentrer davantage sur la fourniture de réponses utiles aux recherches des utilisateurs.
Les liens de haute qualité sont toujours importants pour le référencement
Le deuxième pilier du référencement est la création de liens, également appelée « référencement hors page ». Initialement, le classement d’un site Web dans la recherche Google était déterminé par un algorithme qui mesurait sa popularité en examinant les autres sites qui y sont liés : combien de sites sont liés à vous et à quel point ces sites sont-ils populaires ? L’algorithme, appelé algorithme PageRank, était le premier algorithme de recherche de Google, et il a été développé en tant que projet de recherche par ses fondateurs pendant leur séjour à l’Université de Stanford. L’algorithme PageRank signifiait qu’en plus du contenu de qualité, le classement de recherche était déterminé par le nombre et la qualité des autres sites Web renvoyant au vôtre. Mais les propriétaires de sites Web ont pu profiter du PageRank et augmenter artificiellement leur classement de recherche en créant leurs propres liens. ou acheter des liens – vers leur site. Bien que la qualité de ces liens ne soit peut-être pas très bonne, la quantité pourrait tout de même avoir un effet significatif sur le classement. « Les liens sont toujours très précieux et très importants, mais ils ne vous mèneront que jusqu’à présent. » En 2012, l’année Neuens a commencé à travailler dans le référencement, Google a lancé sa mise à jour Penguin, qui a ajusté la façon dont son algorithme a pris en compte les liens lors du classement des résultats. Après la mise à jour, le référencement hors page était toujours important, mais il est devenu plus difficile de jouer avec l’algorithme en achetant des liens vers des sites Web. n’est-ce pas ?’ », a déclaré Neuens. « Je pense donc qu’il y a cette association historique – le référencement équivaut à créer des liens pour votre site Web. Je ne veux pas le minimiser – les liens sont toujours très précieux et très importants, mais ils ne vous mèneront que jusqu’à présent. »
Traitement du langage naturel Correspondance améliorée de la recherche de mots clés
La mise à jour Hummingbird de Google est arrivée en 2013. C’était une autre mise à jour importante qui a changé la façon dont les termes de recherche des utilisateurs étaient interprétés par l’algorithme. À l’origine, la recherche ne prenait en compte que les correspondances de mots exacts, mais la mise à jour Hummingbird a utilisé les avancées du traitement du langage naturel pour correspondre à l’intention derrière la recherche d’un utilisateur, plutôt qu’aux mots exacts. L’algorithme est devenu bien meilleur en utilisant le contexte pour déchiffrer ce que l’utilisateur voulait trouver. « Je me souviens, j’étais très concentré, quand j’écrivais un article, sur un mot-clé – comme si je devais utiliser cette correspondance exacte du mot-clé », a déclaré Neuens à propos de son travail dans le référencement avant la mise à jour de Hummingbird. « Et c’était un changement vraiment intéressant dans l’algorithme… Google comprenait mieux qu’avocat et avocat signifient la même chose, fondamentalement, lorsque les gens recherchent. » « Google devenait beaucoup mieux à comprendre cet avocat et cet avocat. signifie la même chose. » L’amélioration de la compréhension de l’algorithme de la signification des mots signifiait que la rédaction de contenu pour le référencement n’était pas aussi encadrée qu’avant. Neuens a estimé que les changements lui ont permis de se concentrer davantage sur le fait de rendre son écriture meilleure et plus utile pour le lecteur. « Je pensais donc que je n’avais vu que des changements de comportement positifs de ma part », a-t-elle déclaré. « Cela vous a également permis de vous concentrer un peu plus sur : « D’accord, à quoi les gens essaient-ils d’obtenir des réponses lorsqu’ils recherchent des requêtes ? » Vous avez donc dû réfléchir un peu plus lorsque vous écrivez des articles. »
Le référencement technique est une question d’expérience utilisateur
Le troisième pilier du référencement est connu sous le nom de référencement technique. Au lieu de contenu ou de liens, le référencement technique concerne la structure des sites Web et la manière dont les sites Web sont construits. La recherche est possible car Google utilise des robots pour explorer et indexer Internet. Ensuite, lorsque les utilisateurs soumettent des recherches, les algorithmes de recherche font correspondre les termes de recherche des utilisateurs avec les informations que Google a indexées à partir de sites Web. Mais lorsque les robots de Google effectuent initialement l’indexation, ils ne voient pas tout sur les sites Web exactement comme le font les utilisateurs – le contenu qui prend plus de temps à charger car il est chargé à l’aide de JavaScript peut être ignoré. C’est pourquoi les propriétaires de sites Web doivent se demander si la façon dont ils chargent les pages est propice à un bon référencement. « Quand je pense à l’avenir du référencement, je vois le référencement technique devenir de plus en plus important. » Le référencement technique n’était pas une considération importante pour le classement il y a des années, mais cela change rapidement. L’année dernière, Google a annoncé que des facteurs tels que la vitesse de chargement des pages et le changement de contenu joueront un rôle important dans le classement de recherche à partir de juin 2021. Cela signifie que l’expérience utilisateur liée au polissage et à la vitesse d’un site Web sera utilisée pour déterminer le classement. Je pense à l’avenir du référencement, je vois le référencement technique devenir de plus en plus important », a déclaré Neuens. « Je pense qu’ils accordent beaucoup plus d’importance à cela, ce qui nécessite simplement un niveau de connaissances techniques plus approfondi. » Cela peut également être une bonne idée pour les responsables SEO de garder un œil sur la qualité du développement Web, car un code désordonné peut ont de réelles répercussions sur le classement. « Une autre partie du référencement technique consiste simplement à avoir un code vraiment propre pour votre site Web », a déclaré Neuens. « Il y a tellement de sites Web surchargés de JavaScript et de CSS inutilisés. Fournir un code propre – la page se charge plus rapidement et il est plus facile pour un bot d’explorer. »EN SAVOIR PLUS SUR LE SEOIs SEO Dead?
L’expérience mobile devient plus importante
Le référencement a commencé à évoluer vers la recherche mobile il y a quelques années. En septembre dernier, Google est passé à l’utilisation d’une approche mobile d’abord pour déterminer le classement de toutes les recherches, ce qui signifie que les sites Web d’indexation des robots ne chargeraient que les pages mobiles. Google a fait le changement car plus de ses recherches sont effectuées sur des appareils mobiles que sur des ordinateurs de bureau ou portables traditionnels.. Certains sites Web ont dû s’adapter rapidement, car l’effort consacré à l’expérience utilisateur pour mobile a tendance à être à la traîne par rapport aux autres appareils. Vers 2016, un nouveau type de résultat de recherche a commencé à apparaître : des « cartes riches » centrées sur l’image qui utilisent plus d’espace à l’écran et sont affichés bien en vue en haut des pages de résultats de recherche, souvent vus après la recherche de sujets tels que les recettes. Google a introduit ce nouveau type de résultat de recherche pour offrir une expérience visuellement plus attrayante aux utilisateurs mobiles. Les cartes riches ont forcé les responsables du référencement à prendre en compte un nouveau facteur : afin d’être dans la course pour ce type d’immobilier de premier choix, les propriétaires de sites Web doivent fournir des balises spécifiques – appelées « balisages de données structurées » – aux robots qui explorent et indexent Internet. En fin de compte, c’est juste une autre façon dont les propriétaires de sites Web doivent réfléchir à la façon dont ils effectuent le référencement. Avoir un bon résultat de carte riche peut vraiment affecter le trafic, et c’est une opportunité pour les sites Web de communiquer directement avec les robots d’exploration sur ce par quoi leur contenu doit être recherché. Aujourd’hui, le référencement met l’accent sur l’expertise technique et la capacité de programmation. Les responsables SEO doivent travailler en étroite collaboration avec les développeurs pour s’assurer que leurs sites sont accessibles aux robots et pour offrir une expérience utilisateur exceptionnelle. Cette tendance ne sera probablement que plus prononcée à l’avenir, car les moteurs de recherche continuent de rendre les expériences de recherche plus rapides, plus fluides et plus précises pour les utilisateurs.