SEO a toujours été une affaire délicate, non seulement les experts doivent passer du temps sur la recherche de mots-clés et suivre les meilleures pratiques, ils doivent être préparés aux changements inévitablement mis en place par les moteurs de recherche.

L'année dernière, le géant de la recherche Google a effectué deux mises à jour d'algorithmes majeures - Panda et Penguin - qui ont vu de nombreux sites s'effondrer, pénalisés par les nouvelles règles.

En effet, les modifications ont été mises en œuvre afin de classer les sites de mauvaise qualité, tels que les usines de contenu et les fermes de liens, et de donner plus de poids aux sites qui produisent un contenu de qualité.

Cela se fait en apportant des modifications à la façon dont les spiders de Google reconnaissent un site, en donnant de meilleurs classements aux sites avec un contenu de qualité, bien écrit et un engagement sur les réseaux sociaux. Pour les professionnels du Web, cela a créé une certaine panique, car les sites statiques qui n'étaient pas particulièrement bien écrits et remplis de mots-clés ont commencé à échouer.

Les mises à jour de Penguin et de Panda se sont appuyées sur un nouvel ensemble de règles et des algorithmes plus complexes conçus pour classer un site sur un certain nombre de facteurs différents.

Ceux-ci inclus:

  • Contenu: Les spiders de Google peuvent désormais savoir si un site est mal écrit, avec des erreurs d'orthographe et de grammaire, beaucoup d'annonces et des liens de mauvaise qualité. Ce changement est perçu comme le bienvenu pour de nombreux professionnels du SEO et du numérique, car il a immédiatement fait chuter les syndicats d'articles et de contenu de mauvaise qualité, de sorte qu'une qualité élevée puisse prendre sa place et être plus utile aux chercheurs.
  • Fraîcheur: la "fraîcheur" de la copie est devenue plus importante pour Google que les liens entrants. Cela signifie que pour concurrencer sur Google, il faut souvent ajouter de nouveaux contenus. Le classement de fraîcheur porte sur trois domaines clés: # 1: Sujets de tendance tels que les Jeux olympiques ou l'élection américaine # 2: Événements célèbres récurrents tels que le Superbowl # 3: Le contenu a été ajouté récemment.
  • Un contenu unique: avez-vous déjà copié et collé du contenu sur un site Web pour couper les coins? Maintenant, cela réduira également le classement du site. Le contenu original est l'un des aspects les plus importants de la détermination de la position. Le contenu contenant des liens non naturels sera également pénalisé, il est donc important de s'assurer que les liens apparaissent de manière organique et sont très pertinents pour le contenu. Cela ne va que devenir encore plus important que Classement de l'auteur de Google décolle.
  • Social: comme beaucoup d'entre vous le savent, le social est le nouveau marketing et est un outil très puissant pour le référencement. Google utilise désormais des résultats de recherche sociaux pour déterminer à quel point un site est utile à tous les niveaux. Il est important maintenant que les spécialistes du marketing en ligne et les experts en référencement intègrent le social, en veillant à ce que toutes les couleurs et tous les logos de la marque soient uniformes sur les réseaux sociaux et les sites Web. En outre, il est important que la présence sociale soit bien gérée. mal, le social géré par le bot nuira au classement d'un site.
  • Exemptes d'erreurs techniques: ceci est particulièrement important pour les professionnels du web et va sans aucun doute attirer l'attention de nombreux sites de blogs. Un site doté d'une architecture audio fonctionnera mieux qu'un site construit à partir de modèles, Flash ou ayant plus de deux ans. Cela signifie que le code doit être basé sur des normes avec des balises CSS valides et des métadonnées bien rangées.

Comment résoudre les problèmes liés au classement d'un site

Même certains des sites les plus importants ont été affectés par les modifications apportées aux algorithmes de Google. J'ai lu celui qui devait être supprimé afin de modifier tous les mots-clés et les pages en double.

Un site mal écrit devrait avoir tout son contenu rafraîchi, de préférence par quelqu'un qui peut écrire. Cela inclut les articles et les articles de blog, donc si un site a beaucoup de contenu comme celui-ci, il peut être préférable d'enlever tout le contenu du site et de l'ajouter à mesure que vous l'obtenez, ou du contenu différent, écrit.

Les métadonnées doivent également être propres et ordonnées et Google a tendance à ignorer les mots-clés et à se concentrer sur les descriptions ici. Bien sûr, les mots-clés ont toujours leur place et il est important de veiller à ce qu'ils soient toujours bien documentés et analysés, mais les articles et les blogs à forte densité de mots-clés risquent d'être pénalisés. C'est parce que les mots-clés, lorsqu'ils sont surutilisés, ont tendance à compromettre la qualité de l'écriture.

Panda s'est concentré sur l'élimination de ces sites qui tentaient de "tromper" ses algorithmes avec la surutilisation des mots-clés et le spamming de liens. Si vous avez déterminé qu'un site contient des liens de spam pointant vers lui, utilisez Outil de désaveu de Google , qui les enlèvera pour vous. Cependant, il est important de noter qu’un audit de site attentif doit être effectué pour identifier les mauvais liens et que cet outil doit être utilisé avec prudence.

Pour Panda, il convient également de vérifier que le contenu d’un site est unique; Il doit être unique à 60% pour l'ensemble du site et accessible afin de respecter les règles de Panda.

Penguin s'est concentré davantage sur le contenu réel et les deux algorithmes sont toujours mis à jour régulièrement afin de les affiner. Dans la plupart des cas, Penguin se concentre principalement sur le bourrage de mots clés dans les articles et les liens de spam.

Essentiellement, ils sont tous deux concernés par l’accessibilité, le contenu, les techniques de spam et les nouvelles règles conçues pour empêcher le référencement.

Qu'est ce que le black hat SEO?

Fondamentalement, il s’agit d’une manière de manipuler les moteurs de recherche de manière à ce qu’ils les «amènent» à penser qu’un site est précieux. Le chapeau noir utilise des tactiques agressives et est orienté vers le moteur de recherche plutôt que vers un public humain.

Dans les prochains articles, je vais examiner les techniques du chapeau noir, blanc et gris afin de donner un aperçu clair de ce qui peut être utilisé en toute sécurité et de ce qui est un non-non. Le problème que beaucoup ont trouvé est que certains «experts» SEO, moins réputés, ont utilisé des techniques de chapeau noir afin de gagner plus de clients et de gagner rapidement de l'argent. C'est pourquoi certains sites commerciaux ont chuté comme une pierre dans les classements, ignorant souvent qu'ils ont fait quelque chose de mal.

Les techniques de chapeau noir comprennent:

  • code d'emballage avec texte 'caché' ;
  • relier les fermes où un groupe de sites sont tous liés les uns aux autres pour spammer l'index d'un moteur de recherche;
  • blog spam, en utilisant le champ de commentaires sur les blogs et les forums pour placer des liens vers d'autres sites;
  • grattage, une pratique où un site prend du contenu d'un autre afin de paraître plus intéressant pour les moteurs de recherche;
  • pages de porte utilisées dans le but d'inciter les chercheurs à utiliser des expressions non liées au contenu du site;
  • hébergement parasite , où un site est hébergé sur le serveur de quelqu'un d'autre sans autorisation;
  • cloaking, une technique dans laquelle l'araignée du moteur de recherche voit un contenu différent pour l'utilisateur final qui visualise via un navigateur.

De nombreux professionnels du Web considèrent que les méthodes du chapeau noir sont contraires à l'éthique, car elles utilisent des tactiques qui promettent des retours rapides, mais risquent de nuire à la réputation, au site Web et aux profits de l'entreprise.

Utiliser des méthodes de chapeau noir signifie souvent qu’un site n’a pas besoin d’attendre des mois pour obtenir des liens de retour, comme vous le feriez avec les méthodes traditionnelles de chapeau blanc. Cependant, elle remplit également Internet d’informations inutiles et de spam, et au fil des années, elle a sérieusement affecté la recherche.

Il est également moins coûteux pour un stratège de SEO de réaliser aussi souvent un réseau de blogs, auquel il sera déjà possible de se connecter, et cela ne dépend pas beaucoup de l’analyse et du contenu, comme la pratique du chapeau blanc.

Non seulement l’utilisation des méthodes du chapeau noir entraîne souvent la menace d’une action en justice, mais si elles sont utilisées parallèlement à une campagne PPC, l’hôte de la publicité peut encourir de lourdes sanctions.

Il n'est pas recommandé qu'un site utilise des techniques de chapeau noir en raison des pénalités impliquées, en termes d'action juridique, de réputation et de menace de non classement. Cependant, cela ne va sans doute pas arrêter tout le monde, malgré les mises à jour de Google.

En disant cela, nous voyons déjà les usines de contenu baisser rapidement dans les classements, de sorte que les mises à jour fonctionnent évidemment car c'est l'un des domaines clés que Google voulait aborder.

Google et tous les principaux moteurs de recherche ont une vision, celle qui vise à nettoyer le Web et à éliminer les mauvaises pratiques, ce qui se traduit par un contenu plus utile qui apparaît en tête de liste pour nous tous. Que vous utilisiez ou non les techniques du chapeau noir, c'est entre vous et votre conscience, mais je suis certainement ravi de pouvoir faire des recherches et de ne pas créer une page pleine de bric-à-brac avant d'arriver à ce que je veux.

Quels problèmes avez-vous rencontrés à la suite de Panda et Penguin? Comment avez-vous résolu les techniques du chapeau noir utilisées par les prédécesseurs? Faites le nous savoir dans les commentaires.

Image / vignette en vedette, image de recherche via Shutterstock.