Comparaison des données des principaux outils de recherche de mots clés
par Brian Dean · Mis à jour

Nous avons récemment analysé 10 des outils de recherche de mots clés les plus populaires dans l'industrie du référencement.
Notre objectif?
Comparer l'exactitude et l'étendue des données trouvées dans chaque outil.
Plus précisément, nous avons analysé le volume de recherche mensuel, la difficulté des mots clés, les estimations de CPC et les suggestions de recherche parmi les outils de référencement populaires, notamment:
À notre connaissance, il s'agit de la première comparaison à grande échelle des données fournies par divers outils de recherche par mots clés.
Et maintenant, il est temps de partager ce que nous avons découvert.
Résumé de nos principales constatations:
1. Ahrefs et SEMrush génèrent le plus grand nombre de suggestions de mots clés, suivis par Ubersuggest, Sistrix et SECockpit.
2. Google Keyword Planner fournit 67,9% de suggestions de mots clés en moins que la sortie moyenne des autres principaux outils de référencement payants. Cependant, KWFinder et KWTool produisent tous deux des quantités similaires de suggestions de mots clés par rapport à GKP.
3. KeywordTool.io et Sistrix ont tendance à fournir des estimations de volume de recherche mensuelles supérieures à la moyenne. Sistrix's les estimations du volume de recherche sont supérieures de 233% à la médiane, tandis que KeywordTool.io est de 47% supérieur à la médiane. Moz et Ahrefs biaisent vers des estimations de volume de recherche légèrement inférieures. Les volumes de recherche d’Ahrefs sont inférieurs de 37% à la médiane Les estimations du volume de recherche de Moz Pro sont inférieures de 33% à la médiane de l'ensemble de l'outil.
4. Lors de l'analyse des données de volume de recherche pour les termes de recherche populaires (> 10 000 recherches / mois) Sistrix a des estimations de volume de recherche mensuelles considérablement plus élevées par rapport à Google Keyword Planner.
5. Tous les outils de référencement de notre analyse avaient une corrélation négative significative entre le volume de recherche et la longueur des mots clés.
6. Certains outils tendent à surpasser les autres en termes de suggestions de mots clés dans des secteurs spécifiques. Par exemple, bien qu'ils génèrent généralement moins de suggestions que SEMrush et Ahrefs, Moz et Google Keyword Planner ont tendance à générer un nombre relativement élevé de suggestions dans le créneau de l'hébergement Web. Et Ubersuggest est particulièrement efficace pour trouver des idées de mots clés dans les niches marketing, voyages et alimentation.
7. Nous avons trouvé de grandes variations pour les scores de difficulté des mots clés entre les outils. Nos données ont découvert que Les scores de difficulté des mots clés de SEMrush sont 110% supérieurs à la médiane. SECockpit estime la difficulté des mots clés à 82% en dessous de la médiane.
8. Le CPC médian pour tous les termes que nous avons analysés était de 1,68 $. SECockpit (2,20 $) et Google Keyword Planner (2,14 $) indiquent un CPC global plus élevé que la moyenne. À 1,39 $, SEMrush a les estimations de CPC les plus faibles.
9. Lorsque vous comparez les estimations de CPC trouvées dans Google Keyword Planner avec d'autres outils, SECockpit a des estimations de coût par clic considérablement plus élevées que celles trouvées dans Google Keyword Planner. KWFinder, Long Tail Pro, KeywordTool.io, Sistrix, Ahrefs et SEMrush ont un coût par clic inférieur à celui de Google Keyword Planner.
J'ai fourni des détails sur nos résultats ci-dessous.
Ahrefs et SEMrush génèrent le plus de suggestions de mots clés. KWFinder et Google Keyword Planner fournissent le moins
En ce qui concerne le nombre de suggestions de mots clés, Ahrefs et SEMrush ont tendance à surpasser les autres principaux outils de référencement.

Voici l'intrigue «abeille» qui compare le volume de suggestions de mots clés à la moyenne à l'échelle de l'outil.

La génération d'une grande liste d'idées de mots clés est une caractéristique importante de tout outil de référencement. En fait, de nombreux outils affichent bien le nombre d'idées de mots clés qu'ils peuvent générer à partir d'un seul mot clé de départ.

Pourquoi proposer des milliers d'idées de mots clés est-il si utile?
Eh bien, dans de nombreux cas, une personne qui saisit un mot clé de départ dans un outil ne recherche pas réellement les statistiques de ce mot clé exact.
Au lieu de cela, leur objectif est de trouver des versions à longue queue de ce mot-clé. Parfois, ils souhaitent également que l'outil génère des idées de mots clés liés latéralement qu'ils auraient du mal à trouver par eux-mêmes.
De toute évidence, vous ne pouvez pas juger de la valeur d'un outil de recherche de mots clés uniquement en fonction du nombre d'idées de mots clés qu'il génère. Cependant, c'est une caractéristique importante qui prend en compte la décision de l'outil dans lequel investir.
Points clés à retenir: Ahrefs, SEMrush, Ubersuggest et Sistrix semblent être les meilleurs en termes de production de suggestions de mots clés. KeywordTool.io, Google Keyword Planner et KWFinder se classent près du bas.
Le planificateur de mots clés Google fournit 67,9% de suggestions de mots clés en moins par rapport à plusieurs autres principaux outils de référencement payants
Bien que conçu pour Annonces Google, de nombreux professionnels du marketing utilisent Google Keyword Planner (GKP) pour les campagnes de référencement.
Même lorsqu'il est utilisé uniquement pour le référencement, Google Keyword Planner a plusieurs avantages.
Tout d'abord, contrairement à de nombreux outils de mots clés, c'est gratuit.
Mais plus important que la tarification est le fait que les données proviennent directement de Google. Ce qui signifie que les données du GKP devraient être super fiables par rapport aux outils tiers.
Il convient de noter que les volumes de recherche GKP sont présentés dans une plage, sauf si vous exécutez une campagne Google Ads active.

Le GKP manque également de fonctionnalités clés (comme les scores de difficulté des mots clés et SERP analyse) que de nombreux outils payants fournissent.
Malgré ces lacunes, le GKP est un outil de mot-clé de base pour de nombreux professionnels du référencement.
Selon notre analyse, le GKP ne propose pas autant de suggestions de mots clés que les autres principaux outils payants.
En fait, le GKP fournit environ 68% de suggestions de mots clés en moyenne par rapport aux outils payants de notre analyse.

Et quand nous avons comparé le GKP avec les meilleurs outils, nous avons constaté que le GKP génère 98,1% de suggestions en moins que SEMrush, 97% de moins que celles faites par Ahrefs et 83,8% de moins que par Ubersuggest.
Points clés à retenir: Google Keyword Planner a son mérite en tant qu'outil de recherche de mots clés pour le référencement. Cependant, la plupart des principaux outils de référencement surpassent largement GKP en termes de production de suggestions de mots clés.
Sistrix et KeywordTool.io ont des estimations de volume de recherche mensuelles relativement élevées. Les estimations de Moz et Ahrefs sont généralement inférieures
L'une des conclusions les plus intéressantes de cette analyse est que les outils de notre analyse ont tous très différentes estimations mensuelles du volume de recherche.
KeywordTool.io et Sistrix ont tendance à estimer les volumes de recherche de mots clés plus élevés que la plupart des autres outils. En revanche, les estimations du volume de recherche dans Moz Pro et Ahrefs sont généralement plus faibles.

En général, nous avons trouvé une large gamme de volumes de mots clés pour le même ensemble exact de mots clés.
Par exemple, prenez un mot clé comme «assurance». Selon KeywordTool.io, ce mot-clé obtient 368 000 recherches par mois.

Cependant, si vous recherchez ce même mot-clé dans Ahrefs, vous obtiendrez un nombre complètement différent.

Quel outil a raison?
Bien qu'il soit impossible de le dire sur la base de nos recherches, il est important de noter que chaque outil utilise différentes sources et méthodologies pour estimer le volume de recherche.
Par exemple, les deux Moz et Ahrefs utilisation "Clickstream" Les données

(En d'autres termes, des données extraites d'outils tiers qui sont modélisées sur le comportement réel de l'utilisateur).
Par contre, SEMrush utilise une combinaison de données issues des prévisions GKP et AI.

Les deux approches ont leurs avantages et leurs inconvénients. Il n'y a donc pas de «bonne» façon d'estimer le volume de recherche.
Quoi qu'il en soit, le volume de recherche est un point de données super important. À bien des égards, les numéros de volume de recherche sont le point de données le plus précieux qu'un outil de mots clés fournit. Si important, en fait, que les campagnes de référencement sont souvent basées uniquement sur le volume de recherche estimé d'un mot clé.
Et bien que nous ne soyons pas en mesure de couronner un outil au niveau «le plus précis», il est important de voir dans quelle direction chaque outil a tendance à s'incliner, qu'il soit haut ou bas. Si l'outil que vous utilisez a tendance à surestimer un peu, vous pouvez garder cela à l'esprit lorsque vous décidez d'un mot clé. Et il en va de même pour un outil qui estime les volumes de recherche inférieurs à la plupart des autres outils.
Points clés à retenir: Les estimations du volume de recherche varient considérablement entre les principaux outils de référencement. Les estimations mensuelles du volume de recherche dans Moz (33% sous la médiane) et Ahrefs (37% sous la médiane) sont inférieures à la plupart des autres outils. Sistrix (233% au-dessus de la médiane) et KeywordTool.io (47% au-dessus de la médiane) sont nettement plus élevés.
Lorsque vous examinez uniquement les mots clés à volume élevé (plus de 10 000 recherches par mois), Sistrix estime les volumes de recherche bien plus élevés que Google Keyword Planner
Nous avons décidé de comparer spécifiquement les estimations du volume de recherche pour des mots clés relativement volumineux (> 10 000 recherches mensuelles). Voici ce que nous avons trouvé:

Pourquoi regarder spécifiquement les termes populaires? Parce que les différences de volume de recherche parmi les termes à volume élevé ont le plus grand impact réel sur le SEO.
Par exemple, supposons qu'un outil spécifique estime qu'un mot clé obtient 100 recherches par mois. Si un outil surestime le volume de 25%, il n'y a que 25 recherches mensuelles désactivées. En termes absolus, ce n'est pas très important.
Cependant, si le même outil surestime un mot clé de 100 000 $ / mois de 25%, cela représente 25 000 recherches.
C'est le genre de chose qui peut faire ou défaire une campagne de référencement.
Points clés à retenir: Lorsque l'on examine spécifiquement les mots clés à volume élevé (10 000+ recherches / mois), les données de volume de recherche mensuelles dans Sistrix sont considérablement plus élevées que celles du GKP.
La longueur des mots clés est négativement corrélée avec le volume de recherche
L'une de nos constatations les plus cohérentes est que, dans tous les outils que nous avons inclus dans notre analyse, la longueur des mots clés présente une corrélation négative significative avec le volume de recherche mensuel.

Par exemple, en utilisant Google Keyword Planner, un mot clé avec 20 caractères entraîne une diminution moyenne du volume de recherche de 5 177 recherches / mois par rapport à un terme de recherche avec seulement 10 caractères.
Pour toute personne expérimentée en SEO, cela ne devrait pas surprendre.
Ce que l'on appelle «mots-clés à longue queue»Sont généralement connus pour être plus longs et pour obtenir moins de recherches que les« termes principaux ».

Mais il était intéressant de noter que cette relation négative entre la longueur des mots clés et le volume de recherche persistait dans tous les outils que nous avons examinés.
Points clés à retenir: La longueur des mots clés est corrélée négativement avec le volume de recherche mensuel moyen. Passer de 10 à 20 caractères réduit le volume de recherche moyen d'un mot clé de 5 177 recherches par mois.
Différents outils de mots clés fonctionnent mieux dans des secteurs spécifiques
Peut-être notre constat le plus remarquable dans toute cette analyse est que, lorsqu'il s'agit de générer des suggestions de mots clés, différents outils fonctionnent mieux dans différentes industries.

Plus précisément, Ahrefs et SEMrush sont plus performants que les autres outils que nous avons analysés dans les catégories: amélioration de l'habitat, juridique, automobile, énergie solaire, voyages et mariages.
Ahrefs semble être particulièrement fort lorsqu'il s'agit de générer des idées de mots clés sur les voyages et l'hébergement Web.
D'autre part, Google Keyword Planner et Moz étaient comparables aux autres outils dans des catégories telles que l'hébergement Web. Cependant, ils ont produit beaucoup moins de suggestions dans d'autres secteurs.
Fait intéressant, l'outil gratuit Ubersuggest a généré un nombre comparable de suggestions de mots clés liés au marketing, aux voyages et à l'alimentation comme SEMrush et Ahrefs.
L'implication potentielle de cette constatation est que, plutôt que de décider d'un outil en fonction de sa capacité à générer des mots clés, il peut être judicieux d'utiliser un outil qui convient le mieux à votre secteur.
Alors que Ahrefs et SEMrush produisent les suggestions les plus totales, si votre site concerne l'hébergement Web, Moz ou Google Keyword Planner sont quelque peu compétitifs par rapport à ces deux outils dans ce créneau spécifique.
Points clés à retenir: Certains outils de mots clés fonctionnent mieux que d'autres dans des secteurs spécifiques. Ahrefs a tendance à être le plus fort dans l'espace de voyage et d'hébergement Web. Ubersuggest réussit relativement bien dans des créneaux comme le marketing, les voyages et l'alimentation. Bien que loin derrière SEMrush et Ahrefs, Moz et GKP sont relativement compétitifs dans l'espace d'hébergement Web.
SECockpit et Ahrefs ont des nombres de difficultés de mots-clés relativement bas. KeywordTool.io et SEMrush ont les scores de difficulté moyenne les plus élevés
L'estimation de la difficulté des mots clés (également appelée «concurrence des mots clés») est un élément essentiel du processus de recherche de mots clés.
La difficulté des mots clés est utilisée pour décider de cibler ou non un mot clé spécifique. Cela est particulièrement vrai pour les sites Web plus récents sans trop d'autorité de domaine.
Cependant, comme nous l'avons constaté dans cette analyse, la difficulté des mots clés est loin d'être une métrique cohérente. Certains outils ont tendance à estimer la difficulté des mots clés supérieure à la moyenne. Alors que d'autres préfèrent sous-estimer à quel point il sera difficile de se classer pour un terme spécifique.

Et voici une image plus complète de la distribution de la difficulté des mots clés.

Par exemple, prenez le mot-clé «fond de panneau solaire».
Dans SEMrush, ce terme a un score de difficulté des mots clés de «77,61».

Cependant, ce même mot clé a un score de "8,06" dans SECockpit.

Même mot-clé. Des scores de difficulté des mots clés complètement différents.
Dans l'ensemble, SEMrush et KeywordTool.io affichent les scores de difficulté médians les plus élevés. Les scores de difficulté sont notablement plus bas dans Ahrefs et SECockpit.
Sistrix, Moz, LongtailPro et KWfinder ont tendance à avoir une distribution de score de difficulté des mots clés similaire.
Nous avons également décidé d'analyser cette statistique par différentes catégories de volume de mots clés (recherches à volume faible, moyen et élevé).
Le modèle de distribution de la difficulté des mots clés était essentiellement le même entre les différents types de volumes de mots clés.

Points clés à retenir: Les scores de difficulté des mots clés varient considérablement entre les différents outils de référencement. Ahrefs et SECockit ont tendance à signaler une difficulté des mots clés nettement inférieure à celle des autres outils de notre analyse. À l'autre extrémité du spectre, les nombres de difficultés de mots clés sont estimés plus élevés dans SEMrush et KeywordTool.io.
Google Keyword Planner et SECockpit rapportent des estimations de CPC légèrement supérieures à la moyenne. Les estimations de CPC de SEMrush sont inférieures à la moyenne
Nous avons trouvé de petites différences dans les estimations de coût par clic (CPC) parmi les différents outils de référencement de notre étude.

Plus précisément, le Les estimations de CPC dans SECockpit sont de 26% supérieures à la médiane. À l'autre extrémité du spectre, Les CPC de SEMrush sont inférieurs de 20% à la médiane.
(Notez que Moz ne fournit aucune information sur le coût par clic, ils n'ont donc pas été inclus dans cette analyse).
Cependant, je dois souligner que les estimations de CPC sont généralement similaires entre les outils de référencement. Environ 11% des mots clés présentent des différences de CPC inférieures à 0,50 USD.
Par exemple, si vous regardez le CPC pour un terme dans un outil qui a tendance à estimer les CPC du côté supérieur (SECockpit) et à le comparer aux numéros de CPC dans SEMrush (qui estime le CPC à l'extrémité inférieure), ils ne le sont pas si différent.

Mais il y a des situations où les estimations du CPC présentent des différences extrêmes. Par exemple, «coupon de magasin fsa» (1,10 $ dans Ahrefs, 464,745 $ dans Google Keyword Planner) et «enregistrer le nom de domaine google» (16,94 $ dans KeywordTool.io et KWfinder, 480,5 $ dans SECockpit).
Même des différences mineures peuvent avoir un impact sur votre retour sur investissement estimé du classement pour un mot clé spécifique. Et si vous appliquez de petites différences à des dizaines de mots clés pour lesquels vous prévoyez de vous classer, ces différences de CPC s'additionnent.
Points clés à retenir: Bien que les différences soient relativement mineures, les estimations du CPC varient selon les outils. Les estimations de CPC trouvées dans SECockpit sont de 26% supérieures à la médiane. Le GKP a également tendance à avoir des estimations de CPC élevées à 23% au-dessus de la médiane. À 20% en dessous de la moyenne, les nombres CPC de SEMrush ont tendance à être bas.
Lors de la comparaison des différences de CPC avec Google Keyword Planner, SECockpit reste relativement élevé. Les CPC dans SEMrush et KeywordTool.io sont bien inférieurs à ceux trouvés dans GKP
Considérant que le GKP est la source de données la plus directe pour les CPC réels, nous avons décidé de comparer les valeurs de CPC parmi les outils utilisant Google Keyword Planner comme notre «référence absolue».

Nous avons constaté que SECockpit a toujours des CPC (légèrement) plus élevés que Google Keyword Planner, indépendamment de la catégorie de volume de recherche. KWFinder, LongTailPro, KeywordTool.io, Ahrefs et SEMrush ont systématiquement un coût par clic inférieur à celui de Google Keyword Planner.
Points clés à retenir: En utilisant GKP comme «référence absolue» pour les données liées au CPC, nous avons constaté que les numéros CPC de SECockpit étaient considérablement plus élevés que ceux rapportés dans le GKP. La plupart des autres outils de notre rapport d'analyse CPC sont inférieurs à ceux trouvés dans Google Keyword Planner.
Distribution des cartes thermiques de performance
Pour résumer ces résultats, nous avons décidé de visualiser les performances du volume de recherche, du score de difficulté et du coût par clic (CPC) pour chaque outil de référencement par rapport à la médiane globale.

Les écarts les plus importants dans les performances globales concernent:
- SECockpit: scores de difficulté considérablement inférieurs (82%) et CPC légèrement plus élevé (26,4%).
- Ahrefs: scores de difficulté considérablement inférieurs (60%) et volume de recherche (37%).
- Sistrix: volumes de recherche considérablement plus élevés (233%).
- SEMrush: scores de difficulté considérablement plus élevés (110,3%).
- KeywordTool.io: volumes de recherche considérablement plus élevés (47%) et scores de difficulté (87,5%).
Remarque: Aucune donnée n'était disponible en cas de difficultés de mots clés pour Google Keyword Planner et de coût par clic pour Moz Pro.
Conclusion
J'ai beaucoup appris sur les données trouvées dans divers outils de recherche de mots clés de cette étude, et j'espère que vous aussi.
Si vous souhaitez voir les détails de la façon dont cette recherche a été menée, voici un lien vers nos méthodes PDF.
Maintenant, j'aimerais avoir de vos nouvelles.
Quelle a été votre première conclusion de l'étude d'aujourd'hui?
Ou peut-être avez-vous une question sur quelque chose que vous avez lu.
Quoi qu'il en soit, allez-y et laissez un commentaire ci-dessous dès maintenant.
Source link
90,63% du contenu ne reçoit aucun trafic de Google. Et comment être dans l'autre 9,37% [New Research for 2020]
Ce n'est un secret pour personne que le Web croît de millions, voire de milliards de pages par jour.
Notre Outil Content Explorer découvre 1,8 million de nouvelles pages toutes les 24 heures tout en étant très pointilleux sur les pages qui peuvent être incluses. Le «principal» robot d'exploration Web Ahrefs explore plus du double de ce nombre de pages chaque minute!
Mais quelle part de ce contenu reçoit du trafic organique de Google?
En 2017, nous avons en quelque sorte répondu à cette question en en train d'étudier environ deux millions de pages nouvellement publiées au hasard. Nous avons constaté que seulement 5,7% d'entre eux se classaient dans les 10 premiers résultats de recherche de Google pour au moins une requête de recherche dans l'année suivant leur publication.
En d'autres termes, 94,3% des pages sur environ deux millions de pages n'ont même pas reçu un seul visiteur de Google.
Mais deux millions de pages représentent une taille d'échantillon plutôt insignifiante si l'on considère la profondeur et l'étendue de l'ensemble du Web. Nous avons donc décidé de mener une autre étude.
Nous avons pris le base de données entière à partir de notre outil Content Explorer (sur un milliard pages) et étudié le nombre de pages qui génèrent du trafic grâce à la recherche naturelle et pourquoi.
Combien de pages Web génèrent du trafic de recherche organique?
90,63% de toutes les pages de notre index ne reçoivent aucun trafic de Google et 5,29% d'entre elles reçoivent dix visites par mois ou moins.
Avant de passer à la question de savoir pourquoi la grande majorité des pages n'obtiennent aucun trafic de recherche de Google (et comment éviter d'en faire partie), il est important de corriger deux écarts principaux avec les données étudiées:
- Un milliard de pages peut sembler énorme, mais ce n'est pas la représentation la plus précise de l'ensemble du Web. Content Explorer indexe uniquement les pages qui répondent à nos critères d'inclusion, ce qui garantit que nous n'en ajoutons que de «bonnes» (alors qu'Internet regorge de pages totalement «mauvaises»). Même par rapport à la taille de l'index de Site Explorer,297 milliards de pages– la taille de notre échantillon pour cette étude est assez petite et quelque peu biaisée vers «l'aspect qualité du Web».
- Nos chiffres de trafic de recherche sont des estimations. Nous estimons le trafic de recherche sur la base de notre base de données de ~ 494 millions de mots clés dans Site Explorer. Et même s'il s'agit sans doute de la plus grande base de données de ce type, elle ne représente clairement pas toutes les requêtes de recherche possibles que les internautes mettent sur Google (où des milliards de recherches ont lieu chaque jour). Il y a donc une excellente chance que beaucoup de pages obtiennent du trafic de recherche de certains super requêtes de recherche à longue queue qui ne sont pas assez populaires pour figurer dans notre base de données.
Cela dit, ces deux «inexactitudes» ne changent pas grand-chose dans le grand schéma des choses: la grande majorité des pages publiées ne se classent jamais sur Google et n'obtiennent jamais de trafic de recherche. C’est pourquoi tant d’entreprises cherchent désespérément à améliorer leur SEO.
Mais pourquoi cela, et comment pouvez-vous faire partie de la minorité qui obtient du trafic de recherche organique de Google?
Eh bien, il y a des centaines de SEO les problèmes qui peuvent empêcher vos pages de bien se classer dans Google. Mais si nous nous concentrons uniquement sur les scénarios les plus courants, il n'y en a que quatre.
Raison 1: la page n'a pas de backlinks
Je déteste répéter le même mantra que l'on retrouve dans presque tous les autres SEO article, mais il n'y a vraiment aucun moyen de le contourner:
Les backlinks vous aident classement supérieur dans Google!
Et ils sont l'un des "trois principaux facteurs de classement" de Google.
Alors pourquoi ne découpons-nous pas nos pages étudiées en fonction du nombre de sites Web uniques (domaines référents) qui sont liés à chaque page?
Il semble que 66,31% des pages n'ont même pas un seul backlink, et 26,29% ont des liens de trois sites Web ou moins.
Avez-vous déjà remarqué la tendance?
La plupart des pages n'obtiennent aucun trafic de recherche et la plupart des pages n'ont pas de backlinks.
Mais sont-ce les mêmes pages?
Examinons la tendance entre le trafic de recherche organique mensuel de ces pages et leurs backlinks provenant de sites Web uniques (domaines de référence):
La corrélation est claire: plus une page contient de backlinks, plus elle génère de trafic organique de la part de Google.
Nous constatons une corrélation similaire entre les domaines référents et le classement des mots clés:
Maintenant, il est important de noter que Corrélation ne signifie pas causalité et qu'aucun de ces graphiques ne prouve directement que les backlinks vous aident à vous classer dans Google. Cependant, la plupart SEO les professionnels vous diront qu'il est presque impossible de classement sur la première page sans backlinks – une observation qui s'aligne avec les données ci-dessus.
Donc, si vous souhaitez vous classer dans Google et obtenir du trafic de recherche, vous devrez créer des backlinks de haute qualité vers votre page. Si vous ne savez pas comment procéder, commencez par ces articles sur notre blog:
Mais, voici une question: est-il possible d'obtenir du trafic organique sans liens?
Regardons les données:
Un peu plus de quatre millions de pages génèrent du trafic de recherche organique sans avoir de backlinks. Cela peut sembler beaucoup, mais c'est environ 5% de notre échantillon, ce qui signifie qu'une seule page sur ~ 20 sans backlinks a du trafic…
… Et la majorité d'entre eux reçoivent 300 visites organiques ou moins chaque mois.
Mais que se passe-t-il si nous excluons les pages des sites Web à fort Évaluations de domaine?
Bref, les chiffres deviennent encore plus pessimistes. Un peu plus de 1,4 million de pages génèrent du trafic organique, ce qui représente moins de 4% de notre échantillon. Et seulement environ 320 000 reçoivent plus de 300 visites organiques mensuelles, ce qui représente environ 0,1% de notre échantillon.
Cela suggère que les pages sans backlinks sur les sites à haute autorité sont légèrement plus susceptibles d'obtenir du trafic organique que celles sur les sites à faible autorité.
C'est probablement parce qu'ils utilisent liens internes passer Classement vers de nouvelles pages.
Voici deux autres raisons pour lesquelles cela pourrait être le cas:
- Ils bloquent notre robot. Bloc SEO le plus louche SEO outils comme Ahrefs de voir leurs backlinks. Il s'agit généralement d'empêcher les concurrents de voir (et éventuellement de signaler) leurs PBN.
- Ils ciblent des sujets de faible concurrence. Les requêtes avec de faibles volumes de recherche ont tendance à être non compétitives, il faut donc moins de backlinks pour classer.
Si la possibilité d'obtenir du trafic de recherche sans avoir besoin de créer des backlinks vous excite, je vous suggère d'en savoir plus sur le concept de difficulté des mots clés et comment trouver des mots clés / sujets avec un potentiel de trafic de recherche décent et une faible concurrence.
Et si vous voulez voir les pages qui génèrent du trafic malgré l'absence de backlinks – peut-être pour l'inspiration – allez à Explorateur de contenu, lancez une recherche vide, puis filtrez les pages avec du trafic et sans backlinks:
Voici un exemple de page sans backlinks qui reçoit régulièrement des milliers de visites organiques mensuelles:
Raison 2: le sujet de la page n'a pas de potentiel de trafic à long terme
Certaines pages ont des tonnes de backlinks, mais ils ne reçoivent toujours aucun trafic de Google.
Comment puis-je savoir? J'ai filtré toutes les pages de la base de données Content Explorer qui n'obtiennent aucun trafic de la recherche organique et les ai divisées en quatre compartiments en fonction du nombre de domaines de liaison à chaque page.
Comme vous pouvez le constater, près de 70 000 pages contiennent des backlinks provenant de plus de 200 domaines référents, mais ne génèrent aucun trafic de recherche.
En examinant ces pages (et bien d'autres) manuellement, j'ai remarqué deux tendances générales qui expliquent pourquoi ces pages n'obtiennent aucun trafic malgré le nombre de backlinks:
- Ils sont allés trop loin avec le «renforcement des liens ombragés» et ont obtenu pénalisé par Google;
- Ils ne ciblent pas un sujet que les internautes recherchent dans Google.
Je ne veux pas m'étendre sur le premier point, car j'espère que les lecteurs du blog Ahrefs ne s'entraînent pas "construction de liens ombragés»Et, par conséquent, ne connaîtra jamais ce problème.
Quant au # 2, eh bien, celui-ci est assez explicite:
Si personne ne recherche ce dont vous parlez sur votre page, vous n'obtiendrez aucun trafic de recherche.
Jetez un œil aux statistiques de l'un de nos articles de blog, par exemple:
337 backlinks de 132 sites Web – mais pas de trafic organique.
Cela se produit parce que la page concerne la «recherche de trafic organique», que pratiquement personne ne recherche:
Vous voyez cela beaucoup avec des articles de presse. Ils obtiennent facilement beaucoup de liens sur le Web, mais obtiennent rarement du trafic à long terme de Google.
C'est parce que les gens ne peuvent pas rechercher des choses qu'ils ignorent, et la plupart des gens ne se soucient pas des choses qui se sont produites il y a longtemps et ne les recherchent donc jamais.
Note de l'éditeur
Vous avez peut-être remarqué que certains articles de nouvelles reçoivent beaucoup de trafic de recherche organique à court terme en se classant dans le bloc "Top stories" pour les requêtes de recherche pertinentes et à volume élevé.
Voici un article du classement The Guardian dans le bloc "Top stories" pour "Donald Trump":



Bloc "Top stories" de Google pour Donald Trump le 29 janvier 2020.
Ahrefs a compris cela presque immédiatement:
Parce que «Donald Trump» obtient 5.6M recherches par mois, cette page a reçu beaucoup de trafic du bloc "Top stories".
Cependant, si vous vérifiez le trafic maintenant, je parie que le trafic a déjà baissé.



Donc, l'un des plus rapides et des plus efficaces SEO gagne jamais est la suivante:
- Trouvez les pages de votre site Web avec les domaines les plus référents;
- Faire recherche par mot clé pour voir si vous pouvez les ré-optimiser pour des sujets pertinents avec décent rechercher le potentiel de trafic.
Je dois rendre hommage à Bryan Harris pour avoir partagé ce «rapide SEO gagner »lors d'une interview pour notre cours «Blogging pour les entreprises»:
https://www.youtube.com/watch?v=-JNfOlCK-TU&feature = emb_title
Il a suggéré d'utiliser le rapport «Best by links» dans Explorateur de site d'Ahrefs pour trouver les pages de votre site avec le plus de liens, puis analysez leur trafic de recherche. En faisant cela, vous pouvez trouver des pages avec des tonnes de liens mais très peu de trafic de recherche organique.



Rapport Best by links pour le site Web de Bryan, videofruit.com
Voici celui qui apparaît pour nous:
C'est un guide pour SERP fonctionnalités, et il a des backlinks de 67 sites Web, mais pas de trafic organique.
Nous pourrions résoudre ce problème en réoptimisant la page d'un mot clé présentant un potentiel de trafic plus important, comme "SERP. "
Étant donné qu'un guide similaire avec des backlinks de seulement 26 sites Web reçoit environ 3 400 visites organiques mensuelles, nous devrions être en mesure d'augmenter notre trafic assez facilement.
N'oubliez pas que cela n'a aucun sens de le faire avec toutes les pages à faible trafic avec des backlinks. Le but de certaines pages n'est pas de classer, alors choisissez judicieusement vos batailles.
Raison 3. La page ne correspond pas à l'intention de recherche
Google vise à renvoyer les résultats les plus pertinents pour une requête.
C'est pourquoi les meilleurs résultats organiques pour le "meilleur tapis de yoga" sont des articles de blog avec des recommandations, pas des pages de produits.
Fondamentalement, Google sait que les chercheurs sont en mode recherche et non en mode achat.
C'est aussi la raison pour laquelle cette page de vente de tapis de yoga n'apparaît pas, bien qu'elle contienne des backlinks de plus de sept fois plus de sites Web que les pages qui se classent dans le top 10:



Référer des domaines à manduka.com: un site de vente de tapis de yoga.



Renvoyer les domaines aux pages les mieux classées pour le «meilleur tapis de yoga».
Heureusement, la page se classe pour des milliers d'autres mots clés plus pertinents et obtient des dizaines de milliers de visites organiques mensuelles. Ce n'est donc pas si grave qu'il ne se classe pas comme «meilleur tapis de yoga».



Nombre des 100 premiers classements de mots clés pour manduka.com dans le NOUS.
Cependant, si vous avez des pages avec beaucoup de backlinks mais pas de trafic organique – et qu'ils ciblent déjà un mot clé avec un potentiel de trafic – un autre rapide SEO gagner consiste à les réoptimiser à des fins de recherche.
Nous l'avons fait en 2018 avec notre vérificateur de backlink gratuit.
Ce n'était à l'origine qu'une page de destination ennuyeuse expliquant les avantages de notre produit et offrant un essai de 7 jours:
Après avoir analysé l'intention de recherche, nous avons rapidement réalisé le problème:
Les gens ne cherchaient pas une page de destination, mais plutôt un outil gratuit qu'ils pouvaient utiliser immédiatement.
Donc, en septembre 2018, nous avons créé un outil gratuit et l'avons publié sous le même URL. Les classements ont traversé le toit, tout comme le trafic organique.
Raison 4. La page n'est pas indexée
Google ne peut pas classer les pages qui ne sont pas indexées.
Si vous pensez que cela pourrait être la raison pour laquelle votre page ne reçoit aucun trafic organique, recherchez sur Google site:[url]
. Vous devriez voir au moins un résultat; sinon, il n'est pas indexé.
Il y a quelques raisons pourquoi cela peut arriver, mais le plus courant est un voyou balise META noindex. Il s'agit d'un petit morceau de code qui indique aux moteurs de recherche de ne pas indexer un URL.
Coquin canoniques, redirige, et robots.txt les blocs peuvent également empêcher l'indexation.
Pour voir les pages exclues en raison de ces problèmes (et d'autres), consultez l'onglet «Exclus» dans le rapport «Couverture» dans Google Search Console.
Google n'indexe pas non plus généralement les pages cassées, même si elles contiennent des backlinks.
Croyez-le ou non, ce sont étonnamment communs.
Par exemple, si nous vérifions la Best by Links signaler en Explorateur de site d'Ahrefs pour un blog de marketing de contenu populaire et un filtre pour les pages cassées, nous voyons des tonnes d'exemples.
Une page contient des backlinks de 131 sites Web, mais elle n'est plus en ligne ni indexée:
A en juger par URL, la page utilisée pour répondre à la question "qu'est-ce que le marketing de contenu?" – un mot clé avec un volume de recherche mensuel de 5 900 dans le NOUS.
Heureusement, une autre page du site se classe déjà pour ce mot clé. Donc, dans ce cas, ce n'est pas une perte énorme.
Cependant, à tout le moins, il serait judicieux de rediriger la page morte avec des backlinks vers une page de travail sur le même sujet. Cela peut les aider à obtenir plus de trafic organique mots-clés à longue queue.
TLDR
90,63% des pages n'obtiennent aucun trafic organique.
Gardez vos pages dans les 9,36% restants en créant des backlinks, en choisissant des sujets avec un potentiel de trafic organique, en faisant correspondre intention de rechercheet en vous assurant qu'ils sont indexés.
Ping sur moi sur Twitter si vous avez des questions. 🙂
Quatre mythes courants de Google Analytics ont éclaté


Google Analytics est un outil puissant sans précédent dans sa capacité à mesurer les performances de votre site Web. Les données qu'il recueille sont inestimables pour vous en tant que spécialiste du marketing. Ils peuvent vous donner une vision claire des décisions que vous devez prendre au profit de votre marque. Cependant, les données ne sont que des chiffres et des graphiques. À eux seuls, ils ne peuvent pas raconter une histoire. C'est votre travail en tant que responsable marketing de déduire cette histoire à travers une analyse solide et impartiale et de ne pas tomber dans les mythes de Google Analytics.
Si les termes et les données de Google Analytics vous déroutent plus qu'ils ne vous éclairent, cet article vous aidera à comprendre quatre Google Analytique et les mythes liés au SEO que vous devez éviter.
Comment utiliser Google Analytics?
Les propriétaires d'entreprise utilisent Google Analytics (GA) pour voir ce qu'ils font correctement en termes de trafic de qualité vers leurs sites. Si vous êtes un propriétaire d'entreprise espérant étendre votre présence dans les sphères en ligne, vous aurez besoin d'analyses pour mesurer votre succès.
Avec l'utilisation de métrique, Google Analytics suit les personnes qui visitent votre site, leur durée de séjour, l'appareil qu'ils utilisent et le lien qui les y a amenés. Avec ces données, vous pouvez découvrir comment améliorer vos stratégies de marketing et de référencement en ligne.
Principes de base de Google Analytics
Au début, il peut sembler que Google Analytics vous fournit des données brutes trop compliquées à digérer. Apprendre à parler le langage analytique, cependant, c'est plus facile que vous ne le pensez. Voici quelques termes de base pour vous aider à mieux comprendre les données signalées par Google Analytics:
Pages vues
Les pages vues sont le nombre total de fois qu'une page de votre site a été consultée par les utilisateurs. Cela inclut les cas dans lesquels les utilisateurs actualisent la page ou lorsqu'ils sautent sur une autre page et retournent rapidement à la page qu'ils venaient de quitter. Cela souligne quelles pages sont les plus populaires.
Visites / Sessions
Les sessions sont mesurées par le temps que les utilisateurs passent sur votre site Web, qu'ils passent ou non sur une ou plusieurs pages. Les séances sont limitées à une fenêtre de 30 minutes. Cela signifie que si les utilisateurs restent sur le site pendant 30 minutes mais restent inactifs et non interactifs avec la page tout au long, la session se termine. S'ils quittent le site et y retournent dans les 30 minutes, cependant, cela est compté comme une session.
La durée moyenne d'une session fait référence au temps moyen passé par les utilisateurs sur votre site. Les pages par session, en revanche, sont le nombre moyen de pages que les utilisateurs consultent sur votre site au cours d'une même session.
Temps sur la page
Il s'agit du temps moyen que les utilisateurs passent sur une page de votre site. Cela peut vous aider à déterminer les pages que les utilisateurs consultent généralement plus longtemps. Cela commence la seconde où une page vue est comptée jusqu'à ce que la page suivante la termine.
Circulation
Le trafic fait référence au nombre de personnes accédant à votre site Web. Cela provient d'une source de trafic ou de tout endroit d'où viennent les utilisateurs avant qu'ils ne soient dirigés vers vos pages.
Le trafic est classé en direct et en référence. Le trafic direct provient des pages vues déclenchées en tapant spécifiquement l'URL entière ou lorsqu'un utilisateur reçoit directement une URL sans la rechercher. Le trafic de référence est dirigé à partir de liens sur d'autres sites, comme les résultats de recherche ou des médias sociaux.
Pages vues uniques
Les pages vues uniques sont signalées lorsque votre page est consultée une fois par les utilisateurs au cours d'une même session. Ceux-ci ne comptent pas le nombre de fois où les utilisateurs sont revenus sur cette page au cours de la même session. Par exemple, un utilisateur parcourt l'ensemble du site en une seule session et revient trois fois à la page d'origine; le nombre de pages vues uniques est toujours à un, et non à trois.
visiteurs uniques
Lorsqu'un utilisateur visite votre site pour la première fois, un visiteur unique et une nouvelle visite du site Web sont comptabilisés. Google Analytics utilise des cookies pour le déterminer. Si le même utilisateur revient sur le site avec le même navigateur et le même appareil, cela ne compte que pour une nouvelle visite. Mais si cet utilisateur supprime ses cookies ou accède au site via un autre navigateur ou appareil, ils peuvent être faussement ajoutés en tant que visiteur unique.
Les coups
Les hits sont des interactions ou des demandes adressées à un site. Cela inclut les pages vues, les événements et les transactions. Un groupe de hits est mesuré comme une session, utilisée pour déterminer l'engagement d'un utilisateur avec le site Web.
Clics
Les clics sont mesurés par le nombre de clics que vous obtenez à partir des résultats des moteurs de recherche. Le taux de clics (CTR) est le nombre total de clics divisé par le nombre d'impressions ou le nombre de fois que vous faites partie des résultats de recherche de l'utilisateur. Si le CTR baisse, envisagez d'écrire des titres et des méta descriptions qui captez mieux l'attention de vos utilisateurs.
Événements
Les événements sont les actions des utilisateurs sur un site particulier. Cela inclut de cliquer sur des boutons pour voir d'autres pages ou télécharger des fichiers. Vous regardez quel type de contenu encourage les utilisateurs à interagir avec la page, déclenchant ainsi un événement.
Taux de rebond
Le taux de rebond fait référence aux sessions d'une seule page des utilisateurs dans lesquelles ils cliquent sur une page et se quittent rapidement sans interagir avec un seul élément de la page. Un taux de rebond élevé peut signifier qu'un utilisateur a rapidement trouvé ce qu'il cherchait ou qu'il ne pensait pas que le contenu de la page était suffisamment intéressant pour rester plus longtemps et s'engager.
Buts
Vous pouvez saisir des objectifs dans votre compte Google Analytics pour suivre les interactions des utilisateurs sur votre site. Ces interactions incluent la soumission d'un rapport, l'inscription à votre newsletter ou le téléchargement de fichiers. Si l'utilisateur exécute un événement que vous avez identifié comme un objectif, Analytics le considère comme une conversion.
Quatre mythes courants de Google Analytics démystifiés
Maintenant que vous avez un aperçu des termes de Google Analytics, voici cinq idées fausses courantes entourant ces termes et comment les éviter en tant que responsable marketing.
1. Plus il y a de trafic sur votre site, mieux c'est
Le mythe
En règle générale, vous souhaitez que davantage de personnes visitent votre site. Ces énormes quantités de visites, cependant, n'auront aucune importance si elles ne se transforment pas en conversions. Même si des milliers de personnes affluent sur vos pages Web chaque jour, si elles n'effectuent pas les actions souhaitées par votre campagne de référencement, ces visites n'apporteront aucun avantage à votre site.
La vérité
Une bonne stratégie de référencement repose sur le fait de s’assurer qu’une fois la page consultée, la qualité de votre contenu incite l’utilisateur à effectuer l’action souhaitée, comme s’abonner à une newsletter, par exemple.
Recherche de mots clés peut vous aider à utiliser les termes appropriés pour obtenir un meilleur classement sur les SERPs. Cependant, le contenu de votre site est également essentiel pour répondre aux requêtes de vos utilisateurs, suffisamment pour obtenir une conversion.
2. Les utilisateurs doivent passer plus de temps sur les pages Web
Le mythe
Les utilisateurs qui passent quelques secondes rapides sur votre page ne sont pas entièrement mauvais. Cela peut signifier que ces utilisateurs recherchent des réponses rapides et précises. Qualité SEO leur fournit des mots clés bien placés et un contenu concis. Par conséquent, s'ils obtiennent rapidement les réponses dont ils ont besoin, ils ont tendance à quitter le site immédiatement.
La vérité
Un contenu SEO de qualité garantit que votre matériel est écrit de telle manière qu'il invite les utilisateurs à en savoir plus sur le sujet, ce qui peut être vu lorsqu'ils sont dirigés vers une autre page de votre site. Cela les amène à faire un pas de plus vers l'action souhaitée sur votre site.
3. Le nombre de visiteurs uniques est une mesure précise pour mesurer le trafic d'audience
Le mythe
La recrudescence de visiteurs uniques sur votre page ne signifie pas nécessairement que la quantité de votre audience explose. Les visiteurs uniques sont mesurés par les cookies utilisés par Google pour déterminer s'il s'agit de la première visite d'un utilisateur sur un site. Le même utilisateur accédant à la même page via un autre navigateur ou un navigateur dont les cookies ont été effacés est également considéré comme un visiteur unique.
La vérité
Si vous cherchez à étudier votre audience, il ne suffit pas de voir combien d'entre eux vont sur votre page. Vous pouvez vous référer à l'onglet Audience> Données démographiques et voir qui navigue sur votre site et à partir de quels liens marketing ils ont été dirigés. Grâce à ces informations, vous pouvez déterminer quels types de contenu collectent le plus de trafic et de quelles voies provient ce trafic, comme les SERP ou les publications sur les réseaux sociaux, par exemple.
4. Les rapports de trafic suffisent à dire si votre campagne a réussi
Le mythe
Il ne suffit pas d'examiner les rapports de trafic pour déterminer si votre campagne de référencement est réussie ou si votre recherche de mots clés a porté ses fruits. Bien qu'au premier abord, il semble que le trafic intense indique une stratégie de marketing en ligne efficace, il ne prend en compte que l'aspect quantitatif de votre campagne et rejette le côté qualitatif.
La vérité
Maximisez tous les rapports sur GA. Tout cela est en corrélation avec le déroulement de votre campagne. Les rapports sont utiles pour aborder les problèmes de manière globale au lieu de cibler un seul aspect d'une campagne, car, par exemple, un rapport suggère qu'il ne fait pas son travail.
Ces points vous aideront à purifier l'air en ce qui concerne Google Analytics et vous aideront à obtenir correctement des informations.
Lecture connexe
Informations utiles de Chris Rodgers, fondateur et PDG de Colorado SEO Pros sur l'énigme du référencement et des PME, les tendances, la recherche vocale et bien plus encore.
Avec la recherche de mots clés et de backlinks, la création de liens et les audits de sites Web, la recherche sur la concurrence est un élément fondamental d'une campagne de référencement réussie.
Les collaborations de l'équipe de référencement peuvent amplifier la portée de l'audience et dépasser vos objectifs lorsque vous commencez par le haut et travaillez des stratégies de référencement dans toutes les facettes.
Source link
Résultat client du 02 Février 2020 – Prestation Référencement
Nous sommes fières de voir les résultats après plus d’un an de référencement.
Notre client à pris l’offre annuelle de référencement à 759€
Et son trafic ne s’arrête plus d’augmenter ! Plus de 30K de visites en moyenne à présent
Et le domaine à d’excellente metrics à présent:
Alors quand allez vous donnez un coup de boost à votre site internet avec nos prestations référencement de qualités ?
Aussi pour vous aider, écoutez mon podcast sur le choix des mots clés
Qu'est-ce que la valeur à vie du client et comment la calculer?
Vous vous demandez combien d'argent devez-vous investir pour acquérir de nouveaux clients et conserver les clients existants?
La valeur à vie du client (CLV) est l'une des mesures les plus importantes que de nombreuses entreprises ignorent ou ne mesurent pas. Il vous aide à estimer la valeur d'un client pour votre site Web.
Dans cet article, nous allons vous montrer ce qu'est la valeur à vie du client et comment la calculer.
Quelle est la valeur à vie du client?
La valeur à vie du client est le montant moyen qu'un client dépensera pour votre entreprise au cours d'une période donnée. En termes simples, il vous dit combien de bénéfices vous pouvez réaliser avec un seul client.
Pour un magasin de commerce électronique vendant des chaussures, la valeur à vie du client serait d'environ 2 000 $. Cela peut sembler peu mais le nombre de clients sera plus.
En revanche, si vous vendez un logiciel ERP, la valeur pourrait être supérieure à 100 000 $. Cependant, vous n'aurez que quelques clients, principalement des entreprises qui peuvent investir dans un produit coûteux.
Comme vous pouvez le voir, le CLV est un excellent indicateur du montant d'argent que vous pouvez gagner de vos acheteurs. Il vous indique également le nombre de clients dont vous avez besoin pour attirer votre entreprise.
Nous décomposerons la définition de la valeur à vie du client dans sa formule un peu plus tard dans la publication. Avec cela, pourquoi devriez-vous vous soucier de la valeur à vie du client? Découvrons-le…
Pourquoi la valeur à vie du client est-elle importante?
Lorsqu'il s'agit d'augmenter la rentabilité de votre entreprise, la valeur à vie des clients joue un rôle énorme.
Si vous êtes propriétaire d'une entreprise, voici pourquoi vous devez calculer la CLV:
- Se concentrer sur le bon segment de clientèle – Avec l'aide de la valeur à vie du client, vous pouvez vous concentrer sur fidélisation de la clientèle avec le segment d'utilisateurs qui génèrent le plus de revenus
- Estimer le coût d'acquisition de nouveaux utilisateurs – Obtenir de nouveaux visiteurs est souvent coûteux, il est donc important de savoir si cela coûtera pour les acquérir
- Améliorez l'expérience utilisateur – En calculant la CLV, vous pouvez trouver des zones pour améliorer l'expérience utilisateur et maximiser la valeur à différents points de contact
- Créez des relations durables – Développer des relations à long terme avec les clients est la clé de profits élevés et CLV peut vous aider à voir à quel point votre fidélité à la marque est
Maintenant, êtes-vous prêt à voir les calculs de la valeur à vie des clients?
Comment calculer la valeur à vie du client?
Dans sa forme la plus simple, la formule de valeur à vie du client multiplie la valeur d'achat moyenne par le nombre de fois qu'un client achète vos produits chaque année et la durée pendant laquelle le client entretient une relation avec votre marque.
Cela ressemble à une bouchée, n'est-ce pas? Ne vous inquiétez pas, nous allons l'expliquer avec un exemple.
Supposons que vous ayez une boutique de chaussures en ligne et qu'un client dépense 75 $ chaque année pour 1 paire de baskets pour les 10 prochaines années. Ainsi, la valeur à vie du client serait de 750 $ (75 x 1 x 10).
Dans le même temps, un autre client achète également 1 paire de bottes en cuir pour 150 $ pendant 10 ans. Leur CLV s'élèvera à 1 500 $ (150 x 1 x 10).
Si vous comparez le CLV pour les deux segments d'acheteurs, vous verrez que les clients des bottes en cuir sont plus rentables que les baskets.
Bien qu'il s'agisse d'un moyen simple de calculer la valeur de la durée de vie du client, dans de nombreuses grandes organisations, le calcul devient plus compliqué.
Mais avec les bons outils, vous pouvez facilement comprendre chacun des composants de la formule. Nous allons vous montrer comment …
Valeur d'achat moyenne
Pour connaître la valeur d'achat moyenne de votre site Web, vous pouvez simplement diviser votre revenu total avec le nombre total de commandes.
Et si vous ne voulez pas passer par le processus manuel, vous pouvez utiliser MonsterInsights. Cela vous permet configurer correctement Google Analytics dans WordPress et consultez des rapports détaillés dans votre tableau de bord.
En utilisant son Module complémentaire de commerce électronique, vous pouvez afficher la valeur moyenne des commandes de votre site Web WordPress ou de votre boutique en ligne. Après avoir installé le plugin, accédez à Perspectives " Rapports puis sélectionnez commerce électronique du haut.
Sélectionnez maintenant la plage de dates et affichez la valeur moyenne de votre commande / achat.
Nombre d'articles commandés
MonsterInsights peut également vous aider à découvrir le nombre total d'articles commandés. Ses Rapport de commerce électronique vous donne une liste de Produits phares ainsi que la quantité, le pourcentage des ventes et le revenu total.
Vous pouvez utiliser le rapport pour voir la quantité totale de produits commandés au cours d'une période. Utilisez ensuite les chiffres pour calculer la valeur à vie du client pour chaque catégorie de produit.
Durée de vie moyenne d'un client
Maintenant, l'estimation de la durée de vie d'un client peut être un peu délicate. Vous pouvez utiliser des références de l'industrie pour calculer la durée de vie d'un client pour commencer. Ou si vous êtes dans l'entreprise depuis longtemps, vous pouvez utiliser des données antérieures pour arriver à un chiffre.
Cependant, un moyen plus simple de connaître la durée de vie consiste à utiliser le taux de désabonnement. Il s'agit du taux auquel un client ne fait plus affaire avec votre entreprise.
Si vous divisez 1 par votre taux de désabonnement, vous pouvez estimer la durée de vie moyenne de vos clients. Une fois que vous avez le chiffre, branchez simplement tout dans la formule et calculez la CLV.
Comment augmenter la valeur à vie d'un client?
Après avoir calculé le montant des bénéfices qu'un client générera pour votre site Web, voici quelques façons d'augmenter la valeur à vie du client:
- Augmenter les visiteurs de retour – Si vous pouvez faire revenir les gens sur votre site, vous aurez un 75% plus de chances de faire un achat, ce qui signifie une augmentation du CLV
- Créer des programmes de fidélité – Vous pouvez offrir des récompenses aux visiteurs pour qu'ils achètent à nouveau vos produits et services et les transforment en clients fidèles
- Fournir un support client supérieur – Il est important que vous résolviez les requêtes de vos clients en temps opportun et répondiez à toutes leurs requêtes, afin qu'ils aient une grande expérience avec votre entreprise
- Restez en contact avec vos clients – En restant en contact avec vos clients, soit par le biais d'un Courriel, les réseaux sociaux ou tout autre support, vous leur rappelez que vous ne les avez pas oubliés et cela vous aide à développer une relation avec vos acheteurs
- Offres groupées et produits incitatifs – Vous pouvez augmenter la valeur à vie de vos clients en vendant des produits ou en proposant des offres sur des produits qui se complètent
- Facilitez le processus d'achat – Gardez le processus d'achat simple et en quelques étapes car de nombreux visiteurs abandonner les chariots en raison de méthodes ou de formulaires de paiement compliqués demandant beaucoup d'informations
Et voilà, les amis!
Vous savez maintenant à quel point vos clients sont précieux, lesquels devriez-vous acquérir davantage et quels segments conserver.
Nous espérons que vous avez aimé notre article sur la valeur à vie du client et comment la calculer. Vous pouvez également consulter notre Suivi des conversions WooCommerce.
N'oubliez pas de nous suivre sur Twitter et Facebook pour des didacticiels Google Analytics et WordPress plus utiles.
Seulement 45% des spécialistes du référencement estiment que leur travail est sécurisé
Une enquête auprès de près de 500 spécialistes SEO révèle que moins de la moitié se sentent en sécurité dans leurs positions, citant les changements d'algorithme comme source de préoccupation.
Environ 80% des référenceurs sont préoccupés par le fait que les changements d'algorithmes auront un impact négatif sur leur carrière. Près de 3 sur 4 craignent que les changements d'algorithme aient des implications négatives pour l'industrie dans son ensemble.
Il s'avère que ces préoccupations ne sont pas infondées, car 60% des spécialistes du référencement disent avoir subi des licenciements ou des licenciements à la suite de changements d'algorithme.
Bien que près d'un SEO sur 4 considère leur sécurité d'emploi comme précaire, la plupart rapportent un niveau élevé de satisfaction au travail.
Satisfaction au travail SEO
Plus des deux tiers des référenceurs se disent satisfaits de leur travail, qualifiant généralement leur travail de «créatif», «engageant» et «intelligent».
Comme tout travail, être un SEO s'accompagne de ses propres frustrations. Par exemple, en moyenne trois jours par semaine, les répondants au sondage ont déclaré qu'ils dépassaient la journée de travail typique de huit heures.
De plus, environ un quart des experts SEO ont travaillé plus de huit heures cinq jours ou plus par semaine. La raison de consacrer autant d'heures de travail pourrait être des délais serrés auxquels sont confrontés de nombreuses personnes dans l'industrie. Près de 44% des référenceurs se disent frustrés par des délais très courts.
D'autres frustrations courantes parmi les référenceurs sont répertoriées dans le graphique ci-dessous:
La plupart disent que le référencement n'est pas leur carrière à long terme
Les gens de l'industrie du SEO ne prévoient pas y rester longtemps, car la majorité des répondants au sondage disent qu'ils veulent rester dans leur domaine pour seulement 1 à 6 ans de plus.
Moins de 12% des SEO disent qu'ils resteront dans l'industrie pour le reste de leur carrière.
Pour plus d'informations sur les défis rencontrés par les SEO en 2020, ainsi que les prévisions pour l'avenir de la recherche, voir l'étude complète ici.
Le référencement On-SERP peut vous aider à lutter contre les résultats sans clic • Yoast
Edwin Toonen
Edwin est un spécialiste du contenu stratégique. Avant de rejoindre Yoast, il a passé des années à perfectionner ses compétences au sein du premier magazine de conception Web aux Pays-Bas.
Le référencement On-SERP est le processus d'optimisation complète de la première page d'un moteur de recherche pour maximiser la visibilité de votre marque. Le référencement On-SERP est un outil que vous pouvez utiliser pour lutter contre l'augmentation des recherches dites zéro-clic. Découvrez tout sur le SEO sur SERP dans cet article.
Montée de la recherche zéro clic
Rand Fishkin de SparkToro suit les développements de Google depuis longtemps. Un de ses travaux étudie les changements dans la façon dont les gens recherchent et où vont les clics, sur la base des données d'une firme d'analyse. De ses récents rapports émerge une tendance intéressante: moins de 50% de toutes les recherches mènent à un clic! Ce sont les recherches dites de zéro clic.


Bien sûr, la baisse du clic peut être attribuée en partie à la hausse des résultats riches. Pour de nombreuses requêtes, ces résultats, tels que les extraits, les zones de réponse et les graphiques de connaissances, ont tendance à répondre à la question exacte d'un chercheur. Souvent, laissant le chercheur sans avoir à cliquer sur un article complet. Étant donné que Google travaille dur pour mieux comprendre les langues, les entités et les intentions, il n'est pas surprenant qu'il parvienne à répondre à un nombre croissant et à un ensemble de questions toujours plus difficiles.
En plus d'augmenter ses compétences, Google étend également ses propres propriétés dans la recherche. Pour des secteurs tels que les voyages, vous pouvez presque réserver un voyage complet sans jamais quitter Google. Il ne faudra pas longtemps avant que ce dernier obstacle ne disparaisse également. Bien sûr, les utilisateurs finaux aiment interagir avec des résultats riches car ils répondent souvent immédiatement à leurs besoins.
Ces développements permettent à Google de gagner une énorme quantité de trafic vers ses propres propriétés, de YouTube aux vols et emplois aux événements, laissant les entreprises et les particuliers réguliers du mal à trouver de la place pour briller dans les SERP. L'un des moyens que vous pourriez utiliser pour lutter contre cela s'appelle le référencement on-SERP.
Qu'est-ce que le référencement on-SERP?
Avec le référencement on-SERP, vous essayez d'obtenir autant de visibilité pour une requête – ou votre marque – sur la première page de Google que possible. Cela ne signifie pas que vous devriez écrire dix articles sur votre sujet principal dans l'espoir qu'ils apparaissent tous sur la première page de Google, car c'est un rêve de pipe. Non, il s'agit de posséder tous les domaines où cela compte:
- Un extrait en vedette
- Un poste de haut rang
- Le panneau du graphe des connaissances
- Les gens demandent aussi des boîtes
- Recherche d'image
- Recherche vidéo
- Pack local de trois
- Et peut-être diffuser une ou deux publicités pour votre marque
Combinés, ces éléments SERP vous donneront une exposition maximale pour votre marque. De plus, la visibilité pourrait conduire à un meilleur CTR. Néanmoins, il pourrait être judicieux d'examiner les sources de trafic / visibilité en dehors des griffes de Google.


Remarque: La semaine dernière, Google a changé sa façon de gérer les URL en double pour les publications qui ont un extrait en vedette. Dans le passé, l'extrait en vedette était à la position 0, mais il est maintenant essentiellement le numéro 1. Le résultat régulier de cet extrait en vedette est supprimé des résultats, ne laissant que l'extrait en vedette. Cela pourrait avoir une incidence sur la façon dont vous abordez votre travail et il pourrait être plus difficile de «posséder» les SERP.
Comment cela peut-il bénéficier à votre site?
La principale raison de travailler sur votre référencement on-SERP est d'améliorer la visibilité de votre marque. Tout ne concerne pas la circulation! Il ne faut pas différer si vous pouvez investir dans le référencement on-SERP. Cela n'entraîne pas toujours plus de trafic, vous devez donc vous demander si vous pouvez vivre sans obtenir de trafic de cet extrait en vedette.
Pour de nombreuses recherches et industries, il est difficile d'occuper une charge de fonctionnalités de page de résultats de recherche. Donc, ce que vous pouvez faire dépend de qui vous êtes – ou pour qui vous travaillez, bien sûr. Par exemple, les recherches sans marque compliquent l'accès au graphique des connaissances. Enquêter et voir ce que vous pouvez réaliser!
Comment démarrer avec le SEO sur SERP
Le processus de référencement on-SERP se compose de plusieurs parties. Tout d'abord, vous devez savoir comment vous allez. D'où viennent les gens? Comment vous trouvent-ils? Quel est le CTR de vos phrases clés principales? De plus, comment évoluent tous ces chiffres?
Lorsque vous avez brossé un tableau de votre situation, vous commencez à regarder les SERPs et essayez de trouver des opportunités pour vous démarquer.
Regardez les SERPs
Regarder les SERPs est incroyablement gratifiant – et une tâche essentielle. Cela vous donnera non seulement une idée de ce qui se passe dans votre secteur, pour vos phrases clés ou votre marque, mais il signalera également des opportunités. Vous devez également regarder ce qui est ne pas Là. Lorsque vous connaissez enfin vos SERP, vous voyez les changements que Google apporte sous vos yeux. De plus, vous pourriez être prêt à agir si nécessaire.
Vous remarquerez des résultats riches, tels que des extraits, qui apparaissent et disparaissent, et vous verrez différents éléments se déplacer sur la page. De plus, vous voyez ce que font vos concurrents. Vous remarquerez également des changements de classement lorsqu'ils apparaissent. Plusieurs suites SEO – comme Moz Pro et SEMrush – fournissent des outils pour suivre ce qui arrive aux SERPs et quelles fonctionnalités SERP apparaissent pour certaines phrases clés.
Si vous avez une solide compréhension de vos SERP pertinents, vous pourriez avoir une chance de briller en cours de route. Soyez sûr d'agir si cela a du sens!
Trouver des opportunités
Les SERP contiennent de nombreuses réponses, mais n’ayez pas peur de commencer à sortir des sentiers battus. Il existe plusieurs façons d'augmenter la visibilité de votre site dans les recherches. Voyons-en deux.
Améliorez le contenu basé sur l'intention de recherche
Un outil très utile dans votre arsenal est intention de recherche recherche. Essayez de savoir comment et quand les gens se retrouvent sur votre site et faites correspondre cela à votre parcours client. Vous avez manqué quelques spots? Pouvez-vous apparaître plus tôt dans le voyage? À quoi ressemblent les SERP à chaque étape du voyage et votre contenu correspond-il aux points de contact?
Améliorez votre travail basé sur des phrases clés
Les moteurs de recherche parviennent à mieux définir ce qu'est réellement une requête, mais ils sont loin d'être irréprochables pour faire correspondre cela avec une réponse correcte. Cela signifie que vous devez toujours fournir aux moteurs de recherche tous les détails auxquels vous pouvez penser. Donc, il est logique d'examiner l'intention de recherche, mais il est également logique de faire de l'ancienne recherche par mot clé. Mais maintenant, ne regardez pas simplement quels mots ont le potentiel de trafic le plus élevé, mais aussi une bonne chance en un clic!
Extraits de recherche en vedette
Une place de choix en haut des résultats de recherche – qui ne veut pas ça? Obtenir un extrait en vedette est un bon moyen de se mettre sous les projecteurs. Il n'est pas toujours facile d'obtenir des clics à partir d'un extrait en vedette, mais si vous le faites, les résultats peuvent être intéressants à voir. Il n'est peut-être même pas nécessaire de tout faire pour les clics, car les extraits de site peuvent également être utilisés pour renforcer la confiance ou accroître la notoriété de la marque.
Obtenir un extrait en vedette prend du travail et est beaucoup plus facile si vous vous situez déjà sur la première page avec votre contenu. Cela signifie que vous devez prioriser l'obtention d'extraits en vedette pour le contenu qui fonctionne déjà bien. N'oubliez pas de vérifier si vos recherches vous indiquent de nouvelles opportunités.
Améliorez la recherche visuelle et vidéo
Le référencement On-SERP signifie également améliorer la trouvabilité de vos images et vidéos. Pour vos phrases clés principales, votre contenu visuel doit être prioritaire. Aucun contenu visuel n'apparaît lors de la recherche d'images pour votre marque ou vos phrases clés? Vous n'avez pas de vidéos? Eh bien, vous savez quoi faire si vous voulez occuper pleinement les SERPs. le Module complémentaire Yoast Video SEO vous aide à obtenir ces vidéos dans la recherche.
Gérez vos réseaux sociaux
Votre des médias sociaux peut apparaître dans les recherches de votre marque – tweets dans la recherche et liens dans le panneau du graphique des connaissances -, il est donc bon de mettre du travail dans ces profils. Ils n'augmentent pas vraiment le trafic, mais les gens peuvent consulter ces profils pour se faire une opinion sur votre entreprise.
Ajouter des données structurées
Données structurées est extrêmement important pour que les moteurs de recherche comprennent vraiment en quoi consiste votre site. En utilisant correctement les données structurées pour un sujet donné (recettes, événements, emplois, etc.), les moteurs de recherche peuvent même vous récompenser avec une liste de résultats riche. Cela signifie que votre résultat de recherche est mis en évidence, ce qui signifie qu'il occupera plus de biens immobiliers dans les SERPs. Yoast SEO ajoute automatiquement un grand nombre de données structurées de schéma à votre site pour les propriétés les plus importantes. Vous pouvez également utiliser les blocs de contenu Yoast SEO pour créer Pages FAQ et articles pratiques qui ressortent des résultats de recherche.
Améliorez votre fiche locale
Il est important de regarder ce que fait votre site localement. Google My Business est un incontournable si vous souhaitez que votre entreprise se démarque dans les résultats locaux. Organisez votre annonce, gérez les avis et affinez vos photos. Avoir un profil local vivant peut vraiment aider votre visibilité et votre notoriété.
Supprimer des publicités pour votre marque
Depuis que Google diffuse des annonces juste sous la barre de recherche, c'est une bonne idée de retirer les publicités pour votre propre marque – ou des mots clés, s'ils sont abordables. De cette façon, vous obtenez une place supplémentaire en haut que Google ne peut pas vous enlever. De plus, cela empêche un concurrent de faire de la publicité en votre nom.
Conclusion sur le référencement on-SERP
À l'ère de la baisse des clics, vous avez besoin de toute l'aide que vous pouvez obtenir pour rester visible pour le chercheur. L'une des choses que vous pouvez faire est d'examiner les SERPs pour essayer de trouver des moyens d'occuper beaucoup de biens immobiliers. Le référencement On-SERP peut vous aider à accroître la notoriété de votre marque. Il vous aide également à obtenir de nouvelles informations sur ce qui change dans Google et comment vous pouvez y réagir.
Il n’a pas de sens d’aller à fond avec le SEO on-SERP pour tout vos phrases clés. Mais il est logique de faire ressortir votre marque, ce qui est plus facile car vous disposez de la plupart des outils disponibles pour obtenir ce panneau de connaissances et cette liste d'annonces.
Source link
Que sont-ils et importent-ils?
Les gens disent que LSI les mots clés ont le pouvoir d'améliorer le classement Google. Est-ce vrai ou est-ce encore un autre SEO mythe?
Lisez presque n'importe quel article sur LSI mots-clés, et on vous dira deux choses:
- Google utilise une technologie appelée LSI pour indexer des pages Web.
- En utilisant LSI les mots clés de votre contenu vous aident mieux classé sur Google.
Ces deux affirmations sont techniquement fausses.
Dans ce guide, vous apprendrez pourquoi et pourquoi y remédier.
Mais d'abord, les bases…
LSI les mots clés sont des mots et des expressions que Google considère comme liés sémantiquement à un sujet,au moins selon beaucoup dans le SEO communauté. Si vous parlez de voitures, alors LSI les mots clés peuvent être voiture, moteur, route, pneus, véhicule, et transmission automatique.
Mais, selon John Mueller de Google, LSI les mots clés n'existent pas:
Il n'y a rien de tel que LSI mots-clés – toute personne qui vous dit le contraire se trompe, désolé.— 🍌 John 🍌 (@JohnMu) 30 juillet 2019
Alors, quel est le problème ici?
Avant de répondre à cette question, nous devons d'abord comprendre un peu plus LSI lui-même.
Indexation sémantique latente (LSI), ou analyse sémantique latente (LSA), est une technique de traitement du langage naturel mise au point dans les années 80.
Malheureusement, à moins que vous ne soyez familier avec des concepts mathématiques comme valeurs propres, vecteurs, et décomposition de valeur unique, la technologie elle-même n'est pas si facile à comprendre.
Pour cette raison, nous ne nous attaquerons pas à la façon dont LSI travaux.
Au lieu de cela, nous allons nous concentrer sur le problème pour lequel il a été créé.
Voici comment les créateurs de LSI définir ce problème:
Les mots qu'un chercheur utilise ne sont souvent pas les mêmes que ceux par lesquels les informations recherchées ont été indexées.
Mais qu'est-ce que cela signifie réellement?
Dites que vous voulez savoir quand l'été se termine et que l'automne commence. Votre WiFi est en panne, alors vous allez à la vieille école et prenez une encyclopédie. Au lieu de parcourir aléatoirement des milliers de pages, vous recherchez «tomber» dans l'index et faites glisser vers la bonne page.
Voici ce que vous voyez:
De toute évidence, ce n'est pas le type de chute que vous vouliez découvrir.
Vous n'êtes pas vaincu aussi facilement, vous reculez et vous rendez compte que ce que vous recherchez est indexé sous "automne" – un autre nom pour l'automne.
Le problème ici est que «tomber» est un mot synonyme et polysémique.
Quels sont les synonymes?
Les synonymes sont des mots ou des expressions qui signifient la même chose ou presque la même chose qu'un autre mot ou une autre expression.
Les exemples comprennent riches et riches, tomber et l'automne, et voitures et automobiles.
Voici pourquoi les synonymes sont problématiques, selon le LSI brevet:
[…] il y a une grande diversité dans les mots que les gens utilisent pour décrire le même objet ou concept; c'est ce qu'on appelle la synonymie. Les utilisateurs dans des contextes différents, ou avec des besoins, des connaissances ou des habitudes linguistiques différents décriront les mêmes informations en utilisant des termes différents. Par exemple, il a été démontré que deux personnes choisissent le même mot-clé principal pour un seul objet bien connu moins de 20% du temps en moyenne.
Mais comment cela se rapporte-t-il aux moteurs de recherche?
Imaginez que nous ayons deux pages Web sur les voitures. Les deux sont identiques, mais on remplace toutes les instances du mot voitures pour automobiles.
Si nous devions utiliser un moteur de recherche primitif qui indexe uniquement les mots et les phrases de la page, il ne renverrait qu'une de ces pages pour la requête «voitures».
C'est mauvais car les deux résultats sont pertinents; c'est juste que l'on décrit ce que nous recherchons d'une manière différente. La page qui utilise le mot voiture au lieu de voitures pourrait même être le meilleur résultat.
Conclusion: les moteurs de recherche doivent comprendre les synonymes pour renvoyer les meilleurs résultats.
Que sont les mots polysémiques?
Les mots et expressions polysémiques sont ceux qui ont plusieurs significations différentes.
Les exemples incluent la souris (rongeur / ordinateur), la banque (institut financier / berge) et lumineuse (lumière / intelligente).
Voici pourquoi cela cause des problèmes, selon les créateurs de LSI:
Dans différents contextes ou lorsqu'il est utilisé par différentes personnes, le même mot revêt une signification référentielle variable (par exemple, «banque» sur la rive par rapport à «banque» sur une caisse d'épargne). Ainsi, l'utilisation d'un terme dans une requête de recherche ne signifie pas nécessairement qu'un objet texte contenant ou étiqueté par le même terme présente un intérêt.
Ces mots présentent aux moteurs de recherche un problème similaire aux synonymes.
Par exemple, disons que nous recherchons «ordinateur Apple». Notre moteur de recherche primitif peut renvoyer ces deux pages, même si l'une n'est clairement pas ce que nous recherchons:
Conclusion: les moteurs de recherche qui ne comprennent pas les différentes significations des mots polysémiques sont susceptibles de renvoyer des résultats non pertinents.
Les ordinateurs sont stupides.
Ils n'ont pas la compréhension inhérente des relations verbales que nous, les humains.
Par exemple, tout le monde sait que gros et grand signifie la même chose. Et tout le monde sait que John Lennon était dans les Beatles.
Mais un ordinateur n'a pas cette connaissance sans qu'on le lui dise.
Le problème est qu'il n'y a aucun moyen de tout dire à un ordinateur. Cela prendrait trop de temps et d'efforts.
LSI résout ce problème en utilisant des formules mathématiques complexes pour dériver les relations entre les mots et les phrases d'un ensemble de documents.
En termes simples, si nous courons LSA sur un ensemble de documents sur les saisons, l'ordinateur peut probablement comprendre certaines choses:
Tout d'abord, le mot tomber est synonyme de l'automne:
Deuxièmement, des mots comme saison, été, hiver, tomber, et printemps sont tous sémantiquement liés:
Troisième, tomber est sémantiquement lié à deux ensembles de mots différents:
Les moteurs de recherche peuvent ensuite utiliser ces informations pour aller au-delà de la correspondance exacte des requêtes et fournir des résultats de recherche plus pertinents.
Compte tenu des problèmes LSI résout, il est facile de voir pourquoi les gens supposent que Google utilise LSI La technologie. Après tout, il est clair que la correspondance des requêtes exactes n'est pas un moyen fiable pour les moteurs de recherche de renvoyer des documents pertinents.
De plus, nous constatons chaque jour que Google comprend la synonymie:
Et la polysémie:
Mais malgré cela, Google n'utilise presque certainement pas LSI La technologie.
Comment savons nous? Les représentants de Google le disent.
Vous ne les croyez pas?
Voici trois autres éléments de preuve pour étayer ce fait:
1. LSI est une ancienne technologie
LSI a été inventé dans les années 1980 avant la création du World Wide Web. En tant que tel, il n'a jamais été destiné à s'appliquer à un si grand ensemble de documents.
C'est pourquoi Google a depuis développé une technologie meilleure et plus évolutive pour résoudre les mêmes problèmes.
Bill Slawski met le mieux:
LSI la technologie n'a pas été créée pour quelque chose de la taille du Web […] Google a développé une approche de vecteur de mots (utilisée pour Rankbrain) qui est beaucoup plus moderne, évolue beaucoup mieux et fonctionne sur le Web. En utilisant LSI lorsque vous avez Word2vec disponible, ce serait comme piloter une Ferrari avec un go-cart.
2. LSI a été créé pour indexer les collections de documents connues
Le World Wide Web est non seulement vaste mais aussi dynamique.
Cela signifie que les milliards de pages de l'index de Google changent régulièrement.
C’est un problème car le LSI Le brevet nous dit que l'analyse doit être exécutée "à chaque fois qu'il y a une mise à jour importante dans les fichiers de stockage".
Cela prendrait beaucoup de puissance de traitement.
3. LSI est une technologie brevetée
le Indexation sémantique latente (LSI) brevet a été accordée à Bell Communications Research, Inc. en 1989. Susan Dumais, l'une des co-inventeurs qui ont travaillé sur la technologie, a rejoint Microsoft en 1997, où elle a travaillé sur des innovations liées à la recherche.
Cela dit, NOUS les brevets expirent après 20 ans, ce qui signifie que le LSI expiré en 2008.
Étant donné que Google était assez bon pour comprendre le langage et renvoyer des résultats pertinents bien avant 2008, il s'agit là d'un autre élément de preuve suggérant que Google n'utilise pas LSI.
Encore une fois, Bill Slawski le dit le mieux:
Google tente d'indexer les synonymes et autres significations des mots. Mais il n'utilise pas LSI la technologie pour le faire. L'appeler LSI trompe les gens. Google propose des substitutions de synonymes et des améliorations de requête basées sur des synonymes depuis au moins 2003, mais cela ne signifie pas qu'ils utilisent LSI. Ce serait comme dire que vous utilisez un appareil télégraphique intelligent pour vous connecter au Web mobile.
La plupart des référenceurs voient "LSI mots-clés "comme rien de plus que des mots, des phrases et des entités connexes.
Si nous adoptons cette définition, bien qu'elle soit techniquement inexacte, alors oui, l'utilisation de mots et d'expressions connexes dans votre contenu peut presque certainement vous aider. améliorer SEO.
Comment savons nous? Google nous le dit indirectement ici:
Pensez-y: lorsque vous recherchez «chiens», vous ne voulez probablement pas une page contenant le mot «chiens» des centaines de fois. Dans cet esprit, les algorithmes évaluent si une page contient un autre contenu pertinent au-delà du mot clé "chiens" – comme des photos de chiens, des vidéos ou même une liste de races.
Sur une page sur les chiens, Google voit les noms des races individuelles comme sémantiquement liés.
Mais pourquoi ces pages d'aide se classent-elles pour les termes pertinents?
Simple: car ils aident Google à comprendre le sujet général de la page.
Par exemple, voici deux pages qui mentionnent chacune le mot «chiens» autant de fois:
En regardant d'autres mots et expressions importants sur chaque page, nous apprenons que seule la première concerne les chiens. Le second concerne principalement les chats.
Google utilise ces informations pour classer les pages pertinentes pour les requêtes pertinentes.
Si vous connaissez un sujet, vous naturellement inclure des mots et des expressions connexes dans votre contenu.
Par exemple, il serait difficile d'écrire sur les meilleurs jeux vidéo sans mentionner des mots et des phrases comme "PS4 jeux "," Call of Duty "et" Fallout ".
Mais il est facile de rater des sujets importants, en particulier avec des sujets plus complexes.
Par exemple, notre guide des liens nofollow omet de mentionner quoi que ce soit sur le parrainé et UGC attributs de lien:
Google considère probablement ces termes importants et sémantiquement liés que tout bon article sur le sujet devrait mentionner.
C'est peut-être la raison pour laquelle les articles qui parlent de ces choses nous dépassent.
Dans cet esprit, voici neuf façons de trouver des mots, des phrases et des entités potentiellement liés:
1. Faites preuve de bon sens
Vérifiez vos pages pour voir si vous avez manqué des points évidents.
Par exemple, si la page est un article biographique sur Donald Trump et ne mentionne pas sa mise en accusation, cela vaut probablement la peine d'ajouter une section à ce sujet.
Ce faisant, vous mentionnerez naturellement des mots, des phrases et des entités connexes tels que «Rapport Mueller», «Nancy Pelosi» et «dénonciateur».
Sidenote.
N'oubliez pas qu'il n'y a aucun moyen de savoir avec certitude si Google considère ces mots et expressions comme sémantiquement liés. Cependant, comme Google vise à comprendre les relations entre les mots et les entités que nous, les humains, comprenons intrinsèquement, il y a quelque chose à dire pour utiliser le bon sens.
2. Regardez les résultats de la saisie semi-automatique
Les résultats de saisie semi-automatique n'indiquent pas toujours les mots clés associés importants, mais ils peuvent fournir des indices sur ceux qui méritent d'être mentionnés.
Par exemple, nous voyons «Donald Trump époux»,« Donald Trump âge»Et« Donald Trump Twitter»En tant que résultats de saisie semi-automatique pour« donald trump ».
Ces mots clés ne sont pas liés en eux-mêmes, mais les personnes et les choses auxquelles ils se réfèrent peuvent l'être. Dans ce cas, ce sont Melania Trump, 73 ans, et @realDonaldTrump.
Probablement toutes les choses qui devraient être mentionnées dans un article biographique, non?
3. Regardez les recherches connexes
Les recherches associées apparaissent en bas des résultats de recherche.
Comme les résultats de saisie semi-automatique, ils peuvent donner des indices sur les mots, expressions et entités potentiellement liés qui méritent d'être mentionnés.
Ici, «éducation Donald Trump» fait référence à L'école Wharton de l'Université de Pennsylvanie qu'il a assisté.
4. Utilisez un "LSI outil "mot clé"
Populaire “LSI générateurs de mots clés "ont rien faire avec LSI. Cependant, ils renvoient parfois quelques idées utiles.
Par exemple, si nous connectons «Donald Trump» à un outil populaire, il attire des personnes (entités) apparentées comme son épouse, Melania Trump, et son fils, Barron Trump.
5. Examinez les autres mots clés pour lesquels les premières pages se classent
Utilisez le rapport sur les idées de mots clés "Classer également pour" dans Explorateur de mots-clés d'Ahrefs pour trouver des mots, des phrases et des entités potentiellement liés.
S'il y en a trop à gérer, essayez d'exécuter un Analyse de l'écart de contenu en utilisant trois des pages les mieux classées, puis définissez le nombre d'intersections sur «3».
Cela montre les mots clés pour lesquels toutes les pages se classent, ce qui vous donne souvent une liste plus raffinée de mots et d'expressions connexes.
6. Exécutez un TF*IDF une analyse
TF-IDF a rien à voir avec l'indexation sémantique latente (LSI) ou analyse sémantique latente (LSA), mais cela peut parfois aider à découvrir des mots, des phrases et des entités «manquants».
7. Regardez les bases de connaissances
Bases de connaissances comme Wikidata.org et Wikipédia sont des sources fantastiques de termes connexes.
Google extrait également les données du graphique des connaissances de ces deux bases de connaissances.
8. Rétro-ingénierie du graphe des connaissances
Google stocke les relations entre de nombreuses personnes, des choses et des concepts dans ce que l'on appelle un graphe de connaissances. Les résultats du graphique des connaissances apparaissent souvent dans les résultats de recherche Google.
Essayez de rechercher votre mot-clé et voyez si des données du graphique de connaissances apparaissent.
Parce que ce sont des entités et des points de données que Google associe au sujet, il vaut vraiment la peine d'en parler pertinent ceux où cela a du sens.
9. Utilisez le langage naturel de Google API trouver des entités
Collez le texte d'une page de haut niveau dans Langue naturelle de Google API démo. Recherchez les entités pertinentes et potentiellement importantes que vous auriez pu manquer.
Dernières pensées
LSI les mots clés n'existent pas, mais les mots, expressions et entités sémantiquement liés existent, et ils ont le pouvoir d'améliorer le classement.
Assurez-vous simplement de les utiliser là où cela a du sens, et de ne pas les saupoudrer au hasard quand et où.
Dans certains cas, cela peut signifier l'ajout de nouvelles sections à votre page.
Par exemple, si vous souhaitez ajouter des mots et des entités comme «impeachment» et «House Intelligence Committee» à un article sur Donald Trump, cela nécessitera probablement quelques nouveaux paragraphes sous une nouvelle sous-rubrique.
Avez-vous d'autres questions sur LSI mots clés?
Laisser un commentaire ou me cingler sur Twitter.
Un conseil pour savoir exactement à quoi s'attendre du référencement en 2020 Search Engine Watch


Entre 2010 et 2015, l'industrie du SEO est passée du statut de boîte à astuces ombragée à celle de canal marketing leader et essentiel, stimulée par les données, les tendances et les statistiques de comportement des utilisateurs.
Avec les changements en cours, Google a gardé les agences de référencement, les pigistes et les équipes internes sur leurs gardes en publiant mise à jour après mise à jour pour affiner et façonner non seulement ce à quoi ils veulent que les résultats de recherche ressemblent, mais aussi comment ils veulent que nous agissions et travaillions en leur sein. Cela comprenait la fameuse mise à jour Penguin Update, destinée aux pratiques de spam et de création de liens, qui aurait eu un impact sur environ 0,1% des recherches lors de son lancement initial, mais a ensuite façonné l'importance de la création de liens positifs, de l'utilisation d'outils et de données et de rôles de travail nés autour Stratégie de contenu SEO tout en renforçant l'importance du marketing de contenu.
À long terme avec le développement de RankBrain et (perçu) plus proche des changements d'algorithmes en temps réel, plus de mises à jour de base sur une base régulière et le voyage à travers « Le contenu est roi '' vers UX – Le référencement est devenu théorisé dans un certain sens, avec beaucoup d'entre nous avoir nos propres opinions et approches pour le même résultat final.
Alors que nous atteignons 2020, nous constatons dans certaines régions que les nouveaux développements de Google ralentissent, la société se concentrant apparemment sur la mise à jour des suites de rapports et des mises à jour principales qui n'offrent guère plus qu'une "amélioration des résultats de recherche". Nous ne sommes plus redevables des prochaines grandes mises à jour de Penguin ou Panda, mais plutôt du fonctionnement interne de Google et des mises à jour sporadiques de ses consignes de qualité de recherche – dans cet esprit, que pouvons-nous attendre exactement du référencement en 2020? Adhérer aux directives de Google devient plus difficile ou plus facile?
Nous savons tous comment fonctionne le référencement et beaucoup d'entre nous auront des spécialités ou des approches de référencement qui nous semblent obtenir des résultats plus rapidement, mais avec des mises à jour vagues et des ajustements inopinés des algorithmes, devient-il plus difficile d'adhérer aux directives de Google?
Certainement, l'imprévisibilité est un facteur parfois – avec les récentes mises à jour des directives de recherche sur YMYL et E-A-T annoncées, il y a une perception que les poteaux de but se déplacent très légèrement, de temps en temps.
Cela signifie que si vous marquez juste à l'intérieur de l'article lundi, vous pourriez être loin de la marque d'une fraction mardi. Pour les sites Web où l'équipe SEO est à la merci du développement Web ou d'autres facteurs hors de leur contrôle, cela peut s'avérer difficile.
Bien sûr, toute agence de référencement ou spécialiste qui vaut son pesant d'or pourra esquisser et aborder tous les problèmes avec une solution en main.
Le revers de la médaille est, cependant, que nous avons tous une idée claire de ce à quoi ressemble un bon site Web et de ce qui va classer la page 1 pour les personnes choisies. mots clés. Avec les mises à jour des lignes directrices, une industrie qui partage des connaissances pas comme les autres et qui se concentre sur le développement de stratégies à l'épreuve du temps, il n'y a aucune raison pour que chaque mise à jour envoie des campagnes SEO en spirale.
En 2020, nous prévoyons que la prochaine vague de directives sera publiée, et notre prédiction est que celles-ci se concentreront à nouveau sur la confiance et l'autorité – pas à un million de kilomètres de là où nous avons été ces dernières années.
Agir et respecter les consignes de qualité de recherche
Les consignes de qualité pour la recherche Google sont régulièrement mises à jour. Ces consignes reflètent la façon dont Google souhaite que vous travailliez au sein d'un site Web et le processus que l'algorithme du moteur de recherche prendra pour évaluer la pertinence du site Web pour l'utilisation des mots clés.
Ces directives prennent en compte:
- MANGER – L'expert, l'autorité, la confiance du site Web par rapport au sujet cible
- Qualité de la page – Comment la page est présentée, comment elle fonctionne et si elle a à cœur les meilleurs intérêts de l'utilisateur
- Besoins satisfaits – Facteurs permettant de savoir si la page RÉPOND aux besoins de la requête
La qualité de la page est évaluée pour identifier où le texte est placé, la formulation utilisée, le contenu utilisé et la qualité du contenu.
Les mises à jour les plus récentes de Google placent les éléments E-A-T au cœur de la section Qualité de la page de ses consignes, en fonction de l'industrie et du type de produit.
L'approche globale et les actions nécessaires pour respecter (ou en fait dépasser) les directives de Google sont que la page doit être "plus spécifique que la requête, mais serait toujours utile pour de nombreux ou la plupart des utilisateurs car" la société est réputée dans le zone.
Les neuf principaux facteurs que les gestionnaires de contenu devraient vérifier pour le référencement sur la page
Élément à optimiser | Définition |
URL de la page de destination | URL de la page de destination (après le nom du site Web) |
Titre méta | Ceci est le lien bleu qui s'affiche dans Google |
Meta Description | Le texte qui apparaît sous le lien bleu dans les résultats de la recherche – pour attirer un utilisateur sur lequel cliquer |
Titre 1 Tag | Un titre qui s'affiche en haut d'une page |
Rubrique 2/3 Tags | Titres supplémentaires placés dans le contenu d'une page |
Contenu | Le contenu physique de la page doit répondre à des critères particuliers |
Densité des mots clés | Le pourcentage de mots clés sur le rapport texte total sur une page |
Images | La taille, le nom et le titre d'une image sur la page |
Liens internes | Liens pointant vers d'autres pages du site |
La dépendance au SEO technique est réduite mais reste importante
Le référencement technique est en hausse depuis un certain nombre d'années, mais le buzz derrière s'est quelque peu stabilisé au cours des 12 derniers mois environ – bien qu'il soit toujours essentiel de réaliser régulièrement des audits d'un point de vue technique. Traditionnellement, le référencement technique comprend la structure Web, la vitesse, l'hébergement, etc. – avec JSON, le balisage et le balisage structuré en découlent.
Dans toutes les bases de clients, nous avons constaté que le besoin de SEO technique diminue régulièrement d'un peu moins de 50%, avec des audits de plus grande envergure, la collaboration avec le développement Web sur les nouvelles constructions de sites et les analyses régulières sur la santé étant la norme. Travailler de cette manière permet de répartir efficacement le temps entre plusieurs domaines du référencement et une meilleure utilisation du budget. L'éducation sur les aspects techniques côté client signifie également que les agences de référencement et les professionnels peuvent concentrer leur temps ailleurs.
Dans les audits techniques SEO semi-réguliers, il y a quelques éléments de base à vérifier, qui aideront tous à identifier les problèmes et à améliorer les performances techniques d'un site Web, sans impacter le quotidien du marketing de recherche.
Les huit principaux facteurs à vérifier pour le référencement technique
Élément à optimiser | Définition |
Structure Web et structure URL | Essentiellement, les dossiers utilisés dans le site Web sont créés |
HTTPS / SSL | Sécurité pour les clients ou utilisateurs visitant le site |
HTML Build | Éléments clés d'un code derrière un site Web |
CSS / Javascript | Code derrière le thème et la fonctionnalité d'un site |
Schéma / JSON | Code qui permet aux sites Web d'envoyer des informations supplémentaires aux moteurs de recherche |
Vitesse du serveur | La vitesse à laquelle les serveurs répondent aux demandes des utilisateurs |
Sitemaps / Robots | Utilisé par Google pour explorer des sites Web |
Accessibilité | Toutes les pages peuvent-elles être trouvées |
2020 et au-delà
Comme toujours, Google est susceptible de lancer quelques boules de courbe – Cependant, l'industrie du SEO est de retour à maturité et ce n'est plus un domaine d'expertise que "n'importe qui" peut essayer. Il est nécessaire de comprendre le marché de vos clients, leurs clients, leurs garanties et les exigences de Google pour réussir. Suivant une structure claire, des audits réguliers et des approches systématiques permettront de réaliser tout ce qui précède.
Keith Hodges, responsable de la recherche chez POLARIS, est un expert en référencement avec plus de huit ans d'expérience dans l'industrie.
Lecture connexe
Avec la recherche de mots clés et de backlinks, la création de liens et les audits de sites Web, la recherche sur la concurrence est un élément fondamental d'une campagne de référencement réussie.
Les collaborations de l'équipe de référencement peuvent amplifier la portée de l'audience et dépasser vos objectifs lorsque vous commencez par le haut et travaillez des stratégies de référencement dans toutes les facettes.
Cette infographie de Businessfinancing.co.uk décompose chaque produit publicitaire Amazon et fournit des conseils pour commencer votre première campagne publicitaire Amazon.
Source link
Comment configurer des alertes Google en 2 minutes ou moins?
On nous demande souvent s'il existe un moyen de suivre les mentions d'un site Web ou d'une marque? Et pouvez-vous suivre vos concurrents?
Avec Google Alertes, vous pouvez facilement voir ce que les gens disent de vos marques ou ce que font les autres dans l'industrie.
Dans cet article, nous allons vous montrer comment configurer les alertes Google en 2 minutes ou moins. Nous expliquerons également comment vous pouvez utiliser ces alertes pour développer votre entreprise.
Que sont les alertes Google?
Google Alertes est un outil de suivi qui vous envoie des notifications instantanées par e-mail à partir de tout terme ou expression de recherche que vous souhaitez suivre.
Il s'agit d'un service gratuit de Google, excellent pour surveiller la réputation de la marque et écouter ce que les utilisateurs ont à dire sur vos produits et services.
Alors, combien pouvez-vous avoir d'alertes Google?
Vous pouvez avoir jusqu'à 1 000 alertes par compte Gmail. Et si vous vous demandez si vous pouvez configurer les alertes Google sans Gmail, ce n'est malheureusement plus possible.
Mais créer un compte Gmail est très simple et gratuit. Avec cela, voyons à quel point il est facile de configurer les alertes Google.
Comment configurer les alertes Google?
Suivez simplement ces étapes et vous pourrez suivre votre site Web, votre nom de marque, votre adresse, votre mot-clé ou toute phrase que vous souhaitez.
Étape 1: Ouvrez le site des alertes Google
Pour commencer, allez à Page Alertes Google où vous pouvez ajouter de nouvelles alertes et les gérer. Une fois sur le site, se connecter en utilisant votre compte Google.
ce que les gens disent de votre marque. Et s'il y a des commentaires ou des commentaires négatifs, vous en serez immédiatement informé et pourrez les résoudre.
référencement de votre site (optimisation pour les moteurs de recherche) en vous montrant ce que les autres écrivent sur votre mots clés cibles.
Cela est particulièrement utile si vous essayez de trouver de nouvelles idées de sujets ou de nouveaux angles pour faire ressortir votre contenu.
En obtenant des mises à jour régulières sur le contenu publié sur le Web autour de ces requêtes, vous pourrez créer un meilleur contenu que les autres.
Par exemple, vous permet d'écrire sur les dernières technologies et vous recevez une alerte sur les dernières nouvelles. Lorsque vous ajoutez ces nouvelles à votre contenu, cela peut vous différencier des autres résultats de recherche et envoyer des signaux positifs au moteur de recherche.
3. Gardez une trace des efforts de marketing de vos concurrents
L'un des moyens les plus simples de savoir ce que font vos concurrents consiste à configurer les alertes Google. Il vous aide à espionner leurs tactiques de marketing.
Par exemple, vous pouvez configurer des mentions de concurrents en ajoutant simplement le nom de leur site Web, les produits, le propriétaire et les autres représentants de l'entreprise, l'adresse, etc.
Donc, chaque fois que quelqu'un les mentionne sur le Web, vous savez de quoi il s'agit. De cette façon, vous pouvez trouver des opportunités de backlink en approchant le même site Web que celui lié à votre concurrent.
4. Identifiez les nouvelles idées de contenu de vos concurrents
En suivant vos concurrents, vous pouvez également trouver nouvelles idées de contenu pour votre site Web. Au lieu de créer des alertes de leurs noms de marque, vous pouvez entrer l'URL de leur page de blog.
Suivi des conversions WooCommerce.
N'oubliez pas de nous suivre sur Facebook et Twitter pour plus de conseils et de guides sur les services Google.