Comment suivre les classements des packs de cartes
L’une des premières étapes de toute campagne de référencement local consiste à évaluer où vous en êtes.
Plus précisément, vous voulez savoir où vous vous situez dans The Map Pack. Et suivez vos classements Map Pack au fil du temps.
Presque tous les suivis de rang sur la planète ont un suivi de Map Pack.
Le problème, c’est que, avec le référencement local, vous cherchez énormément. En fait, les résultats du pack de cartes peuvent être complètement différents d'un kilomètre à l'autre.
Par exemple, supposons que quelqu'un cherche un «café» sur les 72 e et 2e avenues de New York.
Ces résultats seront extrêmement adaptés à la situation de cette personne.
En fait, cette même recherche effectuée à quelques pâtés de maisons peut faire apparaître un site complètement différent des résultats de Map Pack (ou les mêmes résultats dans un ordre différent).
Si vous suivez uniquement les classements locaux à partir d’un seul endroit (comme «New York»), vous ne voyez qu’un petit échantillon de votre classement dans le monde réel.
C'est pourquoi tu veux obtenir super granulaire avec vos classements locaux. De cette façon, vous pouvez voir où vous vous situez dans toute votre ville ou votre région.
Je recommande un outil appelé Faucon local pour ce genre de suivi détaillé de la carte.
Mais il y en a d'autres, comme Viking local, qui font à peu près la même chose.
En tous cas…
La première étape consiste à choisir le nom de votre entreprise (Remarque: ce flux provient directement de Google Maps. Pour utiliser cet outil, vous avez besoin d’un profil Google My Business déjà configuré).
Ensuite, choisissez un mot clé pour lequel vous souhaitez vérifier votre classement.
Enfin, choisissez le degré de spécificité ou le type de suivi de votre classement.
Par exemple, voici un rayon de suivi de 5 miles (8 km).
Elle est configurée avec une grille 7 x 7, ce qui vous donne une bonne idée de la position de votre entreprise dans cette zone.
(Cette grille peut aller jusqu'à 15 x 15 si vous voulez vraiment voir les limites de votre classement).
Ensuite, il est temps de vérifier le classement.
Une fois que l'outil a fait son travail, vous obtenez une interface visuelle qui affiche votre classement pour chaque position géographique:
Comme vous pouvez le constater, vous obtenez une belle carte interactive qui indique votre classement dans de nombreux endroits de la ville.
Comme vous pouvez le constater, les classements sont meilleurs à la périphérie de la ville… et empirent progressivement au fur et à mesure que vous vous rendez au centre-ville.
Ce n’est pas nécessairement un problème. Il se peut qu’un concurrent ait un emplacement plus central que votre hôtel. Donc, pour quelqu'un qui cherche à partir de cet endroit, Google considère que le concurrent est un meilleur choix.
Cela dit, vous devriez utiliser cet outil pour trouver des endroits où vous devriez «bien» vous classer… mais ne le faites pas.
Par exemple, vous pouvez constater que cette entreprise de pavage locale occupe le premier rang dans l'extrême nord de la ville… à un point près.
Donc, dans ce cas, vous voudriez cliquer sur le résultat pour voir qui vous devance:
Dans ce cas, un concurrent occupe le premier rang.
Mais si vous n'êtes pas satisfait du poste n ° 2, vérifiez l'adresse du concurrent dans sa liste. De cette façon, vous pouvez vérifier leur emplacement physique sur cette carte.
Et lorsque vous indiquez la position du compétiteur sur la carte du classement, vous pouvez comprendre pourquoi vous rencontrez des difficultés pour décrocher la place n ° 1.
L'explication simple est que cet emplacement de recherche est BEAUCOUP plus proche du concurrent. Il est donc parfaitement logique que Google veuille faire de ce concurrent le premier résultat.
Avoir un site vitrine pour présenter son activité, ses produits et services sur internet permet d’accroître ses revenus en touchant un plus large public. Mais, si votre site web ne génère pas de trafics, vous perdez votre investissement. Pour plus de visibilité pour propulser votre activité sur internet, il y a des points sur lesquels vous devrez vous axer. Découvrez 3 orientations, 3 clés indispensables pour booster votre site internet.
La gestion de votre webmarketing
Récoltez autant d’adresses mail que vous le pouvez pour constituer une liste conséquente d’abonnés, et envoyez régulièrement des messages sur les nouveautés, de petits aspects qui les interpellaient. Incluez des liens vers votre site pour pousser à en savoir plus, en découvrir plus. Cette tactique appelée émailing est un puissant outil de marketing qui permet de gagner et de fidéliser des visiteurs sur son site.
Selon les critères de votre activité, les caractéristiques et centres d’intérêt de vos clients, les outils de marketing varient. Il vous faut donc travailler sur votre clientèle actuelle pour mieux cerner ce qu’ils aiment, ce qu’ils pensent et surtout où les trouver. Cela vous permettra de leur présenter le bon produit au bon moment : le but même du marketing.
Sur ce site, un spécialiste dans l’optimisation de la visibilité sur les moteurs de recherche vous attend pour développer le potentiel de votre site internet. Cet expert free-lance a fait ses preuves avec les résidents en Bretagne et plus particulièrement à Rennes.
L’optimisation de votre contenu
Ce que vous publiez sur votre site déterminera le temps que passeront les internautes sur celui-ci, ainsi que son positionnement sur les moteurs de recherche.
Le titre et le lien principal de votre site internet doivent contenir les mots clés de votre activité et rester simples, faciles à mémoriser pour les visiteurs. Le texte que vous publiez sur votre site se doit de répondre succinctement aux besoins des internautes qui visitent, sans pour autant être trop court ni trop long, selon le thème à aborder. Ne vous contentez pas des mots clés habituels ou phares, insérez d’autres mots clés qui optimisent votre référencement.
De plus, l’utilisation de liens d’autorité et de qualité sur votre site augmentera les redirections vers votre site internet à partir d’autres sites web, dans votre secteur et dans la même langue. N’hésitez pas à ajouter des images, des vidéos, des GIF avec des légendes et des formats adaptés pour mieux illustrer ce que vous dites au public.
Votre activité sur les réseaux sociaux
Les réseaux sociaux drainent plus de monde qu’on ne l’imaginait, et offrent une large audience si le bon public est visé. Créez un compte et une page sur un réseau en tenant compte de votre activité et publiez régulièrement, en faisant du storytelling pour attirer plus de visiteurs sur votre site internet. Positionnez donc sur votre site des boutons de partage sur les réseaux sociaux.
N’hésitez pas non plus à faire la publicité payante : ce sera un petit investissement par rapport à ce que vous gagnerez plus tard grâce au site.
Robots.txt est l’un des fichiers les plus simples sur un site Web, mais c’est aussi l’un des plus faciles à gâcher. Un seul personnage hors de propos peut faire des ravages sur votre SEO et empêchez les moteurs de recherche d’accéder à du contenu important sur votre site.
C’est pourquoi les erreurs de configuration de robots.txt sont extrêmement courantes, même parmi les utilisateurs expérimentés. SEO professionnels.
Dans ce guide, vous apprendrez:
Qu'est-ce qu'un fichier robots.txt?
Un fichier robots.txt indique aux moteurs de recherche où ils peuvent et ne peuvent pas aller sur votre site.
En premier lieu, il répertorie tout le contenu que vous souhaitez verrouiller en dehors des moteurs de recherche tels que Google. Vous pouvez également dire à certains moteurs de recherche (pas Google) Comment ils peuvent explorer le contenu autorisé.
note importante
La plupart des moteurs de recherche sont obéissants. Ils n’ont pas l’habitude de casser une entrée. Cela dit, certains n'hésitent pas à choisir quelques verrous métaphoriques.
Google n'est pas l'un de ces moteurs de recherche. Ils obéissent aux instructions d'un fichier robots.txt.
Sachez simplement que certains moteurs de recherche l'ignorent complètement.
À quoi ressemble un fichier robots.txt?
Voici le format de base d’un fichier robots.txt:
Plan du site: [URL location of sitemap]
Agent utilisateur: [bot identifier]
[directive 1]
[directive 2]
[directive ...]
Agent utilisateur: [another bot identifier]
[directive 1]
[directive 2]
[directive ...]
Si vous n’avez jamais vu l’un de ces fichiers auparavant, cela peut sembler décourageant. Cependant, la syntaxe est assez simple. En bref, vous attribuez des règles aux robots en indiquant leur agent utilisateur suivi par les directives.
Explorons ces deux composants plus en détail.
User-agents
Chaque moteur de recherche s'identifie avec un agent utilisateur différent. Vous pouvez définir des instructions personnalisées pour chacune d’elles dans votre fichier robots.txt. Il y a des centaines d'agents utilisateurs, mais en voici quelques unes utiles pour SEO:
Google: Googlebot
Google images: Googlebot-Image
Bing: Bingbot
Yahoo: Slurp
Baidu: Baiduspider
DuckDuckGo: DuckDuckBot
Sidenote.
Tous les agents utilisateurs sont sensibles à la casse dans le fichier robots.txt.
Vous pouvez également utiliser le caractère générique étoile (*) pour attribuer des directives à tous les agents utilisateurs.
Par exemple, supposons que vous vouliez empêcher tous les robots, à l'exception de Googlebot, d'explorer votre site. Voici comment vous le feriez:
Sachez que votre fichier robots.txt peut inclure des directives pour autant d’agents d’utilisateur que vous le souhaitez. Cela dit, chaque fois que vous déclarez un nouvel agent utilisateur, cela agit comme une table rase. En d’autres termes, si vous ajoutez des directives pour plusieurs agents d’utilisateur, les directives déclarées pour le premier agent d’utilisateur ne s’appliquent pas aux deuxième, troisième, quatrième, etc.
L'exception à cette règle est lorsque vous déclarez le même agent d'utilisateur plus d'une fois. Dans ce cas, toutes les directives pertinentes sont combinées et suivies.
IMPORTANTREMARQUE
Les robots d'exploration ne suivent que les règles déclarées sous le ou les agents utilisateurs qui s'applique le plus précisément à eux. C’est pourquoi le fichier robots.txt ci-dessus bloque l’exploration du site par tous les robots sauf Googlebot (et les autres robots Google). Googlebot ignore la déclaration d'agent utilisateur moins spécifique.
Les directives
Les directives sont des règles que vous souhaitez que les agents utilisateurs déclarés respectent.
Directives supportées
Voici les directives actuellement prises en charge par Google, ainsi que leurs utilisations.
Refuser
Utilisez cette directive pour indiquer aux moteurs de recherche de ne pas accéder aux fichiers et aux pages qui se trouvent sous un chemin spécifique. Par exemple, si vous souhaitez empêcher tous les moteurs de recherche d'accéder à votre blog et à ses publications, votre fichier robots.txt peut ressembler à ceci:
Agent utilisateur: *
Interdire: / blog
Sidenote.
Si vous ne parvenez pas à définir un chemin après la directive d'annulation, les moteurs de recherche l'ignoreront.
Autoriser
Utilisez cette directive pour permettre aux moteurs de recherche d'analyser un sous-répertoire ou une page, même dans un répertoire autrement non autorisé. Par exemple, si vous souhaitez empêcher les moteurs de recherche d'accéder à toutes les publications de votre blog, à l'exception d'une seule, votre fichier robots.txt peut alors ressembler à ceci:
Agent utilisateur: *
Interdire: / blog
Autoriser: / blog / allowed-post
Dans cet exemple, les moteurs de recherche peuvent accéder à / blog / allowed-post. Mais ils ne peuvent pas accéder à:
/ blog / autre-post / blog / yet-another-post /blog/download-me.pdf
Google et Bing prennent en charge cette directive.
Sidenote.
Comme avec la directive interdire, si vous ne parvenez pas à définir un chemin après la directive allow, les moteurs de recherche l'ignoreront.
une note sur les règles contradictoires
À moins que vous ne soyez prudent, les directives d'annulation et d'autorisation peuvent facilement entrer en conflit. Dans l'exemple ci-dessous, nous interdisons l'accès à /Blog/ et permettant l'accès à /Blog.
Agent utilisateur: *
Interdit: / blog /
Autoriser: / blog
Dans ce cas, le URL/ blog / post-titre / semble être à la fois rejeté et autorisé. Alors qui gagne?
Pour Google et Bing, la règle est que la directive contenant le plus de caractères l'emporte. Ici, c’est la directive interdire.
Interdit: / blog /(6 caractères) Autoriser: / blog(5 personnages)
Si les directives autoriser et interdire ont la même longueur, la directive la moins restrictive l'emporte. Dans ce cas, ce serait la directive d'autorisation.
Sidenote.
Ici, /Blog (sans la barre oblique finale) est toujours accessible et analysable.
Cruciale, ce n'est que le cas pour Google et Bing. D'autres moteurs de recherche écoutent la première directive correspondante. Dans ce cas, cela est interdit.
Plan du site
Utilisez cette directive pour spécifier l'emplacement de votre plan Sitemap sur les moteurs de recherche. Si vous ne connaissez pas bien les sitemaps, ils incluent généralement les pages que vous souhaitez que les moteurs de recherche explorent et indexent.
Voici un exemple de fichier robots.txt utilisant la directive sitemap:
Plan du site: https://www.domain.com/sitemap.xml
Agent utilisateur: *
Interdit: / blog /
Autoriser: / blog / post-title /
Quelle est l’importance d’inclure votre ou vos sitemap (s) dans votre fichier robots.txt? Si vous avez déjà envoyé votre candidature via la console de recherche, il est quelque peu redondant pour Google. Cependant, il indique aux autres moteurs de recherche tels que Bing où trouver votre sitemap, donc c’est toujours une bonne pratique.
Notez qu'il n'est pas nécessaire de répéter la directive sitemap plusieurs fois pour chaque agent utilisateur. Cela ne s'applique pas à un seul. Il est donc préférable d’inclure les directives de sitemap au début ou à la fin de votre fichier robots.txt. Par exemple:
Plan du site: https://www.domain.com/sitemap.xml
Agent utilisateur: Googlebot
Interdit: / blog /
Autoriser: / blog / post-title /
Agent utilisateur: Bingbot
Interdit: / services /
Google les soutiens la directive sitemap, tout comme Ask, Bing et Yahoo.
Sidenote.
Vous pouvez inclure autant de sitemaps que vous le souhaitez dans votre fichier robots.txt.
Auparavant, vous pouviez utiliser cette directive pour spécifier un délai d'analyse en secondes. Par exemple, si vous souhaitez que Googlebot attend 5 secondes après chaque analyse, définissez le délai d'analyse sur 5 comme suit:
Agent utilisateur: Googlebot
Délai d'attente: 5
Google ne prend plus en charge cette directive, mais Bing et Yandex faire.
Cela dit, soyez prudent lorsque vous définissez cette directive, surtout si vous avez un grand site. Si vous définissez un délai d’exploration de 5 secondes, vous empêchez les robots d’exploiter 17 280 URL par jour au maximum. Ce n'est pas très utile si vous avez des millions de pages, mais cela pourrait économiser de la bande passante si vous avez un petit site Web.
Noindex
Cette directive n'a jamais été officiellement prise en charge par Google. Cependant, jusqu'à récemment, Google pensait qu'il existait un «code qui gère les règles non prises en charge et non publiées (telles que noindex)». Ainsi, si vous souhaitez empêcher Google d'indexer tous les articles de votre blog, vous pouvez utiliser la directive suivante:
Agent utilisateur: Googlebot
Noindex: / blog /
Cependant, le 1er septembre 2019, Google a précisé que cette directive n'est pas supportée. Si vous souhaitez exclure une page ou un fichier des moteurs de recherche, utilisez la balise meta robots ou x-robots. HTTP en-tête à la place.
Pas de suivi
Il s'agit d'une autre directive que Google n'a jamais officiellement prise en charge. Elle permettait aux moteurs de recherche de ne pas suivre les liens sur les pages et les fichiers par un chemin spécifique. Par exemple, si vous souhaitez empêcher Google de suivre tous les liens de votre blog, vous pouvez utiliser la directive suivante:
Agent utilisateur: Googlebot
Nofollow: / blog /
Google a annoncé que cette directive n'était pas officiellement prise en charge le 1er septembre 2019. Si vous souhaitez maintenant ne plus suivre tous les liens d'une page, vous devez utiliser la balise méta des robots ou l'en-tête x-robots. Si vous souhaitez empêcher Google de suivre des liens spécifiques sur une page, utilisez l'attribut rel = “nofollow”.
Avez-vous besoin d'un fichier robots.txt?
Avoir un fichier robots.txt n’est pas crucial pour beaucoup de sites Web, surtout les plus petits.
Cela dit, il n’ya aucune bonne raison de ne pas en avoir un. Il vous donne plus de contrôle sur les endroits où les moteurs de recherche peuvent et ne peuvent pas aller sur votre site Web, ce qui peut vous aider dans les domaines suivants:
Prévenir images, vidéosEt des fichiers de ressources apparaissant dans les résultats de recherche Google.
Notez que bien que Google n’indexe généralement pas les pages Web bloquées dans le fichier robots.txt, Il n’existe aucun moyen de garantir l’exclusion des résultats de la recherche à l’aide du fichier robots.txt..
Comme Google ditSi le contenu est lié à d’autres endroits sur le Web, il peut toujours apparaître dans les résultats de recherche Google.
Comment trouver votre fichier robots.txt
Si vous avez déjà un fichier robots.txt sur votre site Web, il sera accessible à l'adresse suivante: domaine.com/robots.txt. Accédez au URL dans votre navigateur. Si vous voyez quelque chose comme ceci, alors vous avez un fichier robots.txt:
Comment créer un fichier robots.txt
Si vous ne possédez pas déjà un fichier robots.txt, il est facile de le créer. Ouvrez simplement un document .txt vierge et commencez à taper des directives. Par exemple, si vous souhaitez interdire à tous les moteurs de recherche d’analyser votre / admin / répertoire, cela ressemblerait à quelque chose comme ça:
Agent utilisateur: *
Interdit: / admin /
Continuez à élaborer les directives jusqu’à ce que vous soyez satisfait de ce que vous avez. Enregistrez votre fichier sous le nom «robots.txt».
Alternativement, vous pouvez également utiliser un générateur robots.txt comme celui-là.
L'avantage d'utiliser un outil comme celui-ci est qu'il minimise les erreurs de syntaxe. C’est bien parce qu’une erreur peut entraîner une SEO catastrophe pour votre site – il est donc utile de pécher par excès de prudence.
L’inconvénient est qu’ils sont quelque peu limités en termes de personnalisation.
Où placer votre fichier robots.txt
Placez votre fichier robots.txt dans le répertoire racine du sous-domaine auquel il s’applique. Par exemple, pour contrôler le comportement d’exploration sur domain.com, le fichier robots.txt doit être accessible à l’adresse suivante: domaine.com/robots.txt.
Si vous souhaitez contrôler l’exploration sur un sous-domaine tel que blog.domain.com, le fichier robots.txt doit être accessible à l’adresse suivante: blog.domain.com/robots.txt.
Meilleures pratiques du fichier Robots.txt
Gardez cela à l'esprit pour éviter les erreurs courantes.
Utilisez une nouvelle ligne pour chaque directive
Chaque directive doit être placée sur une nouvelle ligne. Sinon, les moteurs de recherche seront confondus.
Utiliser des caractères génériques pour simplifier les instructions
Vous pouvez non seulement utiliser des caractères génériques (*) pour appliquer des directives à tous les agents utilisateur, mais également URL modèles lors de la déclaration de directives. Par exemple, si vous souhaitez empêcher les moteurs de recherche d'accéder aux URL de catégorie de produit paramétrées sur votre site, vous pouvez les répertorier comme suit:
Mais ce n’est pas très efficace. Il serait préférable de simplifier les choses avec un caractère générique comme celui-ci:
Agent utilisateur: *
Interdit: / produits / *?
Cet exemple empêche les moteurs de recherche d'analyser toutes les URL du sous-dossier / product / qui contiennent un point d'interrogation. En d'autres termes, toute URL de catégorie de produit paramétrée.
Utilisez “$” pour spécifier la fin d'un URL
Inclure le symbole «$» pour marquer la fin d’un URL. Par exemple, si vous souhaitez empêcher les moteurs de recherche d'accéder à tous les fichiers .pdf de votre site, votre fichier robots.txt peut ressembler à ceci:
Agent utilisateur: *
Interdit: /*.pdf
Dans cet exemple, les moteurs de recherche ne peuvent accéder aux URL se terminant par .pdf. Cela signifie qu’ils ne peuvent pas accéder à /file.pdf, mais à /file.pdf?id=68937586 car cela ne se termine pas par “.pdf”.
Utilisez chaque utilisateur-agent une seule fois
Si vous spécifiez le même agent utilisateur à plusieurs reprises, cela ne dérange pas Google. Il combinera simplement toutes les règles des différentes déclarations en une et les suivra toutes. Par exemple, si vous aviez les directives et agents utilisateur suivants dans votre fichier robots.txt…
Agent utilisateur: Googlebot
Interdit: / a /
Agent utilisateur: Googlebot
Interdit: / b /
… Googlebot ne serait pas analyser l'un ou l'autre de ces sous-dossiers.
Cela dit, il est judicieux de déclarer chaque agent utilisateur une seule fois, car cela crée moins de confusion. En d’autres termes, vous êtes moins susceptible de faire des erreurs critiques en gardant les choses ordonnées et simples.
Utilisez la spécificité pour éviter les erreurs non intentionnelles
L'omission de fournir des instructions spécifiques lors de la définition des directives peut entraîner des erreurs facilement omises pouvant avoir un impact catastrophique sur votre système. SEO. Par exemple, supposons que vous avez un site multilingue et que vous travaillez sur une version allemande qui sera disponible dans le sous-répertoire / de /.
Parce que ce n’est pas tout à fait prêt, vous voulez empêcher les moteurs de recherche d’y accéder.
Le fichier robots.txt ci-dessous empêchera les moteurs de recherche d'accéder à ce sous-dossier et à tout ce qu'il contient:
Agent utilisateur: *
Interdit: / de
Mais cela empêchera également les moteurs de recherche d’analyser les pages ou les fichiers commençant par / de.
Dans ce cas, la solution est simple: ajoutez une barre oblique finale.
Agent utilisateur: *
Interdit: / de /
Utilisez des commentaires pour expliquer votre fichier robots.txt aux humains
Les commentaires aident à expliquer votre fichier robots.txt aux développeurs, voire même à votre avenir. Pour inclure un commentaire, commencez la ligne par un dièse (#).
# Ceci indique à Bing de ne pas explorer notre site.
Agent utilisateur: Bingbot
Interdit: /
Les robots ignorent tout sur les lignes commençant par un hachage.
Utilisez un fichier robots.txt distinct pour chaque sous-domaine.
Robots.txt contrôle uniquement le comportement d’exploration sur le sous-domaine où il est hébergé. Si vous souhaitez contrôler l’exploration dans un sous-domaine différent, vous aurez besoin d’un fichier robots.txt distinct.
Par exemple, si votre site principal est installé sur domain.com et votre blog est assis sur blog.domain.com, vous auriez alors besoin de deux fichiers robots.txt. L'un doit aller dans le répertoire racine du domaine principal et l'autre dans le répertoire racine du blog.
Exemple de fichiers robots.txt
Vous trouverez ci-dessous quelques exemples de fichiers robots.txt. Celles-ci sont principalement d’inspiration, mais si l’on en trouve une qui correspond à vos exigences, copiez-le dans un document texte, enregistrez-le sous le nom “robots.txt” et chargez-le dans le répertoire approprié.
All-Access pour tous les robots
Agent utilisateur: *
Refuser:
Sidenote.
A défaut de déclarer un URL après qu'une directive rend cette directive redondante. En d'autres termes, les moteurs de recherche l'ignorent. C’est pourquoi cette directive d’annulation n’a aucun effet sur le site. Les moteurs de recherche peuvent toujours analyser toutes les pages et tous les fichiers.
Pas d'accès pour tous les robots
Agent utilisateur: *
Interdit: /
Bloquer un sous-répertoire pour tous les robots
Agent utilisateur: *
Interdit: / dossier /
Bloquer un sous-répertoire pour tous les robots (avec un seul fichier autorisé)
Bloquer un type de fichier (PDF) pour tous les robots
Agent utilisateur: *
Interdit: /*.pdf
Bloquer toutes les URL paramétrées pour Googlebot uniquement
Agent utilisateur: Googlebot
Interdit: / *?
Comment vérifier votre fichier robots.txt pour les erreurs
Les erreurs de Robots.txt peuvent facilement glisser à travers le filet, il est donc utile de garder un œil ouvert sur les problèmes.
Pour ce faire, recherchez régulièrement les problèmes liés à robots.txt dans le rapport «Couverture» de Console de recherche. Vous trouverez ci-dessous certaines des erreurs que vous pouvez voir, ce qu’elles signifient et comment les corriger.
Besoin de vérifier les erreurs liées à une page donnée?
Coller un URL dans Google URL Outil d'inspection dans la console de recherche. S'il est bloqué par le fichier robots.txt, vous devriez voir quelque chose comme ceci:
Soumis URL bloqué par robots.txt
Cela signifie qu'au moins une des URL des plans de votre site soumis est bloquée par le fichier robots.txt.
Si vous créé votre sitemap correctement et exclu canonisé, noindexed, et redirigé pages, puis aucune page soumise ne doit être bloquée par robots.txt. Si tel est le cas, recherchez quelles pages sont affectées, puis ajustez votre fichier robots.txt en conséquence pour supprimer le bloc de cette page.
Vous pouvez utiliser Le test de robots.txt de Google pour voir quelle directive bloque le contenu. Faites attention en faisant ceci. Il est facile de faire des erreurs qui affectent d’autres pages et fichiers.
Bloqué par robots.txt
Cela signifie que votre fichier est bloqué par le fichier robots.txt qui n'est pas encore indexé dans Google.
Si ce contenu est important et doit être indexé, supprimez le bloc d'analyse dans le fichier robots.txt. (Cela vaut également la peine de s’assurer que le contenu n’est pas non indexé). Si vous avez bloqué le contenu du fichier robots.txt dans l’intention de l’exclure de l’index de Google, supprimez le bloc d’exploration et utilisez plutôt une balise méta ou un en-tête x-robots. C’est le seul moyen de garantir l’exclusion du contenu de l’index de Google.
Sidenote.
La suppression du bloc d'analyse lors d'une tentative d'exclusion d'une page des résultats de la recherche est cruciale. Si vous ne le faites pas, Google ne verra pas le tag noindex ni HTTP en-tête, donc il restera indexé.
Indexé, bien que bloqué par robots.txt
Cela signifie qu'une partie du contenu bloqué par robots.txt est toujours indexée dans Google.
Encore une fois, si vous essayez d’exclure ce contenu des résultats de recherche de Google, le fichier robots.txt n’est pas la bonne solution. Supprimez le bloc d’exploration et utilisez plutôt un balise meta robots ou balise x ‑ robots HTTP entête pour empêcher l'indexation.
Si vous avez bloqué ce contenu par accident et que vous souhaitez le conserver dans l'index de Google, supprimez le bloc d'analyse dans le fichier robots.txt. Cela peut aider à améliorer la visibilité du contenu dans la recherche Google.
FAQ
Voici quelques questions fréquemment posées qui ne rentrent pas naturellement dans notre guide. Faites-nous savoir dans les commentaires si quelque chose manque, et nous mettrons à jour la section en conséquence.
Quelle est la taille maximale d’un fichier robots.txt?
Comment modifier le fichier robots.txt dans WordPress?
Soit manuellement, soit en utilisant l’un des les nombreux WordPress SEO plugins comme Yoast qui vous permet de modifier le fichier robots.txt à partir du backend de WordPress.
Que se passe-t-il si j'autorise l'accès au contenu non indexé dans le fichier robots.txt?
Google ne verra jamais la directive noindex car il ne peut pas explorer la page.
DYK bloquer une page à la fois avec un fichier robots.txt interdit Et un noindex dans la page n'a pas beaucoup de sens car Googlebot ne peut pas "voir" le noindex? pic.twitter.com/N4639rCCWt– Gary “理” Illyes (@methode) 10 février 2017
Dernières pensées
Robots.txt est un fichier simple mais puissant. Utilisez-le judicieusement, et cela peut avoir un impact positif sur SEO. Utilisez-le au hasard et, eh bien, vous vivrez à le regretter.
J'ai constaté que la plupart de mes clients connaissaient un peu le SEO, mais ils ne savaient pas exactement comment le faire fonctionner pour eux aussi bien qu'il le devrait. Enseigner le référencement aux clients doit faire partie des services de gestion des clients que vous fournissez lors des présentations de vente SEO.
Le référencement est un vaste sujet qui couvre beaucoup de terrain. Le défi consiste à expliquer comment le référencement consiste à communiquer toutes les manières dont vous pouvez améliorer le référencement en des termes que les clients peuvent comprendre, de sorte que cela ne ressemble plus tellement à une langue étrangère.
J’ai constaté que mes clients comprenaient mieux la valeur du référencement lorsque je pouvais les aider à comprendre son importance dans les plans de marketing numérique d’aujourd’hui et à leur en parler sans être trop technique.
J'ai trouvé des moyens efficaces pour lancer Services de référencement et avec leur aide, je développe un plan de référencement personnalisé conçu pour le succès. Les points partagés ci-dessous vous aideront à transmettre de nombreuses informations cruciales à vos clients.
Pourquoi le référencement est nécessaire pour votre entreprise
Lorsque j'enseigne le référencement aux nouveaux clients et leur montre comment démontrer leur valeur, je garde trois choses à l'esprit:
Expliquez le référencement en utilisant un langage qui leur est familier
Démontrer que le référencement est toujours d'actualité
Expliquez la valeur du référencement de la manière la plus simple possible
Pour faire connaissance avec mes clients, j’aimerais commencer par expliquer que le référencement est un outil essentiel du succès, en tant que point de départ d’une conversation plus pointue sur la façon de montrer la valeur du référencement.
Les clients qui ne se dépêchent pas d’embrasser le référencement, à moins de comprendre parfaitement une chose simple: le nouveau mode hors connexion en ligne. Pratiquement toutes les entreprises sont désormais présentes en ligne et les gens ont l'habitude de tout faire en ligne.
Pourquoi faire du référencement? Les clients doivent se concentrer sur le référencement, car les gens vont à Google pour explorer presque tout, des symptômes médicaux aux nouveaux restaurants. Cela souligne à nouveau que online est le nouveau offline. La recherche organique est la principale source de trafic sur la plupart des sites Web, et votre visibilité en ligne dépend en grande partie de votre classement dans Google. Si vous décidez de sortir dîner dans un bon restaurant italien ce soir, vous pourrez naviguer en ligne et trouver des restaurants de votre région dans Google Maps, consulter les photos, le menu et lire les avis.
Points importants à mentionner pour expliquer pourquoi le référencement est important
La recherche organique est la principale source de trafic Web
Le référencement crée la confiance dans vos produits et votre entreprise
Le référencement améliore le cycle d’achat car il place votre entreprise là où le public est
Si la plupart des clients savent ce que signifie le référencement, ils ne sont généralement pas aussi familiarisés avec les termes associés. J'essaie d'évaluer leur base de connaissances en SEO aussi rapidement que possible afin de pouvoir combler leurs lacunes en matière de connaissances.
Pourquoi Educate clients sur le référencement?
Fournir des services de référencement ne consiste pas uniquement à obtenir des résultats, même si c’est une grande partie de celle-ci. Notre société est plus férue de technologie qu'avant. Il est important de donner crédit à nos clients pour ce qu’ils savent et de les éduquer sur les facteurs «en coulisse» avec lesquels ils travaillent. SEO.
Le référencement est un outil précieux et lorsque nous pouvons aider nos clients à mieux comprendre son fonctionnement, ils peuvent en voir plus facilement la valeur. Notre crédibilité et nos moyens de subsistance en tant que professionnels du référencement dépendent de notre capacité à expliquer et à démontrer la valeur.
J'ai récemment eu une conversation avec Eugene Levin, CSO de SEMrush, qui estime qu’il est important d’éduquer les dirigeants dans les entreprises.
Voici ce qu’il a dit
«Nous faisons de notre mieux pour éduquer nos employés et nos clients. Chacun de nos employés doit comprendre le référencement et savoir utiliser SEMrush et tous ses outils. Alors que nous rencontrons souvent les clients, nous rencontrons souvent des tactiques sur mesure qui les aideraient à accroître leur visibilité en ligne et à augmenter leurs ventes. Nous rencontrons les équipes de référencement des entreprises et trouvons des moyens encore plus efficaces d’améliorer les classements en ligne. "
Donner une pensée plus profonde à l'éducation du client
Les compétences en référencement sont importantes, mais n’oubliez pas qu’il est important d’assurer à vos clients que vous êtes un spécialiste qui peut les aider à faire évoluer leurs activités. Vos clients ne seront pas satisfaits si vous leur envoyez des liens uniquement sur des blogs, des vidéos ou des courriels d’information marketing. Il faut du temps, du travail et de l’énergie pour éduquer les clients, mais vos compétences en gestion de client finiront par porter leurs fruits.
Au fur et à mesure que vous passez plus de temps avec vos clients, ils en apprendront un peu plus à chaque fois sur le référencement, ce qui renforcera leur confiance en vous en tant que leur conseiller en référencement et renforcera la confiance mutuelle entre vous. Si vous êtes un expert en référencement, n’oubliez pas qu’ils sont les experts de leur activité. Leur contribution lors de collaborations est un élément essentiel de leur succès ultime en référencement. campagnes.
1. Clarifier les objectifs et les attentes
Je m'assure que les objectifs et le flux de travail sont clairs, de sorte que le rapport concorde avec les livrables mensuels. Ce sont les détails qui prouvent à quel point vous travaillez dur pour vos clients.
2. Partager les rapports
Au cours de la planification visant à améliorer les résultats en matière de référencement, les clients apprendront qu’il leur faut beaucoup plus de temps que prévu. Pour les aider à réaliser cela, je partage toujours des rapports tels que ceux mentionnés ci-dessous:
Reporting dans les appels
Courriels
Rapports avec KPI personnalisés
3. Rendre le référencement facile à comprendre pour vos clients
Tandis que je forme mes clients aussi bien que possible lorsque je les rencontre, je complète mes enseignements par des blogs sur mon site qui correspondent à différents aspects du référencement en tant que ressources s'ils souhaitent en savoir plus sur un aspect particulier du référencement. Au fil du temps, ils se fieront à mon site pour obtenir les dernières informations en matière de référencement, ce qui est un excellent moyen de réutiliser votre contenu. Ils vont probablement même le partager avec d'autres, ce qui aidera à développer votre entreprise.
Chaque client étant dans un endroit différent pour comprendre ses besoins en marketing numérique, j'essaie donc d'adapter mon enseignement à son niveau de compréhension.
Mon processus d’éducation des clients implique une ou plusieurs des étapes suivantes:
Apprendre ce que le client sait sur le référencement et Internet
Déterminer leur style d'apprentissage
Décomposer le sens du référencement et ce qu'il fait
Choisir une analogie qui a du sens pour eux
4. Évaluez le niveau de compréhension de votre client
Lors de discussions avec les clients, je les regarde dans les yeux. Si je commence à avoir des regards perplexes lorsque je mentionne des éléments tels que les moteurs de recherche et les backlinks, cela m'aide à comprendre si je dois expliquer certains termes techniques ou si je peux proposer une définition simple et passer à autre chose.
5. Comprendre et choisir un style d'apprentissage idéal pour votre client
Je sais qu'il existe trois principaux styles d'apprentissage: verbal, visuel et physique. L'utilisation d'un ou plusieurs de ces styles aide à faire ressortir certains points.
Je sais que certains de mes clients s'en sortent bien lorsque nous discutons en personne ou au téléphone. D'autres clients ont besoin d'un graphique, d'un diagramme ou d'un simple dessin. Les apprenants physiques ont besoin de moi pour démontrer le concept. La meilleure façon de le faire est de leur donner une analogie ou de leur montrer un exemple sur ordinateur.
Les clients novices en technologie peuvent avoir besoin de comprendre ce qu'est le référencement. Je commencerai donc par expliquer que l'acronyme, optimisation des moteurs de recherche, est. J'explique également ce que signifie l'optimisation et comment il est utile de classer les sites Web plus haut sur une page et comment l'autorité donne au moteur de recherche un moyen de classer son importance.
6. Utiliser des analogies pour rendre le référencement accessible
Enfin, une analogie est toujours un excellent outil d’enseignement car elle offre à mes clients un moyen de comparer un concept complexe. Au cours de la discussion, je saisis généralement un commentaire qu'ils ont fait. S'ils ont mentionné qu'ils étaient en retard parce qu'ils devaient rencontrer leur agent d'assurance, je présente un exemple utilisant le même contexte dans lequel je peux montrer comment un agent d'assurance peut utiliser le référencement pour se classer bien sur une page Web.
Son agent d'assurance a un site web. Très probablement, l'agent a un blog et des témoignages. Plus l'agent a de contenu, plus le classement du site. Un classement plus élevé signifie que le site de l'agent tire parti des titres, des descriptions de produits et des résumés. Il aura des photos et des vidéos et un lien vers d'autres pages. Étant donné que l'agent recherche des entreprises locales, il ciblera les clients situés dans un certain rayon du bureau. L’agent peut également avoir un public cible de personnes mariées propriétaires d’une maison. Il est donc important pour elles de faire de la publicité dans des lieux susceptibles d’attirer ce marché plutôt que vers des sites en ligne qui attirent la millénaire.
Pointe supplémentaire
Je passe souvent du temps sur les sites Web de mes clients avant un rendez-vous. Cela me donne d’autres possibilités d’appliquer certains des concepts dont nous discutons au travail que nous pouvons commencer à faire ensemble.
Note de clôture
Je n'avais jamais imaginé que l'enseignement ferait partie de mon travail de marketing numérique. Ce que j’apprécie le plus dans la gestion des clients de mon travail, c’est que je recherche continuellement de nouvelles informations sur le référencement et que cela me donne envie de les partager avec mes clients. C’est gratifiant pour nous deux de partager des détails qui les aideront à réussir.
Lequel de ces conseils pratiqueriez-vous pour éduquer les clients sur le référencement? N'hésitez pas à partager vos réflexions, expériences et conseils dans la section commentaires.
Karina Tama est une collaboratrice de Forbes, Thrive Global et du journal El Distrito. Elle peut être trouvée sur Twitter .
Lecture connexe
Google embauche de vrais humains appelés "Rateurs de qualité de recherche". Le niveau de qualité de la page (QP) est une note attribuée après avoir analysé «dans quelle mesure une page remplit son objectif».
Créer un contenu pratique convivial pour le référencement est un bon moyen d'impliquer votre public, d'alimenter le référencement et d'assumer le parcours client de la notoriété à la vente.
Et si je vous disais que l'accessibilité et le référencement naturel vont de pair? Voyons comment cela peut être fait avec la structure de site et de page, les images, etc.
Cela fait huit ans que le schéma a été introduit, de nombreuses marques n’ont pas encore implémenté ce schéma. Découvrez quelles sont les données structurées avec les échantillons et leurs avantages.
Voulez-vous apprendre des astuces simples pour renforcer votre sécurité WordPress?
WordPress est le système de gestion de contenu (CMS) le plus populaire au monde. Et en raison de sa popularité, il est confronté à 90% des menaces de sécurité par rapport à tout autre système de gestion de contenu.
Avec les outils de sécurité appropriés et configurés sur votre site Web, vous pouvez vous protéger contre différentes menaces. Non seulement cela, mais vous pouvez également sécuriser vos informations sensibles, empêcher Classement SEO de laisser tomber, et économiser des millions de dollars de dégâts.
Dans cet article, nous allons vous montrer comment améliorer la sécurité de WordPress avec ces astuces simples. Commençons…
1. Investissez dans le plugin de sécurité WordPress comme Sucuri
Sucuri est un plugin de sécurité de premier plan pour WordPress. Il offre une solution complète de protection contre les pirates, les logiciels malveillants, les attaques par force brute et les attaques DDoS.
Sucuri plugin gratuitement depuis votre tableau de bord WordPress.
Il offre également différentes options de renforcement pour renforcer votre sécurité WordPress. En activant les options de renforcement, le plug-in sécurise les zones clés de votre site Web, que les pirates peuvent cibler.
Par exemple, vous pouvez désactiver l'exécution de fichier PHP et désactiver l'édition de fichier en un seul clic, sans entrer de code.
2. Utiliser le pare-feu d'applications Web (WAP)
Après avoir sécurisé votre site Web via un plug-in de sécurité, activez un pare-feu pour applications Web (WAP) pour une protection améliorée.
Un pare-feu empêche le trafic malveillant d'atteindre votre site Web WordPress et de causer des problèmes de sécurité.
Pare-feu Wuc Sucuri.
C’est une plate-forme de sécurité basée sur le cloud. Et il filtre et arrête le trafic dangereux avant même qu'il n'atteigne votre serveur hôte.
le Plugin de sécurité WordPress vient également avec une garantie de suppression de la liste noire et le nettoyage des logiciels malveillants. Ces deux fonctionnalités garantissent que si votre site Web est piraté, Sucuri le corrigera quel que soit le nombre de pages de votre site Web.
3. Obtenez des certificats SSL pour votre site Web
SSL ou Secure Socket Layer chiffre les données transférées entre le navigateur de l’utilisateur et votre site Web. Il veille à ce que les pirates informatiques et autres menaces ne puissent pas mettre la main sur des informations sensibles.
Lorsque vous activez les certificats SSL sur votre site Web, votre URL se déplace vers HTTPS et est entourée d'un cadenas.
Les anciens sites HTTP ne sont plus sécurisés. Tout le monde peut renifler des informations entre votre utilisateur et votre site Web.
C’est pourquoi l’utilisation de SSL est importante. Cela aide à créer un climat de confiance parmi vos visiteurs car ils considèrent que votre site est sécurisé. De nombreuses autorités proposent des certificats SSL, vous pouvez donc utiliser n'importe qui pour sécuriser votre site Web.
Un autre moyen d’acquérir SSL consiste à utiliser le service d’hébergement Web de votre site Web, que nous traiterons ensuite.
4. Sélectionnez le bon service d'hébergement Web
En matière de sécurité WordPress, il est important de sélectionner le bon service d'hébergement web. Une bonne société d’hébergement Web proposera des fonctionnalités et des outils pour sécuriser votre site Web.
Ils mettent régulièrement à jour le logiciel et le matériel de leur serveur, surveillent les réseaux pour détecter les failles de sécurité, arrêtent les attaques DDoS et proposent des options de reprise après sinistre, telles que la sauvegarde complète de sites Web.
Bluehost offrent également des certificats SSL gratuits avec leurs formules de tarification. Ils prennent des mesures supplémentaires pour protéger votre site Web.
Cela dit, l'hébergement partagé a ses risques. Étant donné que vous partagez un serveur avec un autre site Web, toute infection sur l’un d’eux peut se propager sur d’autres sites du même serveur.
Une solution à ce problème consiste à utiliser des services d’hébergement gérés tels que Moteur WP.
Dans hébergement géré, vous obtenez un serveur dédié et la société s’occupe de tous vos besoins en matière de sécurité, de mises à jour automatiques, de sauvegardes et propose des certificats SSL.
5. Sauvegardez votre site WordPress
Une autre astuce pour renforcer la sécurité de votre site Web consiste à créer des sauvegardes. En cas d'attaque ou d'infection par un logiciel malveillant, vous souhaitez récupérer les précieuses données de votre site Web.
Et la seule façon de le faire est de faire des sauvegardes. Il existe une multitude d'outils de sauvegarde WordPress que vous pouvez utiliser pour protéger votre base de données.
BackupBuddy est un plugin WordPress populaire qui crée automatiquement des sauvegardes de votre site et recherche les logiciels malveillants. Il stocke également les données sur le nuage et offre des options simples pour migrer et restaurer les fichiers de sauvegarde.
6. Mettre régulièrement à jour WordPress et ses plugins
L'une des étapes de base que vous pouvez suivre pour sécuriser votre site Web consiste à maintenir votre WordPress à jour. Depuis que WordPress est open-source, il publie régulièrement des mises à jour pour les corrections de bugs et la sécurité.
Bien que WordPress télécharge et installe automatiquement la plupart des mises à jour, vous devrez le mettre à jour manuellement en cas de publication majeure.
Cela dit, votre site Web WordPress développé par des développeurs tiers comportera différents plugins et thèmes. Vous devrez mettre à jour chaque Plugin WordPress et le thème de votre site Web pour vous assurer qu'il n'y a aucune vulnérabilité en matière de sécurité.
7. Créer des mots de passe forts
Après avoir mis à jour WordPress, vous devriez penser à créer des mots de passe plus forts. De nombreux propriétaires de sites Web commettent une simple erreur en créant des mots de passe simples, que les pirates peuvent facilement voler.
Dans une attaque par force brute, un pirate informatique essayera plusieurs mots de passe ou expressions pour se connecter à votre site Web. Et la meilleure défense contre une telle attaque commence par des mots de passe complexes, difficiles à décomposer.
Un moyen plus facile de créer des mots de passe plus forts consiste à utiliser un gestionnaire de mots de passe. Cela créera non seulement des mots de passe, mais vous ne devrez jamais vous en souvenir, car il les stockera également dans un coffre-fort.
8. Configuration de l'authentification à deux facteurs
Si vous générez des mots de passe plus puissants, un autre moyen de renforcer la sécurité de votre site Web consiste à ajouter une authentification à deux facteurs (2FA).
Il empêche toute personne de se connecter à votre site Web au cas où elle découvrirait votre mot de passe. En authentification à deux facteurs, vous devez suivre deux étapes pour vous connecter à votre compte.
Par exemple, la première étape consiste à entrer votre nom d'utilisateur et votre mot de passe. Ensuite, la deuxième étape nécessiterait une authentification à partir d'un appareil ou d'une application différente.
Vous pouvez configurer une authentification à deux facteurs dans WordPress à l'aide d'un Plugin d'authentification à deux facteurs. Le plug-in nécessite l'utilisation de toute application d'authentification, telle que Google Authenticator ou LastPass Authenticator.
Il vous suffit d'entrer un mot de passe à usage unique (OTP) à partir de l'application pour pouvoir vous connecter à votre site Web WordPress.
9. Tentatives de connexion limitées
Outre des mots de passe complexes et une authentification à deux facteurs, vous pouvez renforcer votre sécurité WordPress en limitant le nombre de tentatives de connexion.
WordPress autorise les tentatives de connexion illimitées par défaut. Les pirates peuvent utiliser cette vulnérabilité pour lancer une attaque par force brute. Mais vous pouvez éviter ce problème de sécurité en limitant le nombre de tentatives de connexion dans votre WordPress.
Vous pouvez définir des limites en utilisant un plugin WordPress comme Login LockDown. Alternativement, si vous avez un pare-feu d'application Web installé, il limitera automatiquement les tentatives de connexion.
10. Limiter les autorisations des utilisateurs dans WordPress
Donner accès à votre compte d'administrateur WordPress peut également entraîner des menaces pour la sécurité. WordPress offre différents rôles pour différents utilisateurs, tels qu'administrateur, éditeur, auteur, contributeur, etc.
Sucuri Grâce aux astuces simples décrites dans notre guide, vous pouvez éviter les menaces majeures et protéger votre site Web.
Nous espérons que vous avez aimé notre article sur la manière d’améliorer la sécurité de WordPress en utilisant 11 méthodes simples. Vous pouvez également consulter notre guide sur comment se connecter correctement à Google Analytics.
Et n’oubliez pas de nous suivre sur Twitter et Facebook pour plus de guides et de tutoriels.
Au cours des derniers mois, Google a annoncé que deux systèmes en cours de recherche dans la recherche Google étaient également en source ouverte. Tout le monde peut voir comment ils travaillent.
Certaines parties de Google Search faisant appel à des sources d'approvisionnement ouvertes de Google ne sont pas envisageables, même il y a un an.
Comme prévu, les guides ultimes ne manquent pas pour optimiser votre site pour BERT. Vous ne pouvez pas.
BERT aide Google à mieux comprendre l'intention de certaines requêtes et n'a rien à voir avec le contenu de la page annoncé.
Développons ceci et couvrons un autre cas d’utilisation: la synthèse de texte à la pointe de la technologie.
Nous pouvons utiliser la synthèse de texte automatisée pour générer des méta-descriptions que nous pouvons renseigner sur des pages qui n'en ont pas.
Pour illustrer cette technique puissante, je vais télécharger et résumer automatiquement mes dernier article et comme d’habitude, je partagerai des extraits de code Python que vous pourrez suivre et adapter à votre propre site ou à ceux de vos clients.
Voici notre plan d'action:
Discuter de la synthèse de texte automatisée.
Découvrez comment trouver du code SOTA à la pointe de la technologie que nous pouvons utiliser pour la synthèse.
Téléchargez le code de résumé du texte et préparez l'environnement.
Télécharger mon dernier article et grattez uniquement le contenu principal de la page.
Utilisez la synthèse de texte abstractive pour générer le résumé de texte.
Passez en revue les concepts derrière PreSumm.
Discutez de certaines des limitations.
Enfin, je partagerai des ressources pour en apprendre davantage et pour des projets communautaires.
Résumé de texte pour produire des méta-descriptions
Lorsque nous avons des pages riches en contenu, nous pouvons utiliser la synthèse de texte automatisée pour produire des méta-descriptions à grande échelle.
Il existe deux approches principales pour la synthèse de texte en fonction du résultat:
Extractif: Nous avons divisé le texte en phrases et les avons classés en fonction de leur efficacité en tant que résumé de l’article entier. Le résumé contiendra toujours des phrases trouvées dans le texte.
Abstractive: Nous générons des phrases potentiellement nouvelles qui capturent l’essence du texte.
En pratique, il est généralement judicieux d'essayer les deux approches et de choisir celle qui donne les meilleurs résultats pour votre site.
Comment trouver un code SOTA pour la synthèse de texte
Mon endroit préféré pour trouver du code et des documents de pointe est Papiers avec code.
Si vous parcourez la Section de l'état de l'art, vous pouvez trouver la recherche la plus performante pour de nombreuses catégories.
Ensuite, nous devons télécharger les modèles pré-formés.
Ensuite, nous devons décompresser et les déplacer vers des répertoires organisés.
Après cette étape, le logiciel de synthèse devrait être prêt.
Téléchargeons l’article que nous voulons résumer ensuite.
Créer un fichier texte à résumer
Comme je l'ai mentionné, nous résumerons mon dernier message. Laissons-le télécharger et nettoyons le code HTML pour ne conserver que le contenu de l'article.
Commençons par créer les répertoires nécessaires à la sauvegarde de notre fichier d’entrée ainsi que des résultats des résumés.
! head /content/PreSumm/results/abs_bert_cnndm_sample.148000.candidate
[UNK] [UNK] [UNK] : il y a beaucoup d'histoires émotionnelles et puissantes cachées dans une foule de données qui n'attendent que d'être trouvéeselle dit que la campagne a été si efficace qu'elle a remporté de nombreux prix, y compris le grand prix des lions de cannes pour la collecte créative de données.[UNK] : nous allons reconstruire une visualisation de données populaire à partir du subreddit data is beautiful
Certains jetons aiment [UNK] et besoin d'explication. [UNK] représente un mot du vocabulaire BERT. Vous pouvez les ignorer. est un séparateur de phrases.
Comment fonctionne PreSumm
La plupart des techniques de résumé de texte extractives traditionnelles reposent sur la copie de parties du texte jugées utiles pour être incluses dans le résumé.
Cette approche, bien que efficace pour de nombreux cas d'utilisation, est plutôt restrictive dans la mesure où il se pourrait qu'aucune phrase ne soit utile pour résumer le texte.
Dans mes articles précédents sur l'apprentissage approfondi, j'ai comparé une approche de correspondance de texte traditionnelle / naïve avec la recherche d'une entreprise par son nom dans une rue.
Oui, ça marche, mais c'est plutôt limitant quand on le compare à ce qu'un système GPS vous permet de faire.
J'ai expliqué que le pouvoir d'utiliser des imbriqués repose sur le fait qu'ils fonctionnent comme des coordonnées dans l'espace. Lorsque vous utilisez des coordonnées, comme dans le système GPS, le nom de la chose importe peu (ou la langue que vous utilisez pour la nommer), c’est toujours le même endroit.
BERT a l'avantage supplémentaire que le même mot peut avoir des coordonnées complètement différentes selon le contexte. Par exemple, le mot «Washington» dans l'État de Washington et le pont George Washington signifient des choses complètement différentes et seraient codés différemment.
Mais l'avantage le plus puissant de BERT et de systèmes similaires réside dans le fait que les tâches PNL ne sont pas apprises de toutes pièces, elles partent d'un modèle linguistique pré-formé.
En d'autres termes, le modèle comprend au moins les nuances de la langue, comme la manière d'organiser les sujets, les adverbes, les prépositions, etc. avant de se mettre au diapason d'une tâche spécifique, telle que la réponse à des questions.
Les chercheurs de PreSumm énumèrent trois contributions principales de leurs travaux de synthèse:
Ils ont adapté l'architecture neuronale BERT pour apprendre facilement les représentations de phrases complètes. Pensez aux mots incorporés pour les phrases afin d’identifier facilement les phrases similaires.
Ils montrent clairement les avantages de l’utilisation de modèles linguistiques pré-formés pour les tâches de synthèse. Voir mes commentaires sur pourquoi c'est bénéfique
Leurs modèles peuvent être utilisés comme blocs de construction pour de meilleurs modèles de synthèse.
Limitations PreSumm
Ce tweet met en évidence l'une des limites évidentes de PreSumm et de systèmes similaires reposant sur des modèles pré-formés. Leur style d'écriture est fortement influencé par les données utilisées pour les former.
PreSumm est formé aux articles CNN et DailyMail. Les résumés ne sont pas particulièrement efficaces lorsqu'ils sont utilisés pour générer des résumés de chapitres d'ouvrages de fiction.
PreSumm: synthèse de texte avec des codeurs prédéfinis
"des résultats à la pointe de la technologie dans tous les domaines, à la fois en termes d'extraction et d'abstraction"
J'ai couvert le résumé du texte il y a quelques mois lors d'un DeepCrawl séminaire en ligne. À ce moment-là, les chercheurs de PreSumm ont publié une version antérieure de leurs travaux axée uniquement sur la synthèse de texte extractive. Ils l'ont appelé BERTSum.
J'avais à peu près les mêmes idées, mais il est intéressant de voir à quelle vitesse ils ont amélioré leur travail pour couvrir à la fois les approches abstraites et extractives. De plus, réalisez des performances de pointe dans les deux catégories.
Progrès étonnants.
En parlant de progrès, la communauté SEO de Python continue de m'envoyer en l'air avec les nouveaux projets cool sur lesquels tout le monde travaille et publie chaque mois.
Voici quelques exemples notables. N'hésitez pas à cloner leurs référentiels, à voir ce que vous pouvez améliorer ou à adapter à vos besoins et à renvoyer vos améliorations!
Bulles: https://t.co/q1T7s0TW94 Extrayez les données de la console de recherche et affichez-les avec Bokeh (par les URL, par section avec regex et par sujet avec la classification en cluster TF-IDF). Enfin, il affiche un tableau des opportunités que vous pouvez télécharger (URL avec des positions hautes et un CTR bas) pic.twitter.com/CImGVkayVI
Construire un petit robot + surveiller les changements de contenu. Prenant plus de temps que prévu, j'espère pouvoir partager bientôtish! pic.twitter.com/7hYewZsEBR
Edwin est un écrivain, rédacteur et gestionnaire de contenu expérimenté. Avant de rejoindre Yoast, il a passé des années à perfectionner ses compétences dans le premier magazine de conception de sites Web aux Pays-Bas.
Il s’agit peut-être de l’une des fonctionnalités les moins connues de Yoast SEO: les rôles de référencement. Un administrateur de site peut déterminer dans le backend de WordPress qui a accès aux différents paramètres et fonctionnalités de Yoast SEO. Cela crée un protocole d'accès plus fluide et flexible pour différents types d'utilisateurs sur un site. Ce n'est plus une solution universelle, mais une solution plus adaptée. Les rôles de SEO font Yoast SEO encore plus puissant pour chaque type d'utilisateur. Ici, nous expliquerons pourquoi ces rôles sont si géniaux.
Gestion des rôles d'utilisateur dans Yoast SEO
Il était très difficile d’utiliser Yoast SEO dans un environnement de site plus étendu. En tant qu’administrateur, vous devez choisir entre offrir aux utilisateurs un accès complet au plugin ou simplement un accès à la partie éditeur de publication de SEO. Cela signifie qu'un utilisateur régulier ne peut pas utiliser le gestionnaire de redirection, par exemple, et devait demander de l’aide à un administrateur chaque fois qu’il souhaitait ajouter, modifier ou supprimer des redirections. Nous l’avons également vu se produire à Yoast. Bien sûr, il existe toute une gamme d’autorisations possibles entre les deux. Yoast SEO offre l’option pour deux rôles qui facilitent beaucoup la gestion: le Gestionnaire de référencement et Éditeur de référencement, en plus de l’administrateur qui détermine qui peut voir quoi.
Rôles et capacités
Les rôles dans Yoast SEO consistent en une ou plusieurs fonctionnalités, telles que:
gestion des options (cela vous donne un accès complet),
gérer les redirections,
l'édition de métadonnées avancées,
accès à l'éditeur en vrac.
L'éditeur de référencement, par exemple, peut désormais effectuer des redirections, mais ne peut pas modifier les paramètres du plug-in ni accéder à l'éditeur de métadonnées avancées de Yoast SEO. De cette façon, l'éditeur de SEO a plus d'accès qu'un utilisateur normal, mais moins que le responsable de référencement qui peut également gérer les paramètres. Si vous utilisez un plugin d’autorisations ou de rôles pour WordPress comme l’excellent logiciel de Justin Tadlock, Membres plugin, vous obtenez un contrôle encore plus fin des fonctionnalités de Yoast SEO. De cette façon, vous pouvez associer des fonctionnalités sous la forme de votre choix.
Dans Yoast SEO Premium, nous avons également ajouté la possibilité de gérer les redirections sans être un administrateur. En activant cette option, les utilisateurs d’un rôle spécifique obtiennent un accès complet au gestionnaire de redirection. Les gestionnaires de sites ne doivent plus être submergés de demandes de redirection par les éditeurs de sites, ils peuvent les gérer eux-mêmes. Personnellement, j'aime beaucoup ça. En ajoutant du code magique au plug-in, le gestionnaire de redirection apparaît désormais dans le menu de la barre latérale de WordPress, même si votre menu Yoast SEO est masqué par défaut. À quel point cela est cool?!
Gérer votre site n'a jamais été aussi simple
Les rôles de référencement dans Yoast SEO permettent de donner à davantage de personnes travaillant sur votre site accès aux fonctionnalités et paramètres dont elles ont besoin, sans leur accorder un accès complet. Votre éditeur de site doit-il modifier les métadonnées avancées? Non? Bloquez-le dans Yoast SEO. A-t-il besoin de gérer les redirections et d'effectuer des optimisations de référencement à grande échelle avec l'éditeur en bloc? Parfait, accordez-lui l’accès à ces parties du plugin. Vous pouvez le faire et plus encore, le tout à partir du tableau de bord administratif de Yoast SEO!
Squarespace est-il mauvais pour SEO? Ou les ennemis sont-ils en train de sauter dans le train? Découvrons-le.
En ce qui concerne l'optimisation des moteurs de recherche pour les sites Squarespace, les SEO sont divisés. Certains pensent que c’est la pire chose au monde:
Alors que d’autres pensent que c’est assez bien:
Quelle est la vérité?
Pour répondre à cette question, nous avons décidé de mener une étude similaire à celle réalisée pour Wix SEO. Au total, nous avons étudié 1,8 million de sites Web Squarespace et 1,8 million de sites Web WordPress.
Dans cet article, je passerai en revue nos conclusions et vous pourrez décider vous-même CMS est le meilleur pour vous.
Les données
Avant de parler des résultats, je devrais vous dire où nous avons obtenu nos données et quelles mesures nous avons étudiées.
Si vous avez lu notre Wix SEO étude, vous remarquerez que nous avons utilisé la même méthodologie.
L'échantillon
Comme dans l’étude précédente, nous avons utilisé le Construit avecAPI pour extraire notre échantillon de 1,8 million de sites Web Squarespace et WordPress.
Vous ne savez pas comment cela fonctionne?
BuiltWith est essentiellement un outil qui vous indique les technologies utilisées par les sites Web. Entrez n’importe quel domaine, allez à la section «Système de gestion de contenu» et vous verrez CMS le site utilise.
Par exemple, Pixar utilise Squarespace.
le SEO métrique
Pour le SEO métrique, nous les avons tirés de notre propre API. Voici les quatre mesures que nous avons acquises:
Nombre de domaines de référence: Le nombre de sites de liens uniques;
Nombre de domaines de référence «dofollow»: Le nombre de sites Web de liens uniques avec des liens potentiellement porteurs de valeur;
Trafic organique estimé: Le nombre estimé de visites organiques mensuelles de Google;
Classement de domaine (DR): Force globale du profil de backlink d’un site Web sur une échelle de 0 à 100.
L'étude
Comme avec le Wix SEO étude, nous avons divisé le jeu de données en deux «compartiments».
Seau # 1: Sites avec un trafic organique
Seau # 2: Sites avec plus de 100 visites bio mensuelles
Voici ce que nous avons trouvé:
Dans Bucket # 1, 45,5% des sites Web WordPress génèrent un trafic de recherche mensuel, contre 15,1% des sites Squarespace.
Pour Bucket # 2, 8,1% des sites Web WordPress obtiennent plus de 100 visites de recherche par mois, contre 1,6% pour Squarespace.
Comme vous pouvez le constater, les sites Web WordPress génèrent en moyenne beaucoup plus de trafic organique que les sites Web Squarespace.
Si vous vous rappelez, comparé à WordPress, seulement 1,4% des sites Wix génèrent un trafic de recherche mensuel, et 0,06% ont plus de 100 visites.
Alors que les sites Squarespace reçoivent moins de trafic de recherche que WordPress, ils semblent en général faire mieux que les sites Wix.
Cela dit, ne prenez pas cela pour dire que CMS est supérieur au reste.
Quand cela vient à classement dans Google, il y a beaucoup de facteurs en jeu. Et la plupart d'entre eux ne sont pas liés à la plate-forme que vous utilisez.
Nous avons également décidé d'examiner le classement de domaine moyen, le nombre de domaines de référence dofollow et le trafic de recherche mensuel pour chaque plate-forme.
Sur cette base, il semble que les sites WordPress gagnent… pas vrai?
Pas assez.
Comme notre expert en données le répète à plusieurs reprises:
Lors de la mesure de la tendance centrale des données, il est préférable de calculer la moyenne et la médiane et de comparer les deux valeurs.
De manière générale, si les deux valeurs ne sont pas trop différentes l'une de l'autre, nous utilisons la moyenne. Mais une différence considérable entre eux indique que les données sont asymétriques.
Lorsque les données sont asymétriques, les grandes valeurs ont un ÉNORME impact, rendant la moyenne plus grande que la distribution réelle suggérée par les données.
Dans ce cas, la médiane est une idée plus appropriée de la distribution des données.
Ce concept est la prémisse de la blague populaire: "Bill Gates entre dans un bar et tout le monde à l'intérieur devient millionnaire … en moyenne."
En termes simples, s’il existe des valeurs aberrantes dans l’ensemble de données (par exemple, certains sites générant plus de trafic de recherche que les autres), le nombre moyen sera plus élevé, ce qui le rendra inexact.
En tant que tel, il est préférable d’examiner les valeurs médianes, que nous avons également vérifiées:
D'après les résultats, il n'y a pas beaucoup de différence dans les chiffres. Cela montre qu’il existe effectivement dans notre échantillon des sites Web WordPress très fréquentés et très fréquentés, qui font pencher la moyenne vers WordPress, par rapport à Squarespace.
Sidenote.
Nous avons trouvé la même chose lorsque nous avons comparé WordPress à Wix.
Plonger plus profondément
Pour niveler le terrain de jeu et éliminer les biais éventuels de nos échantillons, nous avons fait trois choses:
1. Nous avons nivelé la taille des échantillons sur les deux plates-formes
Il y avait beaucoup plus de domaines WordPress que de domaines Squarespace dans les deux compartiments. Pour réduire les biais, nous avons équilibré le nombre de domaines analysés, résultant en ~ 280 000 domaines étudié pour chaque plate-forme.
2. Nous avons exclu les mots clés exacts
Pour exclure le trafic des requêtes de marque, nous avons supprimé le mot clé xyz si le domaine était xyz.com.
3. Nous avons trouvé le nombre de top 10 de classement par mot clé
Nous avons extrait le nombre de mots-clés que chaque site de notre ensemble de données classe dans les 10 meilleurs résultats de recherche de Google.
Nous avons également résumé la quantité de trafic organique que chaque site génère à partir de ces mots clés.
…
Voici ce que nous avons trouvé pour les domaines avec un certain trafic de recherche:
Encore une fois, en ce qui concerne le nombre moyen de 10 classements de mots clés et la somme du trafic généré par ces mots clés, WordPress bat Squarespace. Cependant, étant donné que les valeurs médianes sont assez proches, cela indique qu'il existe des valeurs aberrantes qui faussent les échantillons.
Donc, malheureusement, nous ne pouvons rien dire de manière concluante sur ces résultats.
Voyons maintenant le seau n ° 2:
Dans ce cas, il semble que la moyenne et la médiane soient étroitement alignées.
Nos données semblent donc indiquer que les sites Web WordPress ont généralement un nombre légèrement plus élevé de top 10 que les sites Web Squarespace en moyenne. Les sites WordPress génèrent également un trafic plus organique de ces mots-clés par rapport à Squarespace.
Chose intéressante, lorsque vous comparez la classification de domaine et le nombre de domaines de référence dofollow, Squarespace est le meilleur choix.
La conclusion
Comme le Wix SEO étude, les résultats sont peu concluants.
Sur la seule base de notre étude, nous ne pouvons pas dire si un CMS est meilleur que l'autre.
Il est également difficile d’isoler des facteurs tels que le «niveau de compétence» dans des études comme celle-ci. Après tout, des plates-formes telles que Wix et Squarespace ont tendance à attirer moins de personnes férues de SEO que WordPress.
Ainsi, comme l'a souligné une personne sur Twitter, cela pourrait expliquer pourquoi les sites WordPress ont tendance à mieux performer en recherche.
C’est parce que les utilisateurs de Wix sont en moyenne beaucoup moins SEO avertis que les gens utilisant WordPress, pas nécessairement parce que l'une des plateformes est meilleure que l'autre
Pourquoi alors, les SEO ne sont-ils pas comme Squarespace?
Je serai complètement transparent ici. Avant d’écrire cet article, l’équipe Squarespace nous a contactés.
Ils ont lu notre étude sur Wix SEO, et ils se demandaient si nous allions faire quelque chose de similaire pour Squarespace. Ils se sont aussi portés volontaires pour nous faire une démonstration sur le SEO capacités de leur plate-forme.
Étant donné que je n'avais aucune expérience de la plate-forme, j'ai accepté. Et j'ai beaucoup appris pendant ce court appel vidéo.
Pour commencer, quand il s'agit de base sur la page SEO des tâches comme changer balises de titre, méta descriptions et URL, Squarespace fonctionne très bien. (Ils ont même un onglet pour “SEO”.)
Vous pouvez également vérifier votre site dans la console de recherche Google et consulter vos données sur la plate-forme.
Malheureusement, il existe certaines contraintes en matière de personnalisation et de technicité. SEO.
Par exemple:
1. Optimisation de la vitesse de la page
Squarespace gère cela de son côté. Si vous voulez des temps de chargement plus rapides, il n’ya qu’un nombre limité de choses tu peux faire.
Squarespace génère automatiquement le robots.txt fichier et XML plan du site pour votre site. Cependant, il n’est pas possible d’apporter des modifications à l’une d’elles.
Pour les plus gros sites, cela peut ne pas être idéal.
3. Canonisation
Par défaut, Squarespace ajoute des URL à auto-référencement. Vous pouvez ajouter une coutume canoniqueURL en utilisant l'option d'injection de page avancée, mais vous vous retrouvez avec plusieurs canoniques en conflit sur la page.
4. Alt texte pour les images
C’est plus une gêne qu’un gros problème, mais Squarespace ne facilite pas l’ajout de texte alternatif. Je devais passer par leur documentation pour comprendre comment faire cela.
Ce serait beaucoup mieux s'ils avaient un champ pour textes alternatifs comme le fait WordPress.
Dernières pensées
Alors, quel est le meilleur: Squarespace ou WordPress?
Si vous avez un site simple et de petite taille qui nécessite peu d’optimisation technique, Squarespace n’est pas un mauvais choix. (De plus, je suis fan de leurs modèles.)
Mais si SEO C’est un canal d’acquisition essentiel, alors vous voudrez peut-être envisager d’autres plates-formes (pas uniquement WordPress) pour améliorer la personnalisation et l’évolutivité.
Que pensez-vous de l'étude? Faites-moi savoir dans les commentaires ou sur Twitter.
Créer des applis : un programme unique en ligne pour enfants
SON APPLICATION EST LA LUTTE CONTRE LE HARCÈLEMENT
Natalie Hampton, de Californie, n’avait que 16 ans lorsqu’elle a créé l’application « “Sit with us » (Assied-toi avec nous). Après avoir changé d’école, on la harcelait et l’ignorait. Son but était de s’assurer qu’aucun enfant n’aura plus jamais à s’asseoir seul pendant sa pause déjeuner. Pour ce faire, elle a appris à coder, puis a créé un réseau de bénévoles de bonne volonté pour porter ce désir altruiste à un niveau supérieur. Natalie ne voulait pas créer quelque chose de rentable, mais elle souhaitait plutôt rendre ce monde meilleur.
DESSINER SUR UN ÉCRAN
Lim Wing Den, de Singapour, aime dessiner. Ainsi, alors qu’il n’avait que 9 ans, il a codé, programmé et créé l’application « Doodle Kids» ( Enfants gribouilleurs ) qui vous permet de dessiner sur l’écran de votre téléphone. Des centaines de milliers de personnes ont téléchargé son application. Cela semble simple, mais tout ce qui semble simple à utiliser demande beaucoup de travail en coulisses. Code, conception, UX, UI, etc. Parfois, en dessinant sur l’écran de notre smartphone, on oublie qu’un enfant talentueux de 9 ans a décidé de créer par lui-même ce qu’il voulait souhaitait pouvoir utiliser.
DÉCOUVREZ OÙ LA PROGRAMMATION INFORMATIQUE PEUT LES MENER
Robert Nay, de l’Utah, États-Unis, avait 14 ans lorsqu’il a appris à coder et a créé son jeu : « Bubble Ball » ( La balle bulle ). Ce jeu consiste à créer un parcours depuis un point de départ jusqu’à un drapeau qui représente la fin de ce parcours. Son jeu simple permet aux adultes et aux enfants de s’amuser, et a fait de Robert un jeune entrepreneur. Il a même eu plus de téléchargements qu’Angry Birds pendant un certain temps. Nous croyons que n’importe quel enfant peut apprendre à coder et à créer des applications et des jeux. Inscrivez vos enfants à notre programme en ligne en direct et donnez-leur l’occasion de transformer les applications dont ils rêvent en réalité.
CODEZ VOTRE DESTINÉE.APPRENDRE. CRÉER. INVENTER.
Rejoignez nos cours dirigés par les enseignants et découvrez toutes les compétences
et les outils nécessaires pour prendre une longueur d’avance sur le développement d’applications.
Ce cours de codage a été spécialement conçu pour les jeunes enfants, pour améliorer leur capacité à résoudre des problèmes et à penser de manière créative.
Les enfants coderont des robots virtuels en 3D via un environnement en ligne. C’est le moyen le plus simple, le plus rapide et le plus efficace d’apprendre la robotique.
Le mardi 10 septembre 2019, Google a mis à jour l'attribut no-follow en ce qui concerne la lutte anti-spam. L'attribut Nofollow est resté inchangé depuis 15 ans, mais Google a dû effectuer ce changement à mesure que le Web évolue.
Google a également annoncé deux nouveaux attributs de lien pour aider les propriétaires de site Web et les webmasters à indiquer clairement le type de lien utilisé.
rel = "sponsorisé": utilisez l'attribut sponsorisé pour identifier les liens sur votre site créés dans le cadre d'annonces, de parrainages ou d'autres accords de compensation.
rel = "ugc": UGC signifie "Contenu généré par l'utilisateur" et la valeur de l'attribut ugc est recommandée pour les liens au sein du contenu généré par l'utilisateur, tels que les commentaires et les publications sur le forum.
rel = "nofollow": utilisez cet attribut dans les cas où vous souhaitez créer un lien vers une page sans impliquer aucun type d’endossement, y compris la transmission d’un crédit de classement à une autre page.
1er mars 2020 changements
Jusqu'au 1er mars 2020, tous les attributs de lien serviront d'indice pour le classement. Toute personne qui s'appuyait sur rel = nofollow pour essayer d'empêcher l'indexation d'une page devrait utiliser d'autres méthodes pour bloquer les pages de être exploré ou indexé.
John Mueller a mentionné l'utilisation du rel = sponsorisé dans l'un des récents Hangouts de Google.
Source: YouTube
La question qu'on lui a posée
«Notre site Web a une stratégie commerciale en pleine croissance et certains membres de notre équipe estiment que les liens d’affiliation sont préjudiciables au classement de notre site Web pour d’autres termes. Devons-nous ne pas suivre tous les liens d’affiliation? Si nous ne le faisons pas, cela nuira-t-il à notre trafic organique? "
La réponse de John Mueller
«C’est donc quelque chose qui, je pense, revient de temps en temps, de notre point de vue, les liens d’affiliation sont des liens qui sont placés avec une sorte de contexte commercial, en ce sens que vous essayez évidemment de gagner de l’argent en ayant ces affiliés. créer un lien vers un distributeur en qui vous avez confiance et avec lequel vous avez un arrangement.
De notre point de vue, c’est très bien, nous vous invitons à monétiser votre site Web.
Nous nous attendons en quelque sorte à ce que ces types de liens soient marqués de manière appropriée, de sorte que nous comprenions qu'il s'agit de liens d'affiliation. Une façon de le faire est d'utiliser simplement un nofollow.
Une méthode plus récente pour nous informer de ce type de situation consiste à utiliser l'attribut sponsorisé rel link, cet attribut link nous indique en particulier qu'il s'agit d'un lien publicitaire, nous le traitons de la même manière qu'un non suivi .
De nombreux liens d’affiliation suivent des schémas très clairs et nous pouvons les reconnaître. Nous essayons donc de prendre soin de ceux qui sont de notre côté lorsque nous le pouvons, mais pour plus de sécurité, nous recommandons simplement d’utiliser un attribut lien nofollow ou rel sponsorisé, mais en général si vous ne le faites pas, cela ne nuira pas vraiment à votre site Web. C’est quelque chose qui le rend un peu plus clair à quoi servent ces liens et si nous voyons, par exemple, un site Web s’engage dans la vente de liens à grande échelle, puis nous pouvons agir manuellement, mais si nos algorithmes reconnaissent simplement que ce sont des liens que nous ne voulons pas compter, nous ne les compterons tout simplement pas. ”
Les propriétaires de sites Web agissent-ils rapidement?
Cela n'a été annoncé par Google qu'en septembre et les propriétaires de sites Web ont jusqu'à mars pour apporter les modifications nécessaires, mais les données de Semrush montrent que les propriétaires de sites Web commencent à passer au nouvel attribut rel link avec.
Les données montrent que sur un million de domaines, seuls 27 763 ont au moins un lien UGC, mais le fait intéressant est que si nous examinons les 27 763 domaines qui ont au moins un lien UGC, chaque domaine de cette liste possède en moyenne 20 904 603 suivis backlinks, 6 373 970 – pas de suivi, 22,8 – UGC, 55,5 – parrainé.
Source: Semrush.com
C'est encore très tôt, mais nous pouvons voir qu'il y a du changement et je m'attends à ce qu'il se développe considérablement l'année prochaine.
Conclusion
je crois que Google va utiliser les données de ces attributs de lien pour attraper les propriétaires de sites Web qui continuent à vendre des liens et à les annoter de manière incorrecte afin de passer n'importe quel type de lien. SEO valeur autre à un autre site Web dans tout type d'accord payé ou autrement.
Paul Lovell est consultant en référencement et fondateur chez Always Evolving SEO. Il peut être trouvé sur Twitter @_PaulLovell.
Lecture connexe
Cela fait huit ans que le schéma a été introduit, de nombreuses marques n’ont pas encore implémenté ce schéma. Découvrez quelles sont les données structurées avec les échantillons et leurs avantages.
Le vice-président directeur du marketing numérique mondial de Mastercard, Guillaume Conteville, discute de l'optimisation de la recherche vocale et de sa prochaine session au Search Summit.
De plus en plus de personnes recherchant des informations sur le Web à l'aide de commandes vocales observent un changement de paradigme. La recherche vocale influence votre marque de quatre manières décisives.
Siddharth Taparia, vice-président directeur et responsable de la transformation stratégique et du marketing partenaire chez SAP, discute de sa session à venir au Sommet de la recherche sur les projets de transformation de la recherche.