
Les membres de l’équipe des relations de recherche de Google ont récemment partagé des informations sur les normes Web sur la recherche du podcast d’enregistrement.
Martin Splitt et Gary Illyes ont expliqué comment ces normes sont créées et pourquoi elles comptent pour le référencement. Leur conversation révèle des détails sur les décisions de Google qui affectent la façon dont nous optimisons les sites Web.
Pourquoi certains protocoles Web deviennent des normes tandis que d’autres ne le font pas
Google a officiellement standardisé Robots.txt via le groupe de travail sur Internet Engineering (IETF). Cependant, ils ont quitté le protocole du site du site comme une norme informelle.
Cette différence illustre comment Google détermine quels protocoles nécessitent des normes officielles.
Illyes a expliqué lors du podcast:
« Avec Robots.txt, il y avait un avantage parce que nous savions que différents analyseurs ont tendance à analyser les fichiers Robots.txt différemment … avec le plan du site, c’est comme ‘eh’ … c’est un fichier XML simple, et il n’y a pas grand-chose qui peut mal tourner avec elle. »
Cette déclaration d’Illyes révèle les priorités de Google. Les protocoles qui confondent les plateformes reçoivent plus d’attention que ceux qui fonctionnent bien sans normes formelles.
Les avantages de la normalisation du protocole pour le référencement
La normalisation des robots.txt a créé plusieurs avantages clairs pour le référencement:
- Mise en œuvre cohérente: Les fichiers robots.txt sont désormais interprétés de manière plus cohérente entre les moteurs de recherche et les robots.
- Ressources open source: «Cela nous a permis d’ouvrir nos robots.
- Plus facile à utiliser: Selon Illyes, la normalisation signifie «Il y a moins de tension sur les propriétaires de sites en essayant de comprendre comment rédiger les fichiers damnés».
Ces avantages rendent le référencement technique plus simple et plus efficace, en particulier pour les équipes gérant de grands sites Web.
Dans le processus de normes Web
Le podcast a également révélé comment les normes Web sont créées.
Des groupes de normes, tels que l’IETF, le W3C et Whatwg, travaillent à travers des processus ouverts qui prennent souvent des années. Ce rythme lent garantit la sécurité, le langage clair et la compatibilité large.
Illyes a expliqué:
« Vous devez montrer que la chose sur laquelle vous travaillez fonctionne réellement. Il y a des tonnes d’itération et cela rend le processus très lent, mais pour une bonne raison. »
Les deux ingénieurs Google ont souligné que n’importe qui peut participer à ces processus de normes. Cela crée des opportunités pour les professionnels du référencement pour aider à façonner les protocoles qu’ils utilisent quotidiennement.
Considérations de sécurité dans les normes Web
Les normes répondent également aux problèmes de sécurité importants. Lors du développement de la norme robots.txt, Google a inclus une limite de 500 kilobytes spécifiquement pour empêcher les attaques potentielles.
Illyes a expliqué:
« Quand je lis un projet, je regardais comment j’exploiterais les choses que la norme décrivait. »
Cela montre comment les normes établissent des limites de sécurité qui protégent les deux sites Web et les outils qui interagissent avec eux.
Pourquoi cela compte
Pour les professionnels du référencement, ces idées indiquent plusieurs stratégies pratiques à considérer:
- Soyez précis lors de la création de directives Robots.txt, car Google a beaucoup investi dans ce protocole.
- Utilisez l’analyseur Open-source Robots.txt de Google pour vérifier votre travail.
- Sachez que les sitemaps offrent plus de flexibilité avec moins de préoccupations d’analyse.
- Envisagez de rejoindre des groupes de normes Web si vous souhaitez aider à façonner les futurs protocoles.
Alors que les moteurs de recherche continuent de hiérarchiser la qualité technique, la compréhension des principes sous-jacents derrière les protocoles Web devient de plus en plus précieux pour obtenir le succès du référencement.
Cette conversation montre que même des spécifications techniques simples impliquent des considérations complexes autour de la sécurité, de la cohérence et de la facilité d’utilisation, tous les facteurs qui ont un impact direct sur les performances du référencement.
Écoutez la discussion complète dans la vidéo ci-dessous: