Passer au contenu principal

Robots txt




Concept de robots txt

Qu'est-ce que Robots txt?

Robots txt, ou plutôt robots.txt, est un fichier texte brut qui est créé et connecté à un portail en ligne pour déterminer une série de règles liées au comportement des robots d'indexation des moteurs de recherche, des robots d'exploration ou araignées. En général, il est utilisé afin de les empêcher d'explorer certains contenus et, de cette manière, de ne pas les indexer pour qu'ils apparaissent parmi les SERPs.

Leur utilisation est simple, même si cela peut être fait de différentes manières. La personne responsable de sa préparation peut indiquer directement les URL à ne pas rediriger vers le moteur de recherche ou, si vous préférez, déterminer les répertoires, sous-répertoires ou fichiers qui choisissent de rester à l'écart de Google et du reste des moteurs de recherche.

Malgré son objectif, l'utilisation de ce fichier n'est pas une garantie complète qu'il n'y aura pas indexage, il n'est donc pas recommandé de garder certaines sections d'un portail en ligne privées. C'est une action valable, mais non définitive car elle n'est pas capable de garantir un secret total. Dans de tels cas, il vaut mieux rechercher d'autres alternatives plus efficaces.

Les commandes telles que disallow sont celles qui apparaissent généralement lors de l'ouverture d'un fichier robots.txt. Il est très important de comprendre sa structure et son utilisation, même si pour cela nous ajouterons une série de liens plus tard afin de compléter les informations.

À quoi sert le txt Robots

Ce fichier, le robots txt, est utilisé pour que ni Google ni les autres moteurs de recherche n'indexent certaines parties d'un portail en ligne dans leurs pages de résultats (SERP). C'est quelque chose que les entreprises utilisent généralement pour omettre les pages qui peuvent être pénalisées et avoir un impact négatif sur le référencement, par exemple en cas de contenu dupliqué, ou si elles préfèrent fondamentalement supprimer certains contenus des moteurs de recherche.

Il peut également être utilisé pour dicter aux robots des moteurs de recherche comment ils doivent explorer d'autres contenus sur le Web. Sa fonction transcende l'obstacle et la permission, c'est donc un élément très important lors du développement d'un portail en ligne.

Exemples de robots txt

Il y a autant de fichiers robots txt que de pages Web sur le réseau des réseaux; Malgré tout, pour lancer un exemple simple de ce que peut être la structure de l'un, nous allons écrire les lignes suivantes:

Agent utilisateur: *

Interdire: / agency-social-media /

Plan du site: https://neoattack.com/sitemap.xml

Dans ce cas, une règle a été établie pour tous les robots des différents moteurs de recherche (première ligne) qui indique que notre section de Services de médias sociaux Il ne doit pas être indexé (deuxième ligne) et, en résumé, le chemin supposé de notre plan du site a été indiqué (troisième ligne), une exigence obligatoire pour ces fichiers.

Plus d'informations sur Robots txt

Pour apprendre à créer un fichier txt Robots, ainsi que pour en savoir plus sur son utilisation et ses possibilités, nous vous suggérons de jeter un œil aux publications qui existent ci-dessous.