robots.txt WordPress : Le guide simple pour bloquer ce qu’il faut (et booster ton SEO)

Le fichier robots.txt sur WordPress, c’est tout petit, mais ça peut faire des dégâts si c’est mal fichu. Il mérite clairement qu’on s’y intéresse deux minutes.

En audit SEO, ça m’arrive de tomber sur des robots.txt mal configurĂ©s. Ce n’est pas tous les jours, mais quand c’est le cas, ça peut bloquer l’indexation de pages importantes. Et lĂ … bad buzz.

Alors si tu veux éviter les erreurs bêtes et donner un vrai coup de boost à ton référencement WordPress, t’es au bon endroit !

C’est quoi un fichier robots.txt (et à quoi ça sert) ?

Le fichier robots.txt, c’est un simple fichier texte placĂ© Ă  la racine de ton site WordPress. Il sert Ă  donner des instructions aux robots des moteurs de recherche comme Google, Bing ou Yahoo. En gros, tu leur dis ce qu’ils peuvent explorer… et ce qu’ils doivent Ă©viter.

Quand j’ai découvert ce fichier au début, je t’avoue que ça m’a semblé un peu technique. Mais aujourd’hui, je l’explique simplement à mes clients : c’est un peu le videur de ton site. Il laisse entrer certains robots dans certaines pages, et il bloque l’accès aux autres.

Tu veux éviter que Google perde son temps à explorer ton dossier /wp-admin/ ou les répertoires sensibles ? Tu lui dis gentiment Disallow: /wp-admin/, et il respecte (en général).

Attention cependant : bloquer une page via robots.txt ne veut pas dire qu’elle ne sera jamais indexée. Si cette page est liée ailleurs, elle peut quand même apparaître dans les résultats, sans son contenu. C’est pourquoi Google recommande d’utiliser la balise meta noindex si tu veux vraiment éviter l’indexation.

👉 Voir les explications officielles ici.

Bref, le fichier robots.txt ne remplace pas une stratĂ©gie SEO… mais il en fait clairement partie. Et sur WordPress, mieux vaut le configurer proprement pour Ă©viter les mauvaises surprises.

En résumé 💡
Le fichier robots.txt, c’est un petit fichier texte placé à la racine de ton site WordPress. Il sert à dire aux robots des moteurs de recherche quelles pages ils peuvent ou non explorer. Bien configuré, il évite que Google perde du temps sur des pages inutiles… et t’aide à concentrer ton SEO là où ça compte.

Comment WordPress gère (ou ne gère pas) le fichier robots.txt par défaut ?

Sur WordPress, si tu tapes tonsite.com/robots.txt (exemple : celui de mon site), tu verras un fichier… mĂŞme si tu n’en as jamais créé. C’est normal : WordPress gĂ©nère un fichier robots.txt virtuel par dĂ©faut.

Mais ce fichier est basique. Il bloque juste l’accès au dossier /wp-admin/. Et tu ne peux pas vraiment le modifier sans passer par un plugin ou un fichier physique.

Personnellement, j’utilise Rank Math. C’est pour moi le meilleur plugin SEO sur WordPress. Il est clair, simple Ă  prendre en main, et surtout… tu peux Ă©diter ton fichier robots.txt directement depuis ton interface WordPress, sans prise de tĂŞte.

Évidemment, tu peux aussi créer un fichier robots.txt à la main, en FTP. Mais pour mes clients (et pour moi), le plugin reste la solution la plus pratique.

Le conseil de Guillaume đź’ˇ
Ne fais pas aveuglément confiance à WordPress pour gérer ton fichier robots.txt. Par défaut, il en génère un dynamique, mais tu n’as quasiment aucun contrôle dessus. Si tu veux vraiment piloter ton SEO, prends quelques minutes pour le personnaliser. C’est simple, et ça peut éviter de gros loupés dans l’indexation.

Les règles à connaître pour créer un bon fichier robots.txt WordPress

Quand on veut optimiser son SEO WordPress, le fichier robots.txt est une petite ligne de dĂ©fense super utile. Bien configurĂ©, il empĂŞche les moteurs de recherche comme Google d’explorer certaines zones inutiles de ton site. Mal configurĂ©, il peut bloquer des pages importantes… et plomber ton rĂ©fĂ©rencement.

Voici quelques règles simples et efficaces que j’utilise souvent :

âś… Exemple de fichier robots.txt WordPress propre

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php
Disallow: /wp-includes/
Disallow: /cgi-bin/
Disallow: /wp-content/plugins/
Disallow: /wp-content/cache/
Disallow: /wp-content/themes/
Disallow: /trackback/
Disallow: /feed/
Disallow: */comments
Sitemap: https://tonsite.com/sitemap_index.xml

🔍 Ce que ça fait concrètement :

  • User-agent: * → ça s’adresse Ă  tous les robots (Googlebot, Bingbot, etc.)
  • Disallow: /wp-admin/ → on bloque l’accès au panneau d’admin (classique)
  • Allow: /wp-admin/admin-ajax.php → on autorise les requĂŞtes AJAX utiles au site
  • Disallow: /wp-includes/ et autres → on empĂŞche l’exploration de fichiers techniques ou inutiles
  • Sitemap → on indique Ă  Google oĂą trouver la carte du site

3 façons de créer ou modifier ton fichier robots.txt

Tu veux créer ou modifier ton fichier robots.txt WordPress ? Bonne nouvelle : t’as plusieurs options. Certaines sont hyper simples, d’autres un poil plus techniques. Je t’explique tout.

Méthode 1 : Avec un plugin SEO (Yoast, Rank Math…)

C’est clairement la solution que je recommande à mes clients. Surtout si tu utilises déjà un plugin SEO comme Rank Math (mon préféré) ou Yoast SEO.

Avec Rank Math par exemple, tu peux modifier ton fichier robots.txt directement depuis l’interface WordPress. T’as même un aperçu en temps réel. Simple, rapide, sans risque de casser quoi que ce soit.

👉 Voici la doc officielle de Rank Math pour modifier ton robots.txt

Voici ce que cela donne sur RankMath sur mon site :

modifier robots TXT WordPress avec RankMath

Méthode 2 : En FTP (rapide si tu sais faire)

Tu peux aussi créer ou modifier ton fichier robots.txt à la main, via un logiciel FTP comme FileZilla.

Tu te connectes à la racine de ton site (là où y a le fichier wp-config.php), tu crées un fichier robots.txt avec Notepad++, Sublime Text (ou même le Bloc-Notes), tu colles tes règles, tu uploades… et c’est en ligne.

Voici ce que ça donne :

modifier robots.txt WordPress en FTP

Méthode 3 : Depuis l’hébergeur ou un éditeur de fichiers

Certains hébergeurs (comme o2switch, OVH, Hostinger, Kinsta…) proposent un éditeur de fichiers dans leur interface. C’est un peu comme le FTP, mais directement depuis ton espace client.

Tu vas dans le gestionnaire de fichiers, tu ouvres ou crées le fichier robots.txt, tu édites… et c’est bon.

o2switch a une interface web pour modifier les fichiers :

modifier robots txt WordPress depuis l'hébergeur

Quelle que soit la méthode, n’oublie pas de tester ton fichier derrière, pour être sûr qu’il n’empêche pas Google d’indexer tes pages clés. Et si t’as un doute… fais-toi accompagner.

Comment tester et optimiser ton fichier robots.txt ?

Une fois que ton fichier robots.txt WordPress est en place, c’est pas fini. Il faut le tester et l’optimiser. Parce que même une petite erreur peut empêcher Google d’indexer des pages importantes… et flinguer ton SEO.

Voici comment je procède.

1. Vérifie avec la Google Search Console

Le premier réflexe, c’est d’aller dans Google Search Console, dans l’outil d’inspection d’URL.

Tu colles une page importante de ton site (comme une page de service ou un article), et tu regardes si elle est bien explorée et indexée. Si ce n’est pas le cas, un message du genre « bloquée par le fichier robots.txt » s’affichera.

C’est l’endroit idéal pour détecter une erreur de Disallow mal placée.

Vérifie avec la Google Search Console

2. Utilise un outil pour simuler les robots

Tu peux aussi utiliser des outils comme :

Tu verras rapidement quelles pages sont bloquées et comment les robots comme Googlebot ou Bingbot réagissent.

Utilise un outil pour simuler les robots

3. Optimise ton fichier régulièrement

Ton site évolue ? Ton robots.txt aussi. Dès que tu ajoutes un plugin, une section ou un nouveau dossier, pense à vérifier si ça impacte l’exploration du site.

Voici quelques petites optimisations que j’applique souvent :

  • Supprimer les Disallow inutiles
  • Ajouter l’URL du sitemap (très important pour Google)
  • Corriger des règles trop larges comme Disallow: /wp- (ça bloque trop de trucs utiles)

🛠️ Un robots.txt, c’est pas « on le fait une fois et on n’y touche plus ». C’est un fichier vivant, à surveiller comme n’importe quel élément clé du SEO.

Et si je t’aidais à vraiment faire décoller ton SEO WordPress ?

Le fichier robots.txt, c’est qu’un détail. Mais c’est souvent là que le SEO se joue.

Je suis freelance SEO, et j’accompagne les pros du web, freelances et PME à améliorer leur visibilité sur Google. Mon accompagnement démarre toujours par un audit complet, puis on construit une stratégie claire, efficace, et adaptée à ton site WordPress.

Pas de blabla. Que du concret. Tu veux qu’on avance ensemble ? Parlons-en.

Ă€ retenir đź’¬
Le fichier robots.txt WordPress, c’est un tout petit bout de code… mais avec un impact énorme sur ton SEO. Bien configuré, il guide Google dans les bonnes directions. Mal fait, il peut te faire rater des opportunités. Si tu veux être sûr de ne pas te louper, ou si tu veux aller plus loin dans l’optimisation de ton site, je suis là pour t’accompagner.

FAQ

OĂą se trouve le fichier robots.txt dans WordPress ?

Par défaut, WordPress ne crée pas physiquement de fichier robots.txt dans les dossiers du site, mais il en génère un virtuellement. Tu peux le voir en ajoutant /robots.txt à la fin de ton nom de domaine. Si tu veux le modifier, il faut passer par un plugin SEO ou créer un fichier à la racine du site via FTP.

WordPress crée-t-il un fichier robots.txt par défaut ?

Oui, mais il est généré dynamiquement. Ce fichier virtuel contient quelques règles basiques comme le blocage de /wp-admin/, mais tu ne le vois pas dans les fichiers de ton site à moins d’en créer un toi-même.

Comment modifier le fichier robots.txt sur WordPress ?

Le plus simple, c’est d’utiliser un plugin SEO comme Rank Math ou Yoast. Sinon, tu peux créer un fichier texte appelé robots.txt et l’ajouter à la racine de ton site via FTP ou via le gestionnaire de fichiers de ton hébergeur.

Le fichier robots.txt est-il bénéfique pour le référencement naturel ?

Oui, s’il est bien utilisé. Il permet d’éviter que les moteurs de recherche gaspillent du temps sur des pages inutiles et leur montre où aller en priorité, ce qui améliore l’exploration et donc le SEO global du site.

Est-ce grave d’avoir un fichier robots.txt mal configuré ?

Oui, car une erreur peut bloquer l’indexation de pages importantes ou, au contraire, laisser explorer des zones sensibles. C’est un petit fichier, mais il peut avoir de grosses conséquences sur ton référencement.

Quelle est la différence entre Disallow, Allow et noindex ?

Disallow empêche les robots d’explorer une URL, Allow les autorise dans certains cas malgré un blocage plus large, et noindex demande de ne pas indexer une page, mais il doit être utilisé dans le code HTML et non dans le fichier robots.txt.

Dois-je utiliser le fichier robots.txt ou la balise meta ?

Les deux peuvent être utiles, mais ils ne font pas la même chose. Le fichier robots.txt bloque l’accès avant même l’exploration, tandis que la balise meta agit après l’exploration. Pour désindexer une page, la meta noindex est plus fiable.

Dois-je bloquer /wp-admin/ dans mon fichier robots.txt ?

Oui, c’est une bonne pratique courante. Cela empêche les moteurs de recherche d’explorer l’espace d’administration de ton site, qui n’a aucun intérêt pour les utilisateurs dans les résultats de recherche.

Faut-il inclure un sitemap dans le fichier robots.txt ?

Oui, c’est recommandé. Cela permet d’indiquer directement aux moteurs de recherche où trouver la structure complète de ton site, ce qui facilite leur travail d’indexation.

Comment tester si mon fichier robots.txt fonctionne correctement ?

Tu peux simplement saisir l’URL de ton fichier dans le navigateur ou utiliser un outil en ligne pour simuler l’exploration par les robots. L’important est de vérifier que les bonnes pages sont bien bloquées ou accessibles selon ce que tu as défini.

Guillaume Guersan
Guillaume Guersan
Passionné de nouvelles technologies et de Marketing Digital, j'ai créé ce blog dans le but de partager mes expériences et découvertes en matière de digital et acquisition de trafic ainsi que ma vie de freelance.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Sur le mĂŞme sujet

Link building : comprendre, maîtriser et éviter les pièges en SEO

Vous entendez parler de link building à toutes les sauces, mais vous ne savez pas vraiment ce que ça implique ? Vous avez compris...

Cuik, l’outil d’audit SEO qui va révolutionner votre manière de travailler

Tu fais du SEO et tu galères encore avec des outils trop complexes, des audits interminables ou des rapports moches que t’oses à peine...

Analyse de mots-clés pour votre site web : la base de tout bon SEO

Si votre site n’apparaît pas sur Google, ce n’est pas (seulement) une question de chance. C’est souvent parce qu’il n’est pas optimisé sur les...