Je vais être honnête avec vous : la première fois que j’ai entendu parler de “désindexation”, je croyais que c’était un bug de Google. Un client m’avait dit « ma page a disparu de Google », j’ai paniqué, fouillé la Search Console dans tous les sens… pour découvrir que c’était volontaire. Depuis, j’ai dû désindexer des centaines de pages pour mes clients. Et parfois, pour mes propres projets.
Alors aujourd’hui, on va parler de ce fameux mot : désindexer. Pourquoi désindexer une page Google ? Comment on fait ? Et surtout, à quoi ça sert ? Vous allez voir, ce n’est pas si technique, et surtout, c’est super utile dans plein de cas.
Définition de la désindexation
Désindexer, c’est tout simplement demander à Google (ou à d’autres moteurs de recherche) de ne plus afficher une page dans ses résultats. Une page désindexée ne s’affiche plus quand quelqu’un fait une recherche, elle sort de la “base” de données des pages que Google affiche. Elle peut toujours exister, être en ligne, mais elle est invisible dans les résultats de recherche Google.
Dit comme ça, ça peut sembler contre-intuitif. Après tout, en SEO, notre job c’est plutôt d’indexer une page, de faire en sorte que Google indexe nos contenus, les comprenne et les positionne au mieux. Donc, pourquoi voudrait-on faire le contraire ?
Les raisons pour désindexer une page
Il y a plus de raisons qu’on pourrait le croire. J’ai déjà eu des clients qui me disaient “je veux que toutes mes pages soient sur Google”. Et souvent, je leur réponds que c’est une très mauvaise idée.

Par exemple, vous avez une page de mentions légales. Ou une page de panier dans un site e-commerce. Ou encore, un ancien article de blog qui n’apporte plus de trafic et qui n’est plus à jour. Est-ce que vous voulez vraiment que ça apparaisse dans les résultats de recherche ? Non. Et en plus, ça dilue la pertinence globale de votre site.
On parle souvent de crawl budget. Même si Google a des ressources quasi infinies, il ne passe pas sa vie à crawler toutes vos pages. Si vous avez 5 000 pages dont 3 000 inutiles, ça peut ralentir l’indexation des 2 000 importantes. Donc autant lui faire un peu de ménage. Et pour ça, la désindexation est votre meilleure amie.
Il y a aussi des cas plus sensibles. J’ai déjà eu une cliente qui avait un article de blog très personnel, publié quand elle était étudiante, qui ressortait sur son nom dans les résultats de recherche Google. Rien de dramatique, mais aujourd’hui elle est DRH dans une grande boîte. Elle voulait que cet article disparaisse. Solution : page Google désindexée. En deux semaines, c’était réglé.
Et puis bien sûr, il y a les pages dupliquées, les pages pauvres en contenu, les filtres de tri d’un e-commerce (genre “prix croissant”), les archives par date dans WordPress… Autant de pages que Google peut indexer par défaut, mais qui n’ont aucun intérêt pour l’utilisateur.
Méthodes pour désindexer une page
Il y a plusieurs techniques pour désindexer une page. Chacune a son contexte, ses avantages, ses limites.
La plus connue (et la plus utilisée dans mon métier de consultant en SEO), c’est la balise meta robots noindex. En gros, on ajoute dans le code HTML de la page cette ligne :
<meta name="robots" content="noindex, nofollow">
Ça signifie : “Cher Google, ne mets pas cette page dans tes résultats, et ne suis pas les liens qu’elle contient”. Le tag noindex nofollow, c’est un peu le panneau “entrée interdite” pour les moteurs de recherche.
Autre option, utiliser le fichier robots.txt. C’est un fichier à la racine du site, que les moteurs lisent en premier. On peut y mettre :
Disallow: /panier/
Et Google comprendra qu’il ne doit pas crawler cette page. Attention cependant : ce n’est pas une méthode de désindexation ! Ça empêche le crawl, pas l’indexation. Si la page a déjà été indexée, elle peut rester dans les résultats (souvent sans description). Donc ce n’est pas ma méthode préférée.
Une méthode radicale mais efficace, c’est d’utiliser l’outil de suppression d’URL dans la Search Console. Super pratique si vous avez une urgence (genre une page privée ou sensible qui s’est indexée sans faire exprès). Cet outil permet de faire disparaître une page des pages de résultats de recherche temporairement (6 mois), le temps de la bloquer proprement par un tag noindex ou un code 410 (page définitivement supprimée).
On peut aussi passer par des codes de réponse serveur. Par exemple, un code 404 (page introuvable) ou 410 (page supprimée) signale à Google qu’il ne faut plus indexer cette URL. C’est propre, mais attention à bien rediriger ou nettoyer vos liens internes.
Et enfin, il y a un point que j’aime rappeler à mes clients : une page sans lien, sans sitemap, sans popularité, non visitée, finit par sortir toute seule de l’index. Ce n’est pas rapide, mais Google finit par comprendre qu’elle n’est plus utile.
Petit aparté : Google indexe plus que ce qu’on pense
Un jour, j’ai audité un site de location de voitures. Ils avaient plus de 120 000 pages indexées, pour à peine 2 000 véhicules. Pourquoi ? Chaque critère de recherche (type de voiture, couleur, ville, dates, options…) générait une URL différente. Et comme ces pages n’étaient pas bloquées, Google les a toutes indexées. Résultat : un site qui rame, qui ne ranke pas, et un client qui ne comprenait pas pourquoi ses concurrents faisaient mieux avec moins de pages.
Une grosse session de désindexation plus tard (robots.txt, tag noindex, suppression d’URL), et en quelques mois le trafic a doublé. Ce n’est pas toujours aussi flagrant, mais je peux vous dire que nettoyer l’index de Google, c’est un levier souvent sous-estimé.

Impact sur le SEO
Je vais casser un mythe tout de suite : désindexer une page ne nuit pas au SEO. Au contraire, ça peut l’améliorer, et parfois de manière spectaculaire. J’ai vu des sites grimper dans les résultats recherche Google juste après avoir supprimé des centaines de pages inutiles de l’index. Parce que oui, moins de pages à faible valeur = plus de poids pour celles qui comptent vraiment.
Donc non, désindexer une page Google, ce n’est pas faire du ménage pour le plaisir. C’est une vraie stratégie SEO, qui aide à mieux contrôler ce que les moteurs de recherche indexent, à maximiser le crawl budget, et surtout à booster la performance des pages essentielles.