Impossible de lire le sitemap

Bonjour !

Est-ce qu’il y a des gens calés en SEO qui pourrait m’aider ? Ca fait un petit moment que la Google Search Console ne veut pas lire un des sitemaps du site.

Il semble que Google Search Console ne puisse pas lire l’un des sitemaps.
Le sitemap principal sitemap.xml (https://forum.pragmaticentrepreneurs.com/sitemap.xml, composé de sitemap_recent.xml et sitemap_1.xml) est lu correctement, mais seul sitemap_recent.xml est importé.

Si j’essaie d’ajouter sitemap_1.xml moi-même à Google Search Console, j’obtiens une erreur. Si je l’essaie dans le validateur, il semble bon.

Avez-vous une idée pourquoi GSC ne peut pas lire sitemap_1.xml ? Merci pour l’aide.

MODIFICATION : Bing lit correctement les deux sitemaps, donc il semble que ce soit spécifique à Google.

De plus, tout va bien lorsque j’essaie d’inspecter sitemap_1.xml avec GSE

J’avais réussi à résoudre ce problème en mettant le lien du sitemap dans le robots.txt, puis en le resoumettant à Google.
Précision : j’utilise Rankmath SEO en plugin et c’est lui qui gére le robots.txt et le sitemap de mon site.

1 « J'aime »

Le site map principal est déjà dedans! Je mets les autres ?
https://forum.pragmaticentrepreneurs.com/robots.txt

Hello Camille,

Ce n’est pas le bon site map. C’est soit tu n’as pas d’extension et c’est tonsite.com/wp-sitemap.xml

Soit, tu installes RankMath et c’est tonsite.com/sitemap_index.xml

Essaye ça :slight_smile:

le site utilise Discourse et pas WP :slight_smile:
Le sitemap indiqué est bien le bon, et c’est bien celui indiqué dans le robots.txt du site

Hello Camille,

Classique ce souci, surtout avec les sitemaps fractionnés. Si sitemap_recent.xml est bien lu mais que sitemap_1.xml ne passe pas. Est ce que tu as vérifié si :

Le sitemap_1.xml s’affiche sans souci dans le navigateur ?
Le fichier respecte bien les limites Google (moins de 50 Mo et 50 000 URLs max) ?

Si tu le passes dans un validateur XML en ligne, tout est ok niveau structure ?

Parfois la Search Console bloque à cause d’erreurs toutes bêtes (balises manquantes, formatage foireux) qu’on ne voit pas à l’œil nu. Et quand tout est propre mais que ça coince, ça peut venir du serveur (fichier bloqué temporairement, headers mal configurés) ou d’une latence chez Google.

Perso dans les audits SEO techniques que j’ai fait jusqu’à présent chez Capsule B, ce genre de détail revient souvent, et ça finit par impacter le crawl global si on ne règle pas. Donc autant vérifier dès maintenant.

Tiens-nous au courant si tu trouves la source du souci.

1 « J'aime »

tout semble bon et ce forum tourne avec Discourse, un projet open source assez connu. Je leur ai remonté le problème mais le bug a pas l’air d’être fréquent. Donc pas sur que le pb soit technique… Peut-etre un vieux pb, corrigé depuis mais que Google n’a pas actualisé ? no idea…