registrieren registriertes Mitglied


Anzeige

Anzeige

Seiten durch robot.txt ausgeschloßen aber aus Sitemap

Hier kannst Du Deine Fragen zum Thema Suchmaschinenoptimierung (SEO) stellen.
SEOMonster
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 22.02.2014, 15:12

Beitrag SEOMonster » 22.02.2014, 15:24 Seiten durch robot.txt ausgeschloßen aber aus Sitemap

Hallo, ich habe da mal eine etwas kompliziertere Frage:

Ich benutze Wordpress mit dem Plugin Sitemap.xml.
Ich möchte nun eine Seite mit ihren ganzen Unterseiten (ca. 300 Stück) für Google ausschließen. Das ist ja leicht per robots.txt umzusetzen. Das Problem ist nur, dass die Seiten weiterhin in der Sitemap aufgelistet werden. Das Plugin "Sitemap.xml" bietet nur die Möglichkeit, die Seiten einzeln per ID aufzulisten, um Sie aus der Sitemap auszuschließen. Das ist aufgrund der Anzahl der Unterseiten jedoch so gut wie unmöglich.

Wenn ich die Seiten via robots.txt ausschließe, sie aber weiterhin in der Sitemap angezeigt werden meldet Google mir das in den Webmastertools als Fehler. Was kann ich tun?

Vielen Dank!

Anzeige von: