registrieren registriertes Mitglied


Anzeige

Anzeige

Seiten durch robot.txt ausgeschloßen aber aus Sitemap

Hier kannst Du Deine Fragen zum Thema Suchmaschinenoptimierung (SEO) stellen.
SEOMonster
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 22.02.2014, 15:12

Beitrag SEOMonster » 22.02.2014, 15:24 Seiten durch robot.txt ausgeschloßen aber aus Sitemap

Hallo, ich habe da mal eine etwas kompliziertere Frage:

Ich benutze Wordpress mit dem Plugin Sitemap.xml.
Ich möchte nun eine Seite mit ihren ganzen Unterseiten (ca. 300 Stück) für Google ausschließen. Das ist ja leicht per robots.txt umzusetzen. Das Problem ist nur, dass die Seiten weiterhin in der Sitemap aufgelistet werden. Das Plugin "Sitemap.xml" bietet nur die Möglichkeit, die Seiten einzeln per ID aufzulisten, um Sie aus der Sitemap auszuschließen. Das ist aufgrund der Anzahl der Unterseiten jedoch so gut wie unmöglich.

Wenn ich die Seiten via robots.txt ausschließe, sie aber weiterhin in der Sitemap angezeigt werden meldet Google mir das in den Webmastertools als Fehler. Was kann ich tun?

Vielen Dank!

Anzeige von:

Zur Verstärkung unseres OffPage-SEO Teams suchen wir zum nächstmöglichen Zeitpunkt eine

Online Marketing Assistenz (SEO OffPage) in Vollzeit in Hannover

Die Stelle umfasst die Betreuung und Projektverwaltung von und für Kunden und Kooperationspartner. Wir erstellen Content- und Wettbewerbsanalysen, mit denen nachhaltige und effiziente Linkaufbaukampagnen entwickelt und durchgeführt werden.


Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag
  • Neueste Blogbeiträge