Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Nun ich empfehle dir mal dieses hier durchzulesen:Martin Bongartz hat geschrieben: ↑24.06.2020, 14:16 Kurz und knapp: Mit Yoast auf noindex stellen um die Seiten aus dem Index zu bekommen. Wenn die nicht mehr gelistet sind, via Robots.txt vom Crawling ausschließen um das Crawl-Budget zu sparen.
Ja Google unterstützt kein Noindex mehr über die Robots.txt aber in den Metadaten geht es ja noch ohne Probleme. Oder was meinst du?arnego2 hat geschrieben: ↑24.06.2020, 18:04Nun ich empfehle dir mal dieses hier durchzulesen:Martin Bongartz hat geschrieben: ↑24.06.2020, 14:16 Kurz und knapp: Mit Yoast auf noindex stellen um die Seiten aus dem Index zu bekommen. Wenn die nicht mehr gelistet sind, via Robots.txt vom Crawling ausschließen um das Crawl-Budget zu sparen.
https://www.searchenginejournal.com/goo ... ex/314961/
Titel sagt es schon Google Cancels Support for Robots.txt Noindex
Yoast ist seit dem Yoast Bug auch nicht mehr zu trauen:
https://www.searchenginejournal.com/yoa ... ug/255639/ und
https://flothemes.com/yoast-seo-bug/
jupp, du hast ihm gesagt es geht über robots.txt und das geht leider nicht mehr.Martin Bongartz hat geschrieben: ↑24.06.2020, 20:36
Ja Google unterstützt kein Noindex mehr über die Robots.txt aber in den Metadaten geht es ja noch ohne Probleme. Oder was meinst du?
Sobald die Seiten aus dem Index sind, erst dann über die Robots.txt via Disallow verbieten zu crawlen.
Aber erst wenn sie aus dem Index sind. Weil sonst kann der Crawler das noindex auf der Seite ja nicht finden.
Deine Quellen sind von 2018.... Hast du geprüft ob die Infos noch aktuell sind?
In meine Antwort steht nichts davon, dass er noindex über die Robots.txt setzten soll.arnego2 hat geschrieben: ↑25.06.2020, 02:49jupp, du hast ihm gesagt es geht über robots.txt und das geht leider nicht mehr.Martin Bongartz hat geschrieben: ↑24.06.2020, 20:36
Ja Google unterstützt kein Noindex mehr über die Robots.txt aber in den Metadaten geht es ja noch ohne Probleme. Oder was meinst du?
Sobald die Seiten aus dem Index sind, erst dann über die Robots.txt via Disallow verbieten zu crawlen.
Aber erst wenn sie aus dem Index sind. Weil sonst kann der Crawler das noindex auf der Seite ja nicht finden.
Deine Quellen sind von 2018.... Hast du geprüft ob die Infos noch aktuell sind?
Und die GSC geht leider auch nicht mehr so toll das man da die Links via Disallow los wird.
Nicht?Martin Bongartz hat geschrieben: ↑24.06.2020, 14:16 Kurz und knapp: Mit Yoast auf noindex stellen um die Seiten aus dem Index zu bekommen. Wenn die nicht mehr gelistet sind, via Robots.txt vom Crawling ausschließen um das Crawl-Budget zu sparen.
indem man den Satz bis zum Ende liest
oder, LArry Page einen Brief schreiben und erklären das der bitte seinen Bots erklären soll das da was drinsteht obwohl es nicht drinsteht
Wie es üblich gemacht wird: Mit Disallow und nicht noindex. Mit noindex wird das indexieren verboten. Mit Disallow das Crawlen. Das ist schon ein großer Unterschiedarnego2 hat geschrieben: ↑25.06.2020, 15:35Nicht?Martin Bongartz hat geschrieben: ↑24.06.2020, 14:16 Kurz und knapp: Mit Yoast auf noindex stellen um die Seiten aus dem Index zu bekommen. Wenn die nicht mehr gelistet sind, via Robots.txt vom Crawling ausschließen um das Crawl-Budget zu sparen.
Wie sollte man das via Robots.txt vom Crawling ausschließen interpretieren?
Da muss ich dir leider widersprechen. Wenn ich einen Blog mit 100 Unterseiten habe, wovon 90 Tag oder Filter Seiten sind, sind 90 % der Domain für Google Uninteressant. Die Relation sollte auch bei kleineren Domains schon stimmen.
und wie erkennst du, wie hoch das Budget ist? Analysierst du täglich Logfiles? Ist es dann nicht doch lieber ratsam, dem Bot klare Regeln zu geben, bevor es zu viel wird? Und das Thema "Thin Content" ist dann ganz schnell bei solchen Seiten ein großes Thema.staticweb hat geschrieben: ↑25.06.2020, 17:44 > Wenn die Relation halt nicht stimmt, wird das Crawl-Budget ja unnötig verwendet.
Das kann schon sein. Aber solange das Budget höher ist als der Bedarf muss dich das nicht interessieren. Der Google Bot kann sowas auch selbständig erkennen. Ein Eingriff ist nur notwendig, wenn das Crawl Budget nicht mehr ausreicht.