BeitragHerby94 » 03.09.2020, 22:56 Crawler liest ehemalige Duplicate Content nicht mehr ein
Hallo zusammen,
ich habe vor 9 Tagen einen Shopify-Shop gelauncht. Es ist nicht mein erster Shop und SEO ist für mich kein Neuland. Es ist sicher noch viel Optimierungspotential, aber die Basics passen alle (meta-tags, index/noindex, Sitemaps, ...).
Jetzt ist die Indexabdeckung nach über einer Woche mmer noch äußerst lausig: Von ca 140 relevanten Pages sind nur 18 indexiert. Zuerst habe ich mich in Geduld geübt, aber jetzt habe ich festgestellt, dass ein Großteil der URLs wegen "Duplikat – eingereichte URL nicht als kanonisch festgelegt" ausgeschlossen wurde.
Der Grund ist wohl folgender: Der Shop lief einige Zeit mit Passwortschutz. Den Schutz habe ich mehrmals kurzzeitig entfernt, um SEO-Tools darüber laufen zu lassen und alles mögliche zu testen. Durch dieses Entfernen des Schutzes ist der Shop wohl vorzeitig im Index gelandet. Nicht schön, aber kein Beinbruch - dachte ich!
Denn nachdem der Passwortschutz wieder aktiv war, ist der Crawler bei sämtlichen URLs auf der Passwortseite gelandet. Daher Duplicate Content. Wenn ich diese URLs in der GSC prüfe, wird bei allen die Passwortseite als canonical URL angegeben.
Das Problem ist jetzt: Der Crawler schaut sich die ausgeschlossenen URLs nicht mehr an! Die gültigen indexierten Seiten werden fast täglich gecrawlt, aber die vermeintlichen Duplicate Content URLs sind das letzte Mal im Juli gecrawlt worden. So kann der Crawler natürlich nicht sehen, dass mittlerweile unique Content auf jeder Page ist.
Hat jemand eine Idee, was ich tun kann, um den Crawler zu motivieren? Drehe bald durch!
Beitragstaticweb » 04.09.2020, 09:21 Crawler liest ehemalige Duplicate Content nicht mehr ein
> Hat jemand eine Idee, was ich tun kann, um den Crawler zu motivieren? Drehe bald durch!
Google ist meist träge und das ist auch gut so, denn sonst würden Fehler sofort in voller Konsequenz zum Tragen kommen. Da würde es auch einen großen Aufschrei geben. Ich hab' doch nur ...
Beitragstaticweb » 04.09.2020, 10:19 Crawler liest ehemalige Duplicate Content nicht mehr ein
> Der Shop lief einige Zeit mit Passwortschutz. Den Schutz habe ich mehrmals kurzzeitig entfernt, um SEO-Tools darüber laufen zu lassen und alles mögliche zu testen.
Wenn SEO kein Fremdwort für dich ist solltest du auch wissen das es Tools gibt die sich z.B. über einen Webserver-Schutz authentifizieren können. Darüber hätte man auch Google explizit aussperren können.
Beitrag/Affilitiv/ » 05.09.2020, 22:15 Crawler liest ehemalige Duplicate Content nicht mehr ein
staticweb hat geschrieben: ↑04.09.2020, 10:19
Wenn SEO kein Fremdwort für dich ist
solltest du auch wissen das es Tools gibt die sich z.B. über einen Webserver-Schutz authentifizieren können.
Du weist was ein Scalpel ist? du bist ein Chirurg
Du weist das eine Pistole ist? du bist Polizist
Du weist was ein LiftOF is? du bist Pilot
Du weist was eine Zündkerze ist? du bist KFZmechaniker & Taxifahrer
Du weist was ein Flschenöffner ist? du bist Brauer und KneipenWirt
und wenn die Tools, die wissen wie man einen Schlüßel benutzt
nur Reifenwechel können