registrieren registriertes Mitglied


Anzeige

Anzeige

Crawler liest ehemalige Duplicate Content nicht mehr ein

Hier kannst Du Deine Fragen zum Thema Suchmaschinenoptimierung (SEO) stellen.
Herby94
PostRank 1
PostRank 1
Beiträge: 2
Registriert: 03.09.2020, 22:38

Beitrag Herby94 » 03.09.2020, 22:56 Crawler liest ehemalige Duplicate Content nicht mehr ein

Hallo zusammen,

ich habe vor 9 Tagen einen Shopify-Shop gelauncht. Es ist nicht mein erster Shop und SEO ist für mich kein Neuland. Es ist sicher noch viel Optimierungspotential, aber die Basics passen alle (meta-tags, index/noindex, Sitemaps, ...).

Jetzt ist die Indexabdeckung nach über einer Woche mmer noch äußerst lausig: Von ca 140 relevanten Pages sind nur 18 indexiert. Zuerst habe ich mich in Geduld geübt, aber jetzt habe ich festgestellt, dass ein Großteil der URLs wegen "Duplikat – eingereichte URL nicht als kanonisch festgelegt" ausgeschlossen wurde.
Der Grund ist wohl folgender: Der Shop lief einige Zeit mit Passwortschutz. Den Schutz habe ich mehrmals kurzzeitig entfernt, um SEO-Tools darüber laufen zu lassen und alles mögliche zu testen. Durch dieses Entfernen des Schutzes ist der Shop wohl vorzeitig im Index gelandet. Nicht schön, aber kein Beinbruch - dachte ich!
Denn nachdem der Passwortschutz wieder aktiv war, ist der Crawler bei sämtlichen URLs auf der Passwortseite gelandet. Daher Duplicate Content. Wenn ich diese URLs in der GSC prüfe, wird bei allen die Passwortseite als canonical URL angegeben.

Das Problem ist jetzt: Der Crawler schaut sich die ausgeschlossenen URLs nicht mehr an! Die gültigen indexierten Seiten werden fast täglich gecrawlt, aber die vermeintlichen Duplicate Content URLs sind das letzte Mal im Juli gecrawlt worden. So kann der Crawler natürlich nicht sehen, dass mittlerweile unique Content auf jeder Page ist.

Hat jemand eine Idee, was ich tun kann, um den Crawler zu motivieren? Drehe bald durch!

Schonmal vielen vielen Dank!
Herby

Anzeige von: