registrieren registriertes Mitglied


Anzeige

Anzeige

Frage URL Parameter per robot.txt ausschließen

Hier kannst Du Deine Fragen zum Thema Suchmaschinenoptimierung (SEO) stellen.
Fleming
PostRank 4
PostRank 4
Beiträge: 173
Registriert: 05.01.2016, 10:24

Beitrag Fleming » 16.03.2023, 13:38 Frage URL Parameter per robot.txt ausschließen

Moin Zusammen,

ich würde mal Meinungen zu folgender Problem-Lösung haben wollen:

Online-Shop generiert Millionen URLs durch Filter, da sich die Filter miteinander kombinieren lassen.

Beispiel:
domain.de/blau
domain.de/grün
domain.de/blau_grün
domain.de/grün_blau
etc. etc.

Diese wurden nun an einer Stelle maskiert mit PRG, sodass Crawler diese erstmal nicht sehen und diesen Folgen. Auf den Artikelseiten können die Filter einzeln weiter verfolgt werden, allerdings ohne die Möglichkeit, mehrere zu kombinieren.

Diese einzelnen Filter (domain.de/blau und domain.de/grün) würden wir als Landingpages benutzen wollen, sodass wir alle Filter-URLs als index follow gesetzt haben.

Da ich nicht 100%ig ausschließen kann, dass ein Crawler nicht doch noch Kombinations-Filter-URLs irgendwo findet, habe ich diese durch eindeutige Parameter gekennzeichnet und diese in der Robot.txt mit "Disallow /*Parameter" ausgesperrt. Im Grunde also nur als Backup.

Hat da jemand eine Einschätzung zu, ob das ein gangbarer Weg ist, um diese Kombinations-URLs vom Index fernzuhalten? Oder lieber komplett alle Filter-URLs auf noindex belassen?

Danke vorab

Anzeige von: