Beitragklogges » 11.06.2025, 09:32 Produkte unter mehreren URLs
Hallo,
wir planen unseren Shop umzubauen und für unterschiedliche Zielgruppen passende Kategorien zu schaffen.
Da die Produkte stellenweise in mehreren Kategorien auftauchen können, hätten wir für ein und dasselbe Produkt unterschiedliche URLs. Da jedes dieser Produkte noch Varianten hat, die ebenfalls eigene URLs haben (Shopware 6) und per canonical auf das Elternelement verweisen (oder wenn passend auf die Topseller-Variante), machen wir uns Sorgen, dass zusätzliche URLs für die unterschiedlichen Kategorien sich negativ auf das Crawling-Budget auswirken.
Bis dato sind ca. 150 Produkte mit je 15-30 Varianten im Shop. Da ein Produkt evtl. in 4 neuen Kategorien stehen könnte, würde sich die Anzahl an URLs dementsprechend multiplizieren.
Könnte man die Produkte unter einer Hauptkategorie indizieren lassen und im Falle einer Unterkategorie auf noindex stellen?
Oder gibt es andere Wege bzgl. des Crawling-Budgets?
Erfolgreiche und optimale Nutzung mit Shopware Shopsystemen!
Nutzen Sie unsere jahrelange Erfahrung mit Suchmaschinenoptimierung für Shopware und lassen Sie sich beraten!
Beitragklogges » 11.06.2025, 17:10 Produkte unter mehreren URLs
Hi @staticweb,
danke fürs schnelle Feedback.
Da die 150 Produkte Varianten mit eigenen URLs mitbringen in 3 Sprachen, sind es so 5.400 URLs. Wenn diese durch neue Kategorien mit 3 oder 4 multipiliziert würden ist das schon ein Problem, oder?
Beitragklogges » 12.06.2025, 10:10 Produkte unter mehreren URLs
Die Produkte sind unter mehreren Kategorien auffindbar.
Damit in Shopware die gewählte Kategorie für den Nutzer bestehen bleibt (auch in der Breadcrumb), war der Plan diese in der URL mitzugeben.
Also z.B. so: Kleidung/Herren/T-Shirt/SW123465
Kleidung/Oberteile/T-Shirt/SW123465
canonical wäre T-Shirt/SW123465
Das würde bedeuten, dass für jede zusätzliche Kategorie die verschiedenen URLs des Produktes und seiner Varianten (+Sprachversionen) multipliziert würden.
Meine Überlegung ist nun, nur die Hauptkategorie als URL zu nutzen und die Kategoriewahl per Queryparameter mitzugeben.
Diese dann in der robots.txt per Disallow: /*?category= vom Crawling auszuschließen. Dadurch müsste man doch Budget einsparen, oder? Wenn die verlinkte URL ( T-Shirt/SW123465?category=Kleidung/Oberteile/ ) doch gecrawlt würde, würde sie per canonical auf die HauptURL verweisen.