Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Das tolle am DC ist das wir nicht entscheiden ob die Sache damit so geregelt ist wie geplant.WA24 hat geschrieben: 02.07.2020, 11:35Das ergibt zum Teil Duplicate Content und ich wollte wissen, ob ich die sent=2 dann auf noindex oder wie jetzt im Test die sent=1 als canonical angebe. Die sent=1 soll ja schliesslich indexiert werden.

Du kannst es aber auch anders machen. Wenn Du schon mit $_GET arbeitest, dann maskiere diese zunächst mal, sodass nicht unmittelbar ersichtlich wird, dass es hier mit $_GET gearbeitet wird. Wenn dem so ist, dass Google keine Link Listen mag, wovon ich auch ausgehe, kannst Du aber $_GET trotzdem für Dich vorteilhaft nutzen und abhängig vom Value andere Überschriften, Beschreibung usw. nutzen. Damit gibts Du jeder Ansicht eine gewisse Eigenständigkeit und kannst darauf verzichten ansonsten mit index und noindex zu arbeiten.WA24 hat geschrieben: 02.07.2020, 11:35
Jetzt mache ich gerade einen Test bei dem ich zuerst nur die ersten 5 Ergebnisse ausgebe
(url: https://www.domain.de/shop/?marke=test& ... est&sent=1) danach einen "mehr anzeigen..." Balken mit Link zu (url: https://www.domain.de/shop/?marke=test& ... est&sent=2) wo dann die kompletten 50 Artikel angezeigt werden wie vorher auch.
Das heißt im schlimmsten Fall besteht die Möglichkeit, dass einige dieser sent=2 Urls trotz canonical auf sent=1 im Index landen? Das wäre nicht schön, dann hätte ich mir die Prozedur ja sparen können. Der Sinn soll ja sein, dass die Seiten mit reduzierten Links also die sent=1 noch besser ranken, weil es eben dann keine Linklisten mehr sind.arnego2 hat geschrieben: 02.07.2020, 15:11 Das tolle am DC ist das wir nicht entscheiden ob die Sache damit so geregelt ist wie geplant.
Selbst Seiten die sich nicht im geringsten ähneln wie, zum Beispiel: Index und Kontakt, werden von Google's KI gern als DC angesehen.
das mache ich bereits mit diversen Texten die nicht überall auftauchen sollen und der internen Link-Struktur, da Google ja die Drop-Downs nicht verfolgen kann.supervisior hat geschrieben: 02.07.2020, 16:26 ...kannst Du aber $_GET trotzdem für Dich vorteilhaft nutzen und abhängig vom Value andere Überschriften, Beschreibung usw. nutzen. Damit gibts Du jeder Ansicht eine gewisse Eigenständigkeit und kannst darauf verzichten ansonsten mit index und noindex zu arbeiten....
Kannst Du mir da mal auf die Sprünge helfen? Maskieren von allen 50 Produkt-URLs also Link-Cloaking oder wie ist das gemeint?supervisior hat geschrieben: 02.07.2020, 16:26 ...dann maskiere diese zunächst mal, sodass nicht unmittelbar ersichtlich wird, dass es hier mit $_GET gearbeitet wird...

Google kann dropdowns sehr wohl folgen, sofern in den values die Links stehen.WA24 hat geschrieben: 02.07.2020, 17:25 Kannst Du mir da mal auf die Sprünge helfen? Maskieren von allen 50 Produkt-URLs also Link-Cloaking oder wie ist das gemeint?
In vielen Fällen sucht sich Google die unpassendere Seite raus die dann vorgezogen rankt.WA24 hat geschrieben: 02.07.2020, 17:25
Das heißt im schlimmsten Fall besteht die Möglichkeit, dass einige dieser sent=2 Urls trotz canonical auf sent=1 im Index landen? Das wäre nicht schön, dann hätte ich mir die Prozedur ja sparen können. Der Sinn soll ja sein, dass die Seiten mit reduzierten Links also die sent=1 noch besser ranken, weil es eben dann keine Linklisten mehr sind.

Was @arnego2 sagt, ist natürlich was dran und kann ich auch bestätigen. Allerdings hast Du das Problem bei absolut jeder URL. Würde ich nach dem gehen, was Google bei mir, warum auch immer, nicht indexiert, müsste/könnte ich 80% meines Contents == ~1 Mio URLs auch löschen. Das Dumme dran ist, keiner weiß warum. Von daher wäre es verkehrt von Dir die Flinte ins Korn zu werfen. Ein Nein hast Du ja schon, also ausprobieren. Was kann schon schief gehen?WA24 hat geschrieben: 02.07.2020, 23:03 Dann ist es wohl besser, wenn ich die Idee über den Haufen werfe. Vielen Dank für die sachlichen Antworten!
Sollte es das? Meiner Erfahrung nach mögen Suchmaschinen Steuerungsversuche nicht. Gerade Google hat sein Verhältnis gegenüber Webmastern stark geändert. Wo anfangs ein gewisses Vertrauen herrschte ist es jetzt eher ein Misstrauen. Bei der Konjunktur die Black SEO erahren auch verständlich.staticweb hat geschrieben: 03.07.2020, 12:22 > In vielen Fällen sucht sich Google die unpassendere Seite raus die dann vorgezogen rankt.
Da sollte man eigentlich über das interne Link Management steuern können. Eingehende Links sind für Google ein wichtiges Kriterium.