nanos hat geschrieben:Was hat schema.org denn mit Kategorieseiten zu tun ? Ich spreche hier nicht von Produktseiten, das ist dir klar, oder ?
Nimm dir Zeit und lese es dir durch.
Sollte es auf deine spezielle Seiten nicht passen dann ok.
Aber eigentlich kannst du damit alles markieren was sich auflisten lässt oder wo die Daten auf einer Seite eine Gesamtinformtion bilden, die sich inhaltlich wiederholt.
Ich hatte eine alte Seite mit vielen Comments. Manchmal mit einigen Hundert. Die waren wichtig um über die Zeit die Entwicklung des Content zu sehen mit Ratings usw. aber auch ziemlich voll mit Content. Echte, gute Content Comments. Die möchte man nicht irgendwo im Javanirvana verschwinden lassen oder per noindex.
Also baut man sich eine markup und Pagination. Damit sind alle URLs der Start URL, die "comment_start=x" als Parameter haben als eine Metaseite deklariert. Was bedeutet das der GESAMTE Content der Comments nun von Google erkannt wird, das die Unterseiten immer den gesamten Content haben ohne Tricks aber eben kein noindex brachen und auch kein DC sind, da ich klar sage das sie ein Teil der Ursprungs URL sind und da schema.org eine Listfunktion hat ala "comment #1, #2..." Seite 2 mit "comment #11.. #12" kann eine SE, die das auswertet, immer schön alles einordnen.
Gerade für Comments mit Wertung usw. kann man da nette Dinge machen, da schema.org sowas explizit als Attribut des Container Contents und Teil der Seite zu markieren erlaubt und so die Comments semantisch tiefer in die Seite einbaut. Da war doch was mit Sternen und Wertung in den SERPS?
Im besten Fall kann Google nun jeden Comment in Bezug zur Root URL bringen und den Content darin dann auch anzeigen. Wenn Comment 100 also über "wie alles Begann" berichtet, dann ist nun eine gute Chance das Google das in Bezug auf die Basiskeys der Root URL auch richtig anzeigen kann. Das betrifft insbesondere die Long Tails. Klar konnte Google das schon, aber eben oft auch nicht gut.
Irgendwelche Sub Unter Suchseitenergebnisse sollte man natürlich noch als noindex markieren, übertreiben sollte man es nicht. Aber da solltest du eh von den URL schon ein System haben und alle URLS mit "search.php" auf noindex stellen wenns es ein Paramter hat.o.ä.
Aber gerade Kategorien sind spannend, weil das fast immer auch Listen sind. Man braucht nicht mehr unten abzuschneiden. Wenn man es gut hin bekommt, besteht eben die Chance das Google die Auflistung akzeptiert und den DC in ihr als ok. Wenn nicht, das schneidet Google das eben ab. Es ändert nichts an der Root URL, da wir ja klar deklarieren, das die sub URL nur ein logischer Teil einer anderen URL und eines vorherigen Contents ist.
Soweit die Theorie. Ob es dann auch so perfekt funktioniert ist ein anderes Ding, aber zumindest pusht Google das Ding und sagt in seinen Blogs & FAWs ziemlich oft wie sehr sie das "empfehlen" und für "sinnvoll" heißen. Was in Googlish in der Regel soviel wie "das zählen wir als Qualität" bedeutet.
Bedeutungslos wird das natürlich alles, wenn wir eigentlich gar nicht über eine Webseite reden, sondern über den Content selber, also z.B. möchtest du deine Artikel überprüfen, ob da Teile DC sind o.ä. Das ist natürlich etwas anderes, du da dann deine DB Daten überprüfst und keine Webseite aka Darstellung der Daten.
In dem Fall schreibst du eine kleine Loop der die Daten ausliest, erzeugst damit eine roh verlinkte Seitenliste und läßt das Tool einmal über die Rohdaten laufen.