registrieren registriertes Mitglied


Anzeige

Anzeige

Trustverteilung in den serps

Alles über Google diskutieren wir hier.
Hausschuhexperte
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 08.08.2009, 11:38

Beitrag Hausschuhexperte » 26.09.2014, 10:44 Trustverteilung in den serps

@ mahenni
danke für die ernsthafte Beantwortung meiner Fragestellung.

Daraus ergeben sich für mich aber zwei weitere Fragestellungen:
  • ob es Dir gelingen kann?
    ob es wirklich was bringt, wenn es Dir gelingen würde?
Die erste Frage kannst nur Du letztendlich beantworten :D

Bei der zweiten Frage möchte ich gerne "SEO-philosophisch" eine Antwort finden oder eher die Fragestellung vertiefen.
Vergleichen wir die SERPs-Zusammenstellung doch mal mit dem Wetter, dass sich ebenso komplex durch die unterschiedlichsten Komponenten und deren Zusammenspiel bildet.
Da gibt es auch unterschiedliche Messmethoden, um einen Ist-Zustand zu erfassen.
Es gibt auch immer wieder die Versuche, Formeln für Wetterprognosen zu finden, aber wir wissen alle, wie genau die sind und am Ende meist eher eine Erklärung gesucht wird, warum bestimmte Wetter-Phänomen stattgefunden haben (also rückwirkende Betrachtung)
Manche Forscher verlagern sich aufs Klima, denn da kann man nicht so schnell falsch liegen :D
Beim Wetter oder Klima sind ja unglaubliche Datenmengen verfügbar und trotzdem sind die Versuche, diese komplexen Strukturen der Einflussfaktoren zu verstehen, nicht unbedingt von Erfolg gekrönt, und das Wetter bleibt letztendlich wie es ist.

Beziehen wir dieses Szenario auf Google (Wettermacher) und die SERPs (das Wetter)
Auch hier haben wir ähnlich komplexe Strukturen und Einflussfaktoren. Der Unterschied liegt aber darin, dass wir nur einen Teil der vermutlichen Komponenten kennen und uns etliche Daten fehlen.
Zum Beobachten des Ist-Zustandes gibt es Monitoring-Tools, die auf Keywordbasis einen täglichen Zustand ausgewählter Keywords Positionierungen messen.
Diverse SEO-Tools versuchen auf unterschiedliche Art und Weisen verfügbare Hintergrundinformationen zu liefern, damit Seiten-Betreiber mutmaßen können, wieso die Konkurrenz besser abschneidet als die eigene Seite. Google-Trust ist eine Form davon. Diese Tools helfen auch, die Auswirkungen von Unwettern (Google-Updates) in Nachhinein messen zu können.
Im Gegensatz zur Wetterbeobachtung stehen uns also bei den SERPs längst nicht alle Daten zur Verfügung. Besonders wenn es um die Beurteilung der Qualität von Seiten geht, fehlen uns (im Hinblick auf fremde Websites) die genauen User-Signale. Die hat nur Google.

Was soll da eine Formel bewirken, die Googles Wohlwollen messen will?

Um bei dem Wetter-Beispiel zu bleiben, sollten wir uns bemühen, unsere Seiten möglichst wetterfest gestalten.
Natürlich möchte man gerne wissen, warum einige Seiten wetterfester (erfolgreicher) sind als andere, zumal sie gegen bestimmte Regeln verstoßen.
Aber das ist in der freien Wirtschaft kaum anders. (und lässt sich wohl auch nicht in Formeln erfassen!)

Anzeige von: