registrieren registriertes Mitglied


Anzeige

Anzeige

Trustverteilung in den serps

Alles über Google diskutieren wir hier.
mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 25.09.2014, 11:57 Trustverteilung in den serps

Hallo!

Mal angenommen, es gäbe so etwas wie einen einfachen Score, nachdem Google die Seiten in den serps ordnet. D.h. der Algorithmus verarbeitet hunderte Rankingfaktoren (teilweise sehr zeitnah -> Hummingbird, und teilweise über Monate hinweg -> Panda updates) und am Ende steht für jede Suchbegriff-Website-Kombination eine einzige Zahl (Sagen wir eine Kombination aus Trust, Relevanz, Autorität usw usf). Zum Beispiel so:

----------zalando.de---de.wikipedia.org
schuhe-----3000----------------150
london-------0------------------4000

Dann werden für jede Suchanfrage nur noch die Websites nach diesem Score absteigend sortiert. Zumindest stelle ich mir die Funktionsweise einer Suchmaschine so vor.

Jetzt aber die eigentliche Frage. Wäre dieser Score über die Websites gleichverteilt? (---Mathe-Schlauberger-Modus EIN---> oder eher exponentialverteilt? <---Mathe-Schlauberger-Modus AUS---)

Dazu mal noch ein Beispiel. Wenn ich für den Suchbegriff "schuhe" von Position 320 auf 319 aufsteige, dann habe ich wohl eine andere Looser-Seite überholt. Wenn ich für denselben Term von #2 auf #1 aufsteige hätte ich Zalando überholt. Für den Traffic und das Ego ist das natürlich ein riesengroßer Unterschied. Aber wer sagt, dass #1 nach dem internen Google Score nicht nur marginal besser ist als #2? So dass evtl ein einziger Forenlink für die Verbesserung ausreicht...

Ein Hinweis darauf, dass dieser Score nicht gleichverteilt ist, wäre die Volatilität in den serps. Zumindest mein Bauchgefühl sagt mir, dass die Top 10 meistens viel stabiler auf ihren Positionen sitzen als es bei den Rankings weiter hinten der Fall ist. Ist das so? Und wenn ja warum? Warum sollte es schwerer sein, von #2 auf #1 zu kommen, als von #320 auf #319?

Anzeige von: