registrieren registriertes Mitglied


Anzeige

Anzeige

Trustverteilung in den serps

Alles über Google diskutieren wir hier.
mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 25.09.2014, 11:57 Trustverteilung in den serps

Hallo!

Mal angenommen, es gäbe so etwas wie einen einfachen Score, nachdem Google die Seiten in den serps ordnet. D.h. der Algorithmus verarbeitet hunderte Rankingfaktoren (teilweise sehr zeitnah -> Hummingbird, und teilweise über Monate hinweg -> Panda updates) und am Ende steht für jede Suchbegriff-Website-Kombination eine einzige Zahl (Sagen wir eine Kombination aus Trust, Relevanz, Autorität usw usf). Zum Beispiel so:

----------zalando.de---de.wikipedia.org
schuhe-----3000----------------150
london-------0------------------4000

Dann werden für jede Suchanfrage nur noch die Websites nach diesem Score absteigend sortiert. Zumindest stelle ich mir die Funktionsweise einer Suchmaschine so vor.

Jetzt aber die eigentliche Frage. Wäre dieser Score über die Websites gleichverteilt? (---Mathe-Schlauberger-Modus EIN---> oder eher exponentialverteilt? <---Mathe-Schlauberger-Modus AUS---)

Dazu mal noch ein Beispiel. Wenn ich für den Suchbegriff "schuhe" von Position 320 auf 319 aufsteige, dann habe ich wohl eine andere Looser-Seite überholt. Wenn ich für denselben Term von #2 auf #1 aufsteige hätte ich Zalando überholt. Für den Traffic und das Ego ist das natürlich ein riesengroßer Unterschied. Aber wer sagt, dass #1 nach dem internen Google Score nicht nur marginal besser ist als #2? So dass evtl ein einziger Forenlink für die Verbesserung ausreicht...

Ein Hinweis darauf, dass dieser Score nicht gleichverteilt ist, wäre die Volatilität in den serps. Zumindest mein Bauchgefühl sagt mir, dass die Top 10 meistens viel stabiler auf ihren Positionen sitzen als es bei den Rankings weiter hinten der Fall ist. Ist das so? Und wenn ja warum? Warum sollte es schwerer sein, von #2 auf #1 zu kommen, als von #320 auf #319?

Anzeige von:

Personal Branding mit ABAKUS:
  • Höhere Glaubwürdigkeit
  • Hervorhebung Ihrer Kompetenz
  • Stärkung Ihrer Alleinstellungsmerkmale
  • Abhebung von Namensvettern
Profitieren Sie von unserer Erfahrung!
0511 / 300325-0

Hausschuhexperte
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 08.08.2009, 11:38
Kontaktdaten:

Beitrag Hausschuhexperte » 25.09.2014, 12:22 Trustverteilung in den serps

Ganz so einfach scheint es nicht zu sein.

Wenn Du in Deine WMT guckst, dann kannst Du ja unter Suchanfragen konkret sehen, wie unterschiedlich Deine Positionierung in den SERPs ist.
Gleichzeitig kannst Du auch feststellen, das Google bei der Anzeige der Landingpages variiert ( um dort die beste Qualität heraus zu finden)

Wie Du diese Tatsachen in Dein Gedankengebilde mit dem Trust einbauen kannst, überlasse ich lieber Dir.
:D
www.post-von-carl-otto.de
Beschäftigungs-Therapie mit Spaßfaktor.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6680
Registriert: 16.03.2008, 01:39
Kontaktdaten:

Beitrag hanneswobus » 25.09.2014, 12:36 Trustverteilung in den serps

mahenni,

deine gedankengaenge sind interessant und ich theoretisiere so: es existieren verschiedene modelle von "gewichteten nutzwertanalysen". hier gibt es verschiedene variablen, die den letztendlichen wert hoch oder runter setzen. das modell der "gewichteten nutzwertanalyse" zeichnet sich ja u.a. dadurch aus, dass man - frei schnauze - die variablen ab- oder zugewichten kann. aber - wie erwaehnt - ist das ganze eine theorie: stelle doch einfach fuer deine experimente etc. so etwas auf und pruefe gegen, welche variablen aus diesem modell fuer deine konkreten anwendungsfaelle wichtig oder weniger wichtig sind.

gruß

mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 25.09.2014, 13:46 Trustverteilung in den serps

Hausschuhexperte hat geschrieben:Ganz so einfach scheint es nicht zu sein.

Wenn Du in Deine WMT guckst, dann kannst Du ja unter Suchanfragen konkret sehen, wie unterschiedlich Deine Positionierung in den SERPs ist.
Ich habe das vor kurzem sogar mal als Histogramm visualisiert. Heraus kommt so eine Kurve, mit sehr vielen Rankings in den Top 10 und immer weniger, je höher die serps gehen. Zum einen liegt das wohl daran, dass die serps für longtail keywords oft nicht einmal bis Position 50 gehen. Sehr hohe Positionen sind also naturgemäß seltener. Außerdem glaube ich, dass die hinteren Plätze von zahlreichen Content Aggregatoren Websites gefüllt werden. Bei denen sieht es wahrscheinlich ein bischen anders in den WMT aus.
Hausschuhexperte hat geschrieben: Gleichzeitig kannst Du auch feststellen, das Google bei der Anzeige der Landingpages variiert ( um dort die beste Qualität heraus zu finden)
Stimmt! Die Variation auf den hinteren Plätzen hat möglicherweise viel mit dem austesten von Usersignalen zu tun.

Ob mich das meiner Antwort näher bringt, weiß ich grad auch noch nicht so richtig. Muss ich nochmal drüber nachdenken :D
hanneswobus hat geschrieben:es existieren verschiedene modelle von "gewichteten nutzwertanalysen".
Das wäre zu einfach. Bei der Nutzwertanalyse werden ja, wenn ich es richtig verstanden habe, die Nutzwerte einfach nur addiert. Dann könnte man mit einer Regressionsanalyse ganz klar sagen, welchen Wert zB Forenlinks zum Ranking beitragen.

Stattdessen werden beim Google Algorithmus aber wahrscheinlich viel komplexere Funktionen angewandt. ZB müssen Schwellenwerte berücksichtigt werden (wenn Anteil money keywords > X, dann Penalty) usw. D.h. es gibt selten eine lineare Beziehung zwischen Ranking und Rankingfaktor.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6680
Registriert: 16.03.2008, 01:39

Beitrag hanneswobus » 25.09.2014, 14:04 Trustverteilung in den serps

mahenni,

die werden zwar addiert, aber du kannst ueber geeignete unterformeln die jeweiligen variablen etwas feiner gewichten. hab dank fuer den hinweis auf die regressionsanalyse, ich werde bei gelegenheit in die richtung analysieren.

lg

Anzeige von:


Content Erstellung von ABAKUS Internet Marketing
Ihre Vorteile:
  • einzigartige Texte
  • suchmaschinenoptimierte Inhalte
  • eine sinnvolle Content-Strategie
  • Beratung und Umsetzung
Jetzt anfragen: 0511 / 300325-0

mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 25.09.2014, 14:15 Trustverteilung in den serps

hanneswobus hat geschrieben:mahenni,

die werden zwar addiert, aber du kannst ueber geeignete unterformeln die jeweiligen variablen etwas feiner gewichten. hab dank fuer den hinweis auf die regressionsanalyse, ich werde bei gelegenheit in die richtung analysieren.

lg
Stimmt, ein Nutzwert kann ja auch selbst eine komplexe Funktion aus mehreren Variablen sein. Die ganze Analyse halte ich aber für extrem aufwendig. Onpage und Offpage Daten für mehrere hundert Rankingfaktoren müssen von genügend vielen Websites vorliegen. Außerdem die Rankings. Und alle Daten über mehrere Monate. Wahrscheinlich auch noch Nutzersignale. Und dann die Beziehungen sinnvoll und methodisch korrekt modellieren...viel Spaß :)

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6680
Registriert: 16.03.2008, 01:39
Kontaktdaten:

Beitrag hanneswobus » 25.09.2014, 14:28 Trustverteilung in den serps

mahenni,

natuerlich ist das aufwaendig, aber wenn ich mich mit einem solchen problem beschaeftige und was vernuenftiges haben will, muss ich nunmal eigene ueberlegungen anstellen und prozeduren entwickeln. die rankingbeobachtungen sind in dem spielchen eher weniger kompliziert: hierfuer gibt es ja zig externe datenbanken und services, die man via api ansteuern und auswerten kann.

lg

mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 25.09.2014, 14:41 Trustverteilung in den serps

@hanneswobus
Die Idee ist auf jeden Fall löblich. Vielleicht hat dann die Korrelationsanalyse zur Untersuchung von Rankingfaktoren ausgedient. Ich würde es mir aber trotz 1,5 Jahre Statistikkurs nicht zutrauen.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6680
Registriert: 16.03.2008, 01:39
Kontaktdaten:

Beitrag hanneswobus » 25.09.2014, 14:54 Trustverteilung in den serps

mahenni,

naja ich sag immer: einfach machen und im schlimmsten fall aergert man sich ueber die verschwendete zeit. ich stelle in der entwicklungsarbeit uebrigens immer wieder fest, dass sehr schnell erkenntnisse kommen und das problem ist eigentlich nur, hieraus eine formel zu basteln, welche die ggf. gefundenen erkenntnisse auf andere projekte u. faelle uebertragbar macht.

lg

mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 25.09.2014, 15:19 Trustverteilung in den serps

Mathematik lohnt sich in der Regel umso mehr, je größer der Betrieb ist. Bei einem Ein-Mann-Betrieb wie mir ist der Grad zur Zeitverschwendung sehr schmal.

Aber zurück zu meiner Ausgangsfrage - Mir fiel grad ein, ein Anhaltspunkt könnte sein, wie sich SEO Metriken wie zB die Moz Page Authority über die Top 100 verteilt. Der Wert ist ja im Prinzip nichts anderes als ein Versuch, den von mir beschriebenen Google internen Score nachzubauen. Wenn die Varianz dann über die ganzen Top 100 etwa gleich ist, hätte man wohl auch beim Google Score eine Gleichverteilung. Das einzige Problem ist, dass die Page Authority laut Moz logarithmisch skaliert ist. Man müsste also den Logarithmus kennen um den Wert wieder rückzutransformieren.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6680
Registriert: 16.03.2008, 01:39
Kontaktdaten:

Beitrag hanneswobus » 25.09.2014, 15:25 Trustverteilung in den serps

mahenni,

jap. schon klar: leider muss ich beobachten, dass viele große klitschen solche komplexeren analysen kaum oder nur sehr selten durchziehen. wir sind hier z.b. eine zweimannbude und irgendwann kam halt die frage auf, warum welche strategieansaetze besser fruchten oder warum große shops trotz massiven verstoessen gegen die bekannten richtlinien besser ranken usw.

ich wuerde die moz page authority mit in die gedankengaenge einbeziehen ... allerdings nur dann, wenn mir die berechnung dieser variable klar ist. hast du denn eine entsprechende formel vorliegen und kannst du - wenn auch theoretisch - die werte aus dieser variable nachrechnen und ueberpruefen?

lg

mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 25.09.2014, 15:41 Trustverteilung in den serps

Die Berechnung der PA zu verstehen ist nicht leicht. Und sie nachzurechnen ist quasi unmöglich. Siehe hier: https://moz.com/blog/introducing-seomoz- ... -authority

Es wird wohl machine learning angewandt. Wusste ich auch noch nicht. Außerdem kann die logarithmische Skalierung auch nicht mal eben rücktransformiert werden (wie ich bis eben dachte). Mehr dazu hier: https://seomoz.zendesk.com/entries/2254 ... ogarithmic

Hausschuhexperte
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 08.08.2009, 11:38
Kontaktdaten:

Beitrag Hausschuhexperte » 26.09.2014, 00:16 Trustverteilung in den serps

Ich gerate bei Euren Berechnungsmethoden und -modellen echt ins Hintertreffen.

Bei diesen Überlegungen fällt mir jedoch das Beispiel mit der Hummel ein.

Die Physiker hatten errechnet, dass eine Hummel gar nicht fliegen kann.
Zum Glück wussten das die Hummeln nicht! :lol:

Mir fehlt noch ein wenig die Sinnhaftigkeit dieses Unterfangens.
Der einzige Sinn, den ich bisher verstanden habe, wäre die Berechnung der Sichtbarkeit eines Trustabstandes.
Wie man gegebenenfalls an Mitbewerbern vorbei kommen kann, die vor einem stehen, wäre allerdings nicht geklärt.

Das erinnert mich dann doch wieder an das Beispiel mit den Hummeln :D
www.post-von-carl-otto.de
Beschäftigungs-Therapie mit Spaßfaktor.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6680
Registriert: 16.03.2008, 01:39
Kontaktdaten:

Beitrag hanneswobus » 26.09.2014, 00:33 Trustverteilung in den serps

hausschuhexperte.
eine berechnung der sichtbarkeit eines trustabstandes zwischen projekt a und projekt b ist derzeit nicht gegenstand meiner analysen.
gruß

mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 26.09.2014, 09:32 Trustverteilung in den serps

Hausschuhexperte hat geschrieben:Mir fehlt noch ein wenig die Sinnhaftigkeit dieses Unterfangens.
Der einzige Sinn, den ich bisher verstanden habe, wäre die Berechnung der Sichtbarkeit eines Trustabstandes.
Ok, sorry. Die Motivation für die Frage kann ich natürlich auch verraten. Auf die Gefahr hin, mal wieder etwas abzuschweifen...

Den Trustabstand brauch ich um einen Sichtbarkeitsindex (oder besser Trustindex) für eigene Projekte zu erstellen. Sistrix u Co genügt mir nicht, weil
1. Ich keinen Einfluss auf das Keyword Set habe
2. Die Daten immer bis zu 7 Tagen alt sind
3. Mit der Anzahl der Keywords auch die Sichtbarkeit steigt. Seiten, die stumpf massenhaft Content veröffentlichen schneiden also viel zu gut ab. Sagt nichts über Googles Trust aus.
4. Ich die genaue Berechnung nicht kenne
5. Bei der Berechnung soweit ich weiß zuviel Fokus auf den potentiellen Traffic gelegt wird. Z.B wird die CTR in den serps berücksichtigt, was dazu führt, dass #1 massiv stärker gewichtet wird als #2.

Ich möchte aber bei meinem SI nicht eine Schätzung des Traffics erhalten, sondern eine Schätzung der Google-Power, oder wie auch immer man es nennen will. Also Googles Wohlwollen gegenüber meiner Domain.

Dabei muss ich mir dann die Kernfrage beantworten, ob ich für den Index einfach ein Durchnittsranking aller KWs nehmen kann, oder ob hohe Rankings stärker gewichtet werden müssen.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag