registrieren registriertes Mitglied


Anzeige

Anzeige

Trustverteilung in den serps

Alles über Google diskutieren wir hier.
Hausschuhexperte
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 08.08.2009, 11:38

Beitrag Hausschuhexperte » 26.09.2014, 10:44 Trustverteilung in den serps

@ mahenni
danke für die ernsthafte Beantwortung meiner Fragestellung.

Daraus ergeben sich für mich aber zwei weitere Fragestellungen:
  • ob es Dir gelingen kann?
    ob es wirklich was bringt, wenn es Dir gelingen würde?
Die erste Frage kannst nur Du letztendlich beantworten :D

Bei der zweiten Frage möchte ich gerne "SEO-philosophisch" eine Antwort finden oder eher die Fragestellung vertiefen.
Vergleichen wir die SERPs-Zusammenstellung doch mal mit dem Wetter, dass sich ebenso komplex durch die unterschiedlichsten Komponenten und deren Zusammenspiel bildet.
Da gibt es auch unterschiedliche Messmethoden, um einen Ist-Zustand zu erfassen.
Es gibt auch immer wieder die Versuche, Formeln für Wetterprognosen zu finden, aber wir wissen alle, wie genau die sind und am Ende meist eher eine Erklärung gesucht wird, warum bestimmte Wetter-Phänomen stattgefunden haben (also rückwirkende Betrachtung)
Manche Forscher verlagern sich aufs Klima, denn da kann man nicht so schnell falsch liegen :D
Beim Wetter oder Klima sind ja unglaubliche Datenmengen verfügbar und trotzdem sind die Versuche, diese komplexen Strukturen der Einflussfaktoren zu verstehen, nicht unbedingt von Erfolg gekrönt, und das Wetter bleibt letztendlich wie es ist.

Beziehen wir dieses Szenario auf Google (Wettermacher) und die SERPs (das Wetter)
Auch hier haben wir ähnlich komplexe Strukturen und Einflussfaktoren. Der Unterschied liegt aber darin, dass wir nur einen Teil der vermutlichen Komponenten kennen und uns etliche Daten fehlen.
Zum Beobachten des Ist-Zustandes gibt es Monitoring-Tools, die auf Keywordbasis einen täglichen Zustand ausgewählter Keywords Positionierungen messen.
Diverse SEO-Tools versuchen auf unterschiedliche Art und Weisen verfügbare Hintergrundinformationen zu liefern, damit Seiten-Betreiber mutmaßen können, wieso die Konkurrenz besser abschneidet als die eigene Seite. Google-Trust ist eine Form davon. Diese Tools helfen auch, die Auswirkungen von Unwettern (Google-Updates) in Nachhinein messen zu können.
Im Gegensatz zur Wetterbeobachtung stehen uns also bei den SERPs längst nicht alle Daten zur Verfügung. Besonders wenn es um die Beurteilung der Qualität von Seiten geht, fehlen uns (im Hinblick auf fremde Websites) die genauen User-Signale. Die hat nur Google.

Was soll da eine Formel bewirken, die Googles Wohlwollen messen will?

Um bei dem Wetter-Beispiel zu bleiben, sollten wir uns bemühen, unsere Seiten möglichst wetterfest gestalten.
Natürlich möchte man gerne wissen, warum einige Seiten wetterfester (erfolgreicher) sind als andere, zumal sie gegen bestimmte Regeln verstoßen.
Aber das ist in der freien Wirtschaft kaum anders. (und lässt sich wohl auch nicht in Formeln erfassen!)

Anzeige von:

Personal Branding mit ABAKUS:
  • Höhere Glaubwürdigkeit
  • Hervorhebung Ihrer Kompetenz
  • Stärkung Ihrer Alleinstellungsmerkmale
  • Abhebung von Namensvettern
Profitieren Sie von unserer Erfahrung!
0511 / 300325-0

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6790
Registriert: 16.03.2008, 01:39
Kontaktdaten:

Beitrag hanneswobus » 26.09.2014, 11:09 Trustverteilung in den serps

baue mal in deine kw-gewichtung einen faktor ein, der den markt, die nachfrage etc. abbildet.

lg
mahenni hat geschrieben:
Den Trustabstand brauch ich um einen Sichtbarkeitsindex (oder besser Trustindex) für eigene Projekte zu erstellen. Sistrix u Co genügt mir nicht, weil
1. Ich keinen Einfluss auf das Keyword Set habe
2. Die Daten immer bis zu 7 Tagen alt sind
3. Mit der Anzahl der Keywords auch die Sichtbarkeit steigt. Seiten, die stumpf massenhaft Content veröffentlichen schneiden also viel zu gut ab. Sagt nichts über Googles Trust aus.
4. Ich die genaue Berechnung nicht kenne
5. Bei der Berechnung soweit ich weiß zuviel Fokus auf den potentiellen Traffic gelegt wird. Z.B wird die CTR in den serps berücksichtigt, was dazu führt, dass #1 massiv stärker gewichtet wird als #2.

Ich möchte aber bei meinem SI nicht eine Schätzung des Traffics erhalten, sondern eine Schätzung der Google-Power, oder wie auch immer man es nennen will. Also Googles Wohlwollen gegenüber meiner Domain.

Dabei muss ich mir dann die Kernfrage beantworten, ob ich für den Index einfach ein Durchnittsranking aller KWs nehmen kann, oder ob hohe Rankings stärker gewichtet werden müssen.

mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 26.09.2014, 15:25 Trustverteilung in den serps

@Hausschuhexperte
Puuuuuh :)
Ich glaube wir reden doch noch ein bischen aneinander vorbei. Mir geht es ja eigentlich nur darum, den Ist-Zustand zu beobachten. Warum schauen SEOs denn auf die Sichtbarkeit? I.d.R. um zu checken, ob es mit ihrer Seite bergauf oder bergab geht. Und vor allem auch um zu sehen, ob sie gute Arbeit geleistet haben. Mehr will ich auch gar nicht. Nur eben aus besagten Gründen lieber mittels einer eigenen Metrik. Die Toolanbieter gehen mir dabei zusehr in Richtung Sichtbarkeit/Trafficpotential. Mir geht es mehr darum die Performance abzubilden. Besser kann ich es nicht ausdrücken...

Die Durchführung ist dabei sicher kein Problem. Wie schon gesagt - im einfachsten Fall müsste ich nur ein Durchschnittsranking aus einem festen Keyword Set ermitteln. Evtl arbeite ich auch mit einem dynamischen KW-Set aus den WMT und gewichte die einzelnen Positionen unterschiedlich. Mehr ist es (wahrscheinlich) nicht.

@hanneswobus
Jedes Keyword nach Schwierigkeitsgrad zu gewichten wäre auch sinnvoll. Vielleicht mache ich das noch anhand der Gesamtzahl der Google Resultate für jedes Key (oder auch Anzahl "allintitle:KEYWORD"). Trotzdem muss ich noch entscheiden, wie oder ob ich die Positionen meiner KWs gewichte.

Meine Ausgangsfrage kann man wahrscheinlich auch ganz anders stellen. Und zwar nicht aus Sicht eines ominösen internen Google Scores, sondern aus Sicht der SEO-Arbeitsstunden, die hinter den Rankings stecken. Ist es mehr Arbeit, eine Landingpage von #2 auf #1 zu bringen, als von # 320 auf #319? Und wenn ja, warum?

Hausschuhexperte
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 08.08.2009, 11:38
Kontaktdaten:

Beitrag Hausschuhexperte » 26.09.2014, 18:01 Trustverteilung in den serps

Mir geht es ja eigentlich nur darum, den Ist-Zustand zu beobachten. Warum schauen SEOs denn auf die Sichtbarkeit?
Mir geht es mehr darum die Performance abzubilden. Besser kann ich es nicht ausdrücken...
Warum reicht Dir da nicht Google Analytics und WMT?? (oder ein anderes zuverlässiges Tracking)
Letztendlich ist doch die Anzahl und Qualität deiner Besucher das Entscheidende für Deine Seiten.
Aber wenn Du meinst eine eigene Metrik zu brauchen, dann lass Dich bitte nicht von mir abhalten.

Die ganzen SEO-Tools sind doch auch eher für die Beobachtung und Einschätzung von fremden Sites wichtiger.

Ich hatte vorgestern eine PR-Beraterin zu Besuch, die mich fragte, wie es denn sein kann, dass bei einem Beratungskunden der von der SEO-Agentur gezeigte Sichtbarkeitsverlauf permanent nach ober ging, die Besucherzahl dagegen nicht.
Da zeigt sich doch ein wenig das Dilemma.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6790
Registriert: 16.03.2008, 01:39

Beitrag hanneswobus » 26.09.2014, 18:51 Trustverteilung in den serps

Hausschuhexperte hat geschrieben:
Ich hatte vorgestern eine PR-Beraterin zu Besuch, die mich fragte, wie es denn sein kann, dass bei einem Beratungskunden der von der SEO-Agentur gezeigte Sichtbarkeitsverlauf permanent nach ober ging, die Besucherzahl dagegen nicht.
Da zeigt sich doch ein wenig das Dilemma.
... .oO(...weil diese sichtbarkeitsdingers meistens keinen markt oder nachfrage abbilden ...)

Anzeige von: