registrieren registriertes Mitglied


Anzeige

Anzeige

Trustverteilung in den serps

Alles über Google diskutieren wir hier.
Hausschuhexperte
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 08.08.2009, 11:38

Beitrag Hausschuhexperte » 26.09.2014, 10:44 Trustverteilung in den serps

@ mahenni
danke für die ernsthafte Beantwortung meiner Fragestellung.

Daraus ergeben sich für mich aber zwei weitere Fragestellungen:
  • ob es Dir gelingen kann?
    ob es wirklich was bringt, wenn es Dir gelingen würde?
Die erste Frage kannst nur Du letztendlich beantworten :D

Bei der zweiten Frage möchte ich gerne "SEO-philosophisch" eine Antwort finden oder eher die Fragestellung vertiefen.
Vergleichen wir die SERPs-Zusammenstellung doch mal mit dem Wetter, dass sich ebenso komplex durch die unterschiedlichsten Komponenten und deren Zusammenspiel bildet.
Da gibt es auch unterschiedliche Messmethoden, um einen Ist-Zustand zu erfassen.
Es gibt auch immer wieder die Versuche, Formeln für Wetterprognosen zu finden, aber wir wissen alle, wie genau die sind und am Ende meist eher eine Erklärung gesucht wird, warum bestimmte Wetter-Phänomen stattgefunden haben (also rückwirkende Betrachtung)
Manche Forscher verlagern sich aufs Klima, denn da kann man nicht so schnell falsch liegen :D
Beim Wetter oder Klima sind ja unglaubliche Datenmengen verfügbar und trotzdem sind die Versuche, diese komplexen Strukturen der Einflussfaktoren zu verstehen, nicht unbedingt von Erfolg gekrönt, und das Wetter bleibt letztendlich wie es ist.

Beziehen wir dieses Szenario auf Google (Wettermacher) und die SERPs (das Wetter)
Auch hier haben wir ähnlich komplexe Strukturen und Einflussfaktoren. Der Unterschied liegt aber darin, dass wir nur einen Teil der vermutlichen Komponenten kennen und uns etliche Daten fehlen.
Zum Beobachten des Ist-Zustandes gibt es Monitoring-Tools, die auf Keywordbasis einen täglichen Zustand ausgewählter Keywords Positionierungen messen.
Diverse SEO-Tools versuchen auf unterschiedliche Art und Weisen verfügbare Hintergrundinformationen zu liefern, damit Seiten-Betreiber mutmaßen können, wieso die Konkurrenz besser abschneidet als die eigene Seite. Google-Trust ist eine Form davon. Diese Tools helfen auch, die Auswirkungen von Unwettern (Google-Updates) in Nachhinein messen zu können.
Im Gegensatz zur Wetterbeobachtung stehen uns also bei den SERPs längst nicht alle Daten zur Verfügung. Besonders wenn es um die Beurteilung der Qualität von Seiten geht, fehlen uns (im Hinblick auf fremde Websites) die genauen User-Signale. Die hat nur Google.

Was soll da eine Formel bewirken, die Googles Wohlwollen messen will?

Um bei dem Wetter-Beispiel zu bleiben, sollten wir uns bemühen, unsere Seiten möglichst wetterfest gestalten.
Natürlich möchte man gerne wissen, warum einige Seiten wetterfester (erfolgreicher) sind als andere, zumal sie gegen bestimmte Regeln verstoßen.
Aber das ist in der freien Wirtschaft kaum anders. (und lässt sich wohl auch nicht in Formeln erfassen!)
www.post-von-carl-otto.de
Beschäftigungs-Therapie mit Spaßfaktor.

Anzeige von:

Personal Branding mit ABAKUS:
  • Höhere Glaubwürdigkeit
  • Hervorhebung Ihrer Kompetenz
  • Stärkung Ihrer Alleinstellungsmerkmale
  • Abhebung von Namensvettern
Profitieren Sie von unserer Erfahrung!
0511 / 300325-0

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6680
Registriert: 16.03.2008, 01:39
Kontaktdaten:

Beitrag hanneswobus » 26.09.2014, 11:09 Trustverteilung in den serps

baue mal in deine kw-gewichtung einen faktor ein, der den markt, die nachfrage etc. abbildet.

lg
mahenni hat geschrieben:
Den Trustabstand brauch ich um einen Sichtbarkeitsindex (oder besser Trustindex) für eigene Projekte zu erstellen. Sistrix u Co genügt mir nicht, weil
1. Ich keinen Einfluss auf das Keyword Set habe
2. Die Daten immer bis zu 7 Tagen alt sind
3. Mit der Anzahl der Keywords auch die Sichtbarkeit steigt. Seiten, die stumpf massenhaft Content veröffentlichen schneiden also viel zu gut ab. Sagt nichts über Googles Trust aus.
4. Ich die genaue Berechnung nicht kenne
5. Bei der Berechnung soweit ich weiß zuviel Fokus auf den potentiellen Traffic gelegt wird. Z.B wird die CTR in den serps berücksichtigt, was dazu führt, dass #1 massiv stärker gewichtet wird als #2.

Ich möchte aber bei meinem SI nicht eine Schätzung des Traffics erhalten, sondern eine Schätzung der Google-Power, oder wie auch immer man es nennen will. Also Googles Wohlwollen gegenüber meiner Domain.

Dabei muss ich mir dann die Kernfrage beantworten, ob ich für den Index einfach ein Durchnittsranking aller KWs nehmen kann, oder ob hohe Rankings stärker gewichtet werden müssen.

mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 26.09.2014, 15:25 Trustverteilung in den serps

@Hausschuhexperte
Puuuuuh :)
Ich glaube wir reden doch noch ein bischen aneinander vorbei. Mir geht es ja eigentlich nur darum, den Ist-Zustand zu beobachten. Warum schauen SEOs denn auf die Sichtbarkeit? I.d.R. um zu checken, ob es mit ihrer Seite bergauf oder bergab geht. Und vor allem auch um zu sehen, ob sie gute Arbeit geleistet haben. Mehr will ich auch gar nicht. Nur eben aus besagten Gründen lieber mittels einer eigenen Metrik. Die Toolanbieter gehen mir dabei zusehr in Richtung Sichtbarkeit/Trafficpotential. Mir geht es mehr darum die Performance abzubilden. Besser kann ich es nicht ausdrücken...

Die Durchführung ist dabei sicher kein Problem. Wie schon gesagt - im einfachsten Fall müsste ich nur ein Durchschnittsranking aus einem festen Keyword Set ermitteln. Evtl arbeite ich auch mit einem dynamischen KW-Set aus den WMT und gewichte die einzelnen Positionen unterschiedlich. Mehr ist es (wahrscheinlich) nicht.

@hanneswobus
Jedes Keyword nach Schwierigkeitsgrad zu gewichten wäre auch sinnvoll. Vielleicht mache ich das noch anhand der Gesamtzahl der Google Resultate für jedes Key (oder auch Anzahl "allintitle:KEYWORD"). Trotzdem muss ich noch entscheiden, wie oder ob ich die Positionen meiner KWs gewichte.

Meine Ausgangsfrage kann man wahrscheinlich auch ganz anders stellen. Und zwar nicht aus Sicht eines ominösen internen Google Scores, sondern aus Sicht der SEO-Arbeitsstunden, die hinter den Rankings stecken. Ist es mehr Arbeit, eine Landingpage von #2 auf #1 zu bringen, als von # 320 auf #319? Und wenn ja, warum?

Hausschuhexperte
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 08.08.2009, 11:38
Kontaktdaten:

Beitrag Hausschuhexperte » 26.09.2014, 18:01 Trustverteilung in den serps

Mir geht es ja eigentlich nur darum, den Ist-Zustand zu beobachten. Warum schauen SEOs denn auf die Sichtbarkeit?
Mir geht es mehr darum die Performance abzubilden. Besser kann ich es nicht ausdrücken...
Warum reicht Dir da nicht Google Analytics und WMT?? (oder ein anderes zuverlässiges Tracking)
Letztendlich ist doch die Anzahl und Qualität deiner Besucher das Entscheidende für Deine Seiten.
Aber wenn Du meinst eine eigene Metrik zu brauchen, dann lass Dich bitte nicht von mir abhalten.

Die ganzen SEO-Tools sind doch auch eher für die Beobachtung und Einschätzung von fremden Sites wichtiger.

Ich hatte vorgestern eine PR-Beraterin zu Besuch, die mich fragte, wie es denn sein kann, dass bei einem Beratungskunden der von der SEO-Agentur gezeigte Sichtbarkeitsverlauf permanent nach ober ging, die Besucherzahl dagegen nicht.
Da zeigt sich doch ein wenig das Dilemma.
www.post-von-carl-otto.de
Beschäftigungs-Therapie mit Spaßfaktor.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6680
Registriert: 16.03.2008, 01:39

Beitrag hanneswobus » 26.09.2014, 18:51 Trustverteilung in den serps

Hausschuhexperte hat geschrieben:
Ich hatte vorgestern eine PR-Beraterin zu Besuch, die mich fragte, wie es denn sein kann, dass bei einem Beratungskunden der von der SEO-Agentur gezeigte Sichtbarkeitsverlauf permanent nach ober ging, die Besucherzahl dagegen nicht.
Da zeigt sich doch ein wenig das Dilemma.
... .oO(...weil diese sichtbarkeitsdingers meistens keinen markt oder nachfrage abbilden ...)

Anzeige von:


mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 27.09.2014, 11:04 Trustverteilung in den serps

Hausschuhexperte hat geschrieben: Warum reicht Dir da nicht Google Analytics und WMT?? (oder ein anderes zuverlässiges Tracking)
Letztendlich ist doch die Anzahl und Qualität deiner Besucher das Entscheidende für Deine Seiten.
Ja, guter Traffic sollte immer das Ziel sein. Trotzdem will ich immer möglichst genau wissen, was Google von meiner Seite hält, schon alleine wegen des SEO-Lerneffekts. Und dafür sind Rankings nunmal das beste Maß. Die WMT sind da bei mir auch in der engeren Auswahl. Statt dass ich selber die serps scrapen muss, werden mir da ganz bequem alle Rankings angezeigt. Der Graph zeigt dort aber leider immer nur Impressionen und Klicks an. Beides ist leider saisonal abhängig. Und auch von der Content Menge, die ständig variiert. Deshalb mein Ansatz, die Rankings zu einer Metrik zusammenzufassen (u dann ebenfalls als Graph zu visualisieren).

mahenni
PostRank 2
PostRank 2
Beiträge: 40
Registriert: 02.09.2014, 09:33

Beitrag mahenni » 27.09.2014, 21:43 Trustverteilung in den serps

Ok ich hab noch mal lange drüber nachgedacht. Inzwischen bin ich mir ziemlich sicher, dass zwischen den Top Positionen bei Google naturgemäß ein größerer Abstand liegt, als zwischen den hinteren. Erklären würde ich es so:

Einen sehr großen Anteil zu Googles Beurteilung der Landingpages macht die Autorität jeder einzelnen Domain aus. Und diese ist wahrscheinlich nicht gleichverteilt. Ich kann es zwar nicht beweisen, aber es wird wohl ähnlich wie bei der Verteilung der Unternehmensgröße in einer Volkswirtschaft sein. Es gibt wenige große und sehr viele kleine. D.h. wenn sich 100 Domains um einen Suchbegriff streiten, kommt erstmal Wikipedia. Dann ganz lange gar nichts und dann die restlichen Domains mit kleiner werdendem Abstand, was die Autorität angeht. Die wahre Verteilungsfunktion werde ich natürlich nie in Erfahrung bringen, und sie ist mit Sicherheit branchen- und keywordabhängig.

Für meinen praktischen Nutzen bedeutet das jetzt - ein einfaches Durchschnittsranking zu ermitteln wäre nicht optimal. Die Verschlechterung eines Keys von 109 auf 110 und die Verbesserung eines anderen von 2 auf 1 würden sich dann nämlich ausgleichen. Vermutlich hat sich die Domain aber in Googles Gunst verbessert (jetzt nicht wegen einem einzigen Ranking, aber das Prinzip ist klar oder?).

Danke für die Geduld :lol:

chris21
PostRank 9
PostRank 9
Beiträge: 2763
Registriert: 10.04.2005, 19:17

Beitrag chris21 » 28.09.2014, 11:04 Trustverteilung in den serps

Mahenni, nimm z.B. den Pagerank als Vergleich. (Auch wenn man ihn sonst nicht so beachten sollte).

Dort hast Du auch eine logarithmische oder exponentielle Kurve.

Und selbst wenn es im Ranking eine einfache Score gäbe mit gleichmäßiger Wertung, hättest Du schnell in der Realität immer noch so ein Bild:

Platz 1= Score 17038

Platz 2 = Score 14456

Platz 3 = Score 9866

.
.
.

Platz 9 = Score 4890

Platz 10 = Score 4322
.
.
.

Platz 109 = Score 383

Platz 110 = Score 382

Da wäre dann ein Spung von 110 auf 109 auch viel einfacher als einer von 2 auf 1 oder 10 auf 9.

Hausschuhexperte
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 08.08.2009, 11:38
Kontaktdaten:

Beitrag Hausschuhexperte » 28.09.2014, 16:17 Trustverteilung in den serps

Mal angenommen, es gäbe so etwas wie einen einfachen Score, nachdem Google die Seiten in den serps ordnet. D.h. der Algorithmus verarbeitet hunderte Rankingfaktoren (teilweise sehr zeitnah -> Hummingbird, und teilweise über Monate hinweg -> Panda updates) und am Ende steht für jede Suchbegriff-Website-Kombination eine einzige Zahl (Sagen wir eine Kombination aus Trust, Relevanz, Autorität usw usf). Zum Beispiel so:
Je mehr diese Annahme nicht stimmt, desto schlechter wird eine mögliche Formel funktionieren.
Das solltest Du vielleicht bedenken, zusätzlich zum Fehlen vieler relevanter Daten.

Herauskommen kann aus meiner Sicht nur ein grober unbrauchbarer Wert.
Da wäre es vermutlich klüger, die verfügbaren Daten sinnvoll zu interpretieren und das richtige Handeln daraus abzuleiten. :D

... .oO(...weil diese sichtbarkeitsdingers meistens keinen markt oder nachfrage abbilden ...)
Ich habe der Dame empfohlen, bei Xovi mal den Ranking Value in die Beurteilung mit einfließen zu lassen, der zwar als absoluter Wert mir eher sinnlos erscheint, aber die Nachfrage und den Markt (in Relation) recht gut abbildet. (Hierzu muss man aber wissen, dass dort nur die Top-10 berücksichtigt werden).
Bei einem Ein-Mann-Betrieb wie mir ist der Grad zur Zeitverschwendung sehr schmal.
Deswegen würde ich mich an Deiner Stelle nicht damit beschäftigen

Ich glaube auch, dass Du das Ausmaß an möglichen Schwierigkeiten noch nicht weit genug erfasst und Deine grundsätzlichen Überlegungen auf Annahmen basieren, die keine echte Substanz haben (siehe oben)
wir sind hier z.b. eine zweimannbude und irgendwann kam halt die frage auf, warum welche strategieansaetze besser fruchten oder warum große shops trotz massiven verstoessen gegen die bekannten richtlinien besser ranken usw.
aha, zählt Deine Freundin als zweiter Mann? :D

@ Mahenni

Ich habe mir soeben mal in den WMT die Daten von 2 Shops angesehen, die beim selben Keyword im Schnitt nur einen Platz von einander entfernt liegen. (in der Hoffnung auf konkrete Erkenntnisse)
Bei ca. 3.500 Impressionen kann man eigentlich davon ausgehen, dass statistische Ausreißer einigermaßen minimiert sind.
Die technischen Daten im Hintergrund sind in dem Fall recht identisch.
Auch wenn ich mich in dem konkreten Fall mit sehr vielen Hintergrundmetriken aus einander setzen kann, komme ich zu keinem Ergebnis im Hinblick auf Kausalitäten.
Ich sehe beispielsweise, dass 10% der Snippets bei Google auf Seite 2 angezeigt wurden mit einem 1%-höheren CTR als wenn sie auf Pos 6-10 angezeigt wurden. (war mir bisher noch nie aufgefallen!)
Beim zweiten Shop sogar noch deutlich höher (aber eher stat. Ausreißer!)

Beim ersten Shop haben sich die Impressionen um 32% erhöht, die Klicks um 58%
Beim zweiten Shop die Impressionen um 22% und die Klicks um 52%
(lässt sich daraus was ableiten?!)
Hier hätte man ja jetzt User-Signals die man anreichern könnte (müsste) mit Absprungrate, durchschnittliche Verweildauer und was weiß ich... :D
Diese Daten kann ich mit SEO-Tool-Monitoringdaten abgleichen

Auf der Basis könnte man eventuell Kausalitäten herausfinden und Theorien entwickeln, (wüsste aber auch gleichzeitig, dass eine Vielzahl von Faktoren nicht berücksichtigt würden und somit, wie dünn solche Theorien sind).

Wenn ich mir gleichzeitig auch noch vorstelle, dass in den SERPs auch eine Menge Seiten positioniert sind, die durch manuelle Maßnahmen oder algorithmische Filter beeinflusst sind, kann ich mir erst recht nicht vorstellen, dass es eine vernünftige Berechnungsmethode gibt.
Lies Dir das Beispiel mit dem Wetter noch mal durch (da gibt es ja sogar nahezu alle relevanten Daten)
Die Herausforderung bei den Google-SERPs erscheint mir zumindest vergleichbar groß.
Macht das wirklich Sinn?

Falls ja, dann viel Spaß!
www.post-von-carl-otto.de
Beschäftigungs-Therapie mit Spaßfaktor.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6680
Registriert: 16.03.2008, 01:39
Kontaktdaten:

Beitrag hanneswobus » 28.09.2014, 22:26 Trustverteilung in den serps

hausschuhexperte,

ich kenne dein faible fuer den "rankingvalue". ich halte hiervon nichts und kann das so begruenden: der rankingvalue zeigt dir nicht, ob irgendwer jetzt im moment oder in der kuerzeren vergangenheit irgendeine rankende seite in form der ueblichen kommunikation irgendwo bequasselt hat. ueberlege einmal selbst: was genau spricht fuer einen "markt" oder "beliebtheit" von produkten? bei xovi bin ich skeptisch, ob xovi das ganze in diesem rankingvalue abbildet. hoch interessant waere aber eine geeignete zusammenfuehrung von diesem komischen rankingvalue mit den - von mir geschaetzten - comments, shares (auch medienuebergreifend). also zusammengefasst: die ueblichen werte, spielzeuge etc. sind interessant und wichtig, ich nehme die nur nicht ernst, wenn ich den _marktwert_ einer phrase beurteilen will.

ich habe das bei mir derzeit so geloest: ich ziehe mir via xovi-api interessante rankings, bekomme so die rankende urls und kann diese untereinander ueber die socials abgleichen. als eine weitere variable nehme ich derzeit die werte aus der bit.ly-api heraus und kann da pruefen, ob eine eventuell verkuerzte url verteilt wird. besagte api liefert mir a) die linkspender: domain, linkspender: deeplink und b) clicks via linkspender.

eventuell kann man hierueber einen wert basteln, ich habe nur keine lust so etwas zu tun oder ueberlegungen hinsichtlich der berechnungen usw. etc. oeffentlich zu machen.

gruß

Hausschuhexperte
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 08.08.2009, 11:38
Kontaktdaten:

Beitrag Hausschuhexperte » 29.09.2014, 08:41 Trustverteilung in den serps

@ Hanneswobus

Machen wir aus dem von mir erwähnten Rankingvalue nicht mehr als er ist.
Er versucht abzubilden, was eine adäquate Positionierung der SERPS bei einer ausgewählten Domain in Adwords an Klickkosten verursachen würde.
In diesen Wert fließen somit Nachfrage (Suchanfragen) und Markt (Klickpreise) mit ein.
Dieser Wert kämpft mit diversen Unzulänglichkeiten und sollte daher nicht isoliert (oder gar absolut) betrachtet werden
In Kombination mit dem SI bildet er jedoch ein schönes Korrektiv, weil Money-Keys eine entsprechende Beachtung und Wertung erfahren

Wenn man wirklich wissen möchte, welche Produkte zu welchem Zeitpunkt zu welchem Preis gefragt und verkauft wurden, erscheint mir Terapeak noch die interessantesten Ergebnisse zu liefern, die jedoch nur die Märkte eBay und Amazon beobachten.

Dein Ansatz mit Hilfe von Facebook API und Xovi-API Korrelationen und Kausalitäten zu beobachten und herzustellen , halte ich nur begrenzt für Zielführend. Denk mal an Deinen Versuch mit Hausschuhen.
Bloß weil auf Facebook kaum über Hausschuhe gequasselt wird, bedeutet das nicht, dass wir keine verkaufen, sondern eher, dass Hausschuhe uncool sind.
Das lässt sich auf viele Produkte und Themengebiete übertragen.

Trotzdem kann mir oder Dir der Rankingvalue in Kombination mit dem SI zeigen, wie wertvoll meine SEO-Bemühungen sind und wie sie sich verändert haben (Trend)
Das ist aber auch nur ein kleiner Mosaikstein, denn SEA, Usability und ähnliche Erfolgsfaktoren finden keine Berücksichtigung.

Ich bin mir bewusst, dass die von mir erwähnten Werte alle recht ungenau sind und hatte den TE deshalb auf WMT und GA verwiesen.
Aus meiner Sicht macht es mehr Sinn, aus diesen verfügbaren Werten Rückschlüsse zu ziehen und Strategien zu verfolgen.
www.post-von-carl-otto.de
Beschäftigungs-Therapie mit Spaßfaktor.

Mincemeat
PostRank 7
PostRank 7
Beiträge: 558
Registriert: 27.04.2005, 21:01
Kontaktdaten:

Beitrag Mincemeat » 29.09.2014, 09:12 Trustverteilung in den serps

mahenni hat geschrieben:Warum schauen SEOs denn auf die Sichtbarkeit? I.d.R. um zu checken, ob es mit ihrer Seite bergauf oder bergab geht. Und vor allem auch um zu sehen, ob sie gute Arbeit geleistet haben.
So ist es. Weil die SEO's in diesem Fall ihren Job getan haben, wenn bestimmte Positionen dauerhaft erreicht werden.

Google gewichtet aus meiner Sicht natürlich exponentiel.

Den Seitenbetreiber interessiert jedoch nur, was er mit der Seite verdient. Die Seite muss bei den richtigen Keywords vorn sehen, die in der Suchmaschine gezeigten Snippets müssen zum Seitenbesuch anregen etc.

Der einzig sinnvolle langfristige Ansatz ist aus meiner Sicht, ein bestmögliches Userergebnis zu schaffen, in welches die ganzen anderen Faktoren einfließen. Das ganze in eine Formel zu pressen, wird schwer.

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6680
Registriert: 16.03.2008, 01:39
Kontaktdaten:

Beitrag hanneswobus » 29.09.2014, 09:43 Trustverteilung in den serps

@hausschuhexperte,

wir haben einmal ueber hausschuhe geredet und diese und jene gedanken ausgetauscht. konkrete analysen liefern da zu keinem zeitpunkt. warum auch- wir haben hier nix mit hausschuhen zu tun ;-)

was diese fb-sache betrifft, hattest du mich nicht verstanden: es geht nicht darum, ob irgendetwas uncool ist, sondern darum, ob man eventuelle fb-kommunikation beobachten und ueberwachen kann. dann geht es auch nicht primaer um fb ... es gibt ja links und rechts noch ein paar andere sachen, die beobachtet werden koennen. auch und was das uncoolsein betrifft: gerade in deinem fall oder in deiner produktgruppe: ich wuerde mich niemals auf subjektive festlegungen wie "hausschuhe sind uncool" einlassen.

terapeak ist i.o. aber mich interessieren derzeit weitergehende variablen wie produktbewertungen.

gruß

hanneswobus
PostRank 10
PostRank 10
Beiträge: 6680
Registriert: 16.03.2008, 01:39
Kontaktdaten:

Beitrag hanneswobus » 29.09.2014, 09:55 Trustverteilung in den serps

Mincemeat hat geschrieben: Der einzig sinnvolle langfristige Ansatz ist aus meiner Sicht, ein bestmögliches Userergebnis zu schaffen, in welches die ganzen anderen Faktoren einfließen. Das ganze in eine Formel zu pressen, wird schwer.
logisch. aber ueberlege mal, was das "userergebnis" denn bedeutet. das ist ja nicht nur die technik und das layout etc. natuerlich muss man seine texte auf einen vorher recherchierten markt anpassen. aktuell theoretisiere ich in die richtung: der markt aeussert sich hier und da in form von konkreten und auslesbaren "rueckmeldungen" (geblubbere in den socials, preisunterschiede, geblubbere in den foren u.v.m.): eigentlich koennte ja der schluessel zu einer moeglichst "werthaltigen" aufstellung in der anpassung der texte, informationen u. - ganz profan - produktbeschreibung in der anpassung auf bspw. dem o.g. geblubbere liegen. ein analyseansatzpunkt, ob hier ein zusammenhang zwischen haufenweise #10 positionen liegt, liegt ja u.a. (!) in den social-apis.

gruß

Hausschuhexperte
PostRank 5
PostRank 5
Beiträge: 267
Registriert: 08.08.2009, 11:38
Kontaktdaten:

Beitrag Hausschuhexperte » 29.09.2014, 10:17 Trustverteilung in den serps

Meine Aussage lautet, dass auf Fb quasi gar nicht über Hausschuhe gequaselt wird oder wurde. Nebenher schon erst recht nicht, was sollte das denn sein im social media-Bereich, wovon man eine Markttransparenz ableiten könnte?

Meine Erklärung lautet, dass im Social-Media-Bereich Hausschuhe nicht bequasselt werden, weil sie uncool sind!

Wenn ich diesen Ansatz als erfolgversprechend angesehen hätte, wäre ich den Weg ja mit Dir gegangen.

Da Du aber gefühlt in jedem zweiten Post nebulös vom Bequasseln im Social-Media-Bereich schreibst, bin ich hier mal konkret in diesem Thread darauf eingegangen, weil es die Grundproblematik betrifft, mit der sich auch der TE auseinandersetzen muss.

Wir haben in unseren Shops ca. 10.000 Produktbewertungen zu Hausschuhen - was möchtest Du denn daraus ableiten als weitergehende Variable?
In diesem Fall möchte ich Dich bewusst nicht verstehen, sondern mehr darauf hinaus, dass Deine Überlegungen hier oft "einen wissenschaftlichen Anstrich" haben, aber aus meiner Sicht wenig praktischen Nutzen beinhalten.
Natürlich ist jedem freigestellt, wie er seine verfügbare Zeit nutzt und erfolgreich ist.

Ich bin jetzt hier auch erst mal raus!
www.post-von-carl-otto.de
Beschäftigungs-Therapie mit Spaßfaktor.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag