Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
...supervisior hat geschrieben:Der Vollständigkeit halber sei dazu noch angemerkt, dass sich Google schon vor mehreren Jahren wortstark dazu entschlossen hat dem Chrome Browser keinen Header für die besagte Prerender Funktion hinzuzufügen.
Also wenn dein problem ist dass du prerender request keinen header senden und du deswegen keine ordentlichen besucherzahlen hinbekommst, warum schliesst du dann nicht einfach requests ohne header bei deiner besucherzahlbestimmung mit aus?supervisior hat geschrieben:Wäre dem nicht so, warum schließt Google es bewusst aus dem Chrome Browser einen entsprechenden Header zu verpassen, um reale Zugriffe von Pseudo Zugriffe unterscheiden zu können.
Angenommen jede Website hat mit dem gleichen Effekt zu kämpfen, so sind Zugriffszahlen, Traffic, Ad-Impressions & Co zwischen den Websiten ja wieder vergleichbar.supervisior hat geschrieben:Diese 30% sind nicht spekulativ, sondern in meinem Fall real!
wget-spielchen werden meistens auch gefiltert. ein problem sind die bots, die u.a. natürliches verhalten simulieren können.nerd hat geschrieben:...supervisior hat geschrieben:Der Vollständigkeit halber sei dazu noch angemerkt, dass sich Google schon vor mehreren Jahren wortstark dazu entschlossen hat dem Chrome Browser keinen Header für die besagte Prerender Funktion hinzuzufügen.
Also wenn dein problem ist dass du prerender request keinen header senden und du deswegen keine ordentlichen besucherzahlen hinbekommst, warum schliesst du dann nicht einfach requests ohne header bei deiner besucherzahlbestimmung mit aus?supervisior hat geschrieben:Wäre dem nicht so, warum schließt Google es bewusst aus dem Chrome Browser einen entsprechenden Header zu verpassen, um reale Zugriffe von Pseudo Zugriffe unterscheiden zu können.
Abgesehen davon ist es natuerlich trivial mit wget (oder anderen bots oder tools) requests zu erzeugen, und dabei jeden beliebigen header zu setzen oder leer zu lassen.
Weiss nicht was dein sturm im wasserglass hier soll...
ggf. kannst du hier mal genaueres zeigen?supervisior hat geschrieben:Die Bots, insbesondere diejenigen, die ihre Identität (versuchen zu) verbergen, kann ich in einem sehr hohen Maße ausschließen, zumal solche Bots in der Regel versuchen nicht als solche erkannt zu werden und deswegen in Analyse Tools wie GA oder Matomo erscheinen. Alle anderen werden zumindest bei mir schon vorher zu einem hohen Grad eliminiert. Bei solchen gibt es dann nur ein kurzes "Zucken" des Webservers, der den Aufruf mit einem 403 quittiert.
Die Bots sind aus meiner Sicht nicht das Problem, zumindest nicht in einem entscheidenden Maß, die eine so hohe Menge an "ungezieltem" Traffic gänzlich erklären würde.
Was meinst Du mit zeigen? Zeigen ist relativ und kann das nur insofern beschreiben, dass es sehr wohl Möglichkeiten zur Differenzierung gibt. Die sind nicht 100% safe, aber nahezu.hanneswobus hat geschrieben:
ggf. kannst du hier mal genaueres zeigen?
ich meine ... es gibt bots u. es gibt bots usw.
lg
Richtig, aber das ist schon rausgerechnet. Ich weiß nicht, wie GA das macht, aber Matomo ist z.B. in der Lage zu erkennen, ob der TAB im Vordergrund aufgerufen wurde/wird. Diese Funktion wird von allen Browsern ungeachtet, ob Mobil oder Desktop unterstützt.heinrich hat geschrieben:Also beim Starten eines meiner Browser werden automatisch an die zwanzig meiner eigenen Sites in Tabs geöffnet, denn da das ja im Hintergrund läuft, erspart man sich sehr viel Zeit, wenn man auf eine davon direkt zugreifen will. Da bin ich übrigens nicht der einzige, denn das machen viele meiner Kollegen so - die allerdings mehrere Nachrichtenseiten, damit die immer alles parat haben!
ja tut mir leid. da stelle ich mir natürlich die frage, was du dir in der diskussion erhoffst.supervisior hat geschrieben:Was meinst Du mit zeigen? Zeigen ist relativ und kann das nur insofern beschreiben, dass es sehr wohl Möglichkeiten zur Differenzierung gibt. Die sind nicht 100% safe, aber nahezu.hanneswobus hat geschrieben:
ggf. kannst du hier mal genaueres zeigen?
ich meine ... es gibt bots u. es gibt bots usw.
lg
Mal nur 1 von mehreren Bespielen. Bots ungeachtet, ob "gut" oder "böse" haben beim crawlen eine gewisse Charakteristik. Bots, die sich als Nutzer ausgeben, aber Seiten aufrufen, die ein richtiger Nutzer gar nicht aufrufen kann, sind schon mal sehr auffällig. Um solche Bots ausfindig zu machen, habe ich "Fallen" aufgestellt in die gute Bots nicht treten, weil gute Bots i.d.R. keine Session aufmachen. "Böse" Bots wollen als solche ja nicht erkannt werden, deswegen werden Cookies, Javascript, Session usw. genauso toleriert wie bei einem herkömmlichen Nutzer. Wenn dann aber Seiten aufgerufen werden, die man nur aufrufen kann, weil man Links nur durch den Quellcode erkennt, dann ist das schon ein sehr unmittelbares Indiz dafür, dass der Bot "böse" ist. Die Trefferquote ist in jedem Fall weitaus höher als die Fehlrate.
Das ist jetzt nur angerissen und zur Identifizierung hab ich dann noch weitere Identifikationsmerkmale, um die Trefferrate so hoch zu halten.