Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Nein? Bin sicher daß die header pro session unterschiedlich sind und sich je nach browser, IP usw. ändern.
Der Header der Anfrage, die dein Browser sendet, enthält keine IP-Adresse.
Wenn das so ist, dann bau dir automatisiert eine HTML-Datei, die alle abzugrasenden Seiten als iframe einbindet. Die Datei lädst du einmal mit deinem Browser, dann werden alle Seiten geladen, und anschließend kannst du mit cURL drauf.HelgeSchneider hat geschrieben: ↑25.06.2025, 09:04 Hi Hanzo2012,
danke für den Hinweis. Ich habe die Header erweitert, aber es geht manchmal und manchmal nicht. Meine aktuelle Theorie: Wenn ich mit Browser die Seite aufrufe, kann ich nachher auch mit curl drauf. Ansonsten geht es oft nicht. Ich spiele weiter ...![]()
Nicht nur User Agent, die prüfen sicherlich auch, ob die anderen Header sinnvoll sind und zum angeblichen Browser passen. Sogar die Reihenfolge der Header kann man nutzen. Viele Bots, die sich als normaler Browser ausgeben, fälschen nur den User Agent und lassen sich somit leicht erkennen.staticweb hat geschrieben: ↑25.06.2025, 09:37 Es kann ja eigentlich nur am User Agent liegen, denn der Google und andere (white) Bots müssen die Ressourcen ja auch ohne größere Restriktionen erreichen. Am Ende wird es darauf hinauslaufen einen headless browser zu nutzen um solche Aktionen auszuführen. Dann geht man den meisten Problemen aus dem Weg.