Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Beste Praxis bei Relaunch einer Site auf der gleichen Domain
Natürlicher Google "Verzögerungsfilter"


Dazu kann ich noch keine Aussage machen, weil erst gestern gemacht. Selbst wenn die betreffenden URLs verschwinden, ergibt sich daraus nicht wirklich ein Verlust, weil der Verlust bereits in erheblichem Maße vor dem Blocken eingetreten ist. Wenn Google den betreffenden Content nicht nur zum Trainieren verwendet, sondern auch für die KI Zusammenfassung in den Suchergebnissen, dann kann man stark davon ausgehen, dass Nutzer gar keine nachfolgenden Ergebnisse mehr anklicken. Das ist ja der eigentliche Hintergrund dafür, dass ich Google blocke.Hanzo2012 hat geschrieben: 05.02.2026, 15:52 Oha. Und sind diese Seiten jetzt aus der Google-Suche schon komplett verschwunden? Wie viel Traffic bußt du ein? Ich könnte mir das nicht erlauben, andererseits habe ich aber auch keinen Content, mit dem ein KI-Crawler viel anfangen könnte.

Ob es so ist, wie Du sagst, ist dahingestellt. Tatsächlich be- oder widerlegen kann man das nicht. Allerdings kann man schlussfolgern, dass es doch so ist, wie ich meine. Allen voran Google verwendet keinen speziellen Bot zum Erfassen von Daten für das Training, sodass es nur schlüssig sein muss, dass der klassische Googlebot die "gescrapten" Inhalte auch für das Training verwendet.staticweb hat geschrieben: 07.02.2026, 09:29 Aus Qualitätsgründen werden Modelle heutzutage nicht mehr so stark mit freiem Content trainiert. Das jetzige Problem sind eher die Indexierung durch diverse KI Anbieter und KI Agenten die Webseiten auf Anfrage abgrasen.
Also Taktik will ich das nicht nennen. Es ist eine Konsequenz. Angesichts dessen, dass bei den KI Providern kein Bewusstsein dafür besteht, dass man sich fremder Inhalte bedient, um daraus Profit zu schlagen und es auch keinen Monetarisierungsausgleich gibt, warum sollte ich das unterstützen? Nur angemerkt, durch das selektive und kontextabhängige Blocken von Google, ChatGPT, usw. entstehen täglich fast 10.000 weniger Aufrufe. Die Betonung liegt auf täglich, sodass Du daraus schließen kannst, dass es um einzigartige Inhalte gehen muss.staticweb hat geschrieben: 07.02.2026, 09:29 Deine Taktik macht aber nur Sinn wenn man einzigartige Inhalte hat nach denen aktiv gesucht wird und Google nichts anderes anbieten kann in der AIO. Und das ist ja in den meisten Fällen nicht so.
Nicht alle nutzen Google's KI. oder die KI anderer.supervisior hat geschrieben: 05.02.2026, 15:59 Wenn Google den betreffenden Content nicht nur zum Trainieren verwendet, sondern auch für die KI Zusammenfassung in den Suchergebnissen, dann kann man stark davon ausgehen, dass Nutzer gar keine nachfolgenden Ergebnisse mehr anklicken. Das ist ja der eigentliche Hintergrund dafür, dass ich Google blocke.


Na ob das hinhaut? Google hat erst 2024 einen Vergleich angestrengt um der Strafe zu entgehen, da sie auch Private Tabs tracken.Hanzo2012 hat geschrieben: 08.02.2026, 17:21 Laut Google reicht es übrigens aus, "Google-Extended" in der robots.txt zu blockieren, um zu verhindern, dass die Daten für KI-Training verwendet werden.

Wo hab ich denn geschrieben, dass ich diskutieren will? Die Folgen liegen doch auf der Hand. Warum über das Unvermeidbare spekulieren?!staticweb hat geschrieben: 08.02.2026, 15:46 Du schreibst oben, dass du es am Mittwoch erst eingebaut hast und willst jetzt schon über die Ergebnisse / Folgen diskutieren. Das klingt nicht gerade seriös.

Genau....