registrieren registriertes Mitglied


Anzeige

Anzeige

websitesalike

Hier kannst Du Deine Fragen zum Thema Suchmaschinenoptimierung (SEO) stellen.
ralf-isi
PostRank 4
PostRank 4
Beiträge: 128
Registriert: 03.01.2012, 21:03

Beitrag ralf-isi » 14.10.2014, 13:46 websitesalike

Hallo zusammen

ich habe heute in den WMT mal wieder die von Google nicht gefundenen Seiten angeschaut (lange Zeit war es ruhig).

Dabei sind mit 2 Sachen aufgefallen:

1. https://www.meine-domain.ch/wastverify.txt -> "Der Googlebot konnte diese URL nicht crawlen, da keine zugehörige Seite existiert." Logisch, denn so eine txt habe ich nie auf den Server gestellt und ist auch nicht vorhanden. Doch: "Verlinkt über" zeigt: https://www.websitesalike.com/site/mein ... .ch/remove -- Mit denen habe ich nix am Hut. 0 Ahnung was das sein soll.

2. https://www.meine-domain.ch/waffentresor-tablare -> "Der Googlebot konnte diese URL nicht crawlen, da keine zugehörige Seite existiert." Soweit logisch, da die Seite richtig heissen würde: https://www.meine-domain.ch/waffentreso ... -XXXX.html Verlinkt über" zeigt wieder eine 'fremde' Domain (Webliste) an.

Wie soll ich richtig vorgehen?
* zu 1.: einfach eine wastverify.txt auf den stellen gefüllt mit einer txt Sitemap? oder: über die .htaccess auf die richtige sitemap.xml zeigen lassen.

* zu 2.: alle solchen 'falschen' URL's über die .htaccess auf die richtige, vorhandene Seite zeigen lassen?

Schon mal Danke für eure Hilfe und viele Grüsse aus der Schweiz
ralf

Anzeige von: