Ich habe seit Donnerstag ein Problem, das ich in dieser Form noch nicht hatte, wobei mir bis dato auch die Ursachen schleierhaft sind. Dennoch verhält es sich so, dass Google bei einem recht umfangreichen Projekt begonnen hat - unzählige Unterseiten, die seit Jahr und Tag im Index sind, plötzlich ebenso mit https zu indexieren.
Teils wurden durch diese Neuindexierungen alte Platzierungen eingebüßt und die "neuen" Unterseiten dümpeln wie "neue" Seiten im Index. Das Projekt, das seit 2006 betrieben wird, hat ein recht gutes Standing bei Google und bis dato konnte ich solche Spielereien nicht beobachten - durch die Verwendung von Canonicals wird kommuniziert, welches die richtige Variante ist.
Da nun aber dennoch unzählige Seiten in den Index gepumpt wurden, bringt es nichts, mir einzureden, dass das Problem bisher nicht bestand und ich habe versucht, das Problem mittels .htaccess in den Griff zu kriegen. Das Nachfolgende habe ich ergänzt:
INHALT der .htaccess
Code: Alles auswählen
RewriteCond %{SERVER_PORT} ^443$
RewriteRule robots.txt robots-https.txt [L]
RewriteCond %{HTTPS} ^on$
RewriteRule ^(.*)$ http://PROJEKT.net/$1 [L,R=301]
Code: Alles auswählen
User-agent: *
Disallow: /
Zur Überlegung: Der erste Teil soll der "fehlerhaften" Indexierung vorbeugen, wobei eine "neue" robots.txt ausgeliefert wird, deren Inhalt dem Bot sagt, dass er hier nichts zu suchen hat. Der zweite Teil richtet sich vornehmlich an die User, die nun durch https-Verweise auf der Seite landen und soll diese auf die "richtige" Variante lotsen. Der zweite Teil kann folglich wieder entfernt werden, wenn die https-Verweise nicht mehr im Index liegen.
Cheers und vielen Dank fürs Überprüfen