

ich habe eine robots.txt erstellt und darin google und anderen Suchmaschinen "verboten" die Seiten in dem Verzeichnis domain.de/test/ zu crawlen. Das habe ich in der Search Console getestet und es war alles richtig geblockt.
Dann habe ich dort Seiten aufgebaut. Jetzt habe nach einigen Begriffen von der Seite gesucht und musste feststellen, dass die Seiten von Google doch gecrawlt wurden, sie ranken sogar recht gut.
Wie kann das sein?
Und wie werde ich die Indexierung wieder los?
Liebe Grüße
Kerstin