ich habe da mal eine dummer Frage.
Google-Webmaster-Tools zeigt mir über 4000 Crawling-Fehler an, alle HTTP 503.
Ich habe bereits die htaccess und robots.txt gechecked, bis auf ein paar Weiterleitungen in der .htaccess und ein paar blockierten Seiten (Kontaktfomular, etc. ) in der robots.txt ist nichts drin.
Steh hier ein bisschen auf dem Schlauch und kann mir nicht erklären wie das kommt, bzw. wie ich mich an die Ursache herantasten kann?
Meines wissens ist ein 503 - Service not available - sprich: der WEbserver verweigert den Dienst. Mein Webserver war die ganze Zeit an, also keinerlei downtimes, und auch das abrufen der Seiten funktioniert die ganze Zeit tadellos.
Kann mich mal bitte jemand in die richtige Richtung treten? Bin echt am verzweifeln.
Erfolgreiche und optimale Nutzung mit Shopware Shopsystemen!
Nutzen Sie unsere jahrelange Erfahrung mit Suchmaschinenoptimierung für Shopware und lassen Sie sich beraten!
Error code 503 ist zu allgemein um was sagen zu koennen. Ist dein webserver IIS? dann koennte die user identity des webusers abgelaufen sein. Bei Apache kann es alles moegliche bedeuten. Wenns ein gammeliges php script ist, kann es sein das das script dir schon beim aufruf abstuerzt weil es schlecht geschrieben ist und irgendwelche ausnahmen oder fehler (DB nicht erreichbar?) nicht abfaengt.
bei sowas hilft nur ein blick in die serverlogs, in htaccess oder robots.txt steht nix...
also handelt sich um einen Apache. Gammeliges script, hatte ich auch schon unter die lupe genommen, es halndelt sich um eine Shopware 5.1.3 Instanz. Das kuriose ist, dass andere URLs eben erfolgreich vom Googlebot abgerufen werden können. Einen Unterschied zwischen den seiten, bis auf den Inhalt, gibt es nicht.