Herzlich willkommen im SEO Forum der ABAKUS Internet Marketing GmbH
registrieren registriertes Mitglied
Schon mal bei Staff angefragt ob sich nicht die server response times (TTFB) verbessern lassen?
Ja das sagen eigentlich alle Servermitarbeiter. Standart Antwort für alles und jeden.
WordPress erstellt automatische eine robots.txt mit dem besagten Inhalt. Du kannst dir das als "virtuelle robots.txt" vorstellen. Wenn du selbst eine robots.txt erstellst und ins Root-Verzeichnis kopierst, dann wird deine selbst erstellte Version verwendet.Eigentlich wollte ich das noch durch die Sitemap ergänzen. Mir ist aufgefallen, dass wenn ich die robots ändere, sie beim Abruf von making-miles.com/robots.txt gleich bleibt. Jetzt habe ich die robots mal aus meinem Verzeichnis gelöscht und ich kann sie trotzdem noch aufrufen ?!
Kann mir das wer erklären?
Super danke für den Hinweis. Ja ich hatte eine robots.txt selbst erstellt und hochgeladen, allerdings wurde diese nicht übernommen. Der robots txt Tester zeigt auch immer die virtuelle an. Aber halb so wild. Bis auf die Sitemap steht alles notwendige in der virtuellen robots txtdieterDG hat geschrieben: ↑11.04.2020, 10:14WordPress erstellt automatische eine robots.txt mit dem besagten Inhalt. Du kannst dir das als "virtuelle robots.txt" vorstellen. Wenn du selbst eine robots.txt erstellst und ins Root-Verzeichnis kopierst, dann wird deine selbst erstellte Version verwendet.Eigentlich wollte ich das noch durch die Sitemap ergänzen. Mir ist aufgefallen, dass wenn ich die robots ändere, sie beim Abruf von making-miles.com/robots.txt gleich bleibt. Jetzt habe ich die robots mal aus meinem Verzeichnis gelöscht und ich kann sie trotzdem noch aufrufen ?!
Kann mir das wer erklären?
In der alten Google Search Console kannst du die robots.txt auch testen und sehen, welche Version Google zuletzt gesehen hat. Einfach mal nach "google robots txt tester" googeln.
? Was soll ich erklären. Ich lade eine robots.txt ins Root Verzeichnis und die wird nicht übernommen. Wenn ich sie lösche gibt es aber trotzdem eine robots.txt.
Du kannst Dir im Grunde genommen das a3 lazy load Plugin ersparen. Inzwischen unterstützten alle aktuellen Browser (auch FF) diese Lazy Funktion auch ohne extra Plugin. Also wech damit.
Danke für den Tipp. Muss ich dafür denn irgendwas machen oder checken die browser das von allein?supervisior hat geschrieben: ↑11.04.2020, 15:04Du kannst Dir im Grunde genommen das a3 lazy load Plugin ersparen. Inzwischen unterstützten alle aktuellen Browser (auch FF) diese Lazy Funktion auch ohne extra Plugin. Also wech damit.
Schon mal auf den Gedanken gekommen, dass Hosting nicht gleich Hosting ist oder warum das eine Hosting mehr kostet als das Andere?