registrieren registriertes Mitglied


Anzeige

Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

Alles über Google diskutieren wir hier.
Frieder01
PostRank 4
PostRank 4
Beiträge: 115
Registriert: 22.12.2015, 09:09

Beitrag Frieder01 » 13.11.2019, 14:08 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

Hallo,

Meldungen:
"Text ist zu klein/Anklickbare Elemente zu dicht beieinander" und
"Ladegeschwindigkeit"

Allerdings erscheinen dann bei "Live-Version prüfen" und über "URL prüfen" teilweise die Meldungen Die Seite ist für Mobilgeräte optimiert. Die Ladezeit habe ich über "https://developers.google.com/speed/pag ... hts/?hl=de" geprüft. Die notwendigen Änderungen werde ich aber auch mit Hilfe aus Foren nicht hinbekommen.

Aber meine Fragen:
Die Zahl der beanstandeten Seiten ändert sich täglich? Bedeutet dies
  • Die gleiche Seite wird am nächsten Tag anders bewertet
    oder
  • Es handelt sich bei den Tests am nächsten Tag um andere Seiten bzw. um die an diesem Tag neu indexierten Seiten?

Meine zweite Frage
Inhalt meiner robots.txt (habs nochmals geprüft):
User-agent: *
Disallow:

Wenn ich bei der Meldung "Seite wurde nur teilweise geladen" auf "robots.txt" klicke, erscheint der Inhalt
User-Agent: *
Allow: /ads/preferences/
Allow: /gpt/
Allow: /pagead/show_ads.js
Allow: /pagead/js/adsbygoogle.js
Allow: /pagead/js/*/show_ads_impl.js
Allow: /static/glade.js
Allow: /static/glade/
Disallow: /
Noindex: /

Das verstehe ich nicht. Kann das jemand erklären? Danke.
Zuletzt geändert von Frieder01 am 13.11.2019, 16:05, insgesamt 1-mal geändert.

Anzeige von:

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


staticweb
PostRank 9
PostRank 9
Beiträge: 1918
Registriert: 04.05.2016, 14:34

Beitrag staticweb » 13.11.2019, 14:14 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

> Inhalt meiner robots.txt (habs nochmals geprüft):
User-agent: *
Disallow:

Kleine Korrektur. :-)

Wo hast du denn geschaut? Im Dateisystem oder hast du die URL abgerufen?
Wenn das der Inhalt ist brauchst du gar keine robots.txt.

Benutzeravatar
arnego2
PostRank 9
PostRank 9
Beiträge: 1948
Registriert: 23.02.2016, 13:55
Kontaktdaten:

Beitrag arnego2 » 13.11.2019, 14:39 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

Frieder01 hat geschrieben:
13.11.2019, 14:08
Hallo,

Meldungen:
"Text ist zu klein/Anklickbare Elemente zu dicht beieinander" und
"Ladegeschwindigkeit"
Die Nachricht kriegen viele die nichts an ihren Seiten geändert haben.
Was Google geändert zu haben scheint ist der Anteil der Server Reaktionszeit.
Sieht für mich so aus als ob jetzt er größeren Anteil hätte.
Arnego2 <Webseiten Umbau ab 80 Euro>

heinrich
PostRank 10
PostRank 10
Beiträge: 2925
Registriert: 17.08.2006, 11:26

Beitrag heinrich » 13.11.2019, 14:58 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

Solche Meldungen landen permanent in der Post und sagen nichts anderes, als dass die AI wieder zugeschlagen hat, die aber ziemlich unabhängig von der Realität agiert. Am besten ignorieren und nur dann, wenn das sehr viele Seiten betrifft - meist sind es ja nur einzelne -, nachschauen.

Frieder01
PostRank 4
PostRank 4
Beiträge: 115
Registriert: 22.12.2015, 09:09

Beitrag Frieder01 » 14.11.2019, 11:22 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

Danke für die Antworten
@staticweb
Die Robot.txt habe ich über ftp angeschaut. Ja es stimmt, ich habe/will nichts sperren. Bin da vielleicht naiv. Google wirds freuen. Einbringen wirds nichts. Mich hat nur die andere robots.txt gewundert, die erscheint bei "Seite wird nur teilweise geladen".
@arnego2 @heinrich
Ich verwende ein AS-Template und habe oben ein "Superfish-Menü". Das ersetze ich evtl., wenn ich es hinbekomme und es einigermaßen aussieht, durch ein normales horizontales Menü. Bilder nutze ich nicht. Und dann mich runterfahren und abwarten.
Ich habe alle betroffenen Seiten in den letzten Monaten nicht geändert. Die Meldung erscheint nur bei 20 der bisher 300 neu in "https" übernommen Seiten, nicht bei den noch gelisteten ca. 2500 http-Seiten. Alle ca. 300 https-Seiten sind eigentlich gleich aufgebaut und vom Umfang ähnlich. Komisch. Ich lade die nächsten Tage mal die täglich beanstandeten Seiten herunter und vergleiche.

Grüße

Benutzeravatar
arnego2
PostRank 9
PostRank 9
Beiträge: 1948
Registriert: 23.02.2016, 13:55
Kontaktdaten:

Beitrag arnego2 » 14.11.2019, 13:10 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

Frieder01 hat geschrieben:
14.11.2019, 11:22
Komisch. Ich lade die nächsten Tage mal die täglich beanstandeten Seiten herunter und vergleiche.
Schau doch mal bei der Coverage ob ein paar Seiten nicht in den Index dürfen. Das macht Google gern.
Die Gründe sind leider fast nie Konklusiv
Arnego2 <Webseiten Umbau ab 80 Euro>

Frieder01
PostRank 4
PostRank 4
Beiträge: 115
Registriert: 22.12.2015, 09:09

Beitrag Frieder01 » 14.11.2019, 13:23 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

@arnego2
Meinst du >Abdeckung >Indexierung >Indexierung zulässig?
Hab da gesehen, dass Google teilweise noch die URL http der URL https vorzieht. Wundert mich jetzt nur, weil ich über htaccess eine Umleitung eingebaut habe. Wird sich vermutlich noch nivellieren. Werde aber weiter drauf schauen.
Danke.

staticweb
PostRank 9
PostRank 9
Beiträge: 1918
Registriert: 04.05.2016, 14:34

Beitrag staticweb » 14.11.2019, 13:52 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

> Die Robot.txt habe ich über ftp angeschaut.

OK!

> Ja es stimmt, ich habe/will nichts sperren. Bin da vielleicht naiv. Google wirds freuen. Einbringen wirds nichts.

Wenn du kannst, entferne die robots.txt. Falls sie dynamisch erzeugt wird, solltest du das Problem aber im Auge behalten.

> Mich hat nur die andere robots.txt gewundert, die erscheint bei "Seite wird nur teilweise geladen".

Könnte es sein, dass durch deine HTTPS Umstellung eine 2. robots.txt im alten Verzeichnis angesprochen wird?

Im übrigen solltest du deine "over the fold" Probleme beheben, um deinen PageSpeed zu verbessern.

Frieder01
PostRank 4
PostRank 4
Beiträge: 115
Registriert: 22.12.2015, 09:09

Beitrag Frieder01 » 14.11.2019, 15:34 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

Hallo staticweb,
ich war so frei und hab meine robots.txt gelöscht. Wusste nicht, dass das möglich/erlaubt ist. Eine zweite robots.txt habe ich in diesem Verzeichnis nicht gefunden. Ich warte mal ab.
Aber meine Frage: Was sind "over the fold" Probleme?
Ich kann kein Englisch und tiefe Programmierkenntnisse fehlen auch. Geht es um den oberen Teil der Website, die zuerst aufgebaut wird?
Danke.

top
PostRank 8
PostRank 8
Beiträge: 668
Registriert: 14.07.2005, 17:09

Beitrag top » 14.11.2019, 16:16 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

Frieder01 hat geschrieben:
13.11.2019, 14:08
Hallo,

Meldungen:
"Text ist zu klein/Anklickbare Elemente zu dicht beieinander" und
"Ladegeschwindigkeit"

Allerdings erscheinen dann bei "Live-Version prüfen" und über "URL prüfen" teilweise die Meldungen Die Seite ist für Mobilgeräte optimiert. Die Ladezeit habe ich über "https://developers.google.com/speed/pag ... hts/?hl=de" geprüft. Die notwendigen Änderungen werde ich aber auch mit Hilfe aus Foren nicht hinbekommen.

...
Dann prüfe deine Seite mal (oder auch mehrmals :wink: ) mit https://search.google.com/test/mobile-friendly

Das Teil scheint sich bei manchen Servern gerne zu verschlucken und kann dann ein paar der Dateien nicht für den Test der Seite nutzen. Wenn zufälligerweise eine wichtige CSS-Datei dabei war, zerschießt es dann natürlich das Layout und führt zu der Meldungen wie " Text ist zu klein zum Lesen", "Anklickbare Elemente liegen zu dicht beieinander" oder "Inhalt breiter als Bildschirm".

Wenn ich so eine Meldung bekomme, schaue ich in der Regel nur einmal kurz auf die Seite (um mich zu vergewissern, dass Google sich mal wieder irrt) und ignoriere das dann einfach.

staticweb
PostRank 9
PostRank 9
Beiträge: 1918
Registriert: 04.05.2016, 14:34

Beitrag staticweb » 14.11.2019, 16:57 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

> Was sind "over the fold" Probleme? ... Geht es um den oberen Teil der Website, die zuerst aufgebaut wird?

Genau, der sichtbare Teil muss so schnell wie möglich "gezeichnet" werden und darf, bevor der Bot verschwunden ist, auch nicht mehr "zucken".

Frieder01
PostRank 4
PostRank 4
Beiträge: 115
Registriert: 22.12.2015, 09:09

Beitrag Frieder01 » 14.11.2019, 20:26 Vor einer Woche auf https umgestellt / Haupt-Crawler: Smartphone

top hat geschrieben:
14.11.2019, 16:16
Dann prüfe deine Seite mal (oder auch mehrmals :wink: ) mit https://search.google.com/test/mobile-friendly
Wenn ich so eine Meldung bekomme, schaue ich in der Regel nur einmal kurz auf die Seite (um mich zu vergewissern, dass Google sich mal wieder irrt) und ignoriere das dann einfach.
Genau, bei zwei der ersten drei getesteten Seiten erscheint die Meldung "Die Seite ist für Mobilgeräte optimiert". Also vermutlich alles nicht ganz so krass wie befürchtet. Aber man denkt im Hintergrund immer an das Ranking.
Danke.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag