registrieren registriertes Mitglied


Anzeige

Anzeige

Parametrisierte URLs in der robots.txt domainwide ausschließen

Hier kannst Du Deine Fragen zum Thema Suchmaschinenoptimierung (SEO) stellen.
wdziedzic
PostRank 1
PostRank 1
Beiträge: 1
Registriert: 13.05.2022, 12:59

Beitrag wdziedzic » 13.05.2022, 13:06 Parametrisierte URLs in der robots.txt domainwide ausschließen

Für meine Domain habe ich folgende Anweisung in der robots.txt:

Code: Alles auswählen

disallow: /?
Ich möchte aber parametrisierte URLs auch für sprachliche Subfolder ausschließen

Soll ich eine disallow Regel pro Subfolder definieren

Code: Alles auswählen

disallow: /en/?

disallow: /es/?

disallow: /it/?
oder reicht eine Wildcard

Code: Alles auswählen

disallow: /*?*  
und die disallow Regel wird für parametrisierte URLs innerhalb der ganzen Domain funktionieren?

Anzeige von:

SEO Consulting bei ABAKUS Internet Marketing
Erfahrung seit 2002
  • persönliche Betreuung
  • individuelle Beratung
  • kompetente Umsetzung

Jetzt anfragen: 0511 / 300325-0.


Benutzeravatar
arnego2
PostRank 9
PostRank 9
Beiträge: 2568
Registriert: 23.02.2016, 13:55
Kontaktdaten:

Beitrag arnego2 » 13.05.2022, 17:24 Parametrisierte URLs in der robots.txt domainwide ausschließen

Dazu
https://developers.google.com/search/do ... bots/intro
Besser ist es in den Header einen Meta Tag zu setzen der die Suchmachinen zum nicht indexen animiert.

staticweb
PostRank 9
PostRank 9
Beiträge: 2694
Registriert: 04.05.2016, 14:34

Beitrag staticweb » 13.05.2022, 18:05 Parametrisierte URLs in der robots.txt domainwide ausschließen

> Ich möchte aber parametrisierte URLs auch für sprachliche Subfolder ausschließen

Dies in der robots.txt zu machen, davon ist SEO-technisch abzuraten.

Antworten
  • Vergleichbare Themen
    Antworten
    Zugriffe
    Letzter Beitrag
  • Neueste Blogbeiträge