2015-12-25 10 views
8

Diciamo che ho una pagina dinamica che crea URL's dagli input dell'utente. Ad esempio: www.XXXXXXX.com/browse < -------- (Sfoglia la pagina)Non consentire determinate directory di pagina ma NON quella pagina stessa

Ogni volta che l'utente inserisce una query, genera più pagine. Per esempio: www.XXXXXXX.com/browse/abcd < -------- (abcd è la nuova pagina)

ora, voglio Google per fare strisciare questa pagina "browse", ma non le secondarie pagine da esso generato.

Sto pensando di aggiungerlo alla mia pagina robots.txt; "Disallow:/browse /"

Sarebbe la cosa giusta da fare? o impedirà anche allo Googlebot di eseguire la scansione della pagina "sfoglia"? Cosa devo fare per ottenere il risultato ottimale ?

+0

io credo che si possa utilizzare il meta tag 'alcun indice, no follow' sulle tue pagine interne , e basta usare 'no follow' sulle tue pagine principali, quindi google non 'entrerà' di più ... http: //www.robotstxt.org/meta.html –

+0

Queste pagine secondarie sono come in centinaia, non lo faccio Penso di non poter aggiungere alcun seguito a ogni pagina manualmente:/ –

risposta

4

URL non termina con barra:

www.XXXXXXX.com/browse 

Pertanto questo codice dovrebbe funzionare:

User-agent: * 
Disallow: /browse/ 
+0

Ecco cosa stavo pensando. Ho un dubbio però, sei sicuro che non bloccherà la pagina "sfoglia" stessa? –

+0

Sì, ne sono sicuro. Perché non consentire contiene una barra finale. – znurgl

+0

Beh, grazie mille. Solo per la conoscenza, quindi se dovessi disabilitare solo la navigazione, avrei bisogno di non mettere "/" alla fine e basta? –

Problemi correlati