2013-12-08 15 views
6

L'utilizzo di entrambi i protocolli nello stesso dominio, la pubblicazione dello stesso sito Web, l'indicizzazione due volte da parte dei motori di ricerca e la considerazione di contenuti duplicati?L'utilizzo di HTTP e HTTPS nello stesso dominio ha effetto sul SEO

Se è così, qual è il modo migliore per evitare questo effetto negativo in SEO. Devo fare https su un altro sottodominio come https://ssl.example.com anziché https://www.example.com con un diverso docroot? O è abbastanza buono per effettuare i reindirizzamenti 301 necessari da https a http per i contenuti non sicuri e viceversa sullo stesso docroot? Qual è la migliore pratica qui?

+4

Questa domanda sembra essere fuori tema perché riguarda SEO –

risposta

3

Vai a questa discussione approfondita sul tema per affrontare i problemi specifici del tuo sito:

Moz Q&A: Duplicate Content and http and https?

In sintesi:

"Google considera https: // e http : // due siti diversi e possono indicizzare incoerentemente uno contro l'altro e/o penalizzare per il contenuto duplicato .. . https pagine indicizzate che non richiedono https in genere provengono da un bot entrare in una pagina di richiesta HTTPS e l'attraversamento verso l'esterno (carrello della spesa, ecc) "

(nota: Ovviamente se qualcosa richiede HTTPS: on il tuo sito, devi stare attento a quanto segue.

La soluzione più semplice potrebbe essere quella di utilizzare collegamenti canonici assoluti nel sito.

I.e: <a href='https://www.example.com/securepage/'> .. secondo necessità o regolare http: // altrimenti.

Solutions

  1. "essere intelligenti sulla struttura del sito: per mantenere i motori di eseguire la scansione e l'indicizzazione HTTPS pagine, la struttura del sito web in modo che HTTPs sono accessibili solo tramite un invio di un modulo (log-in , iscrizioni o pagine di pagamento). L'errore comune consiste nel rendere disponibili queste pagine tramite un collegamento standard (accade quando ignori o non ti accorgi che la versione sicura del sito viene sottoposta a scansione e indicizzazione). "

  2. "Utilizzare il file Robots.txt per controllare quali pagine saranno scansionate e indicizzate."

  3. "Usa file .htaccess Ecco come fare:".

    Creare un nomi di file robots_ssl.txt nella vostra root.

    Aggiungere il seguente codice al .htaccessRewriteCond

    `%{SERVER_PORT} 443 [NC]RewriteRule ^robots.txt$ robots_ssl.txt [L]` 
    
  4. Rimuovere yourdomain.com:443 dagli strumenti per i webmaster se le pagine sono già stati sottoposti a scansione.

  5. per le pagine dinamiche come PHP, provare:

    < ?phpif ($_SERVER["SERVER_PORT"]== 443){echo “<meta name=” robots ” content=” noindex,nofollow ” > “;}?>

  6. soluzione drammatica (potrebbe non essere sempre possibile): reindirizzamento 301 pagine HTTPS alle pagine HTTP - con la speranza che il succo di collegamento trasferirà sopra.

Problemi correlati