Back to Question Center
0

Esperto di Semalt: una guida per impedire a Google di eseguire la scansione di vecchie Sitemap

1 answers:

Man mano che il tuo sito web cresce, farai del tuo meglio per trovare modi per migliorare la sua visibilità e credibilità su Internet. A volte, gli effetti di come i nostri siti utilizzati per lavorare rimangono indietro, ed è qui che dovremmo prestare attenzione .

Leggi i seguenti suggerimenti di Max Bell, il Customer Success Manager di Semalt , al fine di impedire a Google di eseguire la scansione di vecchi siti.

Qualche settimana fa, uno dei miei clienti mi ha detto che aveva un sito di e-commerce. Ha subito varie modifiche: dalla struttura degli URL alla mappa del sito, tutto è stato modificato per rendere più visibile il sito.

Il cliente ha notato alcune modifiche nella sua Search Console di Google e ha riscontrato errori di scansione lì. Quello che ha osservato che c'era un gran numero di vecchi e nuovi URL che stavano generando traffico falso. Alcuni di questi, tuttavia, mostravano gli errori 409 e 404 di Access Denied 404.

Il mio cliente mi ha detto che il problema più grande che aveva era una vecchia mappa del sito che esisteva nella cartella principale. Il suo sito web utilizzava una varietà di plugin Google XML Sitemaps in precedenza, ma ora dipendeva da WordPress SEO di Yoast per la sitemap. Vari vecchi plug-in della sitemap, tuttavia, hanno creato un disastro per lui. Erano presenti nella cartella radice denominata sitemap.xml.gz. Da quando ha iniziato a utilizzare i plugin Yoast per creare sitemap per tutti i post, le categorie di pagine e i tag, non aveva più bisogno di questi plugin. Sfortunatamente, la persona non ha inviato sitemap.xml. gz alla Search Console di Google. Aveva solo inviato la sua sitemap Yoast, e Google stava strisciando anche le sue vecchie sitemap.

Cosa gattonare?

La persona non ha cancellato la vecchia Sitemap dalla cartella radice, quindi anche questo è stato indicizzato. Sono tornato da lui e ho spiegato che una sitemap è solo un suggerimento su ciò che dovrebbe essere scansionato nei risultati del motore di ricerca . Probabilmente penserai che l'eliminazione delle vecchie sitemap impedirà a Google di eseguire la scansione dell'URL guasto, ma ciò non è vero. La mia esperienza dice che Google tenta di indicizzare ogni vecchio URL più volte al giorno, assicurandosi che gli errori 404 siano reali e non un incidente.

Googlebot può memorizzare la memoria di vecchi e nuovi collegamenti che troverà nella sitemap del tuo sito. Visita il tuo sito web a intervalli regolari, assicurandosi che ogni pagina sia indicizzata correttamente. Googlebot prova a valutare se i link sono validi o non validi, in modo che i visitatori non riscontrino alcun problema.

È ovvio che i webmaster saranno confusi quando il numero dei loro errori di scansione aumenta. Tutti loro vogliono ridurlo in larga misura. Come informare Google di ignorare tutte le vecchie sitemap? Puoi farlo uccidendo tutte le scansioni indesiderate e dispari di Sitemap. In precedenza, l'unico modo per renderlo possibile era i file .htaccess. Grazie a WordPress per averci fornito alcuni plugin.

I siti web WordPress hanno questo file nelle loro cartelle di root. Quindi, devi solo accedere all'FTP e abilitare i file nascosti in cPanel. Vai all'opzione File Manager per modificare questo file secondo i tuoi requisiti. Non dovresti dimenticare che modificarlo in modo errato può danneggiare il tuo sito, quindi devi sempre fare il backup di tutti i dati.

Dopo aver aggiunto lo snippet al file, tutti gli URL scaduti scompariranno dagli errori di scansione in pochissimo tempo. Non dovresti dimenticare che Google vuole che tu mantenga il tuo sito attivo, riducendo le possibilità di errori 404.

November 24, 2017
Esperto di Semalt: una guida per impedire a Google di eseguire la scansione di vecchie Sitemap
Reply