Gli spider dei motori di ricerca non sono così intelligenti. I ragni / robot sono programmati per strisciare costantemente intorno ai motori di ricerca finché non trovano il contenuto che possono indicizzare. Non si fermeranno e aspetteranno fino a quando non risolverai quel collegamento interrotto. Non è il loro lavoro. È tuo compito assicurarti che i motori di ricerca possano spiderare il tuo sito.
Affinché le pagine del tuo sito vengano sottoposte a scansione, devono portare i visitatori in luoghi diversi. I visitatori dovrebbero essere in grado di navigare facilmente all';interno del tuo sito o essere portati a un link / sito esterno. Se hai link errati o danneggiati, questo riduce seriamente la possibilità di scansione del tuo sito e il tuo sito potrebbe essere filtrato in modo permanente dalle SERP (pagine dei risultati dei motori di ricerca).
14 problemi tecnici Uccidere il tuo SEO
Gli errori di crawlability sono ciò che uccide il tuo SEO - non fare i seguenti errori o salutare per essere trovati nei motori di ricerca.
• Presta attenzione ai file robots.txt: questo è il modo più semplice per rovinare la tua capacità di scansione. I file Robots.txt indirizzano gli spider dei motori di ricerca su come visualizzare il tuo sito. Un errore può sbatterti fuori dai motori di ricerca in modo permanente, quindi stai particolarmente attento quando lavori con questi file.
• Non utilizzare troppe variabili nei tuoi URL: Google può eseguire la scansione di collegamenti lunghi ma non è ancora un fan di URL lunghi. È preferibile utilizzare URL brevi: vengono cliccati più spesso in SERP
• Non aggiungere ID sessione in URL: se si utilizzano ID sessione negli URL, salvarli nei cookie. Gli spider non eseguono la scansione degli URL con ID sessione: ostruiscono i SERP
• Fai attenzione al codice gonfiato: questo può essere un problema ENORME. I ragni sono bravi a separare il codice rispetto al contenuto, ma non rendono difficile neanche per loro. Non usare così tanto codice che i tuoi contenuti non siano facili da trovare.
• Gli spider non possono seguire i link Flash o eseguire JavaScript - I progetti che usano Flash e JavaScript fermeranno gli spider nelle loro tracce. Inoltre, non possono leggere testo o immagini all';interno di Flash. Attacca con link HTML (i link dovrebbero preferibilmente essere di testo o immagini)
Come risolvere errori di crawlability
• NON cambiare i tuoi URL a meno che non siano rotti. Tieni presente i seguenti suggerimenti sopra menzionati. Tenerli corti, non usare troppe variabili, tralasciare gli ID di sessione, ecc.
• Durante la creazione di URL, utilizzare parole chiave e trattini per separare le parole chiave. Gli spider riconoscono i trattini come spazi: non utilizzare caratteri di sottolineatura, ecc. Non rendere i tuoi URL chiari con parole chiave.
• Correggi la canonicalizzazione del dominio. Utilizzerai www.business.com o business.com? (non usare entrambi!) Quale dominio riceve il maggior numero di link in entrata, ecc.? Questo è l';URL che dovresti usare come dominio principale. Se utilizzi un dominio secondario, assicurati di includere un reindirizzamento 301 al tuo dominio principale.
• Usa SEO Browser per verificare come i motori di ricerca visualizzano il tuo sito
I vantaggi delle Sitemap
Le Sitemap sono file XML che elencano gli URL insieme ai metadati di ciascun URL. Ciò consente ai motori di ricerca di eseguire la scansione dei siti in modo efficiente. Le Sitemap sono un modo semplice per i webmaster di informare i motori di ricerca sulle pagine dei loro siti disponibili per la scansione.
Se vuoi essere trovato facilmente dai motori di ricerca, crea un sistema di navigazione efficiente. Una struttura di navigazione semplice e logica renderà più facile la scansione degli spider nel tuo sito.