Esistono fondamentalmente due tipi di motori di ricerca. Il primo è di robot e sono stati indicati come crawler o spider.
I motori di ricerca utilizzano gli spider per indicizzare i siti Web. Quando invii le pagine del tuo sito web a una directory di un motore di ricerca completando la pagina di invio richiesta, lo spider del motore di ricerca indicizzerà o eseguirà la scansione dell';intero sito. Un ragno? è un programma automatizzato che viene eseguito dal sistema del motore di ricerca. Spider visita un sito web, legge il contenuto sul sito reale, i meta tag del sito e segue anche i collegamenti che il sito collega. Lo spider restituisce quindi tutte le informazioni a un deposito centrale, in cui i dati sono indicizzati. Visiterà ogni link che hai sul tuo sito web e indicizzerà anche quei siti. Alcuni spider indicizzeranno solo un certo numero di pagine sul tuo sito, quindi non creare un sito con 500 pagine!
Come funziona un motore: un';animazione tutorial completa con tecnologie del motore Toyota
Lo spider periodicamente ritorna sui siti per verificare eventuali informazioni che potrebbero essere cambiate. La frequenza con cui ciò accade è determinata dai moderatori del motore di ricerca.
Un ragno è quasi come un libro in cui contiene il sommario, il contenuto effettivo e i collegamenti e i riferimenti per tutti i siti Web che trova durante la sua ricerca, e può indicizzare fino a un milione di pagine al giorno.
Esempio: Excite, Lycos, AltaVista e Google.
Quando chiedi a un motore di ricerca di localizzare le informazioni, in realtà sta cercando attraverso l';indice che ha creato e non effettivamente effettuando ricerche sul Web. Diversi motori di ricerca produrranno classifiche diverse perché non tutti i motori di ricerca utilizzano lo stesso algoritmo per cercare tra gli indici.
Una delle cose che un algoritmo del motore di ricerca esegue la scansione è la frequenza e la posizione delle parole chiave in una pagina web, ma può anche rilevare l';imbottitura di parole chiave artificiali o spamdexing. Quindi gli algoritmi analizzano il modo in cui le pagine si collegano ad altre pagine del Web. Controllando il modo in cui le pagine si collegano tra loro, un motore può sia determinare che cosa tratta una pagina, se le parole chiave delle pagine collegate sono simili alle parole chiave nella pagina originale. Come funzionano i motori In sostanza, ci sono due tipi di motori di ricerca che fanno queste cose per te. Per prima cosa, sono i robot, e sono chiamati crawler o spider.
I motori di ricerca utilizzano gli spider per indicizzare tutti i tuoi siti web. Quando invii le pagine del tuo sito web a un motore di ricerca completando la pagina di invio richiesta, lo spider dei motori di ricerca indicizzerà l';intero sito web. Un ragno? è un programma automatizzato che viene eseguito dal sistema del motore di ricerca. Spider visita un sito web, legge il contenuto del sito web, i meta tag del sito Web e segue anche i collegamenti che il sito Web collega. Lo spider restituisce quindi tutte le informazioni a un deposito centrale, in cui i dati sono indicizzati. Visiterà ogni link che hai sul tuo sito web e indicizzerà anche quei siti. Alcuni spider indicizzeranno solo un certo numero di pagine sul tuo sito Web, quindi non creare un sito Web con 500 pagine!
Lo spider ritorna periodicamente sui siti Web per verificare eventuali informazioni che sono state modificate. La frequenza con cui ciò accade è determinata dai moderatori del motore di ricerca.
Un ragno è quasi come un libro in cui contiene il sommario, il contenuto effettivo e i collegamenti e i riferimenti per tutti i siti Web trovati durante la sua ricerca e può indicizzare fino a un milione di pagine web al giorno. Excite, Lycos, AltaVista e Google hanno ragni che svolgono questo compito.
Quando chiedi a un motore di ricerca di localizzare le informazioni, in realtà sta cercando attraverso l';indice che ha creato e non effettivamente effettuando ricerche sul Web. Diversi motori di ricerca producono classifiche diverse perché non tutti i motori di ricerca utilizzano lo stesso algoritmo per cercare tra gli indici.
Una cosa che un algoritmo del motore di ricerca scansiona è la frequenza e la posizione delle parole chiave in una pagina web, ma può anche rilevare l';imbottitura di parole chiave artificiali o spamdexing. Quindi gli algoritmi analizzano il modo in cui le pagine si collegano ad altre pagine del Web. Controllando il modo in cui le pagine si collegano tra loro, un motore può sia determinare che cosa tratta una pagina, se le parole chiave delle pagine collegate sono simili alle parole chiave sulla pagina web originale.