Guide - Tutorial

Creare il file robots.txt per indicizzare meglio il proprio sito

Che cosa è il file robots.txt ?
Il file robots.txt è un file che viene creato e inserito all’interno del server host del proprio sito web. Questo file contiene tutti i parametri necessari affinchè gli spider (software automatici: crawler) possano indicizzare sui vari motori di ricerca in modo periodico e ottimale.

Come crearlo!
Ci basta un semplice blocco note e incollare quanto segue:

# Land Of World Robots

User-agent: Googlebot
Disallow: 

User-agent: googlebot-image
Disallow: 

User-agent: googlebot-mobile
Disallow: 

User-agent: MSNBot
Disallow: 

User-agent: Slurp
Disallow: 

User-agent: Teoma
Disallow: 

User-agent: twiceler
Disallow: 

User-agent: Gigabot
Disallow: 

User-agent: Scrubby
Disallow: 

User-agent: Robozilla
Disallow: 

User-agent: Nutch
Disallow: 

User-agent: ia_archiver
Disallow: 

User-agent: baiduspider
Disallow: 

User-agent: naverbot
Disallow: 

User-agent: yeti
Disallow: 

User-agent: yahoo-mmcrawler
Disallow: 

User-agent: psbot
Disallow: 

User-agent: asterias
Disallow: 

User-agent: yahoo-blogs/v3.9
Disallow: 

User-agent: *
Disallow:

salviamo il file come robots.txt e lo inseriamo nel nosto server hosting del sito web nella directory principale.

Come attivare robots.txt ?
Per attivare questo file modifichiamo il file index (.html o .php o .asp, a seconda di quello che avete creato) e inseriamo il meta tag all’interno della <head>:

<meta name=”robots” content=”index,noodp,noydir,follow” />

salviamo e aggiorniamo nel server tale file.

N.B: Ora il file robots.txt è pronto a indicizzare il nostro sito. I tempi di indicizzazione dipendono spesso dalle query che i motori di ricerca fanno sui siti da indicizzare.

/ 5
Grazie per aver votato!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *