Per chi lavora sulla Seo, Google mette a disposizione una serie di suggerimenti che, se messi in pratica, contribuiscono a migliorare in misura consistente il posizionamento sul motore di ricerca di un sito.
Tra le linee guida fornite da Mountain View c’è, per esempio, quella relativa alla creazione e all’invio di una sitemap: si tratta di un file sul sito che serve a far sapere ai motori di ricerca quali pagine sono state appena modificate e quali pagine nuove sono state aggiunte. A volte, per altro, può succedere che un sito ospiti pagine di cui Google non deve effettuare la scansione: in questo caso si deve ricorrere al file robots.txt, che impedisce le scansioni indesiderate. Questa procedura è consigliata per le pagine in cui sono presenti dati sensibili, ma è utile sapere che può comunque capitare che vengano scansionate le pagine bloccate dal file robots.txt.
Secondo le direttive di Google, inoltre, sarebbe auspicabile evitare la scansione di quelle pagine che per gli utenti non sono utili, così che esse non vengano mostrate tra i risultati di ricerca. Google Search Console mette a disposizione un generatore robots.txt grazie a cui questo file può essere creato con facilità.
Nel momento in cui una pagina viene scansionata da Googlebot, questo la dovrebbe vedere proprio come la visualizza un utente.
A questo scopo è necessario permettere a Googlebot di accedere ai file immagine, CSS e JavaScript impiegati dal sito, così che sia l’indicizzazione che il rendering risultino ottimali. Qualora tali risorse non possano essere scansionate per effetto del file robots.txt, il risultato è un’indicizzazione dei contenuti meno efficace di quel che si potrebbe auspicare. Google raccomanda di avvalersi dello strumento Controllo URL, grazie a cui è possibile verificare come i contenuti sono visti da Googlebot.
Qualora un documento venga mostrato in una pagina dei risultati di ricerca, nella prima riga dei risultati potrebbero essere visualizzati i contenuti del tag title. Ecco spiegato il motivo per cui i contenuti della pagina dovrebbero essere descritti in modo accurato. Il titolo, per esempio, dovrebbe essere di facile lettura e avere una forte attinenza con i contenuti, in modo che il loro argomento possa essere comunicato in maniera efficace. È indispensabile, poi, che il titolo sia univoco, affinché Google sappia che cosa differenzia quella pagina rispetto alle altre.
Il meta tag description non è un fattore di ranking, ovvero non è necessario per posizionare il sito nella classifica del motore di ricerca.
È utile compilare questo campo con accortezza perché fornisce un riepilogo che indica cosa può aspettarsi nella lettura dell’articolo la pagina al lettore che la intercetta. Questo meta tag può essere composto da un breve paragrafo o comunque da poche frasi. Google potrebbe impiegarlo come snippet: non è detto che accada, comunque. In qualsiasi caso attribuire un meta tag description a tutte le pagine è utile se Google non è in grado di individuare una selezione di testo utile da inserire all’interno dello snippet. È importante che i contenuti della pagina siano riassunti con la massima precisione. La descrizione deve essere informativa e apparire attraente agli occhi degli utenti. Non ci sono limiti di lunghezza da rispettare.