Aggiornamento delle Google Webmaster Guidelines
Aggiornamento delle Google Webmaster Guidelines

Attenzione ai blocchi sul codice Javascript e CSS

“Storicamente, i sistemi di indicizzazione di Google assomigliavano ai browser che leggevano solo testi (come Lynx) e questo era quello che dicevano anche le nostre Linee Guida per Webmaster.

Oggi invece l’indicizzazione è basata sul risultato finale della pagina come se fosse renderizzata su browser moderni“.

Comincia così l’annuncio pubblicato due giorni fa sul blog di Google Webmaster Central sull’aggiornamento delle Linee Guida Tecniche per i webmaster, ma sappiamo bene che la “rivoluzione” non è cominciata ieri.

Anzi qualcuno sosteneva che tutto fosse già previsto con il penultimo aggiornamento di Google Panda: la nuova anteprima di GWT (Fetch and Render) risale ad alcuni mesi fa, ma con l’aggiornamento delle Linee Guida per i Webmaster, la direzione acquisita da Google viene consolidata come permanente.

Il punto centrale dell’aggiornamento, scrive Ashley Zeckman (Search Engine Watch), è rivolto proprio alla ricerca di possibili blocchi inseriti nel codice per evitare il passaggio di Googlebot, in quei luoghi dove un tempo non riusciva ad addentrarsi, appunto attraverso file Javascript e CSS.

BigG ha concluso quindi il lungo processo di perfezione del suo sistema di indicizzazione, rendendolo in tutto e per tutto simile ad un browser di nuova generazione, sensibile alle media query e più in generale alle nuove proprietà di CSS3 e alle istruzioni “lato client” in Javascript.

Google consiglia quindi in modo esplicito di permettere l’accesso del suo crawler (Googlebot) all’intero codice delle tue pagine (file di immagini, compresi).

In sostanza deve terminare la prassi, consolidata negli anni, di impedire l’accesso (Disallow) a tutti gli script del tuo sito web attraverso il robot.txt.

Detto questo ecco l’elenco (modello disclaimer) dei consigli forniti dalla Centrale:

1) Il motore di rendering di Google potrebbe non supportare tutte le tecnologie.
2) La progettazione del tuo sito dovrebbe aderire ai principi di “aumento progressivo” per assicurarti che [tutti] i motori possano scansionare il contenuto usabile e supportato.
3) La velocità di caricamento della pagina è ancora molto importante, sia per gli utenti che per l’indicizzazione.
4) Accertati che il tuo server sia abilitato a servire file Javascript e CSS a Googlebot.

E per rendere più rilevante l’ultimo punto Google ha precisato che il tool diagnostico delle GWT, appunto Fetch and Render, non è attrezzato per rilevare possibili blocchi al caricamento di file css oppure js. Così come potrebbe avere problemi ad elaborare attraverso il crawler un volume molto elevato di richieste, se il server che ospita il sito web è “ammalato”.

Inoltre per chiudere l’elenco di clausole che escludono la responsabilità di Google, BigG alza le mani anche nel caso di pacchetti di codice Javascript troppo complesso e (ma solo in alcuni casi) dove Javascript viene utilizzato per rimuovere e non per aggiungere un contenuto.

Manca un punto: e quando Javascript viene eseguito per elaborare dati in una chiamata asincrona (vedi Ajax), come se fosse una “finestra invisibile” del browser? Il suo motore di rendering può seguire chiamate Ajax come se fosse un vero browser?

Io penso che anche qui Googlebot si arrenda e tu, cosa ne pensi?

Comments are closed.