Skip to content

Il tuo sito piace a Google? Scoprilo leggendo le statistiche di scansione

All’interno della Google Search Console (il caro vecchio Webmaster Tools) puoi verificare uno dei dati diagnostici più importanti che Google ci fornisce: le statistiche di scansione relative agli ultimi 90 giorni, in inglese “Crawl Budget“.

Il crawl budget è un indicatore che riguarda il comportamento di Googlebot sul nostro web server, ci dice quanti file come file HTML, CSS, JavaScript, Flash, PDF e immagini vengono scansionati (o scaricati) ogni giorno, quanti kilobyte vengono scaricati e quanto impiega il web server a fornire i file.

Google non ha problemi a scansionare grandi siti, sotto i 100.000 URL non ha senso preoccuparsi del crawl budget (parola di John Mueller).

Le statistiche di scansione ottimali

  • Pagine sottoposte a scansione giornalmente: un buon valore di pagine scansionate ogni giorno corrisponde al totale delle pagine del sito. Un sito web con una media reputazione ottiene facilmente tante scansioni quante sono le pagine che lo compongono. Valori di scansione inferiori al numero di pagine che compongono il sito indicano uno scarso interesse di Googlebot a visitare le pagine. Un valore più alto del numero totale di pagine è molto positivo, perchè significa che Google è affamato dei nostri contenuti e li scansiona di frequente per trovare variazioni, ovvero contenuti nuovi o aggiornati.
  • Kilobyte scaricati giornalmente: questo dato è direttamente proporzionale alle pagine scansionate. Dividendo il valore di Kilobyte per il numero di pagine scansionate giornalmente si ottiene il “peso medio” di ogni file scaricato. Ovviamente più è basso il valore medio più sarà semplice e veloce per Google ottenere questi file.
  • Tempo trascorso per il download di una pagina: il tempo di download è un parametro cruciale, più è veloce il web server a fornire i file e più veloce potrà lavorare Googlebot. Un valore medio non ottimale è superiore al secondo, un valore buono è inferiore al secondo, un valore ottimale è inferiore al mezzo secondo

In questa immagine puoi vedere come influisce sulle statistiche di scansione un cambio di template: Googlebot effettua un deep crawl del sito web perchè trova variazioni sostanziali su tutte le pagine.

Le statistiche di scansione in Google Search Console - Crawl Budget
Le statistiche di scansione in Google Search Console

Come aumentare il crawl budget

  1. Il PageRank di ciascuna pagina influisce sulla sua singola frequenza di scansione. Detto in altre parole significa che aumentando il numero di backlink di qualità che puntano al nostro sito, aumenteremo anche la frequenza con la quale Googlebot tornerà a visitarci.
  2. Il tempo di risposta e il carico del nostro web server (Host Load) influiscono sul crawl budget. Può capitare infatti che Googlebot metta alla prova il web server richiedendo un numero sempre crescente di risorse per vedere fino a quando riesce a “stare dietro” alle richieste. Quando il web server inizia a rallentare, ovvero a fornire le risorse più lentamente, Googlebot riduce il crawl rate fino ad arrivare ad un livello che non “disturba” il web server in modo da non intasarlo. Googlebot quindi ci assegna un crawl rate personalizzato ad hoc per il nostro web server, più potente e veloce sarà il nostro host ed un numero maggiore di file potrà inviare al goloso Googlebot.
  3. La frequenza di aggiornamento dei contenuti influisce sulle statistiche di scansione. Questo concetto lo trovate spiegato nell’infografica che segue.
  4. Googlebot viene anche “invitato” a visitare una data pagina web in base ai +1 ricevuti su Google Plus.
  5. Nel video a fondo pagina l’analista di Google afferma che ci sono 5 parametri che influiscono sulle statistiche di scansione, due li sappiamo, due li ha detti e poi si è fermato titubante con un “I’m not sure what can I say…”. Quindi lascio il 5° punto in attesa :)

In grafico che segue ho sintetizzato il comportamento di Googlebot in base all’aggiornamento dei contenuti. In pratica se Googlebot ogni volta che torna sul nostro sito trova contenuti aggiornati, tenderà a ridurre costantemente gli intervalli di scansione e quindi il crawl budget. Un portale nazionale di notizie come ANSA verrà visitato praticamente ogni 5 secondi (probabilmente anche più spesso) da Googlebot. Al contrario, se Google ogni volta che ci visita non trova niente di nuovo, tenderà ad allungare costantemente la frequenza di scansione riducendo il crawl budget.

Frequenza di Scansione di Googlebot
Variazioni di Crawl Budget e Frequenza di crawling di Googlebot

PS: se stai pensando di fregare Googlebot inserendo in homepage un elemento che varia costantemente (la data, un testo, gli articoli mostrati, …) per aumentare il crawl budget… Bè sappi che è un trucco vecchio come il cucù…

Video intervista a Gary Illyes

Al minuto 45:20 di questo video tratto dall’AMA session durante l’SMX Advanced 2015, Danny Sullivan pone una specifica domanda sul crawl budget al Google Webmaster Trends Analyst, Gary Illyes.

Articoli correlati

Autore

Commenti |6

Lascia un commento Lascia un commento
  1. Francesco BrioWeb Russo 1 commento

    Ciao Giovanni, ho letto con molto piacere il tuo articolo su un aspetto che conoscevo. Però ho voluto comunque arrivare fino alla fine per la chiarezza espositiva. Un bell’articolo veramente. Non eccessivamente tecnico ma approfondito.

    1. Giovanni Sacheli 759 risposte

      Grazie Francesco, spero di ritrovarti nei commenti di altri post :D

  2. Marco Bonomo 1 commento

    Eccellente articolo Giovanni, fa piacere leggere questa qualità di contenuti. Una domanda, pensi che usare ping services (e.g. Pingomatic) & social shares (G+, Twitter, etc.) possano essere d’aiuto?

    1. Giovanni Sacheli 759 risposte

      Ciao Marco grazie per il commento.

      I servizi di ping possono aiutare a velocizzare l’indicizzazione dei singolo contenuto. Secondo me non hanno un effetto degno di nota sul crawl budget.
      Una condivisione su G+ invita googlebot a visitare la pagina, ma 1 visita è una goccia in mezzo al mare se confrontato col traffico di googlebot ricevuto in una giornata quindi, anche in questo caso, non ha secondo me impatto sul crawl budget.

      A presto e buono studio ;)

  3. Andrea Pacchiarotti 2 commenti

    Articolo interessante, come al solito.
    Dovreste farne uno sul “render budget”

    1. Giovanni Sacheli 759 risposte

      Grazie mille Andrea per il suggerimento! Ne terrò sicuramente conto per i prossimi articoli.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Ultimi articoli aggiornati

Richiedi un preventivo SEO e Google Ads

Porta il tuo sito web al livello successivo con l’esperienza di EVE Milano. La nostra agenzia di Search Marketing ha ricevuto oltre 1144 richieste di preventivo, un segnale chiaro della fiducia che imprenditori e manager, come te, ripongono nella nostra specializzazione tecnica e verticale nella SEO e PPC. Se la tua organizzazione cerca competenze specifiche per emergere nei risultati di Google, noi siamo pronti a fornire quel valore aggiunto. Richiedi un preventivo ora e scopri la differenza tra noi e gli altri.
Richiedi un preventivo

Vuoi rimanere aggiornato su tutte le novità SEO e Google Ads?

Iscriviti alla nostra newsletter!

Informativa sui cookies

Noi e terze parti selezionate utilizziamo cookie o tecnologie simili per finalità tecniche e, con il tuo consenso, anche per le finalità di esperienza e misurazione come specificato nella cookie policy. Puoi liberamente prestare, rifiutare o revocare il tuo consenso, in qualsiasi momento, accedendo al pannello delle preferenze. Il rifiuto del consenso può rendere non disponibili le relative funzioni. Usa il pulsante “Accetta” per acconsentire. Usa il pulsante “Rifiuta” per continuare senza accettare.