SEO

Come diventare immuni agli update algoritmici di Google

Torno a parlare di SEO dopo una piccola pausa, alla luce di due importanti eventi che hanno riguardato in questi giorni il più noto motore di ricerca. Il primo è l’annuncio ufficiale dell’avvio della migrazione graduale dei siti dell’indice al Mobile-First Index. Se ne parlava già da mesi, ma ora sembra realtà. I webmaster verranno pian piano notificati via Search Console dell’avvenuta migrazione al mobile first index e potranno notare un aumento del crawling da parte di Googlebot mobile e una diminuzione graduale della versione desktop.

Sostanzialmente, come dice lo stesso termine, a differenza di ciò che avviene attualmente, le pagine web verranno scansionate, indicizzate e posizionate in serp a partire dalle loro versioni mobili e non più desktop. In linea di massima, per chi già ottimizza per il mobile SEO disponendo di una versione responsive design o dynamic serving del proprio sito, non dovrebbero esserci problemi. Consiglio però di analizzare le performance della versione mobile utilizzando lo strumento ufficiale di Google. Attenzione maggiore sarà da prestare invece per quei siti che dispongono di mobile site (m-site) e che, potrebbe necessitare di ottimizzazioni, soprattutto se l’esperienza di navigazione fosse non eccellente come quella desktop.

A proposito, sapevi che puoi testare in bulk il punteggio Page Speed Google di tutte le pagine del tuo sito? I ragazzi di Digitale.co hanno creato Bulk PageSpeed che ti permette di scansionare tutte le url del sito ottenendo, per ognuna di esse, il punteggio PageSpeed e le tempistiche dei Core Web Vitals. Utilissimo.

L’altra novità riguarda il rilascio, nei giorni scorsi, di un core update algoritmo di importante risonanza nelle serp e, questa volta, confermato dallo stesso Google, in particolar modo da Danny Sullivan, ex editor-SEO diventato ora portavoce ufficiale nelle comunicazioni con i webmaster.

Senza lasciarci andare a troppe speculazioni (e dare spazio a inesatte interpretazioni) le cose che ci sono da sapere sono due:

  • l’update ha l’obiettivo di migliorare la pertinenza del risultato in serp rispetto all’intento di ricerca dell’utente. Per fare ciò, Google da anni cerca di comprendere sempre meglio gli intenti di ricerca, compiendo notevoli passi avanti soprattutto nella capacità di disambiguare la query, e ha fatto innovato in modo particolare nel 2013, con l’update infrastrutturale Hummingbird, che, a sua a volta, era un’evoluzione di Caffeine (2009).
  • non ci sono fix che puoi attivare per migliorare siti “penalizzati” da questo update, se non quello di continuare a costruire contenuti di valore e utili per gli utenti. Il virgolettato sulla parola “penalizzati” non è casuale. Non sono infatti update volti a contrastare lo spam (come Penguin per intenderci) ma a migliorare i risultati restituiti all’utente.

A questo proposito, è ormai da mesi che noto come ad importanti core update algoritmici, che in certi casi scombussolano intere serp, seguano poi alcuni “ritocchi” di aggiustamento che, in realtà, non hanno mai termine.

È come se Google oramai operasse un apprendimento continuo del tasso di interazione degli utenti con i suoi risultati, basato anche nel determinare il tasso di bounce back nelle serp dopo il click su di un risultato specifico, e fosse sempre più in grado di raffinare, sulla base di questi dati, l’ordinamento delle pagine proposte all’utente.

Inoltre, da questo core update ho notato alcune cose:

  1. la pertinenza tematica è ancora importante. Google cerca di raffinare i risultati premiando per certe nicchie verticali siti specializzati in specifici argomenti. Se siamo all’interno di un settore, prendiamo caso il food e ci sono due siti che trattano entrambi quella tematica, ma solo uno è specializzato nella cucina vegana, probabilmente Google è ora più in grado di mostrare al top risultati provenienti dal sito specializzato in cucina vegana.
  2. Il trust di dominio fa sempre la differenza. Sebbene questi update algoritmici non sembrerebbero avere a che fare con i link esterni, credo che a beneficiare (o quantomeno a non risultarne colpiti) siano quei siti che, nel corso del tempo, hanno costruito una forte corazza fatta di citazioni e, soprattutto costruito un’ottima strategia di link building.
  3. La perfezione non esiste. Anche se noto dei miglioramenti sulla pertinenza e qualità dei risultati proposti al top delle serp rispetto all’intento di ricerca, mi capita di imbattermi anche in serp dove, proprio a seguito di questo update, tornano alla ribalta pagine o siti che poco o nulla hanno a che fare con l’intento di ricerca.

Quindi, riallacciandomi al titolo di questo post, come facciamo a costruire siti che siano immuni agli update algoritmici?

La risposta continua ad essere nella cura (sempre più maniacale) degli aspetti tecnici, dell’usabilità e dei contenuti. Il sito deve essere veloce, c’è poco da fare. Il caricamento della pagina sullo schermo del device dell’utente deve richiedere pochissimi secondi, soprattutto da mobile.

L’usabilità è inoltre importante. Se impedisco all’utente una navigazione ottimale perché ho l’esigenza di guadagnare dai suoi click accidentali sui miei banner di affiliazione, sto creando un’esperienza di navigazione non memorabile e di cui si ricorderanno sia gli utenti, sia lo stesso Google.

Aggiornamento continuo di contenuto e pertinenza con l’intento di ricerca dell’utente. Se hai lavorato bene nei primi due punti e hai prodotto nel tempo contenuti di qualità, non è detto che manterrai per sempre i posizionamenti per determinate chiavi di ricerca. L’intento di ricerca dell’utente è mutevole e Google non può riproporre a utenti che cercano argomenti mutevoli, a distanza di anni, gli stessi risultati, se questi non sono “mutati” e quindi non sono stati aggiornati, a loro volta.

Per fare un esempio semplice e lineare, questa guida alle pagine Facebook, scritta nel 2014, è un long form che si è ben posizionato per diverse chiavi di ricerca correlate alla gestione di pagine Facebook. Sono però ben consapevole del fatto che la guida, per quanto corposa sia (e più o meno aggiornata) non sia in grado di rispondere ottimamente a tutti gli intenti di ricerca per le cui chiavi è posizionata.

Ci sono articoli probabilmente più aggiornati e meglio in grado di rispondere all’utente per determinate query.

Mi aspetto quindi un graduale calo dei posizionamenti organici per quella guida, che potrò contrastare soltanto aggiornando costantemente la stessa. Ecco, immagina cosa potrebbe voler dire mettersi ad aggiornare costantemente centinaia o migliaia di articoli o guide di magazine settoriali.

Eppure è ciò che l’utente vuole (trovare sempre pagine web che soddisfano perfettamente il suo bisogno informativo o di acquisto), e anche ciò che Google chiede, quando dice di creare grandi contenuti di utilità per l’utente.

Quando avvengono questi core update che sembrano premiare alcuni siti e penalizzarne altri, c’è sempre da chiedersi cosa è stato fatto nel tempo a livello tecnico, di usabilità e, soprattutto, contenutistico. Chiedersi se ci si meritava quei posizionamenti o erano garantiti da fattori esterni (links??). Chiedersi se si era consapevoli del fatto che quell’altarino che si reggeva quasi miracolosamente, prima o poi sarebbe crollato.

Qui sotto l’andamento del traffico organico di un sito editoriale che non rispettava nessuno dei punti visti sopra:

Caratteristiche del sito (senza una vera analisi SEO):

  1.  contenuti di bassa qualità e con nessuna pertinenza tematica;
  2. adv invasivo;
  3. nessun riferimento ad una redazione, un’azienda, o a una persona esperta e riconosciuta nell’ambiente, nessun elemento di fiducia. (sembrerà banale, ma mettere in evidenza un’organizzazione o redazione con dei volti umani, aiuta l’utente a “restare” sul sito e di conseguenza aiuta anche Google). Consiglio a questo proposito, di leggersi le Search Quality Evaluator Guidelines a pagina 32)

Un sito fatto al puro scopo di monetizzare. Un sito praticamente inutile.

Da notare la perdita del 95% di traffico organico che segna la morte prematura di un progetto editoriale senza testa ne coda. Non esiste un modo per recuperare una situazione del genere se non quella di chiudere il sito e ripartire da zero con un nuovo progetto, nuova mentalità e nuovi obiettivi.

La necessità di diventare un brand.

Su questo blog l’abbiamo ripetuto più volte ed è scritto anche nell’introduzione del mio libro: oggi ogni azienda ha necessità di diventare un brand, trasformandosi in editore e promotore di contenuti. Nel lungo termine questa strategia è sempre vincente, c’è poco da discutere. È vincente anche nella SEO. L’era in cui si intendeva la SEO come la redazione di title tag, ottimizzazione dei testi e link building sta volgendo al termine.

Ecco come un sito su cui abbiamo lavorato per mesi, ottimizzando in continuazione laddove i competitors dormivano, in nicchia iper-competitiva, ha risposto all’ultimo update.

Ed ecco come, uno dei progetti editoriali per eccellenza, abbia anche raddoppiato il traffico organico a seguito di questo update.

Cosa contraddistingue Aranzulla.it?

  1. Velocità;
  2. Semplicità di navigazione;
  3. Advertising mai invasivo;
  4. Troviamo sempre (per la verità quasi sempre) risposta soddisfacente ai nostri interrogativi. Non abbiamo dunque bisogno di cercare altrove. E ciò soddisfa Google, che ritiene quel sito come il più pertinente.

Ma come fa Aranzulla.it a dare sempre risposte precise e soddisfacenti agli intenti di ricerca? Aggiornando costantemente tutto quanto viene pubblicato. È un lavoraccio, che in pochi possono permettersi ma che, come puoi vedere, alla lunga premia sempre e si trasforma in modello di business vincente.

Professionista SEO, da sedici anni, progetta strategie digitali orientate allo sviluppo di visibilità online. Come SEO ha lavorato in prima persona a differenti progetti complessi in settori ad elevata competizione, costruendo da zero progetti da oltre 20 mila visitatori giornalieri.

Guarda tutti i post di

Vuoi dire la tua?

Una risposta a “Come diventare immuni agli update algoritmici di Google”

  1. […] Che novità penserai, ormai ce ne sono a ritmo di due-tre mesi. Nel 2017 ce ne sono stati alcuni molto impattanti e l’ultimo, dagli effetti visibili in molte serp, risale a Marzo di quest’anno. […]

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.