SEO

I Quality Update di Google: osservazioni con dati alla mano

I SEO e molti webmaster e imprenditori ricorderanno il 2017 come uno dei più burrascosi anni del Search Marketing organico. Tra i vari “ritocchi” operati alle Serp e i costanti e continui update algoritmici, mai annunciati e di rado confermati, occorsi nel primo semestre dell’anno, hanno creato non pochi problemi a chi, in modo più o meno meritocratico, cerca di scalare i posizionamenti organici per guadagnarsi un fatturato.

A partire da Febbraio 2017, quando a tanti Phantom Update si sono succeduti dei Quality Update, chiamati anche “Fred”, ho osservato molto la situazione seguendo direttamente diversi siti e monitorandone l’andamento e in questa sede mi ritaglierò uno spazio in cui evidenzierò alcune considerazioni.
Un aggiornamento di questo post dedicato al Fred Update di Marzo si rende dunque necessario.

Gli importanti update sulla qualità avuti in questi mesi sono stati riscontrati soprattutto in 3 date:

  • 8 Marzo (Fred);
  • 17 Maggio;
  • 24 Giugno.

Le fluttuazioni duravano diversi giorni. In realtà durano ancora oggi.

Nel precedente post lo avevo già anticipato, osservando solo alcuni siti, ma in questi mesi la convinzione si è fatta ancora più limpida:

i quality update di questi mesi non hanno uno o pochi pattern facilmente identificabili. Non colpiscono specifiche tipologie di siti, non colpiscono specifiche tipologie di pagine e/o articoli, non colpiscono specifiche tipologie di keyword o di query.

La constatazione finale è un po’ dirompente e poco rassicurante: comprendere questa serie di update algoritmici non è semplice, neanche se lavori come SEO da diversi anni, per un motivo: ogni sito può essere colpito (anche se non parlerei di penalizzazione) per ragioni differenti rispetto ad un altro sito.

In questi mesi ho visto siti perdere traffico per ragioni diametralmente opposte:

  • siti di news: l’update di Marzo sembra colpire siti con una bassa qualità dell’informazione e un eccesso di advertising offerto all’utente;
  • siti statici: in alcuni casi affiliazioni/advertising più sovra-ottimizzazione on site, in altri casi, l’advertising (assente) non sembra essere il problema, ma il problema sembra ricadere nella “leggera” sovra-ottimizzazione on site e nella qualità delle pagine offerte agli utenti.
  • blog: anche blog di qualità e in trust da anni, sembrano aver subito il colpo, magari non in percentuali allarmanti, ma comunque sono stati interessati da fluttuazioni anche negative.
  • blog anche recenti e con volumi di traffico non elevato. Contrariamente a quanto si possa credere, anche siti che sviluppavano modesti volumi di traffico, sono caduti.

Fluttuazioni continue e maggiore pertinenza dei risultati

Tutti i tool di monitoraggio delle Serp hanno mostrato in questi mesi un’elevata volatilità dei risultati e dei cambiamenti continui dei risultati.

Qui sotto ad esempio il radar di SemRush degli ultimi 30 giorni.

La situazione ad oggi non sembra essersi placata e quello che ho notato monitorando keyword che perdevano posizioni, è che spesso la pagina che era posizionata per quella chiave non era la migliore alternativa presente per l’utente.
Per comprendere meglio facciamo un esempio: poniamo caso che un dominio con un buono storico, PageRank e link di qualità, riesca a posizionare articoli pubblicati per diverse keyword, anche long tail, scavalcando competitor che, pur “targetizzando” meglio quella chiave, hanno meno trust (e come sai il trust lo crea il profilo link).

Magari l’associazione di quel documento con la query digitata dell’utente avviene, per ipotesi, per la presenza di quelle parole nel testo della pagina, ma quella pagina non contiene l’esatta risposta che interessa all’utente.

Cosa sembra stia facendo Google? Sta cercando di restituire all’utente la pagina che risponde meglio (e più velocemente possibile) all’esatta domanda dell’utente.

Questa osservazione sembra però non essere la regola. A parità di risposta pertinente fornita all’utente (due documenti che danno esattamente la risposa che l’utente cerca) sembra che il fattore “trust” faccia ancora la differenza, andando a penalizzare il sito magari più giovane.

Quasi come a voler dire che non c’è bisogno di altri documenti che trattino il medesimo argomento: c’è già chi risponde egregiamente alla query dell’utente.
Se ciò fosse vero, sai cosa vorrebbe dire? Che questi Quality Update hanno l’obiettivo di spazzar via tutto ciò che è ridondante, che non aggiunge nulla di nuovo di quanto non sia già presente e che non fornisce valore aggiuntivo all’utente.
Se devi star su nelle Serp devi dunque meritartelo e per meritartelo devi avere budget, risorse, competenze tecniche ecc. con buona pace dei tanti siti amatoriali gestiti da singole persone.

Come fa Google a comprenderlo?

Dovremmo chiederlo agli ingegneri. Potremmo però ipotizzare che le metriche di engagement on site degli utenti, a questo punto, siano davvero importanti.

Potenzialmente tutto ciò che è contrario al concetto di qualità inteso da Google, per la soddisfazione dell’esigenza di ricerca degli utenti, diventa secondario e quindi non deve essere posto al top delle Serp.

  • bassa qualità dunque del contenuto;
  • bassa qualità dell’esperienza di navigazione utente, intesa a 360°, come anche tempi di caricamento e composizione delle pagine, banner e popup frustranti, ecc.

Algoritmi di apprendimento (e anche inesatti)

Quando Google tira fuori un algoritmo non è mai certo che questo sia perfetto. Gli algoritmi possono infatti avere dei falsi positivi. Nel mio precedente post citavo due siti meteoweb.eu e ilfattoquotidaino.it (sito di bufale).
Bene, mentre con l’update di Marzo, questi due siti sembravano essere stati (immotivatamente) premiati ora il “tiro” per entrambi risulta essere aggiustato, con il successivo “grosso” update di Maggio. Qui sotto la stima del traffico organico per ilfattoquotidaino.it.

Le correlazioni col Panda

Ho osservato un altro strano comportamento su un sito colpito dal Panda Update nel 2012 e che non è mai stato “modificato” da allora. É rimasto dunque così com’era in tutti questi anni.
Consideriamo che aveva perso oltre il 70% di organico.

A partire da Febbraio di quest’anno, lo stesso sito è in crescita. Non parliamo di un recupero, ma comunque di una crescita.

non posso conoscere le motivazioni di questi fenomeni, ma a questo punto è possibile ritenere che ci siano correlazioni tra i due algoritmi. Entrambi gli algoritmi, infatti, avevano l’obiettivo di colpire i siti di bassa qualità.

Considerazioni.

In questi mesi ho osservato diversi siti colpiti per ragioni apparentemente differenti e ho letto buona parte della letteratura SEO presente in merito. Quello che però sembra emergere nelle altre letture è, spesso, la “semplificazione” dello scenario che abbiamo di fronte.
C’è chi è certo che il problema stia tutto nell’eccesso di advertising, chi solo nel contenuto, ecc. In realtà, come ho già scritto sopra, non c’è un unico schema riconducibile che ti permette di diagnosticare, con precisione, la causa.
Questi update possono colpire qualsiasi tipologia di sito (statico, monopagina, blog, di news, ecc.) in qualsiasi tipologia di nicchia, siti con alti o bassi volumi di traffico, siti nuovi o siti “anziani”.

Ogni sito ha una sua personale cartella clinica e va analizzato singolarmente. Inoltre, non è possibile dare garanzie di recupero da questo update se il tuo sito è stato colpito (in linea di massima non se ne davano neanche per Panda o Penguin) perché se Google ha deciso che il tuo sito non offre nulla di più agli utenti che gli altri siti sono in grado di offrire meglio, allora il tuo sito non ha ragione di esistere, almeno nelle posizioni/pagine Top per Google.

Bisogna armarsi di pazienza, effettuare un Audit e cercare di risolvere OGNI problema, tecnico e contenutistico, che possa affliggere l’esperienza utente.

Un parere in più: la parola a Filippo Jatta SEO di Jfactor.it

Traffico da Google in calo: gli elementi colpiti da Fred

Filippo Jatta
L’aggiornamento Fred ha mietuto moltissime vittime: arrivato come un fulmine a ciel sereno ha colpito molti siti web, limitandone la visibilità e il posizionamento su Google.
Contrariamente a quanto avviene con gli aggiornamenti più noti (Panda, Penguin, ecc), i SEO hanno faticato nell’individuare gli elementi colpiti dall’aggiornamento, e sia negli USA che in Italia ci sono state molte teorie portate avanti.
E’ quindi doveroso fare 3 premesse:

1) l’aggiornamento Fred è un quality update, che a mio parere somiglia molto ai famosi “Phantom”. Io personalmente, infatti, lo considero un nuovo “Phantom”;
2) questo update non colpisce i siti in base ai link in entrata che questi ricevono, ma la qualità dei siti web;

3) l’aggiornamento colpisce diversi elementi del sito web, e in questo articolo voglio approfondire quella che è stata la mia esperienza personale in merito.

Sottolineo che mostrerò quella che è stata la mia esperienza diretta, senza ripetere tutte le informazioni studiate online.
Fred è un update di Google che valuta:

  • il rapporto tra contenuto e quantità di ads su una pagina web;
  • il contenuto delle pagine dei siti web;
  • la search intent delle ricerche e la sua coerenza con le pagine web.

Fred ha colpito il posizionamento su Google di molti siti web colpevoli di presentare una quantità eccessiva di pubblicità. Tuttavia nella mia esperienza specifica non ho avuto a che fare con siti web colpiti per tal motivo.
Non ho infatti dovuto analizzare siti che presentavano una quantità eccesiva di ads ed erano stati per questo motivo colpiti.
In base ai miei studi la quantità di ads è un elemento cui stare attenti per il posizionamento delle pagine web, ma non lo approfondirò in questo articolo perché non ne ho esperienza diretta.

Ciò di cui, invece, ho avuto esperienza diretta, riguarda il contenuto delle pagine web e la search intent delle ricerche.
L’aggiornamento Google Fred e i contenuti delle pagine web.
Un elemento comune di diversi siti colpiti dall’aggiornamento è quello di una sorta di “sovraottimizzazione” delle pagine.
La keyword density non è fattore di posizionamento su Google, e questo lo sappiamo ed è appurato.

Alcuni aggiornamenti di Google (anche i famigerati Panda) sono andati a colpire in passato i “thin content”, ovvero i contenuti inutili, pubblicati magari al solo scopo di posizionarsi per una determinata ricerca, e che non offrivano valore reale al visitatore.
Bene, ciò che ho notato è che Google ha stretto ulteriormente la morsa sulla questione, andando a colpire contenuti che presentavano un’eccessiva ripetizione di parole chiave all’interno del testo.

Una kw density che rende il contenuto pesante da leggere, e che è pensata per il motore di ricerca anziché per i visitatori.
Google, pian piano, sta imparando a comprendere il contesto e l’argomento di un articolo, e ha sempre meno necessità che gli venga presentata la parola chiave di continuo.
A seguito di ciò, una ripetizione di parole chiave che prima era accettata dal motore di ricerca, ora non lo è più.
Un caso eclatante è stato quello di un sito di medicina da me esaminato, che dopo aver ripulito i contenuti (e aver eliminato le parole chiave in eccesso) è arrivato di colpo in prima pagina su Google per la parola chiave obiettivo.
Parola chiave per la quale prima era lontanissimo dalla prima pagina.

Come risolvere il problema dei contenuti

Ciò che consiglio quindi è un uso oculato dell’ottimizzazione.
Le kw obiettivo vanno certamente inserite nei punti più strategici e potenti, come il titolo, la url, l’h1, l’alt dell’immagine ecc.
Ma va evitato di ripetere la stessa parola chiave troppe volte nel testo, tanto non serve per posizionarlo sul motore di ricerca.
Se il contenuto che scriviamo è piuttosto lungo e diviso in paragrafi titolati, poi, è inutile (se non dannoso) ripetere la keyword in ognuno dei tanti h2 inseriti.
Queste ripetizioni possono infatti non essere gradite a Google, che potrebbe sentirsi “preso in giro” e danneggiarci con un peggioramento del ranking.

Google e la search intent

Il quality update di Google ha cercato di migliorare le serp, rendendole più coerenti con la “search intent”.

Cosa si intende per search intent?
Non è altro che l’intento di ricerca, cioè ciò che il visitatore vuole quando cerca qualcosa sul motore di ricerca.
Facciamo un esempio.
Se cerchiamo su Google “migliori macchine caffè” otterremo come risultati molti blog, perché chi effettua questa ricerca ha come intento la raccolta di informazioni.
Google comprende la necessità di ottenere informazioni da parte del navigatore, e risponde quindi con una serie di blog che offrono articoli, appunto, informativi.

Se cerchiamo “macchine caffè” (senza la parola “migliori”) otterremo come risposta, invece, molti e-commerce.
Chi cerca “macchine caffè”, infatti, è probabilmente alla ricerca di un prodotto da acquistare. Per questo motivo Google posiziona e mostra e-commerce e comparatori di prezzo e non articoli che offrono informazioni.
Bene, detto questo, l’ultimo aggiornamento di Google è andato a lavorare sulla search intent, cercando dunque di mostrare ai visitatori qualcosa di più adatto a ciò che viene cercato.

La mia esperienza è questa: ho analizzato alcune pagine web ben posizionate e corpose che hanno perso traffico (mediamente il 25-35%).
La prima cosa che ho fatto è stata controllare se tali pagine avessero perso posizionamento per le loro ricerche principali.
Ho constatato, però, che il posizionamento per le ricerche con il volume di traffico maggiore era pressoché intatto.
Il motivo della perdita era quindi dovuto a ricerche con volume più piccolo, le famigerate long tail. Questo teoria è confermata anche da Ivano di Biasi in un articolo su SeoZoom.
Analytics ormai non offre più dati soddisfacenti sulle ricerche, quindi non mi è stato utile nell’individuazione delle ricerche per le quali era stato perso posizionamento.

Ho quindi utilizzato Seo Zoom per individuarle.
In alcuni casi la ricerca è stata semplice, mentre in altre no: le ricerche che non portavano più traffico erano talvolta molto piccole (10-20 ricerche mensili), e questo ha reso molto lunga la ricerca.
Google pare dare più rilevanza ad articoli specifici, che meglio vanno ad approfondire determinate sfumature.
Ad esempio se parliamo di un argomento molto ampio, come il caffè, potremo posizionarci con un pillar article, cioè con un contenuto molto approfondito.
Per ricerche più specifiche, come ad esempio le proprietà del caffè, o i sintomi da una sua eccessiva assunzione, il motore di ricerca invece ora preferirà spesso articoli specifici, dedicati a questi precisi argomenti.

Come ho risolto il problema delle long tail kw

In questo caso si può risolvere il problema agendo sull’alberatura del sito web.
Quello che consiglio è di mantenere l’articolo originale intatto, dato che continua a posizionarsi su Google per ricerche generiche relative all’argomento, e di creare articoli di approfondimento specifici, per ognuno degli argomenti individuati per i quali il traffico è stato perso.
A questo punto è fondamentale linkare dal pillar article (che gode di trust) verso questi altri articoli specifici, in modo tale da passarvi link juice.

Il risultato non è una ripresa di traffico del pillar article (che continuerà a non posizionarsi per le ricerche specifiche di tipo long tail), ma una ripresa del traffico complessivo, grazie alla presenza del nuovo contenuto specifico creato.
Come già sottolineato ci sono altri aspetti colpiti da Fred, come l’eccessiva presenza di ads, ma in questa sede mi sono limitato a esporre cause e soluzioni relative a casi che ho avuto l’effettiva opportunità di analizzare di prima persona.

Co-founder dell'agenzia, laureato in Marketing e Comunicazione d'azienda. Professionista SEO e autore del libro "Content Marketing per Blog, Social e SEO".Da quindici anni, progetta strategie digitali orientate allo sviluppo di visibilità online. Come consulente SEO ha lavorato in prima persona a differenti progetti complessi in settori ad elevata competizione, costruendo da zero progetti da oltre 20 mila visitatori giornalieri.Segue costantemente tutti gli aggiornamenti algoritmici di Google, di cui scrive poi regolarmente le sue analisi su questo blog e si occupa di seguire siti web che perdono traffico organico individuando problematiche e fornendo strategie risolutive.E' speaker alle più importanti conferenze nazionali sulla SEO e web marketing (Convegno GT, Search Marketing Connect, SMXL, BeWizard, ecc.) oltre ad aver formato numerosi SEO di aziende ed agenzie in corsi di formazione super avanzati. Scrive di SEO anche sul blog ufficiale di SEMrush.

Guarda tutti i post di

Vuoi dire la tua?

5 risposte a “I Quality Update di Google: osservazioni con dati alla mano”

  1. Up SEO ha detto:

    Non penso che i risultati di Google hanno peggiorato, anzi…migliorano anno dopo anno. Questo è lo scopo principale di Google. Punti di vista interessanti nell’articolo.

  2. La mia sensazione è che siano stati mollati gli ormeggi. Google adesso funziona dinamicamente, in tempo reale, spostando il ranking di continuo in base a tutto quello che succede. È il caso di abituarci a queste fluttuazioni e magari concentrarci su cose che prima i SEO non avevano mai preso in considerazione.

    • Dario Ciracì ha detto:

      Si, infatti le fluttuazioni sono continue. Anche su questo stesso blog sul quale abbiamo sempre prodotto “qualità” 🙂 Eppure a fluttuare sono proprio quelle query per le quali ci sono pagine più recenti o più appropriate a rispondere meglio. Purtroppo però, non sempre è così e non sempre la modifica è azzeccata.

  3. Esperto SEO ha detto:

    Confermo su tutta la linea l’analisi di siti statici. Sulle news non ho avuto scossoni ma non è mai detto. Giù anche le directory. Confermo che le prove sono tutte sul search intent ma con scarsi risultati. Molte serp secondo me sono peggiorate. Altre si muovono molto anche in più momenti della giornata. Vedo siti come lercio, Rai e altri molto trustati su chiavi di nicchia estrema e con pagine che minimamente rispondono all’intento tipico dei miei utenti. So solo che sto pian piano riprendendo posizioni su chiavi in cui dal primo posto sono stato sbattuto in 2° pagina e i miei utenti mi vengono a cercare li. Il traffico è calato ma di pochissimo in confronto alla posizione che ho adesso. Il che significa che adesso è Google che sta offrendo contenuti di bassa qualità. Le sue serp sono peggiorate. Questo è solo il mio punto di vista. Complimenti per l’analisi. A entrambi

    • Dario Ciracì ha detto:

      si infatti sembra che il trust faccia comunque la differenza e che cerchino di migliorare la risposta all’intento di ricerca. Es. su un sito di opinioni prodotti, le posizioni perse riguardano proprio il nome del brand “secco”, dove è salita la landing del sito ufficiale del brand. Cercando “nome brand + opinioni” è rimasta su la landing del nostro sito.
      Da qui la supposizione del miglioramento della risposta all’utente.

      Purtroppo però, per altri siti non viene sempre rispettata questa regola. Secondo me ora stanno dando molto più peso di prima ai dati di engagement degli utenti sul sito.

Rispondi a Dario Ciracì Annulla risposta

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.