Google Penguin Update: paure, rischi e nuove opportunita’
A partire dal 24 aprile scorso, Google ha annunciato il nuovo aggiornamento dell’algoritmo che è stato poi chiamato Penguin Update. Ogni volta che c’è un aggiornamento di algoritmi in rete, oltre a scatenarsi il panico nei forum, si crea molta disinformazione e confusione. Le modifiche apportate agli algoritmi di Google sono decine e decine nel corso di un solo mese e quelle più importanti prendono dei nomi, a volte bizzarri, per meglio identificare dei cambiamenti un po’ più importanti. Mentre quello lanciato lo scorso anno, Panda, puntava a contrastare le content farm, il Penguin ha invece l’obiettivo di combattere, ancora una volta il web spam.
A questo link potete trovare tutti i principali cambiamenti algoritmici di Google dal 2000 ad oggi e per avere una informazione “non viziata” su Google&SEO vi consiglio di aggiornarvi da fonti autorevoli quali SeoMoz, Search Engine Land, Search Engine Watch e Seroundtable, solo per citarne alcuni o se non vi piace l’inglese c’è il Seo Blog di Giorgio Tave o le discussioni avviate da Enrico Altavilla nei suoi profili social.
Veniamo al Penguin Update e alle sue paure. Molto è stato già detto in merito e sintetizzando, questo algoritmo punta a pulire meglio le serp dallo spam. Questo obiettivo in realtà lo si cerca di raggiungere da sempre, ma gli spammer elaborano di volta in volta nuove tecniche che spingono di conseguenza Google a elaborare e modificare gli algoritmi.
Tra le caratteristiche in comune dei siti colpiti dal Penguin Update pare ci siano:
onpage:
- keyword stuffing;
- uso eccessivo di nomi di dominio con parola chiave esatta;
offpage:
- uso eccessivo di anchor text esatti negli inbound links;
- links provenienti da siti di article mktg/comunicati di bassa qualità;
- links provenienti da network di blog e circuiti di siti a pagamento.
Che le tecniche sopra citate non piacessero a Google lo si sapeva ormai da qualche anno, ma che ci potessero essere problemi anche per quei siti che hanno operato sempre in white hat, quello no, non era prevedibile. Dai forum è emerso in fatti che siti web, potenzialmente puliti (almeno da quanto dicono) siano stati penalizzati o avvisati via mail (da Google Webmaster Tool) della presenza di link non naturali che “tendono a modificare il PageRank”. Questo fa capire come anche l’algoritmo non sia mai esatto e come non sempre possa funzionare a dovere. E’ stato infatti messo a disposizione dei webmaster un form per la richiesta di riconsiderazione del proprio sito, anche se non so quanto possa realmente essere “riconsiderato” un sito data l’automazione dell’aggiornamento e la folta lista di siti che potrebbero sentirsi ingiustamente colpiti dal Penguin.
E’ interessante, in merito, l’analisi sulla distribuzione degli anchor text degli inbound links effettuata da Microsites Masters su un campione di siti presi in esame che sembrano essere stati penalizzati da Penguin. L’analisi ha cercato di capire fino a quale percentuale è possibile fare link building, con la parola chiave esatta di interesse, prima di essere penalizzati. Parrebbe infatti che fino al 60-65% di link con la parola chiave di interesse si potrebbe lavorare bene e stare tranquilli. Sono tuttavia dati da prendere con le pinze e probabilmente da valutare anche caso per caso, serp per serp (competitività della serp, keyphrase).
In effetti il timore principale del Penguin risiede nei link e nel collegamento testuali di questi. Infatti mentre per il keyword stuffing (tecnica ormai vietata da anni anche se poi capisci che Google è imperfetto quando vedi siti del genere posizionarsi ottimamente per la keyword “something”) è possibile agire manualmente sul proprio sito e cercare di ripristinare la situazione, per i link è un po’ più complesso. Possiamo magari agire sui siti link acquistati, su quelli che abbiamo inserito nei nostri network di siti, ma come fare se i link sono giunti in maniera spontanea ed è quasi impossibile contattare ogni singolo webmaster per richiederne la rimozione? Il problema è qui.
Pur non essendoci (per ora) guide risolutive per ogni caso (ogni caso dovrebbe essere analizzato bene nei dettagli), i tizi di SeoMoz hanno dato alcune indicazioni che potrebbero tornare utili a tutti per capire, in caso di presunta penalizzazione, se il problema lo si è creato con le proprie azioni seo o meno.
Indice dei contenuti
Controllare la velocità di acquisizione dei link
Utilizzando servizi professionali come Majestic SEO, OpenSiteExplorer o ahrefs è possibile dare un’occhiata al proprio link graph per avere grafici, come quello sotto riportato, della velocità di acquisizione dei links. E’ evidente che una situazione come quella sotto riportata, dovrebbe destare preoccupazione.
Link ripetuti e presenti in più parti di una pagina
E’ necessario controllare anche quei link che si duplicano, come quelli inseriti nei blogroll, o nei footer che risultano poi essere ripetuti. Utilizzando Google Webmaster tool sarà possibile vedere quali sono quei siti che presentano questa situazione ed eventualmente mobilitarsi.
Controllare la distribuzione degli anchor text dei links
Questa è la parte che porterà via più tempo poiché oggetto di più analisi. Prima di arrivare a valutare la distribuzione delle ancore testuali dei link bisognerà filtrare ed escludere dall’analisi:
- i link morti;
- i domini linkanti deindicizzati per qualche motivo;
- i link impostati sul nofollow;
- tutti quei link che si duplicano su una o più pagine.
Una volta ottenuta la lista di link “puliti” e filtrati, andranno organizzati sulla base di:
- link con parola chiave esatta di interesse;
- link con parola chiave a corrispondenza generica;
- link con parola chiave del brand + parola chiave di interesse;
- link presente in un’immagine;
- link non ottimizzato (es. clicca qui).
Anche in questo, bisognerà preoccuparsi se, dopo i filtri applicati la situazione evidenziata sarà come quella evidenziata nel grafico qui sotto.
Opportunità per i marketers
Quando ho iniziato a fare seo, con una formazione prevalentemente da marketer e non da developers, mi sentivo dire che il seo era una figura che nasceva come developers e che per farlo dovevi possedere capacità da sviluppatore, server administrator, conoscere più linguaggi di programmazione ecc. Più passa il tempo più vedo come le capacità di marketing stiano diventando un mio vantaggio competitivo e come la situazione si stia invertendo: ovvero sono i tecnici che stanno acquisendo (nel bene e nel male) capacità di marketing e relazionali di community. Più passa il tempo e mi convinco che il content marketing e la costruzione di senso e di relazioni di community guiderà il futuro del motore di ricerca. Anche perché sono le cose più difficili che uno spammer possa intaccare.
Quindi il mio suggerimento è di (se non lo fate già) lasciar perdere i trucchetti seo classici da mago Otelma e di darvi alla produzione di contenuti di valori. Ogni pagina web dovrebbe presentare un valore per l’utente e i link e i social signals saranno veri e propri apprezzamenti. Questo però non significa che non dovrete curare i siti web: grafica pulita, codice pulito e non appesantito, velocità di caricamento, hosting di fiducia e una particolare attenzione ai contenuti duplicati e da “canonicalizzare” resterà sempre importante. Ma invece di perdere tempo a fare article mktg e/o comprare link, costruire networks ecc. io mi impegnerei sulla produzione di contenuti (ricerche, infografiche, post, presentazioni, widget utili, apps mobile, ecc.) che possano attrarre link in modo naturale e nei social media, creando relazioni, engagement, vere e proprie comunità di senso e di interscambio informativo con l’utente.
Ciao,
abbiamo sviluppato e rilasciato gratuitamente alla comunità SEO il nostro tools Google Penguin: Backlink e Anchor Text Analyzer – Free Tool all’indirizzo http://www.googlepenguin.it
Lo strumento effettua già in automatico la maggior parte delle cose che illustri in questo interessantissimo articolo e credo che se ti interessasse apportare un po’ del tuo valore al progetto (FREE) potrebbe nascere un’interessante collaborazione.
Prova lo strumento e fammi sapere se sei interessato a dare qualche nuova idea, nuovi report, nuovi calcoli che possano aiutare i SEO a districarsi nel mondo della Link Building di Valore…
Ottimo articolo, anche se ha solo una pecca, per chi lavoro in questo campo a volte si ritrova con un cliente che ha un sito base e vuole ottimizzarlo e considerare la seconda parte porta con se un costo notevole che il cliente non può permettersi.
Quindi ci si limita solo alla prima parte
Scusa non ho capito una cosa. Perchè dovrei rimuovere il link nel footer di un sito web che ho sviluppato? Mi sembra una cosa stupida. ovvio che google conterà quel link come 1 e non come 10000 (se il sito web ha 10000 pagine) ma non mi sembra corretto rimuoverlo.
Ciao @google-4b5fe8bef34f29ad3a822e44f1441b12:disqus , li non si parla di rimuovere link dal footer (tipo i link di siti che si è sviluppati). Ma ci sono casi in cui, siti inseriti nei blogroll vengono ripetuti perché magari presenti anche nel footer, o nelle instetazioni, o negli archivi, ecc. Questo potrebbe (dico potrebbe perché non se ne ha la certezza) destare sospetto a Google, data la natura dell’ultimo update ovvero di essere contro il webspam e l’overoptimization. Motivo per cui si parla di vedere da GWT se ci sono siti che puntano ai nostri ripetendo lo stesso link in più sezioni del sito.
[…] Negli ultimi 2 mesi sei stato ospite di una famiglia venusiana e non hai idea di cosa sia il Penguin Update? Si tratta di un aggiornamento dell’algoritmo di Google per combattere il webspam: keyword […]
Ottimo articolo!