SEO

5 domande con risposte sulla Link Building utili (anche) nel 2023

Sembrano ormai davvero lontani gli anni in cui Matt Cutts annunciava il rilascio di un update algoritmico che interessava i link o gli anni in cui Penguin iniziò a fare strage di siti e portali cambiando radicalmente le regole del gioco della link building.

Eppure, proprio ieri, John Mueller di Google ha annunciato che SpamBrain, il sistema di prevenzione dello spam basato su AI di Google, è ora in grado di “lavorare” anche nel riconoscere e neutralizzare in automatico i link spam o ritenuti di bassa qualità (qui il link alla notizia). Potenzialmente, per link di bassa qualità e non naturali sono da intendersi tutti quelli che hanno l’obiettivo di manipolare le Serps a beneficio di una pagina web. C’è da capire se saranno in grado, ad esempio, di neutralizzare quei link provenienti da siti web di bassa qualità o se baseranno la loro azione sulle keyword presenti nell’anchor text. L’algoritmo verrà rilasciato in circa due settimane, nel mese di dicembre e riguarderà tutte le lingue.

Facendo un passo indietro, esattamente dieci anni fa fu presentato l’algoritmo Penguin, il cui rilascio è stato annunciato da Google regolarmente fino ad ottobre 2016, quando è diventato everflux, ovvero è stato integrato nell’algoritmo principale di Google.

A vedere l’evoluzione in dieci anni di Google nel contrasto della Link Building Spam, sembrano lontani i ricordi di chi è stato anni fa colpito dalle azioni manuali per link in entrata. Eppure di fatturati, aziende e progetti collegati, ne sono andati persi diversi. Oggi sembra così facile e sicuro fare link building e noto una certa “faciloneria” nelle modalità di farlo di taluni, che denota una mancanza di conoscenza di tutto quello che negli anni è stata l’evoluzione della link building, delle grosse batoste prese da chi è rimasto vittima dell’algoritmo Penguin o è stato colpito da una sanzione manuale commissionata dai membri del Quality Analyst di Google. Purtroppo di tutto questo è all’oscuro chi ha iniziato a fare SEO da meno di dieci anni.

Per fare un esempio, solo dieci anni fa sarebbe stato impensabile vedere intere liste di siti con relativi prezzari e con tanto di promo “black Friday”, “saldi”, “Natale, ecc. condivise con naturale tranquillità nei gruppi Facebook. Avrebbe significato dichiararsi a Google come link seller e richiedere a gran voce di essere penalizzato. Come se fossimo dei rapinatori e subito dopo il furto andassimo a costituirci alle autorità.

Google in passato era stato in grado di smontare interi network privati costruiti facendo attenzione a non lasciare ogni minima traccia (footprint) che potesse essere un template simile, una classe C dell’indirizzo IP del server, l’intestatario dei domini, l’assenza di link tra i siti del network, ecc. ed erano addirittura stati smontati siti tra di loro non collegati, perché appartenenti a legittimi proprietari, semplicemente perché partner in accordo con brand che ne permettevano la vendita di guest post (chi si ricorda delle piattaforme Teliad e Rankseller)?

Ora, che ne è stato di tutto questo? Google è diventato più buono? I link non funzionano più? Quali sono i criteri utili a classificare la bontà di un link esterno? Meglio un link da sito editoriale o vanno bene anche domini riattivati con un buon profilo link?

Proverò a rispondere a queste domande basandomi sulla mia esperienza e su tutto quello che ho appreso in questi anni confrontandomi anche con i più storici SEO italiani e con qualcuno che in Google e nel team antispam, ci ha lavorato.

Come faccio a capire se sto acquisendo un buon link?

Per rispondere a questa domanda una buona idea può essere quella di far riferimento ad un vademecum che mi piace utilizzare.

  1. Pagina di destinazione: quali pagine sono adatte per il link? (sempre necessario il contesto del link.)
  2. Unicità: esiste un’altra pagina che offre esattamente lo stesso contenuto o molto simile? La pagina linkante deve infatti offrire un contenuto unico.
  3. Soddisfazione utente: il contenuto soddisfa le aspettative dell’utente?
  4. Ragione del link: perché qualcuno dovrebbe essere invogliato a linkarci? Le motivazioni potrebbero essere diverse: l’azienda è menzionata, viene citata la fonte, vengono condivise informazioni uniche, ecc.
  5. Publisher: dove viene pubblicato il link? Sono generalmente preferibili quotidiani online, riviste online, portali specializzati.
  6. Tipo di contenuto: quale tipo di testo scegliere? Diversificare è sempre meglio per avere nel tempo un profilo link che appaia più naturale. Dunque, non soltanto link da guest post, ma anche da comment marketing, da review, da citazioni per ricerche, ecc.
  7. Selezione dell’argomento: come scegliere un buon argomento per quanto riguarda l’editore? Il link ha senso se il publisher copre già, nel suo piano editoriale, un argomento simile a quello del sito che riceverà il link.
  8. Abbinare il contenuto al publisher: come adattare il contenuto all’editore? (es. lunghezza, stile). Il contenuto che ospiterà il link dovrebbe rispettare lo stesse logiche editoriali del publisher. Dunque, se normalmente il publisher pubblica articoli da mille parole, con un certo stile di formattazione e noi pubblichiamo il nostro guest post di cinquecento parole e senza formattazione, staremo creando un pattern che insospettirà Google.
  9. Posizionamento dei link: come integrare naturalmente il link nel testo? Il link dovrebbe essere integrato naturalmente ed allinearsi agli altri link inseriti dall’editore (ad es. fonte, foto, citazione, parola chiave, frase ecc.)
  10. Anchor text: quale anchor text è il più adatto per un link naturale? Tutte le anchor text che non sembrano orientate ad influenzare un posizionamento. Quindi vanno bene “naked url”, una frase, nome dell’azienda, nome dell’azienda più la keyword, ecc.

Google ha smesso di penalizzare? Posso fare ciò che mi pare con i link?

Assolutamente no. Google ha lavorato negli ultimi anni per automatizzare sempre più i suoi processi di controllo delle Serp, servendosi del machine learning col quale è sempre più in grado di ordinare i risultati di ricerca in modo algoritmico, riducendo sempre di più l’intervento umano (in questo caso del team antispam di Google). Il primo segnale in questo senso riguardante i link si ebbe nel 2016 con l’integrazione di Penguin nell’algoritmo principale.

Mentre magari vediamo sempre meno “azioni manuali” commissionate da persone che lavorano in Google, le penalizzazioni per link continuano ad esistere. Solo che non le notiamo o, quantomeno, non con la stessa facilità di prima. Oggi, infatti, vengono rilasciati a ritmo quasi bimestrale (anche se sembra che stiamo andando verso il mensile) i cosiddetti Core Update o Quality Update, i cui “target”dell’algoritmo, ossia i segnali dei siti che vengono presi di mira, sono impossibili da conoscere. Non possiamo sapere più se colpiscono l’onsite (es. qualità e freschezza del contenuto) oppure l’offsite. Possiamo soltanto osservare come cambiano le Serp e farci un’idea delle motivazioni che potrebbero aver premiato le pagine che sono salite in Serp.

Tuttavia, potrebbero essere anche i link oggetto di uno dei core update e soltanto un’analisi accurata del singolo sito web interessato dall’update potrebbe avallarne l’ipotesi.

Quindi no, non possiamo fare quello che ci pare e non possiamo spingere siti web con anchor text esatti come se non fosse avvenuto nulla e volessimo tornare all’era pre-Penguin. Probabilmente i link piazzati in quel modo vengono ora semplicemente ignorati da Google (e con SpamBrain questa ipotesi sarà ancora più probabile), quindi staremo solo facendo arricchire i link builder di turno.

Conviene acquisire link da domini scaduti e riattivati con un buon profilo link?

Bisognerebbe sempre rispondere a questa domanda con un’altra domanda: che tematica svilupperà il dominio riattivato? Diverrà un generalista dove il publisher permetterà pubblicazioni di articoli di ogni tipologia di tematica o si nicchierà su un settore specifico?

Quante volte ti è capitato di veder condivisi screenshot di siti soggetti a campagne di link building, il cui traffico organico viene orgogliosamente mostrato in fiorente e repentina crescita ed è specificato, senza mezzi termini, che sono stati utilizzati domini riattivati (magari con un buon profilo link?).

La questione è piuttosto semplice: ogni dominio con un buon profilo link ha una buona capacità di spingere il ranking delle pagine web, soprattutto all’inizio. Quando però, col tempo, inizia ad ospitare contenuti di tematica differente, che linkano altrettante pagine di tematiche diverse, allora il suo potenziale inizia a ridursi.

Inoltre, dovremmo ricordare che se basassimo la nostra strategia di link building soltanto su questa tipologia di siti (perché, si sa, costano molto meno) ci ritroveremmo in poco tempo un profilo link del tutto generalista, a cui mancherebbero i tre concetti fondanti della link building:

  • Trust
  • Rilevanza
  • Pertinenza

“Si, ma io sto attento agli anchor text dei link, sono tutti naturali”. Non basterebbe. Perché il publisher continuerebbe a vendere link da quel sito, senza costruirci sopra un piano editoriale tematizzato su un argomento specifico. Diverrebbe dunque un contenitore di guest post che cede link e basta. Non sappiamo poi più quanto e come funziona oggi l’algoritmo Penguin. Non mi stupirebbe però sapere che l’algoritmo sia anche in grado di riconoscere la qualità dei link dalla pertinenza tematica e non solo dal mero pagerank o dall’aggressività degli anchor text.

Meglio dunque, puntare a domini riattivati ma che vengono curati a dovere, alimentati con contenuti di qualità e che sono in grado di intercettare intenti di ricerca e ricevere così traffico organico. Poi, se avete budget, vi condivido un consiglio di Markus Tandler da un convegno SEO del 2013 a cui era relatore: meglio comprare interi siti, redirectarli o, ancora meglio, costruire dei siti satellite con pertinenza tematica.

Conviene acquisire i cosiddetti super-link?

I super-link sono l’equivalente dei superpoteri di Spiderman. In realtà no, fanno molto meno effetto, ma per capirci, si fa riferimento ai link dai siti considerati “di serie A”. Siti come Wikipedia, Repubblica, Forbes, NewYorkTimes, Amazon, ecc.

Sono tra i siti più linkati al mondo e tendiamo a credere che abbiano una capacità di spinta, appunto, “super”.

In questo caso la domanda da farci è la seguente: quanto ne vale la pena? O meglio, quanto ne vale la spesa?

Consideriamo che solitamente acquisire link da questi siti richiede ingenti investimenti, che vanno dal migliaio a una decina di migliaia di euro. Come per i classici link, a fare la differenza sul ranking “diretto” sono i soliti fattori:

  • Anchor text utilizzato (chiaro che quello corrispondente alla keyword di interesse spingerà di più);
  • Prossimità della pagina/sezione che ospiterà il link rispetto alla homepage (un conto è prendere un link da una sezione/categoria principale, un altro è prenderlo da un sottodominio che sarà meno popolare e linkato).

Dalla mia esperienza con questo tipo di siti, tranne alcune eccezioni, i risultati non mi hanno mai entusiasmato più di tanto. Certo, mettere nel calderone dei link in entrata siti come Repubblica, Forbes, IlSole24ore, ecc. può far bene ad aumentarne la reputazione complessiva, ma a mio avviso il budget è meglio dirottarlo su siti più tematizzati e pertinenti.

Ah, su Wikipedia è davvero difficile riuscire ad acquisire un link. Bisogna davvero avere a disposizione un contenuto utile e pertinente alla pagina in cui cerchiamo di inserirlo, pena la sua rimozione nel giro di qualche ora da parte dei moderatori. Quando ci riusciamo, è bene comunque sapere che il link esterno è “nofollow”.

Il link è ancora il fattore SEO più rilevante?

In questo mio articolo di due anni fa scrivevo:

“se per anni SEO on site e trust di dominio (conseguenza dei link) erano i capisaldi del ranking di Google, le cose stanno cambiando”

Fino a due-tre anni fa, a questa domanda avrei risposto dicendo che non esiste competizione SEO seria senza i link. Oggi questa posizione è da rivedere. Non credo che il link sia il fattore più determinante che, a parità di ottimizzazione SEO, faccia pendere la bilancia a favore di una pagina/sito a scapito dell’altra.

I Core/Quality Update di Google hanno mostrato in questi ultimi anni una preferenza a premiare quelle pagine che hanno contenuti aggiornati, recenti, ottimamente fruibili, con poche ads o fronzoli intrusivi, in grado di soddisfare appieno l’intento di ricerca dell’utente. Questo ha mandato in secondo piano ad esempio i contenuti long form, perché possono rispondere non specificamente a un intento di ricerca ma “anche a” quello. Ma l’utente vuole immediatezza e Google premia oggi chi è in grado di soddisfare subito l’utente. Anche a scapito dei link e anche quando sono di super qualità.

Ho fatto dei test in passato linkando con buoni link, alcune pagine con contenuti non più recenti. I link premiano nel breve termine ma sembrano “scomparire” nel medio termine. Soprattutto se vengono prodotti nel web contenuti che, nonostante non abbiano link, hanno una risposta più immediata, precisa, aggiornata e pertinente allo specifico intento di ricerca dell’utente.

Dunque, com’è che si diceva? Content Is King. Ora forse vale ancora di più.

Professionista SEO, da sedici anni, progetta strategie digitali orientate allo sviluppo di visibilità online. Come consulente SEO ha lavorato in prima persona a differenti progetti complessi in settori ad elevata competizione, costruendo da zero progetti da oltre 20 mila visitatori giornalieri.

Guarda tutti i post di

Vuoi dire la tua?

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.