SEO

Gli 8 errori SEO più gravi da correggere il più presto possibile

Articolo redatto in collaborazione con SEMrush

Devi lavorare per mesi, a volte anche anni, per ottenere i risultati desiderati dei tuoi sforzi SEO. Anche quando il tuo lavoro di ottimizzazione è svolto, nulla potrà garantirti che sarai abbastanza in alto nelle serp per le parole chiave di tuo interesse, soprattutto se il tuo sito ha gli errori che danneggiano gli sforzi di ottimizzazione. Fortunatamente, non ci sono problemi irrisolvibili. Nel suo recente studio sui problemi più comuni della SEO on-site, effettuato con lo strumento Site Audit, SEMrush ha scoperto quali sono i 40 errori di SEO tecnico più comuni.

Certamente tutti questi errori sono importanti per la salute del sito, ma in questo post parliamo dei top-8 più pericolosi, sui quali ci si dovrebbe concentrare maggiormente e spieghiamo perché siano emersi questi problemi e come superarli.

Errore 1: Bassa velocità di caricamento della pagina

La velocità della pagina è un importante fattore di posizionamento, influenzato sia dal server sia dalle prestazioni della pagina. Per ovvi motivi è una delle cause più grandi di aumento della bounce rate. Di conseguenza è necessario ottimizzare l’HTML riducendo script e fogli di stili, cercando di mantenere le dimensioni della pagina al minimo. Uno dei modi per ottenere ciò è usare sistemi di compressione come gzip o deflate. Condensare HTML, CSS e Javascript non può che far migliorare notevolmente la velocità di caricamento, ma ci sono anche dei lati negativi legati a impostazioni complicate e problemi con i browser meno aggiornati.

Le immagini in genere hanno il peso maggiore all’interno di una pagina; di conseguenza è essenziale ottimizzarle per aumentare la velocità. Ci sono molte variabili da prendere in considerazione (qualità dell’immagine, risoluzione, formato, ecc.) ma, innanzitutto, è necessario valutare se il contenuto visivo è davvero necessario per la pagina. Se la risposta è sì, allora elaborate a dovere le immagini utilizzando lo strumento di grafica che preferite. Provate a ottenere la dimensione del file più bassa possibile mantenendo, allo stesso tempo, una qualità accettabile. Prendete in considerazione la possibilità di usare la grafica vettoriale; è un ottimo modo di snellire le immagini geometriche. Inoltre, visto che la velocità della pagina è ancora più importante sui dispositivi mobili, è necessario configurare l’area di visualizzazione e scalare le immagini per schermi differenti.

Ricorda, meglio sempre caricare sul server immagini già scalate, anziché lasciare lo sforzo di ridimensionamento delle stesse al server e fai attenzione a dichiarare sempre le dimensioni di altezza e di larghezza delle immagini.

Se le dimensioni delle immagini non sono specificate o non corrispondono a quelle reali, il browser richiederà un reflow e dovrà aggiornare la pagina una volta che le immagini vengono scaricate, rallentando la navigazione e peggiorando l’esperienza utente.

Per maggiori e più ampie informazioni consultare le raccomandazioni di Google per l’ottimizzazione della velocità della pagina.

Errore 2:  Dominio configurato in modo errato

Un’altra preoccupazione in quest’ambito è data dai redirect temporanei. In superficie sembrano funzionare allo stesso modo di quelli permanenti ma, quando si usano i redirect 302/307 invece del 301, i motori di ricerca mantengono indicizzata la vecchia pagina e il pagerank non viene trasferito alla pagina nuova (nota di Dario Ciracì: in realtà circa un anno fa Gary Ilyes di Google ha dichiarato che il Page Rank non viene perso utilizzando qualsiasi tipo di redirect).

Tieni in conto il fatto che i bot di ricerca potrebbero considerare il vostro sito con WWW e senza WWW come due domini separati. Di conseguenza dovrete impostare i redirect 301 verso la versione preferita e indicarlo nella Google Search Console.

Errore 3:  Catene e loop di redirect

Catene e loop di redirect confonderanno i crawler e saranno frustranti per gli utenti a causa dei tempi di caricamento aumentati. Inoltre si perde un po’ del pagerank originale con ogni redirect. Questo è un tabù assoluto per qualunque proprietario di un sito web, tuttavia gli errori di redirect tendono a scivolare tra le maglie del sistema e ad accumularsi: è necessario quindi verificare i link sul vostro sito periodicamente.

Per approfondire questo aspetto, ti consiglio di leggere il mio articolo sulle catene di Redirect.

Errore 4: Formato nel file robots.txt

Ci sono molte ragioni che possono impedire l’esplorazione dei bot di ricerca. Il file robots.txt può impedire a Google di eseguire il crawling e l’indicizzazione di tutto il sito o di pagine specifiche. Nonostante non sia fondamentale per il benessere del sito avere il file robots.txt, averlo può aiutare ad aumentare la velocità di crawling e di indicizzazione. Bisogna però stare attenti agli errori, visto che Google potrebbe ignorare pagine importanti del vostro sito oppure esplorare e indicizzare pagine non necessarie (es. il carrello degli ecommerce). Nonostante strutturare un file robots non sia una cosa difficile, gli errori di formattazione sono molto comuni. Riga User-agent vuota, sintassi errata, direttive non corrispondenti, elencare ogni file anziché bloccare l’indicizzazione per l’intera directory o elencare più directory in una singola riga.

Meglio escludere dal crawling le pagine temporanee e le pagine private che sono visibili solo da certi utenti o amministratori, così come le pagine senza contenuto di valore. Tuttavia il file robots.txt non è una direttiva rigida ma piuttosto un suggerimento e, a volte, i bot potrebbero ignorarlo.

Per saperne di più in merito ai file robots, leggete attentamente il Manuale di Google sul file robots.txt. Inoltre, se volete convalidare un file esistente, potete usare il Tester per file robots.txt.

Errore 5: Contenuti duplicati

È risaputo che un buon SEO significa contenuti di qualità. Contenuti rimaneggiati o perfino copiati di rado risultano di valore per l’utente e possono danneggiare il posizionamento in modo significativo. Di conseguenza dovrete ispezionare il vostro sito web alla ricerca di pagine identiche o quasi identiche e rimuoverle o sostituirle con pagine uniche. Le pagine devono avere almeno l’85% di contenuti unici.

Se in alcuni casi i duplicati sono appropriati, per evitare la cannibalizzazione (più pagine cercano di posizionarsi per le stesse parole chiave) è necessario indicare le pagine secondarie con il tag rel=”canonical” collegandole con quella principale. Questa è una preoccupazione comune dei portali di e-commerce, dove le pagine relative ai prodotti e gli elenchi di prodotti ordinati in vario modo appaiono come duplicati. A volte, quando l’URL ha dei parametri, potrebbe essere indicizzata come una pagina separata, creando di conseguenza un duplicato. Per prevenire ciò c’è bisogno di aggiungere un rel canonical che punta alla versione pulita dell’URL.

Per comprendere meglio tutte le tipologie di contenuti duplicati, i problemi che implicano e come gestirli, ti consiglio la lettura di questo mio articolo specifico.

Errore 6: Meta description duplicate

Se il tag title è la copertina della vostra pagina, che viene mostrata nei i risultati di ricerca, la  meta description è la quarta di copertina che la venderà per un click. Ovviamente se la meta description è mancante la cosa non influenzerà il vostro posizionamento: Google ne inserirà una per voi. Probabilmente però il risultato non sarà il più rilevante e accattivante e di conseguenza potrebbe abbassare il CTR (Click To Rate).

Tuttavia, in molte occasioni potrebbe essere poco conveniente o non necessario inventare una descrizione unica per ogni pagina. In questo caso ti dovresti concentrare sulle ben più importanti landing page e lasciare tutto il resto alla generazione automatica.

Creare un sommario chiaro ed efficace è un’arte, ma tieni presente che avere delle descrizioni copiate e incollate è peggio che non averne affatto. I duplicati potrebbero ostacolare la capacità dei crawler di distinguere la rilevanza e la priorità di una pagina.

 Errore 7: Errori di formato nel file sitemap.xml

Creare e inviare una sitemap a Google Search Console è un ottimo modo di aiutare i bot a navigare attraverso il sito web in modo più veloce e per ottenere aggiornamenti su un contenuto nuovo o modificato. Quasi ogni sito contiene alcune pagine funzionali che non hanno posto nell’indice di ricerca; la mappa del sito è il modo di evidenziare le landing page che vorresti indicizzare nelle SERP. La sitemap non garantisce che le pagine elencate vengano indicizzate e che quelle non menzionate vengano ignorate dai motori di ricerca, ma renderà effettivamente più facile il processo di indicizzazione.

È possibile creare una mappa del sito in formato XML manualmente, generandola con il CMS o con uno strumento di terze parti. I motori di ricerca accettano solo mappe del sito di dimensioni inferiori a 50 MB e che contengano al massimo 50.000 url; quindi, se avete un sito web molto grande, potreste avere bisogno di creare mappe aggiuntive. Potrete saperne di più in merito alla gestione di mappe del sito multiple attraverso queste linee guida.

Errore 8: Title Tag mancanti

L’importanza del tag title è abbastanza ovvia: in generale è il primo richiamo che si vuole dare a una persona che sta scorrendo la pagina dei risultati di una ricerca. Di conseguenza è necessario creare title tag accattivanti e, cosa più importante, univoci per ogni pagina, in modo da orientare le ricerche e i crawler. I titoli duplicati possono confondere gli utenti sulla pagina web da aprire, oltre che cannibalizzare le keyword.

Quando avrai scritto un titolo perfetto, semplice e descrittivo, dovrai controllare la reazione di Google, visto che potrebbe comunque trovare il title tag non pertinente alla pagina e alla query e riscriverlo completamente. C’è anche la possibilità che Google aggiunga il nome del tuo brand al titolo in modo casuale, tagliandone così la parte finale.

Tra tutti gli errori menzionati nel post, non ci sono quelli che non si può evitare o correggere, ma ovviamente è necessario controllare con regolarità la salute e il benessere del proprio sito web. Così non rischi di arrivare a un punto critico in cui tanti piccoli errori vengono ad accumularsi e producono un effetto valanga.

Co-founder dell'agenzia, laureato in Marketing e Comunicazione d'azienda, ha fatto dei Motori di Ricerca e dei Social Media la sua passione. Esperto di Content Marketing e autore del libro "Gestisci Blog, Social e SEO con il Content Marketing" si occupa di sviluppare strategie digitali finalizzate alla crescita di visibilità e fatturati di grandi aziende e Pmi.

Guarda tutti i post di

Area di discussione: dicci la tua!

Grazie per lo share!

Puoi decidere di non perdere neanche un contenuto del nostro blog!

Iscriviti alla nostra newsletter genuina.
Promettiamo solo 2 contenuti a settimana, e solo post! (NO SPAM, NO MAIL PROMOZIONALI)

Inserisci la tua mail