COME GESTIRE LE PENALIZZAZIONI SEO

I motori di ricerca si sono evoluti al fine di combattere spam, tecniche di ottimizzazione un po’ forzate, contenuti duplicati e molto ancora. Conoscere i fattori che possono provocare penalizzazioni SEO permetterà di creare progetti vincenti.
In questo articolo cerchiamo di capire insieme come gestire le penalizzazioni SEO e da cosa sono provocate.

Innanzitutto è bene capire tre concetti fondamentali che determinano un po’ le linee guida su come gestire le penalizzazioni SEO:

• penalizzazioni: comportano un declassamento in SERP del sito

• sito bannato: esclusione totale del sito nella SERP dal motore di ricerca
• filtri: il sito non viene mostrato nella SERP in base a determinate ricerche o combinazioni di keyword

Inoltre è bene sapere che esistono fondamentalmente due diversi tipi di penalizzazioni SEO manuale e algoritmiche (o automatiche).

Le penalizzazioni manuali denotano una perdita di posizioni all’interno delle SERP di Google e sono applicate manualmente generalmente dai Quality Rater di Google. Dal momento che Google rilascia spesso degli aggiornamenti è bene monitorare costantemente le modifiche per il posizionamento, innanzitutto controllando nel Google Webmaster Tools.

Le penalizzazioni automatiche sono il frutto invece del lavoro degli algoritmi di Google sempre più studiati ad hoc. Questa penalizzazione può far si che un sito web perda visibilità nella SERP per determinate parole chiave.

Le tecniche che contribuiscono alle penalizzazioni SEO

 

Link spamdexing:
Lo spamdexing è tra le prime tecniche utilizzate per creare spam al fine di manipolare artificialmente il posizionamento attraverso un lavoro sui link. È tra le prime pratiche nate prima nella fase di decollo dei motori basati sulla link popularity. La tecnica principale è la link farm che consiste nella creazione di un gruppo di siti che si linkano reciprocamente con altri collegamenti. I motori di ricerca hanno debellato questa pratica. Esiste poi un’altra pratica legata ai link che è quella della compravendita pratica assolutamente sconsigliata in quanto l’identificazione è ormai facile attraverso il matching dei link rispetto al tema del sito.

Shadow domain
Questa tecnica consiste nello sfruttare l’alta rilevanza che Google assegna al nome del dominio. Con lo shadow domain si crea un dominio ombra creato appositamente per generare traffico grazie alle keyword presenti nel dominio stesso. Questo traffico viene indirizzato su un altro e in alcuni casi i contenuti sono duplicati in quel caso si parla di mirror domain. In entrambi i casi gli effetti sono forti penalizzazioni nel ranking ed esclusione dall’indice.

Cloaking
Si tratta di un metodo per presentare contenuti differenti a seconda dell’user. In linea teorica non sarebbe così da demonizzare ad esempio viene utilizzato parzialmente per far visualizzare versioni diverse dello stesso sito a seconda del browser o della risoluzione. Il problema sorge quando se ne fa un uso scorretto: agli spider viene presentata una versione ottimizzata di un sito che quando visionato dall’utente appare diverso. Questa tecnica è pesantemente penalizzata e la sua scoperta comporta la cancellazione dall’indice.

Doorway pages
Parlando di cloaking non possiamo non citare la doorway che è una tecnica che ha ormai assunto una connotazione piuttosto negativa e una quasi identificazione con la cloaking. Il termine doorway indica più propriamente pagine o siti creati per essere posizionati nei primi risultati di ricerca relativi alle query di ricerca specifiche fatte dagli utenti. Questi elementi però possono rimandare a pagine simili dove ogni risultato rimanda fondamentalmente l’utente alla stessa destinazione.
Ecco alcuni esempi di pagine doorway:
• Diverse pagine o diversi nomi di dominio scelti come target di aree geografiche o città specifiche che rimandano gli utenti a un’unica pagina
• Pagine generate per incanalare i visitatori nella parte effettivamente utilizzabile o pertinente del tuo sito
• Pagine quasi uguali più simili a risultati di ricerca che a una gerarchia consultabile ben definita
(fonte Google Search Console)

In realtà esiste un modo per poter utilizzare questa tecnica in maniera “pulita” ad esempio attraverso la creazione di landing page limitate, di reale utilità di argomento attinente al sito che colleghino tramite link al sito stesso. In questo modo si potrà aumentare la link popularity del proprio sito senza creare spam.

Keyword Stuffing
Molto semplicemente consiste nell’eccessiva ripetizione delle parole chiave all’interno del sito. Pratica che poteva ahimè funzionare in passato per aumentare la rilevanza venivano anche create pagine con testo invisibile e contenuto composto solo dalle keyword. Esistono algoritmi in grado di fare un analisi testuale e valutare la distanza tra una keyword e l’altra in modo da decidere se si tratta di un testo scritto in modo naturale o artificioso. Inutile dire la questa tecnica porta alla penalizzazione e potenziale esclusione dai risultati di ricerca.

Testo nascosto
Le penalizzazioni per testo nascosto avvengono quando:
• il colore del testo risulta uguale o simile a quello dello sfondo
• la dimensione del font è uguale a zero o quasi
• c’è una sovrapposizione di immagini
• si utilizza il CSS o JavaScript per non far comparire il testo
Il consiglio è quello di evitare il testo nascosto per scalare in modo inappropriato la SERP.

Testo duplicato
Come suggerisce il nome stesso questa tecnica prevede l’utilizzo di testi o parti di essi identici consultabili da URL o domini differenti. Per combatterla i motori di ricerca utilizzano appositi filtri che consentono di individuare l’origine del testo e quindi se si tratta di un contenuto duplicato o meno.
Google mette a disposizione un guida dettagliata (https://support.google.com/webmasters/answer/66359?hl=it) per spiegare le principali tecniche da adottare in caso di contenuti duplicati.
Di seguito un piccola infografica pe capire come funziona l’individuazione dei contenuti duplicati

Esistono infine dei brevetti rilasciati dai motori che aiutano a capire come evitare di incappare nei contenuti duplicati:
“Methods and apparatus for estimating similarity” https://www.google.ch/patents/US7158961?dq=Methods+and+apparatus+for+estimating+similarity&hl=it&sa=X&ved=0ahUKEwitp8qEiYPSAhVI1hoKHZKHD8IQ6AEIGjAA

“Document detection in a web crawler system” https://www.google.ch/patents/US7627613

Al fine di non incappare nelle penalizzazioni SEO cerca di evitare:

Le tabelle nidificate Puntare a pagine leggere e ben strutturate, l’utilizzo di tabelle nidificate rende difficile l’individuazione dei contenuti da parte dei crawler dei motori di ricerca.

L’utilizzo dei frame. I frame sono ormai superati, con l’avvento dell’HTML è possibile avere siti ben fatti semplici ed immediati. L’utilizzo dei frame potrebbe portare ad una non corretta indicizzazione.

I redirect automatici Il redirect (https://it.wikipedia.org/wiki/Wikipedia:Redirect) se non fatto ad hoc potrebbe essere considerato dagli algoritmi come una tecnica di cloaking. A questo proposito consiglio la lettura https://moz.com/learn/seo/redirection su redirect 301 e 302 per un approfondimento.

L’uso del visibility Attraverso l’utilizzo dei CSS è possibile nascondere del testo. Solitamente utilizzate per far apparire pop up o menu a piacimento. Con visibility:hidden un elemento non verrà mostrato visivamente ma occuperà spazio nella pagina proprio come se visibile. Con display:none un elemento non verrà reso e quindi non occuperà spazio nella pagina.

Google ha elaborato algoritmi per cercare di intercettare i siti che fondamentalmente utilizzano le tecniche che abbiamo finora analizzato.

Panda e Penguin e le penalizzazioni SEO

Grazie a questi due algoritmi, il modo di fare SEO è cambiato radicalmente nel tempo passando dalle logiche del link building, al page rank e a tutti quei parametri tecnici che ormai perfettamente prevedibili e utilizzabili a vantaggio dai più furbi per approdare ad un SEO fatto di contenuti.
La novità è che per Panda e Penguin non verranno più rilasciati aggiornamenti e saranno incorporati nell’algoritmo principale di Google. Questo vuol dire che saranno gli spider ad applicare i filtri e quindi tutto avverrà in modo quasi del tutto automatico e soprattutto più rapidamente.
Al momento, i parametri che i nuovi Panda e Penguin useranno sono gli stessi del passato, ma c’è da aspettarsi che, grazie all’integrazione nel core algorithm di Google, questi si evolvano e anche lo spam che ancora resiste venga finalmente filtrato e penalizzato.

Come recuperare le penalizzazioni SEO

Alle volte non è così semplice ed immediato capire se un sito è stato penalizzato e come. Innanzitutto è utile utilizzare gli strumenti per webmaster proposti dai vari motori di ricerca ad esempio Google Search Console.

Per concludere inoltre una piccola lista di strumenti che ci vengono in aiuto sul Google Recovery Penalty al fine di risolvere le penalizzazioni SEO.

  • Visualizza come Google è una funzione di Google Webmaster Tools, che permette di simulare come Google esegue la scansione dell’URL del sito. Visualizza i diversi tipi Googlebot, una volta scelto è possibile ottenere informazioni sulla risposta del URL HTTP, la velocità di download della pagina, e come Google vede la pagina. Questo strumento è utile per rilevare gli errori di base (ad esempio, se l’URL viene reindirizzato o bloccato da robots.txt) e anche per vedere il tempo di risposta del server.
  • Screaming Frog Web Crawler è un tool utile per combattere una penalità di Google, è fondamentale sapere esattamente che cosa l’ha causata. Screaming Frog Web Crawler indicizza un sito e trova i problemi più comuni ed è in grado di gestire siti di grandi dimensioni che sarebbe poco pratico per controllare manualmente, lo rende una scelta preferita di molti professionisti SEO.
  •  Majestic SEO è uno strumento di “link intelligence” che può aiutare ad analizzare il profilo dei collegamento al tuo sito (e dei concorrenti). Molte delle penalizzazioni di Google hanno a che fare con i backlinks, e Majestic è particolarmente per avere un rapporto dettagliato.
  •  Ahrefs è un tool per la ricerca di link difettosi. È uno strumento efficace per l’analisi link in ingresso e report dettagliati backlink. Può indicare la qualità complessiva dei domini coinvolti, e può indicare problemi specifici con link singoli. L’indice Ahrefs di link si basa su dati provenienti da più di un trilione di connessioni. Viene aggiornato più volte all’ora per tenervi aggiornati sui più recenti sviluppi. Ahrefs è anche un buon strumento per sottolineare problemi con gli anchor text.
  •  Monitor Backlinks dopo aver importato il link da Google Webmaster Tools in Monitor, si possono cercare i backlink “dofollow” (dal momento che Google ignora presumibilmente tutti i link nofollow). Da lì, è possibile utilizzare dei filtri e verificare manualmente i backlinks.
  • Copyscape Se si sospetta che si potrebbe avere a che fare con una penalità relativa ai contenuti, Copyscape ti può aiutare a capire se uno dei tuoi contenuti esiste già altrove on-line. Questo strumento è economico e semplice da utilizzare, anche se può essere scomodo perché ogni URL deve essere inserito uno alla volta.
  •  Moz’s Google Algorithm Change History Questo non è tanto uno “strumento” in quanto è un grande riferimento per la diagnosi di problemi algoritmici. Google cambia i suoi algoritmi centinaia di volte ogni anno. Tutti conoscono i grandi aggiornamenti, ma può essere difficile tenere traccia degli aggiornamenti più piccoli. Include solo gli aggiornamenti confermati e non senza preavviso.
  •  Google Webmaster Tools Anche se può sembrare ovvio, Google Webmaster Tools è uno strumento vitale (se non il più importante) per tutti i siti. È l’unico vero modo per sapere come Google vede il tuo sito. Google Webmaster Tools ti avvisa direttamente su eventuali sanzioni manuali che Google ha imposto.

Leave a Reply

Your email address will not be published. Required fields are marked *

Time limit is exhausted. Please reload CAPTCHA.