Sempre più frequentemente leggo sui vari canali Seo domande di utenti che notando cali di visite dai vari Analytics e simili, hanno paura di essere incappati nelle temutissime ed oramai citatissime Penalizzazioni Google. Credo, a questo punto, ci sia da mettere un po’ di ordine e fare un po’ di sana e semplice informazione in quanto in tutti i casi che fino ad oggi ho potuto analizzare nessun sito era effettivamente stato penalizzato.
Per rendere quanto piu’ positiva l’esperienza dell’utente che consulta il motore di ricerca, e per affrontare e risolvere (cosa ancora non riuscita) il problema della manipolazione delle SERP, Google ha dovuto applicare aggiornamenti algoritmici creando cosi i famosi Caffeine, May Day, Panda, Penguin, Hummingbird e Pigeon.
Di questi: Caffeine è il punto di partenza della nuova SEO, e solo May Day, Panda e Penguin mirano a penalizzare i siti web (interamente od in parte), mentre Hummingbird e Pigeon sono aggiornamenti algoritmici realizzati solo per migliorare i risultati di ricerca e non penalizzano nessuno in quanto non “colpiscono direttamente” i progetti.
Fatta questa prima cosiderazione passiamo alle definizioni (o perlomeno a quelle che piu’ mi piacciono).
Google Caffeine:
Rilasciato il 10 Agosto 2009 ha gettato le basi per una nuova concezione di SEO, integrando in serp risultati relativi a Mappe, News, Immagini, Video, Blog, discussioni dei Forum
Google May Day:
Rilasciato il 28 Maggio 2010 è stato il primo vero “penalizzatore”, colpiva i siti web che effettuavano spam grazie a tecniche di scrittura di contenuti pieni zeppi di long tail. (praticamente una primo acerbo Panda)
Google Panda:
Rilasciato il 23 Febbraio 2011 ed arrivato oggi alla versione 4.1, ha lo scopo di colpire quei siti web che producono molti contenuti definiti, da google, di “scarsa qualità”.
Google Penguin:
Rilasciato il 24 aprile del 2012 ha lo scopo di penalizzare quei siti web che hanno attuato pratiche di schemi di link e keyword stuffing.
Google Hummingbird:
Rilasciato il 26 Agosto 2013 è stato l’inizio di una nuova rivoluzione (ancora in corso); a me piace definirlo il “cambiamento semantico di Google”
Google Pigeon:
Rilasciato il 25 Settembre 2014 (attualmente solo negli USA) mira al miglioramento dei risultati di ricerca Locali.
Vi posto questa risorsa molto utile che rappresenta su timeline gli aggiornamenti di Google.
Ma cos’è una penalizzazione Google?
Da quanto detto adesso si evince quindi che una penalizzazione è un’azione intrapresa da Google o dai suoi quality raters atta a migliorare l’esperienza degli utenti su Google declassando o eliminando interamente od in parte, dalle SERP, i siti web che meritano di esserlo.
E’ importante specificare che comunque è quasi sempre possibile uscirne e riacquistare, effettuando le dovute modifiche ai siti web e non solo, la visibilità perduta (non tutta).
Generalmente possiamo definire due penalizzazioni: quelle algoritmiche e quelle manuali (effettuate dai quality raters).
Le penalizzazioni algoritmiche, ad esempio Panda, (ahimè) colpiscono senza preavviso e generalmente l’intero progetto; sono quelle dalle quali è molto difficile o addirittura impossibile uscirne (in quanto per meritarla abbiamo fatto molto e per molto tempo i cattivi :D).
Quelle manuali invece vengono segnalate con un messaggio in Web Masters Tools e sono generalmente più facili da gestire in quanto, eliminata la causa che l’ha generata, è possibile effettuare una richiesta di riconsiderazione tramite questo link ed attendere la risposta da parte del team predisposto.
Una cosa molto importante e certa è che quando si esce da una penalizzazione, algoritmica o manuale che sia, in futuro il nostro sito web non godrà più di tutta la fiducia (o Trust) che il motore gli attribuiva prima e quindi rimarremo per sempre “un po’ penalizzati”.
Cosa non è una penalizzazione Google?
Passiamo adesso a chiarire un po’ le idee a chi preso dal panico, dopo aver consultato Analytics, crede di esserci cascato.
Le penalizzazioni Google non sono :
- Cali di traffico dovuti alla stagionalità delle ricerche
- Cali di traffico dovuti ad errori di programmazione
- Cali di traffico dovuti ad esclusioni di sezioni tramite robots.txt
- Cali di traffico dovuti a migrazioni non seguite da redirect 301 o simili
- Cali di traffico dovuto ad aggiornamenti algoritmici quali Hummingbird
- Cali di traffico dovuto ad aggiornamenti algoritmici quali Pigeon
- Cali di traffico dovuto ad un codice di tracciamento diventato obsoleto od implementato male
Credo che da questa semplice lista ci sarebbe molto da scrivere in quanto i cali di traffico sono un campannello di allarme che fanno pensare subito ad azioni intraprese da google; il fatto è invece che spesso la causa siamo proprio noi. Ma nessuno, o almeno quasi, si interroga sul fatto che sia stata fatta bene una migrazione o la programmazione del CMS ad esempio, piuttosto che un buon lavoro col file Robots.
Come non essere penalizzati da Google?
Beh, la risposta è semplice: rispettando le istruzioni su struttura e contenuti e le norme di qualità dettate da Google che ripeto, mirano a garantire la miglior esperienza possibile agli utenti che lo consultano. Troverete tutto qui. Buona lettura a tutti.