L’algoritmo di Google

L’algoritmo: colui che premia o penalizza il nostro lavoro sul web

L’algoritmo: colui che premia o penalizza il nostro lavoro sul web

Gli inizi dell’algoritmo Nel 1994 Yahoo si afferma come il primo motore di ricerca in Italia, seguito dopo 3 anni da quello che consideriamo tutti il motore di ricerca per eccellenza: Google.

Tutto era focalizzato sulle parole chiave, i siti erano zeppi di keyword e PRIVI DI TUTTE QUELLE REGOLE DI OTTIMIZZAZIONE, adesso vitali, per competere nelle serp. Le uniche accortezze erano quelle di ottimizzare title e description.
Il posizionamento dei siti web risultava essere molto semplice e questo era dovuto al fatto che questi erano pochi e anche il lavoro del SEO tendeva a essere ancora poco conosciuto.
Per l’utente era molto difficile esaudire un bisogno reale, dato che la maggior parte dei siti presenti nelle prime pagine erano spam o presentavano un’alta concentrazione di keyword stuffing. La spam e tecniche di Black Hat Seo erano all’ordine del giorno.
A questo proposito ricordiamo i testi dello stesso colore dello sfondo della pagina presenti in alcuni siti web: solo passando col mouse si riusciva a beccare il testo nascosto pieno di keyword!

Con la stessa tecnica venivano inseriti anche dei link e questo perché al tempo l’algoritmo di Google non era capace di distinguere un link reale da un link artificiale.

Da Florida a Penguin 4.0: l’evoluzione dell’algoritmo

Correva l’anno 2003: ecco Florida e Dance.
Con questi algoritmi sono penalizzati tutti quei siti web che fanno un uso non naturale delle parole chiave: viene quindi punita la keyword stuffing.
Anche con Austin nel 2004 Big G inizia a penalizzare chi inseriva a blocchi negli articoli o pagine parole chiave con lo stesso colore dello sfondo o il keyword stuffing nei meta.

Nel 2005 con Jagger Google è pronto a combattere i link di scarsa qualità. Aumenta il controllo e l’algoritmo è in grado di rilevare lo scambio non naturale dei link. Introduce anche il NoFollow, per specificare al motore di ricerca quali link non dovevano essere indicizzati e seguiti. Aggiorna anche le mappe, importanti per il Local SEO.

Local e Suggest

Nel 2007 con Universal Search vengono integrate le notizie e le immagini, e inizia a prendere forma il local, fondamentale per promuovere il proprio lavoro a livello locale.

Nel 2008 con Suggest (adesso rinominato Google Instant) vengono mostrati nella casella di ricerca di Google i suggerimenti per la parola chiave che stiamo digitando.

serpDal 2009 al 2011 ci sono stati dei cambiamenti importanti.
Viene lanciato Caffeine, sviluppato per velocizzare l’indicizzazione di un contenuto, posizionandolo in tempo reale.

Nel 2010 con Social Signal inizia l’attenzione verso i Social Network: è un termine di settore per indicare ogni volta che il tuo sito viene menzionato sui social network, come Facebook, Twitter, Pinterest, Google+ etc

Nel 2011 spazio alla freschezza dei contenuti!
Ecco Freshness, che premia chi aggiorna costantemente i contenuti su tematiche che cambiano spesso, come avvenimenti recenti o temi caldi del web.

Le novità che hanno rivoluzionato le serp: Panda, Penguin e Hummingbird

Uno degli aggiornamenti più importanti è Panda.
Nel 2011 sono penalizzati siti con contenuti di scarsa qualità.
Inizia la guerra ai contenuti duplicati. Troppe volte abbiamo trovato siti che copiavano letteralmente i contenuti di valore da altre pagine web. Anche le pagine con troppa pubblicità sono colpite dal simpatico Panda. Questo, infatti, è l’algoritmo che guarda alla qualità dei contenuti.

Un anno dopo arriva Penguin.

Nel 2012 viene effettuato un controllo serrato su keyword stuffing e su backlink di dubbia provenienza.
Negli anni si è evoluto, fino ad arrivare all’ultima versione, la 4.0, di circa una settimana fa.

Con Hummingbird nel 2013 Google dedica particolare attenzione alla semantica, cercando di identificare il vero significato da attribuire a una parola chiave.
Uno degli algoritmi che ha avuto più impatto per i SEO e i copywriter. L’algoritmo deve essere in grado di interpretare l’argomento di un testo, per offrire contenuti di valore agli utenti mentre effettuano una ricerca.

Inizia l’era mobile friendly

Google lancia i piccioni! Nel 2014 con Pigeon viene data molta attenzione alle imprese locali.
Effettuando una ricerca per un determinato servizio, vengono mostrate su una mappa in serp le attività che si trovano più vicine all’utente! Non è prioritario avere un sito web, basta creare una scheda mybusiness e il gioco è fatto.

Nel 2015 con Mobilgeddon vengono premiati i siti ottimizzati per dispositivi mobili.
I siti che non sono stati strutturati in ottica mobile, ovvero consultabili anche da smartphone e tablet, sono penalizzati rispetto a quelli che soddisfano le esigenze mobile-friendly e responsive.

L’ algoritmo si aggiorna ancora: ecco Penguin 4.0

Da quasi un mese, i più attenti avranno notato un po’ di terremoto nelle serp, soprattutto tra la prima e la seconda pagina, nelle quali ci sono state molte oscillazioni.

Questi sali-scendi hanno fatto da apripista alla notizia che in molti aspettavano da tempo: Penguin 4.0 è realtà!
Il 23 Settembre tramite annuncio ufficiale nel blog Webmaster Central Google ha fatto sapere che Penguin 4.0 è diventato in real time parte integrante dell’algoritmo.
La novità principale riguarda la tempistica: non aspetteremo più mesi per capire se abbiamo lavorato bene o se saremo penalizzati. Non verrà azionato manualmente, ma sarà sempre attivo.
In questo modo i cambiamenti saranno visibili molto più velocemente dopo la scansione della pagina.

Questo importante aggiornamento sarà molto utile anche per chi dovrà uscire da una penalizzazione, senza aspettare anche diversi mesi, effettuando una scansione con conseguente re-indicizzazione della pagina “ripulita”.
È stato rilasciato contemporaneamente in tutti i paesi e in tutte le lingue al contrario degli aggiornamenti passati, che prima arrivavano per la lingua inglese e successivamente (anche mesi dopo) per tutte le altre lingue.
L’obiettivo è sempre quello di combattere la spam, ma sarà più malleabile.
Penguin 4.0 sarà page-level, ovvero Google avrà la capacità di declassare solo la pagina web incriminata invece di punire tutto il sito web.

Penguin non guarda solo ai link, ma anche al webspam in generale (cloaking, spinning testi, testo nascosto).