Magazine Internet

Capire algoritmi e penalizzazioni di Google

Da Melchiorreschifano @teutra

Una simpatica signora Toscana, mi ha recentemente contattato per un problema riguardante il suo e-commerce che, da un poco di tempo a questa parte, ha visto scendere notevolmente il numero delle visite. Questa conversazione mi ha fatto capire come sia complicato, per i non addetti ai lavori, capire gli algoritmi che regolano il funzionamento dei motori di ricerca, e in particolare di Google, e gli effetti che i vari Panda, Penguin e Hummingbird possono avere sui nostri siti web. L’obiettivo di questo articolo è di fare un pò di chiarezza.

L’algoritmo di Google

Quando sono stati creati i primi motori di ricerca era abbastanza semplice, per un consulente SEO,  posizionare il sito del cliente nelle prime posizioni della pagina dei risultati della ricerca. Le regole da seguire erano poche e ben definite. Nella maggior parte dei casi, era sufficiente caricare nel codice del sito, e più precisamente nel meta tag keyword, le Keywords opportune per ottenere il risultato.

Google fu il primo, tra i motori di ricerca, a capire l’importanza della pertinenza nei risultati dei motori di ricerca.Fu allora i suoi tecnici svilupparono un algoritmo che potesse mostrare, in cima ai risultati della ricerca, quelli più pertinenti alla chiave di ricerca inserita dall’utente. Oggi l’algoritmo di ricerca di Google, tiene conto di circa 200 fattori diversi per determinare l’ordine della pagina dei risultati della ricerca o SERP. Alcuni di questi sono conosciuti, come alcuni TAG del codice (Title, Description), altri fonte di speculazioni, come ad esempio il Google+1.

Infatti l’algoritmo della ricerca di Google è brevettato come segreto industriale. Tutto quello che si sa, tutto quello che fa un consulente SEO, è sperimentare per cercare di capire. In passato, inoltre, l’algoritmo della ricerca di Google cambiava raramente. Stare in prima posizione con una determinata parola chiave garantiva la leadership della ricerca per settimane o mesi.

Tutto questo è cambiato con il lancio di “Caffeina” nel 2010. Da questo aggiornamento in poi, l’algoritmo di Google può cambiare più volte al giorno (Google fa circa 600 modifiche all’anno e la stragrande maggioranza di queste non sono annunciate). Ma, quando Google fa davvero un grande cambiamento, lo annuncia e gli da un nome e tutti nel mondo SEO cercano di capire i cambiamenti introdotti e come usarli a proprio vantaggio.

Tre dei maggiori cambiamenti che si sono verificati negli ultimi anni sono chiamati stati chiamati Panda, Penguin e Hummingbird.

Panda

Google-Panda-update
Panda, lanciato il 23 febbraio 2011, aveva lo scopo di mostrare i siti di alta qualità in cima ai risultati della  ricerca e di abbassare i siti di qualità inferiore. Questo cambiamento algoritmico venne prima chiamato “Farmer”, (il rifermento è ad allevamenti di contenuti cioè siti che aggregano informazioni da molte fonti al fine di  classificarsi bene in SERP per molte parole chiave diverse.) Il cambiamento dell’algoritmo è stato poi ufficialmente battezzato Panda dal nome di uno dei suoi creatori, Navneet Panda.

Nella maggior parte dei casi, i siti colpiti da Panda vengono penalizzati molto duramente. Infatti Panda tende ad essere un problema a livello di sito, il che significa che non si limita a retrocedere alcune pagine del tuo sito nei risultati dei motori di ricerca ma, tutto il sito che viene considerato di qualità inferiore. Come recuperare una penalizzazione di questo genere ? Per rispondere a questa domanda, Google fa riferimento ad un post di uno dei suoi ingegnere, Amit Singhal, che dà una lista di controllo che è possibile utilizzare sul vostro sito per determinare se il sito è veramente di alta qualità:

  • Vi fidereste delle informazioni presentate in questo articolo?
  • Questo articolo è scritto da un esperto o appassionato che conosce bene l’argomento?
  • Il sito ha articoli duplicati, sovrapposti o ridondanti identici o simili con leggere varianti nelle parole chiave?
  • Vi fidereste a dare i dati della vostra carta di credito a questo sito ?
  • Vi sono errori di ortografia, stilistica, o di utilizzo del linguaggio in questo sito?
  • Vi sembra che il sito generi contenuti cercando di seguire il trend delle parole chiave più utilizzate del momento sui motori di ricerca?
  • L’articolo fornisce contenuti originali (informazioni, segnalazione, ricerche originali o analisi)?
  • La pagina fornisce un valore sostanziale rispetto ad altre pagine nei risultati di ricerca?
  • Il sito è un’autorità riconosciuta sul suo argomento?
  • Questo articolo fornisce una descrizione completa del tema?
  • Questo articolo contiene un’analisi perspicace o informazioni interessanti, al di là ovvio?
  • E ‘questo il tipo di pagina che ci si vuole condividere con un amico, o di raccomandare?
  • Questo articolo ha una quantità eccessiva di annunci pubblicitari che distraggono o interferiscono con il contenuto principale?
  • Vi aspettereste di vedere questo articolo in una rivista stampata, un’enciclopedia o un libro?
  • Sono le pagine prodotte con grande cura e attenzione al dettaglio?

Un elenco impressionante! Tutte queste domande sono poste da Google a noi per aiutarci a capire come gli utenti reali potrebbero valutare la qualità del tuo sito. Nessuno conosce tutti i fattori che Google utilizza per determinare la qualità del vostro sito attraverso gli occhi di Panda. In definitiva però, l’attenzione è rivolta nel creare il miglior sito possibile per gli utenti. Ci sono alcuni fattori che sono ampiamente accettati e condivisi dalla comunità SEO, per quanto riguarda Panda:

Contenuti “Thin” Sottili

Una pagina “Thin” è una pagina che aggiunge poco o nessun valore per qualcuno che la sta leggendo. Questo non significa necessariamente che una pagina, per essere utile,  necessiti di un certo numero di parole, ma è anche vero che, molto spesso, le pagine con poche parole non sono super-utili. Se si dispone di un gran numero di pagine del tuo sito che contengono contenuti “Thin” sottili l’algoritmo Panda può stabilire che la maggior parte delle pagine indicizzate sul tuo sito sono di bassa qualità.

Duplicazione dei contenuti

google-panda
Ci sono diverse circostanze, relative alla duplicazione dei contenuti, che possono far vedere il vostro sito come un sito di bassa qualità dall’algoritmo Panda. La prima di queste si verifica quando un sito ha una grande quantità di contenuti copiati da altre fonti sul web. Ad esempio un blog popolato da articoli che vengono presi da altre fonti e copiati di sana pianta. Google è piuttosto bravo nel capire che non sei l’autore di questo contenuto. Se l’algoritmo si accorge che una porzione considerevole del sito è costituita da contenuti che esistono già su altri siti, questo può causare una penalizzazione da parte di Panda.

È anche possibile incorrere in problemi con contenuti duplicati sul proprio sito. Un esempio potrebbe essere un sito che ha un gran numero di prodotti in vendita. Facciamo il caso che ogni prodotto abbia una pagina separata per ogni variazione di colore e dimensioni. Se un prodotto è disponibile in 20 diversi colori e ciascuno di questi sono disponibili in 6 diverse dimensioni, allora significa che avete 120 pagine per lo stesso prodotto, che sono tutte pressoché identiche. Ora, immaginate che, su questo sito, si vendano 4.000 prodotti. Questo significa avere quasi mezzo milione di pagine nell’indice di Google quando in realtà 4.000 pagine sarebbero sufficienti. In questo tipo di situazione, la penalizzazione è sicura anche se, con alcuni accorgimenti tecnici (utilizzo del canonical), il problema si può risolvere.

Contenuti di bassa qualità

Quando si scrive un articolo e lo si pubblica su un sito web o su un blog, l’ ideale sarebbe di presentare a Google l’informazione migliore, in assoluto, nel suo genere. In passato, molti SEO hanno dato consigli ai proprietari dei siti dicendo che era importante alimentare sempre di nuovi contenuti blog e siti web  aggiungendo e indicizzaando per Google, sempre nuovi contenuti. Ma, se ciò che si sta pubblicando non è un contenuto di alta qualità, si potrebbero avere più danni che benefici. Nella lista di domande da porsi, la lista di Amit Singhal citata sopra, molte si chiedono se il contenuto del tuo sito è prezioso, utile per i lettori.

Diciamo di avere un blog SEO e di prendere ogni giorno un breve trafiletto da ciascuno degli articoli di SEO più interessanti che ho letto on-line e di pubblicare, come un post sul mio blog, un loro riassunto. Google privilegerà il mio articolo o i singoli articoli ?  Naturalmente il mio riassunto non sarà prezioso come gli articoli da cui ho tratto spunto. Ora, supponiamo di aver fatto cosi, ogni giorno, per 4 anni. Ora il mio sito ha oltre 4.000 pagine che contengono informazioni che sono solo citazioni di articoli di altri siti. Il valore aggiunto non sta nel mio sito, per il lettore. Questo è sicuramente un segnale di bassa qualità agli occhi dell’algoritmo di Panda.

Come recuperare da una penalizzazione di Panda

Google-Panda-Algorithm
Google aggiorna l’algoritmo Panda all’incirca una volta al mese. Cosa succede quando interviene un aggiornamento nell’algoritmo Panda? L’algoritmo da un nuovo sguardo su ogni sito sul web e determina se  si presenta come un sito di qualità per quanto riguarda i criteri, aggiornati, che l’algoritmo Panda esamina. Se il tuo sito è stato penalizzato da Panda e sono state apportate modifiche come la rimozione delle pagine “Thin” sottili e/o i contenuti duplicati, il prossimo aggiornamento di Panda dovrebbe portare ad un miglioramento della situazione. Tuttavia, per alcuni siti, occorre aspettare almeno un paio di aggiornamenti di Panda per vedere la piena portata dei miglioramenti. Questo perché Google, a volte, può impiegare diversi mesi per rivisitare tutte le pagine e riconoscere i cambiamenti che avete fatto.

Il 20 maggio 2014, Google ha fatto un importante aggiornamento che hanno chiamato Panda 4.0. Questo aggiornamento ha causato un sacco autentico “terremoto” per molti siti che hanno visto ridimensionare la propria presenza sulle pagine dei risultati delle ricerche, soprattutto in Italia.

Penguin

L’algoritmo Penguin, lanciato il 24 aprile 2012, ha come obiettivo, il ridurre il credito che alcuni siti hanno guadagnato attraverso la creazione di backlinks innaturali, al fine di ottenere un vantaggio nella pagina dei risultati della ricerca di Google.

Perché sono i backlinks sono importanti?

Un backlink è come un voto, una raccomandazione per il tuo sito. Se un sito, molto rispettato e importante, inserisce un backlink al tuo sito, allora questa è vista da Google come una raccomandazione per il tuo sito ed ha un grosso valore. Naturalmente se il backlink arriva da un sito piccolo e sconosciuto la raccomandazione conta poco. Eppure,  ottenere un gran numero di queste piccole raccomandazioni, in passato, poteva fare la differenza. Ecco perché i consulenti SEO cercavano di ottenere il maggior numero di collegamenti che potevano da ogni possibile fonte.

google-penguin
Un’altra cosa che è importante per gli algoritmi di Google è il testo di ancoraggio. Il testo di ancoraggio è il testo cliccabile che gli utenti vedranno come risultato di un link. Quindi, se un grande blog, come ad esempio il blog di MOZ, riceve molti backlinks con testo di ancoraggio “SEO blog” questo viene interpretato da Google come un segnale importante: il sito citato cosi tante volte per la chiave “SEO blog” è quello da porre nelle prime posizioni per questa ricerca.

Non è difficile immaginare come potesse essere semplice manipolare questa parte dell’algoritmo. Supponiamo di fare attività SEO per un hotel a Rimini, l’hotel Miramare. In passato, uno dei modi che si avevano per ingannare l’algoritmo era di creare quanti più backlinks dalla rete utilizzando, come testo di ancoraggio, le stesse parole chiave per le quali volevo  ottenere il posizioniamento. I miei backlinks avrebbero avuto anchor text tipo “Hotel Rimini”, “Albergo Rimini”, “Vacanze mare Rimini” e possibilmente tutte con lo stesso link http://www.hotelrimini.it/.

Mentre un collegamento autorevole da un sito rispettato è buono, ma difficile da ottenere, quello che gli esperti SEO scoprirono fu che la creazione di un gran numero di link provenienti da siti di bassa qualità era abbastanza efficace. Questa è la ragione per cui proliferarono, ma ancora oggi prorifelano, collegamenti di basso valore facili da raggiungere come elenchi di directory, articoli autoprodotti, e link nei commenti e  nei messaggi dei forum.

Mentre non sappiamo esattamente quali fattori l’algoritmo Penguin analizza, sappiamo che  l’algoritmo sta tentando di rilevare i backlinks di bassa qualità. John Mueller, di Google, ha detto più volte che Penguin è un algoritmo che considera tutto il sito. Ciò significa che se l’algoritmo Penguin determina che un gran numero di link al tuo sito sono di bassa qualità, allora questo riduce la fiducia di Google nei confronti di tutto il sito. Come tale, l’intero sito vedrà una riduzione delle sue posizioni nei risultati della ricerca. Penguin ha colpito un sacco di siti drasticamente, in particolare quelli con un’alta quantità backlinks innaturali di basso livello.

Come recuperare da una penalizzazione di Penguin?

penguin
Penguin è una parte a se stante del complesso algoritmo di Google, proprio come Panda. Significa che l’algoritmo Penguin è rieseguito periodicamente e i siti coinvolti vengono rivalutati ad ogni ripetizione. Penguin non viene eseguito molto spesso. L’ultimo aggiornamento è stato il 4 ottobre 2013. Il che significa che non possiamo aspettarci una nuova riconsiderazione automatica fino al prossimo update. Al fine di recuperare da Penguin, è necessario identificare i link innaturali che puntano al tuo sito e rimuoverli, oppure se non è possibile rimuoverli si può chiedere a Google di non considerarli, attraverso lo strumento disavow. Al prossimo aggiornamento di Penguin, se avete fatto un buon lavoro nel  ripulire i vostri link innaturali, potrete riconquistare la fiducia di Google. In alcuni casi, bisogna attendere anche un paio di aggiornamenti per tornare alla situazione precedente la penalizzazione.

Se non si è certi sul come identificare i collegamenti innaturali, vi segnalo le seguenti letture:

 

Lo strumento disavow è qualcosa da utilizzare se si capisce davvero come funziona. E ‘potenzialmente possibile fare più male che bene al tuo sito se si sconfessano i link inappropriatii. Ecco alcune informazioni sull’utilizzo dello strumento disavow:

  • Google’s documentation on the disavow tool 
  • 7 things you may not know about Google’s disavow tool
  • Disavowed – Secrets of Google’s most mysterious tool

E ‘importante notare che quando i siti si liberano da una penalità Penguin, non riconquistano a pieno il top della SERP proprio a causa dei link innaturali rimossi.

Hummingbird

google-hummingbird
Google ha annunciato Hummingbird il 26 settembre 2013 dichiarando, tuttavia, che l’algoritmo era già operativo da un mese.

Hummingbird è una revisione completa di tutto l’algoritmo di ricerca di Google. Come Danny Sullivan ha fatto notare, se si considera l’algoritmo di Google come  un motore, Panda e Penguin sono cambiamenti  di algoritmo che si possono paragonare a pezzi del motore da sostituire, come un nuovo filtro o una nuova pompa di carburante. Ma, Hummingbird non è solo una ulteriore aggiunta; Hummingbird è un motore completamente nuovo. Questo nuovo motore fa ancora uso di molte delle vecchie parti (come Panda e Penguin), ma una sua buona parte è completamente originale.

L’obiettivo dell’algoritmo Hummingbird è per Google capire meglio la query di un utente. Bill Slawski che scrive sui brevetti di Google ha un  grande esempio di questo nel suo post qui. Egli spiega che quando qualcuno cerca “Qual è il posto migliore per trovare da mangiare a Milano?”, Hummingbird è in grado di discernere che l’utente, probabilmente, è interessato a risultati che mostrino “ristoranti”. Si ipotizza che questi cambiamenti erano necessari per rendere più efficace la ricerca vocale.

Quando stiamo digitando una query di ricerca, possiamo digitare “migliore agenzia SEO Torino“, ma quando parliamo di una query (ad esempio tramite Google Glass o l’interrogazione vocale) siamo più propensi a dire qualcosa come: “Quale azienda a Torino offre i migliori servizi di SEO? ” Il punto di Hummingbird è quello di capire meglio che cosa si aspettano come risultato gli utenti quando pongono domande come questa.

google-hummingbird-update

Allora, come faccio a recuperare o migliorare agli occhi di Hummingbird?

La risposta a questa domanda è essenzialmente quella di creare contenuti che rispondano alle domande degli utenti piuttosto che cercare di posizionare una pagina per una determinata parola chiave. Ma in realtà, questo è quello dovresti stare già facendo!

Sembra che l’obiettivo di Google con tutti questi cambiamenti di algoritmo (Panda, Penguin e Hummingbird) sia quello di incoraggiare i webmaster a pubblicare contenuti sempre migliori e utili per la propria nicchia. In pratica fornire risposte alle persone che cercano. Se riesci a produrre contenuti che rispondono alle domande della gente, allora sei sulla strada giusta.

google-hummingbird-again
So che questo è una risposta veramente vaga quando si parla di “recuperare” una penalità di Hummingbird. Hummingbird è veramente diverso da Panda e Penguin. Se un sito è stato retrocesso da Panda o Penguin, è perché Google ha perso un po ‘di fiducia nella qualità del sito. Se si riesce a risolvere quei problemi di qualità si può riconquistare la fiducia dell’ algoritmo e col tempo vedere i miglioramenti. Ma, se la penalità compare poco dopo il lancio di Hummingbird, allora non c’è davvero un modo per recuperare le posizioni ottenute nelle  classifiche utilizzando le parole chiave. È possibile, tuttavia, ottenere nuovo traffico trovando modi per ottenere contenuti più approfonditi e completi, utili per l’utente.

 

Questo articolo è liberamente tratto e tradotto da un post su MOZ diMarie Haynes : Your Google Algorithm Cheat Sheet: Panda, Penguin, and Hummingbird


Potrebbero interessarti anche :

Ritornare alla prima pagina di Logo Paperblog

Possono interessarti anche questi articoli :