Il web “semantico” come sarà? «Google abbinerà le ricerche con un database che contiene milioni di “entità” – persone, luoghi e cose – che sono state pian piano accumulate nel corso degli ultimi 2 anni». Verranno favoriti anche i siti che producono contenuti di qualità rispetto ai siti sovraottimizzati. Sapendo sempre di più chi siamo.
Mai come oggi il web ascolta e legge tra le righe. Si chiama web semantico, inteso come luogo nel quale data una domanda la risposta è condizionata dal contesto nel quale viene posta. Il più abusato degli esempi è che se io ricerco “Apple” il motore di ricerca non capisce se la domanda riguarda l’azienda Apple o la mela, perché non c’è un contesto in cui la domanda è definita. Mentre con un motore di ricerca semantico si avranno risultati più coerenti in base al contesto in cui l’analisi viene effettuata. Quindi, in un web semantico, la risposta sarà condizionata da molte altre informazioni che tengono conto del luogo da dove proviene la domanda, della persona che fa la domanda e dalla somma dei rapporti del richiedente. Il Web semantico permette di raffinare i collegamenti e la ricerca delle informazioni in maniera davvero rilevante poiché si avvale di strumenti e mezzi sempre più sofisticati.
La strada di Google verso la semantic search è iniziata diversi anni fa, recentemente le indicazioni provenienti dal management di Google si sono intensificate e portano a pensare che ci sia stata un’accelerata verso la “svolta semantica” intesa come percorsi migliori verso contenuti migliori. L’ultima dichiarazione è di Amit Singhal, vice presidente e manager di punta del settore search engine di Google: «Il motore di ricerca abbinerà meglio le query con un database che contiene milioni di “entità” – persone, luoghi e cose – che sono state pian piano accumulate nel corso degli ultimi 2 anni». «La nuova ricerca sarà più simile a come gli esseri umani comprendono il mondo». L’intento di Google è quello di sviluppare nuove soluzioni per migliorare l’esperienza degli utenti che si rivolgono al motore di ricerca offrendo contenuti sempre migliori. Per far questo il colosso di Mountain View sta introducendo delle novità rilevanti anche per chi si occupa di Seo (Search Engine Optimization), cioè chi svolge attività di ottimizzazione delle pagine web con l’intento di renderle più Search Engine Friendly, attribuendo loro una posizione più elevata nei motori di ricerca.
Anche in questo caso il filo conduttore sono i contenuti di qualità. Infatti, i recenti interventi di Google, dal Panda a Google Plus hanno spinto i Seo Manager a tenere sempre più in considerazione la qualità dei contenuti da ottimizzare e pubblicizzare. Niente di nuovo dato che le indicazioni di Google hanno sempre spinto verso la qualità dei contenuti se nonché il capo del Google Webspam Team, Matt Cutts è andato oltre annunciando penalizzazioni ai siti con troppa Seo: «Parliamo di chi ottimizza in modo davvero pesante facendo un sacco di Seo. Ultimamente stiamo lavorando a qualcosa che verrà rilasciato fra poche settimane o mesi. Stiamo cercando di livellare un po’ il campo di gioco a favore di chi lavora per creare ottimi contenuti e ottimi siti, rispetto a chi eccede con l’ottimizzazione e con la Seo. Stiamo cercando di rendere il Googlebot più furbo e intelligente. Vogliamo migliorare la rilevanza e anche cercare coloro che esagerano con le parole chiave all’interno di una pagina o con lo scambio link, andando oltre a quello che normalmente ci si aspetterebbe». In parole povere Google mira a favorire quei siti che producono contenuti di qualità rispetto ai siti sovraottimizzati.
Che sia chiaro, il lavoro di chi deve ottimizzare siti web non è in discussione, ma quello che cambia sono le regole del gioco: verranno penalizzati i siti con troppe parole chiave, troppi link scambiati e acquistati. In realtà l’Oop (Over Optimization Penalty) esiste già da un po’ ma la novità è il lancio dell’aggiornamento di uno degli algoritmi di Google che mira a scandagliare le Serp (la pagina dei risultati di un motore di ricerca quando si effettua una ricerca) prestando particolare attenzione ai siti che presentano un uso massiccio delle tecniche Seo. Come sempre, i siti web colpiti sono quelli privi di contenuti di qualità e originalità.
In definitiva, i continui cambiamenti dell'algoritmo di Google, dall'acquisto di Metaweb Technologies del 2010, al web semantico fino all'introduzione di Google Plus per le ricerche mirano a rendere il GoogleBot più intelligente e in grado di migliorare la rilevanza dei risultati delle ricerche eseguite dagli utenti. Per Google si tratta di un passo di duplice valore. Da una parte, infatti, c'è una fondamentale valenza qualitativa: cambiano le regole e cambia il modo di ottimizzare i siti, chi fa Seo avrà quindi sempre più bisogno di capacità verticali che permettano di ottenere, mediante il rispetto delle linee guida classiche dell’ottimizzazione, un codice pulito al quale affiancare contenuti di valore aggiornati; dall’altro c’è una valenza tecnologica introdotta dagli algoritmi semantici che permettono di rendere maggiormente reperibili i contenuti di qualità.
fonte: linkiesta.it