Facebook, siamo noi che decidiamo non l’algoritmo
Da Franzrusso
@franzrusso
Interessante studio quello realizzato da alcuni ricercatori di Facebook pubblicato su Science che ci dimostra che non è tanto l’algoritmo che decide i nostri contenuti, ma siamo noi stessi. Alla fine il nostro feed è alimentato da ciò che in effetti vogliamo vedere e spesso sono notizie trasversali indipendentemente di nostri interessi.
Spesso si è portati a pensare a Facebook, e ai Social Media in generale, come fosse una “cassa di risonanza”, la “eco-chamber“, dove sarebbe, in teoria, più semplice far girare notizie che ci interessano particolarmente per raggiungere tante persone. Eli Pariser nel 2011 sosteneva che i Social Media hanno il potere di distorcere la realtà. La sua teoria era la “bolla del filtro“, ossia una bolla all’interno della quale vengono immagazzinate informazioni e notizie che più ci interessano, tenendo fuori tutto il resto. Ecco il perchè parlava di una realtà distorta. E invece lo studio portato avanti da alcuni ricercatori di Facebook e da un docente dell’Università del Michigan, pubblicato su Science, ci dice che in realtà le cose sono un po’ diverse.
Sappiamo bene dell’esistenza di un algoritmo che agisce all’interno di Facebook per selezionare e proporci notizie e informazioni sulla base di ciò che ci interessa. Una sorta di selezionatore che svolge un’operazione importante all’interno di un fiume in piena di notizie. La ricerca portata avanti da luglio 2014 a gennaio 2015 ha preso in considerazione 10,1 milioni di utenti Facebook che si definiscono, come orientamento politico, liberali, moderati o conservatori. Sono stati poi esaminati 7 milioni di link e considerando notizie riguardanti politica, affari internazionali e ambiente. Da questa attività è derivato un volume di 3,8 miliardi di dati notando 903 milioni di esposizioni uniche, cioè link legati ad un contenuto effettivamente apparso sul news feed dell’account e 59 milioni di click unici tra gli utenti considerati dalla ricerca.
Ebbene, la ricerca rileva che, nonostante tutto, sul nostro feed visualizziamo molte notizie che divergono dalle nostre opinioni. Ed è una quota abbastanza consistente. Infatti stiamo parlando del 25%, ossia un quarto delle notizie a cui siamo esposti ogni giorno. Il dato è molto interessante perchè ci dice che in effetti siamo molto più esposti ad un contenuto trasversale, “cross-cutting content“, più di quello che noi stessi crediamo. E che alla fine, nonostante l’algoritmo, siamo sempre noi a “costruire” il nostro feed. Siamo quindi più aperti a notizie e informazioni che vanno oltre i nostri stessi interessi, politici in questo caso, ma vale la stessa cosa in senso generale.
In generale, ogni utente ha una media di “amici” che la pensano diversamente che va dal 9 al 30%. La ricerca nota anche che i liberali sono leggermente più chiusi, infatti il loro feed è costituito per il 24% da notizie che provengono da conservatori. Invece il feed del conservatore sarà popolato per il 35% da notizie “liberali”.
Ora, altro punto messo in evidenza dai ricercatori è che l’algoritmo ha una incidenza molto ridotta nel selezionare il nostro news feed. Nel caso dei conservatori incide del 5%, mentre nel caso dei liberali incide dell’8%.
Per arrivare alla conclusione, la ricerca ci dimostra che le “casse di risonanza” in effetti non sono così presenti sui Social Media e che la ricerca è utile anche per comprendere quanto in effetti gli utenti sono facilmente influenzabili dall’operato di un algoritmo. Da quello che si vede in effetti siamo proprio noi stessi a selezionare i nostri interessi e non abbiamo difficoltà ad esplorare informazioni che non appartengono alla nostra sfera di interessi.
E voi che ne pensate? Mi piacerebbe davvero sapere la vostra opinione a riguardo e se anche voi avete riscontrato questo andamento.
(cover image by @vege – #82206897)
Potrebbero interessarti anche :