Magazine

Web e bufale

Creato il 19 aprile 2011 da Biagio1972 @l_immateriale
Web e bufaleAlcuni mesi fa condussi un colloquio di selezione per uno stage in Serbia. Al candidato chiesi cosa sapeva del paese balcanico. “Che ci sono problemi”, rispose. “Entri nel dettaglio”. “Che c’è stata la guerra tra Serbia e Albania”. “No”. “E invece sì”, lui, assertivo. Io, conciliante: “Andiamo con ordine. Vi è stata negli anni Novanta la dissoluzione della ex Jugoslavia e le conseguenti guerre in Croazia e Bosnia. Poi nel 1999...”. “La guerra tra Serbia e Albania”, mi interruppe lui. Cercai di spiegare i dettagli del conflitto in Kosovo: non una guerra tra Serbia e Albania ma un conflitto tra esercito serbo e milizie indipendentiste kosovare di etnia albanese cui seguirono a sostegno di questi ultimi i bombardamenti della NATO. Lui mi guardò quasi con disprezzo: “Non è così”. “Come non è così???”. “Abbiamo fonti diverse”. E lì sbottai: “Senta, io vivo a Belgrado, parlo serbo, ogni mattina traduco la stampa serba. E allora mi faccia vedere le sue fonti”. Andammo davanti a un computer e lui cercò senza esito su Yahoo Answers le fonti che confermavano le sue idee. Alla fine, tra il testardo, il provocatorio e l’ingenuo : “Ma se è come dice lei mi vuole spiegare perché i tifosi serbi a Genova bruciarono la bandiera albanese?”. Io: “Non le rispondo. Lo scopra lei”.

Quello che a distanza di mesi potrebbe essere ricordato come un aneddoto divertente e all’epoca mi provocò una incazzatura feroce introduce invero il tema della capacità di selezionare, riordinare e analizzare le fonti del sapere in un’epoca in cui l’eccesso di informazione, la costante produzione di nuove fonti e pseudo tali, la moltiplicazione dei media sociali richiedono nuovi strumenti e una nuova sensibilità nella ricerca e nel confronto dei contenuti.

Nel web, dove vi sono decine di sollecitazioni quotidiane a diffondere tramite un click fatti o fattoidi, gran parte delle persone opera senza alcuna altra competenza nell’analisi delle fonti che quella acquisita durante le ricerche scolastiche negli anni dell’infanzia e dell’adolescenza.

Una volta vi erano pochi depositari della conoscenza. Un qualsiasi tema poteva essere esaustivamente affrontato andando in una biblioteca pubblica e affiancando alla Enciclopedia Treccani o alla UTET qualche buon libro di riferimento sull’argomento. Oggi pure Wikipedia, al netto degli errori possibili e delle omissioni inevitabili, è un prodotto che non può esaurire la molteplicità delle pagine web che parlano diun dato argomento. Spesso vi è una necessità di risolvere in tempi brevissimi una necessità informativa e i tempi lunghi giorni o settimane di una ricerca vecchio stile sono un sogno antistress. E poi vi sono le opinioni personali. Un post di un blog può diventare una fonte per una tesi di laurea? Certo che sì, ma quando e sotto quali condizioni? L’idea di autorevolezza che ha il mondo accademico è ben distante da quella che ha il web.

Ecco dunque che l’urgenza presente del web non è quella di dare ulteriori informazioni ma soprattutto aggregatori e riordinatori.

Google non è tanto un motore di ricerca ma un sistema di riordino delle fonti sul web in base al prestigio che lo stesso web riconosce alle singole pagine in funzione dell’algoritmo del Pagerank. Netvibes non solo aggrega i tag e gli rss feed su un determinato argomento ma consente di ridurre enormemente i tempi di monitoraggio del web. Vedere in questa luce tali strumenti dischiude anche nuove modalità di utilizzo del web.

Ma quali sono i principi su cui può basarsi un’attività di riordino delle fonti e della conoscenza sul web?

Mi permetto di indicare quattro parametri:

  • ·profondità, intesa come numerosità delle pagine rilevate
  • ·ampiezza, intesa come molteplicità e diversità delle fonti monitorate
  • ·rilevanza, intesa come importanza relativa rispetto allo scopo della ricerca
  • ·prestigio, intesa come autorevolezza della fonte, sia l’autore che la testata web

In questo senso è evidente che anche uno strumento formidabile come Google è solo una parte della soluzione. Le pagine più linkate non sono per forza quelle con i contenuti più pregnanti mentre invece nel mondo accademico (cui Pagerank si ispira) spesso accade proprio così. Le migliaia di pagine che raggruppano motori di ricerca o reader rss feed restano su un’orizzonte piatto come il monitor: non si ha profondità e non si sa da quale pagina partire per una ricerca o una analisi. Un contenuto molto pregnante e prestigioso può affondare nelle pagine più remote di google a causa di una cattiva o nulla SEO.

In un quadro magmatico e cacofonico non sembra oggi emergere un parametro unico, semplificatorio e meccanico per valutare la qualità e l’affidabilità dei contenuti. Le metriche quantitative non dicono nulla perché un hoax può avere milioni di click, di like, di share o di tweet, sia perché chi vi ha cliccato non si poneva una questione di autorevolezza e veridicità sia perché poteva essere visto come un contenuto divertente e virabile. La differenza sostanziale sarà nella capacità dei singoli di reperire sul web e nel mondo tradizionale fonti comparabili e falsificabili (per citare Popper) capaci di avere maggiore forza persuasiva di altre concorrenti. In tal senso le comunità web mettono subito alla prova le fonti e ricordo al riguardo The Smocking Gun quando svelò il falso scoop di TMZ su John Fitzgerald Kennedy che si sollazzava al sole o il recente smascheramento della sceneggiata a Forum della falsa terremotata dell’Aquila.

In ogni caso resta la domanda: come si impara a trarre dal web contenuti pregnanti e affidabili? Ho provato a proporre quattro parametri, soprattutto con la speranza di non trovarmi altri potenziali stagisti che credono alla prima pagina web che leggono.


Ritornare alla prima pagina di Logo Paperblog