Algoritmo bacchettone

Da Pinobruno

I motori di ricerca semplificano la nostra vita, perché ci aiutano a trovare in poco tempo le informazioni che ci servono. Gli algoritmi che governano questi preziosi strumenti digitali a volte si trasformano in stupidi censori, perché i filtri automatici non vanno troppo per il sottile: o bianco o nero, senza sfumature di grigio. I risultati sono spesso paradossali, come racconta il giornalista e sociologo Evgenij Morozov alNew York Times. L’articolo originale – You Can’t Say That on the Internet – è stato pubblicato il 16 novembre 2012.  Vi propongo la traduzione italiana, a cura di Internazionale.

Baluardo della libertà culturale, la Silicon valley si considera un an­tidoto al conformismo. Ma dietro la sua facciata a volte si nascondono regole conservatrici. Il motivo di questo puritanesimo spesso sono gli algoritmi di ricerca. All’inizio di settembre il New Yorker ha scoperto che la sua pagina su Facebook era stata bloccata perché violava le norme del social network relative a sesso e nudità”. Tutta colpa di una vignetta di Adamo ed Eva nel giardino dell’Eden. E dei capezzoli in bella vista di Eva.

La lotta all’oscenità può anche essere fonte di buoni affari. Come nel caso di Im­permium, un’azienda della Silicon valley che fornisce assistenza ai gestori di siti web nella moderazione dei commenti offensivi degli utenti. Anche la Apple si è allontanata dalla sua tradizione iconoclasta. Quando l’ultimo libro di Naomi Wolf, Vagina: a new biography, è stato messo in vendita sul negozio iBooks, la Apple ha sostituito “Vagi­na” con “V****a”. Dopo molte proteste, ha ripristinato il titolo originale. Ma quanti altri libri saranno stati manomessi?

La Silicon valley non usa una censura diretta, ma presenta termini ormai di uso comune come qualcosa di cui vergognarsi. Il proliferare della funzione autocomplete su YouTube, Google e Amazon è emblematica. In teoria serve solo a completare le parole da cercare senza doverle digitare per intero. È uno strumento intelligente, ma asseconda questa tendenza al perbenismo.

Fino a poco tempo fa la parola “bisessuale” non veniva completata automaticamente su Google: solo ad agosto il motore di ricerca ha inserito suggerimenti per alcune delle ricerche (ma non tutte) di quella parola. Due anni fa la rivista hacker 2600 ha pubblicato una lista nera di 40o parole. Non le ho verificate tutte su Google, ma nei casi in cui ci ho provato – “svastica” e “Lolita” – nessuna è stata completata automaticamente  Grazie alle aziende di tecnologia, la nostra vita pubblica si sta trasformando. E a questa metamorfosi digitale si accompagna l’affermazione di nuovi “algoritmi di guardia”, gli strumenti che filtrano le informazioni in rete.

Molti di questi strumenti restano invisibili finché qualcosa non va storto. All’inizio di settembre la diretta in streaming degli Hugo awards, gli Oscar della fantascienza, è stata interrotta da un avviso di violazione del copyright. Ustream, il sito che ha trasmesso la cerimonia, ha usato i servizi di un’altra azienda per verificare il copyright. Per qualche motivo, il video diffuso prima del discorso dello scrittore Neil Gaiman ha fatto scattare un avviso di violazione. Il materiale è stato tagliato, anche se gli organizzatori avevano i permessi.

I limiti degli “algoritmi di guardia” sono evidenti. Come spiegare il concetto di fair use, uso legittimo, a un algoritmo? Il contesto è fondamentale, e non ci sono regole certe. Per questo esistono i tribunali. Anche la nostra reputazione è condizionata dagli algoritmi. Nessuno lo sa meglio di Bettina Wulff, l’ex first lady tedesca, che ha citato in giudizio Google perché completava automaticamente le stringhe di ricerca del suo nome con parole come “escort” e “prostituta”. Ha accusato Google di diffondere false voci sul suo conto, mentre per il motore di ricerca le parole suggerite sono solo il “risultato dell’elaborazione algoritmica di fattori oggettivi”.

La difesa da parte di Google non regge. Nel 2010, l’esperto di marketing Brent Payne ha pagato i suoi assistenti perché cercassero la stringa “Brent Payne ha manipolato questa pagina”. Poco dopo sarebbe bastato digitare “Brent P” su Google per visualizzare quella frase tra le opzioni. Quando Payne l’ha reso noto, Google ha rimosso quel suggerimento. Ma quanti casi simili sono passati inosservati?

Anacronistico pudore, sudditanza al copyright, inutili danni alla reputazione: il controllo affidato agli algoritmi fa pagare un costo enorme alla nostra vita. Un aspetto che dobbiamo mettere in discussione. Le aziende non dovrebbero rendere pubblici i loro algoritmi, ma solo condividerli con un organo di vigilanza. Un rimedio drastico? Forse. Ma è proporzionale alla crescente influenza esercitata dalle aziende come Google. La Silicon valley non adotterà queste regole da un giorno all’altro. Ma i nuovi “algoritmi di guardia” devono capire che la loro influenza culturale comporta una grande responsabilità.


Potrebbero interessarti anche :

Possono interessarti anche questi articoli :