Magazine Ecologia e Ambiente

Lettera aperta sui rischi dell'Intelligenza Artificiale

Creato il 13 gennaio 2015 da Estropico
Lettera aperta sui rischi dell'Intelligenza Artificiale Un tema a noi caro e' ormai definitivamente sfuggito dal ghetto transumanista, come dimostrato da questa iniziativa che arriva dopo mesi di crescenti grida d'allarme. A chi temesse si tratti di un'iniziativa neo-luddista, faccio notare che fra i firmatari dell'iniziativa del Future of Life Institute troviamo anche transumanisti del calibro di Nick Bostrom, Nick Goertzel e Ezekiel Yudkowski... E prorprio Bostrom, col suo Superintelligence, sembra aver ispirato le recenti dichiarazioni di Elon Musk, uno dei battistrada al dibattito.
Qui, da WebNews:
Una lettera del Future of Life Institute mette in guardia i ricercatori sulla necessità di valutare potenziali rischi legati all'intelligenza artificiale.
Le enormi potenzialità legate all’evoluzione dell’intelligenza artificiale saranno in grado, in futuro, di spalancare la strada ad innovazioni nemmeno immaginabili fino a poco tempo fa. Sarà possibile sfruttarne le capacità per migliorare l’interazione uomo-macchina, oppure per automatizzare alcune operazioni che oggigiorno richiedono l’intervento attivo dell’utente. Gli enormi passi in avanti che stanno compiendo le tecnologie di IA, però, secondo alcuni potrebbero rappresentare un rischio.
Una delle prime voci autorevoli ad esprimersi in merito è stata quella di Elon Musk (Tesla, SpaceX), che nei mesi scorsi ha manifestato tutta la propria preoccupazione, dichiarando che senza un adeguato controllo la situazione potrebbe sfuggire di mano entro pochi anni, arrivando a rappresentare una vera e propria minaccia per l’intero genere umano. Anche Google, seppur senza utilizzare toni allarmistici, ha ufficializzato la creazione di un comitato etico con l’obiettivo di valutare eventuali rischi e implicazioni connessi al progresso tecnologico.
Oggi interviene sull’argomento anche il Future of Life Institute (FLI), un’organizzazione di ricerca con sede a Boston di cui tra gli altri fanno parte Jaan Tallinn (co-fondatore di Skype) e il fisico Stephen Hawking. Il gruppo ha pubblicato una lettera aperta in cui si chiede ai ricercatori di concentrare il proprio lavoro non solamente sul rendere l’intelligenza artificiale più versatile e funzionale, ma anche di massimizzarne i benefici per la società. In altre parole, si suggerisce alle realtà impegnate nell’ambito della IA di focalizzare la propria attenzione sull’esigenza che le tecnologie sviluppate facciano esattamente (ed esclusivamente) ciò per cui sono state concepite.
Sono in molti a pensare che la ricerca relativa all’intelligenza artificiale sia in continua evoluzione, così come crescente è il suo impatto sulla società. I potenziali benefici sono enormi, ma poiché tutto ciò che la civilizzazione ha da offrire è un prodotto dell’intelligenza umana, non siamo in grado di prevedere ciò che potrebbe accadere quando questo nuovo tipo di intelligenza sarà potenziato dagli strumenti offerti dalla IA.
In definitiva, i passi in avanti compiuti negli ultimi due decenni riguardo a riconoscimento vocale, classificazione delle immagini, veicoli autonomi, traduzione ecc. vanno senz’altro considerati come positivi e un terreno sul quale continuare a investire per ottenere risultati ancora più avanzati. Senza chiamare in causa le situazioni catastrofiche rappresentate nella letteratura o nella cinematografia sci-fi, secondo le lettera aperta del FLI, è però bene iniziare a prendere consapevolezza di possibili pericoli legati ad uno sviluppo incontrollato dell’intelligenza artificiale.
Proprio in conseguenza del grande potenziale dell’IA, è importante per i ricercatori ottenerne i benefici facendo attenzione ad evitarne le insidie.
In molti hanno già firmato il documento, condividendo il punto di vista del Future of Life Institute. Tra questi anche membri di aziende come Google, Amazon e DeepMind, oltre ad esponenti di Harvard e del MIT.

Potrebbero interessarti anche :

Ritornare alla prima pagina di Logo Paperblog

Possono interessarti anche questi articoli :