Ricordate la Lettera aperta sui rischi dell'Intelligenza Artificiale? Anders Sandberg, uno dei firmatari, spiega perche' ce n'e' bisogno, sul suo blog: Don't be Evil and Make Things Better.
In nuce: l'obiettivo della ricerca nel campo dell'Intelligenza Artificiale (IA) tende ad essere la creazione di sistemi in grado di offrire qualcosa di utile (guidare, tradurre, etc). Queste innovazioni dirompenti, pur offrendo ovvii vantaggi, portano con se' inevitabili effetti collaterali (rischio disoccupazione, incertezze legali, etc). Tutto cio' andra' affrontato man mano che l'IA avanza, ma la tecnologia fa da battistrada e la societa' spesso fatica a non perdere il passo. Quando, in un futuro non molto lontano, le innovazioni dirompenti dell'IA includeranno sistemi estremamente intelligenti e/o autonomi, non avremo piu' il lusso di poter arrivare in ritardo. E' necessario risolvere il problema-controllo di tali sistemi e non e' un problema da poco. Una delle ragioni della lettera aperta di cui sopra e' che lo sforzo in quella direzione e' stato minimo, fino ad ora, il che ci lascia esposti ad una serie di rischi prevedibili.
Spingere la ricerca in quella direzione e' il logico approccio anche per chi non vedesse l'emergere della superintelligenza come un rischio esistenziale.