Qualche tempo fa affrontammo un aspetto della tecnologia e ci chiedevamo se potesse con il tempo rivelarsi fatalmente distruttivo per lo stesso suo creatore: l’uomo.
Non si parlava ovviamente di rivolta di macchine o robe del genere, almeno non in senso stretto, ma di una preoccupazione più ampia legata a determinati ambiti decisionali.
Cominciamo col sottolineare come, a distanza di pochi mesi, lo studio della robotica e dell’intelligenza artificiale (A.I.) applicata abbia continuato la sua scalata a ritmi vertiginosi.
Oggi tranquillamente si parla di competenze mediche, giornalistiche, legali o di trading, svolte in autonomia da software senza che la cosa desti troppo clamore. Le ripercussioni sul mondo del lavoro sono evidenti e col tempo lo stesso mercato, partendo dalle università, dovrà modellarsi ai nuovi scenari. Per alcuni studiosi la robotica per l’uomo sarà quello che la macchina ha rappresentato per il cavallo.
L’aspetto sul quale però si stanno ora soffermando alcuni professori che a questi progetti dedicano da anni studi e ricerche, travalica la questione della presenza in quanto tale della robotica nella vita quotidiana, per soffermarsi su quella più delicata relativa alla A.I. che li gestisce.
Che sia applicata alle semplici automobili, a macchinari bellici o per la cura dei più anziani, il problema effettivamente è serio.
Il dubbio di molti è il seguente: stiamo andando verso un mondo in cui l’intelligenza artificiale “ruberà“ ambiti della vita quotidiana per lasciarci più liberi da preoccupazioni o incombenze. Ma chi progetterà le scelte che inevitabilmente la macchina si troverà a dover prendere in nostra vece?
L’etica in tali aspetti è fondamentale in quanto, per determinati ambiti, la scelta tra due opzioni potrebbe – questa la reale preoccupazione – risolversi in una decisione tra vita o morte.
Esempio pratico è il così detto Tunnel Problem, che ci porta in una macchina con guida autonoma, a ridosso di una galleria, in cui un ostacolo umano si palesa davanti a noi tanto improvvisamente per cui la velocità di crociera non consente una frenata indolore per tutti; cosa fare? Uccidere il pedone o sterzare e puntare il muro con i relativi dubbi sulle conseguenze che riporteremo? Questo, espandibile a tutti gli ambiti in cui si demanderà una decisione etica ad un processore, è il cuore del problema.
La scelta che la macchina prenderà, potrebbe non essere la stessa che ognuno di noi avrebbe messo in pratica e così le relative conseguenze della stessa. In ogni caso, a decidere non saremo stati noi ma qualcuno in ambito di progettazione, seguendo direttive piovute dall’alto o al massimo la sua stessa etica personale.
Ad ingrossare il coro degli scettici, sono usciti allo scoperto anche delle pop-star della scienza del calibro di Stephen Hawking e Bill Gates che, senza troppi giri di parole, hanno espresso i loro dubbi riguardo una penetrazione troppo profonda delle A.I. in determinati ambiti della vita quotidiana.
Ovvio che una demonizzazione non ha senso e sarebbe oltretutto inutile visto che non fermerà l’incedere della tecnologia, ma prendere in considerazione il problema etico oltre quello meramente tecnologico, può aiutare la ricerca da un punto di vista filosofico.
E se qualcuno pensasse che siamo ancora molto distanti da un uso diffuso di apparecchiature in grado di prendere decisioni autonome, può essere illuminante un video (https://www.youtube.com/watch?v=_qah8oIzCwk) diffuso pochi giorni fa che mostra come un drone riesca a volare a velocità sostenuta, evitando alberi e rami, in totale autonomia. Non sarà ancora Robocop, ma di certo il modellino radiocomandato è roba da museo.
Luca Arleo