Magazine

Test di Turing: quali confini per l’intelligenza artificiale?

Creato il 10 luglio 2014 da Mariagraziapsi

intelligenza artificiale spielberg

Con “intelligenza artificiale forte” ci si riferisce all’idea che opportune macchine possano ragionare, risolvere problemi e aver coscienza di sé, riproducendo così le funzioni cognitive umane. Alan Turing, nell’articolo Computing machinery and intelligence pubblicato nel 1950 sulla rivista Mind, fissò alcuni criteri inglobati poi nel famosissimo Test di Turing, finalizzato a stabilire se una macchina fosse in grado o meno di pensare. Nell’articolo viene ipotizzato un dialogo a tre partecipanti: un uomo A, una donna B, e una terza persona C. Quest’ultimo è separato dagli altri due e attraverso una serie di domande deve stabilire qual è l’uomo e quale la donna.

Il test prevede una sostituzione di una “macchina pensante” con il soggetto A: se la percentuale di volte in cui C risponde correttamente è simile prima e dopo la sostituzione della macchina con A, allora la macchina stessa dovrebbe essere considerata intelligente, in quanto risulta indistinguibile da un essere umano.

Per celebrare il 60esmo anniversario dalla morte di Turing, la Royal Society di Londra ha organizzato la “Turing Test 2014 Competition”, nella quale i software presentati avrebbero dovuto rispondere, per interposta tastiera, a dei giudici umani, durante una discussione di cinque minuti. Al termine, i giudici dovevano stabilire se il loro interlocutore fosse un umano o un robot. Se il programma informatico fosse riuscito a convincere almeno il 30% degli umani, il test si sarebbe dovuto considerare riuscito.

Il software che sembra aver apparentemente superato il Test si chiama Eugene Goostman ma il risultato ottenuto ha generato molti dibattiti, in quanto gli sviluppatori del software hanno presentato Eugene come un ragazzino di 13 anni ucraino che se la cava mediocremente con l’inglese. I giudici hanno quindi considerato, durante il test, che potesse dare risposte poco comprensibili o che si dimostrasse meno preparato, vista la sua giovane età. Come qualsiasi altro software che fino ad oggi sia stato sottoposto al test, Eugene è comunque ancora molto distante dal superamento dei requisiti e i limiti posti da Turing, che ipotizzava un’intelligenza artificiale vera e propria in grado di pensare autonomamente.

Ma fin dove è possibile immaginare ciò?

John Searle presentò la sua prima argomentazione a riguardo nel 1970 sulla rivista scientifica Behavioral and Brain Sciences. Egli ipotizzò di poter costruire un computer in grado di superare il Test di Turing che si comportasse come se capisse il cinese: avrebbe acquisito quindi dei simboli cinesi in ingresso, eseguito un programma e prodotto altri simboli cinesi in uscita. In tal modo, il computer potrebbe convincere un uomo che parla correttamente cinese di parlare con un altro uomo che parla correttamente cinese, mentre sta in realtà parlando con un calcolatore.

Per poter delineare qualche limite concettuale, Searle invita a immaginare che lui stesso possa sedersi all’interno del calcolatore: si trova così in una piccola stanza con un libro contenente la versione in inglese del programma utilizzato dal computer. In tal modo, potrebbe ricevere frasi in cinese attraverso una finestra di ingresso, elaborarle seguendo le istruzioni del programma e produrre altre frasi cinesi in uscita, allo stesso modo del calcolatore. Tuttavia egli non capirebbe i simboli cinesi e, di conseguenza, nemmeno il calcolatore, il quale risulta un semplice manipolatore di simboli in quanto si trovano entrambi nella medesima situazione.

Il nucleo centrale della riflessione di Searle è dunque la distinzione tra sintassi e semantica: la stanza è in grado di combinare i caratteri secondo alcune regole sintattiche ma non conosce il significato di ciò che ha fatto, cioè non ha contenuto semantico. Per tale ragione viene a mancare l’intenzionalità della comunicazione, senza la quale un’analogia totale tra mente e computer non ha ragione di esistere.
Resta tuttavia da ammettere che il progresso presenta un’avanzata inarrestabile e, nella produzione sempre maggiore di Robot Sociali, non resta che appellarci alle tre leggi della robotica teorizzate da Asimov:

  1. un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno;
  2. un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge;
  3. un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Roberto Gammeri

BIBLIOGRAFIA
Isaac Asimov, Io Robot. Bompiani 1963.
Nannini Sandro, L’ anima e il corpo. Un’introduzione storica alla filosofia della mente, Laterza 2011.



Ritornare alla prima pagina di Logo Paperblog