Eravamo giunti a fissare alcuni punti fermi:
A) Il concetto pragmatico di responsabilità morale e legale non è intaccato dalle recenti osservazioni neuroscientifiche, poiché rimane non falsificabile l’ipotesi che le scelte importanti dipendano dalla consapevolezza cosciente di una persona (che si tratti di un processo neuronale – ancora non ben specificato – o di altro)
B) Non esistono prove decisive che facciano propendere più per un funzionamento deterministico che per uno indeterministico del cervello (e viceversa);
C) Le neuroscienze non sono in grado di dare indicazioni conclusive neanche riguardo alla cornice concettuale in cui inquadrare il rapporto causale mente-cervello (interazionismo o riduzionismo materialista?)
In particolare, avevamo concluso osservando che sarebbe probabilmente necessario rivolgersi ad altre discipline (come la fisica e l’informatica) per ottenere qualche suggerimento concreto – soprattutto in relazione all’ultimo punto citato, il cosiddetto problema ontologico.
Cominciamo dall’INFORMATICA. Come è noto, i ricercatori nel campo dell’intelligenza artificiale perseguono da molti anni l’obiettivo di realizzare una “mente” algoritmica equivalente a quella umana. Fino a oggi, ogni tentativo è stato infruttuoso. Qualora ci si riuscisse, però, risulterebbe dimostrata l’esportabilità dell’autocoscienza su un supporto informatico. In tal caso, sia il riduzionismo materialista sia il determinismo troverebbero – apparentemente – un forte argomento a loro favore. Va però chiarito che, in realtà, neanche la realizzazione di un’autocoscienza artificiale dimostrerebbe alcunché, dal punto di vista scientifico, riguardo al problema ontologico. La ragione di ciò risiede in una considerazione fondamentale: qualunque test ipotizzabile per la valutazione della consapevolezza (come il famoso Test di Turing o il più recente ConsScale) non potrà mai dire nulla di conclusivo sull’esperienza autocosciente, che è un fenomeno intrinsecamente sperimentabile solo “in prima persona”. In altre parole, non vi è alcun modo concepibile per cui procedure di verifica applicate “dall’esterno” (i test) possano avere accesso ad aspetti fenomenologici vissuti “dall’interno” (l’esperienza autocosciente), quand’anche il sistema esaminato mostrasse tutte le caratteristiche funzionali di una mente consapevole.
C’è dell’altro. Come è ovvio, il tentativo di realizzare una macchina veramente pensante si basa sull’assunto che l’autocoscienza sia effettivamente una caratteristica algoritmica: puro software, indipendente dallo specifico supporto hardware (tesi dell’Intelligenza Artificiale forte). Tale ipotesi corrisponde all’idea che il cervello umano sia riconducibile a una qualche complicata macchina di Turing, e perciò – in ultima analisi – che il funzionamento della mente equivalga all’esecuzione di una serie di calcoli aritmetici, seppure enormemente complessi. Al di là del fatto che tale concezione implica che ogni fenomeno psichico concretamente sperimentabile – percezioni, emozioni, sentimenti, pensieri – sia pura illusione, è risaputo che essa non è in grado di spiegare la fondamentale caratteristica mentale dell’intenzionalità. Con questo termine si indica, nell’analisi filosofica delle funzioni cognitive, la capacità della mente umana di assegnare contenuto semantico a dati sintattici, ovvero di attribuire un significato a una serie di simboli. Perciò, un’intelligenza artificiale potrebbe non giungere mai a essere dotata di intenzionalità, essendo essenzialmente costituita da strutture formali – gli algoritmi – che sono per loro natura meramente sintattiche.
Questa incapacità intrinseca è stata esemplificata in modo suggestivo dal filosofo John Searle, nel famoso argomento della “Stanza cinese”. Come è logico aspettarsi, Searle è molto criticato dai sostenitori dell’Intelligenza Artificiale forte. Da profano, tuttavia, mi pare di capire che le obiezioni alla sua argomentazione si basino sostanzialmente su un’aspettativa indimostrata: quella che la consapevolezza autocosciente debba comparire spontaneamente in una macchina opportunamente progettata, a patto che questa raggiunga una soglia minima di complessità algoritmica. La mia impressione è che tale congettura abbia un’unica giustificazione razionale: la constatazione che di fatto esiste, nell’Universo, un sistema enormemente complesso dotato di autocoscienza – il cervello umano. Un’osservazione empirica a sostegno di un’ipotesi, però, non basta certo a dimostrarne la verità. Tra le ragioni che si oppongono alle tesi dell’Intelligenza Artificiale forte citerei infine l’argomento gödeliano di Lucas-Penrose, secondo cui l’intuito matematico è di natura non-algoritmica. In breve, la tesi consiste in questo: in base ai teoremi di incompletezza di Gödel i sistemi computazionali hanno dei limiti che la mente umana non ha. La dimostrazione non è complicata: per i teoremi di Gödel, in ogni sistema formale coerente – abbastanza potente da comprendere l’aritmetica – esiste un enunciato vero (un cosiddetto enunciato gödeliano) che il sistema stesso non può dimostrare; ciò non di meno, noi umani siamo in grado di capire che l’enunciato gödeliano è vero: perciò, noi umani possediamo una capacità di cui il sistema formale è privo. Ora, poiché ogni sistema computazionale opera in modo algoritmico sulla base di un qualche sistema formale, risulta in tal modo dimostrata l’irriducibilità dell’intuito matematico – e per estensione dell’intera attività mentale – a una procedura algoritmica esportabile su supporto informatico.
Anche stavolta, naturalmente, le critiche a questa conclusione vengono soprattutto dai sostenitori dell’Intelligenza Artificiale forte. Dato, però, che le dimostrazioni dei teoremi di Gödel sono irrefutabili, gli attacchi filosofici all’argomento gödeliano partono solitamente dal contestare i postulati che sono alla base di quei teoremi (per esempio, il concetto di sistema formale). Francamente, penso che una scappatoia del genere risulti poco digeribile alla maggior parte dei matematici. Va detto, peraltro, che anche un materialista come Douglas Hofstadter ritiene l’argomento gödeliano difficilmente confutabile. Nonostante le difficoltà logiche citate, molti studiosi sono fermamente convinti che entro qualche decennio si arriverà a creare una mente algoritmica autocosciente. I neuroscienziati Giulio Tononi e Christof Koch, per esempio, hanno già proposto un nuovo tipo di test di Turing per verificare il livello di consapevolezza di un’ipotetica “macchina pensante”. Personalmente, ritengo che questa proposta non aggiunga niente di realmente nuovo allo scenario, essendo soggetta agli stessi limiti di ogni altro test di valutazione dell’autocoscienza. Le riflessioni di Koch e Tononi, forniscono però, secondo me, un’interessante indicazione: in considerazione delle enormi difficoltà finora incontrate dalla ricerca sull’intelligenza artificiale, i due ricercatori dichiarano infatti di sospettare che una mente artificiale “potrebbe sfruttare i principi strutturali del cervello dei mammiferi” per diventare autocosciente. Insomma, pare che tra gli studiosi di intelligenza artificiale si stia facendo strada l’idea (abbastanza rivoluzionaria) che un’autocoscienza computazionale potrebbe aver bisogno quanto meno di un supporto fisico con una specifica architettura – quella di un certo sistema biologico – per poter emergere.
Viene allora spontaneo chiedersi se la consapevolezza cosciente non possa rivelarsi essere, in fin dei conti, una caratteristica non esportabile, ed esclusiva di un ben preciso oggetto fisico: il cervello umano (o, naturalmente, quello di un’eventuale altra forma di vita intelligente – di cui però non abbiamo, al momento, prove). Appare chiaro che, se le cose stessero effettivamente così, uno studio teorico del legame mente-cervello andrebbe condotto da una prospettiva totalmente differente da quella dell’informatica, e ancora più approfondita di quella della neuroscienze: potrebbe rendersi necessario, in altre parole, arrivare al livello della stessa fisica fondamentale dei fenomeni coinvolti nell’attività cerebrale. Ovviamente l’approccio non dovrebbe più essere quello della fisica classica, su cui continuano largamente a basarsi gli attuali modelli del funzionamento del cervello: esso, infatti, non può che condurre a un concetto di mente computazionale – e questo, alla luce di quanto abbiamo visto finora, non è in grado di risolvere il problema ontologico, né tanto meno quello del determinismo.
Nel prossimo (e ultimo) articolo, dunque, cercheremo di capire se la FISICA possa davvero darci qualche indizio decisivo sulle questioni della mente e del libero arbitrio.
Michele Forastiere
michele.forastiere@gmail.com