In una delle conferenze sul tema della sperimentazione animale cui partecipai l’anno scorso mi misero “in difficoltà” (chiarirò ora in che senso mi misero “in difficoltà”) con una domanda di stampo filosofico. Mi si chiese, sostanzialmente, se dato che ero a favore della sperimentazione animale (dunque ‘specista’, ça va sans dire), sarei stato favorevole anche alla sperimentazione su una nuova specie intelligente che avessimo dovuto scoprire.
La difficoltà ovviamente non era filosofica, ho una risposta molto chiara a questa obiezione, visto che l’ho ricevuta ormai un migliaio di volte in forme diverse. La difficoltà era comunicativa; stava solo nel fatto che la risposta sarebbe stata difficile da comprendere per la platea senza un adeguato contesto. Sinteticamente e d’istinto, avrei sicuramente risposto così:
“Ci penserò quando accadrà”.
Sento già le critiche che una simile risposta così semplice avrebbe istintivamente suscitato: avete fatto una domanda ardita per mettermi in difficoltà, e io ‘svicolo’.
Ma ragioniamo: sto davvero scappando vergognosamente? Devo davvero saper rispondere a quella domanda così complicata per poter sostenere una mia idea dell’etica? Se non lo faccio vuol dire che ‘svicolo’, che mi rifiuto di mettere alla prova la mia etica, o addirittura, che mi rifiuto di prendere una posizione?
No, non voglio che si dica che non prendo nessuna posizione sul fronte etico, che non propongo nessun approccio per la risoluzione dei problemi etici, perché non è vero; se così fosse, sarei inattaccabile, ma lo sarei solo perché non direi mai niente su cui essere attaccato.
Io un metodo etico ce l’ho, in generale. L’approccio con cui affronto un problema etico è essenzialmente contrattualista. L’argomentazione a sostegno di questa scelta è ben nota, ma la spiegherò comunque brevemente: se si analizzano i rapporti fra enti razionali tramite la teoria dei giochi (che è uno dei miei strumenti intellettuali preferiti) ci accorgiamo che nel lungo termine la strategia a priori più conveniente per ogni agente è quella collaborativa. Insomma, io prospero se collaboro col mio prossimo, altrimenti decado. Da qui l’implicito contratto sociale (che non è un vero contratto, ovviamente, ma piuttosto un’insieme di accordi e convenzioni implicite su cui si regge la convivenza nella società) che porta gli uomini a collaborare, aiutarsi a vicenda, obbedire a norme comuni: lo fanno per poter prosperare tutti quanti. Quindi se uno mi domanda “che ragione avrei io di essere altruista”, io gli rispondo “ti conviene, se sei altruista gli altri saranno altruisti con te e prospererai”.
L’approccio contrattualista permette di muoversi piuttosto bene nel dibattito etico, permettendoti di aggredire qualsiasi problema in modo parecchio sistematico, senza al contempo cadere vittime di eccessiva inflessibilità di pensiero. Per esempio, ecco come uso questo approccio per gestire la questione sperimentazione animale: se uno mi domanda “che ragione avrei io per non volere che si sperimenti su animali”, rispondo “nessuna”. Gli animali sono fuori dal contratto sociale, e la società deriva soltanto vantaggi dalla pratica della ricerca in vivo, quindi in ottica sociale, su base contrattualista, non v’è ragione di non sperimentare su animali. La pratica deve essere considerata legittima. L’unico argomento che si possa opporre alla sperimentazione animale è il classico “bisogna rispettare il sentimento verso gli animali”, magari accompagnato dall’altro: “coltivare la compassione verso gli animali per sviluppare anche quella verso l’uomo” (il beneficio della compassione verso l’uomo è evidente). Altre possibili ragioni contro non ne vedo, e anche queste vanno soppesate contro i benefici notevoli che se ne ricavano. Dunque la soluzione in realtà è piuttosto semplice.
Come si vede, è vero che quello contrattualista è un metodo parecchio efficace, lineare e che non ammette repliche piglianti nei casi specifici. Cosa mi vorreste mai rispondere sul tema sperimentazione animale? È ovvio che se stiamo in una società umana ci convenga collaborare fra umani, ma non serve a nulla collaborare con gli animali, anzi, non si può perché non sono enti razionali. Dunque li si può anche “sfruttare”.
Dunque, molto semplicemente, con gli umani collaboro perché conviene più che competerci; con gli animali competo perché conviene più che combatterci. Ridotto all’osso, ma efficace.
Soprattutto, il punto di forza più grande del metodo è che dà un’effettiva motivazione per essere “buoni”: essa è principalmente (ma non solo) che gli altri siano buoni con te. L’utilitarismo, o il kantismo, o il capability approach, questo non lo garantiscono, vorrebbero farsi strada con la sola forza del loro essere “giusti”. Che è un po’ poco come motivante. Anzi, che non è niente, visto che non si può usare il concetto di giusto per definire il concetto di giusto, no?
Ma ovviamente non mi aspetto che il mio approccio sia esente da critiche; qualsiasi metodo etico ne solleva, più o meno come qualsiasi cosa facciamo in generale nella vita … ci sarà qualcuno che non lo gradisce. Ma sarà interessante vedere quali sono le critiche che dovrebbero mandare in crisi il contrattualismo (che peraltro dopo Rawls ha raggiunto livelli di elaborazione filosofica molto avanzati), e che in un certo senso ci riescono, ma in un certo altro senso, uno più rilevante, sono invece del tutto impertinenti.
Generalmente la strategia di attacco contro il mio contrattualismo, ma non solo il mio, consiste nell’identificare, o nel costruire ad arte, situazioni reali o immaginarie in cui comandamento ‘sii altruista’ non porti a convenienza per chi lo segue. In questi casi si arriverebbe a soluzioni apparentemente contro-intuitive, tipo che danneggiare il prossimo per il proprio interesse possa essere moralmente legittimo. Insomma, io uso ‘collaborare conviene’ (nota bene perché dopo ci torneremo … in realtà io dico ‘collaborare conviene di solito’) come punto di partenza della mia riflessione; i miei avversari dialettici tentano di dimostrare che non è così con contro-esempi: “ci sono casi”, essi dicono, “in cui collaborare non conviene, e conviene anzi essere traditori, sfruttatori, prepotenti”.
Esaminiamo da vicino la formulazione di queste critiche.
La prima linea di attacco sviluppata in questo modo è di solito la seguente:
“Malgrado nella maggior parte dei casi sia vero che collaborare conviene, a volte tradire porta ottimi risultati per sé stessi. Per esempio, la maggior parte dei criminali hanno una vita brutta, ma alcuni di essi hanno grande successo e ricchezza.”
Rispondere a questa obiezione è molto semplice. Il fatto che a posteriori a volte la strategia ‘tradisci e danneggia’ porti benefici non significa che a priori non sia meglio scegliere la strategia ‘collabora ’. La maggior parte dei criminali e dei violenti vive una vitaccia. Poi c’è qualcuno cui la propria attività complessivamente frutta bene, ma non suggerirei mai a qualcuno di diventare criminale per avere successo nella vita, semplicemente perché quella strategia non è la migliore a priori.
Questa linea di attacco è dunque molto debole; il fatto stesso che la società esista vuol dire che è stata favorita dall’evoluzione, il che significa che stare in società conviene, e dunque che essere prosociali conviene, in linea generale. Passiamo oltre.
La seconda linea di attacco è anch’essa abbastanza debole ma, ehi, siamo ancora all’artiglieria leggera:
“Non è detto che la strategia collaborativa premi sempre, se sei il più forte puoi anche schiacciare il tuo nemico senza preoccupartene troppo.”
Questa è un’obiezione debole perché, di solito, anche il nemico più debole prova a difendersi e nel suo difendersi può danneggiarti; meglio evitare la violenza, in generale, perché richiama altra violenza. E poi non devi considerare soltanto il danno che può farti ribellandosi, ma anche i vantaggi che potrebbe portarti invece collaborarci. Se si può collaborarci, è quasi sempre più ragionevole farlo che rischiare di lottarci.
Ma attenti, finora era facile, adesso arriva l’artiglieria pesante. Terza linea d’attacco, molto più insidiosa:
“Sì, ma io ti posso dimostrare che anche a priori non è detto che collaborare sia sempre la strategia che premia. Per esempio immagina un alieno onnipotente e onnisapiente che venga sulla terra, così potente che rispetto a lui noi siamo come formiche: lui non rischia nulla a ‘tradirci’, perché tanto non abbiamo potere su di lui e non ha nulla da guadagnare dalla nostra collaborazione.”
Quest’obiezione è piuttosto seria (o almeno, lo è in una certa ottica che considero sbagliata che poi esamineremo), ed è una rielaborazione del mito dell’anello di Gige: un onnipotente ha ancora ragioni per essere ‘collaborativo’? In realtà, un alieno completamente onnipotente non ha nessuna ragione di sentirsi obbligato a comportarsi gentilmente con gli umani perché essi non hanno alcun peso contrattuale, intellettualmente parlando per lui è ragionevole sfruttarci come per noi è ragionevole sfruttare gli animali. Il ragionamento che io facevo sopra riguardo al rapporto fra uomo e altri animali vale pari pari qui per il rapporto fra alieno onnipotente e uomo.
Ma non dimentichiamo che il ragionamento è solo uno strumento che soppesa i vari interessi che ci spingono, i nostri moventi; dobbiamo anche valutare quali siano i suddetti moventi. E fra i nostri moventi esistono sentimenti come la pietà e la compassione: forse che gli animali non usufruiscono della nostra compassione? Possiamo dunque anche noi invocare la compassione e l’empatia dell’alieno per chiedere che ci risparmi, nonostante l’immenso squilibrio di potere. Questa può essere un’arma molto forte, in realtà, perché se l’alieno prova pietà probabilmente non si metterà a sfruttarci in maniera inumana. Essendo umani noi proviamo empatia, e anche questo è un determinante del nostro comportamento, da considerarsi insieme agli altri in ogni valutazione di carattere etico.
E fin qua avevo eroicamente resistito a tutti i vostri attacchi, anche all’ultimo, insidiosissimo e che un po’ mi ha anche scalfito.
Ma adesso mi sganciate l’atomica:
“Sì, ma immagina che questo alieno onnipotente di cui parlavo sia anche privo di qualunque sentimento umano. Allora sarebbe legittimato a fare di noi quello che vuole, e la tua idea che essere altruisti convenga nel suo caso crolla!”
Chapeau. Qui mi dichiaro sconfitto.
Siete contenti? Avete stiracchiato tanto le circostanze di applicazione che il mio sistema non funziona più. Ebbene devo ammetterlo, con Azatoth il Caos Primitivo, il Dio folle che dorme al centro dell’Universo gorgogliando blasfemità, e che se mai dovesse svegliarsi potrebbe inghiottire il cosmo intero in un solo boccone, la mia idea che l’altruismo sia la scelta più conveniente non regge più. Avete trovato un caso in cui la mia
Ma vorrei attirare la vostra attenzione su come siete riusciti a fare una cosa del genere, su quali estremi avete dovuto invocare per riuscirci : tanto per cominciare, Azatoth non esiste, che noi sappiamo; e poi se esistesse ovviamente nessuna morale umana ci verrebbe molto in soccorso contro di lui.
Mi avete sconfitto … ma sospetto che abbiate usato contro di me strumenti così eccessivi che nessun sistema potrebbe sopravvivere al loro uso, neanche il vostro.
Esempio, supponiamo che applichiate un altro sistema morale, non contrattualista; magari uno con fondamenta meno solide del mio (mancante di motivazioni, ad es.) ma con applicabilità nominalmente più vasta. Dirò l’utilitarismo singeriano, per semplicità, ma varrebbe uguale anche, ad esempio, per il capability approach; entrambi hanno quella certa pretesa di universale applicabilità delle proprie prescrizioni morali ereditata dal kantismo, dunque vorrebbero di essere validi sempre e comunque. Effettivamente, siccome l’utilitarismo è una trovata completamente astratta, possiamo tranquillamente affermare che in astratto valga anche per Azatoth, che anche lui ‘dovrebbe’ comportarsi seguendolo, e dunque anche Azatoth dovrebbe cercare di diminuire la sofferenza e massimizzare il piacere nell’universo, senza attribuire in ciò maggiore considerazione a se stesso che agli altri senzienti.
Però Azatoth, essendo una folle divinità primordiale senza alcuna considerazione per l’esistenza umana, non segue l’utilitarismo.
Perché? Perché non ha letto Singer?
Penso che non cambierebbe idea leggendolo. È onnipotente e gode del caos e della distruzione, come potrebbe influire sulle sue scelte la semplice enunciazione di un principio astratto, quale che esso sia? Andremo a dibattere con Azatoth di diminuire la sofferenza dell’universo? “Signor Azatoth, guardi che non è buon costume divorare l’Universo in un solo boccone, e solo perché lei è una malvagia divinità primeva non può sentirsi autorizzato a farlo!”
Non credo che funzionerebbe.
Certo, possiamo divertirci a dire o pensare che Azatoth è ‘ingiusto’ e ‘immorale’, che è ‘il male’. Ma a cosa serve dichiarare immorale o malvagio un essere così? Non è più o meno la stessa cosa che dichiarare immorali e malvagi lo scorrere dei fiumi, o la pioggia, o la gravità, o le eruzioni vulcaniche?
Siamo arrivati a tirare in ballo Azatoth per far crollare il mio sistema, ma è più o meno come aver tirato in mezzo i terremoti. Mi viene il sospetto che possiamo esserci allontanati troppo dai casi concreti che ci interessano, specie se consideriamo che un po’ tutti i sistemi morali umani collassano di fronte ad un Azatoth, e molti, come appunto l’utilitarismo, collassano anche molto prima di tirare in ballo gli Dei Esterni.
Proviamo invece a riportare il ragionamento morale alle sue origini: l’etica dovrebbe servire a dirci come comportarci, giusto? Dovrebbe fornire prescrizioni di comportamento alle persone. Invece dal tipo di argomenti che i miei critici mi agitano contro, si direbbe che serva a tutt’altro; per la precisione, sembra che debba servire a fare prescrizioni al cosmo, che parli del ‘dover essere’ in assoluto, piuttosto che del ‘doversi comportare’. Ma ha davvero senso questo allargamento? Ma chi siamo noi per poter dire ciò che deve essere e ciò che non deve essere nel cosmo? Possiamo prescrivere ai fiumi di scorrere nelle direzioni che diciamo noi?
Possiamo costringerli a farlo. Ma non possiamo prescriverglielo, non abbiamo nessuna base per dire come dovrebbero comportarsi i fiumi. Posso costruire una diga, ma non posso dire al fiume che deve riconoscere una qualche autorità e scorrere in una certa direzione.
Scopriamo dunque che quando parliamo di morale ci tocca ridurre le nostre pretese. Non ha alcun senso fare prescrizioni su cose che sono completamente fuori dal nostro controllo, innanzitutto: poiché non sono in nostro controllo, esse non devono riconoscere in noi un’autorità. Parimenti, poiché non sono in nostro controllo, noi non siamo responsabili di ciò che esse fanno.
Ma questo discorso vale soltanto per le imperscrutabili forze della natura? Controlliamo forse, invece, il comportamento di un dittatore straniero che stermina il suo popolo? Possiamo esercitare una qualche pressione su di lui, questo sì, ma sostanzialmente non lo controlliamo, fa ciò che sceglie di fare. Ma mettiamo pure che io sia il presidente degli Stati Uniti, l’uomo più potente del mondo: allora forse avrò gli strumenti che servono per minacciare questo sovrano, per costringerlo a smettere … ma ancora una volta, non avrò ‘autorità’ su di lui, starò soltanto usando la forza; non ho diritto, ho solo potere. Allo stesso modo, controlliamo forse il nostro vicino di casa? Abbiamo autorità su di lui? No. Non abbiamo, in ultima analisi, nessuna autorità, nemmeno sui nostri figli. Nessuno in linea di principio deve rendere conto a noi di ciò che fa; ogni singolo ente sulla terra in realtà nel suo profondo ci è imperscrutabile ed alieno non meno di Azatoth stesso.
Non è diverso pretendere di prescrivere comportamenti ad un vulcano o ad un nostro vicino di casa. Entrambi, in realtà, non obbediscono che ad una propria legge di funzionamento interna; che può essere parzialmente simile alla nostra, come nel caso del vicino di casa, o incomparabile, come quella di un vulcano. Ma in ogni caso non è la nostra, è la loro. Dobbiamo abbassare ancora le nostre pretese: niente al mondo deve rendere conto a noi di come si comporta, e come non deve renderne conto a noi, non deve a nessun altro.
Con un’eccezione.
Io ho pieno controllo e piena autorità su me stesso. Dunque devo rendere conto a me stesso di ciò che faccio.
Cosa dovrei fare io nella mia vita, dunque, lo decido io ed io soltanto, e solo a me devo renderne conto.
E qui si inserisce tutta la mia teoria sull’etica della responsabilità: ho doveri solo verso me stesso, e solo su me stesso ho autorità. Dunque il mio unico dovere è servire bene me stesso e i miei interessi.
Ma, sottolineo, bene.
In questo senso, e su questo background, si inserisce la proposta contrattualista, che si basa sull’idea di trovare nel consenso verso un set di regole comuni il modo migliore per servire i propri interessi. È un bellissimo attrezzo: di solito una persona responsabile e ragionevole, che operi in direzione del proprio benessere, è anche una persona che sta in società con altruismo e rispetto del prossimo.
Sempre, comunque, in ogni circostanza possibile ed immaginabile?
Questo, accidenti, NO. È sempre possibile almeno immaginare un caso in cui non vada bene. Se cercate di applicarlo ad Azatoth non funziona. Azatoth è onnipotente e per lui l’intero esistente è privo di valore, ovvio che non abbia alcuna ragione di collaborare con gli umani.
I miei critici sembrano convinti che questo mandi in crisi il mio contrattualismo.
Come ho detto prima, in un certo senso è vero, ma in un altro non lo è per niente. Se io proponessi il contrattualismo come legge del dover-essere del cosmo o addirittura di ogni cosmo possibile, ovviamente un solo contro-esempio in cui non valga tale legge la manda in pezzi. Ma io non ho mai avanzato questa pretesa. Non ho mai detto che in qualsiasi momento, in qualsiasi circostanza, in ogni luogo del cosmo, le cose debbano funzionare secondo le prescrizioni del contrattualismo.
È uno strumento, tutto lì. Funziona per certe cose, per altro non funziona. Non propongo il contrattualismo come legge assoluta del dover essere, e, spero che a questo punto sia diventato chiaro, neanche come legge assoluta dei comportamenti umani.
Ciò che propongo come legge assoluta dei comportamenti umani è un’altra, ed è l’etica della responsabilità. Ecco, qui vi sfido a trovare un contro esempio, anche solo immaginario. Non ci riuscirete: resta vero in qualsiasi universo possibile che un qualsiasi individuo cosciente abbia certi interessi, certi motivi, certe avversioni o timori, e certi mezzi da mettere in gioco orientati alla realizzazione dei suoi motivi; ed è sempre vero che la sua azione derivi da aver soppesato tutti questi contributi; ed è ancora sempre vero che, per definizione, gli convenga soppesare bene.
Anche Azatoth deve soppesare bene. Non è vero però che per lui soppesare bene conduca a “collaborare”; e in generale non vale sempre e comunque, e non ho mai sostenuto il contrario. Io dico solo che questa è una buona approssimazione che di solito funziona con le persone e che io generalmente uso, e penso che regga veramente tanto bene, anche se sottoposta a stress-test estremi.
Quindi mentre la mia etica è sempre e rigidamente un’etica della responsabilità, è un’etica contrattualista solo nella stragrande maggioranza dei casi. Non in tutti quelli immaginabili, e neanche in tutti quelli reali.
“Ma tu come giustifichi i casi marginali?”, “ma tu come ti comporteresti con gli alieni?”, “ma cosa faresti se scoprissimo una nuova specie intelligente?”, “ma se sei disposto a sperimentare su animali, allora saresti disposto a sperimentare su umani stupidi come gli animali?” eccetera eccetera … Quante volte le ho sentite queste domande.
Ragazzi, ci sono un milione di motivi per cui un gatto è diverso da un Down o da un neonato o da un autistico. E adesso vi do un’altra notizia bomba: il Down, l’autistico e il neonato sano … sono diversi fra di loro anch’essi, e questo giustifica diversi trattamenti e anche diversi livelli di diritto! Per discutere di quali siano si deve entrare nel dettaglio, e li ci si perde, non si può trovare un principio unico e categorico che ci dica come fare in tutti i casi. Possiamo provare ad applicare il contrattualismo, ma non squadrare di forza tutti i casi che incontriamo in modo che lo soddisfino. Il mio contrattualismo “specista” nelle condizioni attuali funziona; suppongo che se apparisse una nuova specie intelligente andrebbe un attimino ridefinito, ma qual è il problema in ciò?
Non dico che i problemi etici sollevati dai miei critici non siano potenzialmente interessanti, ma non smuovono di una virgola la sostanza. Io vi garantisco che il semplice contrattualismo nudo e crudo non giustificherà tutti i comportamenti umani che osserviamo né può sempre essere seguito alla lettera. Io vi garantisco che spesso va integrato. E io discuterò con voi volentieri ogni caso particolare che mi mettiate davanti in cui riteniate che il principio sia di dubbia applicabilità: può darsi che vada modificato in quei casi.
Ma vi garantisco anche che prima di lasciarlo cadere per intero non basterà qualche contro esempio. Esprimendomi in termini familiari agli scienziati, è solo un modello. Non è vero o falso, è solo utile o meno utile; quando è utile lo uso, quando non lo è più ne uso un altro. Io credo che il contrattualismo sia un bellissimo modello, ma non sono disposto a legarmi ad esso con un patto di sangue.
E questo mi porta a rispondere ancora ad un’ultima obiezione: “ma tu, Alberto, hai fatto spesso delle critiche all’antispecismo basate sul portare ad estremi assurdi le sue tesi; eppure non sei disposto a portare alle estreme conseguenze la tua teoria, il contrattualismo”.
Il punto qui è che io sono disposto a portare a qualsiasi estrema conseguenza il mio punto centrale, il concetto di responsabilità. Quello sì, provateci: regge a qualsiasi stress test; oserei dire che è esatto per definizione.
Ma non sono disposto a portare alle estreme conseguenze il contrattualismo, ovvero la forma specifica con cui applico di solito il concetto di etica della responsabilità, ma questo perché non ho mai preteso che dovesse funzionare così perfettamente. Se vi vendono un orologio subacqueo garantendovi che regge fino a 100 mt di profondità, e voi lo portate a 150, potrebbe rompersi, ma è colpa vostra, non di chi ve l’ha venduto, non era mica fatto per 150 mt. Io vi dico che il contrattualismo di solito funziona, ma ascolto volentieri i vostri contro esempi in cui non funzionerebbe secondo voi e sono ben disposto a discuterne; non vi ho garantito che funziona sempre.
Ma i filosofi antispecisti non ragionano così. In particolare, l’argomento dai casi marginali, di cui ho già trattato, è un esempio del modo di ragionare opposto: essi criticano tutte quelle dottrine che a vario titolo attribuiscono peso maggiore all’uomo che all’animale (fra cui lo stesso contrattualismo) stiracchiando le condizioni di applicazione fino a che il sistema non si rompe (“e se ambiamo un bambino autistico down anencefalico come ti comporti?!”). A quel punto, dopo aver rotto il tuo sistema, ecco che arrivano con la loro proposta e si fanno vanto, come il mio detestatissimo Singer, di aver fatto un sistema che invece non si rompe mai.
Criticano il mio orologio perché a 1000 mt si rompe … Io direi che una resistenza fino 1000 mt è un risultato ragguardevole, ma loro sostengono che l’orologio che ti vendono loro sia migliore sulla base del fatto che invece, sempre secondo loro, non si rompe mai.
Sorvoliamo sul fatto che magari il loro orologio costa di più, e magari non mi serve scendere più in basso di 1000 mt , quindi sarebbero soldi sprecati e basta (la seguite la metafora, sì?). Sorvoliamo su questo, diciamo che davvero il fatto che il loro orologio non si rompa mai sia utile per me.
Be’, possono aspettarsi a questo punto che io lo porti a 1001 mt per vedere se è vero che non si rompe mai. Anzi, lo porto a 2000, a 10000, a 100000, a centomila miliardi di metri: hanno detto che non si rompe mai; bene, vediamo se è vero.
E invece, come dimostravo per esempio qui, o qui, si rompe eccome.
Non solo, anche molto facilmente.
Ossequi.