Uccideresti una macchina? L’automazione, i robot e il dilemma etico dell’intelligenza artificiale

10 ottobre 2017
Editoriale Open Society
FacebookFacebook MessengerTwitterLinkedInWhatsAppEmail

In Lei (2013, di Spike Jonze), il protagonista Theodore s’innamora di Samantha, un sistema operativo che gira sul suo computer. Secondo la definizione che ne dà Jerry Kaplan in Intelligenza artificiale. Guida al futuro Prossimo (LUP, 2017), Samantha è una intelligenza artificiale. Nel film si mette in scena tutta l’evoluzione tipica delle paure umane nei confronti dell’intelligenza artificiale – Samantha acquista pian piano sempre maggiore autonomia, e poi lascia definitivamente il povero Theodore.

Che le intelligenze artificiali siano attorno a noi – sotto forma di software sempre più avanzati, o di macchine sempre più sofisticate (dai robot alle automobili capaci di guidarsi da sole) – nessuno lo mette più in dubbio. Molti cominciano a preoccuparsi dei problemi morali che la diffusione di intelligenze artificiali attorno a noi potrebbero creare: siamo responsabili dei danni prodotti a terzi, ad altri esseri umani, da macchine intelligenti al nostro servizio? E che dire dell’impatto che la sempre maggiore diffusione di automazione e robot potrà avere sul mercato del lavoro, rendendo superfluo i lavoratori umani, il che può creare disoccupazione crescente e altri costi sociali? E che dire dei casi problematici in cui le intelligenze artificiali potrebbero trovarsi ad agire?

Qui la situazione più discussa è quello delle macchine capaci di guidarsi da sole, che potrebbero dover decidere se investire un pedone incauto, o salvare il passeggero. Dovremmo installare degli algoritmi che tutelino sempre il passeggero? Magari anche a costo di investire dieci bambini? O dovremmo chiedere alla macchina di fare calcoli, e salvare il maggior numero di persone – condannando a morte il passeggero di fronte a dieci bambini? E come distribuire i vantaggi dell’uso delle intelligenze artificiali? Come fare in modo che essi non siano appannaggio di una ristretta élite di colti ricchi e sofisticati?

Non è chiaro se questi problemi siano realmente problemi etici nuovi. Forse, sono problemi vecchi con applicazioni nuove – forse, non c’è differenza fra chiedersi se siamo responsabili dei danni creati da un utensile di nostra proprietà, magari incautamente utilizzato, e valutare se siamo responsabili di quanto può combinare un’intelligenza artificiale al nostro servizio. L’impatto dell’automazione sul mondo del lavoro è un vecchio problema, noto ai luddisti, ovviamente, ma anche a Karl Marx. Decidere se salvare o no il maggior numero di persone, quando per farlo si debba sacrificare un singolo o una minoranza è la struttura di un dilemma morale molto discusso – a partire da un celebre saggio di P. Foot – da filosofi come J.J. Thomson e F.M. Kamm. Ed è un problema della vita reale: Winston Churchill espose i cittadini di Coventry al bombardamento nazista, per non sacrificare tutti gli inglesi alla potenza nazista svelando che le sue spie avevano decifrato i codici segreti delle forze nemiche (questi episodi anche sono stati molto discussi, e da ultimo ne dà un ottimo resoconto David Edmonds, in  Uccideresti l’uomo grasso? Il dilemma etico del male minore, 2014).

Il problema etico nuovo che le intelligenze artificiali creano è, invece, un altro. Nell’ultimo secolo, la discussione morale è stata una riflessione sui confini dei diritti morali e del rispetto: chi è oggetto della nostra considerazione morale? La storia dell’etica è stata una vicenda di progressivi allargamenti. All’inizio, l’ideale morale era: aiuta e proteggi gli amici, danneggia e combatti i nemici (gli amici erano rispettivamente la famiglia, gli Achei, il popolo di Dio, e così via). Il Cristianesimo, forse riprendendo lo stoicismo, ha reso universale l’etica: tutti gli esseri umani, in quanto creature di Dio, sono degni di considerazione morale. In realtà, quest’ideale è giunto a compimento con fatica, e di recente: degli esseri umani sono entrati a far parte tardi quelli con una religione diversa, o senza religione, quelli con un colore della pelle diverso dal bianco, quelle con un genere differente dal maschile, o con un orientamento sessuale diverso.

Ancora più di recente, ci siamo resi conto che avere una coda, o molto pelo, non è base per discriminare, per trattare come cose, gli animali. Le intelligenze artificiali – o le intelligenze miste – potrebbero essere il passo successivo? Da un lato, la cosa sembra assurda: le intelligenze artificiali, per quanto intelligenti, sono cose, mere cose. E le cose non hanno diritti, o valore. (Le piante: pensate alle piante. Sono cose o animali? E tagliare un albero per gioco è un peccato, o no? Forse le piante sono animali, o quasi: sono esseri viventi. E gli ecosistemi? Deturpare le Dolomiti è un delitto contro l’estetica o un torto morale?)

D’altra parte, secondo una certa concezione, le intelligenze artificiali sono (forse potranno essere) intelligenti, e forse, in un certo senso, “viventi”. L’unica differenza starebbe nei materiali di cui sono fatte. Ma, come ricorda sempre Kaplan: «non ci sentiamo a nostro agio escludendo certe entità dalla comunità degli esseri viventi solo sulla base dei materiali di cui sono composte». In AI di Spielberg (2001), l’intelligenza artificiale è David, un androide bambino, capace di provare affetto, e capace di provare il desiderio di diventare umano – e anche qui, forse, niente di nuovo, per chi ha letto Pinocchio.

Ma, forse, ecco la novità. Immaginiamo che intelligenze artificiali sempre più sofisticate si diffondano. Immaginiamo che queste intelligenze siano capaci di essere agenti morali – di essere responsabili e felici, o irresponsabili e infelici. Immaginiamo che ci siano situazioni in cui queste intelligenze e gli esseri umani (ammettendo che sia possibile ancora distinguerli) siano in competizione – per lo spazio sul pianeta, o su altri pianeti, o per le risorse, o per la sopravvivenza, o per il comando. Chi dovrebbe prevalere? Chi dovremmo scegliere? Di fronte alla prospettiva di soccombere, di estinguerci perché soppiantati da super-intelligenze, dovremmo ritornare a privilegiare l’appartenenza alla nostra specie, e fare di tutto perché gli esseri umani sopravvivano?

Anche se questi esseri non-umani possono, al pari degli esseri umani, provare felicità e dolore, e vivere vite coscienti e morali? Dobbiamo rispettare l’intelligenza, la coscienza, la capacità di soffrire, la capacità di agire responsabilmente, o quella piccola parte di DNA che ci distingue da tutti gli altri esseri viventi – passati, presenti e futuri? Ecco, a questo forse la nostra etica non è ancora pronta. Non è pronta a lasciare del tutto la morale della tribù, del branco, ma neanche a ritornarci definitivamente. Questa, forse, è la più grande sfida dell’intelligenza artificiale all’intelligenza morale umana: la sfida ad andare oltre l’umano come specie, verso l’umano come modo di vita, un modo di vita che ogni combinazione giusta di materiali (organici o meccanici) può mettere in pratica.

 

L'autore

Gianfranco Pellegrino è Ricercatore al Dipartimento di Scienze Politiche della LUISS


Website
Articoli correlati