L’umanesimo digitale e la lezione della pandemia ai giuristi
25 maggio 2020
Tra le molti lezioni che abbiamo appreso in questi mesi di lotta globale contro la pandemia, ve n’è una di particolare utilità per il giurista, che da qualche tempo si trova a meditare sul buon uso dell’intelligenza artificiale.
Prendiamo le mosse da un dato di dominio comune. Il diritto moderno, specie negli ordinamenti di civil law, ruotava intorno a un fulcro: il codice; avevo uno scopo alto da perseguire: la certezza; intendeva perseguirla con un ragionamento rigoroso: norma, fatto, decisione. Tutto si giocava sull’anticipazione del futuro: la pre-visione normativa.
Il sogno della certezza, dunque: un mondo composto da citoyens finalmente liberi aveva bisogno di pre-calcolare il futuro. E così la giurisprudenza cercò quanto più possibile di somigliare ad una scienza fondata sull’identità di sapere e prevedere. Un sistema meccanico, in cui il futuro accade per inesorabile necessità.
Nel secolo XX i migliori epistemologi cominciarono a chiedersi quali certezze garantisse effettivamente la conoscenza scientifica. Eppure è l’esperienza più recente, proprio quella di questi ultimi, surreali due mesi, a richiamare la nostra attenzione. Oggi, che le migliori intelligenze del pianeta sono impegnate nella lotta contro un virus e nella gestione politica ed economica dei suoi effetti, abbiamo imparato, tra le molte, che la prodigiosa intelligenza artificiale ha bisogno di tempo. Negli ultimi anni, essa ha rivoluzionato la medicina e sempre più lo farà. Questi mesi, però, ci hanno avvertiti se non altro che l’intelligenza artificiale può riconoscere e classificare un virus, e così aiutare a curare una patologia, solo a partire da ciò che sa, dunque richiamando e processando dati già acquisiti. Di fronte al fenomeno sconosciuto, l’intelligenza artificiale ha bisogno di tempo.
Questa considerazione appare di sicura utilità per il giurista, non solo perché l’idea dell’autonomia del decisore robotico lo inquieta, ma perché il suo problema, oggi, nasce proprio dalla dimensione del tempo cui guarda il diritto. Se le moderne codificazioni guardavano al passato e al presente, le costituzioni novecentesche, per dirla con Paolo Grossi, intrise di valori ed esprimenti un progetto di società futura, guardano avanti, si aprono al non prevedibile.
Il punto è che il “non prevedibile” può deludere la domanda di certezza, spesso intrecciata alla domanda di giustizia. Non a caso il civilista Natalino Irti oggi denuncia la “crisi della fattispecie” e il pericolo di una tirannia dei valori.
Vi è però un dato innegabile: il governo di una società complessa non sopporta fattispecie (pretesamente) esaustive, ma esige anzitutto principi che segnino la direzione e che hanno bisogno di essere implementati, con modalità e contenuti non prevedibili ex ante. D’altronde, in un sistema complesso, in cui le parti sono in continuo movimento e si condizionano a vicenda, l’incertezza non è un accidente, ma è la caratteristica propria del sistema. Il che impone all’uomo uno sforzo ad apprendere continuamente fino, per dirla con Edgar Morin, ad “attendersi l’inatteso”.
La scoperta della complessità, invero, ha messo in crisi la fiducia della stessa scienza contemporanea di poter guadagnare certezze. Prevedere non è più un anticipare un futuro che deve necessariamente accadere, bensì identificare lo spazio delle alternative compatibili con lo stato e il divenire dei fenomeni. La previsione diviene razionalizzazione dell’incertezza.
D’altronde il governo dell’incertezza è proprio l’opera cui oggi sono chiamati i giuristi, ed in specie i giudici. Un’opera che sembra titanica, se non fosse per il possibile supporto dell’intelligenza artificiale che, una volta che si sia presa il suo tempo, può fornire un contributo essenziale in direzione di una giustizia tecnologicamente aumentata, aperta al futuro e, al contempo, capace di conservare e superare sia una giustizia meramente predittiva sia di una giustizia tecnologicamente assistita.
Una giustizia predittiva, tendenzialmente sbilanciata a favore delle soluzioni prospettate dall’intelligenza artificiale, è certo utilissima a fini conoscitivi, specie per chi voglia prevalutare le possibilità di successo di un’azione giudiziaria. Il punto è che essa rivolge lo sguardo al passato e per ciò può indurre il giudicante a ripeterlo, con tutto ciò che ne segue.
Quanto a un modello di giustizia “assistita”, si prospetta maggiormente ispirata alla reciproca determinazione tra uomo e macchina. E così possiamo immaginare l’intelligenza artificiale nell’atto di indicare al giudice la decisione per casi di estrema semplicità, di segnalare vincoli logici e/o procedurali da rispettare, di prospettare soluzioni alternative, di avvertire dell’esistenza di precedenti in senso contrario.
Ma v’è da chiedersi se l’intelligenza artificiale non consenta di prefiggersi obiettivi più ambiziosi, offrendo un supporto affinché il giudicante possa, da un lato orientarsi nel labirinto di un ordinamento multilivello, dall’altro garantire la più piena, efficace e meglio motivata tutela dei diritti.
Pensiamo ai nostri ordinamenti costituzionali, in cui il giudice-interprete contribuisce alla concretizzazione dei diritti fondamentali e all’armonizzazione tra di essi. Tale necessità di interpretazione e bilanciamento, d’altronde, è inevitabile conseguenza di una sintassi costituzionale “inclusiva”, in cui i diritti fondamentali sono proclamati mediante formulazioni ampie, indeterminate. Tanto più che il giudice nazionale è tenuto a dare un’interpretazione e applicazione della disposizione di diritto interno conforme al diritto euronitario.
Ecco che, se nel mondo di ieri la ricerca della regola da applicare era tendenzialmente aproblematica, oggi non solo la regola va trovata, ma va spesso creata, orientandosi in un labirinto di disposizioni non sempre coerenti e provenienti da fonti diverse e di orientamenti giurisprudenziali distribuiti nel dialogo tra le corti.
Ed è forse proprio questo il contributo “alto” che l’intelligenza artificiale può offrire al giudicante: non solo aiutarlo a decidere casi seriali o a discrezionalità ridotta, a snellire l’attività istruttoria, a ricevere alert su vincoli procedurali o organizzativi, ma supportarlo nel disegnare l’ambiente digitale in cui prende forma la decisione. In un tale ambiente, ad esempio, l’intelligenza artificiale potrebbe evidenziare, anzitutto, le disposizioni di legge rilevanti nel caso, i significati di tali disposizioni come declinati da Tribunali e Corti di giustizia, i diritti e princìpi in gioco; potrebbe altresì operare alcune simulazioni di interazione tra tali componenti, al limite prospettando delle ipotesi di soluzione del caso; tutto ciò beninteso, mai sostituendo il giudice, anzi, nel pieno rispetto della “Carta etica europea sull’uso dell’intelligenza artificiale nei sistemi giudiziari” adottata dal Consiglio d’Europa, mettendolo in condizione di assumere in prima persona la decisione in un ambiente informato e, se del caso, di introdurre nuove tutele rispetto alla giurisprudenza consolidata.
In tal modo, in piena coerenza con la vocazione profonda di un umanesimo digitale, l’intelligenza artificiale potrebbe sia potenziare l’apertura dell’ordinamento giuridico al nuovo sia responsabilizzare il giudicante, offrendogli gli strumenti per esibire le ragioni della discontinuità rispetto all’orientamento dominante nello scenario offerto dall’ambiente digitale.
Se è vero che, anche per gli scienziati, prevedere non è più anticipare un futuro che deve necessariamente accadere, bensì identificare lo spazio delle alternative compatibili, la funzione che l’intelligenza artificiale può svolgere per la giurisprudenza non è quella di resuscitare il sogno leibniziano di una certezza declinata in senso matematico, bensì di mettere il giudicante in condizione di misurare le potenziali dinamiche del sistema e così assumere la piena responsabilità della decisione intesa a garantire una tutela dei diritti sempre più piena e inclusiva.
Newsletter
Articoli correlati
26 aprile 2021
Nel corso degli ultimi anni si è affermato il concetto di platform society ovvero società delle piattaforme. L’espressione, per quanto efficace, è tuttavia ambigua dal momento che il termine piattaforma ha diversi significati, non sempre fra loro convergenti. Questa pluralità di significati evidenzia come tale concetto – sebbene variamente declinato – sia diventato centrale nel dibattito sulla comunicazione e, più in generale, nel dibattito pubblico. Vediamo perché.
La disfida etica delle macchine
13 aprile 2021
L’urgenza di una corretta regolamentazione della intelligenza artificiale è resa evidente dalla valutazione degli effetti, positivi e negativi, che possono derivare dalle sue applicazioni. Nell’affrontare il rapporto uomo-macchina ci si troverà infatti di fronte ad un “Vaso di Pandora”, come è già accaduto nel secolo scorso a proposito dell’energia nucleare e del suo uso per costruire la bomba atomica.
Sicurezza nazionale e IA secondo gli Stati Uniti
21 marzo 2021
Con singolare coincidenza il 1° marzo scorso sono stati presentati, negli Stati Uniti, il rapporto sull’intelligenza artificiale (IA) della Commissione per la Sicurezza Nazionale (NSCAI) e, in Italia, la relazione al Parlamento sulla politica dell’informazione per la sicurezza relativa all’anno 2020 ad opera del Comparto Intelligence. Al centro dell’attenzione di entrambi c’è la sicurezza nazionale e lo sforzo dispiegato per affrontarne le sfide più insidiose.
Norme sul virus, prima il governo
17 marzo 2021
Non spetta al legislatore regionale introdurre meccanismi di contrasto alla epidemia divergenti da quelli predisposti dallo Stato. La lettura della Corte dell’art.117 della Costituzione ha consentito di chiarire in maniera inequivocabile questo nodo cruciale sull’aspra contesa Stato-regioni. Un rapporto non sempre del tutto chiarito all’interno del Titolo V della Costituzione, ma che non può lasciare spazio ad egoismi o protagonismi.