Il ruolo dell’intelligenza artificiale dopo il Coronavirus

28 maggio 2020
Editoriale Focus Ripresa
FacebookFacebook MessengerTwitterLinkedInWhatsAppEmail

Il Coronavirus sta cambiando non solo le nostre vite ma anche, certo meno vistosamente, le modalità gestionali delle società. Il ricorso necessitato a riunioni on line degli organi di amministrazione e controllo e dei loro componenti con i responsabili delle funzioni aziendali impegnati in Smart Working casalingo hanno reso comuni nuovi modelli organizzativi finora non troppo diffusi e, quanto alla corporate governance, visti spesso con un certo sospetto o comunque giudicati alla stregua di soluzioni di ripiego.

Sono esperienze che incoraggiano il passaggio a forme di  decentralizzazione che, grazie alle nuove tecnologie, sembrano destinate a diffondersi a livello globale in un futuro non troppo lontano, ma che nelle corporations devono superare attualmente non poche resistenze.

Tra queste tecnologie, l’intelligenza artificiale gioca un ruolo di primo piano, anche qualitativamente diverso da quello di tecnologie, pur decisive, quali la blockchain ed è in grado di incidere profondamente sul processo decisionale delle società anche a livello di board.

Nuove questioni si pongono però all’attenzione di operatori e interpreti.

Ci si interooga, anzi tutto, sulla possibilità per l’AI di far parte del board e di ricevere delle deleghe decisionali, queste ultime, eventualmente, là dove il diritto societario lo consente (in Italia non è permesso), senza divenire amministratore. Al di là del fatto che in alcuni Paesi il diritto societario precrive espressamente che gli amministratori devono essere persone fisiche (non in Italia, ma per es. in Germania con riguardo alle Aktiengesellshaften), attualmente lo escludono implicitamente sia in Italia sia altrove le regole di Corporate Governance su requisiti soggettivi, doveri e responsabilità degli amministratori. È quanto emerso per esempio a Hong Kong dopo che un fondo di Venture Capital aveva annunciato la nomina di una AI, Vital, nel suo board, per poi doverla retrocedere a semplice “osservatore”. In Italia ciò impedisce anche che all’AI possano essere attribuite deleghe di funzioni amministrative, potendo queste essere conferite solo a chi è amministratore. Anche dove le deleghe possono essere date a soggetti esterni al board, un pre-requisito per ricevere deleghe presente in tutti i diritti societari è essere un soggetto con capacità giuridica in grado, tra l’altro, di poter rispondere dei danni eventualmente causati.

Insomma, non è ancora giunto il tempo di un RoboBoard, come si potrebbe chiamare un board costituito da una o più AI, evocando il RoboTaxi o RoboCab annunciato da Elon Musk’s a sua volta ispirato forse dall’anticipatore RoboCop cinematografico.

Il terzo e attualmente più significativo interrogativo riguarda le implicazioni e le conseguenze del contributo dell’AI al Decision Making non solo aziendale, ma dello stesso board, che comunque inizia a diffondersi, come nel caso anche della società norvegese Tieto o della casa cinematografica americana Warner Bros, e che nel giro di pochi anni, secondo varie previsioni e ricerche (Word Economic Forum, 2015), porterà comunque gli algoritmi intelligenti ad affiancare gli amministratori umani. Si tratta dell’AI definita dagli esperti Augmented, in grado di affiancare, pur senza sostituire (come nel caso della c.d. AI Autonomous), le persone nel processo decisionale.

Il ricorso all’AI comporta il rispetto delle attuali regole di Corporate Governance e spetta agli amministratori “umani” applicarle e monitorarne il rispetto.

In Italia nel 2003 vi è stata una profonda riforma del diritto delle società di capitali. Con riguardo alla società per azioni è stato affermato senza eccezioni il principio efficientista e manageriale che la gestione dell’impresa spetta in via esclusiva agli amministratori, che devono provvedervi rispettando le regole di corretta amministrazione anzi tutto dotando la società di una struttura organizzativa adeguata (che il diritto societario italiano chiama assetti organizzativi, amministrativi e contabili) che funga da cornice procedurale e di sistema per il compimento delle successive operazioni gestionali.

L’AI va inclusa in questi assetti. Come? Secondo la prassi delle società quotate con riguardo ad altri profili di governance il suggerimento è approvare un documento di policy che individui le scelte di fondo e i profili tecnico operativi relativi all’uso dell’AI a livello sia di Internal, sia di Corporate Governance. Vi vanno indicati i requisiti di sicurezza dell’AI, i cui contributi devono essere sempre tracciabili, comprensibili e verificabili in modo che non diventino delle black boxes, gli obblighi e le responsabilità di chi produce gli algoritmi, le tutele assicurative, gli standard di rispetto della privacy e della trasparenza, i presidi che sono attivati per monitorarne l’uso.

L’ultima domanda che occorre porsi è come incide l’uso dell’AI sulla responsabilità degli amministratori. Nel diritto societario italiano – e non solo – il board deve agire in modo informato e sulla base di un’istruttoria completa e razionale. Inoltre in alcune ipotesi (presenza di interessi personali degli amministratori o influenza della capo-gruppo) deve motivare le proprie decisioni. L’AI può essere di grande aiuto, a volte indispensabile, per raccogliere e analizzare tutte le informazioni necessarie, ma gli amministratori non possono farne un uso passivo (per esempio senza aver compreso i codici sorgente e le linee guida di programmazione degli algoritmi). Qualora il documento di policy non dia già le informazioni necessarie o non si tratti di operazioni di scarso rilievo o standardizzate, anche nel caso dell’AI può risultare opportuno e in certi casi neccessario ricorrere a una motivazione della decisione che spieghi il contributo dell’AI e la valutazione compiuta dal board, soprattutto se ha esaminato dati e informazioni particolarmente complessi o se ci si discosta dalle indicazioni dell’algoritmo. In questo modo gli amministratori, utilizzando ma in modo vigile, verificabile e trasparente l’AI, possono beneficiare della protezione della Business Judgement Rule, applicabile anche in Italia, e ridurre i rischi di responsabilità per violazione del dovere di diligenza.

La ricerca deve continuare ad approfondire molti aspetti.

L’AI può cambiare insieme ad altre tecnologie, come la blockchain, composizione e ruolo del board accentuando la tendenza che in certi settori si sta già manifestando verso consigli con meno amministratori più concentrati sul business, lasciando in prima battuta il monitoraggio e la compliance all’AI, ma integrando il consiglio almeno con un amministratore sia un esperto di algoritmi. L’AI può inoltre rendere più accountable le società consentendo ad azionisti, investitori e stakeholders di beneficiare di maggiori informazioni e riscontri indipendenti e di partecipare attivamente alla vita sociale. Può però anche, come si è detto, introdurre elementi pericolosi di opacità sul suo contributo al processo decisionale e richiedere l’individuazione dei soggetti che ne rispondono, a livello societario ma anche a quello dei produttori degli algoritmi.

L’AI non può dunque essere ignorato ancora a lungo dalla regolamentazione e in primo luogo, auspicabilmente, dai  codici di autodisciplina. In Italia è stata da poco diffusa la nuova versione del codice di autodisciplina per le società quotate, il codice di corporate governance 2020, che ancora non contiene alcuna indicazione a riguardo. Difficilmente la prossima stesura potrà fare lo stesso. È probabile che l’AI cambierà inoltre, insieme alla FinTech, l’approccio delle autorità indipendenti che vigilano sui mercati e sugli emittenti. Se così non sarà a livello di autoregolamentazione e di vigilanza dovranno intervenire i legislatori, rischiando di imporre scelte che sarrebbe preferibile fossero individuate e sperimentate dalle imprese o comunque modificabili facilmente.

In ogni caso, la ricerca dovrà contribuire a individuare le regole già applicabili o da applicare in futuro all’AI, ma, ancor prima, riflettere su quale ruolo intendiamo  assegnare all’intelligenza artificiale anche in questo campo. Per utilizzarla al meglio, ma senza allontanarci troppo da quello che siamo e che vogliamo continuare a essere.

 

L'autore

Gian Domenico Mosco è professore ordinario di Diritto commerciale presso il Dipartimento di Giurisprudenza dell’Università Luiss Guido Carli di Roma.


Newsletter