Intelligenza Artificiale, legislazione e Terzo Settore: intervista all’avv. Federico Fusco

All’interno della nostra 50a Italian Pro Bono Roundtable e 7° Italian Pro Bono Day, abbiamo ospitato il seminario “Il Terzo Settore ai tempi dell’AI. Il ruolo della società civile organizzata, tra rischi e opportunità” a cui hanno partecipato come Keynote Speaker Giusella Finocchiaro, Professoressa di Diritto privato e Diritto di Internet, Università di Bologna e autrice del libro “Intelligenza artificiale. Quali regole?“, seguito poi da un dibattito con i panelist Federico Fusco, (Partner, Dentons), Mhiara Giovannini (Vice Direttrice Generale, ANEC), Gianluca Sgueo (Professore di Digital Democracy & Public Spaces, SciencesPo), Giovanni Carotenuto (Presidente, Pro Bono Italia), Giuseppe Catalano (Presidente, AIGI), Stefano da Empoli (Presidente, I-Com) e Laura Ferrari (Policy Advisor, The Good Lobby).

Abbiamo intervistato l’Avv. Federico Fusco, Board member di Pro Bono Italia ETS, per avere una panoramica sulla legislazione legata all’Intelligenza Artificiale, ai rischi e benefici, anche per il Terzo Settore.

 

Nel medio e nel lungo termine, qual è la sua previsione sui benefici che l’IA potrà avere sul terzo settore?

Nel Terzo Settore, come in tutti gli altri settori, l’Intelligenza Artificiale avrà e sta già avendo un impatto molto importante e lo avrà anche nel migliorare l’efficienza delle organizzazioni senza scopo di lucro che per esempio devono gestire casi di numerosi individui che hanno bisogno di assistenza, a vario titolo.

Stando sull’esempio a me noto di Pro Bono Italia, l’associazione gestisce una Clearing House che riceve e filtra innumerevoli richieste di assistenza legale pro bono, che vengono poi pubblicate su una piattaforma digitale per la presa in carico da parte degli avvocati della rete. La selezione e la pubblicazione di questi casi e delle richieste di assistenza è un lavoro complesso che richiede diverse competenze. Richiede tempo e certamente farlo con sistemi di Intelligenza Artificiale sarebbe di grande aiuto e questa è la direzione nella quale si vuole andare.

Questo è solo un esempio di una possibile applicazione di sistemi di Intelligenze Artificiali che potranno migliorare l’efficienza e quindi anche l’impatto che organizzazioni senza scopo di lucro potranno avere sulla società rispetto agli scopi che di volta in volta si prefiggono.

 

Vede invece rischi rilevanti per il Terzo Settore con l’avvento dell’IA?

Di nuovo quello che vale è anche per gli altri settori e forse in questo caso, tornando all’esempio che facevo prima, il rischio può stare soprattutto sul versante della possibile discriminazione. Cioè, quando organizzazioni senza scopo di lucro, che trattano i casi di individui, introducono per la loro attività sistemi automatizzati o anche molto evoluti di Intelligenza Artificiale, il rischio è che se questi sistemi non sono adeguatamente addestrati possano incappare in errori i cui esiti o le cui conseguenze possono essere anche molto gravi sul piano della discriminazione.

Per esempio tornando al caso di Pro Bono Italia, un caso che venisse scartato dalla Clearing House perché il sistema di Intelligenza Artificiale non è in grado di rilevarne la meritevolezza sulla base delle informazioni fornite potrebbe condurre a un’ingiustizia. Poi c’è il versante reputazionale: abbiamo assistito al fenomeno del greenwashing che è ancora in piena espansione, rispetto al quale il legislatore è intervenuto e sta ancora intervenendo. Adesso cominciamo ad assistere a casi di AI washing, cioè il ricorso a sistemi di Intelligenza Artificiale viene fatto oggetto di vanto da parte delle organizzazioniin particolare delle imprese, e se questo viene fatto in un modo ingannevole, non veritiero, non corretto possono esserci delle conseguenze, per esempio sul piano della concorrenza sleale, della pubblicità ingannevole, delle pratiche illecite nei confronti dei consumatori.

Direi che può valere a maggior ragione per organizzazioni senza scopo di lucro che fanno della loro reputazione, anche a fini di fundraising, un elemento di forza della loro attività.
Dunque è necessario stare molto attenti nel momento in cui si introducono sistemi di Intelligenza Artificiale a non vantarne l’uso o gli effetti benefici in un modo allusivo, non appropriato, non veritiero magari per strizzare l’occhio a potenziali donatori.
Questo certamente è un rischio che si vede e rispetto al quale bisogna fare grande attenzione nel Terzo Settore.

 

Quale approccio riterrebbe più opportuno per regolamentare l’utilizzo dell’IA senza inibirne le potenzialità, in generale e anche con specifico riferimento al Terzo Settore?

Questa è una domanda difficilissima, abbiamo visto con quale fatiche e con quali lungaggini il legislatore europeo è approdato a una versione definitiva del AI Act, cioè del regolamento sull’Intelligenza Artificiale. In quel caso l’approccio è stato il cosiddetto risk based approach: sono stati catalogati i modelli e i sistemi di Intelligenza Artificiale in base al livello di rischio che ciascuno di essi presenta  e sono state previste norme diverse a seconda del livello di rischio, tra divieti assoluti, obblighi di trasparenza, informazione e via dicendo.

Questo è un approccio ragionevole, plausibile. È un approccio che resta aperto anche agli sviluppi tecnologici e non vedo una particolare necessità di valutare o adottare approcci diversi, specifici per il Terzo Settore, anche perché se da una parte ci può essere la disponibilità, il desiderio per esempio di mettere a disposizione di organizzazioni senza scopo di lucro sistemi di Intelligenza Artificiale per favorire l’attività di queste organizzazioni, non si può farlo ignorando i rischi che questi sistemi presentano e che sono gli stessi che si vedono anche per il settore profit.

 

Lei o l’organizzazione per cui lavora utilizzate già l’intelligenza artificiale, per quali scopi e con quali risultati? 

Io lavoro per un grande studio legale internazionale: si fa ovviamente un gran parlare dell’Intelligenza Artificiale. Lo si fa perché è al centro dell’interesse dei clienti dello studio, delle grandi organizzazioni e delle imprese multinazionali oltre che di ciascuno di noi come cittadini. E lo si fa perché l’Intelligenza Artificiale può anche nel settore legale fornire un contributo molto rilevante nell’efficientare i processi e nel migliorare il lavoro delle persone.

Noi legali in generale e in particolare nel mio studio, stiamo adottando un approccio cauto perché evidentemente il tipo di lavoro che facciamo espone al rischio di dare in pasto ai sistemi di Intelligenza Artificiale dati molto sensibili sui clienti, sulla loro attività, sulle loro questioni legali. Dunque da una parte si fanno delle prove, cioè dei test di sistemi disponibili sul mercato all’interno di gruppi ristretti di professionisti e per casi pilota che vengono selezionati, dall’altro si cerca di sviluppare sistemi propri che non presentano il rischio di portare all’esterno i dati dell’organizzazione e dei suoi clienti. E questo a diversi livelli dell’attività. Naturalmente l’automazione documentale è molto rilevante per chi fa il mestiere dell’avvocato, ma il project management lo è altrettanto. Gli ambiti di intervento dell’Intelligenza Artificiale possono essere davvero molti anche nel settore legale.

 

Nel suo settore quali sono le più urgenti esigenze di informazione e formazione sull’Intelligenza Artificiale?

A livello operativo direi che valgono le stesse cose che valgono per tutti, cioè rispetto alla curiosità, all’esigenza o la volontà di affidarsi alle nuove tecnologie e di farlo in modo informato e consapevole.

Naturalmente facendo gli avvocati, questo vale sia per il mio lavoro di professionista all’interno di uno studio internazionale, sia per il ruolo che lo stesso studio e io personalmente svolgiamo in ambito pro bono e in particolare per Pro Bono Italia. L’esigenza di formazione e informazione riguarda proprio la nostra attività, perché abbiamo bisogno di essere massimamente informati e aggiornati sugli sviluppi tecnologici e sull’approccio che legislatori e giudici in giro per il mondo stanno tenendo rispetto a questi sviluppi tecnologici, per consentirci di assistere i clienti nel modo più appropriato ed essere sempre preparati sulle ultime novità. 

 

Quale contributo può fornire la società civile organizzata nel plasmare un approccio adeguato all’utilizzo dell’Intelligenza Artificiale? 

La società civile svolge sempre un ruolo importante quando ci si trova di fronte a novità epocali come una rivoluzione tecnologica e anche in questo caso è e così sarà. Quello che la società civile organizzata può e deve fare è mettere al centro i diritti.
Anche il legislatore europeo, che ha deciso come abbiamo visto di adottare un risk based approach nei confronti dell’Intelligenza Artificiale, ha mosso i suoi primi passi nella direzione della regolamentazione dell’Intelligenza Artificiale, partendo dalla premessa fondamentale che è necessario tutelare i diritti delle persone, a partire e soprattutto per quanto riguarda i diritti fondamentali.

Questo è il terreno di elezione della società civile organizzata che si muove e si muoverà nella direzione di mettere al centro della discussione la tutela delle persone e naturalmente, ritornando alla domanda iniziale, questo è ancora più importante per le organizzazioni che operano nel Terzo settore e che hanno l’esigenza di portare un impatto positivo sulla società e sugli individui e anche di tenere alto il loro profilo morale e la loro reputazione.