All’interno della nostra 50a Italian Pro Bono Roundtable e 7° Italian Pro Bono Day, abbiamo ospitato il seminario “Il Terzo Settore ai tempi dell’AI. Il ruolo della società civile organizzata, tra rischi e opportunità” a cui hanno partecipato come Keynote Speaker Giusella Finocchiaro, Professoressa di Diritto privato e Diritto di Internet, Università di
Bologna e autrice del libro “Intelligenza artificiale. Quali regole?“, seguito poi da un dibattito con i panelist Federico Fusco, (Partner, Dentons), Mhiara Giovannini (Vice Direttrice Generale, ANEC), Gianluca Sgueo (Professore di Digital Democracy & Public Spaces, SciencesPo), Giovanni Carotenuto (Presidente, Pro Bono Italia), Giuseppe Catalano (Presidente, AIGI), Stefano da Empoli (Presidente, I-Com) e Laura Ferrari (Policy Advisor, The Good Lobby).
Abbiamo intervistato il Prof. Gianluca Sgueo per avere una panoramica non solo sui rischi e benefici dell’uso dell’Intelligenza Artificiale, ma anche su quali possono, secondo lui, essere le evoluzioni nella sua regolazione e il ruolo della società civile in tutto questo.
Qual è la Sua previsione sui benefici dell’Intelligenza Artificiale sul Terzo settore nel medio e lungo termine e quali invece sono i rischi?
Per quanto riguarda i benefici sono gli stessi che osserviamo in settori professionali differenti, quindi tutti i vantaggi che derivano dalla incorporazione di strumenti di Intelligenza Artificiale nelle mansioni quotidiane che possono essere la redazione di testi, la preparazione di materiali audiovisivi, la definizione di fogli Excel contenenti le spese, fino a compiti più complessi, per esempio nel caso del Terzo settore tutto quello che riguarda la documentazione che è necessario compilare per aderire a un bando di finanziamento europeo, che è una fonte di sostentamento importante.
Tutti questi benefici derivano semplicemente dalla riduzione del tempo per le mansioni e anche dalla possibilità di avere un supporto creativo maggiore.
Un altro e ultimo beneficio che vedo vale soprattutto per le organizzazioni del Terzo settore che operano a livello internazionale e che quindi devono interagire spesso con organizzazioni equivalenti i cui esponenti parlano delle lingue diverse. Non sempre una lingua comune dà la possibilità di gestire delle relazioni tra questi soggetti.
Ecco, esistono già oggi numerosi strumenti di Intelligenza Artificiale che realizzano delle traduzioni simultanee in tempo reale di qualità eccellente.
Per quanto riguarda i rischi sono quelli che vediamo già oggi. Direi principalmente uno, ovvero il fatto che la gran parte di questi strumenti viene ideata e progettata da parte di operatori tecnologici, cioè aziende la cui capitalizzazione e il cui valore è di gran lunga superiore anche a quello delle organizzazioni del Terzo settore più importanti, il che significa avere maggiori risorse da spendere ad esempio nelle attività di pressione lobbistica. E la circostanza che l’Intelligenza Artificiale stia portando dei grandi profitti a queste aziende rischia di incidere ulteriormente sul bilanciamento delle relazioni democratiche, perché chiaramente abbiamo queste aziende che sono in possesso di strumenti ancora più forti da un punto di vista finanziario per esercitare pressione. Questo è un rischio diciamo abbastanza tangibile, l’altro rischio riguarda chiaramente – questo anche qui è trasversale ad altri settori – quello delle competenze, per cui chiaramente dobbiamo immaginare che alcune competenze venendo meno potrebbero generare un impatto negativo sulle professionalità che oggi fanno capo a molte organizzazioni del Terzo settore e quindi dovrebbe essere gestito come sta bene in altri casi, quindi ad esempio riformando le competenze ma anche cambiando gli approcci lavorativi.
Quale approccio regolatorio Le sembra più utile per disciplinare l’Intelligenza Artificiale, senza però inibirne le potenzialità?
Finora in realtà non abbiamo, da un punto di vista statistico, un campione sufficiente di approcci. Cioè non esistono tanti tentativi di regolazione dell’Intelligenza Artificiale diversi tra loro, per cui noi possiamo fare un confronto e dire questo specifico approccio sta funzionando meglio di quest’altro.
Ad oggi ci sono molte regolazioni settoriali che sono relative solo a certi aspetti, quindi non si possono chiamare vere e proprie regolazioni dell’Intelligenza Artificiale, e un solo disegno – nel senso di provvedimento legislativo, con una filosofia dietro – che è quello europeo.
E quello europeo ha fatto questa riflessione, perché l’Unione Europea è certamente un’indiziata nel momento in cui si tratta di giudicare la capacità di sostenere il settore imprenditoriale, soprattutto nel settore delle tecnologie e quello dell’Intelligenza Artificiale.
La scelta dell’Unione Europea, che però è anche molto attenta al bilanciamento dell’economia con i diritti individuali e collettivi, sceglie di dare un perimetro di rischio e quindi stabilire le regole generali, l’involucro che indica quelle tecnologie consentite e quelle meno. E questo mi pare che vada in linea con i gli obiettivi di molte organizzazioni della società civile del Terzo settore che, diciamo, difendono i diritti individuali dei lavoratori, delle persone fragili rispetto alla innovazione tecnologica.
L’organizzazione per cui lavora utilizza l’Intelligenza Artificiale? Se sì, con quali scopi?
Io ho un profilo professionale che abbraccia il settore accademico, quindi tutto quello che riguarda la ricerca e l’insegnamento, ma anche incarichi in strutture pubbliche, cioè in pubbliche amministrazioni, che quindi conosco bene, anche qui con incarichi relativi alla comunicazione o alla consulenza strategica, quindi sono i due settori di cui parlo. Sicuramente entrambi i settori e io personalmente utilizziamo già questi strumenti.
Personalmente nel ruolo di docente, ma anche nel ruolo di ricercatore o di persona che deve approfondire dei testi, faccio largo uso di strumenti di Intelligenza Generale, soprattutto generativa, per assistere in una fase di ideazione, a volte di comprensione di determinati strumenti o di testi molto complessi, in alcuni casi per fare ricerche.
Perplexity, ad esempio, è oggi uno strumento che uso più frequentemente di Google per fare una ricerca come quella che avrei fatto attraverso Google motore di ricerca. I risultati sono chiaramente in continuo aggiornamento per quanto mi riguarda, nel senso che si scoprono cose nuove e se ne imparano altre e si migliorano alcuni aspetti.
Ethan Mollick, che è uno dei più prolifici autori ed esperti di Intelligenza Artificiale, quantifica in circa 10 ore l’utilizzo di uno strumento per avere una dimestichezza. Quindi è un continuo divenire, ma devo dire che è un supporto, non un sostituto prezioso.
Più ampiamente nel settore della Pubblica Amministrazione e dell’Accademia, il quadro è molto complesso. C’è sicuramente un utilizzo. Ci sono delle strutture che stanno integrando questi strumenti, ma si tratta ancora di un avanzamento molto lento e che trova numerose avversioni.
Nel caso della ricerca accademica in particolare c’è tutto un dibattito relativo su che utilizzo far fare agli studenti di questi strumenti, soprattutto nelle esercitazioni, nei compiti, dove chiaramente bisogna evitare che sia poi qualunque strumento di Intelligenza Artificiale a fare il compito e quindi essere giudicato. Nella Pubblica Amministrazione, abbiamo una serie di casi d’uso interessanti, ma sono esempi isolati, quindi non c’è un’applicazione orizzontale rispetto a questo tema.
Dunque c’è molto da fare, direi riassumendolo con un concetto, c’è da studiare le conseguenze di questi strumenti. Questa è la cosa più importante da fare.
Che contributo può dare la società civile nel plasmare l’approccio verso l’Intelligenza Artificiale?
Secondo me il verbo plasmare è molto adatto in questo caso. Si tratta effettivamente di mettere insieme approcci molto diversi che sono quelli dell’industria, quelli del settore pubblico, quelli delle organizzazioni internazionali, dei gruppi di pressione e quindi anche della società civile.
Io credo che la cosa più importante – che mi aspetterei e che vedo accadere nel Terzo settore – è quello di soggetti che presidiano le trasformazioni che questo genere di tecnologie hanno rispetto alla sfera molto ampia delle libertà e dei diritti.
Per cui ad esempio tutte quelle organizzazioni che presidiano il tema dell’accessibilità. Quanto sono tecnologie accessibili a tutti o quanto creano e incentivano dei divari?
Oppure tutta quella parte di impegno che va verso la trasparenza delle informazioni algoritmiche, soprattutto se si tratta di informazioni algoritmiche che sono poste al servizio di decisioni pubbliche.
Auspico – e credo sarà così – che ci sia un costante impegno in questo senso. Quindi avremo un’attenzione di molti soggetti della società civile che provano a plasmare la visione collettiva di questa tecnologia in misura conforme ai diritti e alle libertà individuali e collettive.