Intelligenza artificiale in chiaroscuro anche per gli avvocati nello shipping
Per Cecilia Vernetti rischia d’essere infruttuoso e controproducente l’utilizzo acritico in ambito legale di strumenti di intelligenza artificiale
Contributo presentato durante l’assemblea Aipert dall’avv. Cecilia Vernetti *
* partner dello Studio Legale Camera Vernetti
Non esiste una definizione universalmente condivisa di intelligenza artificiale, ma sintetizzando la si può definire come quell’insieme di tecnologie che simulano i processi dell’intelligenza umana, avvicinandosi alla ragione dell’uomo.
L’odierno obbiettivo degli operatori dell’AI è quello di realizzare sistemi informatici in grado di agire come gli esseri umani con particolare riferimento al ragionamento, all’apprendimento e alla capacità di auto-correzione. L’intelligenza artificiale può essere anche definita rete neurale, ossia come un database di dati, o meglio una scatola nera contenente neuroni, rappresentati da equazioni, che interagiscono tra di loro con varie connessioni comportando ingressi e uscite di impulsi. La rete neurale per funzionare mette in pratica un algoritmo statistico che fa in modo che l’uscita di un risultato da questa scatola nera sia ragionevole in base ai dati con i quali viene addestrata. Ne nascerà una risposta con un linguaggio corretto e apparentemente sensato, ma le risposte potrebbero anche essere false o errate.
Spesso quando parliamo di intelligenza artificiale ci riferiamo a ChatGPT che è un Large Language Model (LLM), ossia un’applicazione di AI generativa che si serve di una rete neurale per elaborare risposte. Gli LLM non hanno la meta-cognizione, ossia la capacità di valutare la propria conoscenza e metterla in dubbio, che è l’elemento di differenziazione tra professionista e macchina. Si tratta quindi di “sistemi che sono stati addestrati ad interpretare il linguaggio e forniscono una risposta che è la più plausibile in base a quello che hanno incamerato” (Edmondo Orlotti Chief Strategy Officer at Core42).
Gli LLM, infatti, sono programmati per rispondere sempre, fornendo appunto la risposta più plausibile, con il rischio di creare nuovi contenuti anche inventandoli, ossia generando le cosiddette allucinazioni dell’AI. Non si può dire quindi che le reti neurali siano depositarie di una vera e propria conoscenza. Significativo al riguardo è l’esempio di Stefano Quintarelli (Founder – Rialto Venture Capital) che dice: immaginiamoci una stanza chiusa dove c’è un signore dentro dove a fronte di ideogrammi deve produrre altri ideogrammi, seguendo le regole di un manuale. Gli ideogrammi che escono sono coerenti alle regole di scrittura del manuale. Tuttavia, non si può affermare che il signore dentro la scatola sappia il cinese. Stessa cosa si potrebbe dire nel caso in cui chiudessimo in una stanza un signore (non avvocato) chiedendogli di redigere un atto di citazione, sulla base di un formulario. Ne deriverebbe un atto di citazione coerente con le regole del manuale, ma non potremmo certo affermare che il signore sappia la procedura civile.
Le allucinazioni dell’AI possono quindi essere fonte di guai per i professionisti che si affidino ai risultati di ChatGPT ad esempio per eseguire ricerche giurisprudenziali. Nel Maggio 2023 un avvocato di New York è sanzionato da un Giudice Distrettuale USA per aver utilizzato in giudizio ben sei sentenze rivelatesi false. L’avvocato Steven A. Schwartz, con esperienza di oltre 30 anni, ha dichiarato di non essere consapevole della potenziale inattendibilità dei contenuti prodotti dall’intelligenza artificiale. Il giudice distrettuale nel comminare la sanzione ha commentato che non ci fosse nulla di intrinsecamente improprio nell’utilizzare l’intelligenza artificiale a scopo di “assistenza”, evidenziando però che le regole deontologiche “impongono un ruolo di controllo agli avvocati per garantire l’accuratezza dei loro documenti“.
In una prospettiva di diritto italiano l’uso di sentenze false generate da applicazioni di AI generativa potrebbe comportare conseguenze di natura disciplinare, sotto il profilo della violazione del dovere di verità sancito dall’art. 5 del Codice Deontologico Forense, secondo cui “L’avvocato non deve introdurre nel procedimento prove, elementi di prova o documenti che sappia essere falsi” Nella mia esperienza, non è infrequente infatti che ChtGPT o altre applicazioni di AI producano massime giurisprudenziali apparentemente coerenti, ma inventate, ossia non riscontrabili nelle principali banche dati di uso comune tra gli avvocati. A fronte di tali rischi, incombe sull’avvocato un obbligo di controllo della veridicità delle prove e dei documenti che introduce nel processo, non potendo certo limitarsi a invocare la buona fede per avere fatto affidamento sui contenuti prodotti dall’AI.
Esistono per contro applicazioni di AI che, pur non potendo certamente sostituire il ruolo dei professionisti, possono offrire loro un supporto. È il caso, ad esempio, di Copilot, che è un’applicazione sviluppata da Microsoft, basata principalmente su ChatGPT che, oltre ai dati della rete neurale, sfrutta anche i dati presenti sulla rete informatica dell’utente (dell’avvocato ad esempio), ricevendo quindi un addestramento personalizzato e riservato, in quanto i dati che gli forniamo per addestrarsi vengono mantenuti privati e non vengono immessi nella rete neurale.
Venendo più specificamente al mondo legal, Copilot potrebbe essere utilizzato ad esempio per: estrapolazione contenuti da scambi mail per creare un MOU; revisione contratti/comparazione clausole/suggerimento standard terms; analisi delle condizioni proposte da controparte durante una call per la creazione di draft agreement; analisi e selezione di precedenti giudiziali presi da banche di giurisprudenza
Tutto quello che abbiamo detto su Copilot sino ad ora ha un minimo comune denominatore: si tratta di strumenti che aiutano il professionista ad eliminare le parti più meccaniche del lavoro ma non certo possono sostituire il ruolo centrale del professionista che ha il dovere di controllare i prodotti dell’AI alla luce della sua esperienza e competenza
Altra modalità di sfruttamento dell’AI applicata al settore legal, sono i contratti intelligenti. I contratti intelligenti sono dei contratti digitali archiviati su una rete blockchain. La blockchain è un libro mastro condiviso e immutabile che facilita il processo di registrazione delle transazioni e di monitoraggio degli asset in una rete aziendale. Sono concepiti per automatizzare la fase esecutiva di un accordo. Funzionano seguendo delle semplici istruzioni condizionali (“if/when…then…”) scritte nel codice in una blockchain. Una rete di computer esegue le azioni quando le condizioni prestabilite sono state soddisfatte e verificate.
In tal modo tutti i partecipanti possono essere immediatamente certi del risultato senza il coinvolgimento di intermediari o perdite di tempo. Si pensi ad esempio al caso di un escrow agreement che preveda la liberazione automatica dei fondi in escrow account all’avverarsi delle condizioni previste nell’escrow agreement
Inoltre, i blocchi della catena sono a prova di manomissione e accessibili solo dalle parti della transazione.
L’utilità degli strumenti offerti dall’intelligenza artificiale è sicuramente indiscussa; tuttavia, è opportuno un utilizzo consapevole da parte dell’utente, specialmente se professionista. Sulla base di questo principio di base, la commissione Nuove Tecnologie della Federazione degli Ordini Forensi Europei (FBE), nel giungo 2023, ha prodotto delle linee guida per il corretto utilizzo da parte degli avvocati delle opportunità che l’AI offre. Queste raccomandazioni rivolte ai professionisti hanno lo scopo di accertare che gli utilizzatori comprendano il funzionamento, i limiti ed i rischi che l’AI porta con sé. Agli avvocati è richiesto, inoltre, di integrare le ricerche svolte tramite l’utilizzo di strumenti di AI con le proprie conoscenze personali ed il loro bagaglio esperienziale, rispettando sempre la riservatezza e la privacy del cliente ed assumendosi la responsabilità del loro operato.
Altra raccomandazione fondamentale indicata dalla Commissione Nuove Tecnologie, è quella di rispettare le disposizioni normative vigenti.
A Luglio 2024 è stato pubblicato in Gazzetta Ufficiale il Regolamento europeo sull’AI che, pur essendo il primo esempio di legislazione in materia in ambito europeo, si pone obiettivi ambiziosi. L’Unione, con il varo di questo regolamento, ha dimostrato grande interesse a che l’AI trovi uno sviluppo anche in Europa, purché ciò non vada a scapito dei valori fondanti dell’Unione e più in generale dello Stato di Diritto, con grande attenzione al rispetto dei diritti fondamentali dell’uomo. L’Europa crede quindi in uno sviluppo sostenibile dell’AI, che debba necessariamente fare i conti con un suo utilizzo etico, responsabile e regolamentato, ma soprattutto “antropocentrico”. L’AI deve quindi essere sempre supervisionata da un essere umano che sia in grado, in qualunque momento, di interromperne il meccanismo per scongiurare risultati che potrebbero portare nocumento agli esseri umani.
Conformemente al regolamento europeo, in ambito nazionale è stato predisposto un disegno di legge con delega al Governo in materia di AI. Lo scopo di questo DDL è quello di andare ad apportare modifiche al nostro ordinamento al fine di recepire, soprattutto in ambito penale, le nuove fattispecie criminose connesse all’utilizzo dell’AI. Ulteriori modifiche saranno, inoltre, apportate alla legge sul diritto d’autore che andrà a tutelare anche le opere che, pur essendo frutto dell’ingegno umano, siano state realizzate con l’ausilio di strumenti di AI. Specificando che non potranno godere di tale protezione quelle prodotte esclusivamente dall’AI.
ISCRIVITI ALLA NEWSLETTER QUOTIDIANA GRATUITA DI SHIPPING ITALY
SHIPPING ITALY E’ ANCHE SU WHATSAPP: BASTA CLICCARE QUI PER ISCRIVERSI AL CANALE ED ESSERE SEMPRE AGGIORNATI