Consiglio Nazionale Forense

04/16/2024 | News release | Archived content

G7 delle Avvocature, pomeriggio di approfondimento su giustizia e intelligenza artificiale

Pomeriggio di dibattiti e approfondimenti al G7 delle Avvocature presieduto dal CNF su "Intelligenza artificiale e valori democratici": etica, innovazione tecnologica e tutela dei diritti della persona che si sta tenendo a Roma presso l'Aula Magna della Pontificia Università della Santa Croce.

I lavori sono iniziati con la seconda sessione moderata da Isidoro Trovato, giornalista del Corriere della Sera. Il dott. Francesco Contini, dirigente di ricerca Istituto di Informatica Giuridica e Sistemi Giudiziari - Consiglio Nazionale delle Ricerche, ha aperto la discussione con la relazione "Il giusto processo tra intelligenza artificiale generativa e giustizia predittiva". «Il concetto di "giustizia predittiva" ha attirato attenzioni, speranze e risorse - spiega Contini - i progetti per implementare sistemi di giustizia predittiva sono fioriti a livello nazionale e in Europa, ma i risultati sono per ora modesti sia per disponibilità di dati su cui addestrare i sistemi sia per i tempi e i costi necessari per l'estrazione di concetti dal testo e la creazione di relazioni tra queste annotazioni. Poi è arrivata l'IA generativa con l'aspettativa di trasformare le professioni legali, anche se il suo uso pone problemi di riservatezza e data protection. In ambito legale questo ne ostacola un uso su casi reali perché si rischia di compromettere riservatezza delle informazioni confidenziali. Inoltre, poiché questi sistemi non sono specializzati, possono dare risposte errate perché addestrati su dati non pertinenti».

Quindi la parola è andata al dott. Jean Lassègue, ricercatore senior del Centre National de la Recherche Scientifique e direttore del Centre Georg Simmel (École des Hautes Études Sciences Sociales di Parigi), con la relazione "Trasformazioni delle prove nell'era digitale". «Ci sono due problemi principali con i Large Language Model (tecnologia di IA incentrata su comprensione e analisi del testo) - ha spiegato il ricercatore - un problema teorico: gli LLM dovrebbero essere non specializzati e in grado di generare risposte a qualsiasi richiesta, ma non possono farlo. Poi c'è il problema legale. Come sottolinea il linguista Noam Chomsky, gli LLM non ci consentono di distinguere tra affermazioni corrette e errate, poiché si limitano a identificare tendenze statistiche. Ma nel caso delle norme legali dobbiamo essere capaci di distinguere tra affermazioni sbagliate e corrette in relazione alla norma. È quindi l'idea stessa di prova che qui subisce un cambiamento importante, poiché l'uso delle reti neurali offusca la distinzione tra fatto e norma presentando il livello della norma come la somma di casi individuali, cosa che non è. Ciò ovviamente non significa che questi LLM siano inutili o pericolosi, ma che la loro funzione è limitata da una norma, sia matematica che giuridica, che essi stessi non possono produrre».

Ha concluso la sessione il prof. Avv. Filippo Donati, ordinario di diritto costituzionale presso l'Università degli studi di Firenze, parlando di "Intelligenza artificiale e giustizia alla luce del nuovo regolamento". «Il nuovo regolamento in procinto di essere pubblicato (l'IA Act) classifica i sistemi di Intelligenza Artificiale in base al rischio collegato all'utilizzo - dice Donati - è in questo contesto che deve essere valutato l'impiego dell'IA nell'ambito della giustizia. L'IA può offrire un supporto per superare i maggiori problemi che affliggono i sistemi giudiziari: tempi di giudizio, certezza del diritto e prevedibilità delle decisioni. Allo stesso tempo, però, l'impiego dell'IA richiede cautela, perché errori di progettazione, addestramento o funzionamento possono condurre a decisioni discriminatorie o comunque lesive dei diritti della persona. Il sistema di governance adottato a livello dell'Unione e nazionale sarà determinante per l'applicazione virtuosa della nuova disciplina dell'AI Act. Soltanto l'autonomia, l'indipendenza e la preparazione tecnica delle persone chiamate ad assicurare l'osservanza dell'IA Act potranno garantire lo sviluppo e l'utilizzo di sistemi di intelligenza artificiale nel rispetto dei diritti della persona e dei principi democratici».