Con una recente sentenza, il T.A.R. della Lombardia ha segnalato al competente Consiglio dell’ordine l’avvocato che, nel corso del processo, si è avvalso di sistemi di intelligenza artificiale (AI) tramite modalità contrastanti con il dovere di lealtà e probità.
L’avvocato aveva citato nel proprio ricorso estremi di pronunce giurisprudenziali non pertinenti, con massime, peraltro, in numerosi casi riferibili ad orientamenti giurisprudenziali ignoti.
Il caso rappresenta un esempio del rischio di allucinazioni presentato dall’impiego di strumenti di AI di tipo generativo, consistente, in estrema sintesi, nella generazione di contenuti errati (qui, rappresentati da sentenze non rilevanti rispetto al caso affrontato e di indirizzi, con ogni probabilità, inesistenti).
A giudizio del T.A.R., la condotta del legale costituisce una violazione del dovere del difensore di comportarsi in giudizio con lealtà e probità, tale da introdurre elementi che, in potenza, risultano idonei a influenzare il contraddittorio e la fase decisoria verso un percorso non corretto, oltre che da rendere inutilmente gravoso il controllo della giurisprudenza citata e dei principi espressi da parte sia del giudice sia delle controparti.
L’affermazione dell’avvocato relativa al fatto di aver citato della giurisprudenza reperita mediante strumenti di ricerca basati sull’AI che hanno generato risultati errati è stata ritenuta dal T.A.R. priva di valenza esimente, considerato che la sottoscrizione degli atti processuali mira ad attribuire la responsabilità degli esiti degli scritti difensivi al sottoscrittore, a prescindere dalla circostanza che questi li abbia redatti personalmente, tramite strumenti di AI o avvalendosi dell’attività di propri collaboratori.
Il giudice ha richiamato anche il principio della centralità della decisione umana, stabilito nella “Carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense” redatta dall’Ordine degli avvocati di Milano nel 2024, in base al quale il professionista ha un onere di verifica e controllo dell’esito delle ricerche effettuate con i sistemi di AI.
La decisione risulta coerente con quanto previsto dalla recente legge italiana in materia di AI rispetto alle professioni intellettuali. L’art. 13 della l. n. 132/2025 prevede infatti che il lavoro intellettuale oggetto della prestazione d'opera del professionista deve essere prevalente rispetto all’utilizzo dei sistemi di AI. Quest’ultimo, in ogni caso, è ammesso esclusivamente se finalizzato al solo esercizio delle attività strumentali e di supporto all'attività professionale.
