Utilizzo di sistemi e modelli di Intelligenza Artificiale per finalità generali a supporto dell’attività forense: tra profili di responsabilità e nuove regole tutte italiane di trasparenza verso il cliente
23 Novembre 2025|Le cronache giudiziarie italiane degli ultimi tempi registrano utilizzi, più o meno “ufficiali”, anomali e in ogni caso non sufficientemente supervisionati, di sistemi e modelli di intelligenza artificiale per finalità generali (art. 3, 1) e 63) AI act). Parliamo di legali il cui affidamento all’intelligenza artificiale ha comportato il deposito di atti con riferimenti giudiziari inesistenti o addirittura privi contenuti giuridicamente coerenti o “sensati”.
L’utilizzo dell’Intelligenza Artificiale nel settore forense sta generando tra gli operatori del diritto non poche preoccupazioni. I magistrati hanno iniziato a condannare per lite temeraria ed è dunque cruciale comprendere le ragioni delle prime pronunce.
Nel presente contributo saranno analizzate le più recenti decisioni e delineati i tratti essenziali dei nuovi obblighi di trasparenza – da ultimo introdotti in Italia con la legge n.132 del 23 settembre 2025 (che, in www.rivistalabor.it, sarà commentata prossimamente da Alessandro MARIOTTI) – per l’utilizzo dell’Intelligenza Artificiale nell’esercizio dell’attività professionale, anche forense.
Le condanne per lite temeraria del Tribunale di Latina: la colpa grave desunta dal comportamento processuale e dalla “evidente” redazione degli atti tramite strumenti di intelligenza artificiale
Nelle due pronunce del Tribunale di Latina (24 settembre 2025 nn. 1034 e 1035), il Giudice condanna la parte per lite temeraria desumendo l’uso dell’Intelligenza Artificiale a supporto del legale dalla scarsa qualità degli scritti e dal comportamento processuale. Si tratta di una deduzione non supportata da alcuna evidenza.
Nelle sentenze gemelle, il Tribunale di Latina ritiene sussistere i presupposti della responsabilità aggravata ex art.96 co.3 c.p.c. “Il ricorso giudiziario – così come tutti gli altri centinaia giudizi patrocinati dal medesimo difensore, tutti redatti a stampone – risulta evidentemente redatto con strumenti di intelligenza artificiale”.
Ciò risulta “evidente non solo dalla gestione del procedimento (deposito di note ex art.127 ter c.p.c. il giorno successivo al deposito del decreto di fissazione dell’udienza) ma soprattutto dalla scarsa qualità degli scritti difensivi e dalla totale mancanza di pertinenza o rilevanza degli argomenti utilizzati.
Invero “l’atto è (…) composto da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico ed in gran parte inconferenti rispetto al thema decidendum ed in ogni caso tutte manifestamente infondate. Il difensore inoltre, più volte inviato a presentarsi in udienza al fine di rendere chiarimenti, ha ritenuto di non presenziare”.
Ciò che il Giudice condanna è il deposito di atti con contenuti privi di ordine logico ed in gran parte inconferenti, che si presume essere prodotto dell’intelligenza artificiale in ragione del comportamento processuale del legale.
Attualmente esistono sistemi di intelligenza artificiale in grado di verificare se un documento sia prodotto da altro sistema di intelligenza artificiale (cd. AI detectors). Si tratta di strumenti che analizzano pattern linguistici e valutano la probabilità che siano generati da Large Language Model.
Tuttavia, nelle pronunce in esame non risulta che siano forniti al magistrato, né pare che il Giudice vi abbia fatto uso autonomamente.
L’erroneo utilizzo “ombra” di ChatGPT e i precedenti inesistenti: allucinazioni che non integrano la colpa grave della lite temeraria per il Tribunale di Firenze, Sezione Imprese
Se nei procedimenti innanzi al Giudice di Latina poteva esserci un dubbio che gli atti fossero il prodotto dell’intelligenza umana, come vedremo negli altri procedimenti in commento tali dubbi non sussistono.
Nelle pronunce del Tribunale delle Imprese di Firenze (ordinanza, 14 marzo 2025) e del Tribunale del Lavoro di Torino (16 settembre 2025) il deposito in giudizio di documenti elaborati con il supporto dell’Intelligenza Artificiale è comprovato.
Nella controversia fiorentina, su questioni legate alla tutela dei marchi e diritto d’autore, l’atto difensivo contiene riferimenti a precedenti giurisprudenziali inesistenti. Il legale chiede al Giudice di eliminare tali errori imputandoli a una ricerca effettuata da una collaboratrice di studio tramite ChatGPT, del cui utilizzo si dichiara ignaro. Un utilizzo “ombra” (cd. shadow AI) di ChatGPT: un sistema di AI che include un modello di intelligenza artificiale per finalità generali (GPT), dotato di un’interfaccia conversazionale intuitiva e semplice (Chat), progettato da OpenAI per comprendere, elaborare e generare testi non per eseguire ricerche.
È interessante notare il fatto che la parte difesa dal legale “irresponsabile” non viene condannata per lite temeraria ai sensi dell’art.96 co.3 c.p.c. In effetti il Giudice valorizza il fatto che l’indicazione degli estremi delle sentenze inesistenti supporta un apparato difensivo già coerente e non è finalizzato a resistere in giudizio in mala fede.
Il Tribunale fiorentino evidenzia che la lite temeraria risulta applicabile quando una parte agisca o resista in giudizio con mala fede o colpa grave e la difesa sia non solo errata sul piano tecnico, ma anche idonea a realizzare un abuso del processo (ai sensi dell’art.96 c.p.c.). Sicché si esclude la sussistenza della lite temeraria, pur sottolineando l’importanza di evitare affidamenti acritici sul lavoro delle IA e di mantenere sempre alta la diligenza professionale.
Nella parte motiva della sentenza la fattispecie esaminata viene ricondotta al fenomeno delle c.d. allucinazioni dell’intelligenza artificiale, che sorgono in contesti in cui le reti neurali e i modelli generativi producono risultati inaspettati, creativi e, in alcuni casi, al di fuori dei parametri prefissati.
Colpisce come il Giudice non consideri rilevante l’errore presumibilmente generato da un utilizzo “anomalo”, “imprudente” e in ogni caso non supervisionato di un sistema di Intelligenza Artificiale (art.3, 1) AI act). Come è stato efficacemente evidenziato “il (…) funzionamento (di ChatGPT) si basa su un meccanismo predittivo di tipo linguistico statistico, orientato alla produzione di risposte plausibili sotto il profilo testuale, ma non necessariamente corrette dal punto di vista sostanziale, logico o giuridico” (così G. Ziccardi, Intelligenza artificiale. Guida semplice per il giurista, Giuffrè, 2024, 101).
ChatGPT è un sistema di intelligenza artificiale prodotto da OpenAI che include un GPT Generative Pre-trained Trasformer (ossia un modello di Intelligenza Artificiale Generativo basato su un Trasformatore del linguaggio umano in linguaggio “macchina” che coglie le relazioni tra parole, Pre-addestrato su grandi quantità di testi provenienti da fonti pubblicamente disponibili in varie lingue, ma prevalentemente in lingua inglese). Sicché potrebbe essere utile per elaborare bozze, sintetizzare o confrontare testi, riscrivere contenuti con diversi stili, ma per la sua capacità generativa risulta anomalo e “imprudente” utilizzarlo come strumento per eseguire ricerche.
I profili responsabilità aggravata, per deposito di atti contenenti la produzione di atti processuali contenenti richiami giuridici infondati e fonti citate in modo acritico, non sono ritenuti sussistenti per l’assenza di un’effettiva finalità di influenzare fraudolentemente il giudizio.
La condanna per lite temeraria del Tribunale di Torino: la colpa grave per gli atti generati con il supporto di strumenti di Intelligenza Artificiale
Nella diversa vicenda processuale torinese – qui in commento – l’atto depositato contiene, trasparentemente in calce, il riferimento al fatto che è stato elaborato con il supporto di sistemi di Intelligenza Artificiale (art.3, 1) AI act): in questo caso l’utilizzo dell’intelligenza artificiale nell’ambito delle attività di assistenza legale è “ufficiale” e trasparente anche se non è dato conoscere lo strumento di Intelligenza Artificiale.
Nella sentenza del Tribunale di Torino n. 2120 del 16 settembre 2025 il Giudice, invece, condanna la parte per lite temeraria (art.96 co.3-4 c.p.c.). In questo caso il legale deposita un ricorso per opposizione a decreto ingiuntivo redatto con il supporto di un sistema di intelligenza artificiale su questioni contributive previdenziali.
L’Organo Giudicante, nell’esaminare l’atto – in cui in calce appare la dicitura “redatto con il supporto di sistemi di IA” – rileva che lo stesso contiene riferimenti normativi non coerenti oltre che rinvii a pronunce inesistenti che minano la fondatezza della domanda avanzata da parte ricorrente.
Nella pronuncia, si legge che il ricorso contiene eccezioni di ogni sorta come la decadenza dal potere impositivo, l’incompetenza territoriale, l’inesistenza per vizi relativi alla sottoscrizione, la mancata indicazione dei criteri di calcolo degli interessi, l’inesistenza della notifica degli avvisi di addebito, l’intervenuto silenzio assenso e la prescrizione dei crediti.
Non si tratta solo di qualche citazione di precedenti inesistenti.
L’Organo Giudicante rileva l’infondatezza delle eccezioni e ritiene che il ricorrente abbia “agito in giudizio con malafede o, quantomeno con colpa grave, dal momento che ha proposto opposizione nei confronti di avvisi di addebito che gli erano stati tutti notificati in precedenza, già oggetto di plurimi atti di esecuzione anch’essi tutti regolarmente notificati ed ha svolto – tramite un ricorso redatto “col supporto dell’intelligenza artificiale”, costituito da un coacervo di citazioni normative e giurisprudenziali astratte, prive di ordine logico e in larga parte inconferenti, senza allegazioni concretamente riferibili alla situazione oggetto del giudizio – eccezioni tutte manifestamente infondate”.
Pertanto, il Giudice reputa il ricorso infondato nel merito e, allo stesso tempo, ritiene che la condotta processuale sia ascrivibile alla lite temeraria (art.96 c.p.c.).
Qui la condanna equitativa “per abuso del processo”, senza la necessità di una puntuale prova del danno concreto, risulta fondata per il palese aggravio arrecato al processo. Sicché la responsabilità processuale del legale dipende da un comportamento processuale globalmente lesivo aggravato dall’utilizzo di sistemi di Intelligenza artificiale presumibilmente di automazione, supporto alla scrittura e forse all’analisi documentale e dalla mancata verifica dei risultati prodotti grazie al supporto di tali sistemi.
Pare opportuno tuttavia evidenziare che la pronuncia del Tribunale di Torino in commento avrebbe potuto essere decisa nello stesso senso anche se il legale non avesse fatto uso di sistemi di intelligenza artificiale per redigere l’atto. In realtà il fatto che l’atto sia stato “redatto con il supporto di sistemi di Intelligenza Artificiale” non solo non giustifica il legale (che in ogni caso resta sempre obbligato a supervisionare i contenuti), ma anzi ne aggrava la responsabilità. L’affidamento acritico a sistemi di intelligenza artificiale a supporto dell’assistenza legale in giudizio giustifica la condanna per lite temeraria (ex art. 96 c.p.c.).
Chi utilizza sistemi di intelligenza artificiale generativi, anche se dotati di meccanismi che consentono di integrare l’archivio del modello pre-addestrato della famiglia GPT con archivi/documenti specifici individuati dall’utente (il cd. Retrieval- Augumented Generation – RAG), sa bene quanto debbano sempre essere supervisionati per mitigarne il rischio di allucinazioni.
La condanna per lite temeraria del TAR Lombardia per la presenza nel ricorso di precedenti giurisprudenziali inesistenti e la Carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense dell’Ordine degli avvocati di Milano
Nell’ultima pronuncia qui in commento il TAR Lombardia, Sezione Quinta, 21 ottobre 2025, n. 3348, il Collegio è chiamato a decidere sull’impugnazione di una bocciatura di un’alunna affetta da DSA, i cui precedenti giurisprudenziali richiamati nel ricorso a sostegno di diverse tesi difensive contengono “estremi di pronunce non pertinenti e massime indicate in molti casi sono riferibili ad orientamenti giurisprudenziali non noti”.
Il Collegio giudicante condanna la parte e, per la prima volta, rileva criticità deontologiche disponendo l’invio della sentenza al Consiglio dell’Ordine degli Avvocati di Milano ai sensi dell’art. 88 cod. proc. civ., applicabile al processo amministrativo in forza del rinvio contenuto nell’art. 39 cod. proc. amm.
Nella parte motiva della sentenza non ci si limita ad osservare la “violazione del dovere del difensore di comportarsi in giudizio con lealtà e probità” per effetto dell’introduzione di “elementi potenzialmente idonei ad influenzare il contraddittorio processuale e la fase decisoria verso un percorso non corretto” che rendono “inutilmente gravosa, da parte del giudice e delle controparti, l’attività di controllo della giurisprudenza citata e dei principi dalla stessa apparentemente affermati”.
Il Collegio aggiunge l’irrilevanza dell’esimente opposta dal legale in udienza “di aver citato nel ricorso della giurisprudenza reperita mediante strumenti di ricerca basati sull’intelligenza artificiale che hanno generato risultati errati”.
Il TAR Lombardia evidenzia che “la sottoscrizione degli atti processuali ha la funzione di attribuire la responsabilità degli esiti degli scritti difensivi al sottoscrittore indipendentemente dalla circostanza che questi li abbia redatti personalmente o avvalendosi dell’attività di propri collaboratori odi strumenti di intelligenza artificiale”, e richiama il principio della centralità della decisione umana anche ribadita nella “La carta dei principi per un uso consapevole dei sistemi di intelligenza artificiale in ambito forense ” redatta dall’Ordine degli Avvocati di Milano nel 2024 e reperibile sul sito istituzionale.
Il Collegio richiama gli obblighi deontologici dei legali chiarendo che ciascun avvocato “ha un onere di verifica e controllo dell’esito delle ricerche effettuate con i sistemi di intelligenza artificiale, possibile fonte di risultati errati comunemente qualificati come “allucinazioni da intelligenza artificiale”, che si verificano quando tali sistemi inventano risultati inesistenti ma apparentemente coerenti con il tema trattato”.
Per quanto a noi qui interessa, nella professione forense, accanto ai descritti profili di responsabilità processuale, il legale che utilizzi il supporto di strumenti di ricerca basati sull’intelligenza artificiale senza verificarne contenuti viola i principi di probità, lealtà, correttezza e diligenza (artt. 9, 10, 14, 50 Codice Deontologico Forense).
Produrre o utilizzare atti consapevolmente infondati o generati senza verifica critica costituisce illecito disciplinare. Simile comportamento lede non solo la fiducia del cliente, ma l’immagine stessa dell’Avvocatura e l’affidabilità del sistema giudiziario. Il dovere di verità (art. 50 Codice Deontologico Forense) impone all’avvocato di non introdurre nel procedimento elementi di prova o riferimenti che sappia essere falsi, né utilizzare documenti che apprenda essere tali; all’acquisizione di tale consapevolezza, egli è tenuto anche ad abbandonare la difesa o rifiutarsi di utilizzare quegli elementi. La reiterazione di comportamenti di questo tipo integra una violazione anche dei doveri di competenza e diligenza professionale (art. 14 Codice Deontologico Forense).
Ma in fondo se un atto contiene riferimenti inesistenti e norme non coerenti il legale è comunque responsabile, perché ci preoccupa così tanto se ciò dipende dall’utilizzo non supervisionato di strumenti di intelligenza artificiale?
La risposta è legata alla grave negligenza derivante dal deposito di atti elaborati tramite Intelligenza Artificiale oppure in cui si richiamano ricerche effettuate tramite strumenti di ricerca basati sull’Intelligenza Artificiale senza un’adeguata supervisione. Indice di non aver adeguatamente mitigato una nuova tipologia di rischi connessa all’Intelligenza Artificiale generativa che si sta presentando nell’attività forense e, come vedremo, di aver consentito la perdita di “centralità” dell’uomo.
L’impiego di Intelligenza Artificiale negli studi legali e gli obblighi dell’AI act
L’antropocentricità nell’utilizzo dell’Intelligenza Artificiale deve sempre essere preservata per garantire “un livello elevato di protezione, della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione Europea” (art.1 e C(1) Reg. UE n.2024/1689 P. Benanti, Human in the loop. Decisioni umane e intelligenze artificiali, Milano, Mondadori Università, 2022).
L’attiva integrazione dell’uomo in un processo automatizzato (human in the loop), la supervisione umana (human oversight) e l’approccio responsabile all’Intelligenza artificiale (responsible AI) sono principi codificati a livello sovranazionale nell’AI act (Reg. UE n.2024/1689), nelle Linee Guida della Commissione Europea, nella Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale e sui diritti umani, sulla democrazia e sullo Stato di diritto, adottata il 17 maggio 2024 e – per il settore giustizia – nell’Artificial Intelligence Strategy della Corte di Giustizia dell’Unione Europea (con cui si esortano gli avvocati a non affidarsi completamente ai risultati generati dall’IA) e nelle Linee Guida elaborate dalla Federazione degli Avvocati Europei “Gli avvocati europei nell’era di ChatGPT” ( https://www.fbe.org/wp-content/uploads/2025/08/Avvocati-europei-nellera-di-ChatGPT-Italian-translation-of-Guidelines-2.0.pdf).
È comunque importante riflettere in merito al fatto che nel Regolamento dell’AI act non si codificano obblighi solo per chi produce (provider) o commercializza sistemi e modelli di Intelligenza Artificiale, ma anche per chi li utilizza professionalmente come ad esempio l’avvocato in qualità di deployer (art.3, 4) Reg. UE n.2024/1689). Parliamo di obblighi che, fatta eccezione per quello formativo di alfabetizzazione del personale che utilizza sistemi di IA già in vigore (cfr. art.4 AI act), diventeranno pienamente applicabili nel prossimo biennio 2026-2027 e si differenziano in ragione del rischio (cd. risked-based approach).
“Un assetto a geometrie variabile dove i doveri di condotta e gli itinerari di enforcement vengono modulati in funzione dei diversi livelli di rischio prevedibilmente connessi a una determinata tipologia di attività” (così G. Resta, Cosa c’è di europeo nella proposta di regolamento UE sull’intelligenza artificiale?, Diritto informazione, 2022, 323 e sul punto 338). La Commissione Europea nelle Linee Guida sull’AI act precisa che “solo alcuni sistemi di IA sono soggetti a obblighi normativi e a misure di sorveglianza a norma del regolamento sull’IA. L’approccio basato sul rischio del regolamento sull’IA implica che solo i sistemi che comportano i rischi più significativi per i diritti e le libertà fondamentali saranno soggetti ai divieti stabiliti all’articolo 5, al regime normativo per i sistemi di IA ad alto rischio di cui all’articolo 6 e agli obblighi di trasparenza per un numero limitato di sistemi di IA predefiniti di cui all’articolo 50. La stragrande maggioranza dei sistemi, anche se si qualificano come sistemi di IA ai sensi dell’articolo 3, punto 1), del regolamento sull’IA, non sarà soggetta a requisiti normativi previsti da tale regolamento” (così Commissione Europea https://digital-strategy.ec.europa.eu/it/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application).
Per quanto a noi qui interessa, i sistemi di IA utilizzati nell’ambito dell’attività forense di difesa non vengono classificati automaticamente come “ad alto rischio” non rientrando nell’elenco contenuto nell’Allegato III punto 8 poiché l’avvocato non è un’autorità pubblica (cfr. art.6 Reg. UE n.2024/1689), con l’effetto di escludere dal campo di applicazione le attività delle legal tech della giustizia predittiva che forniscono servizi ai privati (cfr. S. Zolea, sub Allegato III punto 8a, in A. Mantelero – G. Resta – G.M. Riccio (a cura di), Intelligenza artificiale. Commentario, Wolters Kluver Milano, 2025, 990).
Negli studi legali i sistemi di IA potrebbero essere classificati come ad “alto rischio” solo qualora presentassero un alto rischio di pregiudicare i diritti fondamentali delle persone (come ad esempio quello ad un equo processo ex art. 47 Carta UE – strumenti usati per analisi di dati giudiziari, redazione automatica di atti, profilazione di controparti o giudici ovvero modelli non supervisionati impiegati in attività che incidono sul diritto di difesa o sull’esito processuale) (cfr. Linee Guida Commissione Europea https://digital-strategy.ec.europa.eu/it/library/commission-publishes-guidelines-ai-system-definition-facilitate-first-ai-acts-rules-application).
Quindi in linea generale l’uso di Intelligenza Artificiale all’interno degli studi legali (es. LLM, sistemi di document analysis, legal research automatizzata) avrebbe un “rischio limitato” se lo strumento di IA fosse un mero supporto redazionale o organizzativo (bozze, riassunti, indicizzazione documenti). L’assenza di rischio potrebbe manifestarsi anche nella mancanza di una effettiva influenza materiale sul processo decisionale ossia nell’assenza dell’impatto sulla sostanza e sull’esito del processo decisionale indipendentemente dal fatto che tale processo sia umano o automatizzato (cfr. art.6 Re. UE n.2024/1689 così A. Mantelero, sub art.6, in A. Mantelero – G. Resta – G.M. Riccio (a cura di), Intelligenza artificiale. Commentario, Wolters Kluver Milano, 2025, 192).
L’“alto rischio” potrebbe derivare se lo strumento di IA fosse utilizzato dal legale, senza supervisione, nel processo decisionale (es. suggerendo strategie difensive o valutazioni probabilistiche di esito), per l’elaborazione di dati personali anche sensibili o giudiziari. In tal caso l’avvocato-deployer resterà obbligato ad applicare quanto stabilito dagli artt. 26-29 AI act (valutazione d’impatto sui diritti fondamentali – Fundamental Right Impact Assessment FRIA, supervisione umana qualificata, tracciabilità e documentazione).
Nel contesto dell’AI act per i legali risulterà indispensabile mappare accuratamente sistemi ed eventuali modelli di IA per finalità generali utilizzati e ciò al fine di identificare il livello di rischio dei sistemi di IA (art.3 1) AI act), comprendere l’eventuale integrazione dei sistemi con modelli di IA per finalità generali in uso (art.3 63) AI act), valutare finalità e rischi dei sistemi (artt. 6-7 AI act), verificare le istruzioni per l’utilizzo di modelli generali (artt.53-55 AI act), nonché definire, all’interno della propria organizzazione, i livelli di autonomia decisionale ed individuare i soggetti responsabili.
In ogni caso, negli studi professionali, formare e responsabilizzare chi utilizza strumenti e modelli di IA manterrà la sua assoluta centralità (art.4 AI act). Così come resterà importante documentare le linee guida adottate per definire chi, all’interno della propria organizzazione, possa autorizzare l’utilizzo dell’AI e a quali condizioni, come debba essere gestita la supervisione umana, quali procedure adottare in caso di errore e come documentare modifiche, test ed out-put.
I nuovi obblighi previsti dalla legge italiana per l’utilizzo dell’Intelligenza Artificiale da parte dei professionisti
I principi e gli obblighi sin qui descritti contenuti nell’AI act (Reg. UE n.2024/1689), sono stati recentemente integrati a livello nazionale nella legge italiana n.132/2025 entrata in vigore lo scorso 10 ottobre 2025. Nel codificare i principi generali sull’Intelligenza Artificiale si precisa che l’utilizzo di sistemi e modelli di intelligenza artificiale debba avvenire “nel rispetto dei diritti fondamentali e delle libertà previste dalla Costituzione, del diritto dell’Unione europea e dei principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità.” (art.3, co.1, l. n.132/2025).
Il legislatore italiano si preoccupa inoltre di evidenziare che quando l’utilizzo dell’IA implichi un trattamento dei dati personali, dovrà essere altresì garantita la liceità, correttezza e trasparenza e “la compatibilità con le finalità per le quali sono stati raccolti, in conformità al diritto dell’Unione europea in materia di dati personali e di tutela della riservatezza” (art.4, co.2, l. n.132/2025).
Rientra tra i principi generali l’esigenza che nell’applicazione di sistemi e modelli di IA si rispetti autonomia, potere decisionale dell’uomo, prevenzione del danno, conoscibilità, trasparenza, assicurando la sorveglianza e l’intervento umano (art.3, co.2, l. n.132/2025).
La nuova disciplina non si sostituisce alle normative vigenti (come ad esempio il GDPR), ma le integra sviluppandone i principi e introducendo per le professioni intellettuali nuovi obblighi.
Quanto all’impiego dell’IA nelle professioni intellettuali la legge italiana precisa che i sistemi di IA potranno essere impiegati esclusivamente come strumentali e a supporto dell’attività del professionista (art.13, co.1, l. n.132/2025). La norma valorizza il fatto che, nelle professioni intellettuali, il prestatore d’opera deve eseguire personalmente l’incarico (art.2232 c.c.): l’art.13 legge n.132/2025 precisa che le attività professionali dovranno essere organizzate in modo tale da garantire la centralità e la prevalenza del lavoro intellettuale personale. E, ove non si riesca a mantenere tale prevalenza, l’attività professionale comporterà profili di responsabilità.
Da ultimo, potenziando i principi di trasparenza, si statuisce che le “informazioni relative ai sistemi di intelligenza artificiale utilizzati dal professionista” dovranno essere comunicate al cliente “con linguaggio chiaro, semplice ed esaustivo” per assicurare il rapporto fiduciario su cui si fonda quello professionale (art.13, co.2, l. n.132/2025). La previsione italiana introduce un obbligo di trasparenza, volto alla protezione del legame tra cliente e professionista-deployer, che, diversamente da quanto avviene nell’AI act, prescinde dal rischio elevato dei sistemi di Intelligenza Artificiale (cfr. art.26 par.11 AI act) e/o dal rischio di manipolazione derivante dalla diretta interazione del sistema di Intelligenza Artificiale con le persone fisiche (cfr. art.50 AI act)
Nel tentativo di supportare i professionisti propri iscritti, il Consiglio Nazionale Forense ha diffuso un modello di informativa da utilizzare negli studi legali in cui ritiene suggerisce che il legale precisi al cliente “che nel corso dell’esecuzione dell’incarico conferito sia in sede giudiziale che stragiudiziale, ove ritenuto utile, potrebbe ricorrere all’impiego di sistemi di Intelligenza Artificiale (“I.A.”), per svolgere attività strumentali e/o di supporto all’attività professionale” chiarendo in ogni caso “che l’utilizzo dei sistemi di Intelligenza Artificiale (“I.A.”) avverrà sempre nel pieno rispetto delle disposizioni del Regolamento UE n. 2016/679 (GDPR) e dei doveri deontologici che regolano la professione forense al fine di garantire la tutela della privacy e della riservatezza del cliente e della parte assistita”.
L’adempimento dei descritti obblighi di trasparenza presupporrà comunque una consapevolezza da parte del legale di quali sistemi e modelli di Intelligenza Artificiale siano utilizzati all’interno del proprio studio (onde evitare responsabilità per l’utilizzo “ombra” la cd. “shadow AI”).
Diventerà indispensabile per qualunque professionista: mappare e documentare quanto utilizzato (funzionalità, dati trattati, classificazione del rischio, presenza di Data Processing Agreement, misure di supervisione); implementare procedure di supervisione proporzionate al rischio (con revisione completa per attività ad alto impatto, verifica a campione per attività a medio impatto, controlli per eccezione con audit periodici per attività a basso impatto); effettuare una due diligence sui fornitori (verificandone la conformità al GDPR e l’eventuale dotazione di certificazioni di sicurezza); adottare politiche interne chiare che definiscano strumenti approvati, obblighi di supervisione, procedure di documentazione, formazione obbligatoria.
Con il combinato disposto del Reg. UE n.2016/679 (GDPR) e del Reg. UE n.2024/1689 (AI act), per il professionista in quanto utilizzatore di sistemi di Intelligenza Artificiale non si tratterà più solo di mappare i dati personali raccolti, individuando finalità, basi giuridiche, modalità e tempi del trattamento. Al contrario, il professionista dovrà altresì valutare gli strumenti di IA adottati e darne comunicazione al cliente.
Nel modello di informativa diffuso dal CNF si prescrive inoltre che il legale assicuri “che l’Intelligenza Artificiale (“I.A.”) sarà impiegata esclusivamente per funzioni di supporto alla attività professionale, quali, a titolo meramente esemplificativo, la gestione di attività organizzative e di segreteria, la ricerca normativa e giurisprudenziale, l’analisi preliminare di documenti e la predisposizione di bozze o sintesi” e che in ogni caso “il risultato derivato dai sistemi di Intelligenza Artificiale (“I.A.”) sarà oggetto di una verifica attenta e accurata da parte dell’avvocato, sia in sede di generazione del prodotto che di controllo delle fonti”.
Le informazioni che, in Italia, il cliente si potrà ragionevolmente attendere dovranno avere un linguaggio chiaro, semplice tali da garantire il necessario rapporto fiduciario. E il professionista non si potrà affidare a generici format: l’informativa dovrà essere concisa, comprensibile, compatibile e funzionale al fine di consolidare la fiducia del cliente.
Sarà necessario spiegare con chiarezza quali strumenti e modelli di IA vengono utilizzati, a supporto di quali attività, con quale grado di automazione e con quali garanzie di supervisione umana. Sarà indispensabile – anche per il legale – comprendere a fondo il funzionamento, i limiti e l’impatto dei sistemi di Intelligenza Artificiale sul risultato finale della prestazione. Ciò perché il professionista dovrà essere in grado di spiegare, quali parti del proprio lavoro siano supportate dal sistema di IA e quali invece il frutto esclusivo del proprio giudizio professionale (D. Barbieri, AI Act e Legge n. 132/2025: cosa cambia per i commercialisti in https://www.ecnews.it/ai-act-e-legge-n-132-2025-cosa-cambia-per-i-commercialisti/). Per le professioni intellettuali si introducono quindi nuovi obblighi di trasparenza, indipendentemente dal rischio dei sistemi di Intelligenza Artificiale utilizzati.
Il futuro che attende le libere professioni imporrà di rafforzare la formazione dei professionisti sulle nuove tecnologie: garantire la centralità umana della prestazione intellettuale e comunicarlo al cliente diventerà l’elemento costitutivo della diligenza professionale.
Claudia Ogriseg, dottoressa di ricerca e avvocatessa specializzata in diritto del lavoro e della previdenza sociale in Udine
Visualizza i documenti: Tar Lombardia, sez. Vª, 21 ottobre 2025, n. 3348; Trib. Firenze, sez. imprese, ordinanza 14 marzo 2025; Trib.Latina, 23 settembre 2025, n. 1034; Trib.Latina, 23 settembre 2025, n. 1035; Trib.Torino, 16 settembre 2025, n. 2120
Scarica il commento in PDF
L'articolo Utilizzo di sistemi e modelli di Intelligenza Artificiale per finalità generali a supporto dell’attività forense: tra profili di responsabilità e nuove regole tutte italiane di trasparenza verso il cliente sembra essere il primo su Rivista Labor - Pacini Giuridica.
