A Siracusa quattro precedenti della Cassazione inesatti portano a una condanna da 30.000 euro
- Un avvocato di Siracusa ha citato quattro sentenze della Cassazione risultate non pertinenti perché generate dall’AI
- Il giudice ha verificato che le decisioni esistevano ma trattavano argomenti completamente diversi
- L’utilizzo acritico dell’intelligenza artificiale è stato considerato colpa grave
- Il tribunale ha condannato il legale al pagamento di spese, risarcimento e contributo alla Cassa delle Ammende
- Il caso ribadisce che i modelli generativi non sono banche dati giuridiche e richiedono sempre verifica
Un avvocato porta in aula quattro precedenti della Cassazione per sostenere la propria tesi, ma qualcosa non torna. Il giudice controlla le citazioni e scopre che le sentenze esistono davvero, solo che parlano d’altro. Non una sfumatura, ma un cambio totale di argomento. Il risultato è una decisione destinata a fare scuola: l’utilizzo acritico dell’intelligenza artificiale generativa senza verifiche integra colpa grave.
Il caso arriva dal tribunale di Siracusa, dove il magistrato ha ricostruito la vicenda partendo da un dettaglio sospetto. Le quattro pronunce citate non risultavano coerenti con le argomentazioni difensive. Dopo il controllo nel CED della Corte di Cassazione, è emerso che i riferimenti erano testualmente inesatti e giuridicamente fuorvianti, anche se i numeri delle sentenze erano reali.
Il giudice: l’AI non è una banca dati giuridica
Secondo la sentenza n. 338/2026 del 20 febbraio, l’ipotesi più plausibile è che il difensore abbia utilizzato uno strumento di intelligenza artificiale generativa senza verificare le fonti primarie. Il giudice ha ricordato che i modelli linguistici non funzionano come archivi giurisprudenziali, ma producono contenuti basati su probabilità e plausibilità linguistica.
In sostanza, l’AI può generare citazioni credibili nella forma ma non necessariamente corrette nel contenuto. Proprio questo sarebbe accaduto con le quattro sentenze indicate – Cass. n. 1216/2000, n. 8379/2006, n. 14795/2003 e n. 4553/2004 – tutte esistenti ma completamente scollegate dalle tesi difensive. Un controllo rapido, osserva il tribunale, sarebbe bastato per evitare l’errore.
La sanzione e il precedente che fa giurisprudenza
La conseguenza è stata una condanna articolata. Il giudice ha disposto 14.103 euro di spese legali a favore della controparte, altri 14.103 euro per lite temeraria ai sensi dell’articolo 96 del codice di procedura civile e 2.000 euro alla Cassa delle Ammende. In totale circa 30mila euro. Il provvedimento sottolinea anche un principio più ampio: affidarsi all’AI senza verifiche costringe giudici e controparti a controllare ogni citazione, rallentando il processo e introducendo elementi inesistenti nel dibattito. Per questo comportamento viene qualificato come negligenza professionale grave.
Leggi anche: Giudice scrive una sentenza usando ChatGPT
Non è un caso isolato. Episodi simili si sono già verificati, tra cui uno a Firenze e uno nel 2023 a New York, dove furono citati precedenti inesistenti generati dall’intelligenza artificiale. Il messaggio del tribunale di Siracusa è chiaro: l’AI può aiutare, ma non sostituisce la verifica giuridica.

La redazione di commentimemorabili.it si impegna contro la divulgazione di fake news. La veridicità delle informazioni riportate su commentimemorabili.it viene preventivamente verificata tramite la consultazione di altre fonti.
Questo articolo è stato verificato con:
- https://www.corriere.it/economia/professionisti/avvocati/26_marzo_17/avvocato-usa-l-ai-e-cita-quattro-sentenze-inventate-il-giudice-lo-condanna-colpa-grave-non-verificare-le-fonti-13bd3304-9911-434f-8769-3063b1716xlk.shtml
- https://ntplusdiritto.ilsole24ore.com/art/quattro-sentenze-fantasma-e-conto-30000-euro-quando-l-utilizzazione-acritica-dell-ia-entra-tribunale-AIW7MlmB
- https://www.open.online/2026/03/17/avvocato-sanzionato-sentenze-inventate-ai-siracusa/
developed by Digitrend