Non si ravvisa una “responsabilità aggravata” se le pronunce menzionate dall’avvocato in un giudizio – generate dall’IA (ChatGPT) – sono inesistenti
Con ordinanza del 14 marzo 2025 (testo), il Tribunale di Firenze (Sez. Imprese) ha respinto la domanda ex art. 96 c.p.c. proposta dal reclamante volta ad individuare una “responsabilità aggravata” di parte reclamata per aver citato “sentenze inesistenti, ovvero il cui contenuto reale non corrisponde a quello riportato”.
In risposta a tale domanda, parte reclamata aveva invero riconosciuto trattarsi di cd. “allucinazioni di intelligenza artificiale, che si verifica[no] allorché l’IA inventi risultati inesistenti ma che, anche a seguito di una seconda interrogazione, vengono confermati come veritieri”, chiedendo tuttavia al Collegio di stralciare tali contenuti dal proprio atto processuale.
Nonostante un rilevato “disvalore relativo all’omessa verifica dell’effettiva esistenza delle sentenze risultanti dall’interrogazione dell’IA”, secondo il Collegio le pronunce erroneamente riportate – inesistenti e frutto dell’elaborazione di ChatGPT – andavano “a rafforzare un apparato difensivo già noto” (sostenuto dalla medesima difesa nel corso del primo grado del giudizio) e, dunque, non erano finalizzate “a resistere in giudizio in malafede” o tantomeno a “influenzare il collegio”.
Viene da chiedersi se la “responsabilità aggravata” sarebbe stata parimenti esclusa anche nel caso in cui la posizione processuale della parte si fosse basata ab origine e sin dal primo atto difensivo su tali pronunce inesistenti.
[Per richieste e approfondimenti, contattare gmatarazzo@gmlegale.it]
