l’ingresso dell’IA negli studi legali sta cambiando radicalmente il modo di lavorare, ma si scontra con la deontologia forense e le responsabilità civili dell’avvocato.

In Italia, il Consiglio Nazionale Forense (CNF) e le istituzioni europee (si pensi all’AI Act) stanno tracciando linee guida molto precise. Ecco i punti chiave suddivisi tra aspetti legali ed etici:

⚖️ Aspetti Legali e Deontologici

  1. Il Segreto Professionale e la Privacy (GDPR)

È il rischio maggiore. Quando un avvocato inserisce dati di un cliente (nomi, atti giudiziari, strategie) in un’IA commerciale (come la versione gratuita di ChatGPT):

  • Pericolo: I dati possono finire nel set di addestramento del modello, diventando potenzialmente accessibili a terzi.
  • Obbligo: L’avvocato deve utilizzare solo strumenti “Enterprise” o locali che garantiscano la non memorizzazione dei dati per l’addestramento e il rispetto rigoroso del GDPR.
  1. La Responsabilità Civile e l’Errore (Hallucinations)

L’IA può inventare sentenze o citare norme abrogate (le cosiddette “allucinazioni”).

  • Legalmente: La responsabilità professionale rimane esclusivamente in capo all’avvocato. Non si può colpare l’algoritmo davanti a un giudice per un errore in un atto.
  • Obbligo di Vigilanza: L’avvocato ha il dovere di verificare ogni singola citazione prodotta dall’IA (principio del Human-in-the-loop).
  1. Proprietà Intellettuale

Chi detiene il copyright di un atto scritto al 90% da un’IA? La giurisprudenza sta ancora dibattendo, ma l’orientamento attuale suggerisce che senza un apporto creativo umano significativo, la tutela del diritto d’autore sia debole o assente.

🧠 Aspetti Etici

  1. Principio di Trasparenza

L’avvocato ha l’obbligo etico di informare il cliente se l’IA viene utilizzata in modo sostanziale nella gestione della pratica?

  • Molti esperti ritengono che, per correttezza, il cliente debba sapere se il parere legale che sta pagando è stato generato da un software, anche se revisionato dall’umano.
  1. Divieto di Automazione del Giudizio

L’etica forense impone che il consiglio legale sia frutto di una valutazione critica umana. L’IA può aiutare nella ricerca, nella sintesi o nella bozza, ma la “scelta strategica” deve restare un atto intellettuale dell’avvocato. Delegare la decisione finale a una macchina è considerato un venir meno ai doveri di dignità e competenza.

  1. Accesso alla Giustizia (Digital Divide)

Esiste un rischio etico legato ai costi: i grandi studi legali con IA avanzate potrebbero avere un vantaggio sproporzionato rispetto ai piccoli avvocati di provincia, creando una giustizia a “due velocità”.

📌 Sintesi per il Codice Deontologico

Il CNF sta lavorando per integrare esplicitamente l’IA nel Codice Deontologico Forense. I pilastri saranno:

  • Competenza: L’avvocato deve conoscere il funzionamento (e i limiti) dello strumento che usa.
  • Indipendenza: L’algoritmo non deve condizionare l’autonomia di giudizio del legale.
  • Dignità: L’uso dell’IA non deve svilire la professione a mera attività meccanica.

Nota di cautela: Recentemente negli USA alcuni avvocati sono stati pesantemente sanzionati per aver presentato memorie con sentenze inesistenti create dall’IA. È il monito principale per chiunque voglia integrare questi strumenti.