l’ingresso dell’IA negli studi legali sta cambiando radicalmente il modo di lavorare, ma si scontra con la deontologia forense e le responsabilità civili dell’avvocato.
In Italia, il Consiglio Nazionale Forense (CNF) e le istituzioni europee (si pensi all’AI Act) stanno tracciando linee guida molto precise. Ecco i punti chiave suddivisi tra aspetti legali ed etici:
⚖️ Aspetti Legali e Deontologici
- Il Segreto Professionale e la Privacy (GDPR)
È il rischio maggiore. Quando un avvocato inserisce dati di un cliente (nomi, atti giudiziari, strategie) in un’IA commerciale (come la versione gratuita di ChatGPT):
- Pericolo: I dati possono finire nel set di addestramento del modello, diventando potenzialmente accessibili a terzi.
- Obbligo: L’avvocato deve utilizzare solo strumenti “Enterprise” o locali che garantiscano la non memorizzazione dei dati per l’addestramento e il rispetto rigoroso del GDPR.
- La Responsabilità Civile e l’Errore (Hallucinations)
L’IA può inventare sentenze o citare norme abrogate (le cosiddette “allucinazioni”).
- Legalmente: La responsabilità professionale rimane esclusivamente in capo all’avvocato. Non si può colpare l’algoritmo davanti a un giudice per un errore in un atto.
- Obbligo di Vigilanza: L’avvocato ha il dovere di verificare ogni singola citazione prodotta dall’IA (principio del Human-in-the-loop).
- Proprietà Intellettuale
Chi detiene il copyright di un atto scritto al 90% da un’IA? La giurisprudenza sta ancora dibattendo, ma l’orientamento attuale suggerisce che senza un apporto creativo umano significativo, la tutela del diritto d’autore sia debole o assente.
🧠 Aspetti Etici
- Principio di Trasparenza
L’avvocato ha l’obbligo etico di informare il cliente se l’IA viene utilizzata in modo sostanziale nella gestione della pratica?
- Molti esperti ritengono che, per correttezza, il cliente debba sapere se il parere legale che sta pagando è stato generato da un software, anche se revisionato dall’umano.
- Divieto di Automazione del Giudizio
L’etica forense impone che il consiglio legale sia frutto di una valutazione critica umana. L’IA può aiutare nella ricerca, nella sintesi o nella bozza, ma la “scelta strategica” deve restare un atto intellettuale dell’avvocato. Delegare la decisione finale a una macchina è considerato un venir meno ai doveri di dignità e competenza.
- Accesso alla Giustizia (Digital Divide)
Esiste un rischio etico legato ai costi: i grandi studi legali con IA avanzate potrebbero avere un vantaggio sproporzionato rispetto ai piccoli avvocati di provincia, creando una giustizia a “due velocità”.
📌 Sintesi per il Codice Deontologico
Il CNF sta lavorando per integrare esplicitamente l’IA nel Codice Deontologico Forense. I pilastri saranno:
- Competenza: L’avvocato deve conoscere il funzionamento (e i limiti) dello strumento che usa.
- Indipendenza: L’algoritmo non deve condizionare l’autonomia di giudizio del legale.
- Dignità: L’uso dell’IA non deve svilire la professione a mera attività meccanica.
Nota di cautela: Recentemente negli USA alcuni avvocati sono stati pesantemente sanzionati per aver presentato memorie con sentenze inesistenti create dall’IA. È il monito principale per chiunque voglia integrare questi strumenti.