Sostiene il Marziano che – con tutti i problemi da affrontare in questo momento (dalla guerra fra Putin e i mercenari assoldati per piegare Zelensky, fino alle tensioni fra Roma e Bruxelles per la mancata approvazione del MES) continuare ad occuparsi di giustizia penale può diventare addirittura stucchevole e così, almeno per questa volta, ho deciso di dargli retta, per tornare ad affrontare – insieme a Lui – le questioni legate alle conseguenze dell’avvento dell’intelligenza artificiale, come agente modificatore delle tradizionali attività di coloro che andranno ad utilizzarla per ottenere aiuto nella soluzione di problemi finora affrontati in modi più tradizionali.
L’occasione per affrontare queste problematiche ci è stata fornita dal ritorno di “Chat-gbt” su suolo italiano, dopo il contestato intervento del Garante della privacy, e dai numerosi accessi che hanno immediatamente intasato quel sito (www.chat.openai.com): abbiamo così iniziato a ragionare sul perché fosse così difficile entrarvi, anche al solo fine di meglio approfondirne le potenzialità e l’utilizzazione da parte dei professionisti, in particolare di quelli che si occupano di questioni giuridiche.
Anche costoro – nonostante le opportunità offerte da un algoritmo che consente di elaborare, in pochi minuti, documenti che richiederebbero altrimenti ore (o giorni!) di lavoro – iniziano infatti a nutrire significative preoccupazioni per la capacità invasiva dell’intelligenza artificiale, ormai correntemente indicata con l’acronimo “AI”.
Facendo tesoro della propria esperienza di extraterrestre, Kurt mi ha portato così a ragionare sulla giustizia predittiva: quella che si sostanzia nell’uso degli algoritmi per prevedere gli esiti di procedimenti giudiziari: questa rappresenta attualmente una delle applicazioni più avanzate e potenzialmente rivoluzionarie dell’AI i campo legale e potrà avere un impatto significativo sul ruolo degli avvocati, richiedendo nuove competenze e incidendo (forse) sulla natura stessa del loro lavoro.
Kurt mi ha fatto osservare come gli algoritmi di giustizia predittiva analizzino grandi volumi di dati, rilevanti sotto il profilo giuridico, per identificare modelli che possano aiutare a prevedere gli esiti delle controversie affidate all’assistenza dei difensori e i relativi strumenti potranno anche essere utilizzati per valutare la probabilità di successo del contenzioso che ne potrà – a sua volta – scaturire, per determinare le strategie più efficaci, o per prevedere addirittura le decisioni che i giudici assumeranno.
Egli ha quindi sostenuto che – In un simile contesto – il ruolo dell’avvocato verrà profondamente a mutare, perché non si tratterà più solo di interpretare le leggi e rappresentare i clienti di fronte ad una Corte, ma anche di utilizzare algoritmi complessi per guidare le decisioni da adottare al fine di vincere le battaglie legali, dentro o fuori da quella Corte.-
Con l’avvento della giustizia predittiva, gli avvocati dovranno dunque, necessariamente, acquisire competenze anche in analisi dei dati e – più in generale – nelle tecnologie informatiche su cui quelle stesse analisi si basano e saranno chiamati a comprendere come funzionano gli algoritmi di giustizia predittiva, a valutare la loro precisione, nonché a interpretare i loro Output.
Mi sono dunque trovato d’accordo con il Marziano nel concludere che l’abilità nell’analisi dei dati dovrà diventare un complemento necessario alle competenze di ogni studio legale, anche di quello più tradizionale.
Dove invece le nostre opinioni sono andate a divergere (ed era inevitabile che prima o poi accadesse anche stavolta!) è stato a proposito delle conseguenze di tipo etico che questa capacità di prevedere gli esiti delle controversie potrebbe sollevare: gli algoritmi possono infatti essere influenzati anche da distorsioni ( si tratta dei c.d. Bias cognitivi) nei dati su cui gli algoritmi medesimi sono stati addestrati, il che condurrebbe all’indicazione (e poi all’adozione) di decisioni ingiuste o discriminatorie.
Ho così provato a sostenere che agli avvocati dovrà perciò essere attribuito anche il compito di garantire che l’uso della giustizia predittiva rispetti i principi di equità e giustizia, conformemente al significato tradizionale di questi due concetti, che sono alla base della tradizione giuridica di ogni paese occidentale.
Le applicazioni di AI dovranno infatti, necessariamente, esaminare vasti database di informazioni legali, identificando modelli e connessioni che sarebbero difficili o impossibili da raccogliere da parte un singolo essere umano. Questo inevitabilmente ridurrà la quantità di tempo speso per dedicarsi a simili compiti, permettendo agli avvocati di concentrarsi su attività più strategiche e complesse.
Inoltre, l’uso dell’AI nell’ambito del diritto solleva questioni di imputazione degli effetti: ad esempio, chi dovrebbe essere ritenuto responsabile se un algoritmo di AI commette un errore nel seguire una questione legale determinata?
Si pone così, anche per gli avvocati, il problema di elaborare nuove tecniche per esercitare la loro professione e – fra queste – potrebbe anche prescegliersi quella che viene comunemente denominata “strategia dell’opossum”, giacché (paradossalmente, s’intende!) quell’animale può anche diventare un modello di riferimento per loro, nell’era dell’intelligenza artificiale: vediamo perché.
Quando un opossum è minacciato, fa finta di essere morto, ingannando così i suoi predatori.
Questa è correntemente definita come strategia di adattamento, perché l’opossum ricorre alle risorse disponibili al fine di rispondere al cambiamento che si verifica nel proprio ambiente.
Analogamente, ogni avvocato dovrà adattarsi all’ascesa dell’AI non per “fare il morto” (nel senso di ignorare, puramente semplicemente, l’avvento di un simile strumento) ma per utilizzarla come il più idoneo a migliorare l’esercizio della propria attività, senza necessariamente darlo a vedere ai propri interlocutori, dato che l’AI può semplificare e automatizzare i compiti di routine, rendendo libero quello stesso avvocato di concentrarsi su questioni più complesse, che richiedono – come tali – ragionamenti giuridici molto sofisticati.
Come l’opossum, ogni avvocato dovrà così prepararsi a cambiare le strategie finora utilizzate, accettando l’idea che l’ambiente che lo circonda stia rapidamente cambiando. Con l’avvento dell’AI, dovranno infatti essere acquisite nuove competenze = come l’analisi dei dati e la comprensione degli algoritmi – per fare in modo che mai ci si allontani da quell’idea di giustizia cui debbono tendere tutti gli operatori del diritto.
Mentre mi accaloravo in queste affermazioni, Kurt mi ha interrotto per farmi notare come ciascuno di noi due abbia idee completamente diverse: anche sull’etica.
Sconsolato, gli ho risposto che me ne ero accorto da tempo e ho cominciato a digitare sulla tastiera del computer una domanda per Chat-gbt che – visto l’approssimarsi dell’ora di pranzo – nulla aveva a che fare con il diritto: ho chiesto come preparare una “Paella alla valenciana” che ne mantenesse l’aspetto e il sapore, pur non disponendo di tutti gli ingredienti necessari.
Risposta: “Preparare una paella alla valenciana autentica senza tutti gli ingredienti necessari può essere una sfida, ma puoi comunque ottenere un risultato delizioso con le sostituzioni appropriate. Ecco una versione semplificata della ricetta che mantiene le caratteristiche e il sapore ecc. ecc.”.
Ho seguito diligentemente le istruzioni, ma il risultato è stato un vero disastro!