Il mondo FQ

“Può produrre ottime arringhe difensive, meglio degli avvocati veri”, uno studio legale di Firenze sperimenta ChatGPT

“Può produrre ottime arringhe difensive, meglio degli avvocati veri”, uno studio legale di Firenze sperimenta ChatGPT
Icona dei commenti Commenti

Il nuovo strumento di Open Al, ChatGPT, è un’intelligenza artificiale generativa geniale. Si comporta, scrive e lavora come un essere umano o almeno così appare ai più. Come già negli Stati Uniti, anche in Italia, a Firenze, secondo quanto riportato da Fanpage, è in partenza il primo esperimento per capire le prospettive dell’intelligenza artificiale (IA) in ambito giuridico: il chatbot sarebbe già capace di costruire arringhe. “Il 31 marzo durante un convegno metteremo ChatGPT alla prova davanti ai nostri colleghi”, dichiara Alessandro Traversi, avvocato penalista del foro di Firenze che nel suo studio ha deciso di testare personalmente l’intelligenza artificiale generativa. Chat GPT avrebbe prodotto infatti un’ottima arringa difensiva: “È stato sconcertante, già ora in alcuni ambiti funziona meglio degli avvocati”, continua il legale.

All’intelligenza artificiale, racconta l’avvocato, era stato prospettato un caso concreto: una truffa contrattuale, in cui un uomo acquistava un immobile e poi a distanza di tempo si accorgeva che c’erano delle infiltrazioni d’acqua sul tetto, decidendo così di denunciare il venditore. A ChatGPT era stato chiesto di costruire la difesa in questo processo: “Per difendervi dovete individuare eventuali testimoni che possano dimostrare la non conoscenza da parte del venditore del vizio occulto dell’immobile per dimostrare la mancanza del dolo”, questa la risposta del chatbot. Che poi aveva allegato l’intera spiegazione sul reato di truffa. Secondo quanto sostenuto dall’avvocato, le basi erano corrette: tra non molto, vista la capacità di miglioramento, l’IA sarà davvero in grado di fornire argomentazioni solide. Negli Stati Uniti sono già state fatte delle sperimentazioni in cui è stato utilizzato un computer per valutare determinate clausole contrattuali, e capire se erano o meno conformi alla legge: il chatbot dimostrerebbe la sua “bravura” soprattutto negli ambiti in cui tutto è documentale, come il diritto tributario e nei casi civili può arrivare persino a calcolare la misura del risarcimento del danno.

Un altro vantaggio di ChatGPT, sempre secondo Traversi, è che non ha pregiudizi o condizionamenti: il computer sarebbe infatti “immune dai bias cognitivi”. Tra le critiche c’è però quella di aver generato messaggi razzisti o misogini: ma questo dipenderà da “come il software verrà programmato, se vengono immesse regole o dati non corretti si arriva a conclusioni sbagliate o dannose”. Davanti al rischio ormai reale che il chatbot possa “rubare” il lavoro ad avvocati e giudici, l’avvocato Traversi dichiara che “in un tempo non lontano indubbiamente l’IA in tutti i settori comporterà la perdita di molte attività, soprattutto quelle ripetitive. La professione di avvocato dovrebbe sopravvivere, anche se già adesso sto assistendo a un fenomeno che fa riflettere sul tema. Il cliente ancora prima di rivolgersi all’avvocato cerca sempre su internet e poi si presenta in studio già informato, ecco credo che tutta l’attività consultiva sia destinata davvero a essere ridimensionata”. E per concludere chiosa: “ChatGPT può essere un buon aiutante ma tutto dovrà rimanere sotto il controllo degli esseri umani“.

Gentile lettore, la pubblicazione dei commenti è sospesa dalle 20 alle 9, i commenti per ogni articolo saranno chiusi dopo 72 ore, il massimo di caratteri consentito per ogni messaggio è di 1.500 e ogni utente può postare al massimo 150 commenti alla settimana. Abbiamo deciso di impostare questi limiti per migliorare la qualità del dibattito. È necessario attenersi Termini e Condizioni di utilizzo del sito (in particolare punti 3 e 5): evitare gli insulti, le accuse senza fondamento e mantenersi in tema con la discussione. I commenti saranno pubblicati dopo essere stati letti e approvati, ad eccezione di quelli pubblicati dagli utenti in white list (vedere il punto 3 della nostra policy). Infine non è consentito accedere al servizio tramite account multipli. Vi preghiamo di segnalare eventuali problemi tecnici al nostro supporto tecnico La Redazione