Dal Sole24Ore.
Le sfide poste dall’IA nel settore legale sono complesse, sistemiche e interdisciplinari. Pertanto, esse richiedono competenze variegate e complementari che permettano di raggiungere soluzioni bilanciate ed effettive. Il convegno «The AI battlefields», organizzato dall’International Bar Association a Milano tra il 7 e l’8 novembre 2024, ha offerto un esempio virtuoso di come collaborazioni interdisciplinari tra esperti legali, tecnologi e regolatori possano avanzare la comprensione collettiva e il raggiungimento soluzioni appropriate per le complessità dell’uso dell’IA nel settore legale.
Le più importanti tematiche emerse sono i rischi legati ai bias e alle discriminazioni che l’IA può produrre. I partecipanti hanno sottolineato l’imminente necessità di identificare strategie per mitigare questi rischi, specialmente in ambiti altamente controversi e aperti a interpretazione alla luce di regole incomplete, come la creazione di opere d’arte false attraverso l’IA. Ma anche in altri settori apparentemente meno problematici, come la creazione e la sottoscrizione di contratti legali con l’impiego di IA, emergono seri rischi da non sottovalutare, come il rispetto della privacy dei clienti e delle regole etiche da parte dei professionisti. L’evento ha dunque evidenziato il bisogno di trovare un equilibrio tra innovazione attraverso l’adozione dell’IA, e il mantenimento degli standard etici e professionali nel settore legale.
Raggiungere questo equilibrio è particolarmente urgente considerando alcuni nuovi casi relativi all’utilizzo di IA nella professione forense. Il racconto ammonitore dell’avvocato del New York Bar che ha usato ChatGpt e prodotto citazioni inesistenti nel giugno 2023 non si è rivelato sufficiente. Infatti, negli ultimi mesi del 2024, due avvocati, in Australia e in Canada, hanno ripetuto l’errore del collega statunitense, e fatto uso dell’IA nella noncuranza dei rischi di questa tecnologia, costando loro severe sanzioni professionali. Nel caso avvenuto Melbourne, un avvocato è stato segnalato all’organo di vigilanza dell’Ordine dopo aver utilizzato un software basato sull’IA per generare una lista di citazioni legali in un caso di diritto di famiglia. Citazioni rivelatesi inesistenti, causando il rinvio dell’udienza. L’avvocato ha ammesso di non aver verificato l’accuratezza delle informazioni generate dall’IA prima di presentarle in tribunale. Similmente, a Vancouver, un’avvocata ha utilizzato ChatGpt per ottenere precedenti legali da presentare in un caso di custodia dei figli. Le citazioni dell’IA si sono, anche in questo caso, rivelate fittizie, portando a un’indagine sulla condotta professionale dell’avvocata. Quest’ultima ha dichiarato di non essere a conoscenza dell’inesistenza dei casi e ha offerto le sue scuse per l’errore commesso.
È dunque chiaro che fiducia cieca nell’IA ha costi onerosi e conseguenze negative.