Caos in tribunale a causa di ChatGPT

Un avvocato si rivolge a ChatGPT per una causa e l'IA inizia a inventare casi e a fornire prove di sentenze mai esistite!

Caos in tribunale a causa di ChatGPT
2' di lettura

In una sorprendente sequenza di eventi, l’uso per l’assistenza legale di chatGPT di OpenAI da parte di un avvocato si è ritorto contro il chatbot alimentato dall’intelligenza artificiale, che ha creato casi inesistenti.

Ricevi una notifica con le ultime notizie, i nostri articoli e altro ancora!

Cosa è successo

Nel bizzarro caso di Mata contro Avianca, che vedeva un cliente fare causa alla compagnia aerea per una lesione al ginocchio causata da un carrello di servizio, l’uso della chatGPT ha preso una piega sorprendente.

Gli avvocati di Mata si sono opposti al tentativo di Avianca di archiviare il caso e hanno presentato una memoria contenente numerose presunte sentenze generate dal chatbot dotato di intelligenza artificiale.

A prima vista, potrebbe sembrare un incidente divertente, un errore onesto o entrambe le cose, ma ciò che è successo dopo è stato a dir poco stravagante.

Quando gli è stato chiesto di produrre i casi reali in questione, l’avvocato del querelante ha chiesto ancora una volta l’assistenza di chatGPT, facendo sì che l’IA inventasse dettagli elaborati di questi casi inventati, che sono stati poi catturati come schermate e incorporati nei documenti legali.

A rendere ancora più sconcertante la sequenza di eventi, l’avvocato è arrivato a chiedere a chatGPT di verificare l’autenticità di uno dei casi, e l’IA ha risposto affermativamente, includendo così le schermate di conferma dell’IA in un altro documento.

A fronte di questa situazione anomala, il giudice ha fissato un’udienza per il mese prossimo per valutare la possibilità di imporre sanzioni agli avvocati, riconoscendo la necessità di discutere e affrontare le conseguenze di questa circostanza senza precedenti.

È opportuno notare che il mese scorso è stato riferito che un giudice indiano non è riuscito a decidere se concedere la cauzione a un sospettato di omicidio che ha usato chatGPT per assistenza.

Perché è importante

Quello che rende l’intero caso così bizzarro è il fatto che mentre è ben noto che chatGPT di OpenAI e altri modelli di IA generativi come Microsoft Corp’s (NASDAQ:MSFTBing AIGoogle Bard di Alphabet Inc.’s (NASDAQ:GOOG) (NASDAQ:GOOGL), tendono ad alimentare fantasie e a fornire anche fatti inventati con la massima convinzione.

In precedenza, un utente di Reddit aveva evidenziato problemi simili, affermando che quando le persone diventano eccessivamente sicure delle capacità dell’IA (in questo caso, di chatGPT) e non tengono conto dei potenziali pericoli di chiedere consigli al chatbot in campi delicati come la medicina o la giurisprudenza, sorgono dei problemi.

L’aspetto peggiore è che anche le persone esperte di tecnologia possono cadere in preda alle ben documentate allucinazioni per cui chatGPT è famoso.