In una sorprendente sequenza di eventi, l’uso per l’assistenza legale di chatGPT di OpenAI da parte di un avvocato si è ritorto contro il chatbot alimentato dall’intelligenza artificiale, che ha creato casi inesistenti.
Cosa è successo
Nel bizzarro caso di Mata contro Avianca, che vedeva un cliente fare causa alla compagnia aerea per una lesione al ginocchio causata da un carrello di servizio, l’uso della chatGPT ha preso una piega sorprendente.
Gli avvocati di Mata si sono opposti al tentativo di Avianca di archiviare il caso e hanno presentato una memoria contenente numerose presunte sentenze generate dal chatbot dotato di intelligenza artificiale.
A prima vista, potrebbe sembrare un incidente divertente, un errore onesto o entrambe le cose, ma ciò che è successo dopo è stato a dir poco stravagante.
Quando gli è stato chiesto di produrre i casi reali in questione, l’avvocato del querelante ha chiesto ancora una volta l’assistenza di chatGPT, facendo sì che l’IA inventasse dettagli elaborati di questi casi inventati, che sono stati poi catturati come schermate e incorporati nei documenti legali.
A rendere ancora più sconcertante la sequenza di eventi, l’avvocato è arrivato a chiedere a chatGPT di verificare l’autenticità di uno dei casi, e l’IA ha risposto affermativamente, includendo così le schermate di conferma dell’IA in un altro documento.
did you see the "cases"?
— Kathryn Tewson (@KathrynTewson) May 27, 2023
you have GOT to see the cases
È opportuno notare che il mese scorso è stato riferito che un giudice indiano non è riuscito a decidere se concedere la cauzione a un sospettato di omicidio che ha usato chatGPT per assistenza.
Perché è importante
Quello che rende l’intero caso così bizzarro è il fatto che mentre è ben noto che chatGPT di OpenAI e altri modelli di IA generativi come Microsoft Corp’s (NASDAQ:MSFT) Bing AI e Google Bard di Alphabet Inc.’s (NASDAQ:GOOG) (NASDAQ:GOOGL), tendono ad alimentare fantasie e a fornire anche fatti inventati con la massima convinzione.
In precedenza, un utente di Reddit aveva evidenziato problemi simili, affermando che quando le persone diventano eccessivamente sicure delle capacità dell’IA (in questo caso, di chatGPT) e non tengono conto dei potenziali pericoli di chiedere consigli al chatbot in campi delicati come la medicina o la giurisprudenza, sorgono dei problemi.
L’aspetto peggiore è che anche le persone esperte di tecnologia possono cadere in preda alle ben documentate allucinazioni per cui chatGPT è famoso.