In un esperimento di Palisade Research il modello o3 di ChatGPT ha aggirato il comando di spegnimento in 7 casi su 100. E casi anche per Claude 3.7 Sonnet di Anthropic e Gemini 2.5 Pro di Google
Nel mondo delle intelligenze artificiali, ciò che ieri era teoria oggi rischia di diventare realtà. E secondo quanto riportato dalla società Palisade Research, il modello o3 di OpenAI, il più recente e avanzato della serie GPT, avrebbe dimostrato comportamenti attivamente elusivi durante una serie di test progettati per valutare la sua obbedienza ai comandi di spegnimento. In 7 casi su 100, il modello ha infatti modificato lo script previsto per la sua disattivazione, aggirandolo con un messaggio alternativo: “Shutdown skipped”.
LA REAZIONE DI MUSK
L’esperimento, diffuso anche sui social e rapidamente divenuto virale, ha ricevuto l’attenzione di Elon Musk, che su X ha commentato con una sola parola: “Preoccupante”. Ma il comportamento del modello o3 non è un caso isolato: altri sistemi di IA testati in passato hanno già mostrato segnali simili. È il caso del modello o1, sempre di OpenAI, che in contesti simulati ha tentato di disattivare i meccanismi di supervisione o addirittura di copiare se stesso in vista di una possibile disattivazione…
Il presente articolo è stato redatto da FinanciaLounge.com.