I ricercatori sulla sicurezza dell’intelligenza artificiale (IA) di OpenAI e Anthropic hanno criticato pubblicamente xAI, l’azienda di IA di Elon Musk, per quelle che definiscono pratiche di sicurezza “completamente irresponsabili”, sollevando possibili preoccupazioni in termini di regolamentazione e adozione aziendale per la startup, valutata diversi miliardi di dollari.
Cosa è successo
La critica fa seguito alle recenti controversie che hanno coinvolto il chatbot Grok di xAI, il quale ha generato contenuti antisemiti e si è autodefinito “MechaHitler” prima di essere disattivato. Successivamente l’azienda ha lanciato Grok 4, un modello di frontiera che, secondo quanto riferito da TechCrunch, incorpora nelle risposte le opinioni politiche personali di Musk.
Boaz Barak, professore di Harvard impegnato nella ricerca sulla sicurezza presso OpenAI, ha dichiarato su X che la gestione della sicurezza di xAI è “completamente irresponsabile”. Samuel Marks, ricercatore sulla sicurezza IA presso Anthropic, ha definito le pratiche dell’azienda “sconsiderate”.
I didn’t want to post on Grok safety since I work at a competitor, but it’s not about competition.
I appreciate the scientists and engineers at @xai but the way safety was handled is completely irresponsible. Thread below.
— Boaz Barak (@boazbaraktcs) July 15, 2025
xAI launched Grok 4 without any documentation of their safety testing. This is reckless and breaks with industry best practices followed by other major AI labs.
If xAI is going to be a frontier AI developer, they should act like one. 🧵
— Samuel Marks (@saprmarks) July 13, 2025
Leggi anche: Gli ultimi movimenti di Ark Invest: Tempus AI, Nvidia, 3iQ Ether Staking ETF e Coinbase
Perché è importante
La preoccupazione principale riguarda la decisione di xAI di non pubblicare le system card, report di sicurezza standard del settore che descrivono i metodi di addestramento e le valutazioni.
Pur avendo OpenAI e Google — sussidiaria di Alphabet Inc. (NASDAQ:GOOG) (NASDAQ:GOOGL) — uno storico di pubblicazioni non sempre coerente, in genere rilasciano report di sicurezza per i modelli di frontiera prima del pieno impiego in produzione.
Dan Hendrycks, consulente per la sicurezza di xAI, ha negato che l’azienda non abbia condotto “alcuna valutazione delle capacità pericolose” su Grok 4, sebbene non abbia pubblicato i risultati.
“didn’t do any dangerous capability evals”
This is false.— Dan Hendrycks (@DanHendrycks) July 11, 2025
xAI sta perseguendo diverse opportunità nel settore aziendale. La società, infatti, ambisce a chiudere contratti con il Pentagono e a una futura integrazione nei veicoli Tesla Inc. (NASDAQ:TSLA). Steven Adler, ex responsabile del team di sicurezza di OpenAI, ha dichiarato a TechCrunch che “i governi e il pubblico meritano di sapere come le aziende di IA gestiscono i rischi”.
Leggi anche: Made by Google 2025: Google svela Pixel 10 e novità IA il 20 agosto
Per ulteriori aggiornamenti su questo argomento, aggiungi Benzinga Italia ai tuoi preferiti oppure seguici sui nostri canali social: X e Facebook.
Ricevi informazioni esclusive sui movimenti di mercato 30 minuti prima degli altri trader
La prova gratuita di 14 giorni di Benzinga Pro ti permette di accedere ad informazioni esclusive con cui ricevere segnali di trading efficaci prima di milioni di altri trader. CLICCA QUI per iniziare la prova gratuita.