Giovedì, OpenAI, società madre di ChatGPT, ha lanciato la sua ultima IA, Sora, un nuovo modello progettato per generare video di alta qualità a partire da messaggi di testo. Naturalmente, quando il mondo della tecnologia ha ricevuto la notizia, ha definito il risultato “spettacolare”.
OpenAI just dropped their Sora research paper.
As expected, the video-to-video results are flipping spectacular ?
A few other gems: pic.twitter.com/MiRe2IYkcI
— Bilawal Sidhu (@bilawalsidhu) February 16, 2024
Il modello text-to-video di OpenAI è in grado di creare video della durata massima di un minuto, dalla città di Tokyo innevata ai mammut lanosi giganti, fino al trailer di un film di fantascienza altamente dettagliato, con semplici istruzioni.
Se da un lato queste capacità hanno suscitato un certo interesse tra gli appassionati di tecnologia, dall’altro alcuni utenti dei social media sono molto preoccupati che Sora possa rendere obsoleto il loro lavoro di produzione video.
Le persone sono anche preoccupate che la tecnologia possa essere usata per diffondere disinformazione e contenuti odiosi, soprattutto a ridosso delle elezioni.
Per le persone preoccupate, la società guidata da Sam Altman ha chiarito che prenderà “diverse importanti misure di sicurezza prima di rendere Sora disponibile nei prodotti di OpenAI”.
“Stiamo lavorando con i red teamer – esperti di dominio in aree come la disinformazione, i contenuti di odio e i pregiudizi – che stanno testando il modello in modo contraddittorio”, ha dichiarato mercoledì il produttore di ChatGPT.
“Ad esempio, una volta inserito in un prodotto OpenAI, il nostro classificatore di testo verificherà e rifiuterà le richieste di inserimento di testo che violano le nostre politiche di utilizzo, come quelle che richiedono violenza estrema, contenuti sessuali, immagini di odio, immagini di celebrità o la proprietà intellettuale di altri”, ha dichiarato l’azienda.
Inoltre, “abbiamo sviluppato robusti classificatori di immagini che vengono utilizzati per esaminare i fotogrammi di ogni video generato, per garantire che sia conforme alle nostre politiche di utilizzo, prima che venga mostrato all’utente”.
We’ll be taking several important safety steps ahead of making Sora available in OpenAI’s products.
We are working with red teamers — domain experts in areas like misinformation, hateful content, and bias — who are adversarially testing the model.
— OpenAI (@OpenAI) February 15, 2024
Come provare subito Sora di OpenAI
Un’altra domanda è riecheggiata sui canali dei social media da quando OpenAI ha condiviso gli straordinari video generati da Sora. “Come posso provarlo?”
La risposta breve a questa domanda è: non è possibile. La risposta lunga la spieghiamo di seguito.
Anche se Sora è stato rivelato ufficialmente, la piattaforma è stata sottoposta a red-teaming. L’azienda ha dato accesso a un gruppo specifico di persone, tra cui artisti visivi, designer e registi. L’idea è quella di raccogliere informazioni per migliorare l’utilità di Sora per i creativi.
A questo punto, OpenAI non ha reso noto alcun calendario specifico per un rilascio su larga scala. Pertanto, a meno che non facciate parte del gruppo red-teaming o della coorte di test creativi, dovete avere pazienza e gestire le dimostrazioni disponibili.
Detto questo, non significa che dobbiate rinunciare del tutto. Provate a inviare la richiesta di video ad Altman direttamente su X, ex Twitter, in quanto sta generando video tramite Sora in base alle richieste di Internet.
don't hold back on the detail or difficulty!
— Sam Altman (@sama) February 15, 2024
Ecco alcuni esempi:
— Sam Altman (@sama) February 15, 2024
https://t.co/qbj02M4ng8 pic.twitter.com/EvngqF2ZIX
— Sam Altman (@sama) February 15, 2024
https://t.co/rmk9zI0oqO pic.twitter.com/WanFKOzdIw
— Sam Altman (@sama) February 15, 2024
È importante notare che OpenAI ha dichiarato che il modello attuale di Sora presenta alcuni punti deboli.
Potrebbe incontrare difficoltà nel simulare accuratamente l’intricata fisica di una scena e potrebbe non cogliere particolari istanze di causa ed effetto. “Ad esempio, una persona potrebbe dare un morso a un biscotto, ma in seguito il biscotto potrebbe non presentare il segno del morso”.
Inoltre, il modello potrebbe interpretare in modo errato i dettagli spaziali all’interno di una richiesta, ad esempio confondendo l’orientamento a destra e a sinistra. Potrebbe anche incontrare difficoltà nel fornire descrizioni precise di eventi che si svolgono nel tempo, come il tracciamento di una specifica traiettoria della telecamera.