Nella giornata di lunedì, OpenAI, società madre di ChatGPT, ha presentato una versione più efficiente ed economica del suo modello di IA, GPT-4, che esiste da oltre un anno.
Cosa è successo
Il nuovo modello si chiama GPT-4o. È stato addestrato sulla base di numerosi dati internet ed è stato progettato per gestire in modo più efficace testi, audio e immagini in tempo reale. GPT-4o può anche rispondere a domande verbali con risposte audio in pochi millisecondi.
Inoltre, ora offre funzioni che prima erano limitate agli abbonati. Tra queste, le ricerche sul web, le risposte multilingue e l’archiviazione dei dati.
Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time: https://t.co/MYHZB79UqN
Text and image input rolling out today in API and ChatGPT with voice and video in the coming weeks. pic.twitter.com/uuthKZyzYx
— OpenAI (@OpenAI) May 13, 2024
hope you enjoyed!
the new voice mode will be live in the coming weeks for plus users.
we'll have more stuff to share soon 🙂
— Sam Altman (@sama) May 13, 2024
Mira Murati, CTO di OpenAI, ha mostrato le capacità del modello durante l’evento di lancio. “È la prima volta che facciamo un salto enorme nell’interazione e nella facilità d’uso”, ha dichiarato a Bloomberg News. “Stiamo davvero rendendo possibile la collaborazione con strumenti come ChatGPT”.
Invece di dipendere da modelli di IA separati per i vari input, GPT-4o, dove la “o” sta per omni, integra le capacità vocali, testuali e visive in un unico modello.
“Quando ci sono tre modelli diversi che lavorano insieme, si introduce una grande latenza nell’esperienza e si interrompe l’immersione dell’esperienza”, ha detto Murati. “Ma quando si dispone di un modello che ragiona in modo nativo su audio, testo e visione, si elimina tutta la latenza e si può interagire con ChatGPT in modo più simile a come si interagisce ora”.
Tuttavia, il nuovo modello ha incontrato alcune difficoltà. L’audio si interrompeva spesso mentre i ricercatori parlavano durante la dimostrazione.
ChatGPT-maker ha già distribuito le nuove funzionalità di testo e immagine agli utenti paganti di ChatGPT Plus e Team, mentre gli utenti enterprise seguiranno a breve. L’azienda intende rilasciare l’ultima iterazione del suo assistente in “modalità vocale” agli utenti di ChatGPT Plus nelle prossime settimane.
Perché è importante
L’annuncio di OpenAI arriva appena un giorno prima della conferenza I/O di Google per gli sviluppatori, dove il gigante della ricerca e della pubblicità dovrebbe svelare i propri aggiornamenti di IA. Questo lancio potrebbe potenzialmente intensificare la competizione tra le aziende.
I recenti sviluppi di OpenAI sono stati seguiti con attenzione dall’industria tecnologica. Le speculazioni sul prossimo lancio dell’azienda si sono moltiplicate, con voci su un nuovo prodotto di ricerca e sull’attesissimo GPT-5. Tuttavia, l’amministratore delegato di OpenAI, Sam Altman, ha smentito queste voci e ha anticipato “alcune novità” per l’evento del 13 maggio.
Il produttore di ChatGPT ha anche discusso con Apple per integrare ChatGPT negli iPhone, come parte della strategia del produttore di iPhone di introdurre funzioni di IA nei suoi dispositivi.
In un raro post sul blog di lunedì, Altman ha anche parlato dell’ultimo modello dicendo: “Il ChatGPT originale mostrava un accenno di ciò che era possibile fare con le interfacce linguistiche; questo nuovo prodotto è visceralmente diverso. È veloce, intelligente, divertente, naturale e utile”.
too long for a tweet, some thoughts on GPT-4o:https://t.co/6FIdBUn539
— Sam Altman (@sama) May 13, 2024
Per ulteriori aggiornamenti su questo argomento, aggiungi Benzinga Italia ai tuoi preferiti oppure seguici sui nostri canali social: X e Facebook.
Ricevi informazioni esclusive sui movimenti di mercato 30 minuti prima degli altri trader
La prova gratuita di 14 giorni di Benzinga Pro, disponibile solo in inglese, ti permette di accedere ad informazioni esclusive per poter ricevere segnali di trading utilizzabili prima di milioni di altri trader. CLICCA QUI per iniziare la prova gratuita.
Foto via Shutterstock.