Apple Inc. (NASDAQ:AAPL) si starebbe preparando a presentare la versione 2.0 di Siri, un aggiornamento rivoluzionario progettato per affrontare le critiche che da tempo vengono mosse all’azienda e sfidare a viso aperto i suoi rivali nella guerra degli assistenti vocali.
Cos’è successo
Siri, l’assistente virtuale di Apple, è stata negli ultimi dieci anni una caratteristica fondamentale degli iPhone e degli altri dispositivi Apple.
Tuttavia, non è un segreto che Siri sia rimasta indietro rispetto ai concorrenti come Google Assistant di Alphabet Inc. (NASDAQ:GOOG) (NASDAQ:GOOGL) e Alexa di Amazon Inc. (NASDAQ:AMZN) in termini di funzionalità e soddisfazione degli utenti.
Il viaggio di Siri è iniziato nel 2011, e all’epoca è stato rivoluzionario, dando all’iPhone un vantaggio unico sul mercato, ma ora il suo splendore si è affievolito.
Gli utenti sono sempre più frustrati dalle limitazioni di Siri, che spesso si scontra con incomprensioni, interpretazioni errate e capacità limitate rispetto ai suoi concorrenti.
Ecco Siri 2.0, l’ambiziosa risposta di Apple a queste critiche
Il gigante tecnologico ha investito nell’intelligenza artificiale, stanziando ingenti risorse per migliorare il suo assistente vocale. Cupertino avrebbe assunto ingegneri di alto livello e formato team specializzati per lavorare su progetti di intelligenza artificiale generativa, simili alle tecnologie alla base di ChatGPT.
Il team Foundational Models di Apple, guidato dall’ex veterano di Google Ruoming Pang, ha svolto un ruolo di primo piano in questi sforzi.
Nonostante le dimensioni relativamente ridotte, il team ha fatto passi da gigante nella formazione di modelli linguistici avanzati o LLM che rivaleggiano persino con quelli sviluppati da OpenAI, un’azienda che ha investito oltre 100 milioni di dollari in una tecnologia simile, come ha riportato AppleInsider.
Apple ha dedicato risorse ad almeno altri due team per lo sviluppo di modelli linguistici e di immagini.
Un team si concentra sull’intelligenza visiva, con l’obiettivo primario di generare immagini, video e scene in 3D, mentre un altro team è attivamente impegnato nello sviluppo dell’intelligenza artificiale multimodale, che consente di gestire testo, immagini e video, secondo quanto riportato da The Information.
L’obiettivo principale di Siri 2.0 è quello di integrare questi LLM avanzati nell’assistente vocale, consentendo agli utenti di automatizzare compiti complessi utilizzando il linguaggio naturale, proprio come i miglioramenti apportati da Google a Google Assistant. Apple è convinta che il suo modello linguistico proprietario, Ajax GPT, superi il GPT 3.5 di OpenAI.
Perché è importante
Questo impegno presenta alcune sfide. A differenza dei concorrenti che si affidano a modelli basati sul cloud, Apple preferisce l’elaborazione sul dispositivo per migliorare la privacy e le prestazioni.
Il compromesso è che gli LLM di Apple sono sostanziali e complessi, il che rende difficile inserirli nello spazio limitato di un iPhone.
Per affrontare questo ostacolo, il gigante tecnologico potrebbe seguire le orme di Google, che ha sviluppato PaLM2, un modello di grandi dimensioni che offre diverse dimensioni, tra cui una adatta ai dispositivi e all’uso offline, si legge nel rapporto.
Anche se l’approccio esatto di Apple non è ancora stato rivelato, è possibile che l’azienda opti per LLM più piccoli per salvaguardare la privacy degli utenti.
Fonte immagine – Shutterstock