Amazon.Com, Inc (NASDAQ:AMZN) ha presentato una nuova funzionalità per il suo servizio di cloud computing, Amazon Elastic Compute Cloud (EC2), chiamata EC2 Capacity Blocks for ML.
Questa nuova offerta risponde alla crescente domanda di capacità delle GPU nelle applicazioni di machine learning (ML). Con l’aumento del ML, si è registrato un aumento della necessità di GPU, che ha portato a una carenza di offerta.
I blocchi di capacità EC2 per il ML forniscono una soluzione consentendo agli utenti di riservare istanze GPU per periodi specifici, rivelandosi particolarmente utili per l’addestramento di modelli ML o l’esecuzione di esperimenti AI.
Questa funzione garantisce agli utenti l’accesso alle GPU quando ne hanno bisogno, senza l’impegno a lungo termine del noleggio tradizionale del cloud.
Il servizio offre l’accesso alle GPU Tensor Core H100 di Nvidia Corp (NASDAQ:NVDA) in UltraCluster EC2. Questi cluster sono progettati per attività di ML ad alte prestazioni e utilizzano la rete Elastic Fabric Adapter (EFA) per garantire prestazioni di rete ottimali.
La prenotazione di istanze GPU con EC2 Capacity Blocks è simile alla prenotazione di una camera d’albergo. Gli utenti possono specificare la data, la durata e il numero di istanze GPU di cui hanno bisogno. Una volta avviata la prenotazione, gli utenti possono lanciare le loro istanze P5 e tutte le istanze in esecuzione termineranno automaticamente al termine del periodo prenotato.
Questa funzione è vantaggiosa per coloro che hanno bisogno di una capacità garantita delle GPU per attività specifiche, come l’addestramento di modelli di ML o la gestione di un aumento della domanda di applicazioni di ML. Fornisce prevedibilità e garanzia dei costi, assicurando agli utenti di conoscere in anticipo le proprie spese.
Attualmente i blocchi di capacità EC2 per il ML sono disponibili nella regione AWS US East (Ohio).
Nvidia e il suo fornitore chiave, Taiwan Semiconductor Manufacturing Company Ltd (NYSE:TSM), si trovano in difficoltà nel tenere il passo con la frenesia dell’intelligenza artificiale, con conseguente aumento dei prezzi delle GPU.
Il prezzo di un acceleratore di intelligenza artificiale che utilizza le GPU di Nvidia è raddoppiato a 80 milioni di won (59.193 dollari) rispetto ai circa 40 milioni di won del 2023. Inoltre, il tempo di attesa per gli acceleratori basati sulle GPU di Nvidia ha raggiunto le 52 settimane.
Movimento dei prezzi
Le azioni NVDA sono salite del 2,63% a 434,40 dollari nel pre-market nell’ultimo controllo di giovedì.