Negli ultimi mesi si è assistito a una crescente ondata di voci che mettono in guardia contro i rischi presentati dalla tecnologia dell’intelligenza artificiale in rapida crescita.
Giovedì, un’interruzione a livello globale di ChatGPT è servito come avvertimento su ciò che un’eccessiva dipendenza dall’intelligenza artificiale potrebbe significare per le operazioni aziendali.
Dal rischio a breve termine di perdere milioni di posti di lavoro, fino a diventare un rischio esistenziale per l’umanità, l’IA si è rapidamente posizionata in cima alla lista delle preoccupazioni dei politici e degli scienziati, mentre un esperto la definisce una questione “più urgente” del cambiamento climatico.
Nel frattempo, gli investitori stanno dimostrando il loro sostegno alla tecnologia dell’IA.
Giovedì, le azioni di NVIDIA Corporation (NASDAQ:NVDA) sono aumentate del 26% dopo l’ultima chiamata degli utili dell’azienda, che ha contribuito a consolidare il suo posto come “indiscusso leader dell’AI”.
I rischi dell’eccesso di AI sul posto di lavoro
Secondo un documento pubblicato la scorsa settimana dal braccio di ricerca di OpenAI, “il 80% della forza lavoro degli Stati Uniti potrebbe avere almeno il 10% delle proprie attività lavorative influenzate dall’introduzione di GPT, mentre circa un quinto dei lavoratori potrebbe vedere influenzate almeno la metà delle proprie attività”.
Questi impatti sono attesi lungo la scala salariale e attraverso le industrie, “con lavori ad alto reddito potenzialmente esposti maggiormente”.
Mentre persino la Casa Bianca si è recentemente unita agli avvertimenti sull’AI, una preoccupazione ha eluso la maggior parte delle previsioni di disastro: i potenziali rischi di una sovra-dipendenza dell’AI nel mondo degli affari.
L’interruzione di ChatGPT di giovedì è durata poco più di un’ora dalle 7:23 alle 8:27 CEST, secondo Gizmodo.
“L’utilizzo elevato della CPU del database ha influenzato il sito nelle ultime ore e il problema sottostante è stato risolto”, ha dichiarato OpenAI, promettendo di “assicurarsi che il problema non si ripeta”.
ChatGPT di solito viene usato attraverso il server di OpenAI. Sebbene ci siano modi per eseguire il programma localmente su un server privato, il modello di business di OpenAI si basa sulle sottoscrizioni e la maggior parte delle aziende – anche quelle con sufficiente infrastruttura – beneficerà dal non dover ospitare l’AI sui propri server.
Ciò significa che un’interruzione di ChatGPT potrebbe alla fine causare un’interruzione delle operazioni per la maggior parte delle aziende, poiché le aziende continuano a fare affidamento sempre di più su questo tipo di software.
Le aziende stanno già utilizzando l’API di OpenAI per costruire chatbot e assistenti digitali, nonché una moltitudine di altre attività come la classificazione dei dati, l’analisi del testo e l’assistenza alla codifica.
Tuttavia, molte altre aziende stanno iniziando a utilizzare ChatGPT manualmente per completare le loro operazioni.
L’app ha battuto il record per aver raggiunto la base utenti in più rapida crescita nella storia, raggiungendo il traguardo dei 100 milioni in poco più di due mesi. A TikTok sono serviti nove mesi e a Instagram – di proprietà di Meta Platforms Inc (NASDAQ:META) – due anni e mezzo per raggiungere questo obiettivo.
Le aziende stanno iniziando a fare affidamento sulle capacità di generazione di testo di ChatGPT per ideare idee, scrivere testi, creare contenuti per i social media, scrivere presentazioni, e-mail e altro ancora.
Anche se queste attività sono ancora gestite da esseri umani che potrebbero sostituire l’AI in caso di guasto, una interruzione di ChatGPT potrebbe significare una diminuzione della produttività in generale una volta che la tecnologia diventa parte integrante del business.
Un’eccessiva affidabilità alla generazione automatica di testo potrebbe anche portare le aziende in difficoltà legali.
Dalle cosiddette “allucinazioni,” in cui ChatGPT produrrà informazioni false, alla discriminazione basata sul genere o sulla razza, delegare troppa responsabilità al software simile a ChatGPT potrebbe portare le aziende a commettere errori indesiderati che possono trasformarsi in un pericolo legale.