Yuval Noah Harari: la bomba atomica non può iniziare una guerra, ma l’IA può decidere chi uccidere

Lo scrittore Yuval Noah Harari mette in luce i rischi associati all'intelligenza artificiale, valutandoli di gran lunga superiori a quelli relativi alla bomba atomica

Yuval Noah Harari: la bomba atomica non può iniziare una guerra, ma l’IA può decidere chi uccidere
2' di lettura

Il rinomato storico Yuval Noah Harari ha lanciato l’allarme sulla potenza senza precedenti dell’intelligenza artificiale, avvertendo che può decidere autonomamente chi vive e chi muore, rappresentando una minaccia maggiore delle armi nucleari.

Ricevi una notifica con le ultime notizie, i nostri articoli e altro ancora!

Cosa è successo

L’autore di “Sapiens” ha recentemente partecipato a una conversazione stimolante con l’ospite del podcast Lex Fridman, esprimendo le sue preoccupazioni riguardo ai potenziali pericoli contenuti nell’intelligenza artificiale.

Durante la conversazione, Harari ha sottolineato che l’IA è diversa da qualsiasi altro strumento nella storia, poiché ha la capacità senza precedenti di prendere decisioni autonomamente e creare nuove idee completamente da sola. 

“Inventi un coltello; inventi una bomba atomica; la bomba atomica non può decidere di iniziare una guerra, non può decidere quale città bombardare. L’IA può prendere decisioni da sola. I sistemi di armi autonomi possono decidere da soli chi uccidere, chi bombardare”, ha detto. 

Lo storico ha anche messo in guardia contro l’accumulo di potere da parte dell’IA, affermando che potrebbe alla fine prendere il controllo della società, rendendo gli esseri umani impotenti e senza alcuna idea per il loro futuro. 

Il ritmo accelerato con cui l’IA sta già influenzando decisioni critiche, come l’approvazione di prestiti e l’assunzione di personale, e come sta plasmando gli artefatti culturali che ci circondano, è qualcosa per cui Harari ha espresso paura, temendo che un giorno gli esseri umani possano trovarsi spiritualmente schiavi di un’intelligenza aliena e incapaci di resistere alle sue manipolazioni.

Guarda il podcast completo qui: 

Perché è importante

I commenti di Harari riflettono i sentimenti di almeno la metà dei CEO e degli esperti delle grandi aziende tecnologiche. Persone come il padre dell’IA Geoffrey Hinton, Elon Musk e il co-fondatore di Apple Steve Wozniak hanno espresso le loro preoccupazioni e hanno sostenuto un rallentamento nell’avanzamento dei sistemi di intelligenza artificiale “più potenti” di OpenAI’s GPT-4.

Nel frattempo, altri come Jaron Lanier, conosciuto come il “padrino della realtà virtuale”, Jürgen Schmidhuber, una volta descritto come il “Padre dell’IA”, e Bill Gates sembrano pensare che questa tecnologia non prenderà il controllo del mondo, come prospettato nel film “The Matrix”.

Foto cortesia di: Shutterstock.com