Il Parlamento europeo sta elaborando nuove norme rigorose sull’uso dell’intelligenza artificiale, ha dichiarato un gruppo di legislatori dell’UE in una lettera aperta.
I legislatori dell’UE si sono impegnati a includere elementi nel disegno di legge inteso a imporre «lo sviluppo dell’IA in una direzione che sia incentrata sull’uomo, sicura e affidabile», secondo una copia della lettera ottenuta dal Wall Street Journal.
Le commissioni per il mercato interno e la protezione dei consumatori (IMCO) e le commissioni per le libertà civili, la giustizia e gli affari interni (LIBE) del Parlamento europeo voteranno in commissione congiunta sulla bozza di relazione sulla legislazione fondamentale per la regolamentazione dell’IA, nota anche come legge sull’IA, la prossima settimana, il 26 aprile.
L’EU AI ACT classifica tre tipi di rischi
Il regolamento classifica le applicazioni di intelligenza artificiale in tre categorie di rischio. In primo luogo, i programmi e i sistemi che rappresentano un pericolo inaccettabile, come il punteggio sociale gestito dal governo cinese, sono proibiti. In secondo luogo, le app ad alto rischio, come uno strumento di scansione dei CV che valuta i candidati, devono seguire rigide linee guida normative. Infine, la maggior parte delle applicazioni non sono regolamentate se non sono espressamente vietate o etichettate come ad alto rischio.
Secondo Axel Voss, un eurodeputato tedesco del Partito popolare europeo e uno dei principali redattori della legge sull’intelligenza artificiale dell’UE, ha recentemente sollecitato le società di intelligenza artificiale, come Microsoft Corp. (NASDAQ:MSFT), Alphabet, Inc. (NASDAQ:GOOGL) e Meta Platforms, Inc. (NASDAQ:META) — ad essere più trasparenti, aggiungendo che l’Unione europea deve preparare i suoi cittadini a distinguere tra informazioni vere e false.
Anche Dragos Tudorache, un eurodeputato rumeno di Renew Europe, ha recentemente affermato che quando l’intelligenza artificiale viene utilizzata per la disinformazione, l’UE deve supervisionare e regolamentare la tecnologia.
Il divieto di ChatGPT in Italia
A marzo, l’autorità italiana di regolamentazione della protezione dei dati, il Garante della Privacy, ha vietato temporaneamente Open AI, ChatGPT, il chatbot di intelligenza artificiale sostenuto da Microsoft, a causa di violazioni delle norme sulla protezione dei dati. L’agenzia governativa italiana ha dichiarato che il divieto verrà revocato se OpenAI rispetterà alcuni standard entro il 30 aprile.
L’Italia è il primo Paese occidentale ad agire contro il chatbot basato sull’intelligenza artificiale, ma altri governi europei hanno espresso preoccupazioni simili, sebbene finora non siano stati emessi divieti.
L’autorità spagnola ha dichiarato di non aver ricevuto alcun reclamo su ChatGPT, ma non ha potuto escludere ulteriori indagini.
Le autorità di regolamentazione della privacy in Francia e Irlanda hanno contattato le loro controparti italiane per saperne di più sui motivi del divieto di ChatGPT.
Foto Shutterstock