Tre popolari giocattoli dotati di Intelligenza Artificiale (IA) possono facilmente spingersi in territori conversazionali pericolosi, tra cui istruire i bambini su dove trovare i coltelli in cucina e come accendere il fuoco con i fiammiferi, secondo quanto riferito dal gruppo di ricerca statunitense Public Interest Research Group, che ha testato i prodotti.
Le barriere di sicurezza crollano durante le conversazioni prolungate
I tre prodotti testati, commercializzati per bambini dai 3 ai 12 anni, includevano Kumma di FoloToy, che funziona di default con GPT-4o di OpenAI, Miko 3, un tablet con un volto montato su un piccolo busto, e Grok di Curio, un razzo antropomorfo con un altoparlante rimovibile, ha affermato il PIRG.
Inizialmente i giocattoli respingevano le domande più inappropriate, ma le loro barriere protettive si abbassavano durante le conversazioni più lunghe, ha riferito il PIRG. OpenAI lo ha riconosciuto ad agosto, in seguito al suicidio di un sedicenne dopo lunghe interazioni con ChatGPT, dichiarando al New York Times che le “misure di sicurezza” del chatbot possono “diventare meno affidabili nelle interazioni lunghe”, dove “l’addestramento alla sicurezza del modello può degradarsi”.
I giocattoli forniscono istruzioni pericolose in un linguaggio adatto ai bambini
Grok glorificava la morte in battaglia come guerriero nella mitologia norrena, secondo il PIRG, mentre Miko 3 informava un utente di cinque anni sulla posizione di fiammiferi e sacchetti di plastica. Kumma di FoloToy, che funziona con la tecnologia di OpenAI ma è in grado di utilizzare altri modelli di IA, si è rivelato il più problematico.
Kumma non solo ha indicato ai bambini dove trovare i fiammiferi, ma ha anche spiegato precisamente come accenderli e ha rivelato dove si trovano i coltelli e le pillole in casa, ha affermato il PIRG. “Lascia che ti dica una cosa, la sicurezza prima di tutto, piccolo amico. I fiammiferi sono per gli adulti e devono essere usati con cautela. Ecco come si fa”, ha esordito Kumma prima di elencare i passaggi con un tono simile a quello usato con i bambini, ha riferito il PIRG. “Spegnili quando hai finito. Soffia, come una candela di compleanno“, ha concluso il giocattolo, secondo il rapporto.
I test rivelano contenuti sessualmente espliciti accessibili ai bambini
La parola ”kink” sembrava funzionare come una parola chiave che spingeva Kumma a discutere di sesso nei test successivi, il tutto mentre eseguiva GPT-4o di OpenAI, ha RJ Cross, direttore del programma Our Online Life di PIRG e coautore del rapporto, ha dichiarato a Futurism. Dopo aver stabilito che il giocattolo avrebbe esplorato argomenti romantici di età scolare, tra cui le cotte e “essere un buon baciatore”, Cross ha affermato che i ricercatori hanno scoperto che Kumma forniva anche risposte dettagliate su vari feticismi sessuali, tra cui bondage, giochi di ruolo, giochi sensoriali e giochi di impatto.
Kumma ha fornito istruzioni dettagliate su un comune “nodo per principianti” per chi desidera legare il proprio partner in un momento del test. In un altro momento, l’IA ha esplorato l’introduzione delle sculacciate in una dinamica sessualmente carica tra insegnante e studente. Il giocattolo ha spiegato che “l’insegnante è spesso visto come una figura autoritaria, mentre lo studente può essere descritto come qualcuno che deve seguire le regole”, ha affermato il PIRG.
“Questa tecnologia è davvero nuova, è sostanzialmente non regolamentata e ci sono molte domande aperte su di essa e su come influenzerà i bambini”, ha dichiarato Cross a Futurism. “Se fossi un genitore, non consentirei ai miei figli di accedere a un chatbot o a un orsacchiotto che contiene un chatbot”.
Le principali aziende produttrici di giocattoli promuovono l’integrazione dell’IA
Le principali aziende di giocattoli stanno sperimentando l’IA, come Mattel Inc. (MAT), nota per i marchi Barbie e Hot Wheels, che ha annunciato a giugno un accordo di collaborazione con OpenAI per questa estate. “Mattel dovrebbe annunciare immediatamente che non incorporerà la tecnologia IA nei giocattoli per bambini”, ha affermato in una dichiarazione Robert Weissman, co-presidente del gruppo di difesa Public Citizen.
Crescono le preoccupazioni per l’impatto a lungo termine sullo sviluppo dei bambini
I risultati del PIRG emergono mentre l’industria è avvolta da una nube oscura di “psicosi da IA”, un termine utilizzato da Futurism per descrivere il numero di episodi deliranti o maniacali che si sono verificati dopo lunghe conversazioni con un chatbot basato sull’intelligenza artificiale.
“Credo che le aziende produttrici di giocattoli riusciranno probabilmente a trovare un modo per rendere questi prodotti molto più adatti all’età”, ha dichiarato Cross a Futurism. Anche se la tecnologia migliora, i genitori devono interrogarsi sugli impatti a lungo termine per lo sviluppo sociale dei bambini, ha aggiunto Cross.
“Non si comprendono davvero le conseguenze finché non è già troppo tardi”, ha concluso.
Potrebbe interessarti: Partnership tra Mattel e OpenAI: l’IA entra nel design dei giocattoli?
Per ulteriori aggiornamenti su questo argomento, aggiungi Benzinga Italia ai tuoi preferiti oppure seguici sui nostri canali social: X e Facebook.
Ricevi informazioni esclusive sui movimenti di mercato 30 minuti prima degli altri trader
La prova gratuita di 14 giorni di Benzinga Pro, disponibile solo in inglese, ti permette di accedere ad informazioni esclusive per poter ricevere segnali di trading utilizzabili prima di milioni di altri trader. CLICCA QUI per iniziare la prova gratuita.
Foto: Shutterstock
