Una ragazza di 17 anni del New Jersey ha intentato una causa contro lo sviluppatore di un’applicazione basata sull’intelligenza artificiale che consente di “rimuovere i vestiti” dopo che un compagno di classe l’avrebbe utilizzata per generare immagini false di lei nuda a partire da una foto pubblicata sui social media quando aveva 14 anni.
Yale Law Group si unisce alla causa contro lo sfruttamento dei deepfake
La causa, intentata da un professore della Yale Law School, dai suoi studenti e da un avvocato, accusa AI/Robotics Venture Strategy 3 Ltd., la società che ha sviluppato lo strumento web ClothOff, di consentire la creazione e la distribuzione di deepfake sessualmente espliciti e non consensuali, secondo quanto riferito dal Wall Street Journal.
Il caso cita anche Telegram come imputato nominale, poiché l’app ospitava dei bot che fornivano l’accesso a ClothOff.
Secondo la denuncia, la foto Instagram dell’adolescente, che la ritraeva in costume da bagno, è stata alterata in un’immagine realistica di nudo condivisa tra i compagni di classe maschi.
La causa richiede la cancellazione di tutte le immagini di nudo generate dall’intelligenza artificiale che coinvolgono minori e adulti senza consenso e chiede un’ordinanza del tribunale per rimuovere il software da Internet.
ClothOff non ha risposto immediatamente alla richiesta di un commento da parte di Benzinga.
Lo sviluppatore nega qualsiasi illecito, ma crescono le preoccupazioni
Lo sviluppatore di ClothOff, con sede nelle Isole Vergini Britanniche e che si ritiene operi dalla Bielorussia, afferma sul suo sito web che il suo sistema non è in grado di elaborare immagini di minori e cancella automaticamente tutti i dati.
Tuttavia, gli avvocati del querelante sostengono che il software sia stato utilizzato per creare materiale pedopornografico, violando le leggi federali e statali.
Il ragazzo adolescente accusato di aver creato i falsi nudi non è incluso nella causa attuale, anche se il querelante ha intentato una causa separata contro di lui. Nella loro risposta alla denuncia.
I suoi avvocati hanno affermato che “l’imputato non dispone di conoscenze o informazioni sufficienti per formarsi un’opinione sulla veridicità delle accuse”.
Aumenta la pressione per regolamentare i deepfake generati dall’intelligenza artificiale
Il caso si aggiunge alla crescente spinta verso una regolamentazione, in un contesto di aumento delle immagini sessuali generate dall’IA.
A maggio, il Congresso ha approvato il Take It Down Act, che rende crimine federale la pubblicazione di immagini intime non consensuali, reali o generate dall’intelligenza artificiale, e impone alle piattaforme di rimuovere tali contenuti entro 48 ore da una denuncia valida.
Nella denuncia, la querelante afferma di “vivere nella paura costante” che la sua immagine falsa possa riemergere online.
Potrebbe interessarti: Luna di miele a Bali finisce ancor prima di iniziare: ecco cosa è successo
Per ulteriori aggiornamenti su questo argomento, aggiungi Benzinga Italia ai tuoi preferiti oppure seguici sui nostri canali social: X e Facebook.
Ricevi informazioni esclusive sui movimenti di mercato 30 minuti prima degli altri trader
La prova gratuita di 14 giorni di Benzinga Pro, disponibile solo in inglese, ti permette di accedere ad informazioni esclusive per poter ricevere segnali di trading utilizzabili prima di milioni di altri trader. CLICCA QUI per iniziare la prova gratuita.
Foto: Shutterstock