Di recente, gli artisti si sono mobilitati contro l’uso non autorizzato delle loro opere da parte dei generatori di immagini AI. Stanno utilizzando un metodo noto come “data poisoning” (letteralmente “avvelenamento dei dati”).
Cosa è successo
The Conversation ha riferito che gli artisti stanno rispondendo all’uso non autorizzato delle loro immagini protette da copyright da parte di generatori di immagini AI utilizzando una tecnica nota come “avvelenamento dei dati”. Il metodo, facilitato da uno strumento noto come “Nightshade”, altera sottilmente i pixel di un’immagine in modo che rimanga inalterata per l’occhio umano ma causi il caos per la visione computerizzata. Quando queste immagini “avvelenate” vengono prelevate dalle aziende tecnologiche per addestrare i loro modelli di intelligenza artificiale, il pool di dati diventa “avvelenato”, portando l’algoritmo a sbagliare la classificazione delle immagini.
Ciò provoca risultati imprevedibili e non voluti dal modello di intelligenza artificiale, con conseguenti interruzioni nel funzionamento del generatore. Più immagini “avvelenate” sono presenti nei dati di addestramento, maggiore è l’interruzione. Il creatore dello strumento spera che questo costringa le aziende tecnologiche a rispettare le leggi sul copyright. Tuttavia, si teme un potenziale uso improprio di questo strumento per interrompere di proposito i servizi di questi generatori.
Perché è importante
I recenti progressi della tecnologia AI hanno portato a un’impennata nello sviluppo di generatori di immagini AI. Ad esempio, Meta Platforms Inc. (NASDAQ:META) ha lanciato un’esperienza autonoma di IA per il web, mentre Bing Image Creator di Microsoft Corporation (NASDAQ:MSFT) ha generato oltre un miliardo di immagini realistiche.
Tuttavia, l’uso non autorizzato di immagini protette da copyright ha sollevato questioni legali ed etiche. L’attrice Scarlett Johansson ha fatto causa a un generatore di IA per aver utilizzato le sue sembianze e la sua voce senza autorizzazione. Ora gli artisti stanno reagendo con l’avvelenamento dei dati. Questo metodo potrebbe potenzialmente interrompere il funzionamento dei generatori di immagini AI e costringere le aziende a riconsiderare le loro pratiche di approvvigionamento dei dati.
Immagine di Alliance Images via Shutterstock