Con una decisione che ha suscitato un dibattito sull’autenticità e l’etica dei media digitali, il servizio di immagini stock di Adobe Inc. (NASDAQ:ADBE) ora offre in vendita immagini artificialmente create che raffigurano scene del conflitto tra Israele e Hamas.
Cosa è successo
Tra le crescenti preoccupazioni per le immagini false, Adobe Stock sta vendendo immagini artificiali che raffigurano il conflitto tra Israele e Hamas, come riportato da PetaPixel.
Cercando “conflitto Israele-Palestina” su Adobe Stock si trovano molte immagini create dall’IA, con la maggior parte dei risultati che sono generati al computer. Queste immagini, sebbene alcune più convincenti di altre, a prima vista sono spesso indistinguibili dalle fotografie reali, sollevando allarmi sulla potenziale diffusione di disinformazione.
Il sito web australiano Crikey, che ha riportato per primo la questione, discutendo le implicazioni con il dottor T.J. Thomson dell’Università RMIT. Il dottor Thomson ha evidenziato il rischio che queste immagini distorcano la percezione pubblica e la verità, esprimendo preoccupazione per il ruolo dei fotografi che catturano queste scene a grande rischio personale.
Adobe ha risposto alla controversia, affermando che tutti i contenuti generati dall’IA sulla loro piattaforma sono chiaramente etichettati al momento della presentazione e che sono attivamente impegnati nella lotta contro la disinformazione attraverso iniziative come l’Iniziativa per l’autenticità dei contenuti.
L’anno scorso, Adobe ha annunciato di accettare contributi generati dall’intelligenza artificiale, enfatizzando la trasparenza. Tuttavia, un’analisi recente di Stock Performer ha rivelato che le immagini generate dall’AI stanno generando guadagni significativamente più alti rispetto alle fotografie tradizionali su Adobe Stock.
L’articolo originale è stato aggiornato il 7 novembre con i commenti di Adobe che affrontano la questione.
Perché è importante
La decisione di Adobe di consentire l’uso di immagini generate dall’AI sulla sua piattaforma di stock, in particolare quelle che raffigurano conflitti politici delicati, solleva questioni critiche sulla affidabilità ed etica dei contenuti visivi nell’era dei deepfake e delle informazioni errate.
Mentre i contenuti generati da AI mostrano il potenziale di oscurare il lavoro dei fotografi tradizionali – il cui lavoro spesso comporta rischi per catturare la verità – l’impatto sul giornalismo fotografico e sulla fiducia pubblica è profondo.
Inoltre, l’aumento dei ricavi dalle immagini AI potrebbe incentivare un passaggio dalla fotografia umana, compromettendo il valore delle immagini autentiche. Ciò potrebbe portare a una conversazione più ampia sul futuro della fotografia e gli standard di verità nei media. L’iniziativa di autenticità dei contenuti di Adobe rappresenta un passo verso la risoluzione di queste preoccupazioni, ma man mano che la tecnologia evolve, anche le misure per garantire trasparenza e fiducia nei media digitali devono evolversi.
Realizzato da Benzinga Neuro, Modificato da Rounak Jain
Il sistema di generazione di contenuti Benzinga Neuro basato su GPT-4 sfrutta l’ampio ecosistema di Benzinga, compresi dati nativi, API e altro ancora, per creare storie complete e tempestive per te. Scopri di più.