top of page
  • Immagine del redattoredanieleproietto92

Nightshade: qualcuno ha iniziato ad avvelenare le AI.

L'intelligenza artificiale generativa rappresenta una svolta epocale nel mondo della tecnologia, aprendo nuovi orizzonti per la creazione di contenuti. Tuttavia, questa innovazione porta con sé diverse ombre, che investono la sfera della privacy, della proprietà intellettuale e della diffusione di fake news.



Un esempio emblematico è il caso delle immagini generate dall'AI: la loro capacità di imitare la realtà è tale da confondere l'utente medio, sprovvisto di strumenti adeguati per discernere il vero dal falso.


Le implicazioni per le categorie di artisti, fotografi e designer sono particolarmente preoccupanti. 


Un punto critico riguarda la questione dei diritti d'autore. Spesso i modelli AI attingono a immagini online senza distinzione, violando la proprietà intellettuale degli artisti. Questo alimenta un sistema che premia la copia a discapito dell'originalità. Molti artisti, infatti, hanno scoperto che le loro opere sono state prese e utilizzate senza nessuna autorizzazione in dataset come, ad esempio, LAION-5B.


L'avvelenamento dell'AI


Di fronte a questa minaccia, alcuni artisti hanno deciso di reagire. L'Università di Chicago ha sviluppato due strumenti, Nightshade e Glaze, che permettono di "avvelenare" attivamente l'AI.


Glaze è uno strumento di difesa: riesce ad inserire pixel che confondono l’AI sullo stile dell’immagine per impedirne poi delle imitazioni. Molte AI, infatti, partendo da un’opera d’arte ne imitano lo stile. Grazie a Glaze, questo mimetismo di stile può essere fermato.


Nightshade, invece, è un'arma di attacco e molto più aggressiva: altera i pixel delle immagini in modo impercettibile per l'occhio umano, ma è capace di confondere l'AI e farle apprendere informazioni errate. Utilizzando Nightshade si andranno ad avvelenare i modelli con informazioni errate: in questo modo i modelli avranno degli output imprevedibili.


Wikitrivia: Nightshade è una pianta che in Italia indichiamo come (Atropa) Belladonna. Il nome Atropo era infatti il nome (in greco: Ἄτροπος, l'immutabile, l'inevitabile) di una delle tre Moire che, nella mitologia greca, taglia il filo della vita, ciò a ricordare che l'ingestione delle bacche di questa pianta causa la morte.
L'epiteto specifico belladonna fa riferimento a una pratica che risale al Rinascimento: le dame usavano un collirio basato su questa pianta per dare risalto e lucentezza agli occhi a causa della sua capacità di dilatare la pupilla.

In un esperimento, i ricercatori hanno "avvelenato" l'AI con immagini di cani modificate da Nightshade, facendole credere che si trattasse di gatti. L'AI ha quindi generato immagini di cani deformi e, dopo cento iterazioni, ha iniziato a produrre gatti al posto dei cani.


Il team di ricercatori guidati dal prof. Ben Zhao, scrivono ovviamente che Nightshade deve essere utilizzato in modo etico e che non è stato progettato per rompere i modelli AI, ma per proteggere gli utenti dallo scraping selvaggio delle grandi aziende (metodo con il quale si “scannerizzano” interi siti web e i loro contenuti in modo indiscriminato), visto che non si hanno al momento strumenti adatti per permettere il rispetto dei diritti d’autore e del copyright.


Solo attraverso un dialogo aperto e costruttivo tra artisti, sviluppatori e policy makers sarà possibile definire le linee guida per un futuro dell'arte in cui l'intelligenza artificiale sia un'alleata e non una minaccia.




Comments


bottom of page