Forse l’uomo batte ancora la macchina. Alcuni ricercatori dell’Università di Chicago hanno trovato una soluzione per proteggere gli artisti dall’intelligenza artificiale. Si chiama Nightshade e oggi impareremo a conoscerlo per capire in che modo possa schermare i contenuti all’AI. Pronti a scoprirlo insieme a noi?
Nightshade: l’alternativa giusta a tutela dell’arte
Con l’avvento dell’intelligenza artificiale, in particolare con il rilascio dell’utilizzo di Chat GPT, in molti nel settore dell’arte e dell’iconografia hanno iniziato letteralmente a tremare (e non solo loro).
Fino a poco tempo fa sembrava infatti che l’AI potesse essere applicabile davvero ad ogni contesto produttivo. Alcuni ricercatori dell’Università di Chicago hanno dimostrato il contrario. Come vedremo infatti si sono adoperati per proteggere l’arte dalla copia seriale che minerebbe la tutela dell’originalità dell’opera.
Ok, sarebbe una violazione del copyright, ma gli artisti sono comunque preoccupati: come tutelare le loro opere? Come dimostrare che si tratterebbe di un vero e proprio plagio, visto che sarebbe fatto da uno strumento con mente matematica propria? Non temete artisti a voi penserà Nightshade.
Una novità del MIT Technology Review
Nightshade è uno strumento open source in fase di sviluppo creato appositamente per essere utilizzato dagli artisti all’interno delle loro opere. Una volta che il contenuto artistico viene caricato sul web, l’autore può alterare i pixel in modo invisibile all’occhio umano e schermare l’opera dalle attività di addestramento delle AI.
L’idea parte dal Professore di informatica Ben Zhao dell’Università di Chicago. Il suo team è riuscito a capire come ragionano le intelligenze artificiali e ha trovato il modo di nascondergli tutto ciò che è arte e merita di essere protetto da copyright.
Quando sarà disponibile Nightshade? In un primo momento lo vedremo aggiunto come impostazione ad una soluzione che già esiste e si chiama Glaze. Anche questo è uno strumento in grado di mascherare le opere d’arte con l’alterazione dei pixel, ma le AI riescono comunque a scovarle.
Un esperimento infatti ha dimostrato che le intelligenze artificiali trovano le opere e poi le ripropongono, con natura del soggetto alterato. Un passo avanti, che però non protegge ancora al 100% l’arte e i suoi contenuti.
In cosa è diverso Nightshade
I ricercatori hanno studiato l’addestramento delle intelligenze artificiali su 50 campioni di immagini proposte loro. Quello che hanno scoperto è che con Glaze riuscivano a mascherare l’opera originale perché le AI riproponevano poi bizzarre immagini che riproponevano l’opera con una prospettiva completamente diversa.
Poi si è testato Nightshade: l’obiettivo era quello di dimostrare che questo nuovo strumento mette davvero in difficoltà l’intelligenza artificiale nel riprodurre l’opera d’arte al 100%. Nello specifico il test è stato fatto su un modello di intelligenza artificiale generativa denominato Stable Diffusion.
Stable Diffusion può produrre immagini foto-realistiche partendo da un testo con istruzioni specifiche per immagini. Cosa fa questo tipo di AI? Raggruppa le parole e le idee concettualmente simili in gruppi spaziali noti con il nome di “embedding”, ed è proprio su questi gruppi spaziali che ha agito Nightshade.
Inganno tra strumenti tech
In pratica, Nightshade ha ingannato Stable Diffusion facendogli generare dei gatti dove invece la richiesta erano dei cuccioli di cane. Per ingannare a sua volta lo strumento di Ben Zhao, chi struttura le intelligenze artificiali dovrebbe eliminare qualsiasi immagine che contenga pixel senza senso (definiti in gergo “avvelenati”).
Una manovra impossibile, almeno per il momento, anche per gli strumenti più sofisticati di data scraping. Inoltre, una volta se si riuscisse veramente ad eliminare questo tipo di immagini fake, l’intelligenza artificiale andrebbe di nuovo addestrata alla lettura di prompt adeguati, il che porterebbe via tempo prezioso alla ricerca.
In molti hanno accusato i ricercatori di Nightshade perché il loro lavoro, oltre a preservare la proprietà delle opere, potrebbe essere usato per scopi poco chiari e dannosi. La loro speranza è che una volta ultimato il prototipo, questo strumento venga utilizzato per contribuire all’equilibrio tra AI e creatori di contenuti creativi.