Image Image Image Image Image Image Image Image Image Image

Art Vibes – Let's share beauty | May 13, 2024

Scroll to top

Top

No Comments

Nightshade - Lo strumento tecnologico che protegge i contenuti degli artisti dall’Intelligenza artificiale

Nightshade – Lo strumento tecnologico che protegge i contenuti degli artisti dall’Intelligenza artificiale

| On 27, Ott 2023

I Ricercatori dell’Università di Chicago hanno ideato un sistema per alterare (in modo invisibile all’occhio umano) i pixel di un’immagine, schermando il contenuto dalle attività di addestramento delle intelligenze artificiali.

di Francesco Spaghi


Picture: Elaborazione grafica. Credit: Francesco Spaghi.


E quasi passato un anno da quando ChatGpt e i suoi simili hanno fatto la comparsa sul mercato, un anno in cui l’intelligenza artificiale generativa ha dimostrato di essere applicabile in svariati contesti produttivi, facendo non ancora intravedere tutte le sue futuribili potenzialità.

Non solo generazione di testi ma soprattutto generazione di immagini: dopo Midjourney difatti, è con l’evoluzione di Dell-E che l’intero settore dell’iconografia ha cominciato a tremare, una tempesta che ha investito con forza anche il mercato editoriale, innescando non poche polemiche sul tema della violazione del copyright e del diritto d’autore.

Non fanno ormai quasi più notizia le crociate di artisti, musicisti, scrittori, artisti, scesi in campo contro le società proprietarie di questi software, accusati di addestrare tali intelligenze artificiali scandagliando materiali protetti.

E sì, perché questi modelli di AI non sarebbero proprio in grado di funzionare al meglio se non processassero senza limiti enormi quantità di contenuti multimediali, inclusi testi scritti e immagini prodotte da artisti, ignari al momento della creazione delle loro opere di offrire gratuitamente in pasto alle AI il frutto del loro pensiero.

Per ora tanti soggetti del settore si sono mossi legalmente intentando cause su cause contro questi illegittimi utilizzi di materiale protetto, tuttavia tra cavilli burocratici e giurisprudenze di stati diversi, non uniformate sull’argomento, risulta difficile intravedere soluzioni fattive all’orizzonte, quantomeno in tempi rapidi.

Ma forse una via alternativa in fase di sperimentazione potrebbe sparigliare la carte in tavola.

La novità arriva dal MIT Technology Review che ha annunciato la creazione di un nuovo strumento open source, ancora in fase di sviluppo, che potrebbe essere aggiunto dagli artisti alle loro immagini prima del caricamento sul web, alterando i pixel in modo invisibile all’occhio umano, in modo da schermarle dalle attività di addestramento delle intelligenze artificiali.

Si chiama Nightashade ed è stato sviluppato dai ricercatori dell’Università di Chicago guidati dal Professore di informatica Ben Zhao. In un primo momento verrà aggiunto come impostazione opzionale alla precedente soluzione denominata “Glaze”, anch’essa in grado di mascherare le opere d’arte digitali attraverso l’alterazione “invisibile” di alcuni pixel.

Ma non solo perché sembra che questo sistema di difesa possa trasformarsi nel più spietato degli attacchi: a giudicare da alcuni esempi pubblicati recentemente su X (Ex-Twitter) alcuni ricercatori hanno “avvelenato” le immagini dei cani includendo nei pixel informazioni che avrebbero condotto i modelli di Ai ad un gatto.

 

 

Insomma, dopo aver campionato ed essersi addestrata su 50 campioni di immagini alterate, l’intelligenza artificiale sembra che abbia iniziato a generare bizzarre immagini di cani con strane zampe e dall’aspetto inquietante.

Dopo 100 campioni di informazioni distorte, L’AI ha generato un gatto dopo che un utente nel prompt aveva richiesto l’immagine di un cane. Dopo 300 infine, qualsiasi richiesta di riprodurre un cane restituiva un gatto dall’aspetto quasi perfetto.

I ricercatori per testare Nightshade e ottenere i risultati sopra menzionati. hanno utilizzato Stable Diffusion, un modello di intelligenza artificiale generativa (IA generativa) che produce immagini fotorealistiche uniche a partire da testo e istruzioni di immagini.

Poiché i modelli di intelligenza artificiale generativa raggruppano parole e idee concettualmente simili in gruppi spaziali noti come “embedding”, per Nightshade è stato un giochetto ingannare Stable Diffusion facendogli generare immagini di gatti laddove la richiesta erano parole come “husky“, “cucciolo” e “lupo“.

Inoltre appare molto difficile difendersi dalla tecnica di avvelenamento dei dati di Nightshade, poiché una controffensiva adeguata richiederebbe agli sviluppatori di modelli di intelligenza artificiale di eliminare qualsiasi immagine che contenga pixel avvelenati, operazione molto difficile anche per sofisticati software di data scraping.

 

 

Da considerare che anche eventuali immagini alterate già acquisite per un set di dati di addestramento AI dovrebbero essere rilevate e rimosse, e se un modello di intelligenza artificiale fosse già stato addestrato su di esse, probabilmente andrebbe nuovamente riaddestrato.

Sebbene i ricercatori riconoscano che il loro lavoro potrebbe essere utilizzato per scopi dannosi, per combattere l’asimmetria di potere che vige tra le aziende di AI e i proprietari di contenuti, la loro “speranza è che ciò contribuisca a spostare l’equilibrio di potere dalle società di intelligenza artificiale a favore dei creatori di contenuti creativi.

Per ora l’uomo batte ancora la macchina. Per ora.


– website: technologyreview.com


Submit a Comment