Un nuovo strumento consente agli artisti di “avvelenare” le proprie opere d’arte per scoraggiare le aziende di intelligenza artificiale

Un robot e una giovane donna faccia a faccia.

immagina | E+ | Immagini Getty

Gli artisti che desiderano condividere le proprie opere d’arte si trovano spesso di fronte a una scelta difficile: tenerle offline o pubblicarle sui social media e rischiare che vengano utilizzate per addestrare generatori di immagini AI affamati di dati.

Ma un nuovo strumento potrebbe presto essere in grado di aiutare gli artisti a dissuadere le aziende di intelligenza artificiale dall’utilizzare le loro opere d’arte senza permesso.

Si chiama “Nightshade” ed è stato sviluppato da un team di ricercatori dell’Università di Chicago. Funziona “avvelenando” la creatività dell’artista modificando sottilmente i pixel nell’immagine in modo che i modelli di intelligenza artificiale non possano determinare con precisione ciò che rappresenta l’immagine, secondo Verge. Revisione della tecnologia del MIT.

Sebbene l’occhio umano non sia in grado di rilevare questi piccoli cambiamenti, essi hanno lo scopo di far sì che il modello di apprendimento automatico etichetti erroneamente l’immagine come qualcosa di diverso da quello che è. Poiché questi modelli di intelligenza artificiale si basano su dati accurati, questo processo di “avvelenamento” renderà l’immagine inutilizzabile per scopi di formazione.

Se un numero sufficiente di queste immagini “avvelenate” venisse estratto dal web e utilizzato per addestrare un generatore di immagini AI, il modello AI stesso potrebbe non essere in grado di produrre immagini accurate.

Ad esempio, i ricercatori hanno alimentato Stable Diffusion, un generatore di immagini AI, con un modello di intelligenza artificiale che generava 50 immagini “tossiche” di cani, e poi gli hanno chiesto di generare nuove immagini di cani. Secondo il MIT Technology Review, le immagini create mostravano animali con troppi arti o facce da cartone animato che somigliavano un po’ a cani.

READ  Il punteggio positivo di Helldivers 2 su Steam è diminuito man mano che i giocatori PC rispondono ai requisiti PSN di Sony

Dopo che i ricercatori hanno fornito a Stable Diffusion 300 immagini “tossiche” di cani, alla fine ha iniziato a produrre immagini di gatti. Stable Diffusion non ha risposto alla richiesta di commento di CNBC Make It.

In superficie, i generatori di arte basati sull’intelligenza artificiale sembrano creare immagini dal nulla in base a qualsiasi suggerimento che qualcuno dà loro.

Ma non è magia aiutare questi modelli di intelligenza artificiale generativa a creare immagini realistiche di una giraffa rosa o di un castello sottomarino, si tratta di dati di addestramento, e molto altro ancora.

Le aziende di intelligenza artificiale addestrano i loro modelli su enormi set di dati, aiutando i modelli a identificare quali immagini sono associate alle parole. Affinché un modello AI possa produrre correttamente l’immagine di una giraffa rosa, deve essere addestrato a riconoscere correttamente le immagini delle giraffe e il colore rosa.

Gran parte dei dati utilizzati per addestrare molti sistemi di intelligenza artificiale generativa vengono estratti dal web. Sebbene negli Stati Uniti sia legale per le aziende raccogliere dati da siti Web accessibili al pubblico e utilizzarli per vari scopi, la situazione diventa complicata quando si tratta di opere d’arte poiché gli artisti di solito possiedono il diritto d’autore sulle loro opere e talvolta… Non lo fanno non vogliono che le loro opere d’arte vengano utilizzate per addestrare un modello di intelligenza artificiale.

Sebbene gli artisti possano iscriversi a “liste di rinuncia” o a “direttive anti-scrape”, è spesso difficile costringere le aziende ad aderire a queste direttive, Glassa all’Università di Chicagoha detto il team di ricercatori che ha creato Nightshade in un thread del 24 ottobre su X, precedentemente noto come Twitter.

READ  Enam Perlindungan Lonjakan Arus untuk Melindungi Peralatan Listrik

“Nessuno di questi meccanismi è applicabile, o addirittura verificabile”, hanno affermato in un thread del 24 ottobre, “le aziende hanno dimostrato di poter ignorare ciecamente le opzioni di rinuncia”. “Ma anche se concordassero e agissero diversamente, nessuno può verificarlo o provarlo (almeno non oggi). Questi strumenti sono inefficaci”, ha aggiunto.

In definitiva, i ricercatori sperano che Nightshade aiuti gli artisti a proteggere la loro arte.

I ricercatori non hanno ancora rilasciato al pubblico il loro strumento Nightshade, ma hanno presentato il loro lavoro per la revisione tra pari e sperano di renderlo disponibile presto, ha detto a X Glaze di UChicago.

Da non perdere: vuoi essere più intelligente e avere più successo nei tuoi soldi, nel tuo lavoro e nella tua vita? Iscriviti alla nostra nuova newsletter!

Prende Guida gratuita di Warren Buffett per investire sulla CNBCche riassume i migliori consigli del miliardario per gli investitori di tutti i giorni, cosa fare e cosa non fare, e tre principi chiave di investimento in una guida chiara e semplice.

pagando: L’intelligenza artificiale è l’ultima parola d’ordine nella tecnologia, ma prima di investire, impara a conoscere questi quattro termini

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Torna in alto