AI
"Zatrute" piksele. Nowe narzędzie Nightshade chroni dzieła artystów przed AI
Naukowcy opracowali nowe narzędzie, które ma być "trucizną" dla generatywnego AI. Nightshade pozwala artystom zmieniać swoje obrazy tak, by stały się one bezużyteczne dla algorytmów. Człowiek nie zauważy zaś różnicy.
Twórcy i twórczynie cyfrowej sztuki zyskali odpowiedź na problem kradzieży praw autorskich przez modele uczące generatywną AI. Zespół z Uniwersytetu w Chicago zaprezentował program Nightshade – narzędzie "zatruwające" informacje wizualne niewidocznymi dla człowieka pikselami, które czynią obrazy bezużytecznymi dla modeli AI. Dowodzący zespołem naukowym profesor Ben Zhao liczy, że opracowywany program zwróci kontrolę w ręce artystów.
Obecnie narzędzia oparte na generatywnej AI takie jak DALL-E, Midjourney czy Stable Diffusion pobierają bowiem dane z internetu bez poszanowania praw autorskich, uiszczania opłat za wykorzystanie dzieł czy zgód samych artystów i artystek, którzy czują się zagrożeni.
Jak działa Nightshade?
Nightshade ma rozwiązać te problemy. Program wprowadza niewidoczne ludzkim okiem zmiany do każdego piksela obrazu. Nauczony na tych próbkach model AI zaczyna zaś halucynować. Sprawia to, że sztuczna inteligencja zaczyna na przykład interpretować obraz kota jako psa, kapelusz jako ciasto lub zmienia damskie torebki w tostery. Jako że proces zbierania danych jest zwykle zautomatyzowany, do modelu dostawać się będzie z czasem więcej i więcej wprowadzających maszynę w błąd danych. Ich usunięcie będzie ogromnym problemem, bo twórcy muszą robić to ręcznie.
Nightshade jest projektem open source, co pozwala innym programistom i badaczom na wprowadzanie własnych wersji i ulepszeń tej metody. Naukowcy nie boją się o to, że całkowicie zniweczą prace nad obecnymi modelami AI. Te są trenowane na miliardach obrazów, więc punktowe „zatrucia” nie powinny być problemem dla ogólnego działania AI. Utrudni to jednak kopiowanie zabezpieczających się systemem artystów.
Nightshade to narzędzie, które oferuje artystom możliwość aktywnej obrony przed nieautoryzowanym użyciem ich prac w modelach AI. Chociaż wymaga to znaczącej liczby „zatrutych” obrazów, aby skutecznie wpłynąć na działanie modelu, to jednak stanowi ważny krok w walce o prawa artystów w erze cyfrowej. Jak zauważyli przedstawiciele Stability AI, rozwój modeli AI idzie w kierunku większej różnorodności i eliminacji uprzedzeń, ale Nightshade pokazuje, że artyści nie są bezbronni i mogą także działać w celu ochrony swojego dorobku.