Univerzita v Chicagu nabízí umělcům obranu proti AI pomocí Glaze a Nightshade

Image by Glashier, from Freepik

Univerzita v Chicagu nabízí umělcům obranu proti AI pomocí Glaze a Nightshade

Doba čtení: 3 minut

Spěcháte? Zde jsou rychlé fakty!

  • Glaze a Nightshade chrání díla umělců před neoprávněným využitím pro výcvik umělé inteligence.
  • Glaze maskuje obrázky, aby zabránil umělé inteligenci replikovat styl umělce.
  • Nightshade narušuje umělou inteligenci přidáním „otravených“ pixelů, které narušují tréninková data.

Umělci se brání proti zneužívání AI modelů pomocí nástrojů Glaze a Nightshade, které vyvinul Ben Zhao a jeho tým na Univerzitě v Chicagu v laboratoři SAND Lab, jak dnes informoval MIT Technology Review.

Tyto nástroje mají za cíl chránit díla umělců před použitím bez souhlasu pro trénování AI modelů, což mnoho tvůrců považuje za krádež. Glaze, který byl od svého vydání v březnu 2023 stažen více než 4 miliony krát, maskuje obrázky přidáním jemných změn, které brání AI v učení se stylu umělce, uvádí MIT.

Rulík, „útočná“ protějšek, dále narušuje AI modely tím, že zavádí neviditelné změny, které mohou pokud jsou použity při tréninku, narušit učení AI, jak poznamenal MIT.

Nástroje byly inspirovány obavami umělců o rychlém nárůstu generativní AI, která často využívá online obrázky pro vytváření nových děl. MIT uvádí, že fantasy ilustrátorka Karla Ortiz a další tvůrci vyjádřili obavy o ztrátu svých obživ, protože AI modely replikují jejich charakteristické styly bez povolení nebo platby.

Pro umělce je publikování online zásadní pro viditelnost a příjem, přesto si mnozí zvažovali odstranění svého díla, aby se vyhnuli jeho využití pro výcvik AI, což by podle MIT ohrozilo jejich kariéru.

Nightshade, spuštěný rok po Glaze, nabízí agresivnější obranu, uvádí MIT. Přidáváním „otrávených“ pixelů do obrázků narušuje výcvik AI, což vede k tomu, že modely produkují zkreslené výsledky, pokud jsou tyto obrázky scrapovány.
Symbolický efekt lilkovitých rostlin rezonuje s umělci, kteří v něm vidí poetickou spravedlnost: pokud je jejich práce ukradena pro trénink AI, může poškodit právě ty systémy, které ji zneužívají.

MIT uvádí, že tyto nástroje čelily určité skepsi, protože umělci se původně obávali o ochranu svých dat. Aby tento problém řešili, SAND Lab vydal verzi Glaze, která pracuje offline, což zajišťuje, že nedochází k přenosu dat a buduje důvěru s umělci, kteří se obávají zneužití.

Laboratoř nedávno rozšířila přístup tím, že se spojila s Carou, novou sociální platformou, která zakazuje obsah generovaný umělou inteligencí, jak poznamenal MIT.

Zhao a jeho tým se snaží změnit rovnováhu sil mezi jednotlivými tvůrci a společnostmi zabývajícími se umělou inteligencí.

Zhao nabízí nástroje, které chrání kreativitu před velkými korporacemi, a doufá, že tak posílí umělce v udržení kontroly nad svými díly a předefinuje etické normy kolem umělé inteligence a duševního vlastnictví, uvádí MIT.

Tato snaha nabývá na síle, ale někteří experti varují, že tyto nástroje nemusí nabídnout stoprocentní ochranu, jelikož hackeři a vývojáři umělé inteligence hledají způsoby, jak tato ochranná opatření obejít, jak poznamenává MIT.

Se zpřístupněním Glaze a Nightshade zdarma, SAND Lab pod vedením Zhao stále vévodí v obraně umělecké integrity proti rostoucímu vlivu tvorby obsahu řízeného umělou inteligencí.

Líbil se Vám tento článek?
Ohodnoťte jej!
Nesnášel jsem ho Opravdu se mi nelíbí Byl v pořádku Docela dobrý! Absolutně úžasný!

Jsme rádi, že se vám náš článek líbil!

Věnujte nám prosím chvilku a zanechte nám hodnocení na portálu Trustpilot. Vaší zpětné vazby si velmi vážíme. Děkujeme za vaši podporu!

Ohodnotit na portálu Trustpilot
0 Hlasovalo 0 uživatelů
Titulek
Komentář
Děkujeme za vaši zpětnou vazbu
Loader
Please wait 5 minutes before posting another comment.
Comment sent for approval.

Zanechat komentář

Loader
Loader Zobrazit více...