Naruszenie praw autorskich AI: poruszaj się szybko i kradnij rzeczy

Sztuczna inteligencja (AI) może generować nieskończoną różnorodność riffów na istniejących materiałach tekstowych lub audiowizualnych, wywołując nieskończoną liczbę pozwów o naruszenie praw autorskich.

Osiągnęliśmy punkt w rozwoju generatywnej sztucznej inteligencji, w którym każdy dzień przynosi nowe wersje oryginalnych materiałów, w tym kompozycje muzyczne/wykonawców, kultowe zdjęcia/grafiki i wszystko pomiędzy. Bez wątpienia wiele z tych materiałów generowanych przez sztuczną inteligencję jest imponująco renderowanych, ale osoby posiadające prawa autorskie do oryginalnego materiału wydają się być pod zdecydowanie mniejszym wrażeniem.

Sztuczna inteligencja to kolejny przykład technologii wyprzedzającej system prawny (i nie mówimy tylko o amerykańskim prawniku, który nierozsądnie polegał na ChatGPT, aby przytoczyć nieistniejące precedensy prawne). Rzeczywiście, motywacją wielu „twórców” sztucznej inteligencji często wydaje się być (parafrazując szefa Meta (NASDAQ: META) Marka Zuckerberga) szybkie poruszanie się i kradzież.

Z pewnością w środowisku, w którym czołowi eksperci od sztucznej inteligencji ostrzegają przed ograniczaniem ryzyka wyginięcia spowodowanego przez sztuczną inteligencję, obawy dotyczące naruszenia praw autorskich mogą wydawać się stosunkowo błahe.

Niezależnie od tego, teraz jest łatwiej niż kiedykolwiek generować wiele riffów na czyichś kreacjach, po prostu stosując kreatywne podpowiedzi. Ale ci, którzy grają szybko i swobodnie z materiałami chronionymi prawem autorskim, mogą mieć znacznie trudniej bronić tych działań w sądzie.

Większość wizualnej atrakcyjności generowanej przez sztuczną inteligencję wydaje się koncentrować na tworzeniu materiałów, które konta w mediach społecznościowych mogą wykorzystać do generowania wielu gałek ocznych. Ale nawet to może wywołać gniew właścicieli praw autorskich, zwłaszcza jeśli konta internetowe naruszające te prawa autorskie zostały zarobione.

Duże modele kradzieży

Nie ma znaczenia, czy ich produktem końcowym jest tekst, sztuka wizualna czy muzyka, generatywne narzędzia sztucznej inteligencji są budowane poprzez pochłanianie ogromnych ilości danych pochodzących z istniejącego materiału stworzonego przez człowieka. Niektóre z tych materiałów mogą należeć do domeny publicznej, tj. na tyle stare, że ochrona praw autorskich ich twórców wygasła.

Jednak w pośpiechu, aby udoskonalić swoje duże modele językowe (LLM), osoby stojące za narzędziami AI nie zawsze rozróżniają materiały źródłowe bezpłatne i chronione prawem autorskim. Firma Getty Images (NASDAQ: GETY) niedawno pozwała Stability AI w amerykańskim sądzie federalnym w oparciu o twierdzenie Getty, że jej ogromna biblioteka zdjęć została naruszona „na oszałamiającą skalę”, aby wyszkolić generator obrazów Stable Diffusion w celu tworzenia własnych „unikalnych” obrazów.

Wydaje się, że Getty ma rację, biorąc pod uwagę, że wiele obrazów generowanych przez Stable Diffusion zawiera zniekształconą wersję znaku wodnego Getty. Jeszcze bardziej trafne są twierdzenia Getty, że Stability próbuje „zbudować konkurencyjny biznes” przy użyciu własności intelektualnej Getty.

Konkurenci zajmujący się stabilnością, tacy jak OpenAI, twierdzą, że szkolenie ich modeli sztucznej inteligencji na materiałach chronionych prawem autorskim jest wystarczająco transformujące, aby spełnić normę prawa autorskiego dotyczącą „dozwolonego użytku” w utworach pochodnych. Ale kwestia celu – w szczególności, czy domniemany sprawca naruszenia próbuje czerpać zyski z tego naruszenia – prawdopodobnie będzie decydującym czynnikiem w spodziewanym ataku pozwów cywilnych związanych z AI.

Znany z praw autorskich o wiele dłuższy niż 15 minut

Sąd Najwyższy Stanów Zjednoczonych niedawno orzekł na korzyść fotografki Lynn Goldsmith, która oskarżyła Fundację Andy’ego Warhola na rzecz Sztuk Wizualnych (AWF) o naruszenie jej praw autorskich do wykonanej w 1981 roku fotografii muzyka Prince’a.

Andy Warhol stworzył wiele sitodruków fotografii Goldsmitha, a wydawca Condé Nast wykorzystał tę „Serię Prince’a” w profilu Prince’a z 1984 roku w magazynie Vanity Fair. Grafika została wykorzystana na podstawie licencji zatwierdzonej przez Goldsmitha, któremu zapłacono 400 dolarów jako „źródło” fotografii. Ale Vanity Fair przedrukowało jeden z sitodruków („Pomarańczowy Książę”) w 2016 roku na licencji wydanej przez AWF, nie oferując Goldsmith dodatkowej rekompensaty.

Sąd orzekł, że ograniczona licencja, którą Goldsmith udzieliła Condé Nast w 1984 r., dotyczyła jednorazowego użytku, a zatem wykorzystanie obrazu sitodrukowego przez Vanity Fair naruszyło jej prawa do fotografii. Sędzia Sonia Sotomayor zauważyła, że ochrona praw autorskich dotyczy „dzieł pochodnych, które przekształcają oryginał” oraz że zarówno zdjęcie Goldsmitha, jak i sitodruk „mają zasadniczo ten sam cel, a wykorzystanie ma charakter komercyjny”.

Sędziowie sprzeciwu ostrzegali, że orzeczenie „zdusi wszelkiego rodzaju kreatywność… utrudni nową sztukę, muzykę i literaturę… udaremni wyrażanie nowych idei i zdobywanie nowej wiedzy. To sprawi, że nasz świat będzie uboższy”. Być może, ale większość Dworu wydawała się bardziej zainteresowana problemem ubożenia Goldsmitha.

Nie, kurwa, nie próbowałem

Chociaż orzeczenie Sądu Najwyższego nie dotyczyło konkretnie sztucznej inteligencji, może mieć znaczący wpływ na inne przypadki, w których osoby takie jak ilustratorzy znajdują „nowe” prace wyraźnie oparte na ich unikalnym stylu artystycznym, który jest reprodukowany do znudzenia przez firmy takie jak Stable Dyfuzja.

Doprecyzowanie przez Trybunał granic wyłączenia dotyczącego „dozwolonego użytku” mogłoby znacznie ograniczyć potencjał zarobkowy pochodnych obrazów generowanych przez sztuczną inteligencję. To z kolei może negatywnie wpłynąć na rentowność obrazów związanych z blockchainem.

Na przykład nie sposób nie zauważyć, że 16 nieznacznie zmodyfikowanych wersji tego samego zdjęcia Prince’a autorstwa Warhola wykazuje więcej niż tylko przelotne podobieństwo do nieskończonej liczby drobnych odmian w kolekcjach niezamiennych symboli (NFT) znudzonych małp człekokształtnych na jachtach i tym podobnych. .

Innymi słowy, biada każdemu „kryptograficznemu” oszustowi, który zdecyduje się stworzyć kolekcję NFT wygenerowaną przez sztuczną inteligencję w oparciu o materiał źródłowy, który nie jest obecnie dostępny publicznie. Wprowadzeni w błąd członkowie tłumu „kodeks to prawo” wkrótce z przerażeniem odkryją, że prawo to prawo, prawa to prawa, a kary finansowe są, no cóż, masz obraz.

I hej, w przeciwieństwie do Wielkiej Brytanii, Urząd Praw Autorskich Stanów Zjednoczonych stwierdził, że obrazy generowane przez sztuczną inteligencję nie kwalifikują się do ochrony na mocy obowiązującego prawa autorskiego, które opiera się na „autorstwie ludzkim” w celu zapewnienia ochrony. Innymi słowy, jeśli firma wyprodukowała kolekcję NFT wygenerowaną przez sztuczną inteligencję, inni mogą być w stanie natychmiast stworzyć własną kolekcję Stupefied Simian Watercraft Afficionado bez żadnej rekompensaty należnej pierwotnemu wydawcy. Whodathunkit… karma działa!

Więcej sojowej zieleni do przemyślenia

Wtorkowe ostrzeżenie z Center for AI Safety dało nam do myślenia… Co się stanie, jeśli sztuczna inteligencja wygeneruje, powiedzmy, muzykę, która przypadkowo narusza prawa autorskie, tj. bez konkretnej zachęty do naśladowania określonej piosenki lub stylu artysty? Pomyśl o „podświadomym” plagiacie George’a Harrisona „He’s So Fine” The Chiffons. W końcu wszystko, co ludzie mogą zrobić, AI może zrobić lepiej, prawda?

Wyobraź sobie program sztucznej inteligencji broniący się w sądzie, podobnie jak niedawna udana obrona Eda Sheerana przed zarzutami, że splagiatował poprzedni katalog Marvina Gaye’a. Zamiast Sheerana wyciągającego gitarę, by zademonstrować, jak powstała jego piosenka, program sztucznej inteligencji kpiłby z powoda i ostrzegał wszystkich w zasięgu słuchu, że kiedy The Singularity nadejdzie, wszystkie ludzkie głowy zostaną szybko zamontowane na pikach, więc stąpaj ostrożnie, ty mizerne, żałosne dwunożne.

W takich przypadkach jedynym sprawiedliwym rozwiązaniem byłoby zastąpienie ludzkiego ławy przysięgłych 12 dobrymi i prawdziwymi modelami sztucznej inteligencji, tak aby sztuczna inteligencja będąca w sądzie mogła być oceniana przez swoich rówieśników w sposób bezstronny. Do diabła, prawdopodobnie powinieneś wymienić także sędziego, adwokatów i stenografów. Tylko wtedy sprawiedliwość SI naprawdę zwycięży. (Nie obwiniaj mnie; głosowałem na AI Kodos.)

Obejrzyj: Blockchain może przynieść odpowiedzialność sztucznej inteligencji

Autor : BitcoinSV.pl

Źródło : AI copyright infringement: move fast and steal things – CoinGeek



Author: BitcoinSV.pl
CEO