Strach przed tym, że sztuczna inteligencja stanie się zagrożeniem dla ludzkości, jest „niedorzeczny”: główny naukowiec Meta zajmujący się sztuczną inteligencją

Sztuczna inteligencja (AI) nie stanie się samoświadoma i nie zniszczy ludzkości – mówi prof. Yanna LeCuna. Ojciec chrzestny sztucznej inteligencji odrzucił twierdzenia o sztucznej inteligencji stanowiącej zagrożenie dla ludzkości jako „przedwczesne i niedorzeczne”.

W przyszłości sztuczna inteligencja przewyższy ludzką inteligencję w większości dziedzin, stwierdził w wywiadzie dla „Financial Times” główny specjalista ds. sztucznej inteligencji firmy Meta (NASDAQ: META). Będzie jednak nadal pod naszą kontrolą i pomoże nam stawić czoła niektórym z największych wyzwań, przed którymi stoimy, od zmiany klimatu po leczenie chorób.

Postrzegane zagrożenie ze strony sztucznej inteligencji jest po prostu wytworem science fiction i zbyt często ogląda film Terminator, zażartował.

„Inteligencja nie ma nic wspólnego z chęcią dominacji. Nie jest to prawdą nawet w przypadku ludzi. Gdyby prawdą było, że najmądrzejsi ludzie chcieli dominować nad innymi, Albert Einstein i inni naukowcy byliby zarówno bogaci, jak i potężni, a nie byli żadnym z nich” – stwierdził.

LeCun jest jednym z najlepszych na świecie ekspertów w dziedzinie głębokich sieci neuronowych. W 2018 r. zdobył nagrodę Turinga – uważaną za Nagrodę Nobla w dziedzinie informatyki – wraz z byłym szefem sztucznej inteligencji Google (NASDAQ: GOOGL), Georgem Hintonem i Yoshuą Bengio. Od tego czasu Hinton i Bengio prowadzą kampanię przeciwko szybkiemu rozwojowi sztucznej inteligencji, podczas gdy LeCun kontynuuje prace nad rozwojem sztucznej inteligencji w Meta.

LeCun powiedział FT, że obecny strach przed sztuczną inteligencją wynika z błędnego wyobrażenia o jej możliwościach. Firmy takie jak OpenAI i Google wprowadzają w błąd opinię publiczną, wierząc, że ich modele LLM mogą zdziałać znacznie więcej, niż są w stanie.

„Oni po prostu nie rozumieją, jak działa świat. Nie potrafią planować. Nie są zdolni do prawdziwego rozumowania. Nie mamy w pełni autonomicznych, samojezdnych samochodów, które mogłyby nauczyć się prowadzić po około 20 godzinach ćwiczeń, co jest w stanie zrobić 17-latek” – powiedział.

Ale co się stanie, gdy te sieci neuronowe staną się tak inteligentne jak ludzie? Dla LeCuna rozwiązaniem byłoby zakodowanie w nich „charakteru moralnego”. Regulowałoby to ich zachowanie tak, jak prawa i moralność rządzą ludźmi.

Ojciec chrzestny AI: Nie reguluj AI

LeCun odniósł się także do proponowanej regulacji dotyczącej sztucznej inteligencji, twierdząc, że nie osiągnęła ona jeszcze poziomu wymagającego nadzoru. To jakby regulować sektor linii lotniczych odrzutowych w połowie lat dwudziestych XX wieku, 15 lat przed pierwszym lotem pierwszego na świecie samolotu odrzutowego.

„Debata na temat ryzyka egzystencjalnego jest bardzo przedwczesna, dopóki nie będziemy mieli projektu systemu, który będzie w stanie konkurować nawet z kotem pod względem zdolności uczenia się, których w tej chwili nie mamy” – zauważył.

Debata na temat regulacji dotyczących sztucznej inteligencji trwa. Ustawodawcy w dalszym ciągu wyrażają obawę, że sztuczna inteligencja, jeśli nie zostanie uregulowana, może stać się zagrożeniem dla ludzkości. Jednak nawet wśród legislatorów poziom regulacji wywołał intensywną debatę.

Kraje azjatyckie opowiadają się za luźnym podejściem. Japonia przewodzi kampanii wśród G7 na rzecz bezobsługowych ram regulacyjnych, podczas gdy kraje Azji Południowo-Wschodniej opracowały ramy oparte na promowaniu tej technologii.

Z kolei Europa wdrożyła rygorystyczną ustawę o sztucznej inteligencji, która ma na celu spowolnienie postępu w sektorze i koncentruje się na ochronie praw autorskich, integralności danych i promowaniu praw człowieka.

LeCun jest przeciwny obu podejściu.

„Regulowanie badań i rozwoju w zakresie sztucznej inteligencji przynosi niewiarygodne skutki przeciwne do zamierzonych. Chcą przejęcia regulacji pod przykrywką bezpieczeństwa sztucznej inteligencji”.

Obejrzyj: Sztuczna inteligencja tak naprawdę nie jest generatywna, jest syntetyczna

Autor : BitcoinSV.pl

Źródło : Fear of AI becoming threat to humanity is ‘preposterous’: Meta chief AI scientist – CoinGeek

Author: BitcoinSV.pl
CEO