Parlament UE uchwala przełomową ustawę o sztucznej inteligencji

W głosowaniu, które odbyło się w środę, parlament Unii Europejskiej zatwierdził unijną ustawę o sztucznej inteligencji 523 głosami za, 46 przeciw i 49 głosami nieoddanymi.

Ustawa, w ramach której osiągnięto porozumienie w grudniu ubiegłego roku, wprowadza ramy regulacyjne, które kategoryzują aplikacje AI na podstawie postrzeganego przez nie poziomu ryzyka. Aplikacje niższego ryzyka, takie jak filtry spamu i systemy rekomendacji treści, podlegają minimalnym regulacjom; w celu zapewnienia przejrzystości aplikacje te muszą ujawniać wykorzystanie sztucznej inteligencji. Systemy sztucznej inteligencji wysokiego ryzyka, zwłaszcza te wdrażane we wrażliwych sektorach, takich jak opieka zdrowotna, edukacja i usługi publiczne, podlegają rygorystycznym wymogom regulacyjnym; systemy te muszą zawierać szczegółową dokumentację swoich procesów i muszą obejmować obowiązkowy element nadzoru ludzkiego nad ich operacjami.

Ustawa nakłada również całkowity zakaz niektórych zastosowań sztucznej inteligencji, takich jak systemy punktacji społecznej, policja predykcyjna i systemy rozpoznawania emocji w szkołach i miejscach pracy; każda z tych aplikacji jest zabroniona ze względu na możliwość naruszenia wolności i praw jednostki. Dodatkowo ustawa ogranicza wykorzystanie sztucznej inteligencji do identyfikacji biometrycznej
przez policję w przestrzeni publicznej, z wyjątkiem przypadków dotyczących poważnych przestępstw, takich jak terroryzm lub porwanie.

Wdrażanie ustawy o sztucznej inteligencji ma się rozpocząć w 2025 r., po ostatecznym zatwierdzeniu przez państwa członkowskie UE. Oczekuje się, że proces ten zakończy się oficjalnym przyjęciem ustawy, ponieważ uzyskała ona już poparcie organu ustawodawczego.

„Ustawa o sztucznej inteligencji popchnęła rozwój sztucznej inteligencji w kierunku, w którym ludzie mają kontrolę nad technologią i w której technologia pomoże nam wykorzystać nowe odkrycia na rzecz wzrostu gospodarczego i postępu społecznego oraz uwolnienia ludzkiego potencjału” – napisał na Twitterze Dragos Tudorache, rumuński poseł, który był współliderem negocjacji parlamentarnych nad projektem ustawy.

„Ustawa o sztucznej inteligencji nie jest końcem podróży, ale raczej punktem wyjścia dla nowego modelu zarządzania opartego na technologii. Musimy teraz skoncentrować naszą energię polityczną na przekształceniu jej z prawa zapisanego w księgi w rzeczywistość w terenie” – dodał.

Nasuwa się pytanie, w jaki sposób blok UE planuje przekształcić to nowe rozporządzenie w „rzeczywistość w terenie?”

Wyzwania w egzekwowaniu unijnej ustawy o sztucznej inteligencji

O ile firma nie łamie w sposób rażący lub publicznie przepisów określonych w ustawie o sztucznej inteligencji, zidentyfikowanie, a następnie ukaranie firm, które nie przestrzegają przepisów, może być trudne.

Wiele zastrzeżonych technologii opracowuje się za zamkniętymi drzwiami lub „w ukryciu”. Tajemnica ta może jeszcze bardziej skomplikować nadzór regulacyjny, utrudniając władzom rozpoznanie, czy firma wdraża systemy sztucznej inteligencji naruszające nowe przepisy.

Ponadto, podobnie jak w przypadku każdego nowego prawa lub regulacji, które można uznać za zaporowe dla dowolnej branży, ustawa o sztucznej inteligencji może spowodować, że niektóre firmy przeniosą swoją działalność poza UE, aby uniknąć kosztów przestrzegania przepisów i potencjalnych problemów prawnych. Inni mogą ponownie rozważyć udostępnienie swoich produktów lub usług na rynku UE.

Jeśli jednak okaże się, że firma nie przestrzega przepisów, będzie musiała zapłacić karę w wysokości od 1,5% do 7% (maksymalnie 35 milionów euro [37 milionów dolarów]) swoich globalnych przychodów.

Globalny standard regulacji sztucznej inteligencji?

Blok UE to pierwsza grupa krajów, która przyjęła nowy, kompleksowy zestaw przepisów dotyczących przestrzeni sztucznej inteligencji. Blok ma nadzieję, że ustawa o sztucznej inteligencji utoruje drogę i będzie punktem odniesienia dla innych krajów aktywnie tworzących przepisy dotyczące sztucznej inteligencji.

Nie wiadomo jeszcze, czy inne kraje będą czerpać inspirację z UE. Wiadomo, że w politykach wywodzących się z UE na pierwszym miejscu stawia się rezydencje/obywateli, chroniąc tę grupę osób kosztem przedsiębiorstw działających w docelowym sektorze. Jest to podejście znacznie odmienne od tego, które zwykle obserwujemy, gdy w Stanach Zjednoczonych tworzone są nowe przepisy i regulacje. Nowa polityka wywodząca się z Ameryki zwykle bierze pod uwagę biznes, możliwości handlowe i innowacje, zanim rozważy, czy obywatele i mieszkańcy USA mają wystarczający poziom ochrony.

Powszechnie jednak wiadomo, że inne kraje przyglądają się sztucznej inteligencji i chcą stworzyć politykę, która ograniczy szkody, jakie systemy sztucznej inteligencji mogą wyrządzić społeczeństwu. W Ameryce administracja Bidena wydała rozporządzenie wykonawcze w sprawie sztucznej inteligencji, które nakazywało utworzenie kilku programów, organizacji i komitetów w celu zwiększenia prawdopodobieństwa odpowiedzialnego tworzenia, obsługi i dystrybucji systemów sztucznej inteligencji, przy jednoczesnym łagodzeniu negatywnych skutków, jakie może wywołać sztuczna inteligencja mieć na świecie.

Ponadto, ponieważ rok 2024 to ważny rok wyborczy dla wielu krajów na całym świecie, nadzór nad sztuczną inteligencją i tworzenie wytycznych dotyczących sztucznej inteligencji będą zyskiwać na znaczeniu, a większa część toczących się rozmów dotyczy sztucznej inteligencji.

Na początku tego roku zaobserwowaliśmy, że pojedyncze osoby wykorzystują generatywną sztuczną inteligencję do prowadzenia kampanii dezinformacyjnych/dezinformacyjnych na temat kandydatów w nadchodzących wyborach. Na drugim końcu równania znalazły się firmy tworzące generatywne systemy sztucznej inteligencji, takie jak Meta (NASDAQ: META), próbujące zachować proaktywność, wprowadzając zabezpieczenia, które pozwalają odbiorcom i organizacjom szybko określić, czy oglądana przez nich treść jest legalne lub zostało wygenerowane przez sztuczną inteligencję lub sztuczną inteligencję zmanipulowaną w sposób naruszający zasady platformy.

Wykorzystywanie sztucznej inteligencji do nielegalnych działań oraz polityka i regulacje dotyczące sztucznej inteligencji będą się zwiększać jedynie w miarę ewolucji systemów sztucznej inteligencji na całym świecie i zwiększania ich możliwości.

Aby sztuczna inteligencja (AI) działała zgodnie z prawem i prosperowała w obliczu rosnących wyzwań, musi zintegrować korporacyjny system blockchain, który zapewni jakość wprowadzanych danych i własność, umożliwiając im bezpieczeństwo danych, a jednocześnie gwarantując niezmienność danych. Sprawdź relacje CoinGeek na temat tej powstającej technologii, aby dowiedzieć się więcej, dlaczego łańcuch bloków korporacyjnych będzie podstawą sztucznej inteligencji.

Obejrzyj: Co wspólnego ma blockchain i sztuczna inteligencja? To dane

Autor : BitcoinSV.pl

Źródło : EU Parliament passes landmark AI Act – CoinGeek

Author: BitcoinSV.pl
CEO