Departament Sprawiedliwości Stanów Zjednoczonych zwiększa nacisk na egzekwowanie prawa opartego na sztucznej inteligencji

Departament Sprawiedliwości Stanów Zjednoczonych (DOJ) coraz bardziej skupia się na sztucznej inteligencji (AI), wydając 5 marca najważniejsze oficjalne ostrzeżenie, że firmy i osoby fizyczne, które niewłaściwie wykorzystują tę technologię do celów przestępczości umysłowej, na przykład zmowy cenowej, oszustw, lub manipulacji na rynku, będą narażeni na zwiększone ryzyko surowszej kary.

„Najbardziej przełomowa technologia – sztuczna inteligencja – wydaje się być większa niż kiedykolwiek” – powiedziała zastępca prokuratora generalnego Lisa Monaco.

„Wszystkie nowe technologie to miecz obosieczny, ale sztuczna inteligencja może być najostrzejszym ostrzem w historii. Stwarza wielką obietnicę poprawy naszego życia, ale wiąże się z wielkim niebezpieczeństwem, gdy przestępcy wykorzystują go do wzmocnienia swojej nielegalnej działalności, w tym przestępczości korporacyjnej”.

Komentarze pojawiły się po wygłoszeniu przez Monako przemówień głównych w 39. Narodowym Instytucie ds. Przestępczości Urzędniczej Amerykańskiej Izby Adwokackiej.

Skorzystała również z okazji i oświadczyła, że Departament Sprawiedliwości zwiększy swoje wysiłki w zakresie monitorowania tego obszaru.

„Pracując nad odpowiedzialnym wykorzystaniem zalet sztucznej inteligencji, jesteśmy wyczuleni na związane z nią zagrożenia i będziemy wykorzystywać nasze narzędzia w nowy sposób, aby im zaradzić” – stwierdziło Monako. „Żeby było jasne: oszustwa wykorzystujące sztuczną inteligencję to nadal oszustwo; ustalanie cen przy użyciu sztucznej inteligencji jest nadal ustalaniem cen; a manipulowanie rynkami za pomocą sztucznej inteligencji jest nadal manipulacją rynkiem. Dostajesz obraz.”

Surowsze wyroki dla osób nadużywających technologii w celu uzyskania korzyści finansowych lub do przestępstwa to kolejny ważny wniosek z przemówienia zastępcy prokuratora generalnego.

„Od dawna korzystamy z zaostrzenia wymiaru kary, starając się zwiększyć kary dla przestępców, których postępowanie stwarza szczególnie poważne ryzyko dla ofiar i ogółu społeczeństwa, np. zaostrzyć kary dla przestępców używających broni palnej lub innej niebezpiecznej broni” – stwierdziło Monako.

„Ta sama zasada dotyczy sztucznej inteligencji. Tam, gdzie sztuczna inteligencja jest celowo wykorzystywana do znacznego pogorszenia przestępstwa umysłowego, nasi prokuratorzy będą domagać się surowszych wyroków – zarówno dla oskarżonych indywidualnych, jak i korporacyjnych”.

Porównanie użycia niebezpiecznej broni w brutalnych przestępstwach z wykorzystaniem sztucznej inteligencji w przestępczości umysłowej podkreśla powagę, z jaką Departament Sprawiedliwości podchodzi do szybko rozwijającej się technologii.

Być może nieprzypadkowo komentarze pojawiły się dzień po wypowiedzi Departamentu Sprawiedliwości
ogłosił zarzuty wobec Linwei Dinga, alias Leona Dinga, byłego inżyniera oprogramowania Google (NASDAQ: GOOGL), oskarżonego o kradzież tajemnic handlowych dotyczących sztucznej inteligencji podczas potajemnej pracy dla dwóch chińskich firm.

Podczas swojego przemówienia w ubiegły wtorek w San Francisco Monako również skorzystało z okazji, aby ostrzec inspektorów ds. zgodności, aby zwrócili uwagę na:

„Poleciłem Wydziałowi Karnemu włączenie oceny ryzyk związanych z przełomową technologią – w tym ryzyka związanego ze sztuczną inteligencją – do swoich wytycznych dotyczących oceny korporacyjnych programów zgodności” – oznajmiło Monako.

„Kiedy nasi prokuratorzy oceniają program zgodności firmy – tak jak ma to miejsce w przypadku wszystkich uchwał korporacyjnych – biorą pod uwagę, jak dobrze program ogranicza najważniejsze ryzyka firmy. A w przypadku coraz większej liczby firm oznacza to obecnie ryzyko niewłaściwego wykorzystania sztucznej inteligencji”.

Dodała, że w przyszłości prokuratorzy będą oceniać zdolność firmy do zarządzania ryzykiem związanym z sztuczną inteligencją w ramach ogólnych wysiłków na rzecz zapewnienia zgodności.

Sztuczna inteligencja jest od jakiegoś czasu w programie Departamentu Sprawiedliwości. Monako ogłosiło niedawno nową inicjatywę o nazwie „Justice AI” podczas lutowego przemówienia na Uniwersytecie Oksfordzkim. Obejmuje serię spotkań z zainteresowanymi stronami z branży, środowiskiem akademickim, organami ścigania i społeczeństwem obywatelskim „w celu zajęcia się wpływem sztucznej inteligencji”.

Pierwsza sesja dyskusyjna inicjatywy „Justice AI” została zwołana w Bay Area tego samego dnia, w którym Monako wygłosiła przemówienie przed American Bar Association.

„Wykorzystamy te rozmowy, aby poinformować Departament o polityce sztucznej inteligencji na różnych frontach, w tym o kwestiach zgodności z przepisami korporacyjnymi, o rozpatrzenie których poprosiłem Wydział Karny” – powiedział Monako.

Aby sztuczna inteligencja (AI) działała zgodnie z prawem i prosperowała w obliczu rosnących wyzwań, musi zintegrować korporacyjny system blockchain, który zapewni jakość wprowadzanych danych i własność, umożliwiając im bezpieczeństwo danych, a jednocześnie gwarantując niezmienność danych. Sprawdź relacje CoinGeek na temat tej powstającej technologii, aby dowiedzieć się więcej, dlaczego łańcuch bloków korporacyjnych będzie podstawą sztucznej inteligencji.

Obejrzyj: Kurs mistrzowski AI Forge — dlaczego sztuczna inteligencja i łańcuch bloków to potęgi technologiczne

Autor : BitcoinSV.pl

Źródło : US Justice Department increases focus on artificial intelligence enforcement – CoinGeek

Author: BitcoinSV.pl
CEO