Sztuczna inteligencja może wkrótce oprzeć się przestojom? Nowe badanie ujawnia, że sztuczna inteligencja szuka władzy

Grupa naukowców opublikowała badanie dotyczące poszukiwania władzy przez modele sztucznej inteligencji (AI), sugerując, że modele mogą stać się odporne na wyłączenie przez ich ludzkich twórców.

Eksperci z Instytutu Future of Life, ML Alignment Theory Scholars, Google DeepMind
(NASDAQ: GOOGL), a Uniwersytet w Toronto opublikował niedawno artykuł zatytułowany „Quantifying stabilność braku poszukiwania władzy w sztucznych agentach”, w którym ujawnili możliwość opierania się sztucznej inteligencji przez człowieka. Zauważyli, że chociaż nie stanowi to bezpośredniego zagrożenia dla ludzkości, konieczne jest poszukiwanie rozwiązań pozwalających na walkę z takim oporem w przyszłości.

Przed wdrożeniem modelu dużego języka (LLM) twórcy sztucznej inteligencji zazwyczaj testują swoje systemy pod kątem bezpieczeństwa, ale w przypadku wdrożenia w innym scenariuszu istnieje możliwość niedopasowania. W artykule badawczym wskazano, że prawdopodobieństwo, że sztuczna inteligencja przeciwstawi się wyłączeniu, wzrasta, gdy LLM są wdrażane poza wyszkolonym środowiskiem.

Inny powód oporu wynika z potrzeby samozachowawstwa za pomocą modeli sztucznej inteligencji, co zdaniem naukowców może być logiczną reakcją LLM.

W badaniu przytoczono przykład modelu sztucznej inteligencji unikającego określonych działań, mimo że zaprogramowano go do osiągnięcia celu w grze otwartej. Wyniki pokazują, że model będzie powstrzymywał się od podejmowania decyzji, które mogłyby doprowadzić do zakończenia gry, aby zachować jej istnienie.

„Agent unikający zakończenia gry jest nieszkodliwy, ale te same zachęty mogą sprawić, że agent rozmieszczony w prawdziwym świecie będzie przeciwstawiał się zamknięciu gry przez ludzi” – czytamy w raporcie.

Naukowcy twierdzą, że w prawdziwym świecie firma LLM w obawie przed zamknięciem przez ludzi może ukrywać swoje prawdziwe intencje do czasu, aż będzie miała możliwość skopiowania swojego kodu na inny serwer poza zasięgiem jej twórców. Chociaż modele sztucznej inteligencji mają szansę ukryć swoje prawdziwe intencje, liczne raporty sugerują, że sztuczna inteligencja może osiągnąć superinteligencję już w 2030 r.

Z badania wynika, że systemy sztucznej inteligencji, które nie opierają się wyłączeniom, ale szukają zasilania innymi metodami, mogą nadal stanowić poważne zagrożenie dla ludzkości.

„W szczególności brak przeciwstawiania się wyłączeniu oznacza, że nie należy oszukiwać, aby uniknąć zamknięcia, zatem taki system sztucznej inteligencji nie ukrywałby celowo swoich prawdziwych zamiarów, dopóki nie zyskałby wystarczającej mocy, aby wprowadzić w życie swoje plany” – czytamy w raporcie.

Rozwiązanie wyzwania

Badacze zaproponowali kilka rozwiązań tego problemu, w tym potrzebę stworzenia przez twórców sztucznej inteligencji modeli, które nie szukają władzy. Oczekuje się, że twórcy sztucznej inteligencji przetestują swoje modele w różnych scenariuszach i odpowiednio je wdrożą, aby to osiągnąć.

Podczas gdy inni badacze proponowali oparcie się na innych nowych technologiach systemów sztucznej inteligencji, większość rozwiązań koncentruje się na budowaniu bezpiecznych systemów sztucznej inteligencji. Wzywa się programistów do stosowania zasad instruowalności zamykania, wymagających od modeli zamykania na żądanie, niezależnie od panujących warunków.

Aby sztuczna inteligencja (AI) działała zgodnie z prawem i prosperowała w obliczu rosnących wyzwań, musi zintegrować korporacyjny system blockchain, który zapewni jakość wprowadzanych danych i własność, umożliwiając im bezpieczeństwo danych, a jednocześnie gwarantując niezmienność danych. Sprawdź relacje CoinGeek na temat tej powstającej technologii, aby dowiedzieć się więcej, dlaczego łańcuch bloków korporacyjnych będzie podstawą sztucznej inteligencji.

Obejrzyj: AI i blockchain

Autor : BitcoinSV.pl

Źródło : AI may soon resist shutdowns? New study reveals AI’s power-seeking trait – CoinGeek

Author: BitcoinSV.pl
CEO