ChatGPT nie może wykryć luk w inteligentnych kontraktach: badanie

Zespół badaczy stwierdził, że ChatGPT może pisać inteligentne kontrakty, ale programiści muszą unikać używania ich do audytowania swojego kodu.

Naukowcy z firmy Salus Security zajmującej się bezpieczeństwem blockchain ocenili zdolność GPT-4, najpotężniejszego modelu dużego języka (LLM) OpenAI, do audytowania inteligentnych kontraktów. Doszli do wniosku, że chociaż współczynnik precyzji wykrywania luk w zabezpieczeniach jest wysoki, wskaźnik przypominalności jest niebezpiecznie niski jak na narzędzie do inteligentnej kontroli umów.

W niedawno opublikowanym badaniu obaj badacze wybrali osiem zestawów inteligentnych kontraktów, które zawierały 18 typów luk w zabezpieczeniach (łącznie 60). Ich celem była ocena, czy LLM OpenAI może naśladować profesjonalnego audytora i czy jest w stanie przeanalizować kod i odkryć luki.

Badacze odkryli, że GPT-4 wykrył siedem rodzajów luk z dużą precyzją przekraczającą 80%. Jednak współczynnik jego przypominania był uderzająco niski we wszystkich zestawach danych, najniższy wyniósł około 11%, co sugeruje, że „że GPT-4 może przeoczyć pewne luki w zabezpieczeniach podczas wykrywania”.

Współczynnik przypominania to procent próbek danych, które model może poprawnie zidentyfikować jako należące do klasy, w stosunku do całkowitej próbki lub współczynnika prawdziwie dodatniego. Precyzja to stosunek wyników prawdziwie pozytywnych do wyników prawdziwie i fałszywie pozytywnych lub liczba śmieciowych wyników pozytywnych uwzględnionych w zbiorze danych.

Badacze wskazali, że wyniki wskazują, że możliwości wykrywania podatności przez GPT-4 są poniżej normy i należy go używać wyłącznie jako narzędzia pomocniczego w audytowaniu inteligentnych kontraktów.

„Podsumowując, GPT-4 może być użytecznym narzędziem pomagającym w audytowaniu inteligentnych kontraktów, szczególnie w analizowaniu kodu i dostarczaniu wskazówek na temat luk w zabezpieczeniach. Jednak biorąc pod uwagę ograniczenia w wykrywaniu podatności, nie może obecnie w pełni zastąpić profesjonalnych narzędzi audytowych i doświadczonych audytorów” – podsumowali badacze.

Najnowsze badanie potwierdza inne ustalenia, które odrzucają twierdzenia, że sztuczna inteligencja (AI) zastąpi programistów. Coraz popularniejsze stają się wyspecjalizowane narzędzia oparte na sztucznej inteligencji
coraz lepiej radzą sobie z pisaniem kodu i wykrywaniem luk w zabezpieczeniach, nadal nie można na nich polegać, zwłaszcza w świecie zasobów cyfrowych, gdzie wykrywana jest najmniejsza luka.

Aby sztuczna inteligencja (AI) działała zgodnie z prawem i prosperowała w obliczu rosnących wyzwań, musi zintegrować korporacyjny system blockchain, który zapewni jakość wprowadzanych danych i własność, umożliwiając im bezpieczeństwo danych, a jednocześnie gwarantując niezmienność danych. Sprawdź relacje CoinGeek na temat tej powstającej technologii, aby dowiedzieć się więcej, dlaczego łańcuch bloków korporacyjnych będzie podstawą sztucznej inteligencji.

Obejrzyj: Czy sztuczna inteligencja wie, co robi?

Autor : BitcoinSV.pl

Źródło : ChatGPT unable to detect smart contract vulnerabilities: study – CoinGeek

Author: BitcoinSV.pl
CEO