Google wypuści nowe narzędzia AI w wyścigu z ChatGPT i Microsoftem

Google (NASDAQ: GOOGL) ma wypuścić nowe narzędzia AI ogólnego przeznaczenia, aby „pomagać ludziom w osiągnięciu pełnego potencjału”. W obliczu ostrej konkurencji ze strony projektów takich jak OpenAI/ChatGPT i Microsoft (NASDAQ: MSFT), firma twierdzi, że zaprezentuje „PaLM 2”, ważną aktualizację swojego dużego modelu językowego (LLM) PaLM, a także nowe funkcje wyszukiwania, Bard osobiste narzędzie do współpracy i oprogramowanie do rozpoznawania obrazów Google Lens.

Ponieważ sztuczna inteligencja (AI) jest obecnie jednym z najgorętszych modnych słów w branży IT, rozpoczął się wyścig między technologicznymi gigantami, aby ulepszyć swoje narzędzia online za pomocą najnowocześniejszych osiągnięć. Użytkownicy zauważyli już odpowiedzi AI zawarte w wynikach wyszukiwania i nowe interaktywne funkcje czatu dodane do sieci społecznościowych.

PaLM koncentruje się na medycynie / opiece zdrowotnej, a najnowsza iteracja nosi nazwę „Med-PaLM 2”. Google twierdzi, że był to pierwszy LLM, który osiągnął poziom „eksperta” w zbiorze danych MedQA pytań opartych na egzaminie medycznym w USA, uzyskując wynik 85%.

Bard jest generatywnym chatbotem AI (tj. potrafi tworzyć zrozumiały tekst i obrazy) opartym na rodzinie LaMDA LLM. Jest to wynik reakcji Google „code red” na popularność ChatGPT, która przyciągnęła uwagę mediów głównego nurtu w konwersacyjnych usługach AI od czasu jej uruchomienia w listopadzie 2022 r. Bard nadal nie jest dostępny do użytku publicznego, a zainteresowani muszą zapisz się na listę oczekujących, aby uzyskać wczesny dostęp.

Możliwości sztucznej inteligencji zaczną pojawiać się w innych usługach Google, takich jak Gmail, Meet i aplikacje Dokumentów Google, takie jak Prezentacje i Arkusze. Google twierdzi, że są one wciąż w fazie testów i na razie będą ograniczone do „niewielkiej liczby użytkowników”.

Google stworzyło również zestaw „zasad sztucznej inteligencji”, aby zapewnić, że jego usługi są przydatne i „bezpieczne” dla wszystkich. Sporządziła listę siedmiu kluczowych zasad: „Bądź społecznie korzystny; Unikaj tworzenia lub wzmacniania nieuczciwych uprzedzeń; Bądź zbudowany i przetestowany pod kątem bezpieczeństwa; Bądź odpowiedzialny przed ludźmi; Uwzględnij zasady projektowania prywatności; Przestrzegać wysokich standardów doskonałości naukowej; i być udostępniane do zastosowań zgodnych z tymi zasadami.” Firma zobowiązała się nie rozwijać technologii AI, które mogą „spowodować ogólne szkody”, produkować broń lub narzędzia inwigilacyjne lub łamać prawo. Sam Bard jest ograniczony do użytkowników powyżej 18 roku życia.

Co to jest „duży model językowy”?

Powszechnie określane jako „LLM”, duże modele językowe to narzędzia sieci neuronowych zbudowane do użytku ogólnego lub przynajmniej do szerokiego zakresu przypadków użycia. Jak sama nazwa wskazuje, są szkoleni na bardzo dużych próbkach danych tekstowych, przy użyciu metody tokenizacji do mapowania próbek tekstu z liczbami całkowitymi w celu określenia najlepszych odpowiedzi. Zbiory danych, których używają, byłyby o wiele za duże, aby jakikolwiek człowiek mógł je skonsumować i przetrawić przez całe życie.

Biorąc pod uwagę konieczność „wyszkolenia” LLM na miliardach próbek i kosztach obliczeniowych (w pieniądzach i zasobach), budowanie ich jest niezwykle kosztownym zadaniem. Tym samym zadanie to stało się domeną największych firm technologicznych.

Postępy w zakresie umiejętności LLM nadeszły szybciej niż przewidywano. Jest to niezwykłe w branży technologicznej i jest odpowiedzialne za wiele szumu medialnego wokół sztucznej inteligencji w latach 2022-23. Niektóre LLM wykazały zdolność „uczenia się nowych zadań bez szkolenia” i budowania własnych „modeli mentalnych” światów, które opisują. Są one dalekie od doskonałości i chociaż Google i OpenAI regularnie podkreślają rozwojowy charakter LLM i sztucznej inteligencji, błędy, postrzegane uprzedzenia i jawne „halucynacje” chatbotów często przyciągają tyle samo uwagi, co sukcesy. ChatGPT często zwraca różne odpowiedzi na ten sam monit i czasami wykazuje tendencję do „pochlebiania” swoim użytkownikom, odzwierciedlając ich indywidualne opinie. Użytkownicy próbowali również „złamać” LLM, prosząc ich o zachowanie się poza charakterem lub zlekceważenie części ich danych szkoleniowych.

Wezwania do dostrojenia tych technologii pod kątem „bezpieczeństwa” pochodzą od rządów i ogółu społeczeństwa. Wcześniejsze próby udostępnienia narzędzi do konwersacji ogółowi społeczeństwa sprawiły, że wielu testerów natychmiast pracowało nad wygenerowaniem najbardziej sensacyjnych odpowiedzi — w obecnej erze oznacza to zwykle reakcje uważane za obraźliwe lub rasistowskie, pozornie brutalne, nadmiernie antropomorficzne, a nawet mizantropijne. Jednak wysiłki świadomych wizerunku korporacji mające na celu dostrojenie odpowiedzi na czacie doprowadziły do ​​oskarżeń o społeczno-polityczne uprzedzenia na rzecz „zatwierdzonych narracji” i pełzającego podejrzenia, że ​​dane szkoleniowe AI i odpowiedzi są „podkręcane”, aby dawały odpowiedzi uważane za akceptowalne do interesów finansowania rozwoju.

Definicje tego, co jest „akceptowalne”, są często z natury subiektywne, a procesy opracowywania danych szkoleniowych i odpowiedzi były nieprzejrzyste, głównie z powodu poufności i konkurencji między firmami prywatnymi — oraz wszelkich powiązań rządowych, jakie mogą mieć.

Sztuczna inteligencja i blockchain

Naukowcy zajmujący się sztuczną inteligencją, w tym Konstantinos Sgantzos, Ian Grigg i Mohamed Al Hemairy, opowiadają się za wykorzystaniem łańcucha bloków z dużymi możliwościami przetwarzania danych, takimi jak BSV, do szkolenia LLM (zaprojektowanych w celu ułatwienia naturalnie brzmiących rozmów), przechowywania elementów do trenowania bardziej zaawansowanych maszyn Procesy uczenia się, a nawet stanowią podstawę sztucznej inteligencji ogólnej (AGI). Prawdziwe AGI są obecnie nadal hipotetyczną koncepcją i byłyby w stanie dorównać ludziom i / lub zwierzętom pod względem zdolności poznawczych – lub je przewyższyć.

„Podobieństwo okablowania ludzkiego mózgu do obecnej topologii wykresu sieci Bitcoin jest niezwykłe” – napisali w artykule z 2022 roku. Programiści mogą nie tylko służyć jako niezawodna i trwała platforma do przechowywania danych treningowych, ale także używać języka Bitcoin Script do budowania „perceptronów” (obliczalnej reprezentacji neuronu) jako kontraktów stanowych w celu weryfikacji informacji. Xiaohui Liu i jego zespół w sCrypt dostarczyli już podstawowych demonstracji tej zdolności, używając łańcucha bloków BSV do uruchomienia automatu komórkowego „Game of Life”.

Większość łańcuchów bloków, z ograniczonymi możliwościami skalowania, nie byłaby w stanie przetwarzać transakcji kontraktowych ani obsługiwać bardzo dużych ilości danych niezbędnych do tych zadań. BSV ma nieograniczoną zdolność skalowania i prawdopodobnie może stać się kluczowym narzędziem do rozwoju sztucznej inteligencji przy bardziej przystępnych poziomach kosztów.

CoinGeek Cotygodniowa transmisja na żywo: Przyszłość sztuki generowanej przez sztuczną inteligencję na Aym

Autor : BitcoinSV.pl

Źródło : Google to release new AI tools in race against ChatGPT and Microsoft – CoinGeek



Author: BitcoinSV.pl
CEO