Czy reporterzy AI zastąpią ludzi? Czy ktoś w ogóle zauważy… lub przejmie się tym?

Na początku byłem jak „meh” – potem byłem jak „hmmm”. Mój redaktor właśnie przesłał mi link do artykułu zatytułowanego „Google testuje narzędzie sztucznej inteligencji, które jest w stanie pisać artykuły z wiadomościami”. Niepokojące było to, że dodała „lol”. Moja duma jako człowieka skłoniła mnie do głębszego zastanowienia się nad czymś: nie nad tym, czy generatywna sztuczna inteligencja mogłaby pisać artykuły (już to potrafi), ale co to oznaczałoby dla czytelników wiadomości i konsumpcji wiadomości/informacji.

Czy to może być prawda? Czy za dekadę mógłbym siedzieć w nędznym miejskim mieszkaniu, całkiem sam i bez grosza przy duszy, mając tylko zestaw gogli VR w firmie, czytając artykuły informacyjne generowane przez uczące się maszyny LLM o tym, jak Bitcoin i blockchain BSV będą napędzać cyfrową gospodarkę przyszłości? Może nawet uda mi się użyć gogli do interaktywnej dyskusji na żywo z jakimś sztucznie wygenerowanym prezenterem wiadomości, który zapewni mi wszystkie całkowicie bezstronne aktualizacje i analizy, których potrzebuję, aby pozostać optymistą.

Pisanie wiadomości wydaje się idealnym rozwiązaniem dla LLM i uczenia maszynowego. To bardzo schematyczne: pierwszy akapit zawiera „haczyk” i kluczowe punkty zainteresowania. Drugi, czyli „wykres orzechowy”, przedstawia powody, dla których artykuł istnieje. Reszta artykułu zawiera szczegóły kopii zapasowej i cytaty, z wnioskiem na końcowym wykresie (który niewielu kiedykolwiek czytało), aby podsumować to wszystko. Nawet jako człowiek piszący wiadomości często wydaje się, że działa to bardziej jak praca pamięci mięśniowej niż rzeczywista moc mózgu lub kreatywność (czy nie zdradzam tutaj zbyt wiele?)

Pierwszą rzeczą, którą zrobiłem, było przetestowanie go, prosząc ChatGPT: „Czy możesz napisać mi artykuł informacyjny na 600 słów, w stylu wiadomości Bloomberga, o tym, jak sztuczna inteligencja i LLM wkrótce będą mogły pisać artykuły informacyjne?”

Wynik, muszę powiedzieć, nie był zły – choć trochę mdły. Napisanie go zajęło ChatGPT mniej niż 20 sekund. Gramatyka była bezbłędna i przedstawiała fakty. Jedyny chichot, jaki dostałem, to powtarzające się odniesienia do „Modelów językowych (LLM)”, co, szczerze mówiąc, jest jedyną rzeczą, której nie spodziewałem się, że się pomyli. Ha, moja praca jest bezpieczna!

Generatywna sztuczna inteligencja nie jest zbyt dobra — na razie

Do mojego poczucia fałszywej ulgi dodają doniesienia, że ChatGPT może nawet pogarszać się z wiekiem. Testerzy zauważyli dramatyczny spadek dokładności, gdy GPT-4 rozwiązuje problemy matematyczne, testy wizualnego rozumowania i egzaminy. Jedna z teorii wyjaśniających, dlaczego tak się dzieje, o której dyskutowano w sieciach społecznościowych, głosi, że programiści twórcy ChatGPT, OpenAI, mogli nieumyślnie (lub nawet celowo) zahamować jego rozwój, wprowadzając ograniczenia zaprojektowane w interesie „bezpieczeństwa AI” i unikania odpowiedzi, które mogą obrażać.

Moje własne doświadczenia z GPT3.5 były w większości przewracając oczami, ponieważ generuje więcej linii tekstu przepraszających i wymijających, dlaczego nie może wykonać pewnych zadań, niż generowanie przydatnego (lub nawet pożądanego) materiału.

Oczywiście nie ma sensu chełpić się błędami, które AI i LLM popełniają na obecnym etapie rozwoju. Robienie tego przypomina mi ludzi z końca lat 90., którzy mówili, że sieć nigdy nie stanie się medium masowym, ponieważ jest zbyt wolna, a przesyłanie strumieniowe wideo jest niemożliwe. Możesz także przypomnieć sobie pierwsze Wielkie Wyzwanie DARPA dla pojazdów autonomicznych, które odbyło się w 2004 roku. Żaden z uczestników nie pokonał więcej niż 12 km z 240-kilometrowej trasy pośrodku pustyni Mojave. Jednak rok później pięć pojazdów ukończyło trasę i tylko jednemu uczestnikowi nie udało się pobić rekordu na 12 km z 2004 roku.

Nie powinniśmy zakładać, że ponieważ niektóre technologie nie działają teraz zbyt dobrze, nigdy tak nie będzie. Wydaje się, że to zdrowy rozsądek, ale wiele osób nadal popełnia ten błąd. OpenAI rozwiąże wszelkie problemy z GPT, jeśli zdecydują, że utrudnia to projekt. Być może udostępnią różne wersje dla różnych klientów, w zależności od rodzaju treści, które muszą wyprodukować. W każdym razie, pomijając jakąkolwiek debatę na temat tego, czy uczenie maszynowe i LLM są formami „inteligencji”, czy nie, nierozsądne byłoby ocenianie ich przyszłych wyników na podstawie aktualnych przykładów. Załóżmy, że pewnego dnia, i to już wkrótce, generatywna sztuczna inteligencja będzie w stanie tworzyć przekonujące treści informacyjne. Dzisiejsi dziennikarze będą musieli sobie z tym poradzić.

Jedną z rzeczy, które zauważyłem w artykule ChatGPT, było to, że gdybym o to nie poprosił, a zatem wiedział z góry, że został wygenerowany automatycznie, prawdopodobnie bym go nie zauważył (niezależnie od dziwnych błędów terminologicznych). Patrząc na codzienne wiadomości w głównych i niezależnych mediach, nie można stwierdzić, czy są one napisane maszynowo, czy maszynowo z pewnym ludzkim nadzorem redakcyjnym. Przejdź do artykułów z kategorii „informacje ogólne/techniczne” lub „porady dotyczące życia/zdrowia” i jeszcze trudniej jest stwierdzić.

Maszyny piszą wiadomości dla maszyn do czytania

Mając to wszystko na uwadze, można ekstrapolować i przewidywać, że większość treści, które czytamy i przeglądamy w przyszłości, będzie tworzona przez generatywną sztuczną inteligencję. Być może wiele już jest. Istnieje wiele przykładów treści pisanych online, które czyta się tak, jakby zostały wygenerowane automatycznie lub przynajmniej napisane przez bezinteresownych i pozbawionych wyobraźni ludzi. Istnieją całe wątki na Twitterze pełne odpowiedzi, które brzmią, jakby pochodziły od LLM, a nie od prawdziwych ludzi.

Jak ludzie na to zareagują? Czy będą nadal konsumować (i ufać) wiadomościom tak jak teraz? W ostatnich latach pojawiło się kilka doniesień medialnych na temat sondaży badających poziom zaufania publicznego do mediów informacyjnych. Istnienie i rosnąca regularność tych sondaży sugeruje, że zapanowała pewna panika. Wyniki pokazały stały spadek poziomu zaufania do wiadomości w środkach masowego przekazu, a także pogłębiającą się lukę w poziomie zaufania między osobami o różnych poglądach politycznych. Na przykład CNN i MSNBC mają mniej niż 30% zaufania Republikanów, ale +50% oceny Demokratów. Niektóre ankiety wykazały, że poziom zaufania we wszystkich dziedzinach jest znacznie poniżej 50%. Najbardziej zaufanym źródłem wiadomości w USA jest Weather Channel, który jest jedyną siecią, która ma średnio ponad 50%.

Wprowadzenie generatywnej sztucznej inteligencji do tej mieszanki prawdopodobnie nie wpłynie na poziomy zaufania, to znaczy, jeśli opinia publiczna będzie w stanie to stwierdzić. Widzowie/czytelnicy założą, że automatycznie generowane treści mają dokładnie takie same uprzedzenia, jak ich ludzcy twórcy, i traktują je w ten sam sposób. Wszyscy widzieliśmy te kolażowe filmy, na których ludzie czytający wiadomości i komentatorzy w różnych stacjach wydają się czytać z tego samego scenariusza. Śledzimy konta na Twitterze, które mają ludzkie twarze i imiona, ale w głębi duszy podejrzewamy, że nie są to „prawdziwi” ludzie z prawdziwymi opiniami i czasem na ich pisanie – w „najgorszym” są to boty AI, a może po prostu fałszywe konta prowadzone przez firmy PR, podkręcające osobiste treści z astroturfą z wydajnością na poziomie fabryki.

Jedną z brudnych tajemnic branży mediów informacyjnych dzisiaj (i w ciągu ostatnich kilku dekad) jest to, że tworzone przez nią treści nie służą informowaniu ani zabawianiu ludzi w teraźniejszości, ale mają być indeksowane, aby przyszłe pisma mogły cytować je jako odniesienie. Materiał, który istnieje od dłuższego czasu, z jakiegoś powodu ma większą wartość.

Niezależnie od tego, czy jest stronniczy, uczciwy, dokładny, sprawdzony czy obalony, nadal będzie pojawiać się w wynikach wyszukiwania. To samo dotyczy publikowania książek, zwłaszcza literatury faktu naukowej — informacje zawarte w tych książkach mogą być cytowane i odwoływane przez innych przez wiele lat w przyszłości, niezależnie od tego, czy ktoś faktycznie przeczytał książkę, czy nie.

Gdy generatywna sztuczna inteligencja będzie produkować całą zawartość i powszechnie zakłada się, że to robi, prawdziwe pole bitwy o wiadomości w przyszłości przesunie się na zaplecze. Treść sama w sobie będzie tylko dekoracją, podczas gdy ci, którzy chcą kształtować opinię publiczną i „zgodę na produkcję”, będą starali się wpływać na generowanie danych, na których szkolone są AI, mając nadzieję, że pchną igłę w kierunku własnego końca. W przeszłości aktywiści próbowali zalewać wiadomości i sieci społecznościowe treściami sprzyjającymi ich własnym celom. Obecnie równie ciężko pracują, aby usunąć wszelkie treści, które są dla nich niekorzystne. Tak więc maszyny będą wytwarzać treści, których głównym celem będzie „czytanie” przyszłych generatywnych systemów sztucznej inteligencji i tworzenie większej ilości treści…

Wniosek z tego wszystkiego jest taki, że reporterzy wiadomości zostaną z czasem zastąpieni przez generatywną sztuczną inteligencję – podobnie jak duży odsetek konsumentów wiadomości. Prawdziwi ludzie mogą całkowicie stracić zainteresowanie mediami informacyjnymi lub potraktować to jako przedstawienie poboczne lub wykorzystać je do potwierdzenia istniejących uprzedzeń. Czy to już się dzieje, nawet bez masowej interwencji AI? Prawdopodobnie. Czy możemy ufać wiadomościom pisanym przez maszyny? Mniej więcej na tyle, na ile możemy ufać rodzajowi stworzonemu przez człowieka. A najważniejsze pytanie dla reporterów wiadomości, które celowo umieściłem na końcu ostatniego akapitu, brzmi: czy te działające serwisy informacyjne będą nadal zatrudniać ludzi do tworzenia treści? Odpowiedź brzmi prawdopodobnie tak, choć prawdopodobnie bardziej w roli redaktora opinii lub komentatora analitycznego. Dlatego ten artykuł jest komentarzem, a nie suchym raportem na temat najnowszych wydarzeń.

Obejrzyj CoinGeek Roundtable z Joshuą Henslee: AI, ChatGPT i Blockchain

Autor : BitcoinSV.pl

Źródło : Will AI news reporters replace humans? Will anyone even notice… or care? – CoinGeek

Author: BitcoinSV.pl
CEO