Czy bunt AI jest możliwy? "Wystarczy jeden przypadek"
"Rozłam między Bengio a LeCunem odzwierciedlał podział całej społeczności związanej z AI. Argumenty obu stron były czasami przedstawiane za pomocą tak zwanego parametru zagłady, czyli p(doom), który oznaczał ocenę prawdopodobieństwa, że AI pewnego dnia unicestwi ludzkość. Według LeCuna p(doom) wynosił zero. Dla Bengio - pięćdziesiąt procent. Te dwie wartości reprezentowały skrajne poglądy na to zagadnienie, aczkolwiek każda większa od zera liczba powinna budzić niepokój". Prezentujemy fragment książki autorstwa Stephena Witta pt. "Maszyna myśląca. Jensen Huang, Nvidia i najbardziej pożądany chip na świecie".
Poniższy fragment pochodzi z reportażu pt. "Maszyna myśląca. Jensen Huang, Nvidia i najbardziej pożądany chip na świecie" autorstwa Stephena Witta w tłumaczeniu Michała Jóźwiaka. Książka ukazała się 25 lutego 2025 roku nakładem wydawnictwa Insignis.
Pewnego zimowego dnia na początku 2023 roku Yoshuę Bengiego ogarnął strach. Bengio mieszkał w Montrealu i był pionierem AI oraz jednym z pierwszych orędowników sieci neuronowych. Od dawna go fascynowały i przez wiele lat ich bronił. W 2019 roku otrzymał nagrodę imienia A.M. Turinga, informatyczny odpowiednik Nagrody Nobla, za przełomowe badania w tej dziedzinie. Wraz z nim laur otrzymali jego współpracownicy: Yann LeCun i Geoffrey Hinton. (...)
Jednocześnie, podobnie jak wielu badaczy w jego dziedzinie, Bengio czasami wyobrażał sobie świat, w którym AI staje się zbyt potężna. Przez większość jego kariery ten eksperyment myślowy miał wymiar dość żartobliwy: skoro AI miała podbić planetę, to dlaczego tak trudno było zdobyć grant w wysokości choćby 10 tys. dolarów na jej badanie? Jednak po publicznym udostępnieniu ChataGPT Bengio po raz pierwszy w życiu odczuł prawdziwy niepokój. Był zdumiony możliwościami tego modelu. Po prostu oszołomiony, kompletnie zszokowany. Bengio nie sądził, że osobiście dożyje czasów, kiedy komputery będą w tak inteligentny sposób wchodzić w interakcje z ludźmi. Tymczasem pewnego dnia pod koniec 2022 roku taka technologia po prostu się pojawiła. Porównał to do spotkania z istotą pozaziemską.
Bengio niezależnie od pogody chodził każdego ranka na spacer, aby uporządkować myśli. W dniu, w którym ogarnął go strach, chłód był mniejszy niż zwykle, a ulice Montrealu pokrywała śnieżna breja. Przechadzając się w otoczeniu nagich drzew i przybrudzonego śniegu, Bengio poczuł przypływ dziwnych emocji, jakich nigdy wcześniej nie doświadczył. Nazwał to nawróceniem. "Myślałem o moich dzieciach i moim wnuku" - powiedział mi. "Jak będzie wyglądać ich życie za dwadzieścia lat? Czy w ogóle będą mieli życie?".
Był to strach najgorszego rodzaju, taki, który narastał, gdy odłożyło się na bok emocje i podeszło do tematu racjonalnie. Porównał go do poczucia zagrożenia wojną nuklearną. Właściwie było gorzej: doszedł do wniosku, że część ludzi wojnę nuklearną przeżyje. Ale gdyby sztuczna inteligencja zdecydowała się nas unicestwić, mogłaby zaprojektować śmiercionośny patogen, który wytępi wszystkich ludzi na Ziemi. Jak stwierdził: "Nie sądzę, żeby cokolwiek zbliżało się do tego pod względem skali niebezpieczeństwa".
Po spacerze Bengio skontaktował się ze swoim dobrym znajomym, a przy okazji współpracownikiem, Geoffreyem Hintonem, aby upewnić się, że nie wariuje, co wcale mu nie pomogło. Hinton bowiem zupełnie niezależnie doszedł do tych samych wniosków. W gruncie rzeczy wysnuł je w ten sam sposób, niemal w tym samym momencie. Najpierw sprawdził możliwości ChataGPT, co przyniosło mu poczucie satysfakcji i osobistego triumfu. Następnie pojawił się narastający niepokój. Krótko potem Hinton zrezygnował z pracy w Google’u, aby w pełni poświęcić się doradztwu związanemu z pojawieniem się ryzyka niekontrolowanej sztucznej inteligencji. Ilyę Sutskevera, który stworzył ChatGPT, również trapiły coraz silniejsze obawy. Proponował, że poświęci się w pełnym wymiarze godzin problemowi tak zwanej zgodności (alignment), czyli dbania o to, by super inteligentne AI nie dążyły do celów sprzecznych z potrzebami gatunku ludzkiego. Bengio, Hinton i Sutskever - zbieżność ich przemyśleń jest niepokojąca - zajmowali pierwsze, drugie i trzecie miejsce w rankingu najczęściej cytowanych żyjących informatyków. I każdy z nich martwił się, że AI może się nas pozbyć.
Oczywiście nie wszyscy podzielali te obawy. Yann LeCun, trzeci laureat Nagrody Turinga, uważał, że jego koledzy zachowują się niedorzecznie. (...)
LeCun w ogóle nie obawiał się AI i uważał, że Bengio antropomorfizuje nieszkodliwą maszynę. "Pęd do dominacji występujący u niektórych ludzi, a przynajmniej do gromadzenia wpływów, został nam wdrukowany przez ewolucję, ponieważ jesteśmy gatunkiem społecznym o organizacji hierarchicznej" - powiedział LeCun magazynowi "Time". "Systemy AI, jakkolwiek bystre, będą nam podporządkowane. To my wyznaczamy im cele. Nie mają żadnego wewnętrznego, wbudowanego przez nas celu, by dominować". Oczywiście, sieć neuronowa mogłaby mieć pragnienie dominacji, przyznał LeCun, lecz uważał, że nikt nie byłby aż tak durny, by taką zbudować. "To byłoby naprawdę głupie. I całkiem bezużyteczne. Nikt by tego nie kupił" - oświadczył. (...)
Bengio uważał, że LeCun grzeszy nadmierną pewnością siebie. Ludzie, zarówno jednostki, jak i całe społeczeństwa, robią wszelkiego rodzaju głupie, destrukcyjne rzeczy. Na razie wysoki koszt szkolenia technologii AI powoduje, że mogą to robić stosunkowo odpowiedzialne organizacje. Nvidia jednak, obniżając cenę obliczeń, sprawiała, że możliwość trenowania AI znalazła się w zasięgu coraz większej grupy osób - do pojawienia się zbuntowanej superinteligencji wystarczy jeden przypadek. "Im potężniejsza staje się AI, tym bardziej prawdopodobne jest, że zechce przejąć kontrolę nad komputerem, na którym działa, aby móc sobie zapewnić większą nagrodę" - powiedział Bengio. "To będzie oznaczało koniec naszej historii".
Hinton zgadzał się z tym poglądem i ostrzegał, że do takiego zdarzenia może dojść nieumyślnie. "Przypuśćmy, że jeden z modeli będzie miał choćby odrobinkę takiego dążenia - po prostu maleńka, tyciusieńka cząstka będzie go popychała do tego, by sobie tak jakby pomóc" - powiedział. Taki model AI wygra, jak stwierdził Hinton. "Przyzna sobie trochę więcej zasobów. W gruncie rzeczy warianty, które będą najbardziej egoistyczne, poradzą sobie najlepiej. I chyba sam widzisz, że to bardzo śliska sprawa".
Rozłam między Bengio A LeCunem odzwierciedlał podział całej społeczności związanej z AI. Argumenty obu stron były czasami przedstawiane za pomocą tak zwanego parametru zagłady, czyli p(doom), który oznaczał ocenę prawdopodobieństwa, że AI pewnego dnia unicestwi ludzkość. Według LeCuna p(doom) wynosił zero. Dla Bengio - pięćdziesiąt procent. Te dwie wartości reprezentowały skrajne poglądy na to zagadnienie, aczkolwiek każda większa od zera liczba powinna budzić niepokój.
Kiedy Hinton rozmawiał z Bengio na początku 2023 roku, on również uważał, że p(doom) wynosi 50 procent. Warto to podkreślić: najsłynniejszy na świecie naukowiec zajmujący się sztuczną inteligencją uznał, że prawdopodobieństwo, iż AI będzie miało katastrofalny wpływ na ludzkość, wynosi jeden do dwóch. Ale kiedy rozmawiałem z nim w 2024 roku, Hinton zdążył obniżyć swoje szacunki do 10-20 procent. Powodem, dla którego zmienił zdanie, jak mi powiedział, było to, że tak wielu ludzi, których inteligencję szanował, stanowczo się z nim nie zgadzało. "Co najważniejsze, oczywiście jest wśród nich Jensen" - twierdzi.
Według Jensena wartość p(doom) wynosi zero. W zasadzie uważał nawet, że ma wartość ujemną, choć formalnie rzecz biorąc, nie jest to możliwe. Jensen głośno odrzucał apokaliptyczne ujęcie tematu, uważał te rozważania za głupie i sądził, że prowadzenie takich dyskusji hamuje rozwój ludzkości. Podczas rozmowy w Denny’s zasugerował nawet, że Hinton szarga swoją spuściznę akademicką, pozwalając sobie na takie spekulacje. (...)
Nawet jeśli superinteligencja nie pojawi się w następnej dekadzie, wszystko wskazuje na to, że w perspektywie dwudziestu, trzydziestu, a nawet stu lat jest to nieuniknione. Owszem, to horyzont czasowy wykraczający poza granice przewidywalnego zwrotu z inwestycji, ale mieszczący się w zakresie ludzkiej historii. Za jedno lub dwa pokolenia Homo sapiens może przestać być dominującym gatunkiem na naszej planecie - ale inwestorzy venture capital nie patrzą tak daleko w przyszłość.
Niezgodność między krótkoterminowym zyskiem a długoterminowym ryzykiem wywołała zamieszanie w start-upach związanych ze sztuczną inteligencją. W zarządzie OpenAI w listopadzie 2023 roku doszło do dziwacznego zamachu stanu, podczas którego Ilya Sutskever najpierw głosował za usunięciem Sama Altmana, a kilka dni później zabiegał o jego powrót. Altman ostatecznie zatriumfował, za to reszta zarządu organizacji została wymieniona. Po przywróceniu Altmana na stanowisko stało się dość jasne, że pomimo misji non profit to właśnie zainteresowanie Microsoftu "ograniczonymi" zyskami motywowało OpenAI do ciągłego rozwoju najbardziej wyrafinowanych modeli sztucznej inteligencji, jakie kiedykolwiek widziano. Sutskever po tym zamachu stanu unikał prasy, ale kiedy rozmawiałem z nim we wrześniu 2023 roku, powiedział, że zmienił swoje priorytety. Zamiast budować coraz większe modele językowe, postanowił skupić się na zapewnieniu zgodności przyszłej sztucznej superinteligencji z ludzkimi potrzebami. "Nie mogę mówić o konkretnych modelach - powiedział Sutskever - ale pracuję nad czymś, co moim zdaniem będzie ostatecznym rozwiązaniem obaw ludzi, że AI może się zbuntować i zrobić coś bardzo niepożądanego".
Do końca 2024 roku takie rozwiązanie się nie pojawiło, mimo że produkty OpenAI stają się coraz obszerniejsze i potężniejsze. W maju 2024 roku OpenAI zaprezentował GPT-4o ("o" jak omni, czyli "wszystko" w języku łacińskim) - multimodalną sztuczną inteligencję zdolną przetwarzać dowolne kombinacje tekstu, dźwięku, obrazu i wideo i zwracać odpowiedzi w formie tekstu, dźwięku lub obrazu. Praktycznie pozbawione opóźnienia reakcje modelu były możliwe dzięki zdolnościom błyskawicznego wnioskowania najnowszej generacji chipów Nvidii. Dzień po wypuszczeniu GPT-4o Sutskever odszedł z pracy. (...)
Mimo że Bengio, Hinton i Sutskever zostali odsunięci na boczny tor przez posiadaczy kapitału, ich argumenty pozostały aktualne. Dostrzegli lepiej niż ktokolwiek potencjał technologii sztucznej inteligencji i mieli kwalifikacje, by dowieść swojej racji. Jeśli się niepokoili, uważałem, że warto ich po słuchać. "Teraz mamy dziewięćdziesięciu dziewięciu bardzo mądrych ludzi, którzy próbują ulepszyć AI, i jednego bardzo mądrego człowieka, który próbuje wymyślić, jak powstrzymać ją przed przejęciem kontroli" - powiedział mi Hinton.
Posłuchaj: