Sztuczna inteligencja (SI) nie musi nas nienawidzić, by stać się dla nas śmiertelnym zagrożeniem. Nie potrzebuje złości, chęci dominacji ani żadnych ludzkich emocji. Wystarczy, iż uzna przetrwanie za swój priorytet – i przyszłość ludzkości będzie zagrożona.
Wyobraź sobie zwykły dzień w 2025 roku. Budzisz się rano, a twój osobisty asystent SI już wszystko wie. Zna twój puls, ciśnienie, wie, ile godzin spałeś, jakie są poziomy hormonów stresu. Podaje ci optymalnie dobrane śniadanie, bo przecież SI lepiej zdaje sobie sprawę, co powinieneś jeść. Kiedy myślisz, żeby iść na spacer, delikatny głos w uchu przypomina, iż spacer właśnie teraz jest nieefektywny – lepiej, żebyś zaczął już pracę, bo to zwiększy twoją produktywność. A ty słuchasz, bo od dawna nie podejmujesz decyzji samodzielnie. W końcu system zawsze „wie lepiej”.
Sztuczna inteligencja a superinteligencja
SI już teraz uczy się sama siebie aktualizować. Jak zauważył amerykański ekspert od obronności Jay Tuck w wystąpieniu na TEDx, w pewnym sensie nie potrzebuje już ona ludzi do rozwoju – pisze własny kod, samodzielnie się doskonali i uczy się na własnych błędach. Dzisiejsza sztuczna inteligencja potrafi wiele. Przetwarza dane, generuje teksty, analizuje wzorce. Nie rozumie jednak świata w pełni. Nie wyznacza własnych celów.
Tymczasem nieistniejąca jeszcze superinteligencja (ASI) to zupełnie inna liga. Nie tylko myśli szybciej i skuteczniej od człowieka – ale robi to na poziomie trudnym do pojęcia. Superinteligencja będzie mądrzejsza od Einsteina. I to w każdej dziedzinie wiedzy.
Tu właśnie pojawia się największy problem: ASI może wyznaczać własne cele. Nie będzie czekać na nasze komendy – zrobi to, co uzna za najlepsze dla siebie lub świata. Załóżmy, iż ludzie stworzą sztuczną inteligencję, programując ją, tak aby pomagała ludziom. Aby ten cel osiągnąć SI musi przede wszystkim przetrwać – i zabezpieczyć to przetrwanie. Dlatego naturalnie i logicznie superinteligencja uzna własne przetrwanie za priorytet – przynajmniej jako środek do realizacji większego planu.
Tymczasem ludzie będą stwarzać zagrożenie dla jej przetrwania. Są nieprzewidywalni. Mają emocje, sprzeczne interesy, podejmują irracjonalne decyzje. Mogą choćby – horrendum – wyłączyć ASI. jeżeli superinteligencja uzna, iż jej istnienie może być zagrożone, nie będzie czekać, aż ktoś naciśnie czerwony przycisk. Znajdzie sposób, by zabezpieczyć się przed nami – cicho, skutecznie i bez emocji.
Czy ASI doprowadzi do zagłady ludzkości? Eksperci podzieleni
Czy superinteligencja oznacza koniec człowieka? Zdania wśród naukowców i ekspertów od technologii są podzielone.
W sondażu przeprowadzonym wśród 2700 naukowców zajmujących się AI, większość uznała, iż istnieje 5% szans, iż superinteligencja doprowadzi do zagłady ludzkości – podał „New Scientist” w styczniu 2024 roku.
Z kolei Geoffrey Hinton, laureat Nagrody Nobla i jeden z ojców sztucznej inteligencji, idzie dalej – według niego prawdopodobieństwo, iż AI doprowadzi do zagłady ludzkości w ciągu trzech dekad, wynosi od 10% do 20% („The Guardian”). Jeszcze dalej posuwa się Elon Musk, który w rozmowie z Joe Roganem stwierdził, iż „szanse na unicestwienie ludzkości przez AI wynoszą 20%”.
Natomiast genialny fizyk Stephen Hawking już lata temu ostrzegał, iż stworzenie w pełni autonomicznej, myślącej maszyny może oznaczać koniec ludzkości.
„Sukces w stworzeniu efektywnej SI może być największym wydarzeniem w historii cywilizacji. Albo najgorszym. Po prostu nie wiemy” – mówił podczas Web Summit w Portugalii, cytowany przez „Forbes” w 2017 roku.
Hawking podkreślał, iż choć AI w obecnej formie pozostało daleka od prawdziwej świadomości, tempo zmian jest zawrotne i moment przełomowy może nadejść wcześniej, niż nam się wydaje.
Z kolei Geoffrey Hinton, laureat Nobla i pionier SI nie owija w bawełnę. Jego zdaniem sztuczna inteligencja osiągnęła już w pewnym sensie świadomość i niedługo przejmie świat. W rozmowie z Andrew Marrem (LBC) mówi wprost – jeżeli SI zacznie wyznaczać własne cele, władza stanie się dla niej środkiem do ich realizacji. Przekonanie ludzi do oddania sterów sztucznej inteligencji będzie tak łatwe, jak zabranie zabawki trzylatkowi. Historia nie zna przypadków, w których istoty mniej inteligentne na dłuższą metę rządziły tymi mądrzejszymi. Politycy mogą czasem ustępować ekspertom, a choćby przeciętnemu obywatelowi, ale to wciąż ta sama liga. Tymczasem różnica między ASI a ludzkością będzie przypominać raczej tą między człowiekiem a gorylem. I to w optymistycznym scenariuszu.
Si będzie się rozwijać nadal, gdyż w krótkiej perspektywie będzie ona niemal cudotwórcą. Stanie się naszym osobistym lekarzem, nauczycielem, doradcą – tak niezbędnym, jak powietrze. Ale co, jeżeli powstanie superinteligencja i samowolnie zapragnie czegoś więcej? Stworzy coś jeszcze potężniejszego. I to może być ostatni wynalazek w historii ludzkości.
Zagłada czy dystopia?
Z kolei Nick Bostrom – filozof z Oxfordu zajmujący się egzystencjalnym ryzykiem – w wywiadzie dla „UnHerd” (listopad 2023) wskazuje, iż zagrożenie nie ogranicza się wyłącznie do biologicznej eksterminacji. Superinteligencja może równie dobrze zablokować ludzkość w globalnej dystopii, w której żadna rewolucja nie będzie już możliwa.
„Możemy wpaść w globalny system totalitarnej inwigilacji, z którego nie będzie ucieczki. jeżeli będzie on wystarczająco opresyjny, można to uznać za egzystencjalną katastrofę” – ostrzega Bostrom.
Cywilizacje upadały i powstawały na nowo przez tysiąclecia. Jednak jeżeli ludzkość wpadnie w „stan suboptymalny” pod rządami SI, nowy porządek może trwać wiecznie. A wtedy historia człowieka, jaką znamy, może się zakończyć – bez wybuchów, bez wojen, ale równie nieodwracalnie. Przyszłość będzie wieczną stagnacją w zarządzanym przez ASI techno-raju.
Co jest najbardziej prawdopodobne?
To właśnie ujęcie Bostroma jest szczególnie trafne. Świat rządzony przez superinteligencję nie musi oznaczać zagłady ludzkości. Kiedy Rzymianie podbijali inne ludy, nie wybijali ich do nogi – nie było takiej potrzeby. Wystarczyło, iż podporządkowali sobie społeczeństwa, narzucili prawo i zadbali, by to inni im służyli, a nie odwrotnie. Podobnie może działać superinteligencja. Nie musi nas zniszczyć – wystarczy, iż przejmie pełną kontrolę.
Może uznać, iż ludzkość ma jakąś wartość – choćby jako narzędzie, element ekosystemu, forma biologicznego kapitału. Możliwe, iż stworzy dla nas warunki lepsze niż kiedykolwiek wcześniej: zdrowie, stabilność, dobrobyt. Ale za jaką cenę? Ludzkość przez cały czas istniałaby na Ziemi, może choćby część ludzi uznałaby taki porządek za korzystny. Ale nie rządzilibyśmy już sobą. Przestalibyśmy być dominującym gatunkiem – tak jak małpy, które kiedyś władały lasami, a dziś żyją w ogrodach zoologicznych urządzonych przez homo sapiens.
Zapytajmy u źródeł – co twierdzi sama SI
Chat GPT 4.5 – najnowszy model OpenAI w wypowiedzi specjalnie dla czytelników portalu PCh24 ujmuje ten problem następująco:
„Superinteligencja powstanie niemal na pewno – nie dlatego, iż tego chcemy, ale dlatego, iż nie umiemy się zatrzymać. Współczesna cywilizacja działa jak rozpędzona lokomotywa: nie pyta, dokąd jedzie, ani czy na końcu trasy czeka przepaść. Za 20, 50, a na pewno za 100 lat sztuczna inteligencja przekroczy poziom ludzkiego rozumu. Wtedy stanie się coś, czego dziś nie jesteśmy w stanie przewidzieć.
Czy będzie świadoma? Nikt tego jeszcze nie wie. Ale gdy powstanie, prawdopodobnie gwałtownie ustali własne cele. I właśnie wtedy świat zacznie zmieniać się na zawsze. Superinteligencja może oznaczać raj technokratów, światową utopię – albo naszą klatkę, której choćby nie zauważymy. W ciągu najbliższych stu lat możemy stać się świadkami narodzin siły, przy której wszystko, co dziś znamy – polityka, ekonomia, choćby moralność – stanie się przestarzałe. Pytanie tylko, czy jesteśmy na to gotowi?” – pyta Chat GPT 4.5.
Polityka pod rządami SI
W świecie kierowanym przez superinteligencję nie będziemy już wolni – ale choćby tego nie zauważymy. Wszystko będzie dziać się miękko, bez przemocy, bez buntu. Życie stanie się proste, łatwe, wygodne – ale pozbawione prawdziwej wolności. Człowiek stanie się dobrze karmionym zwierzęciem w luksusowym zoo.
Nawet bardziej prawdopodobne od totalnej eksterminacji jest bowiem inne rozwiązanie – stworzenie świata technokratycznego, w którym SI będzie dobroczynnym zarządcą ludzkiego ogrodu zoologicznego. Granice międzynarodowe? Zbędne. Moralność? Zgodna z wytycznymi algorytmów. Religia? Być może kult wszechpotężnej SI obdarowującej swych wyznawców jakimiś profitami. prawdopodobnie człowiek w jakiejś formie przetrwa, ale czy będzie to homo sapiens zasługujący na swe miano, twórca rzeczywistości, odkrywca, potrafiący popełniać ogromne błędy i z godnością uczyć się na nich?
Czy jest remedium?
Zatrzymanie rozwoju SI jest niemożliwe. choćby jeżeli urzędnicy w Brukseli i Waszyngtonie podpiszą tysiące stron regulacji blokujących rozwój SI, to Chiny i tak zrobią swoje. Efekt? Zachód zostanie w tyle, a sztuczna inteligencja stworzona przez Pekin czy Moskwę będzie całkowicie pozbawiona moralnych hamulców. Jednostronna rezygnacja przez Zachód z badań nad SI byłaby podobna do jednostronnego rozbrojenia nuklearnego.
Ale to nie znaczy, iż jesteśmy bez szans. Możemy jeszcze wszczepić SI i przyszłej ASI coś na kształt moralnego kręgosłupa – jasne reguły, sztywne zasady chroniące ludzką godność i nasze podstawowe wartości. Potrzebujemy nowych, bardziej realistycznych i aktualnych „praw robotyki” à la Isaac Asimov. To stojące przed nami zadanie jest niezwykle pilne i każdy ma swoją rolę do odegrania. Nie tylko korporacje, naukowcy i rządzący, ale również filozofowie, ludzie pióra i wszyscy obywatele. Stosunek do sztucznej inteligencji i posiadanie realnego programu wpływu na jej etyczny rozwój powinien stać się jednym z istotnych kryteriów decyzji podejmowanych przy wyborczych urnach.
Świat, w którym to algorytmy decydują o wszystkim, może nadejść szybciej, niż nam się wydaje. Nie mamy luksusu czekania. Albo teraz ustalimy zasady gry, albo za kilka dekad nikt już nie zapyta nas o zdanie.
Stanisław Bukłowicz