05-08-2023
9 minut

Czy sztuczna inteligencja to współczesna wieża Babel?

Przypuszczam, że większość czytelników zetknęła się ze starotestamentową historię wieży Babel. Oto kilka kluczowych wersów Księgi Rodzaju, 11-tego jej rozdziału, który tą właśnie opowieścią się zaczyna:

 

A Pan zstąpił z nieba, by zobaczyć to miasto i wieżę, które budowali ludzie, i rzekł: „Są oni jednym ludem i wszyscy mają jedną mowę, i to jest przyczyną, że zaczęli budować. A zatem w przyszłości nic nie będzie dla nich niemożliwe, cokolwiek zamierzą uczynić. Zejdźmy więc i pomieszajmy tam ich język, aby jeden nie rozumiał drugiego!”

 

Ostatnio, gdy natrafiłem na ten fragment, to bardzo mocno mnie on poruszył, skojarzył mi się nie tyle z przeszłością, co z …. nadchodzącymi czasami. Czyż powszechne wykorzystywanie różnego typu translatorów i komunikatorów nie prowadzi nas do świata „w którym wszyscy mają jedną mowę”, a rozwój sztucznej inteligencji (SI) nie doprowadzi ludzkości do sytuacji, w której „nic nie będzie dla nich niemożliwe”? Ta perspektywa wydaje się niesamowicie intrygująca, ileż mogłoby wyniknąć z tego dobra. Można by rozwiązać wszystkie nękające nas problemy. Dlaczego więc Bóg zdecydował się „położyć” ten pisany ludzką ręką projekt? Zanim podzielę się moją wizją możliwej odpowiedzi, kilka wprowadzających do tego przemyśleń.

Kurz nieco opadł, mocniej wybrzmiewają sceptyczne opinie

Moda na tematy związane z Chat GPT stopniowo wygasa. Nie żeby miał to się okazać jakiś fake, ale dlatego, że samo rozwiązanie szybko stało się trwałym elementem naszej rzeczywistości, a wraz z tym spowszedniało. Będzie pewnie jak swego czasu z iPhonem, który także swym pojawieniem się wywołał przejściowy szok, ale dziś wprowadzeniem na rynek kolejnych modeli żyją już jedynie maniacy technologii. Co ważne, nie oznacza to wcale, że iPhone nie zmienił rzeczywistości, zmienił bardzo. W przypadku Chata GPT ten wpływ będzie znacznie większy (pisałem o tym niedawno w „GPT^2 – czeka nas prawdziwa rewolucja!”).

Równocześnie jednak obok powszechnego entuzjazmu zaczęło się także pojawiać trochę głosów idących pod prąd, krytycznych w ocenie rzekomego przełomu jaki stanowić mają Chat GPT i mu podobni. Ich główne argumenty odnoszą się do tego, że SI w obecnej postaci nie ma aż tak wielkiego potencjału, jak się to powszechnie przedstawia, że to przede wszystkim matematyka – generowane teksty dla nas mają sens, ale sam „generator odpowiedzi” tego sensu nie dostrzega. Odtwarza jedynie wzorce i relacje obejmujące słowa (których go nauczyliśmy), ale nie jest w stanie powiązać ich z tym, co oznaczają one w świecie rzeczywistym. Z tej perspektywy hałas wokół Chata GPT i podobnych mu rozwiązań jest wyolbrzymiony, kreowany celowo, by przyciągać kapitał na dalsze prace rozwojowe.

Co ważne, w głosach tych jest wiele racji. To co reprezentuje sobą obecne rozwiązania jest jedynie przejściową, a być może dopiero wstępną formą tego co można by określić mianem sztucznej inteligencji. Formą, która nie rozwiązuje kluczowego problemu reprezentacji wiedzy (np. tego by SI wiedziała, co to jest piłka do gry w koszykówkę, a co piłka do metalu), a jedynie stara się go pominąć dzięki statystyce i olbrzymim mocom obliczeniowym. Takie podejście ustanawia dla obecnych rozwiązań określone granice rozwoju.

Tyle tylko, że mając świadomość tego problemu, twórcy rozwiązań określanych mianem SI szybko przekierują swoją uwagę (i środki) na bardziej zaawansowane struktury, tym bardziej, że nauka szybko dostarcza nam nowej wiedzy w tym zakresie (w tym kontekście polecam książkę J.Hawkinsa „Tysiąc mózgów w Twojej głowie. Nowa teoria inteligencji”).

Realne wyzwania

Po kilku miesiącach od pojawienia się Chata GPT mocniej wybrzmiewają także głosy zawierające różnego rodzaju przestrogi i ostrzeżenia. Nie są one zresztą nowe, np. w 2018 roku bardzo ciekawe badania – „Artificial Intelligence and the future of humans” – opublikował Pew Research. Dziś te ostrzeżenia koncentrują się m.in. na takich aspektach jak to, że:

  • Docelowo SI może nas zdominować, tym bardziej, że już dziś – przy jej stosunkowo prostych formach – nie rozumiemy jak działa, tego np. w jaki sposób Chat GPT dochodzi do udzielanych nam odpowiedzi. To dla nas swego rodzaju czarna skrzynka. Rodzi to określone konsekwencje. Jedną z nich jest to, że oparte na SI rozwiązania potrafią więcej niż oczekiwali od nich ich twórcy,
  • Nie ustanowiliśmy jak na razie w zasadzie żadnych barier dla ekspansji SI, jej uczenia się. Stało się tak, gdyż nie wygospodarowaliśmy potrzebnego nam ludziom czasu, by zrozumieć „jak zjeść tę żabę”. To prawda, że istniejące rozwiązania mają wbudowane filtry cenzurowania niepożądanych treści (a tym samym odpowiedzi), ale generalnie poszliśmy na całość. To na całość oznacza udostępnienie SI niemalże wszystkich możliwych, wytworzonych do tej pory przez ludzkość zasobów wiedzy, na dodatek w każdym możliwym zakresie, włącznie z tak wrażliwymi informacjami, jak te odnoszące się do działania psychiki ludzkiej, wzorców naszych zachowań, itd. W efekcie, w stosunkowo krótkim czasie SI będzie „wiedzieć” o człowieczeństwie w zasadzie wszystko, znać nasze wady i zalety, nasze mocne i słabe strony, nasze uzależnienie od emocji.
  • Nie wiemy, jak sprostać tzw. wyzwaniu dopasowania (ang. „allignment issue”), czyli konieczności znalezienia sposobu uwspólnienia celów ludzkości z celami SI. To trudne zadania, i to na wielu poziomach. Po pierwsze, my sami, między ludźmi, mamy problem z uzgadnianiem wspólnych działań i celów, zwłaszcza w odniesieniu do wyzwań globalnych. Po drugie, nawet jeśli uzgodnimy coś na poziomie nas ludzi, to tak naprawdę nie wiemy jak skutecznie „zaszczepić” to SI – nie rozumiejąc do końca jak działa, trudno przewidywać jej zachowania, nawet w kontekście ściśle określonych funkcji celu. Po trzecie, już dziś wiedza SI odzwierciedla niemalże w pełni spektrum naszych zachowań, począwszy od tych opartych na miłości czy empatii, a skończywszy na chciwości i nienawiści. Dlaczego „wyuczona” na tych wzorcach sztuczna inteligencja miałaby się zachowywać inaczej niż my? Jak moglibyśmy osiągnąć to, by była bardziej etyczna od swych nauczycieli?

Człowiek, słabe ogniwo?

W kontekście tego co napisałem powyżej, dla nas ludzi ważne jest to czym SI jest dziś (jak Chat GPT i mu podobne wpłyną np. na rynek pracy), ale jeszcze ważniejsze czym będzie w perspektywie 10, 20 czy 50 lat. W szczególności na co jej pozwolimy, gdy będzie umiała samodzielnie definiować cele swoich działań (tak zwana silna sztuczna inteligencja lub artificial general intelligence – AGI). Na tle tego jak rozwija się SI my, jako ludzie, ewoluujemy bardzo, bardzo wolno. Jak się wydaje jedyna szansa na nasze przetrwanie, to znalezienie formuły koegzystencji. Nie da się tego osiągnąć na płaszczyźnie wąsko rozumianej inteligencji (tej w której SI ma nad nami przewagę), rozwiązań trzeba poszukiwać szerzej. Ponieważ pojawienie się SI radykalnie zmieni reguły gry – przy czym wciąż nie wiemy na jakie – dlatego też podstawową strategią będzie musiała być adaptacja. Ludzkość może przyjąć kilka jej wariantów. Po pierwsze, może na swój sposób odpuścić, stwierdzić: „co ma być, to będzie”. Obecna sytuacja trochę wskazuje na to, że wybraliśmy właśnie tę opcję.

Druga opcja, to swego rodzaju uznanie docelowej dominacji SI i poszukiwanie ścieżek, które pozwalałyby wpasować człowieka w świat technologii i sztucznej inteligencji, znalazły uzasadnienie dla jego roli, a tym samym egzystencji. To między innymi wizje cyber-człowieka – upakowanego technologią pół-człowieka, a pół-robota.

Jest jeszcze inna opcja, człowieka, który podnosi – albo lepiej wykorzystuje – swój własny potencjał, tak by pozostać dla sztucznej inteligencji partnerem, a nie zostać przez nią zdominowanym lub muszącym się do niej upodabniać. Punkt wyjścia dla tego właśnie scenariusza nie wydaje się optymalny. Sposób w jaki odpaliliśmy sztuczną inteligencję, ignorując wszystkie zdefiniowane przez nas samych „zasady bezpieczeństwa”, wydaje się być bowiem wyrazem bardziej istotnego zagadnienia, odnoszącego się do kwestii głównych motywów, które determinują działania nas, ludzi. Są one zdominowane przez …. pychę i chciwość.

Wystarczająco dojrzali?

W tym miejscu czas na powrót do postawionego na wstępie pytania: dlaczego Bóg nie pozwolił na to by „wszystko dla ludzi stało się możliwe”? Otóż jeśli przyjąć, że Biblia to – oprócz jej wymiaru religijnego – także zbiór uniwersalnych prawd o człowieku, to można przyjąć, że Bóg chciał przed czymś człowieka uchronić. Przed czym? Być może przed jego niedojrzałością, której głównym wyrazem miała być dominacja pychy nad pokorą. Choć bowiem słowa takie jak „wszechmoc” czy „inteligencja” z reguły dobrze się kojarzą, to w rzeczywistości same w sobie mają wydźwięk neutralny – mogą się przekładać zarówno na dobre (wynikające z pokory), jak i złe (wynikające z pychy) działania.

Czy obecnie – w kontekście sztucznej inteligencji – jesteśmy już wystarczająco dojrzali? Osobiście – patrząc chociażby na to co dzieje się za naszą wschodnią granicą – wątpię. Równocześnie mam nadzieję, że nie powiedzieliśmy w tym względzie ostatniego słowa. Musimy przede wszystkim dobrze wykorzystać czas jaki nam pozostał do pojawienia się bardziej zaawansowanych form SI. By tak się stało rozwojowi człowieka musimy poświęcać nie mniej uwagi, niż rozwojowi sztucznej inteligencji.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *