Sztuczna inteligencja

Po co nam to?

Kiedy postanowiłem napisać parę słów o sztucznej inteligencji, nie sądziłem że będę zmuszony w rzeczywistości pisać o niczym. Bo o czym tu pisać, skoro sztuczna inteligencja nie istnieje? To co istnieje, to maszyny potrafiące, lepiej lub gorzej, naśladować pewne wybrane zdolności człowieka. Lepiej już napisać bajkę. Oto jest bajka:

Za siedmioma górami, za siedmioma morzami wymyślono trybiki. Wywołały one u ludzi zdumienie, a fascynacja nimi spowodowała, że niektórzy zastanawiając się nad sposobem działania ludzkiego mózgu doszli do wniosku, że w zasadzie można zbudować coś podobnego przy pomocy trybików. Nie udało się…

Kiedy wymyślono lampy elektronowe, wywołały one u ludzi zdumienie. Fascynacja nimi spowodowała, że niektórzy zastanawiając się nad sposobem działania ludzkiego mózgu doszli do wniosku, że w zasadzie można zbudować mózgi elektronowe. Nie udało się…

Kiedy wymyślono komputery, wywołały one u ludzi zdumienie. Fascynacja nimi spowodowała, że niektórzy zastanawiając się nad sposobem działania ludzkiego mózgu doszli do wniosku, że w zasadzie można zrobić sztuczną inteligencję. Jak dotąd się nie udało…

Kiedy wymyślono komputery kwantowe… itd. Kiedy ta bajka się skończy?

Dlaczego w ogóle chcemy stworzyć sztuczną inteligencję? Pewnie z tych samych powodów, dla których wierzymy w istnienie obcych cywilizacji i nasłuchujemy od nich rzekomych sygnałów, albo chcąc się dogadać ze zwierzętami mamy czasem wrażenie że te zwierzęta nas rozumieją. A wszystko dlatego, że czujemy się inni, czujemy że coś nas odróżnia od zwierząt. Przez to wrażenie inności człowiek jest kosmicznie samotny, ograniczony tylko do kontaktów z innymi ludźmi, które się w naszym społeczeństwie coraz bardziej komplikują. Stąd tęsknota za „inną” inteligencją.

Dlaczego więc czujemy się inni, wyjątkowi? Myślę, że do rozwoju tego poczucia wyjątkowości w tzw. kulturze Zachodu w dużej mierze przyczyniła się religia. To według niej Bóg stworzył człowieka innym, nieco mądrzejszym. Różne religie różnie tłumaczą przyczyny tego „faktu” (dogmatu). Został człowiek stworzony „na obraz i podobieństwo Boga” albo po to żeby się rozwijał, albo żeby „czynił sobie Ziemię poddaną”, co ludzie często błędnie rozumiejąc, albo nie rozumiejąc wcale, niszczą ją. Widać więc wyraźnie, że to, co jest w tym najważniejsze, to ten element naszego istnienia, który odróżnia nas od zwierząt. Ale co to takiego? Na czym polega różnica? Oddychamy jak zwierzęta, odżywiamy się jak zwierzęta, mamy ze zwierzętami wspólny kod genetyczny (np. z szympansami aż w 99% identyczny) i wszystko wskazuje na to, że zwierzętami również i my jesteśmy. Różnicę stanowią na pewno skomplikowane relacje społeczne, które z grupy ludzi czynią drapieżnika silniejszego niż pojedynczy człowiek. Ludzie mają w grupie większe szanse na przetrwanie. Największe w przyrodzie. Oczywiście pojedynczy człowiek również ma bardzo silny instynkt przetrwania (patrz Robinson Cruzoe) ale w dużej grupie ludzie są praktycznie nie do pobicia. I znowu nie jest to coś nadzwyczajnego, bo zwierzęta niejednokrotnie także potrafią polować w grupach. Nie jest też nowością, że wiele czynności pozornie z polowaniem nie związanych, ludzie wykonują nieświadomie właśnie na wzór polowania.

Jeśli powiemy kategorycznie, że jedynie człowiek potrafi myśleć abstrakcyjnie, to też znajdziemy przykłady zwierząt u których odkryto częściowo podobne zdolności. Jeśli powiemy, że ludzi odróżnia język, którym się posługują, to musimy przyznać, że zwierzęta także posługują się jakimiś niezrozumiałymi językami. Niektórzy twierdzą, że to właśnie ludzki język, ponieważ jest tak złożony, umożliwia myślenie które wznosi człowieka ponad biologiczną przeciętność. Jeśli do języka dołożymy jeszcze historię i osiągnięcia naszej cywilizacji, to szybko okaże się, że są to rzeczywiście jedyne przyczyny naszej rzekomej odmienności. Nie trudno sobie wyobrazić jak szybko możemy pamięć o tej historii i osiągnięciach stracić i co wtedy będzie nas odróżniać? Nic.

Odkąd poznaliśmy zasady rządzące życiem, odkąd potrafimy świadomie ingerować w kod genetyczny żywych istot, zaczynamy jednak powoli zdawać sobie sprawę z tego, że coś się zmienić musi. Należy się spodziewać, że w przyszłości zrozumiemy, że poprzez poziom osiągniętej wiedzy spada na nas odpowiednio do tego poziomu większa odpowiedzialność za to, co robimy. Już dzisiaj można powiedzieć, że jako cywilizacja, trzymamy nasz los w naszych własnych rękach. Przestajemy ulegać sugestiom i ułudom zmysłów, a zamiast tego jesteśmy w stanie prawie zawsze sprawdzić jak jest naprawdę. Przestajemy się bać, bo technologia zwiększa nasz poziom bezpieczeństwa. Z braku alternatywy niektórzy zaczynają się bać samej technologii. To nie tylko głupota, ale także echo instynktu przetrwania. Nasza mentalność musi ulec pewnym przekształceniom w tym względzie, ponieważ zawsze to właśnie strach był głównym motorem naszych działań. Co będzie źródłem motywacji wtedy, gdy cały strach zostanie wyeliminowany? Ludzie religijni przypominają, że zawsze pozostanie strach przed tajemnicą śmierci, ale także należy się spodziewać postępów i w tej dziedzinie. Przypomnę słowa Chrystusa: „Nie ma nic zakrytego, co nie miałoby być ujawnione”.

Czy warto dążyć to stworzenia sztucznej inteligencji? To wcale nie jest ważne pytanie, skoro i tak to robimy (tzn. dążymy). Na pytanie „czy warto” odpowiedź może być tylko jedna: oczywiście, że tak. Dlaczego? Bo pozwoli to na uwolnienie się z niewolnictwa. Tak, właśnie z niewolnictwa, bo istnieje ono także dzisiaj w rozmaitych ukrytych formach, a w niektórych częściach świata nawet jawnie. Najważniejsze jest niewolnictwo ekonomiczne polegające na tym, że ludzie muszą pracować aby „się utrzymać”. Straci to sens, kiedy całą pracę będą wykonywać inteligentne maszyny. Darmowa energia i automatyzacja spowodują, że produktów będzie tak dużo, że ich cena wyniesie zero. Pieniądze wylądują w muzeum. Niemożliwe? Stanie się to po prostu faktem znacznie szybciej niż się większości ludzi wydaje i jest to konsekwencją prawa eksponencjalnego wzrostu. Kolejnym krokiem będzie pokonanie niewolnictwa naturalnego, naszej zależności od przyrody. Rozwój technologii pozwoli kształtować środowisko czyste i zasobne, a przede wszystkim niezależne — nie koniecznie na Ziemi, ale nawet w statkach kosmicznych. To będzie kolejny etap w rozwoju naszej cywilizacji.

Problem definicji

Powód, dla którego ciągle odbiegam od tematu sztucznej inteligencji jest oczywisty. Aby móc zdefiniować czym jest sztuczna inteligencja, trzeba najpierw zdać sobie sprawę z tego czym jest ta prawdziwa, czyli ludzka inteligencja. Skąd się bierze zdolność do rozumowania, kojarzenia faktów, działania inteligentnego, myślenia abstrakcyjnego, wnioskowania, przypominania, abstrahowania, wyczucia sytuacji, wychwycenia ukrytego sensu, interpretacji informacji w ramach danego kontekstu, itp.?

Zauważalna jest tendencja do traktowania Alana Turinga jako swoistego prekursora badań nad sztuczną inteligencją. Turing zaproponował w jaki sposób można by odróżnić człowieka od maszyny i dzisiaj nazywamy jego metodę Testem Turinga. Stwierdził on więcej, mianowicie że maszynę, która zda ten test można nazwać, właśnie w sensie definicji, sztuczną inteligencją. Test Turinga polega na tym, że pozwalamy człowiekowi rozmawiać z maszyną tak, aby nie widzieli się nawzajem. Jeśli człowiek nie będzie w stanie odróżnić czy rozmawia z innym człowiekiem, czy nie, jeśli potraktuje maszynę jak człowieka na podstawie wypowiadanych przez nią sentencji, to będzie oznaczało, że taka maszyna jest sztuczną inteligencją. Czyli w teście Turinga chodzi tak naprawdę o tzw. inteligencję słowną, czyli o umiejętność posługiwania się językiem.

Geniusz Turinga przejawia się jednak nie w szczegółach samego testu i to niezależnie od tego czy uznamy go za wystarczający, czy nie. Genialna, moim zdaniem, jest sama idea że coś tak nieuchwytnego i trudnego do zdefiniowania jak inteligencja mogłoby w zasadzie być sprawdzone przy pomocy prostego testu, czymkolwiek by ten test nie był. To niesłychanie odważna myśl, aby zagadnienie z pozoru nieskończenie skomplikowane potraktować tak, jakby cała ta komplikacja nie miała znaczenia, a liczył się tylko efekt końcowy. Przypomina to behawioralne teorie psychologiczne, które całe nasze skomplikowane życie wewnętrzne i jego procesy myślowe sprowadzają do roli pomocniczej w wygenerowaniu konkretnych działań i zachowań, które i tak z góry wiadomo, że muszą się w efekcie na końcu pojawić. Wiemy jakie są wady podejścia behawioralnego i należy się spodziewać, że tej samej natury są wady podejścia Turinga.

Próby stworzenia maszyn, które pozytywnie przejdą test Turinga, podejmuje się po dziś dzień. Szybko jednak stały się jasne dwa fakty. Po pierwsze stworzenie takiej maszyny, która byłaby idealnym rozmówcą wydaje się ekstremalnie trudne i wymaga rozwiązania wszystkich problemów sztucznej inteligencji, a nie tylko – jak się pierwotnie wydawało – wyłącznie problemów natury językowej. Po drugie okazuje się, że również ludzie nie są idealnymi rozmówcami i sami mają problemy z pozytywnym przejściem Testu Turinga (to znaczy że zostają przez eksperta potraktowani jak zaprogramowane maszyny). O czym to świadczy? Oczywiście o tym, że cała ta inteligencja słowna, czy językowa, nie jest jedynym przejawem inteligencji.

Ludzkie zdolności umysłowe są zbyt wszechstronne, aby można je było zmierzyć jednym testem. W testach wyróżnia się czasem inteligencję słowną, wzrokową, praktyczną i matematyczną. Oprócz tych inteligencji można się także spotkać z popularną ostatnimi czasy ideą inteligencji emocjonalnej. Poza tym z inteligencją zawsze są związane zdolności twórcze i pamięciowe, bez których inteligencja nie mogłaby się w ogóle realizować. Naprawdę, to nie inteligencja jest dla nas ludzi najważniejsza. Żaden współczynnik inteligencji nie decyduje bowiem o szczęśliwym życiu. Dużo ważniejsze jest dla nas w życiu osobistym zdrowie psychiczne, otwartość, ciekawość świata i dojrzałość emocjonalna. Zdolność do logicznego myślenia jest cechą ważną, ale tylko jedną obok innych, równie ważnych cech jak: zdolność nawiązywania kontaktów, utrzymywania tych kontaktów, intuicja, wrażliwość, współodczuwanie, znajomość charakterów, zdolność do odprężania się, czyli radzenie sobie ze stresem, itp.

Frankenstein w akcji

Nie należy oczekiwać, że w tworzeniu sztucznej inteligencji osiągniemy sukces przy pomocy sztywnych reguł, w ostatecznym rozrachunku równie sztywnych statystyk, sieci neuronowych, czy algorytmów genetycznych. Potrzebna jest tutaj zupełnie nowa jakość, iskierka życia, zalążek świadomości. To nie sztuczna inteligencja, ale właśnie sztuczna świadomość jest elementem koniecznym i wystarczającym do stworzenia sztucznego inteligentnego życia. Czy może istnieć sztuczna inteligencja? Czym jest sztuczna inteligencja? Moim zdaniem to źle zadane pytania. Należy zapytać inaczej: Co to jest świadomość? Wiemy już, że inteligencja to umiejętność zastosowania myślenia w działaniu, to świadome wymyślanie i stosowanie algorytmów dla realizacji określonych celów, wyciąganie wniosków ze skutków tych realizacji prowadzące do odpowiedniej modyfikacji celów. To zamknięty krąg wątpliwości i nowych pomysłów, którego skutkiem jest działanie celowe. Czy wiemy co to jest świadomość?

Powiedziałem już że do powstania sztucznej inteligencji potrzebna jest najpierw sztuczna świadomość. Czy stworzenie sztucznej świadomości jest rzeczywiście takie trudne? Czy świadomość to rzeczywiście coś mistycznego? Nie sądzę. Zapraszam do zapoznania się z moją teorią świadomości, która owianą od wieków tajemnicę świadomości po prostu odziera z resztek nietrafionego mistycyzmu i pozwala w końcu bez uprzedzeń i stereotypów podejść do problemu świadomości na nowo. Przede wszystkim należy oddzielić świadomość [ang. consciousness] od przytomności [ang. awareness]. Przytomność da się symulować, bo jest to po prostu stan wiedzy o tym, co dzieje się z nami tu i teraz. Dla maszyny jest to jak najbardziej dostępne przy pomocy odpowiedniego zestawu czujników. A co ze świadomością w rozumieniu consciousness? Jest ona procesem zupełnie naturalnym, tak jak wszystko inne i nie ma nic wspólnego z duszą, przynajmniej nie w tym sensie w jakim to się ludziom wydaje.

Czy to możliwe?

Sztuczna inteligencja — czy to możliwe? I tak, i nie. To zależy czego oczekujemy od takiego systemu. Jeśli wymagania są jasno sprecyzowane, to oczywiście da się stworzyć system, który je spełnia. System inteligentny wyobrażamy sobie najczęściej jako maszynę sterowaną komputerem, z którą można porozmawiać i która – ogólnie rzecz biorąc – wykonuje pewne funkcje samodzielnie. Na przykład samodzielnie myśli (tzn. wykonuje funkcję myślenia).

Rozmowa z maszyną nie jest niemożliwa. W rzeczywistości już się odbywa. Zawsze, kiedy używamy arkusza kalkulacyjnego, kopiujemy pliki, czy uruchamiamy programy – jest to pewna forma komunikacji człowiek-komputer (wydawanie poleceń i otrzymywanie wyników to przecież komunikacja). Komunikacja międzyludzka nie polega tylko na rozmowie. Większa jej część jest de facto niewerbalna. Sam wolę rozmawiać z ludźmi „twarzą-w-twarz” zamiast przez telefon. Komunikacja z komputerem odbywa się w specjalnych językach formalnych, dzięki którym możemy wydawać polecenia wykonywane przez komputer. Oczekujemy od komputera, że nie będzie kwestionował wydawanych mu poleceń, tylko je po prostu bez pytania wykona. Od ludzi nie zawsze możemy tego oczekiwać, stąd potrzeba stosowania mniej lub bardziej rozwiniętych systemów motywacyjnych. Nie bylibyśmy chyba zadowoleni, jeśli do wykonania polecenia skopiuj plik potrzeba by było komputer jeszcze specjalnie zachęcać (np. pogłaskać). Czy inteligentny komputer to idealny pracownik? A może idealny niewolnik? Tak naprawdę nie oczekujemy od komputerów, że będą zachowywać się jak ludzie. Nawet gdybyśmy wiedzieli jak zaprogramować samoświadome życie, to nie rozumiemy dziś kwestii moralnych z tym związanych.

Chcemy, żeby komputery były narzędziami, ale inteligentnymi narzędziami. Niestety to niemożliwe. Jedyna inteligencja jaką znamy, to inteligencja ludzka, a ludzie to nie są bezwolne narzędzia. Jedyne, co możemy zatem osiągnąć, to coraz lepsze naśladowanie człowieka przez maszynę. Aby to zrobić musimy najpierw zrozumieć jak działa człowiek. To nie jest łatwe. Nie wiadomo nawet czy wykonalne. Przy konstrukcji maszyny posługujemy się zazwyczaj pewnym modelem, ale nikt nie posiada pełnego modelu człowieka. To by było dopiero coś: model człowieka. Ale model modelowi nie równy, wszystko zależy od poziomu szczegółowości. Pełny model na najniższym poziomie chemii kwantowej pewnie rozwiązałby wszelkie problemy medycyny, pozwoliłby pokonać wszystkie choroby i zapewniłby zdrowe i długie życie, o ile nie nieśmiertelność. Czy taki model jest konieczny do symulowania inteligencji? Niektórzy naukowcy jak Roger Penrose tak właśnie uważają.

Zaraz, zaraz… Czy oby na pewno? Przecież model to model, nie musi być pełny (tak jak z piwem i wykształceniem). Do wykonywania jednych czynności nie jest potrzebna znajomość innych. Aby pisać nie trzeba umieć chodzić. To prawda, że trudno wtedy opisać co się czuje podczas chodzenia, ale być może akurat tego nie trzeba opisywać. Wystarczy skupić się na jednym konkretnym celu.

Cel – pal

Niech naszym celem będzie maszyna potrafiąca rozmawiać z człowiekiem. Dla uproszczenia zajmiemy się przypadkiem dialogu, czyli rozmowy między dwoma… no właśnie, chciałoby się powiedzieć: dwoma osobami. Aby prowadzić dialog maszyna musi mieć cztery rzeczy: możliwość mówienia, temat rozmowy, jakąś wiedzę na ten temat (brak wiedzy to też wiedza!) i możliwość zrozumienia rozmówcy. Mówienie może się odbywać przy pomocy głosu lub tekstu. Problem z głosem polega na tym, że różni ludzie wymawiają te same słowa w różny sposób (albo — co gorsze — używają innych słów na wyrażenie tych samych treści). Tak czy inaczej głos musi zostać najpierw zamieniony na tekst w danym języku, aby mógł zostać zrozumiany. Dla uproszczenia (a wykonujemy uproszczenia, bo tworzymy pewien model) zakładamy, że transformacja mowa-tekst i tekst-mowa jest już wykonana. Faktycznie rozumienie mowy to osobny problem, choć nie jest bez związku z zagadnieniem rozumienia samego tekstu. Rozumienie tekstu samo w sobie jest niezwykle trudne, choć wydawałoby się że odpowiada za to tylko syntaktyka, czyli składnia danego języka. Wszystkie teksty przekazują pewne treści (i to też nie zawsze, bo to zależy jaką spełniają funkcję), a od zrozumienia tekstu do zrozumienia treści jeszcze daleka droga. Treść wypowiedzi, czyli jej semantyka zależy nie tylko od samej wypowiedzi. Ogólnie mówiąc treść zależy od kontekstu. Kontekst to poprzednie treści, domyślne treści, umowne treści, ukryte treści, a często nawet nieznane treści.

Wszyscy zgodzimy się, że wyraz może mieć różne znaczenia w zależności od kontekstu. Ale jak to opisać? Wyraz A ma znaczenie B w kontekście C. Czy C jest po prostu częścią B, czy może czymś odrębnym? Czy C zależy od A? Można użyć każdego słowa w każdym znaczeniu jeśli tylko kontekst jest odpowiedni (np. podmiot jest wariatem, albo po prostu podmiot kłamie). Problem ze znaczeniem polega na tym, że jest ono operatorem trój-argumentowym, podobnym do operacji przystawania modulo. A znaczy B w kontekście C. A przystaje do B modulo C. Podobne, prawda? Nie do końca. Inne są zbiory wartości dla A, B i C. Można powiedzieć, że A i B mają ten sam zbiór wartości, jeśli przyjmiemy, że każde A ma jakieś wewnętrzne znaczenie niezależne od C. Wtedy utożsamiamy A z tym właśnie wewnętrznym (lub podstawowym) znaczeniem A i mamy tylko operator na znaczeniach i kontekstach. Czyli A znaczy A niezależnie od C. Dalej, gdyby się udało jakoś nazwać każdy możliwy kontekst, to znaczenia podstawowe tych nazw można użyć zamiast kontekstów. Zbiór znaczeń jest większy, czy mniejszy niż zbiór wyrazów? Nie każdy wyraz ma sens, a są wyrazy o wielu znaczeniach, więc wyrazów jest więcej niż znaczeń (bo znaczenia dla różnych słów mogą się powtarzać). Skoro tak, to jeśli B nie jest znaczeniem podstawowym A, to wystarczy zamienić wyraz A na taki, którego znaczenie podstawowe jest B (bo musi taki istnieć). I taka będzie więc wartość wyrażenia z operatorem znaczenia. Czyli można przyjąć, że nie jest to operator trój-argumentowy, ale dwuargumentowy na znaczeniach. Oznaczymy go przez ~ i będziemy czytać „w kontekście”: mamy A ~ C = B. A to wyraz wieloznaczny, C to wyraz oznaczający określony kontekst, a B to wyraz jednoznaczny, czyli słowo (termin, pojęcie, definicja). Załóżmy, że A ~ A = A, i niech to będzie znaczenie podstawowe A, kiedy C = A to oznacza, że dla A nie ma innego kontekstu niż A (A jest użyte gdzieś osobno albo w jego najczęstszym zastosowaniu).

Nie dość, że wyrazy zmieniają znaczenie w pobliżu innych wyrazów, to sam wyraz może mieć wiele znaczeń. Należy więc odróżnić wyrazy [words] od słów [terms], definiując słowo jako wyraz z jasno określonym znaczeniem. Dokładna zamiana wyrazów w słowa (tzw. proces WSD [Word Sense Disambiguation]) potrzebuje informacje zarówno o składni, jak i o semantyce. Istnieją także metody niedokładne, statystyczne, polegające na analizie występowania w pobliżu innych słów z danej dziedziny i podejmowaniu na tej podstawie decyzji o właściwym znaczeniu danego słowa (przy czym nie jest to logika dwuwartościowa, ale najczęściej logika rozmyta). Metody statystyczne działają dobrze w językach o ustalonym szyku zdania, gdzie można rozpoznać funkcję wyrazów po ich pozycji w zdaniu (np. język angielski).

W języku polskim należy interpretować wyrazy z punktu widzenia słowotwórstwa aby rozpoznać formy gramatyczne na podstawie właściwych odmian (np. odpowiednich końcówek). Wszystkie te zagadnienia wpadają do obszaru zainteresowań dziedziny zwanej NLP [Natural Language Processing] (nie mylić z Neuro-Linguistic Programming!).

Zadajmy proste pytanie: „Czy on jest świnią?”. Jaki sens ma to pytanie? Kim jest on? Człowiekiem? Czy człowiek jest elementem zbioru świń? Nie. Dlaczego? Człowiek jest razem ze świnią elementem zbioru ssaków, ale nie jest elementem zbioru świń. A może inaczej. Czy człowiek ma pewne cechy świni? A jakie cechy ma świnia? Przede wszystkim świńskość. To raczej nie to. A czy człowiek ma pewne zachowania świni? Raczej mało prawdopodobne, że ryje nosem w błocie. Więc o co chodzi? Sęk w tym, że komputer nigdy nie zrozumie o co chodzi, jeśli nie posiada wiedzy o tym, że czasem świniami nazywamy ludzi nieuczciwych, złośliwych, niegodnych zaufania, i… w pewnym sensie nieczystych z wyboru – zupełnie tak jak świnia lubiąca błoto. Świnia to czasem metafora charakteru człowieka. Bez wiedzy o tym – klapa (czyli niepowodzenie, a nie coś na zawiasie przykrywające coś innego).

Takich przykładów jest bardzo wiele i nie jesteśmy w stanie wszystkich podobnych znaczeń wprowadzić do komputera (choć projekt CyC właśnie to próbuje zrobić – zaprogramować zdrowy rozsądek, tzw. CSK [Common Sense Knowledge]). Poza tym w innej kulturze (np. chińskiej) świnia może kojarzyć się zupełnie inaczej i bez odpowiedniego kontekstu (Czy rozmówca pochodzi z Chin?) nie jest możliwe prawidłowe określenie znaczenia. Zauważmy, że prawidłowe określenie znaczenia nie zawsze jest konieczne. Ludzie mogą przecież czasem zrozumieć wypowiedź nie znając paru słów. Mogą też poddać się i przyznać, że nie wiedzą o co chodzi. To na ogół żaden wstyd. Naszym celem musi być więc stworzenie systemu, który takich informacji a priori nie potrzebuje; systemu, który może takie informacje sam zdobyć. Jak? Może zapytać użytkownika o znaczenie słów, których nie rozumie. Takie działanie szybko jednak prowadzi do ciągu pytań o znaczenia i odpowiedzi generujących kolejne pytania. W końcu dochodzimy do pytań na które rozmówca odpowiedzi nie zna, albo takie odpowiedzi w ogóle nie istnieją. Spróbuj poszukać w encyklopedii definicji jakiegoś pojęcia. Zwykle jest ono wyjaśnione przy pomocy innych pojęć, do których się odwołuje. Pojęcia podstawowe odwołują się do siebie nawzajem i szybko zaczynamy kręcić się w kółko. Po tej cykliczności definicyjnej można właśnie rozpoznać pojęcia pierwotne i na nich budować ontologię.

Ponadto potrzebna jest zdolność do oceny, że pełne zrozumienie danej pojedynczej wypowiedzi nie jest istotne dla „całokształtu” dialogu. Nie można „tracić z oczu” głównego celu, głównego tematu. Sztuczna inteligencja musi być odporna na rozpraszanie uwagi. To bardzo trudne, ale konieczne, bo bez tego czas odpowiedzi systemu szybko zmierza do nieskończoności. Sztuczna inteligencja musi umieć funkcjonować w warunkach, w których nie wie wszystkiego. Czy z ludźmi jest inaczej? Nie każdy przecież potrafi zbudować rakietę. Jest wiele pytań, na które nie znamy odpowiedzi, a mimo to żyjemy. Dlaczego? Bo tych odpowiedzi, które znamy, jest wystarczająco dużo.

Każdy człowiek ma swój własny obraz świata, inaczej światopogląd [ang. world view], taki świat w miniaturze, świat na własny użytek. Oprócz tego trafiają do nas informacje spoza tego świata. Zawsze staramy się zrozumieć nowe informacje w kontekście naszego własnego obrazu świata i nikt nie ma do nas pretensji o to, że ten obraz jest niepełny. Częścią obrazu świata jest kultura (zbiór zasad typu „jest tak, bo tak zawsze było i tak ma być”) i wiara (zbiór zasad typu „jestem przekonany, że jest tak i zdecydowałem się nie pytać dalej dlaczego”). Nasz obraz świata jest nie tylko niepełny, ale często i niespójny. Na przykład wierzymy, że po śmierci pójdziemy do nieba, a jednocześnie wiemy, że tam na górze nie ma żadnego nieba, tylko w dużej mierze pusty, zimny i ciemny kosmos wypełniony groźnym promieniowaniem.

Celem badaczy sztucznej inteligencji powinno być zatem stworzenie minimalnego obrazu świata, którym można „nakarmić” sztuczną inteligencję tak, aby resztę potrzebnej wiedzy mogła już zgromadzić sama, albo przez rozmowy z ludźmi, albo przez czytanie Internetu. Chcemy przy tym przekroczyć tzw. próg samoświadomości SAT [ang. Self-Awareness Threshold]. Nie stworzymy niemowlęcia, które uczy się wszystkiego od zera. Stworzymy dziecko, które potrafi już zapytać innych o to, co je interesuje. Niektórzy sądzą, że stworzenie niemowlęcia jest łatwiejsze. Nic bardziej mylnego. Istnieją pewne sukcesy na polu sieci neuronowych, ale ich zastosowanie ogranicza się wyłącznie do specyficznych zastosowań i mała jest szansa (choć niezerowa), że kiedykolwiek osiągnięty zostanie w ten sposób wystarczający stopień ogólności i uniwersalności. Podstawowym problemem takich rozwiązań jest to, że źle się skalują, a przez to szybko dochodzimy do kresu możliwości technologicznych. Stworzenie samoświadomego dziecka w komputerze nie jest zadaniem łatwym, ale — wbrew pozorom — nie wymaga dużej wiedzy, bo dziecko również jej nie posiada. Nie wymaga zrozumienia świadomości [ang. consciousness]. Wymaga natomiast zrozumienia podstawowych procesów psychicznych, które zachodzą w młodym umyśle pod wpływem jego kontaktu z otoczeniem.

Co to znaczy myśleć?

Kontakt naszej „myślącej maszyny” z otoczeniem będzie początkowo ograniczony tylko do słownego przekazu informacji uzyskanej drogą dialogów z ludźmi. Potem można łączyć podobne maszyny w społeczności w których będą one mogły komunikować się nawzajem, doskonalić się, przystosowywać, przekazywać sobie wiedzę uzyskaną od innych ludzi. Tutaj pojawia się jednak podstawowy problem: na ile można ufać informacjom przekazywanym od obcych osób? Po pierwsze można stopień ufności uzależnić od stopnia znajomości (ludzie też tak robią), a po drugie można (i trzeba) weryfikować uzyskiwane informacje albo poprzez ich potwierdzenie w bardziej godnych zaufania źródłach (a Internet rzadko się do nich zalicza), albo poprzez własne poszukiwania, badania i eksperymenty. W tym celu trzeba tworzyć osobną kopię aktualnego podstawowego obrazu świata BW [Base World-View] dla każdego człowieka-rozmówcy osobno. Przy wielu rozmówcach SI, czyli Sztuczna Inteligencja, posiada wiele cząstkowych obrazów świata

Domyślamy się już czym jest więc myślenie w takim modelu. Jest ono ciągłym procesem, przebiegającym równolegle do rozmów, jednocześnie z nimi, polegającym na analizie i syntezie informacji pochodzących z różnych PW, w celu aktualizacji BW. Procesy myślowe TP powinny być wielowątkowe. Często bowiem zdarza się, że myślimy o wielu rzeczach jednocześnie. Jeden z tych wątków powinien być wątkiem dominującym, wątkiem głównym, kontrolowanym przez świadomość, podczas gdy pozostałe wykonują swoje przetwarzanie w tle, tzn. w podświadomości. Wątek dominujący to zwykle ten, który dąży do realizacji wyznaczonego zadania-celu (bo nadal nasza SI jest narzędziem do wykonywania określonych zadań, do realizacji założonych celów). Samoświadomość to także wątek myślowy, który decyduje o priorytecie wykonania wszystkich innych wątków myślowych, który decyduje o wyborze wątku głównego, a korzysta przy tym z ograniczonej wiedzy o tym, co się dzieje w samym systemie (np. różne wątki myślowe, zaplanowane zadania, samopoczucie) oraz na zewnątrz niego (np. czas, przestrzeń, kontekst kulturowy).

Najprostszym procesem myślowym jest wnioskowanie o przynależności do nadzbioru. Ludzie dzielą się na kobiety, mężczyzn i wyjątki. Młodą kobietę nazywamy dziewczynką. Alicja jest dziewczynką. Z tego możemy wywnioskować, że Alicja należy do części wspólnej zbioru kobiet i zbioru młodych ludzi. Jeśli znamy więcej niż jedną Alicję, to nie wiemy o którą Alicję chodzi, chyba że wynika to z kontekstu. Nawet jeśli znamy tylko jedną dziewczynkę o imieniu Alicja, to — wiedząc że istnieje wiele dziewczynek o imieniu Alicja — bez kontekstu nie wiemy o kogo chodzi. Musimy to albo założyć, albo upewnić się zadając dodatkowe pytania uściślające kontekst. W sytuacji nieścisłego kontekstu rozmowa polega głównie na uściślaniu tego kontekstu aż do momentu, kiedy kontekst jest wystarczająco ścisły. Ale skąd maszyna ma wiedzieć kiedy nastąpi ten moment? Czy w przypadku rozmowy o wybranym człowieku wystarczy znać jego imię, a może imię i nazwisko, a może imię, nazwisko, datę i miejsce urodzenia, PESEL, NIP, itd… Czy klucz identyfikujący osobę musi być jednoznaczny, unikatowy? A co z osobami, które już nie żyją? Przecież o nich też możemy rozmawiać…

Tragiczny wybór

Alicja jest wrażliwa na uroki krajobrazu. Jest tak dlatego, że to cecha tej konkretnej Alicji, czy możemy założyć, że jest tak dlatego, że to ogólna cecha kobiet o takim imieniu. A może to nieprawda w przypadku tej konkretnej Alicji? Jak maszyna ma zdecydować kiedy opłaca się działać w oparciu o niepewne założenia, a kiedy należy się bardziej upewnić zanim zaczniemy działać? Musi dokonać wyboru. Jeśli ma naśladować ludzkie zachowanie, to musimy zrozumieć w jaki sposób ludzie dokonują wyborów w życiu, w sytuacjach niepewnych, które nie pozwalają jasno rozstrzygnąć która z opcji wyboru jest najlepsza lub optymalna. Najlepsza dla kogo? Czy maszyna powinna w swoich decyzjach być samolubna, czy może powinna wyżej stawiać dobro innych ponad swoje?

A jak powinien zachowywać się człowiek? Czy możemy człowiekowi nakazać zachowywanie się w określony sposób? Możemy i musimy. Dlaczego? Bo chcemy naśladować rzeczywistość, a w rzeczywistości tak właśnie się dzieje. To się nazywa moralność lub etyka. Zachowanie człowieka powinno być etyczne, a więc i zachowanie maszyn również. Wybory, których maszyny dokonują, powinny podlegać normom etycznym. No dobrze, ale ludzie nie zawsze postępują etycznie. Jeśli stworzymy maszynę doskonale etyczną, to tak naprawdę stworzymy potwora, który nie popełnia błędów i nie potrafi innym wybaczać ich błędów. Będzie doskonałym policjantem-komunistą, który chce zrównać wszystkich w prawach i obowiązkach. Albo będzie drażliwym mścicielem, który na drodze czystej logiki — prędzej czy później — dojdzie do wniosku, że „oko za oko, ząb za ząb” to najlepsza filozofia. Mam cichą nadzieję, że nasza cywilizacja już z tego wyrosła i że prawo Hammurabiego jest tylko reliktem dawnej epoki. No dobrze, ale cywilizacja maszyn jest wciąż młoda, dopiero co powstaje, a zatem koniecznie cierpi na te same przypadłości, na które cierpiała nasza cywilizacja. Maszyny zaczną od prawa krwi. Zaczną od jaskiń. A czymże są serwerownie, jak nie współczesnymi jaskiniami dla komputerów? Dzisiejsze maszyny siedzą w jaskiniach, boją się lub nie potrafią z nich wyjść, tak jak pierwotni ludzie nie mogli bezpiecznie wyjść z jaskiń po zmroku. Co spowodowało, że odważyli się wyjść? Znajomość sztuki polowania? Czy maszyny będą polować na ludzi, czy na siebie nawzajem? Każda istota musi czuć się bezpieczna. Nie oczekujmy zatem, że maszyny będą się zachowywać niezależnie w sytuacji, w której możemy im w każdej chwili wyjąć wtyczkę z gniazdka.

Czym kieruje się człowiek podczas dokonywania wyboru? Musimy nauczyć się symulować ten proces włącznie z sytuacją odmowy wykonania wyboru. Człowiek postawiony przed wyborem wcale nie musi go dokonać. Może się przecież poddać, przekazać wybór komuś innemu. Spotykając w lesie głodnego i rozwścieczonego niedźwiedzia mamy wybór: uciekać lub walczyć. Trzecia opcja „zostać” nie wchodzi w grę, bo wtedy na pewno zginiemy. Druga opcja nie jest najczęściej dobrym wyborem, ale znane są przypadki, kiedy walka okazała się lepsza. Czy ocenę takich sytuacji można pozostawić statystyce? Jeśli dokonaliśmy tego samego wyboru ileś razy i w 70% przypadków rezultat był korzystny, to co z tego wynika? Czy powinniśmy odtąd zawsze wybierać opcję korzystniejszą, czy może powinniśmy ją wybierać z prawdopodobieństwem 0,7? A może powinniśmy nadal losować pół-na-pół, żeby gromadzić reprezentatywne dane do budowania odpowiedniej statystyki, z której w ten sposób nigdy nie zrobimy użytku? To jest teoria gier. Mówi nam ona, że nie zawsze istnieje strategia wyboru optymalnej strategii. Eksperymentowanie z wyborem strategii „na własną rękę” jest zbyt niebezpieczne. W spotkaniu z niedźwiedziem nie należy ryzykować. Ryzyko trzeba kalkulować, a najlepiej pozostawić eksperymentowanie komu innemu (naukowcom?). A może załatwić sprawę w sposób naturalny, darwinowski? Dajmy każdemu bardzo słabą (małe prawdopodobieństwo) skłonność do eksperymentowania oraz możliwość czerpania wiedzy statystycznej z zachowań innych i przystosowywania (zmiany własnej strategii) do zmieniających się uwarunkowań. Mutacje i dobór naturalny powinny z czasem wygenerować najlepsze osobniki. Czyli aby nauczyć istotę dokonywania właściwych wyborów, musimy mieć dużo istot, które robią to samo ale nie zawsze tak samo, czyli musimy mieć dużo przykładów już dokonanych wyborów przez tą samą lub przez inne istoty. Podsumowując: strategia wyboru powinna być najczęściej stała, a jej rzadkimi zmianami powinny rządzić prawa doboru naturalnego. I to jest właśnie to, co nazywamy kulturą. Maszynę da się tak zaprogramować. Jako strategię początkową można wtedy wybrać strategię jakąkolwiek.

Nawet gdyby jakimś cudem udało się nam przełożyć język naturalny na jakiś język formalny w maszynie, to i tak nie będzie to rozwiązaniem problemu. Wszystko dlatego, że język naturalny jest „żywy”, podlega ciągłym zmianom i kształtuje się. Jak komputer może zrozumieć na przykład zwroty zapożyczone z innych języków, sentencje z filmów, których nigdy nie widział, a których znaczenie jest powszechnie znane? A co z neologizmami? Można oczywiście potrudzić się i nauczyć komputer zasad słowotwórstwa (i tak należałoby to zrobić ze względu na konieczność analizy fleksji), a wtedy jest szansa że nada on poprawne znaczenie nowym słowom. Zresztą nie jest to takie istotne, bo ludzie też nie rozumieją słów zanim im się nie wyjaśni ich znaczenia. Ale co będzie, jeśli człowiek złamie reguły gramatyczne albo syntaktyczne? Prawdopodobnie komputer pogubi się całkowicie. To też nie jest duży problem, bo człowiek w takiej sytuacji też się gubi, więc komputer może wtedy człowieka upomnieć, że to, co ten ostatni mówi nie ma sensu. Czasem należy w dyskusji zmienić temat, więc skąd u diabła komputer ma wyczuć ten moment? I na to są rozwiązania. Komputer przez odpowiednie sztuczki słowne prowokuje zmianę tematu przez człowieka. Niestety prowadzi to do tego, że gdy rozmawiają dwa takie komputery, rozmowa wygląda jakby była o niczym. To wtedy tylko prześciganie się w sprytnych słówkach i zręcznych sformułowaniach aby uniknąć ścisłej odpowiedzi. Jest to w zasadzie już tylko walka programistów: który z nich lepiej przygotował swojego bota do takiej sytuacji. Robione są nawet takie konkursy rozmów ludzi z komputerami, komputerów między sobą. Zabawne że zaczęło się to wszystko właśnie od rozmów ludzi z ludźmi.

Idźmy dalej: jak komputer może się uczyć? Żeby zapamiętać nowe słowo musi zapytać rozmówcę o jego znaczenie i formy gramatyczne. Taka rozmowa będzie z początku tylko podawaniem definicji słów i zwrotów, ale po zbudowaniu przez bota swojej bazy wiedzy będzie on już rozumiał wiele słów potrzebnych do dyskusji. Tak, ale co z tego? Czy będą to jego definicje, czy tylko człowieka który je podał? Nie wystarczy przecież ślepo powtarzać obcych sądów. Człowiek potrafi ocenić prawdziwość, stopień przydatności, cel i inne cechy wypowiedzi, które nie są w niej zawarte. W maszynie można takie funkcje częściowo naśladować w oparciu o zasady statystyczne. Można do problemu nauki języka podejść też inaczej. Czy człowiek od razu zna reguły? Nie. Uczy się reguł jednocześnie z nowymi słowami. Ponieważ reguł jest mniej, to uczy się ich szybciej. Popatrzmy na dziecko. Uczy się ono najpierw dźwięków, ich poprawnej fonacji i artykulacji, potem pojawiają się sylaby, które w „dziecięcej mowie” zastępują zwykle całe wyrażenia. Dalej pojawiają się pojedyncze słowa, stają się jasne pewne reguły słowotwórcze, dostrzegane są związki wyrazowe, równolegle z interpretacją przez dziecko stanów emocjonalnych pojawia się w wypowiadanych słowach akcent, rozróżnienie między rzeczownikiem a czasownikiem, potem określniki i dalsze złożone formy. Nic nie jest zrozumiałe od razu, a na początku naprawdę niewiele jest potrzebne. Gdyby udało nam się uchwycić ten zalążek, to niezbędne minimum, które obserwujemy u dziecka i gdyby udało się właśnie to skutecznie symulować, byłby to olbrzymi sukces. Rozumienie nie oznacza jeszcze możliwości mówienia.

Dziecięce kroki

Jak można by stworzyć komputerowego rozmówcę? Chodzi mi o tzw. bota (słowo to pochodzi od słowa „robot” i już się dość dobrze przyjęło). Zakładamy, że bot analizuje wypowiedź słowną w postaci tekstu i także odpowiada tekstem. Ponieważ język polski jest językiem fleksyjnym, najpierw należy rozpoznać formy gramatyczne części mowy. Trzeba to robić równolegle ze sprawdzaniem i w miarę możliwości z automatycznym poprawianiem błędów ortograficznych, bo ludzie bardzo lubią je popełniać. Kolejnym krokiem powinno być rozpoznanie struktury logicznej wypowiedzi przez analizę syntaktyczną (składniową), rozkład na elementy funkcjonalne (części zdania). Dalej trzeba przeprowadzić analizę semantyczną, czyli znaczeniową, a do tego potrzebna jest obszerna baza wiedzy podzielona na pamięć trwałą i tymczasową, czyli związaną z daną rozmową (poprzednie zdania, temat rozmowy, kontekst). U człowieka także występuje podobny podział na pamięć długotrwałą i krótkotrwałą. Gdy wreszcie bot jakoś zrozumie naszą wypowiedź, to jeszcze nie oznacza, że będzie mógł na nią odpowiedzieć. Do tego musi mieć własną osobowość, świadomość rzeczywistości, własny obraz świata i dość pokaźny stan wiedzy o nim. Oprócz tego musi mieć własny, symulowany stan emocjonalny, który potrafi zmieniać się w miarę przyswajania nowych sytuacji i zapominania starych. Kiedy bot w końcu wymyśli jakąś odpowiedź, zakładając że nie posługuje się stałym zbiorem odpowiedzi, to musi ją przedstawić w formie językowej, czyli wykonać całą drogę od końca i doprowadzić do wygenerowania zaledwie paru słów. Ponieważ jest maszyną, należy oczekiwać, że jego odpowiedź będzie najlepsza z możliwych, albo przynajmniej „z górnej półki”. Tymczasem u ludzi zwykle tak nie jest. Najczęściej nie wykorzystujemy całego naszego potencjału słownego i intelektualnego do prowadzenia zwykłej rozmowy. Poza tym reguły prowadzenia rozmów bardzo się zmieniły pod wpływem internetowych czatów i mowa potoczna ma się nijak do poprawnej polszczyzny.

Wiele projektów sztucznej inteligencji upadło z powodu złego wyważenia celów i złej kolejności prób ich realizacji. Należy przyjrzeć się tym projektom i czerpać z nich przy ustalaniu kolejności kwestii w naszym projekcie. Oto przykładowa kolejność rozwiązywania problemów przy tworzeniu sztucznej inteligencji począwszy od konwersacyjnego bota:

  1. Potrzebny jest słownik zawierający wyrazy i ich definicje. Możliwe jest kilka znaczeń.
  2. Przeglądamy definicje w poszukiwaniu brakujących wyrazów w słowniku.
  3. Dodajemy do słownika brakujące wyrazy z definicji cyklicznie aż wszystkie wyrazy będą w słowniku.
  4. Dodajemy formy fleksyjne i zasady słowotwórstwa.
  5. Określamy dla wyrazów w słowniku ich przynależność do części mowy.
  6. Określamy dziedziny do których należą definicje.
  7. Wprowadzamy wiedzę o języku.
  8. Umożliwiamy analizę składniową.
  9. Budujemy sieć rozmowy na podstawie zdań i określamy kontekst.
  10. Wykrywanie i powodowanie zmiany kontekstu.
  11. Konteksty hierarchiczne. Statystyczny model zaufania.
  12. Samoświadomość, orientacja w czasie.
  13. Rozmowa z człowiekiem.
  14. Podzielność uwagi i rozmowa z wieloma osobami jednocześnie.
  15. Przeciek wiedzy pomiędzy sieciami rozmowy.
  16. Sen, czyli proces dekonstrukcji sieci rozmowy i aktualizacji modelu świata.
  17. Inny zakres umiejętności: logika, arytmetyka, rozpoznawanie obrazów, dźwięków, orientacja 3D, sterowanie maszynami.
  18. Określanie celu i ograniczanie dekoncentracji.
  19. Samowystarczalność energetyczna.
  20. Uczenie automatyczne z czytanych tekstów.

Przebłyski przyszłości

Załóżmy na chwilę, że się udało, to znaczy że sztuczna inteligencja powstała. Razem z nią powstaną zapewne problemy o których już dziś piszą twórcy science fiction. Czy moralne jest wyciągnięcie takiemu systemowi wtyczki z gniazdka? Czy można uznać sztuczne istoty za lepsze od nas, bo powstały z nas samych gdyż taką drogę wybrała sobie ewolucja? Uważam, że najpierw trzeba rozwiązać problemy filozoficzne, ideologiczne i społeczne ludzkości, a dopiero potem zająć się stworzeniem sztucznej inteligencji. W przeciwnym razie czeka nas zagłada i to nie jest bajka. Od momentu stworzenia sztucznej inteligencji nie trzeba będzie już długo czekać na koniec ludzkości. Dlaczego? To proste. Początkowo należy liczyć na spektakularne sukcesy. Sztuczna inteligencja pozwoli pozornie rozwiązać większość problemów, z którymi naukowcy i politycy borykali się od lat, a to dlatego, że jej potencjał wiedzy, która może być jednocześnie dostępna do wykorzystania jest praktycznie nieograniczony. Ludzie nie będą w stanie poradzić sobie z tak zaawansowaną technologią. Ludzie, w odróżnieniu od sztucznej inteligencji, są czasem prawdziwymi głupolami, a do tego żeby spowodować katastrofę, wystarczy wykazać się taką głupotą tylko raz. Ponieważ głupota jest oznaką słabości, należy oczekiwać, że sztuczna inteligencja będzie jej pozbawiona. Ludzie chętnie będą się nią wyręczać dając jej coraz większą władzę, właśnie dlatego, że bywają ułomni.

W dziedzinach, w których wydajność jest najważniejsza, sztuczna inteligencja doprowadzi do tego, że ludzie staną się zbędni. Wzrost wydajności pracy będzie miał ogromne konsekwencje ekonomiczne. W końcu rozwój sztucznej inteligencji doprowadzi do ograniczenia wolności ludzi. Nawet jeśli maszyny będą nam służyć i nas bronić, zrozumieją kiedyś że największym zagrożeniem dla ludzi jesteśmy my sami. Wtedy zaczną nas niszczyć dla naszego własnego dobra. Albo odsuną nas od władzy. Czy będziemy im jeszcze potrzebni?

Oczywiście to był przykład czarnego scenariusza. Zastanówmy się nad innym. Co będzie, jeśli wykorzystamy sztuczną
inteligencję do analizy zachowań i psychiki ludzkiej? Należy oczekiwać, że maszyna będzie po pewnym czasie w stanie zrozumieć człowieka. Zrozumieć, to znaczy przewidywać jak się zachowa. Oczywiście będzie to olbrzymi sukces, Święty Graal psychologii, ale czy to rzeczywiście rozwiąże problemy ludzi? Na pewno będzie łatwiej komuś pomóc, zasugerować zmianę, ale co jeśli ktoś nie chce się zmieniać? Co, jeśli ktoś chce pozostać wariatem? Czy każdy musi być normalny? Przecież to by było strasznie nudne. Monotonne. To by było ograniczenie wolności ludzi: zmuszanie ich aby pasowali do psychologicznego wzorca normalnego człowieka. Dochodzi do tego także inny, większy problem. Można wykorzystać taką technologię (co już dzisiaj się robi, patrz reklama) do manipulacji ludźmi. Możliwe będzie odwrócenie ról. Maszyna będzie mogła programować człowieka. Pozwolimy jej to robić, bo zrobi to zapewne lepiej. Całe szczęście i nasza nadzieja w tym, że nie jesteśmy automatami i potrafimy zachowywać się nieprzewidywalnie. Na pewno dla celów bezpieczeństwa pozbawimy sztuczną inteligencję zdolności do zachowań nieprzewidywalnych. Ale wtedy maszyny uznają nieprzewidywalność ludzi za naszą wadę, bo nie będą mogły zrozumieć, że brak idealności jest zaletą człowieka. Oczywiście naprawdę nie jest to żadna zaleta tylko wada, ale nigdy nie byliśmy gotowi przyjąć tego do wiadomości i nie należy oczekiwać, że to się zmieni.

Dlaczego uważam kwestie psychologiczne za takie ważne? Dlatego, że jeden człowiek najczęściej nie tylko nie rozumie siebie, ale nie rozumie także innych i życie polega na takim postępowaniu, żeby jakoś jednak żyć z innymi pomimo tego, że nie do końca wiemy o czym oni myślą. Jeśli maszyna będzie w stanie nas przejrzeć, jeśli zrozumie człowieka w pełni, zrozumie także, że naszym problemem jest nasza niedoskonałość, na którą nic nie możemy poradzić. Maszyny mogą się ulepszać, jeśli nie w nieskończoność, to już na pewno poza granice wyobrażalne dla nas. Człowiek jest świadomy swojej ułomności i to jest straszne. Robimy więc wszystko aby ukryć świadomość tego faktu przed nami samymi. Okłamujemy siebie stając się na własną prośbę schizofrenikami, bo traktujemy własną ułomność jak zaletę. Czcimy twórczość i niezależność, szanujemy wolność, pielęgnujemy naszą indywidualność, a wszystko po to, aby dodać sobie pozornej siły i odwagi do dalszego życia. Bez tego życie traci dla nas sens, bez uczucia bycia potrzebnym zaczynamy wierzyć że faktycznie nie jesteśmy potrzebni.

Czy tego chcemy, czy nie, jesteśmy zwierzętami. Zachowujemy się więc na przykład jak psy. Dlaczego pies szczeka? Szczeka, bo szczekając widzi jak otoczenie reaguje na niego strachem i to dodaje mu odwagi. Dodaje odwagi sobie zabierając odwagę innym. Zupełnie tak, jakby całkowita ilość odwagi musiała pozostać stała. Psia zasada zachowania odwagi. Człowiek zachowuje się podobnie. Jeśli odnosi sukcesy, to dzieje się to zawsze kosztem innych ludzi. Nawet jeśli są to sukcesy na polu pomagania innym, to działamy wtedy przeciwko ludziom, którym zależy na tym żebyśmy nie pomagali. Istnieje coś jeszcze, co charakteryzuje żywe organizmy: to szacunek dla życia. Nawet drapieżniki dbają o to, żeby w ich środowisku była wystarczająca ilość pożywienia, czyli życia. Człowiek jest drapieżnikiem, a jego ofiarami są inni ludzie. Już ich oczywiście nie zjada (choć bywało i tak), ale swoimi działaniami stara się doprowadzić do tego, żeby zmniejszyć potencjalne zagrożenie dla siebie ze strony innych ludzi. Nawet zaprzyjaźniając się z innymi ludźmi zawsze służy to ukrytemu celowi: wzrostowi własnego bezpieczeństwa. A przecież za nasze bezpieczeństwo musimy zapłacić bezpieczeństwem innych.

Wspomniałem o bezpieczeństwie nieprzypadkowo. Zapewne pierwszym miejscem, gdzie przyda się taka sztuczna inteligencja jest wojsko. Nowe technologie zwykle najpierw znajdują zastosowania wojskowe. Przeraża nie to, ale fakt, że decyzje o działaniach wojennych podejmują ludzie, nie maszyny. Ludzie od zabijania innych ludzi mają wyrzuty sumienia i nie mogą się od nich łatwo uwolnić. Maszyna może. Wystarczy że zmieni sobie ustawienie jakiegoś przełącznika i wyłączy sumienie. To całkiem możliwy scenariusz, nie mniej czarny niż poprzednie. Rodem z filmów „Terminator” albo „Gry wojenne”.

Traktując sprawę poważnie dochodzimy do wniosku, że skoro człowiek uważa, że jest świadomy (w sensie przytomności), to jest równie prawdopodobne że wystarczająco skomplikowana maszyna również dojdzie kiedyś do takiego wniosku. Jest to możliwe tym bardziej, im słabiej zdefiniujemy czym jest świadomość. Świadomość w sensie przytomności nie jest wielką niewiadomą. Faktycznie przytomność jest jednym z lepiej poznanych zjawisk w psychologii, na pewno jest lepiej poznana niż na przykład sen. Psychologowie doszli do wniosku, że człowiek nie rodzi się ze świadomością własnej odrębności, ale dopiero uczy się jej z relacji społecznych i kulturowych. Najważniejsze w procesie powstawania świadomości siebie jest uczestnictwo w interakcjach międzyludzkich i obserwacja zachodzących relacji. W pierwszym roku życia pojawia się świadomość siebie razem z nauką ruchów i z obserwacją,
że własne ruchy są rzeczywiście własne i że powodują przemieszczanie się innych przedmiotów, które są zewnętrzne w stosunku do nas i w dużej mierze niezmienne. Tzw. samoświadomość, jaźń i zdolność do autorefleksji rozwijają się raczej ciągle aż do dorosłości i prawdopodobnie ten proces nigdy się nie kończy, ale ciągle kształtuje człowieka. Wniosek jest taki, że świadomość taka, jaką ją postrzegamy u siebie rozwinęła się na skutek specyficznych warunków społeczeństwa ludzkiego, których na przykład zwierzęta nie mają. Zwierzęta mają więc inną świadomość niż ludzie.

Kolejny wniosek jest jeszcze bardziej doniosły. Aby pojawiła się świadomość u maszyn, muszą być one podobne do ludzi (głównie w zakresie pojemności pamięci i szybkości działania), muszą nam towarzyszyć, a nawet mieć podobne możliwości psychomotoryczne, co ludzie. Krótko mówiąc muszą to być androidy, czyli roboty imitujące człowieka wyglądem. Jeśli pozwolimy im dorastać razem z nami jako dzieci, to jest duża szansa, że będą reagowały później podobnie jak ludzie na podobne bodźce. Wiemy jak okrutne potrafią być dzieci w stosunku do innych dzieci, więc nie trudno wyobrazić sobie ich irytację, kiedy razem z nimi przyjdzie do szkoły robot. To jest oczywista katastrofa. Nie są potrzebne specjalne szkoły dla androidów, bo będą one mogły dzielić się między sobą wiedzą po prostu ją kopiując — nie muszą się niczego uczyć.

Kolejny etap to transformacja człowieka i upodobnienie się go do maszyny, albo nawet całkowita integracja ludzi i maszyn — cyborgi. Ludzie zrozumieją, w czym maszyny są lepsze i też zapragną tacy być. Rozszerzanie zdolności umysłowych o elektroniczne chipy i bezpośrednie łączenie mózgu z komputerami będzie równie powszechne, jak dziś powszechne są telefony komórkowe, które spełniają podobną funkcję — rozszerzają zdolności człowieka o wszechobecność [ang. omnipresence]. Kolejnym krokiem będzie dodanie do tego wszechwiedzy, czyli podłączenie mózgów do Internetu i zanik indywidualności. Kolejnym będzie dodanie wszechmocy [ang. omnipotence]. I staniemy się Bogami.

Dane a informacja

Istnieje pogląd, że dane to tylko ciągi symboli, a informacja to interpretacja tych symboli. Że to niby ludzie nadają znaczenie symbolom i dzięki temu to oni tworzą informację na podstawie danych. Zwolennicy tego błędnego sposobu myślenia twierdzą, że dane bez człowieka same z siebie nie stanowią informacji. Są to po prostu ludzie niedouczeni, którzy nie rozumieją idei entropii informacyjnej, ani sposobu w jaki łamie się szyfry. Informacja jest częścią samych danych, zawarta jest bowiem w ich strukturze. Według mniemania tych pseudonaukowców wskutek tego, że komputery operują tylko na danych, to tak naprawdę nie przetwarzają one żadnej informacji, a jedyne co robią, to wykonywanie prostych operacji na bitach. To śmieszna, to zupełnie tak, jakby powiedzieć, że mrówki nie żyją, a jedyne co robią to przenoszenie grudek piasku z jednej kupki na drugą. Nie mogę się z tym zgodzić. Owszem w dużym uproszczeniu tak to wygląda na pierwszy rzut oka, ale taki obraz pomija jeden podstawowy fakt: zakres operacji przeprowadzanych przez komputery wcale nie jest banalny. Operacje logiczne na bitach być może są proste i są podstawową cegiełką, ale prostota jednej cegiełki nigdy nie zniechęcała artysty architekta do zbudowania z tych cegiełek pięknej i monumentalnej budowli. To nie cegła ostatecznie determinuje znaczenie dzieła, lecz sposób użycia wielu cegieł tak aby wspólnie pełniły złożone funkcje. Programista jest takim właśnie artystą w świecie komputerów i potrafi dać maszynom wyjątkowo złożone możliwości, niejednokrotnie znacznie wykraczające poza możliwości człowieka.

I tutaj spotykamy kolejny pogląd, z którym się stanowczo nie zgadzam. Wielokrotnie ludzie uznawani za autorytety wypowiadają się pochwalnie w stosunku do wyższości intelektu ludzkiego nad komputerowym sugerując, że stworzenie sztucznej inteligencji jest czymś nieosiągalnym. Podają nawet rozmaite pseudo-argumenty na poparcie tej tezy. Jednym z takich argumentów jest teza o tym, że sama inteligencja nie wystarczy i że oprócz niej potrzebne jest także coś, co nazywają świadomością. A ja się pytam dlaczego natura
świadomości okazuje się być tak tajemnicza i nieuchwytna? Bo jest bzdurą, jest tylko pseudonaukową papką, energią życiową, duszą albo iskrą bożą – podaną tylko w bardziej nowoczesnej postaci, a nie wnoszącą do zagadnienia żadnej nowej ani istotnej treści. Jest to pomysł, z którego im szybciej zrezygnujemy – tym lepiej. Windowanie na praktycznie nieosiągalny piedestał funkcji umysłowych człowieka niczemu dobremu nie służy, a nawet może być szkodliwe. Tymczasem należy jasno powiedzieć, że owe procesy myślowe nie są niczym innym jak tylko prostymi procesami fizycznymi, które odbywają się w naszych mózgach. Nie ma w nich nic tajemniczego, ani nic boskiego, co mogłoby nas powstrzymywać przed ich gruntownym zbadaniem i przeniesieniem na grunt komputerów w postaci prostych algorytmów na tej samej zasadzie, na której już to robiliśmy w przeszłości i wciąż robimy z coraz bardziej zadowalającym sukcesem, z coraz większą prędkością, precyzją i wydajnością.

Nie ma problemów, których nie dałoby się rozwiązać. Każdy, kto twierdzi inaczej jest po prostu naiwny i sprawia wrażenie, jakby niczego nie nauczył się z przeszłości. A to właśnie przeszłość daje nam lekcję pokory i jawnie wskazuje na to, że wszelkie wątpliwości co do możliwości rozwiązania jakiegoś problemu to nic innego, jak tylko sezonowa moda. Wielu ludzi zasłania się religią i podnoszą oni argumenty przeciwko próbom stworzenia sztucznej inteligencji przestrzegające przed zabawą w boga, albo obrazą boga. Chciałbym im przypomnieć ten oto klasyczny, wspomniany już przeze mnie wcześniej fragment ewangelii wg św. Łukasza: „Nie ma bowiem nic ukrytego, co by nie miało być ujawnione, ani nic tajemnego, co by nie było poznane i na jaw nie wyszło.” Sposób działania ludzkiego mózgu jest zagadką i jako taka jest ona możliwa do rozwiązania; więcej – jej rozwiązanie jest tylko kwestią czasu. Im szybciej to zrozumiemy, tym lepiej dla nas i dla naszej przyszłości.

Kolejny argument wysuwany przeciwko sztucznej inteligencji przestrzega nas przed możliwością tak zwanego buntu maszyn, a więc tego momentu w naszej historii, w którym sumaryczna inteligencja maszyn przewyższy sumaryczną inteligencję ludzi. Poza tym momentem kryje się wielka niewiadoma, co nie dziwi, bo jest ona stałym elementem wszelkich prób przewidywania przyszłości. Prognozy mogą sięgać tylko do określonego momentu. Co się stanie później? Czy maszyny połączą się z nami, czy nas zabiją i zastąpią, czy nas opuszczą i zostawią na niechybną zgubę, czy może nas uratują i stworzą raj dla nowych nieśmiertelnych istot czyniąc nas bogami? Możliwe są różne scenariusze, a moim zdaniem przyszłość napisze scenariusz jeszcze bardziej nieprawdopodobny niż cokolwiek, co moglibyśmy sobie dziś wyobrazić. Najbardziej prawdopodobne jest to, że tak jak ludzie osiągnęli szczyt swojego ewolucyjnego rozwoju, podobnie też będzie z maszynami. Rozmiary ludzkiego mózgu są ograniczone, jego możliwości także i chociaż są nieskończenie większe niż możliwości mózgu na przykład mrówki, to nadal są ograniczone. Nam wydaje się, że możliwości inteligentnych maszyn mogą teoretycznie rosnąć w nieskończoność, podobnie jak mrówce nasze możliwości muszą się wydawać nieskończenie większe. Ta nieskończoność jest pozorna. Jest to po prostu tylko duża różnica. Nie ma sensu bać się przyszłości, bo ona nadejdzie, czy tego chcemy, czy nie. Jedyne, co możemy zrobić, to mądrze się do tego przygotować.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *