Sztuczna inteligencja. Jej natura i przyszłość - ebook
Sztuczna inteligencja. Jej natura i przyszłość - ebook
KRÓTKIE WPROWADZENIE - książki, które zmieniają sposób myślenia! Tomik w zwięzły i przystępny sposób prezentuje historię rozwoju sztucznej inteligencji, jej możliwości i ograniczenia. W jaki sposób działa? W jakich dziedzinach życia może być wykorzystana? Jakie zagrożenia stwarza? Jak zmienia nasze myślenie o człowieczeństwie?
Interdyscyplinarna seria KRÓTKIE WPROWADZENIE piórem uznanych ekspertów skupionych wokół Uniwersytetu Oksfordzkiego przybliża aktualną wiedzę na temat współczesnego świata i pomaga go zrozumieć. W atrakcyjny sposób prezentuje najważniejsze zagadnienia XXI w. – od kultury, religii, historii przez nauki przyrodnicze po technikę. To publikacje popularnonaukowe, które w formule przystępnej, dalekiej od akademickiego wykładu, prezentują wybrane kwestie.
Książki idealne zarówno jako wprowadzenie do nowych tematów, jak i uzupełnienie wiedzy o tym, co nas pasjonuje. Najnowsze fakty, analizy ekspertów, błyskotliwe interpretacje.
Opiekę merytoryczną nad polską edycją serii sprawują naukowcy z Uniwersytetu Łódzkiego: prof. Krystyna Kujawińska Courtney, prof. Ewa Gajewska, prof. Aneta Pawłowska, prof. Jerzy Gajdka, prof. Piotr Stalmaszczyk.
Spis treści
Podziękowania
ilustracji
1. Czym jest sztuczna inteligencja?
2. Ogólna inteligencja jako Święty Graal
3. Język, kreatywność, emocje
4. Sztuczne sieci neuronowe
5. Roboty i sztuczne życie
6. Ale czy to naprawdę jest inteligencja?
7. Osobliwość
Bibliografia
Indeks
Kategoria: | Filozofia |
Zabezpieczenie: |
Watermark
|
ISBN: | 978-83-8142-644-2 |
Rozmiar pliku: | 2,1 MB |
FRAGMENT KSIĄŻKI
1. Problem małpy i bananów: w jaki sposób małpa ma dosięgnąć do bananów?
Przedruk z: M.A. Boden, Artificial Intelligence and Natural Man, Basic Books, New York 1977, s. 387
2. Globalna przestrzeń robocza w systemie rozproszonym
Za: B.J. Baars, A Cognitive Theory of Consciousness, Cambridge University Press, Cambridge 1988, s. 88 (za uprzejmą zgodą)
3. Podobieństwa między terminami z zakresu globalnej przestrzeni roboczej a innymi popularnymi pojęciami
Za: B.J. Baars, A Cognitive Theory of Consciousness, Cambridge University Press, Cambridge 1988, s. 44 (za uprzejmą zgodą)Rozdział 1
Czym jest sztuczna inteligencja?
Sztuczna inteligencja (AI, ang. artificial intelligence) usiłuje sprawić, by komputery wykonywały te same czynności, które wykonują umysły.
Niektóre z tych czynności (np. rozumowanie) zazwyczaj są opisywane jako „inteligentne”. Inne (np. widzenie) nie. Ale wszystkie wymagają umiejętności psychologicznych – takich jak percepcja, kojarzenie, przewidywanie, planowanie, kontrola motoryczna – które umożliwiają ludziom i zwierzętom realizowanie ich celów.
Inteligencja nie jest jednowymiarowa, lecz stanowi bogato ustrukturowaną przestrzeń różnorodnych zdolności przetwarzania informacji. Stosownie do tego sztuczna inteligencja wykorzystuje wiele różnych technik, realizując wiele różnych zadań.
I jest wszędzie.
Praktyczne zastosowania sztucznej inteligencji można znaleźć w domu, samochodzie (i samochodzie autonomicznym), biurze, szpitalu, na niebie… i w Internecie, w tym w Internecie Rzeczy (IoT, ang. Internet of Things) (który łączy w sieć coraz liczniejsze czujniki fizyczne w naszych gadżetach, ubraniach i w naszym otoczeniu). Część z nich znajduje się poza naszą planetą, np. roboty wysłane na Księżyc i na Marsa czy satelity krążące w przestrzeni kosmicznej. Hollywoodzkie animacje, gry wideo i gry komputerowe, systemy nawigacji satelitarnej czy wyszukiwarka Google – wszystko to opiera się na technikach sztucznej inteligencji. Podobnie jak systemy wykorzystywane przez finansistów do przewidywania ruchów na giełdzie i przez rządy państw narodowych do wdrażania decyzji politycznych dotyczących zdrowia i transportu, podobnie jak aplikacje w komórkach. Dodajcie do tego awatary w rzeczywistości wirtualnej i raczkujące modele emocji, opracowywane dla robotów „do towarzystwa”. Nawet galerie sztuki wykorzystują sztuczną inteligencję – na swoich stronach internetowych oraz podczas wystaw sztuki komputerowej. Z mniej przyjemnych rzeczy trzeba wspomnieć o dronach wojskowych, które są wykorzystywane na dzisiejszych polach walki – na szczęście są tam też roboty saperskie.
Sztuczna inteligencja ma dwa główne cele. Pierwszy ma charakter technologiczny – sprawienie, by komputery robiły pożyteczne rzeczy (często przy wykorzystaniu metod mających niewiele wspólnego z działaniem umysłów). Drugi ma charakter naukowy – polega na wykorzystaniu pojęć i modeli sztucznej inteligencji w taki sposób, by pomogły one odpowiedzieć na pytania dotyczące ludzi i innych żywych istot. Większość ludzi pracujących przy sztucznej inteligencji koncentruje się na jednym z tych aspektów, ale niektórzy zajmują się oboma.
Poza dostarczaniem niezliczonych gadżetów technologicznych sztuczna inteligencja wywarła głęboki wpływ na nauki o życiu. Komputerowy model teorii naukowej jest testem jej jasności i spójności oraz przekonującą demonstracją jej – często nieznanych – implikacji. Inną sprawą jest to, czy teoria jest prawdziwa – zależy to bowiem od dowodów pochodzących z rozważanej dziedziny. Ale już samo odkrycie, że teoria jest fałszywa, może być pouczające.
Sztuczna inteligencja umożliwiła, zwłaszcza psychologom i neuronaukowcom1, opracowanie mocnych teorii umysłu-mózgu. Obejmują one modele tego, jak działa mózg fizyczny i – a jest to odmienna, ale równie ważna kwestia – tego, co właściwie mózg robi: na jakie obliczeniowe (psychologiczne) pytania odpowiada i jakiego rodzaju procesy przetwarzania informacji mu to umożliwiają. Wiele pytań pozostaje bez odpowiedzi, ponieważ sama sztuczna inteligencja nauczyła nas, że nasze umysły są o wiele bardziej skomplikowane, niż sądzili wcześniej psychologowie.
Także biologowie korzystają ze sztucznej inteligencji – pod postacią „sztucznego życia” (A-life), czyli opracowywania modeli komputerowych dotyczących różnych aspektów istot żywych. Pomaga im to wyjaśnić różne typy zachowania zwierząt, rozwój form organicznych, ewolucję biologiczną i naturę samego życia.
Sztuczna inteligencja ma wpływ nie tylko na nauki o życiu, lecz także na filozofię. Wielu współczesnych filozofów opiera swoje ujęcia umysłu na pojęciach sztucznej inteligencji. Wykorzystują je, odnosząc się np. do znanego problemu umysł-ciało, zagadki wolnej woli i wielu tajemnic dotyczących świadomości. Owe idee filozoficzne są jednak wysoce kontrowersyjne. Istnieje też głęboka różnica zdań co do tego, czy jakikolwiek system sztucznej inteligencji może posiadać prawdziwą inteligencję, kreatywność czy prawdziwe życie.
Wreszcie – a jest to nie mniej ważne – sztuczna inteligencja zakwestionowała nasz sposób myślenia o człowieczeństwie i jego przyszłości. Rzeczywiście, wielu ludzi niepokoi się, czy w ogóle czeka nas jakakolwiek przyszłość, ponieważ przypuszczają, że sztuczna inteligencja przerośnie inteligencję człowieka. Mimo że kilku myślicieli cieszy się na taką perspektywę, większość jest nią przerażona: co się stanie, pytają, z ludzką godnością i odpowiedzialnością?
Wszystkie te kwestie omówię w kolejnych rozdziałach.
Maszyny wirtualne
Ktoś mógłby powiedzieć, że „myśleć o sztucznej inteligencji, to myśleć o komputerach”. Cóż – i tak, i nie. Nie chodzi o komputery jako takie. Chodzi o to, co robią. Innymi słowy, chociaż sztuczna inteligencja potrzebuje maszyn fizycznych (czyli komputerów), to najlepiej jest myśleć o niej w kontekście korzystania z tego, co informatycy nazywają maszynami wirtualnymi.
Maszyna wirtualna nie jest maszyną przedstawioną w rzeczywistości wirtualnej ani czymś w rodzaju symulacji silnika samochodowego, którą wykorzystuje się do kształcenia mechaników. Maszyna wirtualna jest emulacją pewnego systemu w celu wykonywania na nim procesów dokładnie w taki sam sposób, jak w oryginalnym fizycznym systemie.
W ramach analogii pomyślcie o orkiestrze. Instrumenty muszą działać. Drewno, metal, skóra i ketgut muszą podlegać prawom fizyki, jeśli muzyka ma brzmieć tak, jak powinna. Ale publiczność w ogóle o tym nie myśli. Interesuje ją muzyka. Nie interesują jej też pojedyncze nuty, a co dopiero wibracje powietrza, które wytwarzają dźwięk. Słuchają tworzonych przez nuty muzycznych „kształtów”: melodii i harmonii, motywów przewodnich i wariacji, legato i synkop.
Ze sztuczną inteligencją jest podobnie. Przykładowo, o edytorze tekstu jego projektant myśli jako o czymś, co bezpośrednio zajmuje się słowami i akapitami, tak też doświadczają go użytkownicy. Jednak sam program zazwyczaj nie zawiera ani jednych, ani drugich. (Niektóre zawierają np. informacje o prawach autorskich, które użytkownik z łatwością może wstawić). O sieci neuronowej (zob. rozdział 4) myśli się jako o czymś, co przetwarza informacje równolegle, mimo że jest ona zazwyczaj zaimplementowana w (sekwencyjnym) komputerze o architekturze von Neumanna.
Nie chodzi o to, że maszyna wirtualna jest tylko poręczną fikcją, tworem naszej wyobraźni. Maszyny wirtualne są rzeczywistymi bytami. Potrafią sprawić, by coś się stało zarówno wewnątrz systemu, jak i (jeśli połączone są z urządzeniami takimi jak kamery czy dłonie robotów) w świecie zewnętrznym. Ludzie pracujący przy sztucznej inteligencji, usiłując odkryć, co jest nie tak, gdy program robi coś nieoczekiwanego, rzadko biorą pod uwagę wady sprzętu (hardware). Zazwyczaj interesują ich zdarzenia i interakcje przyczynowe w maszynie wirtualnej, czyli oprogramowaniu (software).
Także języki programowania są2 maszynami wirtualnymi (których instrukcje należy przełożyć na język maszynowy, zanim się je uruchomi). Niektóre definiowane są w kategoriach języków programowania niższego poziomu, tak więc przekształcenia należy dokonać na kilku poziomach. Są one potrzebne, ponieważ większość ludzi nie jest w stanie myśleć o przetwarzaniu informacji na poziomie wzorców bitowych wykorzystywanych w języku maszynowym – nikt nie jest w stanie myśleć o złożonych procesach na tak wielkim poziomie szczegółowości.
Nie dotyczy to tylko języków programowania. Maszyny wirtualne generalnie składają się ze wzorców działania (przetwarzania informacji), które istnieją na różnych poziomach. Co więcej, nie dotyczy to wyłącznie maszyn wirtualnych uruchamianych na komputerach. Jak zobaczymy w rozdziale 6, także ludzki umysł można rozumieć jako maszynę wirtualną – czy raczej jako zbiór wchodzących ze sobą we wzajemne relacje maszyn wirtualnych, działających równolegle (i rozwijanych czy wykształcanych w różnym czasie) – zaimplementowaną w mózgu.
Postęp w sztucznej inteligencji wymaga postępu w definiowaniu interesujących/użytecznych maszyn wirtualnych. Fizycznie potężniejsze komputery (większe, szybsze) to jedna kwestia. Mogą one nawet być konieczne, aby zostały zaimplementowane pewne rodzaje maszyn wirtualnych. Ale nie da się ich wykorzystywać dopóty, dopóki nie da się na nich uruchomić informacyjnie potężnych maszyn wirtualnych. (Analogicznie, postęp w neuronauce wymaga lepszego zrozumienia tego, jakie psychologiczne maszyny wirtualne zostają zaimplementowane przez fizyczne neurony; zob. rozdział 7).
Używa się różnych rodzajów informacji na temat świata zewnętrznego. Każdy system sztucznej inteligencji potrzebuje urządzeń wejścia i wyjścia, choćby klawiatury i ekranu. Często są to także służące specjalnym celom czujniki (np. kamery czy włoski czuciowe, wrażliwe na zmiany ciśnienia) i/lub efektory (np. syntezatory dźwięku dla muzyki czy mowy albo dłonie robotów). Program sztucznej inteligencji łączy się z tymi interfejsami komputer – świat (powoduje w nich zmianę), jak również wewnętrznie przetwarza informacje.
Przetwarzanie przez sztuczną inteligencję zazwyczaj obejmuje wewnętrzne urządzenia wejścia i wyjścia, które umożliwiają wzajemną interakcję różnym maszynom wirtualnym wewnątrz jednego systemu. Na przykład jeden fragment programu szachowego może wykryć potencjalne zagrożenie, zauważając coś, co dzieje się w innym fragmencie i skontaktować się z jeszcze innym, aby odnaleźć blokujący ruch.
Główne rodzaje sztucznej inteligencji
Sposób przetwarzania informacji zależy od tego, o jakiej maszynie wirtualnej mówimy. Jak zobaczymy w kolejnych rozdziałach, istnieje pięć głównych rodzajów sztucznej inteligencji, a każdy z nich ma wiele odmian. Pierwszym jest klasyczna czy symboliczna sztuczna inteligencja, czasami nazywana GOFAI (ang. good old-fashioned AI – stara dobra sztuczna inteligencja). Kolejnym są sztuczne sieci neuronowe, czyli koneksjonizm. Pozostałe to: programowanie ewolucyjne, automaty komórkowe i systemy dynamiczne.
Poszczególni badacze często korzystają tylko z jednej metody, ale istnieją także hybrydowe maszyny wirtualne. W rozdziale 4 wspomnę np. teorię ludzkiego działania, która nieustannie przełącza się między przetwarzaniem symbolicznym a koneksjonistycznym. (Tłumaczy to, dlaczego i w jaki sposób coś niezwiązanego z wykonywanym w danym środowisku zadaniem może nas od wykonywania tego zadania odciągnąć). Z kolei w rozdziale 5 opiszemy urządzenie sensomotoryczne, które łączy „osadzoną” robotykę3, sieci neuronowe i programowanie ewolucyjne. (Urządzenie to pomaga robotowi znaleźć drogę do „domu”, wykorzystując kartonowy trójkąt jako punkt orientacyjny).
Poza zastosowaniami praktycznymi podejścia te mogą rzucić nieco światła na umysł, zachowanie i życie. Sieci neuronowe przydają się przy modelowaniu aspektów mózgu i przy rozpoznawaniu wzorców oraz uczeniu. Klasyczna sztuczna inteligencja (zwłaszcza w połączeniu ze statystyką) także może modelować uczenie się, jak również planowanie i rozumowanie. Programowanie ewolucyjne rzuca światło na biologię ewolucyjną i rozwój mózgu. Automaty komórkowe i systemy dynamiczne można wykorzystywać do tworzenia modeli rozwoju istot żywych. Niektóre metodologie są bliższe biologii niż psychologii, a niektóre są bliższe zachowaniu nierefleksyjnemu niż świadomemu myśleniu. Aby zrozumieć pełen zakres umysłowości, potrzebujemy ich wszystkich – a zapewne jeszcze innych.
Wielu badaczy sztucznej inteligencji nie przejmuje się tym, jak działa umysł – dążą oni do technologicznej skuteczności, a nie do naukowego zrozumienia. Nawet jeśli stosowane przez nich techniki pochodzą z psychologii, mają z nią teraz niewielki związek. Zobaczymy jednak, że postęp w sztucznej inteligencji ogólnego przeznaczenia (ogólnej sztucznej inteligencji – AGI, ang. artificial general intelligence) będzie wymagał dogłębnego zrozumienia architektury obliczeniowej umysłów.
Jak przewidziano powstanie sztucznej inteligencji
Powstanie sztucznej inteligencji przewidziała w latach 40. XIX wieku lady Ada Lovelace . Mówiąc bardziej precyzyjnie, przewidziała powstanie jej części. Koncentrowała się na symbolach i logice, nie mogąc mieć jeszcze pojęcia o sieciach neuronowych czy o sztucznej inteligencji ewolucyjnej bądź dynamicznej. Nie interesowały jej też zupełnie psychologiczne cele sztucznej inteligencji – jej zainteresowania miały charakter czysto technologiczny.
Powiedziała na przykład, że „maszyna może komponować wyrafinowane i naukowe utwory muzyczne o dowolnym stopniu złożoności czy rozmiaru”, jak również wyrażać „wielkie fakty świata naturalnego”, otwierając „wspaniałą epokę w historii nauki”. (Nie byłaby więc zaskoczona, gdyby zobaczyła, że dwa stulecia później naukowcy używają Big Data i przemyślnych trików programistycznych, by przyczyniać się do rozwoju wiedzy w zakresie genetyki, farmakologii, epidemiologii… lista jest praktycznie nieskończona).
Maszyna, którą miała na myśli, była Maszyną Analityczną. To złożone z przekładni i kół zębatych urządzenie (nigdy nie ukończone) zostało zaprojektowane przez jej przyjaciela, Charlesa Babbage’a, w 1834 roku. Chociaż miało służyć do algebry i liczb, było zasadniczo odpowiednikiem cyfrowego komputera ogólnego przeznaczenia.
Ada Lovelace dostrzegała możliwe ogólne zastosowania Maszyny, jej zdolność do przetwarzania symboli reprezentujących „wszystkie przedmioty we wszechświecie”. Opisała też rozmaite podstawy współczesnego programowania: przechowywanie instrukcji programu w pamięci, hierarchicznie zagnieżdżone podprogramy, adresowanie, pętle, warunki, komentarze, a nawet błędy (bugs). Nie powiedziała jednak nic na temat tego, w jaki sposób kompozycja muzyczna lub rozumowanie naukowe dałyby się zaimplementować na maszynie Babbage’a. Sztuczna inteligencja (technicznie) była możliwa, to prawda – ale wciąż tajemnicą pozostawało to, jak ją osiągnąć.
Początki sztucznej inteligencji
Tajemnicę tę do pewnego stopnia wyjaśnił sto lat później Alan Turing. W 1936 roku Turing wykazał, że w zasadzie wszelkie możliwe obliczenia mogą zostać wykonane przez system matematyczny nazywany obecnie uniwersalną maszyną Turinga . Ten wymyślony system tworzy i modyfikuje kombinacje binarnych symboli – przedstawianych jako „0” i „1”. Po pracy przy łamaniu szyfrów w Bletchley Park podczas II wojny światowej resztę lat 40. XX wieku Turing poświęcił na obmyślanie tego, w jaki sposób maszyna fizyczna mogłaby zbliżyć się do tej abstrakcyjnie zdefiniowanej maszyny (w 1948 roku, w Manchesterze, pomógł zaprojektować pierwszy nowoczesny komputer) i jak spowodować, aby takie urządzenie działało inteligentnie.
W przeciwieństwie do Ady Lovelace, Turing zaakceptował oba cele sztucznej inteligencji. Chciał, aby nowe maszyny robiły normalne rzeczy, o których mówi się zazwyczaj, że wymagają inteligencji (przypuszczalnie, stosując wysoce nienaturalne techniki), jak również, by modelowały procesy zachodzące w biologicznych umysłach.
Artykuł z 1950 roku, w którym autor żartobliwie zaproponował Test Turinga (zob. rozdział 6), zamierzony był przede wszystkim jako manifest sztucznej inteligencji . (Pełniejsza wersja została napisana zaraz po wojnie, ale ustawa o tajemnicy państwowej uniemożliwiła jej publikację). Turing zidentyfikował w nim kluczowe kwestie dotyczące zachodzącego w inteligencji przetwarzania informacji (granie w gry, percepcja, język oraz uczenie się) i przedstawił kuszące aluzje do tego, co już udało się osiągnąć. (Jedynie „aluzje”, ponieważ prace w Bletchley Park wciąż były ściśle tajne). Sugerował nawet podejścia obliczeniowe – takie jak sieci neuronowe i obliczanie ewolucyjne – które stały się wiodące wiele lat później. Ale tajemnica nie została jeszcze w pełni wyjaśniona. Były to uwagi o wysokim stopniu ogólności: były programatyczne, lecz nie były programami.
Przekonanie Turinga, że sztuczna inteligencja musi być w jakiś sposób możliwa, wsparli na początku lat 40. XX wieku neurolog/psychiatra Warren McCulloch i matematyk Walter Pitts. W swoim artykule, zatytułowanym A Logical Calculus of the Ideas Immanent in Nervous Activity , połączyli oni pracę Turinga z dwiema innymi ekscytującymi koncepcjami (pochodzącymi z początku XX wieku): rachunkiem zdań Bertranda Russella i teorią synaps nerwowych Charlesa Sherringtona.
Kluczowym elementem rachunku zdań jest to, że ma ona charakter binarny. O każdym zdaniu zakłada się, że jest albo prawdziwe, albo fałszywe. Nie ma wartości pośrednich, dopuszczenia niepewności czy prawdopodobieństwa. Możliwe są jedynie „wartości logiczne”, czyli prawda i fałsz.
Co więcej, buduje się złożone zdania i przeprowadza dedukcyjną argumentację za pomocą operatorów logicznych (takich jak i, lub, jeśli – to), których znaczenie zdefiniowane jest w kategoriach prawdziwości/fałszywości zdań składowych. Przykładowo, jeśli dwa (lub więcej) zdania połączone są przez operator i, to zakłada się, że oba/wszystkie są prawdziwe. Zatem twierdzenie „Maria wyszła za Tomasza i Oliwia wyszła za Piotra” jest prawdziwe wtedy i tylko wtedy, gdy oba zdania, „Maria wyszła za Tomasza” i „Oliwia wyszła za Piotra”, są prawdziwe. Jeśli w rzeczywistości Oliwia nie wyszła za Piotra, to złożone zdanie zawierające operator i jest fałszywe.
McCulloch i Pitts mogli połączyć ze sobą koncepcje Russella i Sherringtona, ponieważ obydwaj opisywali systemy binarne. Wartości logiczne prawda/fałsz zostały przeniesione na włączoną/wyłączoną aktywność komórek mózgu i na 0/1 pojedynczych stanów w maszynach Turinga. Sherrington wierzył nie tylko w to, że neurony są w sensie ścisłym włączone/wyłączone, ale także w to, że mają stałe progi. Bramki logiczne (obliczanie i, lub oraz nie) definiowano zatem jako małe sieci neuronowe, które mogą się łączyć w taki sposób, że reprezentują bardzo złożone zdania. Wszystko, co da się przedstawić w języku rachunku zdań, może zostać obliczone przez jakąś sieć neuronową i przez jakąś maszynę Turinga.
Krótko mówiąc, neurofizjologia, logika i obliczanie zostały połączone – a załapała się też psychologia. McCulloch i Pitts sądzili (jak wielu ówczesnych filozofów), że język naturalny zasadniczo sprowadza się do logiki. Zatem wszystkie rozumowania i sądzenia, od naukowych argumentów do schizofrenicznych rojeń, były wodą na ich teoretyczny młyn. Przewidzieli oni czas, w którym dla całej psychologii „specyfikacja sieci przyczyni się do wszystkiego, co można osiągnąć w tej dziedzinie”.
Zasadnicza implikacja była oczywista: jedno i to samo podejście teoretyczne – mianowicie Turingowskie obliczanie – można zastosować do inteligencji człowieka i inteligencji maszyny. (Artykuł McCullocha/Pittsa miał nawet wpływ na projektowanie komputerów – John von Neumann, który zamierzał wtedy wykorzystać kod dziesiętny, przeczytał go i przeszedł na system binarny).
Turing oczywiście się z tym zgadzał. Ale nie mógł posunąć do przodu prac nad sztuczną inteligencją – dostępna technologia była zbyt prymitywna. Jednak w połowie lat 50. XX wieku powstały potężniejsze i/lub łatwiejsze w użyciu maszyny. „Łatwiejsze w użyciu” nie oznacza tutaj, że łatwiej było naciskać przyciski na komputerze lub przesuwać go po pokoju. Oznacza raczej, że prościej było zdefiniować nowe maszyny wirtualne (np. języki programowania), które można było łatwiej wykorzystywać do definiowania maszyn wirtualnych wyższego rzędu (np. programów do wykonywania działań matematycznych bądź planowania).
Badania dotyczące symbolicznej sztucznej inteligencji, prowadzone zasadniczo w duchu manifestu Turinga, rozwijano po obu stronach Atlantyku. Jednym z punktów przełomowych był stworzony pod koniec lat 50. przez Arthura Samuela program grający w warcaby, który trafił na okładki gazet, ponieważ nauczył się pokonywać samego Samuela . Był to znak, że komputery mogą w przyszłości rozwinąć nadludzką inteligencję, przewyższającą zdolności ich programistów.
Drugi sygnał tego rodzaju również miał miejsce pod koniec lat 50., kiedy Maszyna Teorii Logicznej (Logic Theory Machine) nie tylko udowodniła osiemnaście kluczowych twierdzeń logicznych Russella, lecz także znalazła bardziej elegancki dowód na jedno z nich . Rzeczywiście, robiło to ogromne wrażenie. Podczas gdy Samuel był tylko przeciętnym graczem w warcaby, Russell był jednym z wiodących logików na świecie. (Sam Russell był zachwycony tym osiągnięciem, ale „Journal of Symbolic Logic” odmówił publikacji artykułu, którego autorem był program komputerowy, zwłaszcza, że nie dowodził on nowego twierdzenia).
Maszynę Teorii Logicznej prześcignął niebawem General Problem Solver (GPS) – „prześcignął” nie w tym sensie, że GPS potrafił pokonać jeszcze większą liczbę wyjątkowych geniuszy, lecz w tym znaczeniu, że nie ograniczał się tylko do jednej dziedziny. Jak sugeruje nazwa, GPS można było zastosować do każdego problemu, który dawało się przedstawić (jak zostanie wyjaśnione w rozdziale 2) w kategoriach celów, podcelów, działań i operatorów. Zadaniem programistów było określenie celów, działań i operatorów ważnych dla konkretnej dyscypliny. Kiedy to już jednak zrobiono, rozumowanie przeprowadzał sam program.
GPS rozwiązał np. problem „misjonarzy i ludożerców”. (Trzech misjonarzy i trzech ludożerców na jednym brzegu rzeki; łódka, w której mieszczą się dwie osoby; w jaki sposób przeprawić wszystkich przez rzekę, aby w żadnej sytuacji, tj. na żadnym z brzegów ani na łódce, liczba ludożerców nie była wyższa od liczby misjonarzy? W przeciwnym razie misjonarze zostaną zjedzeni tam, gdzie ich liczba będzie mniejsza niż liczba ludożerców). Jest to zadanie trudne nawet dla człowieka, ponieważ wymaga, aby zrobić (w algorytmie) krok wstecz, żeby pójść (z rozwiązaniem) do przodu (tj. by jedna z osób wróciła, żeby popłynąć jeszcze raz)4. (Spróbujcie rozwiązać tę zagadkę sami, korzystając z monet!)
Maszyna Teorii Logicznej i GPS były przykładami starej dobrej sztucznej inteligencji. Dzisiaj są już one z pewnością „przestarzałe”. Ale były też „dobre”, ponieważ stanowiły pionierskie użycie heurystyki i planowania – a obie te rzeczy są niezwykle ważne dla dzisiejszej sztucznej inteligencji (zob. rozdział 2).
Stara dobra sztuczna inteligencja nie była jedynym typem sztucznej inteligencji zainspirowanym przez artykuł o „rachunku logicznym”. Czerpał z niego również koneksjonizm. W latach 50. XX wieku sieci neuronów logicznych McCullocha-Pittsa, zbudowane w tym celu lub zasymulowane w komputerach cyfrowych, wykorzystywano (robił tak np. Albert Uttley ) do modelowania skojarzeniowego uczenia się i odruchów warunkowych. (W przeciwieństwie do dzisiejszych sieci neuronowych stosowały one przetwarzanie lokalne, a nie rozproszone – zob. rozdział 4).
Wczesne modelowanie sieci nie było jednak całkowicie zdominowane przez neurologikę. System zaimplementowany (w komputerach analogowych) przez Raymonda Beurle’a w połowie lat 50. XX wieku był zupełnie inny . Zamiast od starannie zaprojektowanych sieci bramek logicznych, zaczął on od dwuwymiarowych szeregów losowo połączonych jednostek o zmiennych progach. Sądził, że neuronowa samoorganizacja spowodowana jest przez dynamiczne fale aktywacji – budowania, rozprzestrzeniania się, trwania, zamierania i czasami interakcji.
Beurle zdał sobie sprawę, że powiedzieć, iż procesy psychologiczne można modelować za pomocą maszyny logicznej, to coś innego niż powiedzieć, że mózg rzeczywiście jest taką maszyną. Wykazali to już McCulloch i Pitts. Zaledwie cztery lata po swoim przełomowym artykule opublikowali kolejny, w którym dowodzili, że funkcjonowaniu mózgu bliższa jest termodynamika niż logika . Logika ustępowała statystyce, jednostki – kolektywności, a deterministyczna czystość – szumowi prawdopodobieństwa.
Innymi słowy, opisali oni coś, co dzisiaj nazywa się odpornym na błędy obliczaniem rozproszonym, tolerującym błędy (zob. rozdział 4). To nowe podejście postrzegali jako „rozwinięcie” swojego poprzedniego ujęcia, a nie jego zaprzeczenie. Było ono jednak bardziej realistyczne pod względem biologicznym.
------------------------------------------------------------------------
1 Do tej pory mówiło się raczej „neurobiolog”, ale kalka językowa z ang. neuroscientist staje się ostatnio tak popularna, że termin „neuronaukowiec” zaczyna być postrzegany jako naturalny .
2 Mogą być postrzegane jako maszyny wirtualne .
3 Zob. przyp. 6.
4 Chodzi o to, że w pewnym sensie, mając już cząstkowe rozwiązanie, robimy coś nielogicznego – pozornie „burzymy” to cząstkowe rozwiązanie. Jednak takie postępowanie pozwala nam znaleźć końcowe (globalne) rozwiązanie .