To żyje! Sztuczna inteligencja od logicznego fortepianu po zabójcze roboty - ebook
To żyje! Sztuczna inteligencja od logicznego fortepianu po zabójcze roboty - ebook
Istnieje niewiele innych wynalazków człowieka, które mogą mieć tak wielki wpływ na nasze życie, jak maszyny, które potrafią myśleć … Maszyna parowa wyzwoliła nasze muskuły; komputery są gotowe do uwolnienia naszych umysłów.
Rozwój sztucznej inteligencji (SI) to dla człowieka przygoda tak odważna i ambitna jak żadna inna. I prawdą jest, że myślące maszyny są już teraz nieusuwalną częścią naszego życia. Bez nich Google nie mógłby odpowiedzieć na nasze pytanie w ułamku sekundy. Autonomiczne samochody istniałyby tylko w powieściach science fiction. A nasz smartfon byłby… tylko telefonem. SI kształtuje nasz świat i zmienia jego kształt.
Ale dokąd technologie SI zaprowadzą nas w przyszłości? Czy myślące maszyny zniszczą nasze miejsca pracy? Czy rozwój SI zagrozi samej egzystencji ludzi?
Toby Walsh zabiera nas w zaskakującą i inspirującą podróż przez historię sztucznej inteligencji i pokazuje, jak już zmieniła nasze społeczeństwo, naszą gospodarkę i nas samych. W swojej książce prezentuje dziesięć fascynujących przepowiedni dotyczących osiągnięć SI w 2050 roku.
Kategoria: | Informatyka |
Zabezpieczenie: |
Watermark
|
ISBN: | 978-83-01-20014-5 |
Rozmiar pliku: | 1,2 MB |
FRAGMENT KSIĄŻKI
Aby zrozumieć, dokąd zabiera nas sztuczna inteligencja, dobrze jest wiedzieć, skąd ona pochodzi i gdzie znajduje się dziś. Potem możemy zacząć badać przyszłość.
Rzeczywisty początek sztucznej inteligencji to rok 1956, gdy jeden z jej ojców założycieli, John McCarthy, zaproponował tę nazwę na słynnym spotkaniu dotyczącym projektów sztucznej inteligencji w Dartmouth, w New Hampshire. W tej nazwie wybranej przez McCarthy’ego jest sporo niepoprawności. Samo pojęcie inteligencji nie jest zbyt dobrze zdefiniowane. A dodanie przymiotnika sztuczna przed jakimkolwiek pojęciem nigdy nie brzmi dobrze. Otwiera przestrzeń dla niezliczonych żartów o „naturalnej inteligencji” i „sztucznej głupocie”. Ale na dobre czy na złe utknęliśmy z tą nazwą. W każdym razie historia AI sięga o wiele dalej – nawet do czasów sprzed wynalezienia komputerów. Ludzie od wieków myśleli o maszynach, które mogą myśleć, oraz o sposobie modelowania myślenia.
PREHISTORIA AI
Jak wiele historii, ta też nie ma jasnego początku. Jest jednak niewątpliwie połączona z wynalazkiem logiki. Jednym z możliwych punktów początkowych może być trzeci wiek p.n.e., gdy Arystoteles określił dziedzinę logiki formalnej. Bez logiki nie byłoby dzisiejszych komputerów cyfrowych. A logika często była (i nadal jest) uważana za model myślenia, środek do określenia, jak rozumujemy i tworzymy argumenty.
Poza mechanicznymi maszynami do prowadzenia obliczeń ruchów ciał niebieskich i wykonywania innych podstawowych działań, ludzkość przez kolejne 2000 lat z kawałkiem nie dokonała postępu w kierunku myślących maszyn. Ale, trzeba uczciwie dodać, że nawet w najbardziej rozwiniętych krajach ludzie mieli wiele innych problemów, jak wojny, choroby, głód i przetrwanie w wiekach ciemnych.
Jedynym wyjątkiem był trzynastowieczny kataloński pisarz, poeta, teolog, mistyk, matematyk, logik i męczennik Ramon Llull. Niektórzy uważają go za jednego z ojców komputerów. Odkrył on prostą logikę, która mogła mechanicznie zdefiniować wszystkie prawdy na dany temat. Była to wtedy jedna z pierwszych logicznych i mechanicznych metod tworzenia wiedzy. Jego idee nie były jednak szeroko uznawane w jego czasach, choć uważa się, że w znacznym stopniu wpłynęły na następnego bohatera naszej opowieści.
ZAJMIJMY SIĘ OBLICZENIAMI
Gdy zaczęła się rozwiewać intelektualna mgła panująca w średniowieczu, nasza historia zaczyna przyśpieszać. Jedną z wyróżniających się postaci jest tu Gottfried Wilhelm Leibniz. Do jego istotnych dalekowzrocznych wkładów intelektualnych należał pomysł, że myśl ludzką można przedstawić za pomocą swego rodzaju obliczeń, a obliczenia te mogą pokazać błędy w rozumowaniu lub rozwiązać różnice w opiniach. Napisał: „Jedynym sposobem oczyszczenia naszego rozumowania jest sprawienie, aby było ono tak samo konkretne jak u matematyków, aby można było znaleźć błąd na pierwszy rzut oka. Wtedy dyskusje między różnymi ludźmi można sprowadzić do stwierdzenia: Policzmy to , aby bez większych korowodów zobaczyć, kto ma rację”.
Leibniz zaproponował prostą logikę do przeprowadzenia tego typu obliczeń. Wyobraził sobie „alfabet ludzkich myśli”, w którym każda podstawowa koncepcja była reprezentowana za pomocą unikatowego symbolu. Komputery są zaś maszynami, które działają na symbolach. Abstrakcja Leibniza jest więc ważna, jeśli komputery mają „myśleć”. Uzasadnienie jest następujące. Wprawdzie komputery, zgodnie z propozycją Leibniza, jedynie manipulują symbolami, ale jeśli symbole te oznaczają podstawowe pojęcia, komputery mogą na ich podstawie wyprowadzić nowe pojęcia, a więc wykonać rozumowanie podobne do ludzkiego.
W podobnym okresie napotykamy innego filozofa, Thomasa Hobbesa, który położył inny fundament filozoficzny w dziedzinie myślących maszyn. Podobnie jak Leibniz, Hobbes porównywał myślenie z obliczeniami. Napisał: „traktuję rozumowanie jak obliczenia a więc rozumowanie przypomina dodawanie i odejmowanie. Przyrównanie rozumowania do obliczeń, jak to zrobili Leibniz i Hobbes, to pierwszy krok na drodze do budowy myślących maszyn. Choć mechaniczny kalkulator został wynaleziony nieco wcześniej, niż zaczęli o tym pisać Leibniz i Hobbes, to jednak zajęło ponad dwa wieki, zanim ktoś spróbował praktycznie zrealizować pomysł myślenia jako obliczeń.
Inny wybitny uczony, który pojawił się po odejściu w przeszłość ciemnych wieków, to René Descartes. Sformułował on ważną ideę filozoficzną, która do dziś straszy podczas badań nad AI: Cogito ergo sum, co znaczy „Myślę, więc jestem”. Te trzy łacińskie wyrazy w elegancki sposób łączą myśl z istnieniem (człowieka). Odwracając to rozumowanie, możemy powiedzieć, że jeśli nie istniejemy, nie możemy myśleć. Idea Descartesa stanowi więc wyzwanie dla samego pomysłu istnienia myślących maszyn. Są one pozbawione wielu specjalnych atrybutów, które łączymy z istnieniem, w tym przykładowo: emocji, etyki, świadomości i kreatywności. I jak zobaczymy, te właśnie cechy były przywoływane jako argumenty przeciwko możliwości istnienia maszyn, które myślą. Przykładowo, jeśli maszyny nie są świadome, nie mogą myśleć. A ponieważ maszyny nie są też kreatywne, to nie możemy mówić, że myślą. Wkrótce wrócimy do tej argumentacji.
BOOLE I BABBAGE
Nim pojawił się kolejny ważny gracz w naszej opowieści, minęło kolejnych dwieście lat. George Boole był matematykiem samoukiem. Pomimo braku tytułu uniwersyteckiego został w 1849 roku mianowany na stanowisko profesora w Queen’s College, w hrabstwie Cork w Irlandii, na podstawie wielu artykułów z dziedziny matematyki, które opublikował w wolnym czasie, jaki mu pozostawał przy obowiązkach związanych z prowadzeniem szkoły. Stanowisko uniwersyteckie Boole’a na obrzeżach ówczesnego życia akademickiego dało mu swobodę formułowania idei, które okazały się znaczące dla rozwoju obliczeń komputerowych i dla marzeń o stworzeniu myślących maszyn. Boole zaproponował, aby logikę sformalizować za pomocą działań algebraicznych wykonywanych na dwóch wartościach: prawda i fałsz, włączone i wyłączone lub 0 i 1. Taka logika „boolowska” opisuje działania każdego dzisiejszego komputera; są to w rzeczywistości złożone maszyny do przetwarzania ciągów boolowskich zer i jedynek. Pomysły Boole’a w jego czasach nie zostały docenione, lecz nie będzie nadużyciem stwierdzenie, że był on ojcem dzisiejszych czasów informacji.
Boole miał jednak większe ambicje względem swojej logiki, które jeszcze bardziej wyprzedzały czasy, w których żył. Tytuł najważniejszej pracy na temat jego logiki daje nam pojęcie o tych celach: „Badania nad prawami myślenia” (An Investigation of the Laws of Thought). Boole nie tylko sformułował matematyczne podstawy logiki, lecz chciał także wytłumaczyć zasady ludzkiego myślenia. We wstępie do swojej pracy napisał:
Celem tej rozprawy jest zbadanie podstawowych praw tych działań umysłu, które są motorem rozumowania; aby wyrazić je za pomocą języka symbolicznego pochodzącego z algebry, a na tej podstawie ustanowić naukę Logiki i zbudować jej metody a wreszcie zebrać z różnych fragmentów prawdy, które odnajdą się podczas tych badań, pewne prawdopodobne oznaki związane z naturą i budową ludzkiego umysłu.
Boole nigdy w pełni nie zrealizował swoich ambicji. W tamtych czasach jego prace nie zostały w większości uznane i zmarł on przedwcześnie dziesięć lat później. Ale nawet gdyby Boole nie znajdował się na obrzeżach akademickich w Cork, nie miał on maszyny, która pozwoliłaby zautomatyzować te marzenia.
Niesamowity jest fakt, że na dwa lata przed śmiercią Boole poznał kolejnego gracza w naszej opowieści, Charlesa Babbage’a. Zdarzyło się to na na Wielkiej Wystawie w Londynie w 1851 roku, gdzie obaj wielcy innowatorzy rozmawiali o „myślącej maszynie” Babbage’a. Kuszące jest wyobrażenie sobie, do czego mogliby dojść razem, gdyby Boole nie zmarł wkrótce potem. Charles Babbage był człowiekiem wszechstronnym: matematykiem, filozofem, wynalazcą i inżynierem. Marzył o zbudowaniu mechanicznych komputerów. Choć nigdy mu się to nie udało, przez wielu jest uznawany za ojca programowanego komputera. Jego maszyna analityczna została zaprojektowana tak, aby programować ją za pomocą kart perforowanych.
Idea komputerów działających zgodnie z programem, który można zmieniać, jest podstawą możliwości komputerów. Na nasz smartfon można wprowadzić nowe apki, programy, o których nie marzył Steve Jobs ani żaden inny twórca smartfonów. W ten sposób może on pełnić wiele funkcji naraz: kalkulatora, notatnika, urządzenia monitorującego nasze zdrowie, nawigacji, aparatu, odtwarzacza filmów, a nawet (o czym czasem trudno pamiętać) telefonu. Jest to pomysł, który Turing rozwinął, proponując ogólny model obliczeniowy.
Komputer to uniwersalna maszyna, którą można zaprogramować tak, aby wykonywała wiele zadań. A programy komputerowe mogą nawet same się zmieniać. Ta zdolność stanowi podstawę dla marzeń o sztucznej inteligencji. Uczenie się wydaje się kluczem do naszej inteligencji. Jeśli komputer ma symulować proces uczenia się, to musi mieć jakiś sposób na to, aby modyfikować swój własny program. Program to tylko dane, a nimi można manipulować: pomyślcie o liczbach w swoim arkuszu kalkulacyjnym, literach w edytorze tekstów czy barwach na obrazie cyfrowym. Komputery mogą więc uczyć się wykonywania nowych zadań – to jest zmieniać program tak, aby wykonywał zadania, które nie były wcześniej zaprogramowane.
PIERWSZA PROGRAMISTKA
Z Babbage’em współpracowała Augusta Ada King, hrabina Lovelace. Napisała wiele uwag opisujących i wyjaśniających szerszej publiczności analityczną maszynę Babbage’a. W uwagach tych napisała coś, co jest uważane za pierwszy program komputerowy. Babbage skupiał się na zdolności maszyny do wykonywania obliczeń numerycznych, tworzenia tablic astronomicznych i innych. Lovelace natomiast potrafiła marzyć o komputerach wykonujących o wiele więcej zadań niż tylko przetwarzanie liczb. Napisała, że wynalazek Babbage’a „może działać na innych elementach niż liczby a maszyna mogłaby komponować rozbudowane i naukowe utwory muzyczne, w dowolnym zakresie i złożoności”.
Pomysł ten wyprzedzał swoje czasy o sto lat. Skok myślowy Lovelace można zaobserwować w dzisiejszych smartfonach, które przetwarzają dźwięki, obrazy, filmy i wiele innych elementów poza liczbami. Była ona jednak także jednym z pierwszych krytyków sztucznej inteligencji, odrzucając pomysł o zbudowaniu myślących maszyn, które potrafią być kreatywne. „Maszyna analityczna nie rości sobie pretensji do tworzenia czegokolwiek”, pisała. „Może wykonać wszystko, co potrafimy jej nakazać. Może wykonywać analizy, ale nie ma mocy do przewidywania jakichkolwiek prawd i związków analitycznych”.
Pomysł ten – że jeśli komputery nie są kreatywne, to nie mogą być inteligentne – był tematem wielu debat. Turing omówił go w swoim inspirującym artykule w Mind. Powrócę wkrótce do tego argumentu, ale chcę wskazać na pewną refleksję związaną z zastrzeżeniami Lovelace. Pierwsza osoba, która pomyślała o programowaniu komputera – ktoś, kto potrafił myśleć o sto lat do przodu o komputerach manipulujących nie tylko liczbami – była jednocześnie bardzo sceptyczna wobec końcowego celu, czyli stworzenia myślących maszyn. To nie jest proste marzenie. Prowadzi ono do samego sedna naszego miejsca we wszechświecie. Czy jest coś, co czyni nas wyjątkowymi? Czy może jesteśmy także maszynami, tak jak nasze komputery? Odpowiedź na te pytania ostatecznie zmieni nasz sposób myślenia o nas samych. Grozi zmianą naszego położenia jako centrum wszystkiego, podobnie jak idea Kopernika, że Ziemia obraca się wokół Słońca, czy pogląd Darwina, że pochodzimy od małp.
Jedną z mniej znanych postaci w naszej opowieści jest żyjący w XIX wieku William Stanley Jevons. Miał on istotny wkład w matematykę i ekonomię. Ale nas interesuje „logiczne pianino”, które wynalazł w 1870 roku, mechaniczny komputer, który potrafił rozwiązywać zagadki logiczne obejmujące do czterech decyzji prawda/fałsz – lub korzystając z języka algebry Boole’a, do czterech zmiennych przyjmujących wartości 0 lub 1. Jevons zbudował swoje pianino, aby pomagać w nauce logiki. Oryginalny egzemplarz pianina znajduje się do dziś w Muzeum Historii Nauki w Oksfordzie. Pianino logiczne w elegancki sposób mechanizuje niewielki fragment algebry Boole’a. Jego wynalazca napisał, że „jest oczywiste, że mechanizm ten potrafi zastępować część działań myślowych wymaganych do wykonywania dedukcji logicznej”.
Można więc powiedzieć, że Jevons zbudował prymitywną maszynę myślącą, choć wątpię, aby wyróżniona publiczność, która oglądała jej pokaz w Royal Society w roku 1870, zdawała sobie sprawę, jak bardzo pianina logiczne zmienią nasze życie. Był to przynajmniej jeden z pierwszych nieśmiałych kroków na drodze do zbudowania komputerów, a więc do implementacji sztucznej inteligencji. Niestety, podobnie jak kilku graczy z tej opowieści, Jevons zmarł przedwcześnie, a w nekrologu zamieszczonym w Timesie jego pianino nie zostało wymienione.
REWOLUCJA LOGICZNA
Nasza opowieść przenosi się teraz do początku XX wieku. Był to czas rewolucji w wielu dziedzinach: nauce, sztuce i polityce. Podstawy fizyki zostały naruszone przez Alberta Einsteina, Nielsa Bohra, Wernera Heisenberga i wielu innych, dzięki ich rewolucyjnym pomysłom dotyczących względności i mechaniki kwantowej. Podstawami sztuki wstrząsną impresjonizm i dadaizm, które odrzuciły klasyczną przeszłość. Mniej więcej w tym samym czasie podstawy matematyki oraz logiki, stanowiącej jedną z jej cegiełek, zostały także gwałtownie naruszone.
Jednym z największych matematyków tamtych czasów był David Hilbert. W 1900 roku zidentyfikował 23 największe wyzwania stojące przed matematyką. Pisząc o tych problemach, stwierdził:
Kto z nas nie byłby szczęśliwy, gdyby udało mu się podnieść zasłonę, za którą kryje się przyszłość: spojrzeć na przyszły rozwój nauki i sekrety rozwoju w nadchodzących wiekach? Jaki będzie cel, do którego duch przyszłych generacji matematyków będzie zmierzał? Jakie metody, jakie nowe fakty odsłoni nowy wiek w szerokiej i bogatej przestrzeni myśli matematycznej?
Ta niemal poetycka wizja może stanowić dobre wprowadzenie do tej książki. Kilka z problemów Hilberta dotyczyło podstaw matematyki. W tamtym czasie wydawało się, że fundamenty matematyki pękają. Spójrzmy na coś tak matematycznie prostego jak zbiór. Zbiór to po prostu kolekcja obiektów: zbiór czarnych samochodów, zbiór srebrnych samochodów, zbiór samochodów albo srebrnych, albo czarnych, zbiór tych, które nie są ani czarne, ani srebrne, zbiór wszystkiego, co nie jest srebrnym samochodem. W roku 1874 niemiecki matematyk Georg Cantor zapisał podstawy formalne matematyki zbiorów. Może się to wydawać dziwne jak na matematyka. Matematyka dotyczy obiektów takich, jak liczby i funkcje. Dlaczego ktoś miałby interesować się zbiorami? A jednak zbiory reprezentują różne obiekty matematyczne: liczby, funkcje, grafy, a także wiele innych egzotycznych obiektów badanych przez matematyków, jak rozmaitości, otoczenia i przestrzenie wektorowe.
Bertrand Russell, inny wielki matematyk tego okresu, dowiódł, że podjęta przez Cantora próba sformalizowania matematyki zbiorów była skazana na niepowodzenie przez paradoksy cykliczne. Rozważmy jeszcze raz zbiór wszystkich srebrnych samochodów. Nie zawiera on sam siebie. Nazwijmy go zbiorem normalnym. Z drugiej strony rozważmy zbiór dopełniający, taki, który zawiera wszystko, co nie jest srebrnym samochodem. Ten zbiór zawiera sam siebie. Nazwijmy go zbiorem nienormalnym. Rozważmy teraz zbiór wszystkich zbiorów normalnych. Czy zbiór wszystkich zbiorów normalnych jest sam zbiorem normalnym? Jeśli jest normalny, to zawierałby się w zbiorze wszystkich zbiorów normalnych. Ale wtedy byłby nienormalny. Rozważmy więc alternatywę. Przypuśćmy, że zbiór wszystkich zbiorów normalnych sam jest nienormalny. Jeśli jest nienormalny, powinien zawierać się w sobie, czyli w zbiorze zbiorów normalnych. Ale to sprawia, że staje się zbiorem normalnym. Jest to słynny paradoks Russela: zbiór nie może być jednocześnie normalny i nienormalny. W dalszej części naszej opowieści zobaczymy inne podobne paradoksy cykliczne. Teoria zbiorów Cantora była tak pełna paradoksów, że niektórzy jego krytycy nazywali go „naukowym szarlatanem” lub „deprawatorem młodzieży”. Ale, jak dowodzi kolejny bohater naszej opowieści, nie jest to winą Cantora. Taka jest właśnie matematyka. Powoduje to podstawowe wyzwanie dla budowy myślących maszyn – przynajmniej takich, które wykorzystują do rozumowania logikę.
Odpowiadając na ten kryzys w samym sercu matematyki, Hilbert sformułował program działań, próbując umieścić matematykę na precyzyjnych podstawach logicznych. Program Hilberta, jak jest on nazywany, szuka małych zbiorów podstawowych faktów, czyli elementów składowych, na których zbudowana jest matematyka. Szuka również dowodu na to, że taka formalizacja matematyki nie zawiera żadnych paradoksów, które znajdują się w teorii zbiorów Cantora. Gdy mamy paradoksy, można udowodnić wszystko. Jeśli mamy zbudować myślące maszyny – maszyny, które poza innym działaniem mogą uprawiać matematykę – potrzebujemy takich elementów składowych.
KONIEC MATEMATYKI
W 1931 roku program Hilbert został rozbity na kawałki przez Kurta Gödla, jednego z najważniejszych logików w historii. Zniszczył on program Hilberta za pomocą dwóch słynnych twierdzeń o niezupełności. Dowodzą one, że każda formalizacja matematyki, dostatecznie bogata, aby opisać coś tak prostego jak liczby całkowite, będzie ewidentnie niekompletna lub będzie zawierać paradoksy. Dalej mówią one, że każdy system matematyczny, który nie będzie zawierał paradoksów, będzie także zawierać prawdy matematyczne, których nie można udowodnić. Jest to właśnie ta niezupełność w twierdzeniach niezupełności Gödla.
Wyniki Gödla pogrążyły program Hilberta i na zawsze pozostawiły matematyków na dość chwiejnych podstawach. Cel, aby być w pełni matematycznym w opisie samej matematyki, jest niemożliwy do spełnienia. A to stawia głębokie filozoficzne wyzwanie dla marzeń o budowie myślących maszyn. Jeśli mielibyśmy zbudować takie maszyny, a one miałyby rozumować w sposób matematyczny, jak przekonywali nas Leibniz i Hobbes, to musimy dostarczyć im precyzyjnie sformalizowaną matematykę, na podstawie której będą mogły myśleć. Ale twierdzenie o niezupełności Gödla pokazuje, że nie możemy napisać precyzyjnych reguł dla matematyki, takich, które można by podać komputerowi, aby mógł wykonać całą matematykę.