- nowość
Nadchodzi osobliwość. Kiedy człowiek przekroczy granice biologii - ebook
Nadchodzi osobliwość. Kiedy człowiek przekroczy granice biologii - ebook
Wznowienie kultowej książki Raya Kurzweila o osiągnięciach człowieka w dziedzinie sztucznej inteligencji. Hołd złożony magii technologii przez człowieka, któremu zawdzięczamy m.in. programy do rozpoznawania i syntetyzowania mowy oraz przekształcania skanów w tekst.
Napisana w 2005 roku książka stanowi fascynujący wgląd w umysł wizjonera sprzed 20 lat. Upływ czasu pozwala nam powiedzieć jego przewidywaniom „sprawdzam”. W czym miał rację? Czy w czymś się mylił? Jakich zagrożeń nie przewidział? Ray Kurzweil snuje porywającą opowieść o przyszłości człowieka i stawia tezę, że przeznaczeniem naszej cywilizacji jest symbioza ludzi z maszynami. To przeznaczenie nazwał „Osobliwością” (ang. Singularity). Z najdrobniejszymi szczegółami, analizując setki wzorców, autor opisuje, jak z biegiem lat z ludzi analogowych przekształcimy się w Człowieka 2.0 („W naszym krwiobiegu krążyć będą miliardy nanobotów. Będziemy w stanie żyć bez końca, nie starzejąc się…”) i Człowieka 3.0 („Stajemy się cyborgami”).
• Czym ludzki mózg różni się od komputera?
• Czy to możliwe, że jesteśmy śmiertelni tylko dlatego, że wciąż jeszcze nie chcemy żyć wiecznie?
• Czy sztuczna inteligencja zdominuje tę ludzką?
• Czy czeka nas fuzja biologii z technologią i robotyką i co by to dla nas oznaczało?
„Ray Kurzweil najlepiej ze znanych mi osób przewiduje przyszłość sztucznej inteligencji”. Bill Gates
Raymond „Ray” Kurzweil (ur. 1948) jest amerykańskim wynalazcą, futurologiem, przedsiębiorcą i pisarzem. Od 2012 roku pełni funkcję dyrektora technicznego firmy Google. Absolwent amerykańskiego Massachusetts Institute of Technology. Od lat 80. kierował różnymi spółkami, zajmującymi się opracowywaniem i wdrażaniem nowych technologii, takich jak m.in. syntezatory mowy oraz systemy rozpoznawania znaków w plikach graficznych (OCR). Jest autorem znanych na całym świecie książek o sztucznej inteligencji, biotechnologii i transhumanizmie: „The Age of Intelligent Machines” (1990), „The Age of Spiritual Machines” (1999), „Nadchodzi osobliwość” (2005). Założyciel katedry futurologii na Singularity University w Dolinie Krzemowej – interdyscyplinarnych studiach, które mają na celu „przygotować ludzkość na przyśpieszoną zmianę technologiczną”. Od 2001 roku prowadzi instytut Kurzweil Accelerating Intelligence zajmujący się monitorowaniem zmian będących następstwem procesów rozwoju technologii opisanych w jego książkach. W 2011 roku trafił na 30. miejsce w rankingu najbardziej wpływowych ludzi świata tygodnika „Time”.
Kategoria: | Biografie |
Zabezpieczenie: |
Watermark
|
ISBN: | 978-83-68227-24-6 |
Rozmiar pliku: | 4,7 MB |
FRAGMENT KSIĄŻKI
Kiedy w 1996 roku ówczesny arcymistrz szachowy Garri Kasparow przegrał z IBM Deep Blue, cały świat wstrzymał oddech, a prasę obiegały nagłówki w rodzaju „Game Over” podkreślające koniec dominacji człowieka nad maszyną. Wtedy jednak komputery osobiste oraz internet dopiero wchodziły pod strzechy i przegrana człowieka z czymś tak obcym jak szafa procesorów wydawała się wydarzeniem szokującym. Gdy w 2011 roku IBM Watson wygrał turniej Jeopardy! z dwoma mistrzami tej gry, wydarzenie to przeszło jakby niezauważone.
A warte było uwagi. Mimo że upłynęło zaledwie 15 lat, obie te maszyny, które rywalizowały z człowiekiem, dzieli absolutna przepaść. Deep Blue był bardzo mocnym liczydłem z dość ubogim algorytmem zastosowanym do bardzo wąsko określonego zadania. Watson jest bardzo złożonym systemem potrafiącym zrozumieć pytanie zadane mu w potocznym ludzkim języku, przeanalizować je i odpowiedzieć zgodnie z samodzielnie zebraną w sieci wiedzą. Niby nic, przecież każdy z nas codziennie robi coś takiego bez wysiłku. Człowiekowi dojście do sprawności w żonglowaniu abstrakcyjnymi pojęciami zajęło jednak kilka milionów lat (ewolucja), a komputery istnieją dopiero od kilkudziesięciu. I, co bardziej szokujące, już robią to szybciej od ludzi.
Ten sam IBM Watson już od dwóch lat jest „szkolony” w różnych projektach komercyjnych na między innymi: lekarza onkologa, lekarza internistę, prawnika, pracownika call center. Pomyślcie, lekarz, który myśli z szybkością miliardów operacji na sekundę, ma natychmiastowy dostęp do całej wiedzy zgromadzonej w internecie, periodykach medycznych i kartotekach pacjentów, nigdy niczego nie zapomina, cały czas się doskonali, zawsze jest na bieżąco z najnowszymi wynikami badań. Czy po wizycie u takiego specjalisty będziecie chcieli wrócić kiedykolwiek do zapracowanego, nie nadążającego za coraz szybciej zmieniającą się medycyną i wiecznie o czymś zapominającego zwykłego lekarza? Konsekwencje powszechnego zastosowania Watsona będą dla całego rynku pracy, struktury społecznej i siły nabywczej poszczególnych klas społecznych trudne do wyobrażenia.
Jak pokazuje to niniejsza książka, moc obliczeniowa maszyn podąża od ponad 100 lat dość przewidywalną ścieżką podwajania swojej wartości w ciągu każdych 18‒22 miesięcy. Jeśli następne lata nie przyniosą załamania tej tendencji, to we wczesnych latach 20. naszego stulecia moc obliczeniowa komputera wartego 1000 USD będzie zbliżona do mocy ludzkiego mózgu. 15–20 lat później ten sam komputer będzie dysponował mocą wszystkich ludzkich mózgów!
Na naszych oczach odbywa się cicha rewolucja, której przyszłe skutki zdaje się zauważać bardzo niewielu, ale której konsekwencje dotkną każdego na tej planecie. Ray Kurzweil jest jednym z niewielu, którzy w związku z pojawieniem się nowej inteligencji wieszczą konsekwentnie od kilkudziesięciu lat schyłek świata, jaki znamy. Dominować zacznie inteligencja niebiologiczna, która będzie wielokroć potężniejsza od ludzkiej, a także, co bardziej zdumiewające, której tempo rozwoju będzie stale przyspieszało, zgodnie z wykładniczym charakterem całego procesu.
Trudno byłoby sobie wyobrazić książkę spoza domeny science fiction, której tezy byłyby bardziej szokujące. Nie sposób jednak oprzeć się dobrze udokumentowanym argumentom autora, które tezy te uwiarygadniają. Naszym zdaniem jest to lektura obowiązkowa dla wszystkich zastanawiających się nad tym, jak wyglądać będzie nasza niedaleka przyszłość. Okazać się bowiem może, że problemy które dziś uznajemy za główne wyzwania ludzkości (kryzys demograficzny, kryzys gospodarczy, zmiany klimatu itd.), zostaną zepchnięte na plan dalszy w wyniku eksplozji nowej inteligencji i ogromnego przyspieszenia i tak już szybkiego tempa powstawania kolejnych, zmieniających świat technologii.
Wielu krytyków zarzuca autorowi, że przesadny jest jego optymizm w odniesieniu do pozycji zajmowanej w tym wyścigu przez człowieka. Kurzweil należy do grona tzw. transhumanistów. Zakłada, że proces integracji człowieka z maszyną już się rozpoczął i zrodzi w efekcie byt, który będzie połączeniem istoty biologicznej ze stworzoną przez nią maszyną. Według Kurzweila proces ten uchroni nas przed dominacją maszyn nad biologią i będzie naturalną częścią ewolucji inteligencji we wszechświecie. Można nie zgadzać się z taką wizją, ale warto się z nią zapoznać, bo przy okazji dotkniemy tych rodzajów i obszarów wiedzy, z którymi obcujemy bardzo rzadko, a właściwie wcale. Główną siłą tej książki jest przedstawienie olbrzymiej liczby procesów toczących się obok nas, ale niemal nieznanych, a także ogromnej skali zmian jakie nas prawdopodobnie czekają. Czy autor ma rację, a jeśli tak, to czy trafne są wszystkie jego oceny i prognozy? Kto to wie? Konkluzje każdy może sobie wyciągnąć sam.
W tym miejscu warto uczynić jeszcze zastrzeżenie techniczne. Nadchodzi Osobliwość to kompilacja kilku książek i artykułów Raya Kurzweila. Niektóre fragmenty tego tekstu powstały więc jeszcze przed rokiem 1990. Opracowanie redakcyjne umożliwia dobrą orientację w czasoprzestrzeni. Czytając wywody, w których autor odnosi się do „teraźniejszości” lub „niedalekiej przyszłości”, weźcie jednak pod uwagę, że ta „niedaleka przyszłość” miała miejsce już dawno temu, bo np. w początkach minionej dekady.
Profesor Jürgen Schmidhuber, dyrektor jednego z najlepszych ośrodków sztucznej inteligencji na świecie (The Swiss AI Lab IDSIA), powiedział kilka lat temu podczas jednego ze swoich wykładów, że jego dzieci urodzone kilkanaście lat wcześniej, spędzą większą cześć swojego dorosłego życia nie będąc najinteligentniejszymi istotami na tej planecie. Pomyślcie. Czy zdajecie sobie sprawę, co to może oznaczać dla waszych dzieci, ich ścieżek kariery, wyborów edukacyjnych, szansy na sukces zawodowy? Naszym zdaniem jest to kwestia warta głębszej refleksji. Miłej lektury.
Maciej Żukowski¹
Warszawa, wrzesień 2013 r.PODZIĘKOWANIA AUTORA
Chciałbym wyrazić głębokie uznanie dla mojej matki Hannah i ojca Frederika za wspieranie wszystkich moich wczesnych pomysłów i odkryć bez jakichkolwiek pytań, co dało mi wolność eksperymentowania, oraz dla mojej żony Sonyi i dzieci: Ethana i Amy, którzy dają mi miłość i motywację i nadają sens mojemu życiu.
Chciałbym podziękować wielu utalentowanym i oddanym ludziom, którzy pomagali mi w realizacji tego złożonego projektu.
W Vikingu: mojemu wydawcy Rickowi Kotowi, który zadbał o właściwe zarządzanie projektem, entuzjazm i wnikliwą redakcję; Clare Ferrario, która pomogła w dużym stopniu jako wydawca; Timothy’emu Mennelowi, który zapewnił redakcję merytoryczną; Bruce’owi Giffordsowi za koordynację wszystkich etapów wydania książki, Holly Watson za jej skuteczne działania promocyjne, Alessandrze Lisardi za umiejętne wspieranie Ricka Kota, Paulowi Buckleyowi za przejrzystą i elegancką artystyczną oprawę projektu; Herbowi Thorny’emu, który zaprojektował intrygującą okładkę.
Dziękuję: Lorettcie Barrett, mojej agentce literackiej, której entuzjastyczne i inteligentne wskazówki pomogły mi w poprowadzeniu tego projektu;
Terry’emu Grossmanowi, doktorowi nauk medycznych, mojemu współpracownikowi w sprawach dotyczących zdrowia i współautorowi książki Fantastyczna podróż: żyć tak długo, aby żyć wiecznie za pomoc w rozwinięciu moich pomysłów w dziedzinie zdrowia i biotechnologii, wyrażoną w 10 tysiącach e-maili przesłanych w obie strony, i za współpracę na wielu płaszczyznach;
Martine Rothblatt za jej zaangażowanie w kwestie wszystkich technologii omawianych w tej książce i za naszą współpracę w opracowywaniu zasad działania tychże;
Aaronowi Kleinerowi, mojemu długoletniemu partnerowi w interesach (od 1973 roku), za jego poświęcenie i współpracę w tym i wielu innych projektach;
Amarze Angelice, która z oddaniem i wnikliwością prowadziła nasz zespół researchu (Amara używała swoich niezwykłych umiejętności redakcyjnych, by pomóc mi w wyrażeniu złożonych kwestii zawartych w tej książce);
Kathryn Myronuk, której pełen poświęcenia wysiłek w znaczący sposób przyczynił się do zebrania bibliografii i do sporządzenia przypisów końcowych;
Sarah Black, która wniosła swój wkład w postaci dogłębnego researchu i umiejętności redakcyjnych.
Dziękuję także: mojemu zespołowi analityków: Amarze Angelice, Kathryn Myronuk, Sarah Black, Danielowi Pentlarge’owi, Emily Brown, Celii Black-Brooks, Nandy Barker-Hook, Sarah Brangan, Robertowi Bradbury’emu, Johnowi Tillinghastowi, Elizabeth Collins, Bruce’owi Damerze, Jimowi Rintoulowi, Sue Rintoul, Larry’emu Klaesowi i Chrisowi Wrightowi, którzy zapewnili mi profesjonalne wsparcie;
Laksmanowi Frankowi, który na podstawie moich opisów stworzył wiele atrakcyjnych diagramów i obrazków oraz wykresów;
Celii Black-Brooks za zapewnienie przywództwa przy rozwoju projektu oraz za świetną komunikację;
Philowi Cohenowi i Tedowi Coylowi za zrealizowanie moich pomysłów na ilustrację „Nadchodzi Osobliwość” na początku rozdziału 7;
Nandzie Barker-Hook, Emily Brown i Sarah Brangan, które pomogły mi zarządzać rozległą logistyką researchu i procesu redakcyjnego;
Kenowi Lindemu i Mattowi Bridgesowi, którzy zapewnili pomoc systemów komputerowych, dzięki czemu nasza skomplikowana praca przebiegała bez zakłóceń;
Denise Scutellaro, Joan Walsh, Marii Ellis i Bobowi Realowi za zajmowanie się księgowością przy tym skomplikowanym projekcie.
Dziękuję również zespołowi KurzweilAI.net, który zapewnił znaczące wsparcie researcherskie dla projektu: Aaronowi Kleinerowi, Amarze Angelice, Bobowi Bealowi, Celii Black-Brooks, Danielowi Pentlarge’owi, Denise Scutellaro, Emily Brown, Joan Walsh, Kenowi Lindemu, Laksmanowi Frankowi, Marii Ellis, Mattowi Bridgesowi, Nandzie Barker-Hook, Sarah Black i Sarah Brangan. Dziękuję Markowi Bizzellowi, Deborah Lieberman, Kirsten Clausen i Dei Eldorado za ich pomoc w przekazywaniu przesłania tej książki. A także Robertowi A. Freitasowi Jr. za staranne sprawdzenie materiałów dotyczących nanotechnologii i Paulowi Linsayowi za staranne sprawdzenie kwestii matematycznych w tej książce.
Moim partnerom – czytelnikom specjalistom, którzy wyświadczyli mi nieocenioną przysługę, starannie sprawdzając zagadnienia naukowe w książce: Robertowi A. Freitasowi Jr. (nanotechnologia, kosmologia), Ralphowi Merkle’owi (nanotechnologia), Martine Rothblatt (biotechnologia, przyspieszenie technologiczne), Terry’emu Grossmanowi (zdrowie, medycyna, biotechnologia), Tomasowi Poggiowi (nauki o mózgu i odwrotna inżynieria mózgu), Johnowi Parmentoli (fizyka, technologie militarne), Deanowi Kamenowi (rozwój technologii), Neilowi Gershenfeldowi (technologia obliczeniowa, fizyka, mechanika kwantowa), Joelowi Gershenfeldowi (inżynieria systemowa), Hansowi Moravcowi (sztuczna inteligencja, robotyka), Maxowi More’owi (przyspieszenie technologiczne, filozofia), Jeanowi-Jacques’owi E. Slotine’owi (mózg i kognitywistyka), Sherry Turkle (wpływ technologii na społeczeństwo), Sethowi Shostakowi (SETI, kosmologia, astronomia), Damienowi Broderickowi (przyspieszenie technologiczne, Osobliwość) i Harry’emu George’owi (przedsiębiorczość technologiczna).
Uzdolnionym czytelnikom z mojego zespołu: Amarze Angelice, Sarah Black, Kathryn Myronuk, Nandzie Barker-Hook, Emily Brown, Celii Black-Brooks, Aaronowi Kleinerowi, Kenowi Lindemu, Johnowi Chalupie i Paulowi Albrechtowi.
Moim czytelnikom spoza grona fachowców, którzy podzielili się ze mną wnikliwymi spostrzeżeniami: mojemu synowi Ethanowi Kurzweilowi i Davidowi Dalrymple’owi.
Billowi Gatesowi, Erikowi Drexlerowi i Marvinowi Minsky’emu, którzy udzielili zgody na umieszczenie ich wypowiedzi w tej książce, za ich pomysły, które zostały włączone do tych dialogów.
Licznym naukowcom i myślicielom, których pomysły i wysiłki stanowią wkład w naszą gwałtownie rosnącą bazę wiedzy ludzkiej.
Wyżej wymienione osoby dostarczyły wielu pomysłów i dokonały wielu poprawek. Jestem wdzięczny za ich wysiłek. Za wszystkie błędy, które mimo to pozostały w tej książce, biorę pełną odpowiedzialność.PROLOG
MOC POMYSŁÓW
Myślę, że nic nie da się porównać z drżeniem serca, które odczuwa wynalazca, kiedy widzi, że dzieło jego umysłu znajduje się na drodze do sukcesu.
– NIKOLA TESLA, 1896, WYNALAZCA PRĄDU PRZEMIENNEGO
Gdy miałem pięć lat, wpadłem na pomysł, że zostanę wynalazcą. Wydawało mi się wówczas, że wynalazki mogą zmienić świat. Kiedy inne dzieci zastanawiały się głośno, kim chciałyby zostać, czułem pewien rodzaj dumy wynikającej z faktu, że ja już to wiedziałem. Statek kosmiczny na Księżyc, który wówczas budowałem (prawie dekadę wcześniej, nim prezydent Kennedy wezwał do tego naród), nigdy nie poleciał. Kiedy miałem jakieś osiem lat, moje wynalazki stały się jednak znacznie bardziej realistyczne. Był to na przykład teatr robotów z mechanicznymi połączeniami, które mogły wprawiać w ruch scenografię i bohaterów tak, aby pokazywali się i znikali z oczu publiczności, a także wirtualna gra w baseball.
Moi rodzice, oboje artyści, którym udało się uciec przed Holokaustem, chcieli zapewnić mi wychowanie bardziej światowe, mniej prowincjonalne, ale jednocześnie religijne¹. W efekcie moja edukacja religijna odbywała się w Kościele unitariańskim. Przez sześć miesięcy uczyliśmy się o jednym wyznaniu, chodząc na nabożeństwa, czytając książki, rozmawiając z jego przywódcami, a następnie zajmowaliśmy się kolejnym, zgodnie z myślą przewodnią, że wiele dróg prowadzi do prawdy. Oczywiście zauważyłem wiele podobieństw między tradycjami religijnymi na świecie, ale nawet różnice były pouczające. Stało się dla mnie jasne, że podstawowe prawdy były wystarczająco głębokie, aby pokonać wyraźne sprzeczności.
Mając osiem lat, odkryłem serię książek o Tomie Swifcie Juniorze. Fabuła każdej z trzydziestu trzech książek (tylko dziewięć z nich zostało opublikowanych do roku 1956, kiedy zacząłem je czytać) była zawsze taka sama: Tom popadał w okropne kłopoty, a los jego i jego przyjaciół, często także całej ludzkości, wisiał na włosku. Tom udawał się wtedy do swojego laboratorium w piwnicy, aby pomyśleć nad rozwiązaniem problemu. Wtedy w każdej książce z tej serii pojawiało się ogromne napięcie: co zrobią Tom i jego przyjaciele, aby ocalić siebie i świat? Morał wynikający z tych opowieści był prosty: dzięki odpowiedniemu pomysłowi można sprostać nawet pozornie przytłaczającym wyzwaniom.
Do dziś jestem przekonany o słuszności tej podstawowej zasady. Niezależnie od tego, jakie stają przed nami dylematy – problemy biznesowe, zdrowotne, osobiste czy też wielkie naukowe, społeczne i kulturalne wyzwania naszych czasów – zawsze istnieje pomysł, który pomoże nam je rozwiązać. Co więcej, możemy wpaść na ten pomysł. A kiedy na niego już wpadniemy, musimy go wdrożyć. Moje życie zostało ukształtowane przez ten właśnie imperatyw. Pomysł sam w sobie jest potęgą.
Z tym samym okresem, kiedy czytałem serię książek o Tomie Swifcie Juniorze, wiążą się moje wspomnienia o dziadku, który uciekł z Europy wraz z moją matką, a kiedy po raz pierwszy pojechał tam ponownie, przywiózł stamtąd dwa najważniejsze wspomnienia. Pierwsze dotyczyło tego, jak dobrze traktowali go Austriacy i Niemcy, ci sami ludzie, którzy zmusili go do ucieczki w 1938 roku. Drugie – niezwykłej możliwość własnoręcznego dotknięcia oryginalnych rękopisów Leonarda da Vinci, która została mu dana. Oba te wspomnienia wywarły na mnie wpływ, ale to do tego drugiego wracałem w myślach wielokrotnie. Dziadek opisywał to doświadczenie z takim uwielbieniem, jakby dotknął prac samego Boga. To właśnie była religia, w której wzrastałem: podziw dla ludzkiej kreatywności i potęgi pomysłów.
W 1960 roku, gdy miałem dwanaście lat, odkryłem komputer i zafascynowałem się jego możliwościami modelowania i ponownego stwarzania świata. Kręciłem się po Canal Street na Manhattanie, gdzie było wiele sklepów z elektroniką (które wciąż tam są!), i zbierałem części, aby zbudować własne urządzenie obliczeniowe. W latach 60. tak jak moich rówieśników zaprzątały mnie ówczesne ruchy muzyczne, kulturalne i polityczne, ale w takim samym stopniu interesowałem się mniej znanym kierunkiem, a mianowicie niezwykłym ciągiem maszyn, które w owej dekadzie oferował IBM: od ich wielkiej serii 7000 (7070, 7074, 7090, 7094) do małego 1620, który w rzeczywistości był pierwszym minikomputerem. Maszyny wprowadzano w rocznych odstępach czasu, a każda kolejna była tańsza i bardziej wydajna od poprzedniej – to zjawisko jest znane również dzisiaj. Uzyskałem dostęp do IBM 1620 i rozpocząłem pisanie programów do analizy statystycznej, a następnie komponowania muzyki.
Wciąż pamiętam, jak w 1968 roku zostałem wpuszczony do ogromnej zabezpieczonej komory, w której znajdował się najpotężniejszy wówczas komputer w Nowej Anglii, model 91, najlepszy z serii IBM 360 ze swoim niezwykłym milionem bajtów (jeden megabajt) pamięci „rdzeniowej” i imponującą szybkością miliona operacji na sekundę (jeden MIPS). Koszt jego wynajęcia wynosił zaledwie tysiąc dolarów na godzinę. Udało mi się opracować program komputerowy umożliwiający dobranie uczniowi szkoły średniej odpowiedniego college’u i zafascynowany patrzyłem, jak światełka na przednim panelu komputera tańczyły, tworząc charakterystyczny wzór, podczas gdy maszyna przetwarzała zgłoszenia uczniów². Mimo że znałem dość dobrze każdą linię kodu, wydawało mi się, że komputer był pogrążony głęboko w myślach za każdym razem, gdy światełka przygasały na kilka sekund przed zakończeniem cyklu. W istocie maszyna mogła zrobić bezbłędnie w ciągu dziesięciu sekund to, co wykonane ręcznie ze znacznie mniejszą dokładnością zabrałoby nam dziesięć godzin.
Już jako wynalazca w latach 70. uświadomiłem sobie, że moje wynalazki nie mogą pozostawać w oderwaniu od technologii umożliwiających ich wykorzystanie oraz sił rynkowych działających w momencie ich wprowadzenia, a te warunki mogą być zupełnie inne niż w momencie wymyślania. Rozpocząłem tworzenie modeli pokazujących, jak rozwijają się różne technologie – elektroniczne, komunikacyjne, związane z procesorami, pamięcią, zapisem magnetycznym i innymi czynnikami, i jak te zmiany wpływają na rynki i ostatecznie na instytucje społeczne. Zrozumiałem, że większość wynalazków nie wchodzi na rynek nie dlatego, że wydziały prac badawczo-rozwojowych ich nie dopuszczają, ale dlatego, że pojawiają się w nieodpowiednim czasie. Praca wynalazcy jest bardzo podobna do surfowania: musimy poczekać na falę i popłynąć z nią we właściwym momencie.
Moje zainteresowanie trendami w technologii i ich zastosowaniami zaczęło żyć własnym życiem w latach 80., kiedy zacząłem używać moich modeli do projektowania i przewidywania przyszłych technologii, innowacji, które miały się pojawić w roku 2000, 2010, 2020 i później. To pozwoliło mi wymyślać przyszłe możliwości przez wyobrażanie sobie i projektowanie wynalazków na miarę tych możliwości. Od połowy do późnych lat 80. pisałem moją pierwszą książkę – The Age of Intelligent Machines³. Zawierała ona szczegółowe (i dość dokładne) prognozy na lata 90. i początek XXI wieku i zakończyła się przedstawieniem wizji inteligencji maszyn niemożliwej do odróżnienia od inteligencji ich ludzkich twórców. Miała ona pojawić się w pierwszej połowie XXI wieku. Wniosek ten zdawał mi się tak poruszający, że uznałem za zbyt trudne wybieganie w jeszcze dalszą przyszłość, poza to rewolucyjne wydarzenie.
W ciągu ostatnich 20 lat nauczyłem się doceniać ważny metapomysł: tempo, w którym rośnie siła pomysłów dotyczących przekształcania świata, przyspiesza. Mimo że ludzie łatwo zgadzają się z trafnością tej obserwacji, kiedy się tylko o niej mówi, stosunkowo niewielu obserwatorów naprawdę docenia wynikające z tego daleko idące implikacje. W ciągu najbliższych kilkudziesięciu lat będziemy mieli możliwość zastosowania pomysłów do rozwiązania odwiecznych problemów i przy okazji stworzenia kilku nowych.
W latach 90. zebrałem dane empiryczne dotyczące widocznego przyspieszenia wszystkich technologii opartych na informacji i dążyłem do udoskonalenia modeli matematycznych leżących u podstaw tych obserwacji. Opracowałem teorię, którą nazwałem prawem przyspieszających zwrotów, wyjaśniającą, dlaczego procesy technologiczne i ewolucyjne zazwyczaj rozwijają się według modelu wykładniczego⁴. W książce Age of Spiritual Machines, którą napisałem w 1998 roku, starałem się przedstawić, jak zmienić się może ludzkie życie po przekroczeniu punktu, w którym granice poznania przez człowieka i maszynę się zatrą. W istocie widziałem tę epokę jako okres coraz bliższej współpracy między naszym biologicznym dziedzictwem a przyszłością, która przekracza granice wyznaczone przez biologię.
Od czasu wydania Age of Spiritual Machines zacząłem się zastanawiać nad przyszłością naszej cywilizacji i jej związkiem z naszym miejscem we wszechświecie. Mimo że przewidywanie możliwości przyszłej cywilizacji, której inteligencja znacznie przewyższy naszą, może się wydawać trudne, nasza zdolność tworzenia modeli rzeczywistości w umyśle pozwala nam na formułowanie głębokich spostrzeżeń dotyczących skutków połączenia naszego biologicznego myślenia z niebiologiczną inteligencją, którą tworzymy. To właśnie historia, którą chcę opowiedzieć w mojej książce. Historia ta jest oparta na założeniu, że mamy zdolność do rozumienia naszej własnej inteligencji albo, inaczej mówiąc, dostęp do naszego własnego kodu źródłowego – oraz możliwość poprawiania go i rozwinięcia.
Niektórzy obserwatorzy zadają pytania o ludzką zdolność zastosowania naszego własnego myślenia do jego zrozumienia. Badacz sztucznej inteligencji Douglas Hofstadter uważa, że „to musiałoby być zrządzenie losu, gdyby nasze mózgi były zbyt słabe, aby zrozumieć same siebie. Możemy na przykład pomyśleć o niżej stojącej od nas pod względem rozwoju żyrafie, której mózg jest niewątpliwie znacznie poniżej poziomu pozwalającego na zrozumienie samego siebie, mimo że jest bardzo podobny do naszego mózgu”⁵. Udało się nam już modelować części naszego mózgu – neurony i ich ważne obszary; złożoność takich modeli gwałtownie wzrasta. Nasze postępy w odwrotnej inżynierii ludzkiego mózgu, kluczowy problem, który opiszę szczegółowo w tej książce, pokazują, że naprawdę mamy zdolność rozumienia, modelowania i rozwijania naszej inteligencji. To jeden z aspektów wyjątkowości naszego gatunku: nasza inteligencja znajduje się wystarczająco powyżej krytycznego progu niezbędnego do wspinania się na nieograniczone wyżyny mocy twórczej, a jednocześnie mamy narzędzia – nasze ręce – aby zmieniać wszechświat zgodnie z naszą wolą.
Słowo o magii: kiedy czytałem książki z serii o Tomie Swiftcie Juniorze, byłem także zapalonym magikiem. Cieszył mnie zachwyt mojej widowni, gdy przeprowadzałem pozornie niemożliwe przekształcenia rzeczywistości. Kiedy stałem się nastolatkiem, zamieniłem magię na projekty technologiczne. Odkryłem, że w przeciwieństwie do zwykłych sztuczek technologia nie traci swej transcendentnej mocy, kiedy ujawnia się jej tajemnice. Często przypominam sobie trzecie prawo Arthura C. Clarke’a, że „każda wystarczająco zaawansowana technologia jest niemożliwa do odróżnienia od magii”.
Z tej właśnie perspektywy można się zastanawiać nad powieściami J.K. Rowling o Harrym Potterze. Te historie, dotyczące naszego świata za kilkadziesiąt lat, mogą być wymyślone, ale nie są nieuzasadnione. Zasadniczo wszystkie „czary” Pottera będą dokonywane dzięki technologiom, które będę zgłębiać w tej książce. Gra w quidditcha oraz przemienianie ludzi i przedmiotów w inne formy staną się możliwe po pełnym zanurzeniu się w wirtualnej rzeczywistości, a w realnej rzeczywistości dzięki nanourządzeniom. Bardziej wątpliwe jest odwrócenie czasu (tak jak to zostało opisane w książce Harry Potter i więzień Azkabanu), ale przedłożono już poważne propozycje rozwiązań pozwalających uzyskać podobne zjawisko (bez powodowania paradoksów przyczynowych) dla jakichś bitów informacji, co w gruncie rzeczy zostało ujęte w mojej książce (zob. dyskusja w rozdziale 3 na temat ostatecznych granic przetwarzania).
Zwróćmy uwagę na to, że Harry uwalnia swoją magię, wypowiadając odpowiednie zaklęcia. Oczywiście odkrywanie i stosowanie tych zaklęć nie jest prostą sprawą. Harry i jego koledzy muszą je wygłaszać w prawidłowej kolejności, dokładnie przestrzegając procedur i kładąc akcent w odpowiednim miejscu. Ten proces odzwierciedla nasze doświadczenie w dziedzinie technologii. Nasze zaklęcia to wzory i algorytmy leżące u podstaw magii czasów współczesnych. Znając prawidłową kolejność, możemy sprawić, że komputer odczyta głośno książkę, zrozumie ludzką mowę, będzie w stanie przewidzieć atak serca (i mu zapobiec) albo zmiany na giełdzie papierów wartościowych. Jeśli zaklęcie jest niepoprawne nawet w nieznacznym stopniu, siła magii słabnie lub przestaje działać.
Można się nie zgodzić z tym porównaniem, wskazując, że zaklęcia z Hogwartu są krótkie i nie zawierają wielu informacji w porównaniu z – powiedzmy – kodem nowoczesnego oprogramowania. Ale podstawowe metody nowoczesnej technologii zasadniczo charakteryzują się tą samą zwięzłością. Zasady działania zaawansowanego oprogramowania, takiego jak to służące do rozpoznawania mowy, mogą być zapisane na zaledwie kilku stronach wzorów. Często kluczem postępu jest wprowadzenie małej zmiany w pojedynczym wzorze.
Ta sama obserwacja odnosi się do „wynalazków” ewolucji biologicznej: zauważmy, że różnica genetyczna między szympansami a na przykład ludźmi to tylko kilkaset tysięcy bajtów informacji. Mimo że szympansy są zdolne do niektórych czynności intelektualnych, ta mała różnica w naszych genach wystarczyła, by nasz gatunek stworzył magię technologii.
Według Muriel Rukeyser „wszechświat składa się z historii, a nie z atomów”. W rozdziale 7 opiszę siebie jako „entuzjastę wzorców”, kogoś, kto postrzega wzory informacji jako podstawową rzeczywistość. Na przykład cząstki zawarte w moim mózgu i ciele zmieniają się co tydzień, ale jest pewna ciągłość wzorców tworzonych przez te cząstki. Historia może być traktowana jako mający znaczenie wzorzec informacji, a więc możemy rozpatrywać aforyzm Muriel Rukeyser właśnie z tej perspektywy. Niniejsza książka jest zatem historią losów cywilizacji łączącej człowieka i maszynę, losu, który będziemy nazywać Osobliwością.ROZDZIAŁ 2
TEORIA EWOLUCJI TECHNOLOGICZNEJ: PRAWO PRZYSPIESZAJĄCYCH ZWROTÓW
Im dalej wstecz spoglądamy, tym lepiej widzimy przyszłość. –
WINSTON CHURCHILL
Dwa miliardy lat temu nasi przodkowie byli mikrobami; pół miliarda lat temu – rybami; sto milionów lat temu – czymś w rodzaju myszy; dziesięć milionów lat temu – nadrzewnymi małpami, a milion lat temu – pierwszymi istotami ludzkimi rozważającymi, jak okiełznać ogień. Nasza linia ewolucyjna charakteryzuje się mistrzostwem w zmianach. A w naszych czasach tempo tego procesu przyspiesza.
– CARL SAGAN
Naszym jedynym zadaniem jest stworzyć coś inteligentniejszego niż my sami, żaden inny problem z wyjątkiem tego nie jest naszym problemem… Nie ma trudnych problemów, są tylko problemy, które są trudne przy pewnym poziomie inteligencji. Jeśli pójdziemy trochę do przodu , niektóre rozwiązania z niemożliwych staną się oczywiste. Jeśli zwiększymy w znacznym stopniu naszą inteligencję, wszystkie rozwiązania problemów staną się oczywiste.
– ELIEZER S. YUDKOWSKY, STARING INTO THE SINGULARITY, 1996
Stwierdzenie „przyszłości nie da się przewidzieć” jest powtarzane jak refren… Ale jeśli jest błędny, nasz błąd staje się głęboki.
– JOHN SMART¹
Trwające przyspieszenie postępu technologicznego jest wynikiem i nieuniknionym skutkiem tego, co nazywam prawem przyspieszających zwrotów, opisującym przyspieszenie tempa i wzrost wykładniczy produktów procesu ewolucyjnego. Produkty te obejmują w szczególności technologie służące przenoszeniu informacji, takie jak przetwarzanie, a przyspieszenie ich rozwoju jest większe, niż zostało to przewidziane w prawie Moore’a. Osobliwość jest nieubłaganym skutkiem prawa przyspieszających zwrotów, dlatego też jest ważne, aby przyjrzeć się bliżej naturze tego procesu ewolucyjnego.
Natura porządku. W poprzednim rozdziale pokazano kilka wykresów przyspieszenia przesunięcia paradygmatu. (Przesunięcia paradygmatu są poważnymi zmianami metod i procesów intelektualnych używanych do osiągnięcia celów, na przykład język pisany i komputery). Na wykresach zaznaczono zestawienie kluczowe wydarzeń ewolucji biologicznej i technologicznej, od Wielkiego Wybuchu do stworzenia internetu, dokonane według piętnastu myślicieli i odpowiednich źródeł. Można zauważyć pewną oczekiwaną zmienność, ale widoczna jest również niewątpliwa tendencja wykładnicza: kluczowe zdarzenia pojawiały się w coraz szybszym tempie.
Kryteria zaliczania wydarzeń do „zdarzeń kluczowych” różniły się w zależności od listy. Ale na pewno warto się zastanowić nad przyczyną takich właśnie wyborów. Niektórzy obserwatorzy zauważyli, że prawdziwie epokowe wynalazki w historii biologii i technologii wiązały się ze wzrostem stopnia złożoności2. Chociaż wydaje się, że wzrost stopnia złożoności jest wynikiem postępu zarówno ewolucji biologicznej, jak i technologicznej, myślę, że obserwacja ta nie jest całkowicie poprawna. Przyjrzyjmy się jednak najpierw, czym jest złożoność.
Nie dziwi, że pojęcie złożoności jest skomplikowane. Według jednego z podejść złożoność jest minimalną ilością informacji wymaganą, aby wyjaśnić dany proces. Powiedzmy, że mamy projekt systemu (na przykład program komputerowy lub wspomagany komputerowo projekt pliku na komputer), który może być opisany za pomocą pliku z danymi zawierającego milion bitów. Możemy powiedzieć, że ten projekt ma złożoność równą milionowi bitów. Załóżmy jednak, że zauważymy, że milion bitów może w rzeczywistości składać się z wzoru tysiąca bitów, które powtarzane są tysiąc razy. Możemy zauważyć powtórzenia, usunąć powtarzające się wzory i wyrazić cały projekt za pomocą jedynie tysiąca bitów, w ten sposób zmniejszając rozmiar pliku tysiąc razy.
Najpopularniejsze techniki kompresji danych używają podobnych metod znajdowania redundancji informacji³. Ale czy po skompresowaniu danych w ten sposób można być absolutnie pewnym, że nie można odkryć innych zasad czy metod, które pozwoliłyby wyrazić ten plik w jeszcze bardziej zwartej formie? Załóżmy na przykład, że moim plikiem byłaby po prostu liczba pi (3,1415…) wyrażona z precyzją do miliona bitów. Większość programów do kompresji danych nie rozpoznałoby tej sekwencji i nie zmniejszyłoby wcale tego miliona bitów, ponieważ bity w binarnym ujęciu pi są faktycznie przypadkowe i dlatego według wszystkich testów na przypadkowość nie mają powtarzających się wzorów.
Jeśli jednak możemy określić, że ten plik (lub część pliku) w rzeczywistości oznacza pi, możemy z łatwością wyrazić go (lub jego część) w zwarty sposób jako: „pi z dokładnością do miliona bitów”. Ponieważ nigdy nie możemy być pewni, czy nie przeoczyliśmy jeszcze bardziej zwartej reprezentacji danej sekwencji informacji, każda kompresja wyraża jedynie górną granicę złożoności tej informacji. Jedną z definicji złożoności przedstawił Murray Gell-Mann. Definiuje on algorytmiczną zawartość informacyjną (AIC) zestawu danych jako „długość najkrótszego programu, który spowoduje, że standardowy uniwersalny komputer wydrukuje ciąg bitów, a następnie się zatrzyma”⁴.
Koncepcja Gell-Manna nie jest jednak w pełni adekwatna. Jeżeli mamy do czynienia z plikiem z losową informacją, nie może on być skompresowany. Spostrzeżenie to jest w rzeczywistości głównym kryterium określania, czy sekwencja cyfr jest w pełni losowa. Jeśli jednak jakiś ciąg losowy będzie odpowiadał jakiemuś szczególnemu projektowi, wówczas informacja ta będzie określona przez prostą instrukcję w rodzaju: „tutaj wstaw losowo wybrany ciąg cyfr”. Tak więc ciąg losowy, niezależnie od tego, czy będzie zawierał dziesięć czy miliard bitów, nie stanowi znaczącej złożoności, ponieważ można go scharakteryzować za pomocą prostej instrukcji. Taka jest różnica między losowym ciągiem a nieprzewidywalnym ciągiem informacji, która ma jakiś cel.
Aby uzyskać dodatkowy wgląd w naturę złożoności, rozważmy złożoność skały. Gdybyśmy mieli scharakteryzować wszystkie właściwości (dokładne położenie, moment pędu, spin, prędkość itd.) każdego atomu skały, otrzymalibyśmy ogromną liczbę informacji. Kilogramowa skała ma 10²⁵ atomów, które, jak omówimy to w następnym rozdziale, mogą nieść do 10²⁷ bitów informacji. To jest 100 milionów miliardów razy więcej informacji, niż zawiera kod genetyczny człowieka (nawet bez poddania go kompresji). W powszechnym zastosowaniu większość tych informacji jest w znacznej mierze przypadkowa i bez znaczenia. Tak więc dla większości zastosowań możemy scharakteryzować skałę za pomocą znacznie mniejszej ilość informacji, określając jedynie jej kształt i skład mineralny. Dlatego uzasadnione jest rozważanie złożoności zwykłej skały jako znacznie mniejszej od złożoności człowieka, nawet jeśli skała teoretycznie zawiera znaczną ilość informacji⁵.
Jedna z koncepcji złożoności głosi, że jest to minimalna ilość znaczącej, nieprzypadkowej, ale nieprzewidywalnej informacji niezbędnej do scharakteryzowania systemu lub procesu.
W koncepcji Gell-Manna AIC ciągu losowego zawierającego milion bitów będzie miało wartość miliona bitów. Dodaję więc do koncepcji AIC Gell-Manna pomysł zastępowania każdego ciągu losowego prostą instrukcją, aby w tym miejscu „wstawić losowe bity”.
Nawet jednak to nie jest wystarczające. Inną kwestią są ciągi arbitralnych danych, takie jak nazwiska i numery telefonów w książce telefonicznej lub okresowe wyniki pomiarów poziomów promieniowania albo temperatury. Takie ciągi nie są losowe i metody kompresji danych zmniejszą je jedynie w małym stopniu. To jednak nie odzwierciedla złożoności w taki sposób, w jaki termin ten jest powszechnie rozumiany. Są to tylko dane. Potrzebujemy więc kolejnej prostej instrukcji, aby w danym miejscu „wstawić dowolny ciąg”.
Dla podsumowania proponowanej przeze mnie miary złożoności zestawu informacji najpierw powinniśmy ustalić jego AIC według definicji Gell-Manna. Następnie zastępujemy każdy ciąg losowy prostą instrukcją wstawienia ciągu losowego. Potem przeprowadzamy tę samą operację dla ciągu danych dowolnych. W rezultacie otrzymujemy miarę złożoności, która dość dobrze pokrywa się z naszą intuicją.
Obserwacja, że przesunięcie paradygmatu w procesie ewolucji, takiej jak ewolucja biologiczna i jej technologiczna kontynuacja, wiąże się rzeczywiście ze wzrostem złożoności, jak zdefiniowałem to pojęcie powyżej, jest prawidłowa Na przykład zmiany w DNA pozwoliły na powstanie bardziej złożonych organizmów, których procesy informacyjne mogą być kontrolowane przez elastyczne przechowywanie danych w cząsteczce DNA. Eksplozja kambryjska zapewniła stały zestaw planów budowy ciała zwierząt (zapisany w DNA), tak więc proces ewolucji mógł być skoncentrowany na bardziej złożonym rozwoju mózgu. W technologii wynalezienie komputera zapewniło ludzkiej cywilizacji środki do przechowywania i operowania nawet znacznie bardziej złożonymi zestawami informacji. Ogromna sieć połączeń, jaką daje internet, zapewnia jeszcze większą złożoność.
„Rosnąca złożoność” sama w sobie nie jest jednak ostatecznym celem lub produktem końcowym tych procesów ewolucyjnych. Skutkiem ewolucji jest uzyskanie lepszych rozwiązań, które nie muszą być bardziej skomplikowane. Czasami lepsze rozwiązanie jest właśnie tym prostszym. Rozważmy więc inne pojęcie: „porządek”. Porządek nie jest przeciwieństwem nieporządku. Jeśli nieporządek oznacza losową sekwencję zdarzeń, odwrotnością nieporządku powinna być „nieprzypadkowość”. Informacja jest sekwencją danych znaczącą w procesie, taką jak kod DNA w organizmie żywym lub bity w programie komputerowym. Z drugiej strony „zakłócenia” oznaczają sekwencję losową. Zakłócenia są z natury nieprzewidywalne, ale nie niosą ze sobą informacji. Informacja jest jednak również nieprzewidywalna. Jeśli możemy przewidzieć przyszłe dane na podstawie danych z przeszłości, to przyszłe dane przestają być informacją. Dlatego ani informacja, ani zakłócenia nie mogą być kompresowane (a następnie przywrócone w takiej samej kolejności). Możemy rozważyć przewidywalnie zmieniający się wzorzec (taki jak 0101010…) jako uporządkowany, ale wzorzec ten oprócz pierwszej pary bitów nie niesie żadnej informacji.
Uporządkowanie nie oznacza zatem porządku, bo porządek wymaga informacji. Porządek to informacja dopasowana do swojego celu. Miarą porządku jest to, jak dobrze informacja pasuje do swojego celu. W wypadku ewolucji form życia celem jest przeżycie. W algorytmie ewolucyjnym (programie komputerowym symulującym ewolucję w celu rozwiązania problemu) stosowanym do, powiedzmy, projektowania silnika odrzutowego celem jest optymalizacja wydajności silnika, jego efektywności i prawdopodobnie innych cech. Pomiar porządku jest trudniejszy niż określenie złożoności. Jak to zostało omówione powyżej, zaproponowano pewne miary złożoności. W wypadku porządku potrzebujemy miary sukcesu, która byłaby dostosowywana do danej sytuacji. Kiedy tworzymy algorytmy ewolucyjne (programy, które symulują ewolucję, aby rozwiązać problem), programista musi zapewnić taką miarę sukcesu (nazywaną funkcją użyteczności). W ewolucyjnym procesie rozwoju technologicznego moglibyśmy przypisać tę funkcję sukcesowi ekonomicznemu.
Posiadanie większej ilości informacji nie musi oznaczać lepszego dopasowania. Czasami większy porządek – lepsze dopasowanie do celu – jest osiągany raczej przez upraszczanie niż dalszy wzrost złożoności. Na przykład nowa teoria, która łączy dwa różne pomysły w jedną szerszą, spójniejszą teorię, zmniejsza złożoność, może jednak zwiększyć „porządek dla celu”. (W tym przypadku celem jest dokładne modelowanie obserwowanych zjawisk). W rzeczywistości dochodzenie do prostszych teorii jest siłą napędową nauki. (Jak powiedział Einstein: „Uczyń wszystko tak prostym, jak tylko się da, ale nie prostszym”).
Ważnym przykładem ilustrującym tę koncepcję jest kluczowy krok w ewolucji człowiekowatych: przesunięcie punktu osi obrotu kciuka, które pozwoliło na lepsze i dokładniejsze operowanie w otoczeniu⁶. Naczelne, takie jak szympansy, mogą chwytać, ale nie mogą posługiwać się przedmiotami za pomocą „silnego uchwytu” lub dzięki delikatnej koordynacji ruchowej pozwalającej na pisanie lub formowanie przedmiotów. Zmiana punktu osi obrotu kciuka nie zwiększyła znacząco złożoności samego zwierzęcia, niemniej przyczyniła się do zwiększenia porządku, umożliwiając między innymi rozwój technologii. Ewolucja pokazała jednak, że ogólna tendencja do osiągania większego porządku skutkuje większą złożonością⁷.
Zatem ulepszenie rozwiązania problemu, zwykle zwiększając, ale czasem zmniejszając złożoność, zwiększa porządek. Pozostaje kwestia zdefiniowania problemu. W rzeczywistości klucz do algorytmu ewolucji (i ogólnie do ewolucji biologicznej i technologicznej) jest następujący: określenie problemu (co obejmuje również funkcję użyteczności). W ewolucji biologicznej ogólnym problemem było zawsze przetrwanie. W poszczególnych niszach ekologicznych to nadrzędne wyzwanie przekłada się na bardziej szczegółowe cele, takie jak zdolność pewnych gatunków do przeżycia w warunkach ekstremalnych lub maskowanie się przed drapieżnikami. Ponieważ ewolucja biologiczna dotyczy głównie humanoidów, cel sam w sobie wyewoluował do zdolności myślenia bardziej zaawansowanego niż u przeciwników i zmieniania w ten sposób otoczenia.
Może się wydawać, że ten aspekt prawa przyspieszających zwrotów zaprzecza drugiemu prawu termodynamiki, według którego entropia (losowość w układzie zamkniętym) nie może się zmniejszyć i dlatego na ogół rośnie⁸. Prawo przyspieszających zwrotów dotyczy jednak ewolucji, która nie odbywa się w układzie zamkniętym. Przebiega ona w wielkim chaosie i w rzeczywistości zależy od nieporządku w niej samej, z którego czerpie ona opcje różnorodności. Proces ewolucji stale dokonuje wyborów spośród tych możliwości, aby stworzyć jeszcze większy porządek. Nawet kryzysy, takie jak zdarzające się co jakiś czas uderzenia w Ziemię dużych asteroidów, mimo że tymczasowo zwiększają chaos, ostatecznie zwiększają i pogłębiają porządek stworzony przez ewolucję biologiczną.
Podsumowując: ewolucja zwiększa porządek, co może powodować wzrost złożoności lub go nie powodować (ale zwykle to czyni). Główną przyczyną przyspieszania ewolucji form życia oraz technologii jest fakt, że opiera się ona na własnym rosnącym porządku, z coraz bardziej wyrafinowanymi środkami zapisywania informacji i operowania nimi. Innowacje tworzone przez ewolucję pobudzają i umożliwiają jeszcze szybszą ewolucję. W wypadku ewolucji form życia najbardziej widocznym wczesnym przykładem jest DNA, który stanowi zapisaną i chronioną transkrypcję projektu życia i na którym można przeprowadzać dalsze eksperymenty. W przypadku rozwoju technologii ciągle doskonalone ludzkie metody zapisywania informacji sprzyjały jeszcze bardziej dalszemu postępowi technologicznemu. Pierwsze komputery zaprojektowano na papierze i montowano ręcznie. Obecnie są one projektowane przy stanowiskach komputerowych, z wykorzystaniem innych komputerów opracowujących wiele szczegółów projektu przyszłej generacji, i wytwarzane w całkowicie zautomatyzowanych fabrykach przy bardzo ograniczonym udziale człowieka.
Proces ewolucji technologii zwiększa wydajność wykładniczo. Innowatorzy dążą do zwielokrotnienia poprawy wydajności. Innowacja ulega mnożeniu, a nie dodawaniu. Technologia, jak każdy proces ewolucyjny, opiera się na samej sobie. Aspekt ten będzie nadal przyspieszał, kiedy w epoce piątej technologia przejmie pełną kontrolę nad własnym postępem⁹.
Zasady prawa przyspieszających zwrotów możemy podsumować następująco:
• Ewolucja stosuje dodatnie sprzężenie zwrotne, udoskonalone metody będące wynikiem jednego etapu postępu ewolucyjnego są wykorzystywane do tworzenia następnego etapu. Jak zostało to opisane w poprzednim rozdziale, postęp w każdej epoce ewolucji był coraz szybszy, opierając się na produktach poprzedzającego etapu. Ewolucja działa w sposób pośredni: ewolucja stworzyła ludzi, ludzie stworzyli technologię, a obecnie ludzie używają coraz bardziej zaawansowanej technologii, aby stworzyć kolejną jej generację. Do czasu nadejścia Osobliwości nie będzie już różnicy między ludźmi a technologią. Nie dlatego, że ludzie staną się tym, czym są obecnie maszyny, ale dlatego, że maszyny rozwiną się do poziomu ludzi, a nawet bardziej. Technologia będzie naszym metaforycznym przeciwstawnym kciukiem, który umożliwi kolejny krok w ewolucji. Postęp (dalsze zwiększanie porządku) będzie zatem oparty na procesach myślenia, które będą zachodzić z prędkością światła, a nie w wyniku bardzo wolnych reakcji elektrochemicznych. Każdy etap ewolucji opiera się na owocach poprzedzającego etapu, a więc tempo postępu procesu ewolucyjnego zwiększa się w czasie co najmniej wykładniczo. Z czasem „porządek” informacji w procesie ewolucyjnym (miara tego, jak dobrze informacja pasuje do swojego celu, którym w ewolucji jest przeżycie) się zwiększa.
• Proces ewolucyjny nie jest układem zamkniętym: ewolucja czerpie opcje różnorodności z chaosu panującego w większym układzie, w którym zachodzi. Ponieważ ewolucja również opiera się na własnym rosnącym porządku, w procesie ewolucyjnym porządek zwiększa się wykładniczo.
• Korelatem powyższych obserwacji jest fakt, że „zwroty” procesu ewolucyjnego (takie jak szybkość, wydajność, opłacalność i całkowita „moc” procesu) również rosną w czasie co najmniej wykładniczo. Dostrzegamy to w prawie Moore’a, według którego każda nowa generacja chipów komputerowych (pojawiająca się obecnie średnio co dwa lata) zapewnia dwa razy więcej komponentów na koszt jednostkowy, a każda z nich działa znacznie szybciej (ze względu na mniejsze odległości, na które przepływają elektrony wewnątrz chipów i pomiędzy nimi, oraz inne czynniki). Jak pokażę poniżej, ten wzrost wykładniczy mocy i wskaźnika cena–wydajność technologii opartych na informacji nie ogranicza się do komputerów, ale odnosi się zasadniczo dla wszystkich technologii informacyjnych i obejmuje także ludzką wiedzę, mierzoną na wiele różnych sposobów. Należy również zauważyć, że termin „technologia informacyjna” obejmuje coraz szerszą grupę zjawisk, a ostatecznie obejmie pełny zakres aktywności gospodarczej i przedsięwzięć kulturalnych.
• W innej pętli dodatniego sprzężenia zwrotnego, im bardziej wydajny staje się dany proces ewolucyjny – na przykład wydajność i opłacalność, które osiągają procesy przetwarzania – tym większa staje się ilość zasobów wykorzystywanych do dalszego przebiegu tego procesu. Skutkiem tego jest drugi poziom wzrostu wykładniczego, to znaczy, że tempo wzrostu wykładniczego – wykładnik – samo rośnie wykładniczo. Na przykład, jak widać na rysunku poniżej „Prawo Moore’a – piąty paradygmat”, podwojenie wskaźnika ceny do wydajności procesów przetwarzania zajmowało trzy lata na początku i dwa lata w połowie XX wieku. Obecnie podwaja się średnio raz na rok. Każdego roku nie tylko moc każdego chipa zwiększa się dwukrotnie w stosunku do tego samego kosztu jednostkowego, ale również rośnie wykładniczo liczba wytwarzanych chipów. W ten sposób budżety na badania komputerowe wzrosły znacznie w ciągu ostatnich dziesięcioleci.
• Ewolucja biologiczna jest jednym z procesów ewolucyjnych. W rzeczywistości jest to podstawowy proces ewolucyjny. Ponieważ zachodziła w układzie całkowicie otwartym (w przeciwieństwie do sztucznych ograniczeń algorytmu ewolucyjnego), wiele poziomów układu ewoluowało w tym samym czasie. Nie tylko informacje zawarte w genach danego gatunku dążą do większego porządku, ale również cały układ rządzący ewolucją zmienia się w ten sposób. Na przykład liczba chromosomów i sekwencja genów na chromosomach także ewoluowały. Innym przykładem jest fakt, że ewolucja wypracowała sposoby ochrony informacji genetycznej przed nadmiernymi defektami (dozwolona jest jednak mała ilość mutacji, które są korzystnym mechanizmem ulepszania ewolucyjnego). Podstawowym sposobem osiągnięcia tego celu jest powtarzanie informacji genetycznej w parach chromosomów. Daje to gwarancję, że nawet jeśli gen na jednym z chromosomów ulegnie uszkodzeniu, to odpowiadający mu drugi gen będzie najprawdopodobniej prawidłowy i skutecznie odegra swoją rolę. Nawet w wypadku niesparowanego męskiego chromosomu X istnieją sposoby tworzenia kopii zapasowych informacji przez powtarzanie ich na tym samym chromosomie X¹⁰. Tylko mniej więcej 2 procent genomu koduje białka¹¹. Pozostała część informacji genetycznej wypracowała skomplikowane środki kontroli, kiedy i jak geny kodujące białka ulegają ekspresji (wytwarzają białka) w procesie, który dopiero powoli zaczynamy rozumieć. Tak więc proces ewolucji w stopniu, w którym pozwala na to tempo mutacji, sam zmienia się w czasie.
• Postęp technologiczny to kolejny proces ewolucyjny. W rzeczywistości pojawienie się pierwszych gatunków tworzących technologię skutkowało nowym procesem ewolucji. To powoduje, że ewolucja technologiczna jest gałęzią i kontynuacją ewolucji biologicznej. Homo sapiens wyewoluował w ciągu kilkuset tysięcy lat, a technologia stworzona przez człowiekowate na jej wczesnych etapach (takich jak koło, ogień i kamienne narzędzia) rozwijała się tylko trochę szybciej, potrzebując dziesiątków tysięcy lat, by się w pełni ukształtować i wejść do powszechnego użytku. Pięćset lat temu produkt przesunięcia paradygmatu, taki jak prasa drukarska, potrzebował około stu lat, aby wejść do powszechnego użycia. Dziś produkty najważniejszych przesunięć paradygmatu, takie jak telefony komórkowe i internet, rozpowszechniły się w ciągu zaledwie kilku lat.
• Konkretny paradygmat (metoda lub podejście do rozwiązania problemu; na przykład zmniejszenie tranzystorów w układzie scalonym jako sposób na stworzenie wydajniejszych komputerów) generuje wzrost wykładniczy do czasu, aż jego potencjał się wyczerpie. Kiedy to nastąpi, zachodzi przesunięcie paradygmatu, co umożliwia kontynuację wzrostu wykładniczego.