- W empik go
2084. Sztuczna inteligencja i przyszłość ludzkości - ebook
2084. Sztuczna inteligencja i przyszłość ludzkości - ebook
Sztuczna inteligencja stała się zjawiskiem wszechobecnym w naszym życiu codziennym, a algorytmy mają wpływ na niemal każdy aspekt ludzkiej działalności. Czy mamy słuszne powody, aby obawiać się przyszłości?
W książce „2084” matematyk i filozof John Lennox wprowadza nas w kalejdoskop idei: główne osiągnięcia w dziedzinie postępu technologicznego, bioinżynierię, a szczególnie sztuczną inteligencję. Poznamy obecne możliwości sztucznej inteligencji, jej blaski i cienie, fakty i mity oraz potencjalne przyszłe implikacje.
· Jak daleko możemy się posunąć w wykorzystaniu technologii rozpoznawania twarzy oraz inwigilacji wideo w imię bezpieczeństwa?
· Cyfrowe informacje na nasz temat są dostępne dla firm, instytucji i gałęzi przemysłu, czy zdajemy sobie jednak sprawę z zakresu ich wykorzystania?
· Czy postęp technologiczny odmieni nasze postrzeganie człowieczeństwa i biblijne rozumienie duszy i moralności?
· Co rok 2084 przyniesie naszym przyjaciołom, naszej rodzinie, naszemu społeczeństwu? Czy jesteśmy skazani na ponurą dystopię i inwigilację rodem z „Roku 1984” George’a Orwella?
Spis treści
Wprowadzenie // 9
1. Wykreślenie mapy // 11
2. Pierwsze z wielkich pytań: Skąd pochodzimy? // 25
3. Drugie z wielkich pytań: Dokąd zmierzamy? // 35
4. Wąska sztuczna inteligencja: Czy czeka nas świetlana przyszłość? // 43
5. Wąska sztuczna inteligencja: Może przyszłość wcale nie jest
taka świetlana? // 51
6. Udoskanalanie człowieka // 67
7. Ogólna sztuczna inteligencja: czy czeka nas mroczna przyszłość? // 77
8. Teczki Księgi Rodzaju: kim jest człowiek? // 91
9. Pochodzenie ludzkiego zmysłu moralnego // 109
10. Prawdziwy Homo Deus // 125
11. Przyszły szok: powrót człowieka, który jest Bogiem // 137
12. Homo Deus w Księdze Apokalipsy // 153
13. Czas końca // 165
Bibliografia // 177
Indeks biblijny // 187
Indeks osobowy // 191
Indeks rzeczowy // 195
Kategoria: | Popularnonaukowe |
Zabezpieczenie: |
Watermark
|
ISBN: | 978-83-67634-21-2 |
Rozmiar pliku: | 1,5 MB |
FRAGMENT KSIĄŻKI
WYKREŚLENIE MAPY
My, ludzie, odznaczamy się nienasyconą ciekawością. Od zarania dziejów zadajemy pytania, szczególnie te doniosłe o pochodzenie i przeznaczenie człowieka: „Skąd jesteśmy i dokąd zmierzamy?”. Znaczenie tych pytań jest oczywiste. Odpowiedź na pierwsze determinuje nasze pojmowanie siebie; odpowiedź na drugie wyznacza cel naszego istnienia. Obie odpowiedzi pomagają nam określić nasz światopogląd oraz narrację nadającą sens ludzkiemu życiu.
Niestety pytania te nie należą do łatwych, czego dowodzi wielość sprzecznych odpowiedzi. Mimo to nie zniechęcamy się. W ciągu minionych wieków ludzie zaproponowali stanowiska podsuwane przez naukę, filozofię, religię lub politykę.
Dwa najbardziej znane futurystyczne scenariusze znajdują się w powieściach Aldousa Huxleya Nowy wspaniały świat z 1931 roku i George’a Orwella Rok 1984, wydanej w 1949 roku. Obydwie książki zajmowały, w różnym czasie, wysokie miejsce wśród najbardziej wpływowych angielskich powieści. Przykładowo, w 2005 roku powieść Orwella została zaliczona przez magazyn „Time” do 100 najlepszych powieści angielskich powstałych w latach 1923–2005. Obydwie powieści to dystopie, czyli według definicji Oxford English Dictionary, utwory „przedstawiające wyobrażone miejsce lub warunki jako w najwyższym stopniu złe”. Jednak złe miejsca, które opisują, są zupełnie różne. Wspomniane rozbieżności, ważne dla naszych dalszych rozważań, zwięźle wyjaśnił socjolog Neil Postman w swojej cenionej książce Zabawić się na śmierć:
Orwell ostrzega, że zostaniemy zniewoleni przez jakąś przemoc pochodzącą z zewnątrz. Tymczasem w wizji Huxleya do pozbawienia ludzi ich autonomii, pełni osobowości i historii niepotrzebny jest żaden Wielki Brat. W jego mniemaniu ludzie pokochają osaczającą ich przemoc, zaczną wielbić technologie, które pozbawiają ich zdolności myślenia.
Orwell lękał się tych, którzy zakażą wydawania książek. Huxley zaś obawiał się, że nie będzie powodu do ustanawiania podobnego zakazu, ponieważ zabraknie kogokolwiek, kto zechce książki czytać. Orwella przerażali ci, którzy pozbawią nas dostępu do informacji. Przedmiotem obaw Huxleya natomiast byli ludzie, którzy dostarczą nam informacji w takiej ilości, że staniemy się bierni i egoistyczni, Orwell bał się, że nasza kultura przeistoczy się w kulturę niewolników. Huxley lękał się, że ogarnie nas kultura. Słowem, Orwell obawiał się, że zniszczy nas to, czego nienawidzimy, Huxley zaś – że to, co uwielbiamy.
Orwell wprowadził koncepcje „powszechnej inwigilacji” totalitarnego państwa oraz „kontroli umysłu” i „nowomowy”. Pojęcia te pojawiają się dzisiaj coraz częściej w kontekście rozwoju sztucznej inteligencji (AI), szczególnie w związku z opracowaniem technologii komputerowej zdolnej do wykonywania zadań będących domeną ludzkiego umysłu – krótko mówiąc, ze stworzeniem imitacji umysłu. W naszych czasach inwestuje się miliardy dolarów w rozwój systemów AI, nie dziwi zatem ogromne zainteresowanie tym, do czego ten proces doprowadzi: z jednej strony do poprawy jakości życia dzięki wspomaganiu cyfrowemu, do innowacji w medycynie i udoskonalenia człowieka, z drugiej natomiast do bezrobocia i orwellowskiej inwigilacji społeczeństwa.
W rozwój wydarzeń zaangażował się nawet papież , który we wrześniu 2019 roku ostrzegł, że wyścig w dziedzinie sztucznej inteligencji oraz innych form rozwoju technologii cyfrowych może stworzyć zagrożenie w postaci rosnących nierówności społecznych, jeśli nie będzie mu towarzyszyć ocena etyczna podporządkowana wspólnemu dobru. Powiedział: „Jeśli rozwój technologiczny stanie się przyczyną coraz wyraźniejszych nierówności, nie będzie prawdziwym ani rzeczywistym postępem. Gdyby tak zwany postęp technologiczny okazał się wrogiem wspólnego dobra, doprowadziłby do niefortunnego cofnięcia się do jakiejś formy barbarzyństwa poddanej prawu silniejszego”.
Większość dotychczasowych sukcesów w dziedzinie AI wiąże się z systemami wykonującymi jedno konkretne zadanie, do którego realizacji potrzeba zazwyczaj ludzkiej inteligencji. Z drugiej strony, w dziedzinie bardziej spekulatywnych rozważań – przynajmniej obecnie – obserwuje się duże zainteresowanie znacznie bardziej ambitnym przedsięwzięciem polegającym na stworzeniu systemów zdolnych do wykonywania wszystkich czynności ludzkiej inteligencji, to jest ogólnej sztucznej inteligencji, która zdaniem niektórych w stosunkowo krótkim czasie ‒ z pewnością do 2084 roku, a może nawet wcześniej ‒ przewyższy ludzką inteligencję. Niektórzy sądzą, że AGI, jeśli zostanie stworzona, będzie pełnić rolę boga, inni uważają, że stanie się totalitarnym despotą.
Zastanawiając się nad sposobem zaprezentowania nowych zagadnień oraz nadziei i lęków, które wzbudzają, pomyślałem o trzech współczesnych książkach, które zdobyły pozycję bestsellerów. Dwie zostały napisane przez izraelskiego historyka Yuvala Noah Harariego: Sapiens. Od zwierząt do bogów (która, jak sugeruje tytuł, zajmuje się pierwszym z naszych pytań, czyli pochodzeniem człowieka) oraz Homo deus. Krótka historia jutra (o przyszłości ludzkości). Trzecia książka, Początek Dana Browna, jest powieścią, podobnie jak książki Huxleya i Orwella. Tematem powieści jest wykorzystanie AI do udzielenia odpowiedzi na oba nasze pytania. Utwór ma formę pasjonującego thrillera, więc przeczytają go prawdopoodbnie miliony ludzi, jeśli wielkie prognozy sprzedażowe Browna okażą się prawdziwe. Niewykluczone zatem, że powieść ta wywrze wpływ na poglądy wielu osób, szczególnie młodych. Ponieważ autor przyznaje, że Początek odzwierciedla jego własne poszukiwania, książka stanowi intrygujący punkt wyjścia dla naszych rozważań.
Chociaż zdaję sobie sprawę, że utwory science fiction stały się punktem wyjścia owocnej kariery naukowej dla niektórych, potrzebne jest w tym miejscu słowo przestrogi. Brown twierdzi, że doszedł do swoich wniosków dzięki wykorzystaniu prawdziwej nauki, ale jego książka zalicza się do fikcji literackiej, trzeba więc zachować ostrożność, badając jego argumenty i wnioski pod kątem ich prawdziwości.
Ma to ogromne znaczenie, ponieważ Brown twierdzi, że głównym motywem, który skłonił go do napisania książki, było udzielenie odpowiedzi na pytanie: „Czy Bóg przeżyje naukę?”. To samo pytanie, w różnych postaciach, zainspirowało mnie do napisania kilku książek. W tej nie tylko dochodzę do wniosku, że Bóg przeżyje naukę, ale stawiam poważne pytanie, czy przeżyje ją ateizm.
Jednym z głównych bohaterów Początku Dana Browna jest Edmond Kirsch, miliarder, informatyk i znawca sztucznej inteligencji, który utrzymuje, że znalazł odpowiedź na pytania o pochodzenie życia i przeznaczenie człowieka. Kirsch zamierza wykorzystać rezultaty tych poszukiwań do zrealizowania swojego odwiecznego celu: „Jeszcze za naszego życia religijne mity zostaną zmiażdżone przez odkrycia naukowe”, czyli obalenia trzech religii wywodzących się od Abrahama: judaizmu, chrześcijaństwa oraz islamu. W sposób być może nieuchronny koncentruje się na chrześcijaństwie. Rozwiązania, które Kirsch w końcu ujawnia światu, są owocem jego specjalistycznej wiedzy z dziedziny sztucznej inteligencji. Jego wizja przyszłości obejmuje technologiczną modyfikację istot ludzkich.
Na wstępie należy zaznaczyć, że nie tylko historycy i pisarze powieści science fiction, ale także niektórzy z najbardziej szanowanych naukowców sugerują, że ludzkość może zostać zmieniona dzięki technologii. Przykładowo, astronom królewski Lord Rees powiada: „Nie można mieć absolutnie żadnej pewności, że za kilka wieków dominujące istoty inteligentne będzie łączyć z nami jakiekolwiek emocjonalne pokrewieństwo – chociaż będą one mogły posiadać algorytmiczne zrozumienie naszego postępowania”.
W tym samym duchu Rees pisze: „Abstrakcyjne myślenie istot wyposażonych w biologiczny mózg leży u podstaw całej naszej kultury i nauki. Jednak aktywność ta – obejmująca w najlepszym razie dziesiątki tysiącleci – będzie jedynie krótkim prekursorem nieorganicznych istot inteligentnych z ery postludzkiej. W odległej przyszłości to nie ludzkie umysły, ale umysły maszyn będą najpełniej rozumieć kosmos”.
Temat ten nie zniknie samoistnie, stanowi bowiem przedmiot zainteresowania nie tylko ludzi bezpośrednio zaangażowanych w badania nad AI, lecz także matematyków i przedstawicieli innych dyscyplin naukowych, których działalność i stanowisko pozostają pod jego coraz silniejszym wpływem. Ponieważ rezultaty i koncepcje związane z badaniami AI oddziałują na nas wszystkich, wielu ludzi piszących i snujących rozważania na ten temat w ogóle nie jest naukowcami. Dlatego ważne jest, aby filozofowie, etycy, teologowie, komentatorzy kultury, pisarze i artyści wzięli udział w szerszej debacie. Nie trzeba przecież być fizykiem atomowym lub klimatologiem, aby uczestniczyć w dyskusji na temat energii jądrowej lub zmian klimatu.
CZYM JEST SZTUCZNA INTELIGENCJA (AI)?
Zacznijmy od robotów. Słowo robot pochodzi od czeskiego (i rosyjskiego) słowa oznaczającego pracę – robota. Robot jest maszyną zaprojektowaną i zaprogramowaną przez inteligentną istotę ludzką do wykonywania zwykle pojedynczego zadania, które wymaga interakcji z fizycznym otoczeniem – zadania, którego wykonanie w normalnych warunkach wymagałoby udziału inteligentnej istoty ludzkiej. W tym sensie działanie tej maszyny imituje ludzką inteligencję. Wywołało to szeroką debatę w sprawie, czy sama maszyna powinna być uznana w jakimś sensie za inteligentną, choć nie w takim znaczeniu, w jakim rozumiemy ludzką inteligencję (co samo w sobie stanowi obszerne zagadnienie).
Termin AI został wprowadzony w 1956 roku podczas zajęć szkoły letniej Wydziału matematyki Dartmouth University, prowadzonej przez Johna McCarthy’ego, który powiedział: „Sztuczna inteligencja to nauka oraz inżynieria zajmująca się wytwarzaniem inteligentnych maszyn”. Obecnie określenie to stosuje się dla zdefiniowania inteligentnych maszyn posiadających określony cel oraz nauki i technologii, które do tego celu zmierzają.
Badania w tej dziedzinie podążyły w dwóch kierunkach. Z jednej strony pojawiła się próba zrozumienia myślenia człowieka i procesu myślowego za pomocą ich modelowania przy użyciu technologii komputerowej, z drugiej strony rozpoczęto badania nad działaniami człowieka i konstruowaniem maszyn, które będą te działania naśladować. Różnica ma istotne znaczenie – co innego skonstruować maszynę naśladującą ludzką rękę podnoszącą jakiś przedmiot; co innego zaś zbudować maszynę zdolną do naśladowania myśli człowieka, gdy ten przedmiot podnosi. Pierwsze zadanie jest znacznie prostsze od drugiego, więc jeśli ograniczymy się do czystej użyteczności, pierwsze może okazać się wszystkim, co jest niezbędne. W końcu przemysł lotniczy zajmuje się budowaniem maszyn potrafiących latać, a nie konstruowaniem elektronicznego mózgu podobnego do mózgu ptaka, aby samolot leciał dokładnie tak samo jak ptak, czyli poruszając skrzydłami.
Pomysł konstruowania maszyn naśladujących określone elementy ludzkich i zwierzęcych zachowań ma długie dzieje. Dwa tysiące lat temu grecki matematyk Heron z Aleksandrii zbudował basen ozdobiony mechanicznymi śpiewającymi ptakami i sową, która poruszeniem głowy uciszała ptactwo. Ludzi od wieków fascynowało konstruowanie automatów, maszyn naśladujących jakiś aspekt życia. Bogatą kolekcję takich wymyślnych automatów można obejrzeć w londyńskim Science Museum, wiedeńskim Kunsthistorisches Museum oraz Museum Speelklok w Utrechcie. Zainteresowanie takimi maszynami osłabło w XIX stuleciu, ale przetrwało w świecie fikcji literackiej, na przykład w powieści Frankenstein pióra Mary Wollstonecraft Shelley. Właściwie stały się one jednym z podstawowych elementów literatury science fiction od początku istnienia tego gatunku.
Jedną z ważnych czynności codziennych człowieka są obliczenia, nic więc dziwnego, że poświęcono wiele trudu, aby zautomatyzować ten proces. W XVII wieku francuski matematyk Blaise Pascal skonstruował mechaniczny kalkulator, aby pomóc ojcu, poborcy podatków, w mozolnych obliczeniach. W XIX stuleciu Charles Babbage położył podwaliny programów obliczeniowych, konstruując maszynę różnicową, umożliwiającą automatyczne dodawanie, a następnie silnik analityczny, który był pierwszym programowalnym kalkulatorem. Babbage’a uważa się słusznie za ojca nowożytnego komputera.
Podczas drugiej wojny światowej genialny brytyjski informatyk Alan Turing użył zaawansowanej elektronicznej technologii komputerowej do skonstruowania maszyny zwanej Bombą, która pozwoliła jemu i jego zespołowi z Bletchley Park złamać niemiecki szyfr „Enigma” używany do tajnej komunikacji wojskowej. Wynalazki i prace teoretyczne Turinga doprowadziły do sformułowania postulatu „uczącej się maszyny”. Według Turinga maszyna, która potrafiłaby rozmawiać z ludźmi – nie wzbudzając podejrzeń, że mają do czynienia z maszyną – wygrałaby „grę w naśladowanie” i mogłaby zostać nazwana „inteligentną”. Definicja ta, obecnie nazywana testem Turinga, dostarczyła praktycznego sprawdzianu pozwalającego na przypisanie maszynie inteligencji. Jednak, jak się niebawem przekonamy, podejście to spotkało się z poważnymi zarzutami filozofów.
Mniej więcej w tym samym czasie (1951) Marvin Minsky (współzałożyciel laboratorium badawczego sztucznej inteligencji w MIT) i Dean Edmonds zbudowali pierwszy komputer oparty na sieci neuronowej. Kolejnym przełomowym osiągnięciem, które przyciągnęło ogromną uwagę opinii publicznej, był komputer Deep Blue, zbudowany przez IBM, który w 1997 roku pokonał szachowego mistrza świata Garry’ego Kasparowa, oraz program AlphaGo firmy Google, który jako pierwszy pokonał zawodowego gracza dzięki uczeniu maszynowemu. Znaczenie sztucznej inteligencji uznano w 2018 roku, ustanawiając Nagrodę Turinga, nazywaną „informatyczną nagrodą Nobla”. Przyznano ją trójce badaczy, którzy położyli podwaliny obecnego boomu w dziedzinie sztucznej inteligencji, szczególnie na polu tak zwanego głębokiego uczenia maszynowego.
Pierwsze roboty i systemy AI były pozbawione elementu nazywanego obecnie „uczeniem maszynowym”. Kluczem do zrozumienia obecnego procesu uczenia maszynowego jest koncepcja algorytmu, która może przyjmować wiele postaci, na przykład algorytmu symbolicznego, matematycznego itd.. Słowo algorytm pochodzi od nazwiska słynnego perskiego matematyka, astronoma i geografa Muhammada ibn Musy al-Chuwarizmiego (około 780‒850).
Dzisiaj przez algorytm rozumie się „precyzyjnie zdefiniowany zbiór operacji matematycznych lub logicznych służących wykonaniu określonego zadania” (OED). Jego koncepcja sięga starożytnego Babilonu (lata 1800‒1600 przed Chr.). Znany informatyk Donald Knuth ze Stanford University opublikował niektóre z wczesnych algorytmów i doszedł do następującego wniosku: „Obliczenia zapisane na babilońskich tabliczkach nie są jedynie rozwiązaniem konkretnych problemów. W rzeczywistości są to ogólne procedury służące rozwiązywaniu całej klasy problemów”. Taka jest też główna idea algorytmu: kiedy poznasz jego działanie, możesz rozwiązać nie tylko jeden problem, ale całą klasę problemów.
Jednym z najsłynniejszych przykładów, o którym wielu z nas dowiedziało się w szkole, jest algorytm Euklidesowski będący procedurą stosowaną w celu znalezienia największego wspólnego dzielnika (GCD) dwóch dodatnich liczb całkowitych. Jako pierwszy opisał go Euklides w swoim rękopisie zatytułowanym Elementy, powstałym około 300 roku przed Chr. Ten skuteczny algorytm w takiej lub innej postaci znajduje zastosowanie do dziś, na przykład w komputerach. Jego implementacja polega na kolejnym dzieleniu i zliczaniu reszty aż do osiągnięcia pożądanego wyniku. Działanie algorytmu najlepiej zrozumieć na poniższym przykładzie – ważne jest to, że działa on dla każdej pary całkowitych liczb dodatnich.
Przypuśćmy, że chcemy obliczyć GCD liczb 56 oraz 12. W tym celu wykonujemy następujące kroki:
1. Krok 1: Podzielić większą liczbę przez mniejszą.
◦ 56 ÷ 12 = 4 reszta 8
2. Krok 2: Podzielić dzielnik (12) przez resztę z poprzedniego kroku.
◦ 12 ÷ 8 = 1 reszta 4
3. Krok 3: Wykonywać krok 2, aż nie pozostanie żadna reszta (w tym przypadku pozostał jeszcze jeden krok).
◦ 8 ÷ 4 = 2 (brak reszty)
W naszym przykładzie największy wspólny podzielnik to 4.
Łatwo przełożyć to na kod programu i zastosować w komputerze. Wystarczy zajrzeć do Internetu, aby stwierdzić, że tysiące różnego rodzaju algorytmów znajdują zastosowanie w każdej dziedzinie nauki, inżynierii i medycyny. Głównym przykładem jest robotyka, ponieważ roboty projektuje się zwykle do wielokrotnego wykonywania tego samego zadania.
W typowym współczesnym systemie AI odpowiednie algorytmy zostają umieszczone w programie komputerowym, który sortuje, filtruje i selekcjonuje różne elementy informacji, które zostały do niego wprowadzone. Jedna z metod polega na naśladowaniu, przynajmniej w pewnym stopniu, działania ludzkiej kory mózgowej (siatki neuronów). Ogólnie mówiąc, system AI może wykorzystywać informacje szkoleniowe do „nauki” (uczenie maszynowe) rozpoznawania, identyfikowania oraz interpretowania schematów cyfrowych, takich jak obrazy, dźwięki, mowa, tekst lub informacje. Inna metoda posługuje się aplikacjami komputerowymi opartymi na logice prawdopodobieństwa bayesowskiego zastosowanej do analizy informacji statystycznych, żeby na tej podstawie oszacować prawdopodobieństwo określonej hipotezy. Ująwszy krótko, system uczenia maszynowego odbiera informacje o przeszłości i podejmuje decyzje lub formułuje prognozy po otrzymaniu nowych informacji.
Należy podkreślić, że algorytmy zostały zaprogramowane do wykonywania aproksymacji funkcji, zwykle poprzez optymalizację, oraz w większości przypadków otrzymały wyraźne przykłady danych wejściowych i wyjściowych, a także kryterium kończące, ukierunkowujące proces tej optymalizacji. Algorytmy nie „mielą” informacji bez czynnika ludzkiego obecnego w pętli programu i na jakimś poziomie kierującego całym procesem (nawet wówczas, gdy to człowiek tworzy algorytm „krytyczny” i umieszcza go w pętli programu komputerowego itd.). Udział człowieka to element świadomy. Maszyna jest go pozbawiona.
W wielu wczesnych projektach z dziedziny AI ludzie wprost opracowywali algorytm rozwiązania konkretnego problemu. Jednak w nowocześniejszych systemach AI tak nie jest. Zamiast konkretnego rozwiązania tworzy się ogólny algorytm uczenia się, który następnie „uczy się” rozwiązania problemu. Programiści często nie znają dokładnego algorytmu rozwiązania problemu i nie mają pojęcia, w jaki sposób system dochodzi do swoich wniosków. Wczesne programy do gry w szachy zaliczały się do pierwszego rodzaju (nawet Deep Blue należał zasadniczo do tej kategorii), podczas gdy współczesne programy oparte na języku programowania Go należą do drugiego rodzaju.
Oto przykłady systemów AI, z których wiele jest już znanych opinii publicznej:
• Amazon używa algorytmów śledzących wszystkie produkty, które ty i miliony innych ludzi kupujecie od niego za pośrednictwem Internetu. Następnie przesiewa obszerną bazę danych i porównuje tę listę z podobnymi produktami, których jeszcze nie posiadasz. Na koniec wykorzystuje metody statystyczne do wybrania towarów kupowanych przez ludzi „takich jak ty” i sprawia, że pojawiają się one na twoim ekranie.
• Algorytmy komputerowe potrafią sortować bazy danych z podaniami o pracę i sugerować kandydatów, którzy najlepiej odpowiadają określonemu stanowisku. Zajęcia generujące wiele tysięcy aplikacji są następnie przekazywane do systemów AI, które przeprowadzają pierwsze wywiady, podczas których gromadzi się nie tylko informacje o odpowiedziach kandydatów na zadane pytania, ale również filmuje ich reakcje emocjonalne i przesiewa je celem ustalenia, czy nadają się do zaproszenia na rozmowę kwalifikacyjną.
• Systemy AI zostały z powodzeniem wykorzystane do projektowania energooszczędnych budynków, urządzeń gospodarstwa domowego podłączonych do Internetu przedmiotów (IoT) oraz zintegrowanych systemów transportu.
• Systemy AI już dziś wykorzystują bazy z tysiącami zdjęć rentgenowskich, na przykład płuc w różnym stanie, oraz profesjonalnymi analizami ich kondycji. System porównuje zdjęcia rentgenowskie twoich płuc z bazą danych, żeby sprawdzić, czy chorujesz na określoną chorobę nowotworową. Mówiąc bardziej konkretnie, odczytuje dane i wzory widoczne na obrazie rentgenowskim płuc i porównuje je z innymi takimi danymi zapisanymi w bazie danych. W niektórych przypadkach tego rodzaju systemy potrafią postawić bardziej precyzyjną diagnozę od najlepszych lekarzy specjalistów.
• Astronomowie używają AI do szkolenia algorytmów maszynowego uczenia, aby identyfikowały szybkie błyski radiowe (pozagalaktycznych krótkich sygnałów radiowych), docierające z odległych galaktyk, poprzez przesiewanie potężnych baz danych z sygnałami zarejestrowanymi przez radioteleskopy. Do tej pory (wrzesień 2018) znaleźli 72 przykłady, które zostaną przeanalizowane w programie badawczym SETI. Wykorzystują również AI do zautomatyzowanego rozpoznawania galaktyk.
• Pojazdy autonomiczne jako maszyny pozbawione świadomości natychmiast wywołały problemy etyczne związane z zasadami, w które należałoby je wyposażyć, na przykład dotyczącymi sytuacji, których powinny unikać. Co ciekawe, system automatycznego pilota w samolocie nie został zaprojektowany jako układ całkowicie autonomiczny, chociaż można argumentować, że sterowanie statkiem powietrznym jest łatwiejsze od kierowania autonomicznym samochodem. Przyczyną może być fakt, że firmy lotnicze korzystające ze wspomnianego urządzenia pragną pozostać na rynku, bo nie ma przecież etycznych wątpliwości co do odpowiedzialności, gdyby doszło do katastrofy samolotu, niezależnie od tego, czy system zabiłby niektórych pasażerów, aby uratować innych.
• Systemy rozpoznawania twarzy są dziś w bardzo zaawansowanym stadium. Jedna z zabawnych aplikacji wykorzystuje technologię AI do rozpoznawania twarzy w pubie, żeby zidentyfikować następnego klienta czekającego na drinka przy barze i w ten sposób zapobiec nieuczciwemu przeskakiwaniu kolejki. Wszechobecne kamery telewizji przemysłowej są wykorzystywane przez policję do śledzenia działalności przestępczej. Takie systemy inwigilacji mogą być używane do kontrolowania społeczeństwa. Później zajmiemy się poważnymi kwestiami etycznymi, które wynikają z takich zastosowań.
• Broń autonomiczna i związane z nią problemy natury etycznej są przedmiotem międzynarodowej debaty.
Już na podstawie tej krótkiej listy jest oczywiste, że wiele, jeśli nie wszystkie ze wspomnianych powyżej, wynalazków budzi pytania natury etycznej – od manipulacji finansowej i przestępczości po naruszanie prywatności i kontrolowanie społeczeństwa. Istnieje niebezpieczeństwo, że ludzie ulegną logice „można, więc należy to zrobić” bez starannego przemyślenia potencjalnych problemów etycznych. Z drugiej strony trzeba przyznać, że kwestie etyczne szybko zyskują na znaczeniu u czołowych graczy ze świata sztucznej inteligencji. Wielkie pytanie, przed którym stoimy, brzmi: „Jak wprowadzić wymiar etyczny do algorytmu, który sam w sobie nie ma serca, duszy i umysłu?”.
Należy pamiętać, że większość systemów AI (choćby przedstawione wyżej) zaprojektowano do wykonania tylko jednego zadania, na przykład kierowania samochodem, diagnozowania chorób lub formułowania prognoz na podstawie danych z przeszłości. Aby o tym nie zapomnieć, często używa się określenia wąska (słaba) AI. Ponieważ wszystkie dotychczasowe zastosowania AI można scharakteryzować jako wąskie, niektórzy wolą posługiwać się terminem technologie kognitywne/poznawcze, obejmując nim wszystko, co do tej pory osiągnięto w badaniach nad stworzeniem inteligentnej maszyny.
Nick Bostrom i Eliezer Yudkowsky komentują:
Dzisiejsze algorytmy AI zastępujące człowieka lub przewyższające go skutecznością charakteryzuje kompetencja celowo zaprogramowana w tylko jednej wąskiej dziedzinie. Deep Blue został szachowym mistrzem świata, choć nie potrafi grać w warcaby, nie wspominając o kierowaniu samochodem lub dokonywaniu odkryć naukowych. Współczesne algorytmy AI przypominają formy życia biologicznego z jednym tylko wyjątkiem: Homo sapiens. Pszczoły wykazują kompetencję w budowaniu ulów; bóbr odznacza się kompetencją, jeśli chodzi o budowanie tam; ale pszczoły nie budują tam, a bór nie potrafi się nauczyć sztuki lepienia ula. Chociaż obserwujący je człowiek potrafi się nauczyć jednej i drugiej sztuki, jest to unikatowa zdolność wśród biologicznych form życia.
Innym potencjalnym (kolejnym) źródłem zamieszania w dyskusji jest to, że niektórzy informatycy sięgają po słowa z języka codziennego, jak uczenie się, planowanie, rozumowanie oraz inteligencja. Czynią je terminami technicznymi opisującymi nieożywione maszyny, co sprawia, że systemy AI wydają się bardziej inteligentne niż faktycznie są, często bowiem informatycy używają danych określeń w sensie znacznie węższym od potocznego. W rezultacie doniesienia mediów na temat AI cechują się dramatyzowaniem rezultatów, przesadnym optymizmem i nadmiernymi obawami. Profesor inżynierii komputerowej Danny Crookes z Queens University w Belfaście pisze:
Współczesne technologie, które wzbudzają niepokój z powodu swojej zdolności monitorowania i manipulowania całymi społecznościami, w rzeczywistości wcale nie są tak inteligentne. I nie muszą być. Ich siła polega na zdolności do opanowania ogromnej ilości danych, tworzenia profilu jednostki i wykrywania wzorców zarówno w postępowaniu jednostek, jak i całej populacji. Państwa nazistowskie i komunistyczne robiły to za pomocą ręcznych metod, na mniejszą skalę. Współczesna technologia umożliwia realizowanie wspomnianego zadania w skali globalnej. Chociaż można uznać tę zdolność za niepokojącą lub imponującą, nie jest ona prawdziwą inteligencją. Tak zwane „głębokie uczenie maszynowe” jest ostatnim krzykiem mody w badaniach nad AI, ale nie ma w tym niczego szczególnie nowego: chodzi jedynie o to, że obecnie istnieją moce obliczeniowe pozwalające obsługiwać wielopoziomowe (głębokie) sieci neuronów, które na papierze istniały od dziesięcioleci.
Profesor Joseph McRae Mellichamp z University of Alabama, podczas przemówienia na konferencji zorganizowanej przez Yale University do słuchaczy, wśród których znajdował się laureat Nagrody Nobla, Sir John Eccles, znany z odkrycia synapsy, oraz inni pionierzy AI, powiedział: „Mam wrażenie, że można by uniknąć wielu niepotrzebnych dyskusji, gdyby badacze AI zgodzili się przyznać, że istnieją fundamentalne różnice pomiędzy inteligencją maszynową a inteligencją ludzką – różnice, których nie można przezwyciężyć żadną ilością badań”. Innymi słowy, w tym miejscu pozwolę sobie zacytować wymowny tytuł odczytu Mellichampa, „wyraz »sztuczna« w określeniu »sztuczna inteligencja« ma jak najbardziej realne znaczenie”.
Profesor Crookes podkreśla potrzebę realistycznego podejścia:
Nadal bardzo daleko nam do stworzenia prawdziwej inteligencji przypominającej ludzką. Publiczność dała się ogłupić przetwarzaniu danych opartemu na wielkiej mocy obliczeniowej (jak w poprzednim paragrafie) i przekonać, że zbliżamy się w tej dziedzinie do poziomu ludzkiej inteligencji. Uważam, że bardzo daleko nam do tego. W rzeczywistości postęp badań w dziedzinie AI uległ ostatnio spowolnieniu. W dzisiejszych czasach prowadzi się mniej autentycznych badań nad AI niż wcześniej, bo większość funduszy przeznaczono na reklamę! Badacze podążają śladem pieniędzy.
Stoimy przed ogromnymi wyzwaniami, jeśli chodzi o zrozumienie procesu myślenia człowieka. Dostrzegam dwa fundamentalne problemy, które należy rozwiązać: (1) Nawet gdybyśmy znali ogólne prawa ludzkiego myślenia, jak przejść od sytuacji fizycznej do bardziej abstrakcyjnego sformułowania, żeby można było je wykorzystać? (2) W jaki sposób komputer mógłby wygenerować i zachować w pamięci wewnętrzny mentalny model realnego świata? Pomyślcie o tym, w jaki sposób niewidomy wizualizuje świat i jak o nim myśli. Ludzie mają zdolność wizualizowania rzeczy i myślenia o scenariuszach zawierających przedmioty i procesy istniejące jedynie w ich umyśle. Ta ogólna zdolność, którą posiadają wszyscy ludzie, jest wprost fenomenalna. Stanowi ona fundamentalny warunek prawdziwej inteligencji, którego w sposób zasadniczy brakuje wszystkim systemom AI. Są powody, aby wątpić, że kiedykolwiek zdołamy dotrzeć do tego punktu.
Moją główną myślą jest to, że powinniśmy zachować ostrożność, przyjmując założenie, iż ludzkość posiada intelektualną zdolność stworzenia inteligencji rywalizującej z inteligencją ludzką, nie wspominając o jej przewyższeniu, niezależne od tego, jaką ilością czasu będziemy dysponować.
Musimy o tym pamiętać, analizując sposób, w jaki Dan Brown wykorzystuje słabą (wąską) AI w swojej powieści, aby odpowiedzieć na dwa fundamentalne filozoficzne pytania.
------------------------------------------------------------------------
Zapraszamy do zakupu pełnej wersji książki
------------------------------------------------------------------------