Facebook - konwersja
Czytaj fragment
Pobierz fragment

  • Empik Go W empik go

2084. Sztuczna inteligencja i przyszłość ludzkości - ebook

Wydawnictwo:
Data wydania:
26 czerwca 2023
Format ebooka:
EPUB
Format EPUB
czytaj
na czytniku
czytaj
na tablecie
czytaj
na smartfonie
Jeden z najpopularniejszych formatów e-booków na świecie. Niezwykle wygodny i przyjazny czytelnikom - w przeciwieństwie do formatu PDF umożliwia skalowanie czcionki, dzięki czemu możliwe jest dopasowanie jej wielkości do kroju i rozmiarów ekranu. Więcej informacji znajdziesz w dziale Pomoc.
Multiformat
E-booki w Virtualo.pl dostępne są w opcji multiformatu. Oznacza to, że po dokonaniu zakupu, e-book pojawi się na Twoim koncie we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu.
, PDF
Format PDF
czytaj
na laptopie
czytaj
na tablecie
Format e-booków, który możesz odczytywać na tablecie oraz laptopie. Pliki PDF są odczytywane również przez czytniki i smartfony, jednakze względu na komfort czytania i brak możliwości skalowania czcionki, czytanie plików PDF na tych urządzeniach może być męczące dla oczu. Więcej informacji znajdziesz w dziale Pomoc.
Multiformat
E-booki w Virtualo.pl dostępne są w opcji multiformatu. Oznacza to, że po dokonaniu zakupu, e-book pojawi się na Twoim koncie we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu.
, MOBI
Format MOBI
czytaj
na czytniku
czytaj
na tablecie
czytaj
na smartfonie
Jeden z najczęściej wybieranych formatów wśród czytelników e-booków. Możesz go odczytać na czytniku Kindle oraz na smartfonach i tabletach po zainstalowaniu specjalnej aplikacji. Więcej informacji znajdziesz w dziale Pomoc.
Multiformat
E-booki w Virtualo.pl dostępne są w opcji multiformatu. Oznacza to, że po dokonaniu zakupu, e-book pojawi się na Twoim koncie we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu.
(3w1)
Multiformat
E-booki sprzedawane w księgarni Virtualo.pl dostępne są w opcji multiformatu - kupujesz treść, nie format. Po dodaniu e-booka do koszyka i dokonaniu płatności, e-book pojawi się na Twoim koncie w Mojej Bibliotece we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu przy okładce. Uwaga: audiobooki nie są objęte opcją multiformatu.
czytaj
na laptopie
Pliki PDF zabezpieczone watermarkiem możesz odczytać na dowolnym laptopie po zainstalowaniu czytnika dokumentów PDF. Najpowszechniejszym programem, który umożliwi odczytanie pliku PDF na laptopie, jest Adobe Reader. W zależności od potrzeb, możesz zainstalować również inny program - e-booki PDF pod względem sposobu odczytywania nie różnią niczym od powszechnie stosowanych dokumentów PDF, które odczytujemy każdego dnia.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na tablecie
Aby odczytywać e-booki na swoim tablecie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. Bluefire dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na czytniku
Czytanie na e-czytniku z ekranem e-ink jest bardzo wygodne i nie męczy wzroku. Pliki przystosowane do odczytywania na czytnikach to przede wszystkim EPUB (ten format możesz odczytać m.in. na czytnikach PocketBook) i MOBI (ten fromat możesz odczytać m.in. na czytnikach Kindle).
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na smartfonie
Aby odczytywać e-booki na swoim smartfonie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. iBooks dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
Czytaj fragment
Pobierz fragment

2084. Sztuczna inteligencja i przyszłość ludzkości - ebook

Sztuczna inteligencja stała się zjawiskiem wszechobecnym w naszym życiu codziennym, a algorytmy mają wpływ na niemal każdy aspekt ludzkiej działalności. Czy mamy słuszne powody, aby obawiać się przyszłości?

W książce „2084 matematyk i filozof John Lennox wprowadza nas w kalejdoskop idei: główne osiągnięcia w dziedzinie postępu technologicznego, bioinżynierię, a szczególnie sztuczną inteligencję. Poznamy obecne możliwości sztucznej inteligencji, jej blaski i cienie, fakty i mity oraz potencjalne przyszłe implikacje.

· Jak daleko możemy się posunąć w wykorzystaniu technologii rozpoznawania twarzy oraz inwigilacji wideo w imię bezpieczeństwa?

· Cyfrowe informacje na nasz temat są dostępne dla firm, instytucji i gałęzi przemysłu, czy zdajemy sobie jednak sprawę z zakresu ich wykorzystania?

· Czy postęp technologiczny odmieni nasze postrzeganie człowieczeństwa i biblijne rozumienie duszy i moralności?

· Co rok 2084 przyniesie naszym przyjaciołom, naszej rodzinie, naszemu społeczeństwu? Czy jesteśmy skazani na ponurą dystopię i inwigilację rodem z „Roku 1984” George’a Orwella?

Spis treści

Wprowadzenie // 9

1. Wykreślenie mapy // 11

2. Pierwsze z wielkich pytań: Skąd pochodzimy? // 25

3. Drugie z wielkich pytań: Dokąd zmierzamy? // 35

4. Wąska sztuczna inteligencja: Czy czeka nas świetlana przyszłość? // 43

5. Wąska sztuczna inteligencja: Może przyszłość wcale nie jest

taka świetlana? // 51

6. Udoskanalanie człowieka // 67

7. Ogólna sztuczna inteligencja: czy czeka nas mroczna przyszłość? // 77

8. Teczki Księgi Rodzaju: kim jest człowiek? // 91

9. Pochodzenie ludzkiego zmysłu moralnego // 109

10. Prawdziwy Homo Deus // 125

11. Przyszły szok: powrót człowieka, który jest Bogiem // 137

12. Homo Deus w Księdze Apokalipsy // 153

13. Czas końca // 165

Bibliografia // 177

Indeks biblijny // 187

Indeks osobowy // 191

Indeks rzeczowy // 195

Kategoria: Popularnonaukowe
Zabezpieczenie: Watermark
Watermark
Watermarkowanie polega na znakowaniu plików wewnątrz treści, dzięki czemu możliwe jest rozpoznanie unikatowej licencji transakcyjnej Użytkownika. E-książki zabezpieczone watermarkiem można odczytywać na wszystkich urządzeniach odtwarzających wybrany format (czytniki, tablety, smartfony). Nie ma również ograniczeń liczby licencji oraz istnieje możliwość swobodnego przenoszenia plików między urządzeniami. Pliki z watermarkiem są kompatybilne z popularnymi programami do odczytywania ebooków, jak np. Calibre oraz aplikacjami na urządzenia mobilne na takie platformy jak iOS oraz Android.
ISBN: 978-83-67634-21-2
Rozmiar pliku: 1,5 MB

FRAGMENT KSIĄŻKI

Roz­dział 1

WY­KRE­ŚLE­NIE MAPY

My, lu­dzie, od­zna­czamy się nie­na­sy­coną cie­ka­wo­ścią. Od za­ra­nia dzie­jów za­da­jemy py­ta­nia, szcze­gól­nie te do­nio­słe o po­cho­dze­nie i prze­zna­cze­nie czło­wieka: „Skąd je­ste­śmy i do­kąd zmie­rzamy?”. Zna­cze­nie tych py­tań jest oczy­wi­ste. Od­po­wiedź na pierw­sze de­ter­mi­nuje na­sze poj­mo­wa­nie sie­bie; od­po­wiedź na dru­gie wy­zna­cza cel na­szego ist­nie­nia. Obie od­po­wie­dzi po­ma­gają nam okre­ślić nasz świa­to­po­gląd oraz nar­ra­cję na­da­jącą sens ludz­kiemu ży­ciu.

Nie­stety py­ta­nia te nie na­leżą do ła­twych, czego do­wo­dzi wie­lość sprzecz­nych od­po­wie­dzi. Mimo to nie znie­chę­camy się. W ciągu mi­nio­nych wie­ków lu­dzie za­pro­po­no­wali sta­no­wi­ska pod­su­wane przez na­ukę, fi­lo­zo­fię, re­li­gię lub po­li­tykę.

Dwa naj­bar­dziej znane fu­tu­ry­styczne sce­na­riu­sze znaj­dują się w po­wie­ściach Al­do­usa Hux­leya Nowy wspa­niały świat z 1931 roku i Geo­rge’a Or­wella Rok 1984, wy­da­nej w 1949 roku. Oby­dwie książki zaj­mo­wały, w róż­nym cza­sie, wy­so­kie miej­sce wśród naj­bar­dziej wpły­wo­wych an­giel­skich po­wie­ści. Przy­kła­dowo, w 2005 roku po­wieść Or­wella zo­stała za­li­czona przez ma­ga­zyn „Time” do 100 naj­lep­szych po­wie­ści an­giel­skich po­wsta­łych w la­tach 1923–2005. Oby­dwie po­wie­ści to dys­to­pie, czyli we­dług de­fi­ni­cji Oxford En­glish Dic­tio­nary, utwory „przed­sta­wia­jące wy­obra­żone miej­sce lub wa­runki jako w naj­wyż­szym stop­niu złe”. Jed­nak złe miej­sca, które opi­sują, są zu­peł­nie różne. Wspo­mniane roz­bież­no­ści, ważne dla na­szych dal­szych roz­wa­żań, zwięźle wy­ja­śnił so­cjo­log Neil Post­man w swo­jej ce­nio­nej książce Za­ba­wić się na śmierć:

Or­well ostrzega, że zo­sta­niemy znie­wo­leni przez ja­kąś prze­moc po­cho­dzącą z ze­wnątrz. Tym­cza­sem w wi­zji Hux­leya do po­zba­wie­nia lu­dzi ich au­to­no­mii, pełni oso­bo­wo­ści i hi­sto­rii nie­po­trzebny jest ża­den Wielki Brat. W jego mnie­ma­niu lu­dzie po­ko­chają osa­cza­jącą ich prze­moc, za­czną wiel­bić tech­no­lo­gie, które po­zba­wiają ich zdol­no­ści my­śle­nia.

Or­well lę­kał się tych, któ­rzy za­każą wy­da­wa­nia ksią­żek. Hux­ley zaś oba­wiał się, że nie bę­dzie po­wodu do usta­na­wia­nia po­dob­nego za­kazu, po­nie­waż za­brak­nie ko­go­kol­wiek, kto ze­chce książki czy­tać. Or­wella prze­ra­żali ci, któ­rzy po­zba­wią nas do­stępu do in­for­ma­cji. Przed­mio­tem obaw Hux­leya na­to­miast byli lu­dzie, któ­rzy do­star­czą nam in­for­ma­cji w ta­kiej ilo­ści, że sta­niemy się bierni i ego­istyczni, Or­well bał się, że na­sza kul­tura prze­isto­czy się w kul­turę nie­wol­ni­ków. Hux­ley lę­kał się, że ogar­nie nas kul­tura. Sło­wem, Or­well oba­wiał się, że znisz­czy nas to, czego nie­na­wi­dzimy, Hux­ley zaś – że to, co uwiel­biamy.

Or­well wpro­wa­dził kon­cep­cje „po­wszech­nej in­wi­gi­la­cji” to­ta­li­tar­nego pań­stwa oraz „kon­troli umy­słu” i „no­wo­mowy”. Po­ję­cia te po­ja­wiają się dzi­siaj co­raz czę­ściej w kon­tek­ście roz­woju sztucz­nej in­te­li­gen­cji (AI), szcze­gól­nie w związku z opra­co­wa­niem tech­no­lo­gii kom­pu­te­ro­wej zdol­nej do wy­ko­ny­wa­nia za­dań bę­dą­cych do­meną ludz­kiego umy­słu – krótko mó­wiąc, ze stwo­rze­niem imi­ta­cji umy­słu. W na­szych cza­sach in­we­stuje się mi­liardy do­la­rów w roz­wój sys­te­mów AI, nie dziwi za­tem ogromne za­in­te­re­so­wa­nie tym, do czego ten pro­ces do­pro­wa­dzi: z jed­nej strony do po­prawy ja­ko­ści ży­cia dzięki wspo­ma­ga­niu cy­fro­wemu, do in­no­wa­cji w me­dy­cy­nie i udo­sko­na­le­nia czło­wieka, z dru­giej na­to­miast do bez­ro­bo­cia i or­wel­low­skiej in­wi­gi­la­cji spo­łe­czeń­stwa.

W roz­wój wy­da­rzeń za­an­ga­żo­wał się na­wet pa­pież , który we wrze­śniu 2019 roku ostrzegł, że wy­ścig w dzie­dzi­nie sztucz­nej in­te­li­gen­cji oraz in­nych form roz­woju tech­no­lo­gii cy­fro­wych może stwo­rzyć za­gro­że­nie w po­staci ro­sną­cych nie­rów­no­ści spo­łecz­nych, je­śli nie bę­dzie mu to­wa­rzy­szyć ocena etyczna pod­po­rząd­ko­wana wspól­nemu do­bru. Po­wie­dział: „Je­śli roz­wój tech­no­lo­giczny sta­nie się przy­czyną co­raz wy­raź­niej­szych nie­rów­no­ści, nie bę­dzie praw­dzi­wym ani rze­czy­wi­stym po­stę­pem. Gdyby tak zwany po­stęp tech­no­lo­giczny oka­zał się wro­giem wspól­nego do­bra, do­pro­wa­dziłby do nie­for­tun­nego cof­nię­cia się do ja­kiejś formy bar­ba­rzyń­stwa pod­da­nej prawu sil­niej­szego”.

Więk­szość do­tych­cza­so­wych suk­ce­sów w dzie­dzi­nie AI wiąże się z sys­te­mami wy­ko­nu­ją­cymi jedno kon­kretne za­da­nie, do któ­rego re­ali­za­cji po­trzeba za­zwy­czaj ludz­kiej in­te­li­gen­cji. Z dru­giej strony, w dzie­dzi­nie bar­dziej spe­ku­la­tyw­nych roz­wa­żań – przy­naj­mniej obec­nie – ob­ser­wuje się duże za­in­te­re­so­wa­nie znacz­nie bar­dziej am­bit­nym przed­się­wzię­ciem po­le­ga­ją­cym na stwo­rze­niu sys­te­mów zdol­nych do wy­ko­ny­wa­nia wszyst­kich czyn­no­ści ludz­kiej in­te­li­gen­cji, to jest ogól­nej sztucz­nej in­te­li­gen­cji, która zda­niem nie­któ­rych w sto­sun­kowo krót­kim cza­sie ‒ z pew­no­ścią do 2084 roku, a może na­wet wcze­śniej ‒ prze­wyż­szy ludzką in­te­li­gen­cję. Nie­któ­rzy są­dzą, że AGI, je­śli zo­sta­nie stwo­rzona, bę­dzie peł­nić rolę boga, inni uwa­żają, że sta­nie się to­ta­li­tar­nym de­spotą.

Za­sta­na­wia­jąc się nad spo­so­bem za­pre­zen­to­wa­nia no­wych za­gad­nień oraz na­dziei i lę­ków, które wzbu­dzają, po­my­śla­łem o trzech współ­cze­snych książ­kach, które zdo­były po­zy­cję be­st­sel­le­rów. Dwie zo­stały na­pi­sane przez izra­el­skiego hi­sto­ryka Yuvala Noah Ha­ra­riego: Sa­piens. Od zwie­rząt do bo­gów (która, jak su­ge­ruje ty­tuł, zaj­muje się pierw­szym z na­szych py­tań, czyli po­cho­dze­niem czło­wieka) oraz Homo deus. Krótka hi­sto­ria ju­tra (o przy­szło­ści ludz­ko­ści). Trze­cia książka, Po­czą­tek Dana Browna, jest po­wie­ścią, po­dob­nie jak książki Hux­leya i Or­wella. Te­ma­tem po­wie­ści jest wy­ko­rzy­sta­nie AI do udzie­le­nia od­po­wie­dzi na oba na­sze py­ta­nia. Utwór ma formę pa­sjo­nu­ją­cego thril­lera, więc prze­czy­tają go praw­do­po­odb­nie mi­liony lu­dzi, je­śli wiel­kie pro­gnozy sprze­da­żowe Browna okażą się praw­dziwe. Nie­wy­klu­czone za­tem, że po­wieść ta wy­wrze wpływ na po­glądy wielu osób, szcze­gól­nie mło­dych. Po­nie­waż au­tor przy­znaje, że Po­czą­tek od­zwier­cie­dla jego wła­sne po­szu­ki­wa­nia, książka sta­nowi in­try­gu­jący punkt wyj­ścia dla na­szych roz­wa­żań.

Cho­ciaż zdaję so­bie sprawę, że utwory science fic­tion stały się punk­tem wyj­ścia owoc­nej ka­riery na­uko­wej dla nie­któ­rych, po­trzebne jest w tym miej­scu słowo prze­strogi. Brown twier­dzi, że do­szedł do swo­ich wnio­sków dzięki wy­ko­rzy­sta­niu praw­dzi­wej na­uki, ale jego książka za­li­cza się do fik­cji li­te­rac­kiej, trzeba więc za­cho­wać ostroż­ność, ba­da­jąc jego ar­gu­menty i wnio­ski pod ką­tem ich praw­dzi­wo­ści.

Ma to ogromne zna­cze­nie, po­nie­waż Brown twier­dzi, że głów­nym mo­ty­wem, który skło­nił go do na­pi­sa­nia książki, było udzie­le­nie od­po­wie­dzi na py­ta­nie: „Czy Bóg prze­żyje na­ukę?”. To samo py­ta­nie, w róż­nych po­sta­ciach, za­in­spi­ro­wało mnie do na­pi­sa­nia kilku ksią­żek. W tej nie tylko do­cho­dzę do wnio­sku, że Bóg prze­żyje na­ukę, ale sta­wiam po­ważne py­ta­nie, czy prze­żyje ją ate­izm.

Jed­nym z głów­nych bo­ha­te­rów Po­czątku Dana Browna jest Ed­mond Kirsch, mi­liar­der, in­for­ma­tyk i znawca sztucz­nej in­te­li­gen­cji, który utrzy­muje, że zna­lazł od­po­wiedź na py­ta­nia o po­cho­dze­nie ży­cia i prze­zna­cze­nie czło­wieka. Kirsch za­mie­rza wy­ko­rzy­stać re­zul­taty tych po­szu­ki­wań do zre­ali­zo­wa­nia swo­jego od­wiecz­nego celu: „Jesz­cze za na­szego ży­cia re­li­gijne mity zo­staną zmiaż­dżone przez od­kry­cia na­ukowe”, czyli oba­le­nia trzech re­li­gii wy­wo­dzą­cych się od Abra­hama: ju­da­izmu, chrze­ści­jań­stwa oraz is­lamu. W spo­sób być może nie­uchronny kon­cen­truje się na chrze­ści­jań­stwie. Roz­wią­za­nia, które Kirsch w końcu ujaw­nia światu, są owo­cem jego spe­cja­li­stycz­nej wie­dzy z dzie­dziny sztucz­nej in­te­li­gen­cji. Jego wi­zja przy­szło­ści obej­muje tech­no­lo­giczną mo­dy­fi­ka­cję istot ludz­kich.

Na wstę­pie na­leży za­zna­czyć, że nie tylko hi­sto­rycy i pi­sa­rze po­wie­ści science fic­tion, ale także nie­któ­rzy z naj­bar­dziej sza­no­wa­nych na­ukow­ców su­ge­rują, że ludz­kość może zo­stać zmie­niona dzięki tech­no­lo­gii. Przy­kła­dowo, astro­nom kró­lew­ski Lord Rees po­wiada: „Nie można mieć ab­so­lut­nie żad­nej pew­no­ści, że za kilka wie­ków do­mi­nu­jące istoty in­te­li­gentne bę­dzie łą­czyć z nami ja­kie­kol­wiek emo­cjo­nalne po­kre­wień­stwo – cho­ciaż będą one mo­gły po­sia­dać al­go­ryt­miczne zro­zu­mie­nie na­szego po­stę­po­wa­nia”.

W tym sa­mym du­chu Rees pi­sze: „Abs­trak­cyjne my­śle­nie istot wy­po­sa­żo­nych w bio­lo­giczny mózg leży u pod­staw ca­łej na­szej kul­tury i na­uki. Jed­nak ak­tyw­ność ta – obej­mu­jąca w naj­lep­szym ra­zie dzie­siątki ty­siąc­leci – bę­dzie je­dy­nie krót­kim pre­kur­so­rem nie­orga­nicz­nych istot in­te­li­gent­nych z ery post­ludz­kiej. W od­le­głej przy­szło­ści to nie ludz­kie umy­sły, ale umy­sły ma­szyn będą naj­peł­niej ro­zu­mieć ko­smos”.

Te­mat ten nie znik­nie sa­mo­ist­nie, sta­nowi bo­wiem przed­miot za­in­te­re­so­wa­nia nie tylko lu­dzi bez­po­śred­nio za­an­ga­żo­wa­nych w ba­da­nia nad AI, lecz także ma­te­ma­ty­ków i przed­sta­wi­cieli in­nych dys­cy­plin na­uko­wych, któ­rych dzia­łal­ność i sta­no­wi­sko po­zo­stają pod jego co­raz sil­niej­szym wpły­wem. Po­nie­waż re­zul­taty i kon­cep­cje zwią­zane z ba­da­niami AI od­dzia­łują na nas wszyst­kich, wielu lu­dzi pi­szą­cych i snu­ją­cych roz­wa­ża­nia na ten te­mat w ogóle nie jest na­ukow­cami. Dla­tego ważne jest, aby fi­lo­zo­fo­wie, etycy, teo­lo­go­wie, ko­men­ta­to­rzy kul­tury, pi­sa­rze i ar­ty­ści wzięli udział w szer­szej de­ba­cie. Nie trzeba prze­cież być fi­zy­kiem ato­mo­wym lub kli­ma­to­lo­giem, aby uczest­ni­czyć w dys­ku­sji na te­mat ener­gii ją­dro­wej lub zmian kli­matu.

CZYM JEST SZTUCZNA IN­TE­LI­GEN­CJA (AI)?

Za­cznijmy od ro­bo­tów. Słowo ro­bot po­cho­dzi od cze­skiego (i ro­syj­skiego) słowa ozna­cza­ją­cego pracę – ro­bota. Ro­bot jest ma­szyną za­pro­jek­to­waną i za­pro­gra­mo­waną przez in­te­li­gentną istotę ludzką do wy­ko­ny­wa­nia zwy­kle po­je­dyn­czego za­da­nia, które wy­maga in­te­rak­cji z fi­zycz­nym oto­cze­niem – za­da­nia, któ­rego wy­ko­na­nie w nor­mal­nych wa­run­kach wy­ma­ga­łoby udziału in­te­li­gent­nej istoty ludz­kiej. W tym sen­sie dzia­ła­nie tej ma­szyny imi­tuje ludzką in­te­li­gen­cję. Wy­wo­łało to sze­roką de­batę w spra­wie, czy sama ma­szyna po­winna być uznana w ja­kimś sen­sie za in­te­li­gentną, choć nie w ta­kim zna­cze­niu, w ja­kim ro­zu­miemy ludzką in­te­li­gen­cję (co samo w so­bie sta­nowi ob­szerne za­gad­nie­nie).

Ter­min AI zo­stał wpro­wa­dzony w 1956 roku pod­czas za­jęć szkoły let­niej Wy­działu ma­te­ma­tyki Dart­mo­uth Uni­ver­sity, pro­wa­dzo­nej przez Johna McCar­thy’ego, który po­wie­dział: „Sztuczna in­te­li­gen­cja to na­uka oraz in­ży­nie­ria zaj­mu­jąca się wy­twa­rza­niem in­te­li­gent­nych ma­szyn”. Obec­nie okre­śle­nie to sto­suje się dla zde­fi­nio­wa­nia in­te­li­gent­nych ma­szyn po­sia­da­ją­cych okre­ślony cel oraz na­uki i tech­no­lo­gii, które do tego celu zmie­rzają.

Ba­da­nia w tej dzie­dzi­nie po­dą­żyły w dwóch kie­run­kach. Z jed­nej strony po­ja­wiła się próba zro­zu­mie­nia my­śle­nia czło­wieka i pro­cesu my­ślo­wego za po­mocą ich mo­de­lo­wa­nia przy uży­ciu tech­no­lo­gii kom­pu­te­ro­wej, z dru­giej strony roz­po­częto ba­da­nia nad dzia­ła­niami czło­wieka i kon­stru­owa­niem ma­szyn, które będą te dzia­ła­nia na­śla­do­wać. Róż­nica ma istotne zna­cze­nie – co in­nego skon­stru­ować ma­szynę na­śla­du­jącą ludzką rękę pod­no­szącą ja­kiś przed­miot; co in­nego zaś zbu­do­wać ma­szynę zdolną do na­śla­do­wa­nia my­śli czło­wieka, gdy ten przed­miot pod­nosi. Pierw­sze za­da­nie jest znacz­nie prost­sze od dru­giego, więc je­śli ogra­ni­czymy się do czy­stej uży­tecz­no­ści, pierw­sze może oka­zać się wszyst­kim, co jest nie­zbędne. W końcu prze­mysł lot­ni­czy zaj­muje się bu­do­wa­niem ma­szyn po­tra­fią­cych la­tać, a nie kon­stru­owa­niem elek­tro­nicz­nego mó­zgu po­dob­nego do mó­zgu ptaka, aby sa­mo­lot le­ciał do­kład­nie tak samo jak ptak, czyli po­ru­sza­jąc skrzy­dłami.

Po­mysł kon­stru­owa­nia ma­szyn na­śla­du­ją­cych okre­ślone ele­menty ludz­kich i zwie­rzę­cych za­cho­wań ma dłu­gie dzieje. Dwa ty­siące lat temu grecki ma­te­ma­tyk He­ron z Alek­san­drii zbu­do­wał ba­sen ozdo­biony me­cha­nicz­nymi śpie­wa­ją­cymi pta­kami i sową, która po­ru­sze­niem głowy uci­szała ptac­two. Lu­dzi od wie­ków fa­scy­no­wało kon­stru­owa­nie au­to­ma­tów, ma­szyn na­śla­du­ją­cych ja­kiś aspekt ży­cia. Bo­gatą ko­lek­cję ta­kich wy­myśl­nych au­to­ma­tów można obej­rzeć w lon­dyń­skim Science Mu­seum, wie­deń­skim Kun­sthi­sto­ri­sches Mu­seum oraz Mu­seum Spe­el­klok w Utrech­cie. Za­in­te­re­so­wa­nie ta­kimi ma­szy­nami osła­bło w XIX stu­le­ciu, ale prze­trwało w świe­cie fik­cji li­te­rac­kiej, na przy­kład w po­wie­ści Fran­ken­stein pióra Mary Wol­l­sto­ne­craft Shel­ley. Wła­ści­wie stały się one jed­nym z pod­sta­wo­wych ele­men­tów li­te­ra­tury science fic­tion od po­czątku ist­nie­nia tego ga­tunku.

Jedną z waż­nych czyn­no­ści co­dzien­nych czło­wieka są ob­li­cze­nia, nic więc dziw­nego, że po­świę­cono wiele trudu, aby zauto­ma­ty­zo­wać ten pro­ces. W XVII wieku fran­cu­ski ma­te­ma­tyk Bla­ise Pas­cal skon­stru­ował me­cha­niczny kal­ku­la­tor, aby po­móc ojcu, po­borcy po­dat­ków, w mo­zol­nych ob­li­cze­niach. W XIX stu­le­ciu Char­les Bab­bage po­ło­żył pod­wa­liny pro­gra­mów ob­li­cze­nio­wych, kon­stru­ując ma­szynę róż­ni­cową, umoż­li­wia­jącą au­to­ma­tyczne do­da­wa­nie, a na­stęp­nie sil­nik ana­li­tyczny, który był pierw­szym pro­gra­mo­wal­nym kal­ku­la­to­rem. Bab­bage’a uważa się słusz­nie za ojca no­wo­żyt­nego kom­pu­tera.

Pod­czas dru­giej wojny świa­to­wej ge­nialny bry­tyj­ski in­for­ma­tyk Alan Tu­ring użył za­awan­so­wa­nej elek­tro­nicz­nej tech­no­lo­gii kom­pu­te­ro­wej do skon­stru­owa­nia ma­szyny zwa­nej Bombą, która po­zwo­liła jemu i jego ze­spo­łowi z Blet­chley Park zła­mać nie­miecki szyfr „Enigma” uży­wany do taj­nej ko­mu­ni­ka­cji woj­sko­wej. Wy­na­lazki i prace teo­re­tyczne Tu­ringa do­pro­wa­dziły do sfor­mu­ło­wa­nia po­stu­latu „uczą­cej się ma­szyny”. We­dług Tu­ringa ma­szyna, która po­tra­fi­łaby roz­ma­wiać z ludźmi – nie wzbu­dza­jąc po­dej­rzeń, że mają do czy­nie­nia z ma­szyną – wy­gra­łaby „grę w na­śla­do­wa­nie” i mo­głaby zo­stać na­zwana „in­te­li­gentną”. De­fi­ni­cja ta, obec­nie na­zy­wana te­stem Tu­ringa, do­star­czyła prak­tycz­nego spraw­dzianu po­zwa­la­ją­cego na przy­pi­sa­nie ma­szy­nie in­te­li­gen­cji. Jed­nak, jak się nie­ba­wem prze­ko­namy, po­dej­ście to spo­tkało się z po­waż­nymi za­rzu­tami fi­lo­zo­fów.

Mniej wię­cej w tym sa­mym cza­sie (1951) Ma­rvin Min­sky (współ­za­ło­ży­ciel la­bo­ra­to­rium ba­daw­czego sztucz­nej in­te­li­gen­cji w MIT) i Dean Ed­monds zbu­do­wali pierw­szy kom­pu­ter oparty na sieci neu­ro­no­wej. Ko­lej­nym prze­ło­mo­wym osią­gnię­ciem, które przy­cią­gnęło ogromną uwagę opi­nii pu­blicz­nej, był kom­pu­ter Deep Blue, zbu­do­wany przez IBM, który w 1997 roku po­ko­nał sza­cho­wego mi­strza świata Garry’ego Ka­spa­rowa, oraz pro­gram Al­phaGo firmy Go­ogle, który jako pierw­szy po­ko­nał za­wo­do­wego gra­cza dzięki ucze­niu ma­szy­no­wemu. Zna­cze­nie sztucz­nej in­te­li­gen­cji uznano w 2018 roku, usta­na­wia­jąc Na­grodę Tu­ringa, na­zy­waną „in­for­ma­tyczną na­grodą No­bla”. Przy­znano ją trójce ba­da­czy, któ­rzy po­ło­żyli pod­wa­liny obec­nego bo­omu w dzie­dzi­nie sztucz­nej in­te­li­gen­cji, szcze­gól­nie na polu tak zwa­nego głę­bo­kiego ucze­nia ma­szy­no­wego.

Pierw­sze ro­boty i sys­temy AI były po­zba­wione ele­mentu na­zy­wa­nego obec­nie „ucze­niem ma­szy­no­wym”. Klu­czem do zro­zu­mie­nia obec­nego pro­cesu ucze­nia ma­szy­no­wego jest kon­cep­cja al­go­rytmu, która może przyj­mo­wać wiele po­staci, na przy­kład al­go­rytmu sym­bo­licz­nego, ma­te­ma­tycz­nego itd.. Słowo al­go­rytm po­cho­dzi od na­zwi­ska słyn­nego per­skiego ma­te­ma­tyka, astro­noma i geo­grafa Mu­ham­mada ibn Musy al-Chu­wa­ri­zmiego (około 780‒850).

Dzi­siaj przez al­go­rytm ro­zu­mie się „pre­cy­zyj­nie zde­fi­nio­wany zbiór ope­ra­cji ma­te­ma­tycz­nych lub lo­gicz­nych słu­żą­cych wy­ko­na­niu okre­ślo­nego za­da­nia” (OED). Jego kon­cep­cja sięga sta­ro­żyt­nego Ba­bi­lonu (lata 1800‒1600 przed Chr.). Znany in­for­ma­tyk Do­nald Knuth ze Stan­ford Uni­ver­sity opu­bli­ko­wał nie­które z wcze­snych al­go­ryt­mów i do­szedł do na­stę­pu­ją­cego wnio­sku: „Ob­li­cze­nia za­pi­sane na ba­bi­loń­skich ta­blicz­kach nie są je­dy­nie roz­wią­za­niem kon­kret­nych pro­ble­mów. W rze­czy­wi­sto­ści są to ogólne pro­ce­dury słu­żące roz­wią­zy­wa­niu ca­łej klasy pro­ble­mów”. Taka jest też główna idea al­go­rytmu: kiedy po­znasz jego dzia­ła­nie, mo­żesz roz­wią­zać nie tylko je­den pro­blem, ale całą klasę pro­ble­mów.

Jed­nym z naj­słyn­niej­szych przy­kła­dów, o któ­rym wielu z nas do­wie­działo się w szkole, jest al­go­rytm Eu­kli­de­sow­ski bę­dący pro­ce­durą sto­so­waną w celu zna­le­zie­nia naj­więk­szego wspól­nego dziel­nika (GCD) dwóch do­dat­nich liczb cał­ko­wi­tych. Jako pierw­szy opi­sał go Eu­kli­des w swoim rę­ko­pi­sie za­ty­tu­ło­wa­nym Ele­menty, po­wsta­łym około 300 roku przed Chr. Ten sku­teczny al­go­rytm w ta­kiej lub in­nej po­staci znaj­duje za­sto­so­wa­nie do dziś, na przy­kład w kom­pu­te­rach. Jego im­ple­men­ta­cja po­lega na ko­lej­nym dzie­le­niu i zli­cza­niu reszty aż do osią­gnię­cia po­żą­da­nego wy­niku. Dzia­ła­nie al­go­rytmu naj­le­piej zro­zu­mieć na po­niż­szym przy­kła­dzie – ważne jest to, że działa on dla każ­dej pary cał­ko­wi­tych liczb do­dat­nich.

Przy­pu­śćmy, że chcemy ob­li­czyć GCD liczb 56 oraz 12. W tym celu wy­ko­nu­jemy na­stę­pu­jące kroki:

1. Krok 1: Po­dzie­lić więk­szą liczbę przez mniej­szą.

◦ 56 ÷ 12 = 4 reszta 8

2. Krok 2: Po­dzie­lić dziel­nik (12) przez resztę z po­przed­niego kroku.

◦ 12 ÷ 8 = 1 reszta 4

3. Krok 3: Wy­ko­ny­wać krok 2, aż nie po­zo­sta­nie żadna reszta (w tym przy­padku po­zo­stał jesz­cze je­den krok).

◦ 8 ÷ 4 = 2 (brak reszty)

W na­szym przy­kła­dzie naj­więk­szy wspólny po­dziel­nik to 4.

Ła­two prze­ło­żyć to na kod pro­gramu i za­sto­so­wać w kom­pu­te­rze. Wy­star­czy zaj­rzeć do In­ter­netu, aby stwier­dzić, że ty­siące róż­nego ro­dzaju al­go­ryt­mów znaj­dują za­sto­so­wa­nie w każ­dej dzie­dzi­nie na­uki, in­ży­nie­rii i me­dy­cyny. Głów­nym przy­kła­dem jest ro­bo­tyka, po­nie­waż ro­boty pro­jek­tuje się zwy­kle do wie­lo­krot­nego wy­ko­ny­wa­nia tego sa­mego za­da­nia.

W ty­po­wym współ­cze­snym sys­te­mie AI od­po­wied­nie al­go­rytmy zo­stają umiesz­czone w pro­gra­mie kom­pu­te­ro­wym, który sor­tuje, fil­truje i se­lek­cjo­nuje różne ele­menty in­for­ma­cji, które zo­stały do niego wpro­wa­dzone. Jedna z me­tod po­lega na na­śla­do­wa­niu, przy­naj­mniej w pew­nym stop­niu, dzia­ła­nia ludz­kiej kory mó­zgo­wej (siatki neu­ro­nów). Ogól­nie mó­wiąc, sys­tem AI może wy­ko­rzy­sty­wać in­for­ma­cje szko­le­niowe do „na­uki” (ucze­nie ma­szy­nowe) roz­po­zna­wa­nia, iden­ty­fi­ko­wa­nia oraz in­ter­pre­to­wa­nia sche­ma­tów cy­fro­wych, ta­kich jak ob­razy, dźwięki, mowa, tekst lub in­for­ma­cje. Inna me­toda po­słu­guje się apli­ka­cjami kom­pu­te­ro­wymi opar­tymi na lo­gice praw­do­po­do­bień­stwa bay­esow­skiego za­sto­so­wa­nej do ana­lizy in­for­ma­cji sta­ty­stycz­nych, żeby na tej pod­sta­wie osza­co­wać praw­do­po­do­bień­stwo okre­ślo­nej hi­po­tezy. Ująw­szy krótko, sys­tem ucze­nia ma­szy­no­wego od­biera in­for­ma­cje o prze­szło­ści i po­dej­muje de­cy­zje lub for­mu­łuje pro­gnozy po otrzy­ma­niu no­wych in­for­ma­cji.

Na­leży pod­kre­ślić, że al­go­rytmy zo­stały za­pro­gra­mo­wane do wy­ko­ny­wa­nia aprok­sy­ma­cji funk­cji, zwy­kle po­przez opty­ma­li­za­cję, oraz w więk­szo­ści przy­pad­ków otrzy­mały wy­raźne przy­kłady da­nych wej­ścio­wych i wyj­ścio­wych, a także kry­te­rium koń­czące, ukie­run­ko­wu­jące pro­ces tej opty­ma­li­za­cji. Al­go­rytmy nie „mielą” in­for­ma­cji bez czyn­nika ludz­kiego obec­nego w pę­tli pro­gramu i na ja­kimś po­zio­mie kie­ru­ją­cego ca­łym pro­ce­sem (na­wet wów­czas, gdy to czło­wiek two­rzy al­go­rytm „kry­tyczny” i umiesz­cza go w pę­tli pro­gramu kom­pu­te­ro­wego itd.). Udział czło­wieka to ele­ment świa­domy. Ma­szyna jest go po­zba­wiona.

W wielu wcze­snych pro­jek­tach z dzie­dziny AI lu­dzie wprost opra­co­wy­wali al­go­rytm roz­wią­za­nia kon­kret­nego pro­blemu. Jed­nak w no­wo­cze­śniej­szych sys­te­mach AI tak nie jest. Za­miast kon­kret­nego roz­wią­za­nia two­rzy się ogólny al­go­rytm ucze­nia się, który na­stęp­nie „uczy się” roz­wią­za­nia pro­blemu. Pro­gra­mi­ści czę­sto nie znają do­kład­nego al­go­rytmu roz­wią­za­nia pro­blemu i nie mają po­ję­cia, w jaki spo­sób sys­tem do­cho­dzi do swo­ich wnio­sków. Wcze­sne pro­gramy do gry w sza­chy za­li­czały się do pierw­szego ro­dzaju (na­wet Deep Blue na­le­żał za­sad­ni­czo do tej ka­te­go­rii), pod­czas gdy współ­cze­sne pro­gramy oparte na ję­zyku pro­gra­mo­wa­nia Go na­leżą do dru­giego ro­dzaju.

Oto przy­kłady sys­te­mów AI, z któ­rych wiele jest już zna­nych opi­nii pu­blicz­nej:

• Ama­zon używa al­go­ryt­mów śle­dzą­cych wszyst­kie pro­dukty, które ty i mi­liony in­nych lu­dzi ku­pu­je­cie od niego za po­śred­nic­twem In­ter­netu. Na­stęp­nie prze­siewa ob­szerną bazę da­nych i po­rów­nuje tę li­stę z po­dob­nymi pro­duk­tami, któ­rych jesz­cze nie po­sia­dasz. Na ko­niec wy­ko­rzy­stuje me­tody sta­ty­styczne do wy­bra­nia to­wa­rów ku­po­wa­nych przez lu­dzi „ta­kich jak ty” i spra­wia, że po­ja­wiają się one na twoim ekra­nie.

• Al­go­rytmy kom­pu­te­rowe po­tra­fią sor­to­wać bazy da­nych z po­da­niami o pracę i su­ge­ro­wać kan­dy­da­tów, któ­rzy naj­le­piej od­po­wia­dają okre­ślo­nemu sta­no­wi­sku. Za­ję­cia ge­ne­ru­jące wiele ty­sięcy apli­ka­cji są na­stęp­nie prze­ka­zy­wane do sys­te­mów AI, które prze­pro­wa­dzają pierw­sze wy­wiady, pod­czas któ­rych gro­ma­dzi się nie tylko in­for­ma­cje o od­po­wie­dziach kan­dy­da­tów na za­dane py­ta­nia, ale rów­nież fil­muje ich re­ak­cje emo­cjo­nalne i prze­siewa je ce­lem usta­le­nia, czy na­dają się do za­pro­sze­nia na roz­mowę kwa­li­fi­ka­cyjną.

• Sys­temy AI zo­stały z po­wo­dze­niem wy­ko­rzy­stane do pro­jek­to­wa­nia ener­go­osz­częd­nych bu­dyn­ków, urzą­dzeń go­spo­dar­stwa do­mo­wego pod­łą­czo­nych do In­ter­netu przed­mio­tów (IoT) oraz zin­te­gro­wa­nych sys­te­mów trans­portu.

• Sys­temy AI już dziś wy­ko­rzy­stują bazy z ty­sią­cami zdjęć rent­ge­now­skich, na przy­kład płuc w róż­nym sta­nie, oraz pro­fe­sjo­nal­nymi ana­li­zami ich kon­dy­cji. Sys­tem po­rów­nuje zdję­cia rent­ge­now­skie two­ich płuc z bazą da­nych, żeby spraw­dzić, czy cho­ru­jesz na okre­śloną cho­robę no­wo­two­rową. Mó­wiąc bar­dziej kon­kret­nie, od­czy­tuje dane i wzory wi­doczne na ob­ra­zie rent­ge­now­skim płuc i po­rów­nuje je z in­nymi ta­kimi da­nymi za­pi­sa­nymi w ba­zie da­nych. W nie­któ­rych przy­pad­kach tego ro­dzaju sys­temy po­tra­fią po­sta­wić bar­dziej pre­cy­zyjną dia­gnozę od naj­lep­szych le­ka­rzy spe­cja­li­stów.

• Astro­no­mo­wie uży­wają AI do szko­le­nia al­go­ryt­mów ma­szy­no­wego ucze­nia, aby iden­ty­fi­ko­wały szyb­kie bły­ski ra­diowe (po­za­ga­lak­tycz­nych krót­kich sy­gna­łów ra­dio­wych), do­cie­ra­jące z od­le­głych ga­lak­tyk, po­przez prze­sie­wa­nie po­tęż­nych baz da­nych z sy­gna­łami za­re­je­stro­wa­nymi przez ra­dio­te­le­skopy. Do tej pory (wrze­sień 2018) zna­leźli 72 przy­kłady, które zo­staną prze­ana­li­zo­wane w pro­gra­mie ba­daw­czym SETI. Wy­ko­rzy­stują rów­nież AI do zauto­ma­ty­zo­wa­nego roz­po­zna­wa­nia ga­lak­tyk.

• Po­jazdy au­to­no­miczne jako ma­szyny po­zba­wione świa­do­mo­ści na­tych­miast wy­wo­łały pro­blemy etyczne zwią­zane z za­sa­dami, w które na­le­ża­łoby je wy­po­sa­żyć, na przy­kład do­ty­czą­cymi sy­tu­acji, któ­rych po­winny uni­kać. Co cie­kawe, sys­tem au­to­ma­tycz­nego pi­lota w sa­mo­lo­cie nie zo­stał za­pro­jek­to­wany jako układ cał­ko­wi­cie au­to­no­miczny, cho­ciaż można ar­gu­men­to­wać, że ste­ro­wa­nie stat­kiem po­wietrz­nym jest ła­twiej­sze od kie­ro­wa­nia au­to­no­micz­nym sa­mo­cho­dem. Przy­czyną może być fakt, że firmy lot­ni­cze ko­rzy­sta­jące ze wspo­mnia­nego urzą­dze­nia pra­gną po­zo­stać na rynku, bo nie ma prze­cież etycz­nych wąt­pli­wo­ści co do od­po­wie­dzial­no­ści, gdyby do­szło do ka­ta­strofy sa­mo­lotu, nie­za­leż­nie od tego, czy sys­tem za­biłby nie­któ­rych pa­sa­że­rów, aby ura­to­wać in­nych.

• Sys­temy roz­po­zna­wa­nia twa­rzy są dziś w bar­dzo za­awan­so­wa­nym sta­dium. Jedna z za­baw­nych apli­ka­cji wy­ko­rzy­stuje tech­no­lo­gię AI do roz­po­zna­wa­nia twa­rzy w pu­bie, żeby zi­den­ty­fi­ko­wać na­stęp­nego klienta cze­ka­ją­cego na drinka przy ba­rze i w ten spo­sób za­po­biec nie­uczci­wemu prze­ska­ki­wa­niu ko­lejki. Wszech­obecne ka­mery te­le­wi­zji prze­my­sło­wej są wy­ko­rzy­sty­wane przez po­li­cję do śle­dze­nia dzia­łal­no­ści prze­stęp­czej. Ta­kie sys­temy in­wi­gi­la­cji mogą być uży­wane do kon­tro­lo­wa­nia spo­łe­czeń­stwa. Póź­niej zaj­miemy się po­waż­nymi kwe­stiami etycz­nymi, które wy­ni­kają z ta­kich za­sto­so­wań.

• Broń au­to­no­miczna i zwią­zane z nią pro­blemy na­tury etycz­nej są przed­mio­tem mię­dzy­na­ro­do­wej de­baty.

Już na pod­sta­wie tej krót­kiej li­sty jest oczy­wi­ste, że wiele, je­śli nie wszyst­kie ze wspo­mnia­nych po­wy­żej, wy­na­laz­ków bu­dzi py­ta­nia na­tury etycz­nej – od ma­ni­pu­la­cji fi­nan­so­wej i prze­stęp­czo­ści po na­ru­sza­nie pry­wat­no­ści i kon­tro­lo­wa­nie spo­łe­czeń­stwa. Ist­nieje nie­bez­pie­czeń­stwo, że lu­dzie ule­gną lo­gice „można, więc na­leży to zro­bić” bez sta­ran­nego prze­my­śle­nia po­ten­cjal­nych pro­ble­mów etycz­nych. Z dru­giej strony trzeba przy­znać, że kwe­stie etyczne szybko zy­skują na zna­cze­niu u czo­ło­wych gra­czy ze świata sztucz­nej in­te­li­gen­cji. Wiel­kie py­ta­nie, przed któ­rym sto­imy, brzmi: „Jak wpro­wa­dzić wy­miar etyczny do al­go­rytmu, który sam w so­bie nie ma serca, du­szy i umy­słu?”.

Na­leży pa­mię­tać, że więk­szość sys­te­mów AI (choćby przed­sta­wione wy­żej) za­pro­jek­to­wano do wy­ko­na­nia tylko jed­nego za­da­nia, na przy­kład kie­ro­wa­nia sa­mo­cho­dem, dia­gno­zo­wa­nia cho­rób lub for­mu­ło­wa­nia pro­gnoz na pod­sta­wie da­nych z prze­szło­ści. Aby o tym nie za­po­mnieć, czę­sto używa się okre­śle­nia wą­ska (słaba) AI. Po­nie­waż wszyst­kie do­tych­cza­sowe za­sto­so­wa­nia AI można scha­rak­te­ry­zo­wać jako wą­skie, nie­któ­rzy wolą po­słu­gi­wać się ter­mi­nem tech­no­lo­gie ko­gni­tywne/po­znaw­cze, obej­mu­jąc nim wszystko, co do tej pory osią­gnięto w ba­da­niach nad stwo­rze­niem in­te­li­gent­nej ma­szyny.

Nick Bo­strom i Elie­zer Yud­kow­sky ko­men­tują:

Dzi­siej­sze al­go­rytmy AI za­stę­pu­jące czło­wieka lub prze­wyż­sza­jące go sku­tecz­no­ścią cha­rak­te­ry­zuje kom­pe­ten­cja ce­lowo za­pro­gra­mo­wana w tylko jed­nej wą­skiej dzie­dzi­nie. Deep Blue zo­stał sza­cho­wym mi­strzem świata, choć nie po­trafi grać w war­caby, nie wspo­mi­na­jąc o kie­ro­wa­niu sa­mo­cho­dem lub do­ko­ny­wa­niu od­kryć na­uko­wych. Współ­cze­sne al­go­rytmy AI przy­po­mi­nają formy ży­cia bio­lo­gicz­nego z jed­nym tylko wy­jąt­kiem: Homo sa­piens. Psz­czoły wy­ka­zują kom­pe­ten­cję w bu­do­wa­niu ulów; bóbr od­zna­cza się kom­pe­ten­cją, je­śli cho­dzi o bu­do­wa­nie tam; ale psz­czoły nie bu­dują tam, a bór nie po­trafi się na­uczyć sztuki le­pie­nia ula. Cho­ciaż ob­ser­wu­jący je czło­wiek po­trafi się na­uczyć jed­nej i dru­giej sztuki, jest to uni­ka­towa zdol­ność wśród bio­lo­gicz­nych form ży­cia.

In­nym po­ten­cjal­nym (ko­lej­nym) źró­dłem za­mie­sza­nia w dys­ku­sji jest to, że nie­któ­rzy in­for­ma­tycy się­gają po słowa z ję­zyka co­dzien­nego, jak ucze­nie się, pla­no­wa­nie, ro­zu­mo­wa­nie oraz in­te­li­gen­cja. Czy­nią je ter­mi­nami tech­nicz­nymi opi­su­ją­cymi nie­oży­wione ma­szyny, co spra­wia, że sys­temy AI wy­dają się bar­dziej in­te­li­gentne niż fak­tycz­nie są, czę­sto bo­wiem in­for­ma­tycy uży­wają da­nych okre­śleń w sen­sie znacz­nie węż­szym od po­tocz­nego. W re­zul­ta­cie do­nie­sie­nia me­diów na te­mat AI ce­chują się dra­ma­ty­zo­wa­niem re­zul­ta­tów, prze­sad­nym opty­mi­zmem i nad­mier­nymi oba­wami. Pro­fe­sor in­ży­nie­rii kom­pu­te­ro­wej Danny Cro­okes z Qu­eens Uni­ver­sity w Bel­fa­ście pi­sze:

Współ­cze­sne tech­no­lo­gie, które wzbu­dzają nie­po­kój z po­wodu swo­jej zdol­no­ści mo­ni­to­ro­wa­nia i ma­ni­pu­lo­wa­nia ca­łymi spo­łecz­no­ściami, w rze­czy­wi­sto­ści wcale nie są tak in­te­li­gentne. I nie mu­szą być. Ich siła po­lega na zdol­no­ści do opa­no­wa­nia ogrom­nej ilo­ści da­nych, two­rze­nia pro­filu jed­nostki i wy­kry­wa­nia wzor­ców za­równo w po­stę­po­wa­niu jed­no­stek, jak i ca­łej po­pu­la­cji. Pań­stwa na­zi­stow­skie i ko­mu­ni­styczne ro­biły to za po­mocą ręcz­nych me­tod, na mniej­szą skalę. Współ­cze­sna tech­no­lo­gia umoż­li­wia re­ali­zo­wa­nie wspo­mnia­nego za­da­nia w skali glo­bal­nej. Cho­ciaż można uznać tę zdol­ność za nie­po­ko­jącą lub im­po­nu­jącą, nie jest ona praw­dziwą in­te­li­gen­cją. Tak zwane „głę­bo­kie ucze­nie ma­szy­nowe” jest ostat­nim krzy­kiem mody w ba­da­niach nad AI, ale nie ma w tym ni­czego szcze­gól­nie no­wego: cho­dzi je­dy­nie o to, że obec­nie ist­nieją moce ob­li­cze­niowe po­zwa­la­jące ob­słu­gi­wać wie­lo­po­zio­mowe (głę­bo­kie) sieci neu­ro­nów, które na pa­pie­rze ist­niały od dzie­się­cio­leci.

Pro­fe­sor Jo­seph McRae Mel­li­champ z Uni­ver­sity of Ala­bama, pod­czas prze­mó­wie­nia na kon­fe­ren­cji zor­ga­ni­zo­wa­nej przez Yale Uni­ver­sity do słu­cha­czy, wśród któ­rych znaj­do­wał się lau­reat Na­grody No­bla, Sir John Ec­c­les, znany z od­kry­cia sy­napsy, oraz inni pio­nie­rzy AI, po­wie­dział: „Mam wra­że­nie, że można by unik­nąć wielu nie­po­trzeb­nych dys­ku­sji, gdyby ba­da­cze AI zgo­dzili się przy­znać, że ist­nieją fun­da­men­talne róż­nice po­mię­dzy in­te­li­gen­cją ma­szy­nową a in­te­li­gen­cją ludzką – róż­nice, któ­rych nie można prze­zwy­cię­żyć żadną ilo­ścią ba­dań”. In­nymi słowy, w tym miej­scu po­zwolę so­bie za­cy­to­wać wy­mowny ty­tuł od­czytu Mel­li­champa, „wy­raz »sztuczna« w okre­śle­niu »sztuczna in­te­li­gen­cja« ma jak naj­bar­dziej re­alne zna­cze­nie”.

Pro­fe­sor Cro­okes pod­kre­śla po­trzebę re­ali­stycz­nego po­dej­ścia:

Na­dal bar­dzo da­leko nam do stwo­rze­nia praw­dzi­wej in­te­li­gen­cji przy­po­mi­na­ją­cej ludzką. Pu­blicz­ność dała się ogłu­pić prze­twa­rza­niu da­nych opar­temu na wiel­kiej mocy ob­li­cze­nio­wej (jak w po­przed­nim pa­ra­gra­fie) i prze­ko­nać, że zbli­żamy się w tej dzie­dzi­nie do po­ziomu ludz­kiej in­te­li­gen­cji. Uwa­żam, że bar­dzo da­leko nam do tego. W rze­czy­wi­sto­ści po­stęp ba­dań w dzie­dzi­nie AI uległ ostat­nio spo­wol­nie­niu. W dzi­siej­szych cza­sach pro­wa­dzi się mniej au­ten­tycz­nych ba­dań nad AI niż wcze­śniej, bo więk­szość fun­du­szy prze­zna­czono na re­klamę! Ba­da­cze po­dą­żają śla­dem pie­nię­dzy.

Sto­imy przed ogrom­nymi wy­zwa­niami, je­śli cho­dzi o zro­zu­mie­nie pro­cesu my­śle­nia czło­wieka. Do­strze­gam dwa fun­da­men­talne pro­blemy, które na­leży roz­wią­zać: (1) Na­wet gdy­by­śmy znali ogólne prawa ludz­kiego my­śle­nia, jak przejść od sy­tu­acji fi­zycz­nej do bar­dziej abs­trak­cyj­nego sfor­mu­ło­wa­nia, żeby można było je wy­ko­rzy­stać? (2) W jaki spo­sób kom­pu­ter mógłby wy­ge­ne­ro­wać i za­cho­wać w pa­mięci we­wnętrzny men­talny mo­del re­al­nego świata? Po­my­śl­cie o tym, w jaki spo­sób nie­wi­domy wi­zu­ali­zuje świat i jak o nim my­śli. Lu­dzie mają zdol­ność wi­zu­ali­zo­wa­nia rze­czy i my­śle­nia o sce­na­riu­szach za­wie­ra­ją­cych przed­mioty i pro­cesy ist­nie­jące je­dy­nie w ich umy­śle. Ta ogólna zdol­ność, którą po­sia­dają wszy­scy lu­dzie, jest wprost fe­no­me­nalna. Sta­nowi ona fun­da­men­talny wa­ru­nek praw­dzi­wej in­te­li­gen­cji, któ­rego w spo­sób za­sad­ni­czy bra­kuje wszyst­kim sys­te­mom AI. Są po­wody, aby wąt­pić, że kie­dy­kol­wiek zdo­łamy do­trzeć do tego punktu.

Moją główną my­ślą jest to, że po­win­ni­śmy za­cho­wać ostroż­ność, przyj­mu­jąc za­ło­że­nie, iż ludz­kość po­siada in­te­lek­tu­alną zdol­ność stwo­rze­nia in­te­li­gen­cji ry­wa­li­zu­ją­cej z in­te­li­gen­cją ludzką, nie wspo­mi­na­jąc o jej prze­wyż­sze­niu, nie­za­leżne od tego, jaką ilo­ścią czasu bę­dziemy dys­po­no­wać.

Mu­simy o tym pa­mię­tać, ana­li­zu­jąc spo­sób, w jaki Dan Brown wy­ko­rzy­stuje słabą (wą­ską) AI w swo­jej po­wie­ści, aby od­po­wie­dzieć na dwa fun­da­men­talne fi­lo­zo­ficzne py­ta­nia.

------------------------------------------------------------------------

Za­pra­szamy do za­kupu peł­nej wer­sji książki

------------------------------------------------------------------------
mniej..

BESTSELLERY

Kategorie: