Facebook - konwersja
Przeczytaj fragment on-line
Darmowy fragment

  • Empik Go W empik go

2084. Sztuczna inteligencja i przyszłość ludzkości - ebook

Wydawnictwo:
Format:
EPUB
Data wydania:
26 czerwca 2023
39,90
3990 pkt
punktów Virtualo

2084. Sztuczna inteligencja i przyszłość ludzkości - ebook

Sztuczna inteligencja stała się zjawiskiem wszechobecnym w naszym życiu codziennym, a algorytmy mają wpływ na niemal każdy aspekt ludzkiej działalności. Czy mamy słuszne powody, aby obawiać się przyszłości?

W książce „2084 matematyk i filozof John Lennox wprowadza nas w kalejdoskop idei: główne osiągnięcia w dziedzinie postępu technologicznego, bioinżynierię, a szczególnie sztuczną inteligencję. Poznamy obecne możliwości sztucznej inteligencji, jej blaski i cienie, fakty i mity oraz potencjalne przyszłe implikacje.

· Jak daleko możemy się posunąć w wykorzystaniu technologii rozpoznawania twarzy oraz inwigilacji wideo w imię bezpieczeństwa?

· Cyfrowe informacje na nasz temat są dostępne dla firm, instytucji i gałęzi przemysłu, czy zdajemy sobie jednak sprawę z zakresu ich wykorzystania?

· Czy postęp technologiczny odmieni nasze postrzeganie człowieczeństwa i biblijne rozumienie duszy i moralności?

· Co rok 2084 przyniesie naszym przyjaciołom, naszej rodzinie, naszemu społeczeństwu? Czy jesteśmy skazani na ponurą dystopię i inwigilację rodem z „Roku 1984” George’a Orwella?

Spis treści

Wprowadzenie // 9

1. Wykreślenie mapy // 11

2. Pierwsze z wielkich pytań: Skąd pochodzimy? // 25

3. Drugie z wielkich pytań: Dokąd zmierzamy? // 35

4. Wąska sztuczna inteligencja: Czy czeka nas świetlana przyszłość? // 43

5. Wąska sztuczna inteligencja: Może przyszłość wcale nie jest

taka świetlana? // 51

6. Udoskanalanie człowieka // 67

7. Ogólna sztuczna inteligencja: czy czeka nas mroczna przyszłość? // 77

8. Teczki Księgi Rodzaju: kim jest człowiek? // 91

9. Pochodzenie ludzkiego zmysłu moralnego // 109

10. Prawdziwy Homo Deus // 125

11. Przyszły szok: powrót człowieka, który jest Bogiem // 137

12. Homo Deus w Księdze Apokalipsy // 153

13. Czas końca // 165

Bibliografia // 177

Indeks biblijny // 187

Indeks osobowy // 191

Indeks rzeczowy // 195

Kategoria: Popularnonaukowe
Zabezpieczenie: Watermark
Watermark
Watermarkowanie polega na znakowaniu plików wewnątrz treści, dzięki czemu możliwe jest rozpoznanie unikatowej licencji transakcyjnej Użytkownika. E-książki zabezpieczone watermarkiem można odczytywać na wszystkich urządzeniach odtwarzających wybrany format (czytniki, tablety, smartfony). Nie ma również ograniczeń liczby licencji oraz istnieje możliwość swobodnego przenoszenia plików między urządzeniami. Pliki z watermarkiem są kompatybilne z popularnymi programami do odczytywania ebooków, jak np. Calibre oraz aplikacjami na urządzenia mobilne na takie platformy jak iOS oraz Android.
ISBN: 978-83-67634-21-2
Rozmiar pliku: 1,5 MB

FRAGMENT KSIĄŻKI

Roz­dział 1

WY­KRE­ŚLE­NIE MAPY

My, lu­dzie, od­zna­czamy się nie­na­sy­coną cie­ka­wo­ścią. Od za­ra­nia dzie­jów za­da­jemy py­ta­nia, szcze­gól­nie te do­nio­słe o po­cho­dze­nie i prze­zna­cze­nie czło­wieka: „Skąd je­ste­śmy i do­kąd zmie­rzamy?”. Zna­cze­nie tych py­tań jest oczy­wi­ste. Od­po­wiedź na pierw­sze de­ter­mi­nuje na­sze poj­mo­wa­nie sie­bie; od­po­wiedź na dru­gie wy­zna­cza cel na­szego ist­nie­nia. Obie od­po­wie­dzi po­ma­gają nam okre­ślić nasz świa­to­po­gląd oraz nar­ra­cję na­da­jącą sens ludz­kiemu ży­ciu.

Nie­stety py­ta­nia te nie na­leżą do ła­twych, czego do­wo­dzi wie­lość sprzecz­nych od­po­wie­dzi. Mimo to nie znie­chę­camy się. W ciągu mi­nio­nych wie­ków lu­dzie za­pro­po­no­wali sta­no­wi­ska pod­su­wane przez na­ukę, fi­lo­zo­fię, re­li­gię lub po­li­tykę.

Dwa naj­bar­dziej znane fu­tu­ry­styczne sce­na­riu­sze znaj­dują się w po­wie­ściach Al­do­usa Hux­leya Nowy wspa­niały świat z 1931 roku i Geo­rge’a Or­wella Rok 1984, wy­da­nej w 1949 roku. Oby­dwie książki zaj­mo­wały, w róż­nym cza­sie, wy­so­kie miej­sce wśród naj­bar­dziej wpły­wo­wych an­giel­skich po­wie­ści. Przy­kła­dowo, w 2005 roku po­wieść Or­wella zo­stała za­li­czona przez ma­ga­zyn „Time” do 100 naj­lep­szych po­wie­ści an­giel­skich po­wsta­łych w la­tach 1923–2005. Oby­dwie po­wie­ści to dys­to­pie, czyli we­dług de­fi­ni­cji Oxford En­glish Dic­tio­nary, utwory „przed­sta­wia­jące wy­obra­żone miej­sce lub wa­runki jako w naj­wyż­szym stop­niu złe”. Jed­nak złe miej­sca, które opi­sują, są zu­peł­nie różne. Wspo­mniane roz­bież­no­ści, ważne dla na­szych dal­szych roz­wa­żań, zwięźle wy­ja­śnił so­cjo­log Neil Post­man w swo­jej ce­nio­nej książce Za­ba­wić się na śmierć:

Or­well ostrzega, że zo­sta­niemy znie­wo­leni przez ja­kąś prze­moc po­cho­dzącą z ze­wnątrz. Tym­cza­sem w wi­zji Hux­leya do po­zba­wie­nia lu­dzi ich au­to­no­mii, pełni oso­bo­wo­ści i hi­sto­rii nie­po­trzebny jest ża­den Wielki Brat. W jego mnie­ma­niu lu­dzie po­ko­chają osa­cza­jącą ich prze­moc, za­czną wiel­bić tech­no­lo­gie, które po­zba­wiają ich zdol­no­ści my­śle­nia.

Or­well lę­kał się tych, któ­rzy za­każą wy­da­wa­nia ksią­żek. Hux­ley zaś oba­wiał się, że nie bę­dzie po­wodu do usta­na­wia­nia po­dob­nego za­kazu, po­nie­waż za­brak­nie ko­go­kol­wiek, kto ze­chce książki czy­tać. Or­wella prze­ra­żali ci, któ­rzy po­zba­wią nas do­stępu do in­for­ma­cji. Przed­mio­tem obaw Hux­leya na­to­miast byli lu­dzie, któ­rzy do­star­czą nam in­for­ma­cji w ta­kiej ilo­ści, że sta­niemy się bierni i ego­istyczni, Or­well bał się, że na­sza kul­tura prze­isto­czy się w kul­turę nie­wol­ni­ków. Hux­ley lę­kał się, że ogar­nie nas kul­tura. Sło­wem, Or­well oba­wiał się, że znisz­czy nas to, czego nie­na­wi­dzimy, Hux­ley zaś – że to, co uwiel­biamy.

Or­well wpro­wa­dził kon­cep­cje „po­wszech­nej in­wi­gi­la­cji” to­ta­li­tar­nego pań­stwa oraz „kon­troli umy­słu” i „no­wo­mowy”. Po­ję­cia te po­ja­wiają się dzi­siaj co­raz czę­ściej w kon­tek­ście roz­woju sztucz­nej in­te­li­gen­cji (AI), szcze­gól­nie w związku z opra­co­wa­niem tech­no­lo­gii kom­pu­te­ro­wej zdol­nej do wy­ko­ny­wa­nia za­dań bę­dą­cych do­meną ludz­kiego umy­słu – krótko mó­wiąc, ze stwo­rze­niem imi­ta­cji umy­słu. W na­szych cza­sach in­we­stuje się mi­liardy do­la­rów w roz­wój sys­te­mów AI, nie dziwi za­tem ogromne za­in­te­re­so­wa­nie tym, do czego ten pro­ces do­pro­wa­dzi: z jed­nej strony do po­prawy ja­ko­ści ży­cia dzięki wspo­ma­ga­niu cy­fro­wemu, do in­no­wa­cji w me­dy­cy­nie i udo­sko­na­le­nia czło­wieka, z dru­giej na­to­miast do bez­ro­bo­cia i or­wel­low­skiej in­wi­gi­la­cji spo­łe­czeń­stwa.

W roz­wój wy­da­rzeń za­an­ga­żo­wał się na­wet pa­pież , który we wrze­śniu 2019 roku ostrzegł, że wy­ścig w dzie­dzi­nie sztucz­nej in­te­li­gen­cji oraz in­nych form roz­woju tech­no­lo­gii cy­fro­wych może stwo­rzyć za­gro­że­nie w po­staci ro­sną­cych nie­rów­no­ści spo­łecz­nych, je­śli nie bę­dzie mu to­wa­rzy­szyć ocena etyczna pod­po­rząd­ko­wana wspól­nemu do­bru. Po­wie­dział: „Je­śli roz­wój tech­no­lo­giczny sta­nie się przy­czyną co­raz wy­raź­niej­szych nie­rów­no­ści, nie bę­dzie praw­dzi­wym ani rze­czy­wi­stym po­stę­pem. Gdyby tak zwany po­stęp tech­no­lo­giczny oka­zał się wro­giem wspól­nego do­bra, do­pro­wa­dziłby do nie­for­tun­nego cof­nię­cia się do ja­kiejś formy bar­ba­rzyń­stwa pod­da­nej prawu sil­niej­szego”.

Więk­szość do­tych­cza­so­wych suk­ce­sów w dzie­dzi­nie AI wiąże się z sys­te­mami wy­ko­nu­ją­cymi jedno kon­kretne za­da­nie, do któ­rego re­ali­za­cji po­trzeba za­zwy­czaj ludz­kiej in­te­li­gen­cji. Z dru­giej strony, w dzie­dzi­nie bar­dziej spe­ku­la­tyw­nych roz­wa­żań – przy­naj­mniej obec­nie – ob­ser­wuje się duże za­in­te­re­so­wa­nie znacz­nie bar­dziej am­bit­nym przed­się­wzię­ciem po­le­ga­ją­cym na stwo­rze­niu sys­te­mów zdol­nych do wy­ko­ny­wa­nia wszyst­kich czyn­no­ści ludz­kiej in­te­li­gen­cji, to jest ogól­nej sztucz­nej in­te­li­gen­cji, która zda­niem nie­któ­rych w sto­sun­kowo krót­kim cza­sie ‒ z pew­no­ścią do 2084 roku, a może na­wet wcze­śniej ‒ prze­wyż­szy ludzką in­te­li­gen­cję. Nie­któ­rzy są­dzą, że AGI, je­śli zo­sta­nie stwo­rzona, bę­dzie peł­nić rolę boga, inni uwa­żają, że sta­nie się to­ta­li­tar­nym de­spotą.

Za­sta­na­wia­jąc się nad spo­so­bem za­pre­zen­to­wa­nia no­wych za­gad­nień oraz na­dziei i lę­ków, które wzbu­dzają, po­my­śla­łem o trzech współ­cze­snych książ­kach, które zdo­były po­zy­cję be­st­sel­le­rów. Dwie zo­stały na­pi­sane przez izra­el­skiego hi­sto­ryka Yuvala Noah Ha­ra­riego: Sa­piens. Od zwie­rząt do bo­gów (która, jak su­ge­ruje ty­tuł, zaj­muje się pierw­szym z na­szych py­tań, czyli po­cho­dze­niem czło­wieka) oraz Homo deus. Krótka hi­sto­ria ju­tra (o przy­szło­ści ludz­ko­ści). Trze­cia książka, Po­czą­tek Dana Browna, jest po­wie­ścią, po­dob­nie jak książki Hux­leya i Or­wella. Te­ma­tem po­wie­ści jest wy­ko­rzy­sta­nie AI do udzie­le­nia od­po­wie­dzi na oba na­sze py­ta­nia. Utwór ma formę pa­sjo­nu­ją­cego thril­lera, więc prze­czy­tają go praw­do­po­odb­nie mi­liony lu­dzi, je­śli wiel­kie pro­gnozy sprze­da­żowe Browna okażą się praw­dziwe. Nie­wy­klu­czone za­tem, że po­wieść ta wy­wrze wpływ na po­glądy wielu osób, szcze­gól­nie mło­dych. Po­nie­waż au­tor przy­znaje, że Po­czą­tek od­zwier­cie­dla jego wła­sne po­szu­ki­wa­nia, książka sta­nowi in­try­gu­jący punkt wyj­ścia dla na­szych roz­wa­żań.

Cho­ciaż zdaję so­bie sprawę, że utwory science fic­tion stały się punk­tem wyj­ścia owoc­nej ka­riery na­uko­wej dla nie­któ­rych, po­trzebne jest w tym miej­scu słowo prze­strogi. Brown twier­dzi, że do­szedł do swo­ich wnio­sków dzięki wy­ko­rzy­sta­niu praw­dzi­wej na­uki, ale jego książka za­li­cza się do fik­cji li­te­rac­kiej, trzeba więc za­cho­wać ostroż­ność, ba­da­jąc jego ar­gu­menty i wnio­ski pod ką­tem ich praw­dzi­wo­ści.

Ma to ogromne zna­cze­nie, po­nie­waż Brown twier­dzi, że głów­nym mo­ty­wem, który skło­nił go do na­pi­sa­nia książki, było udzie­le­nie od­po­wie­dzi na py­ta­nie: „Czy Bóg prze­żyje na­ukę?”. To samo py­ta­nie, w róż­nych po­sta­ciach, za­in­spi­ro­wało mnie do na­pi­sa­nia kilku ksią­żek. W tej nie tylko do­cho­dzę do wnio­sku, że Bóg prze­żyje na­ukę, ale sta­wiam po­ważne py­ta­nie, czy prze­żyje ją ate­izm.

Jed­nym z głów­nych bo­ha­te­rów Po­czątku Dana Browna jest Ed­mond Kirsch, mi­liar­der, in­for­ma­tyk i znawca sztucz­nej in­te­li­gen­cji, który utrzy­muje, że zna­lazł od­po­wiedź na py­ta­nia o po­cho­dze­nie ży­cia i prze­zna­cze­nie czło­wieka. Kirsch za­mie­rza wy­ko­rzy­stać re­zul­taty tych po­szu­ki­wań do zre­ali­zo­wa­nia swo­jego od­wiecz­nego celu: „Jesz­cze za na­szego ży­cia re­li­gijne mity zo­staną zmiaż­dżone przez od­kry­cia na­ukowe”, czyli oba­le­nia trzech re­li­gii wy­wo­dzą­cych się od Abra­hama: ju­da­izmu, chrze­ści­jań­stwa oraz is­lamu. W spo­sób być może nie­uchronny kon­cen­truje się na chrze­ści­jań­stwie. Roz­wią­za­nia, które Kirsch w końcu ujaw­nia światu, są owo­cem jego spe­cja­li­stycz­nej wie­dzy z dzie­dziny sztucz­nej in­te­li­gen­cji. Jego wi­zja przy­szło­ści obej­muje tech­no­lo­giczną mo­dy­fi­ka­cję istot ludz­kich.

Na wstę­pie na­leży za­zna­czyć, że nie tylko hi­sto­rycy i pi­sa­rze po­wie­ści science fic­tion, ale także nie­któ­rzy z naj­bar­dziej sza­no­wa­nych na­ukow­ców su­ge­rują, że ludz­kość może zo­stać zmie­niona dzięki tech­no­lo­gii. Przy­kła­dowo, astro­nom kró­lew­ski Lord Rees po­wiada: „Nie można mieć ab­so­lut­nie żad­nej pew­no­ści, że za kilka wie­ków do­mi­nu­jące istoty in­te­li­gentne bę­dzie łą­czyć z nami ja­kie­kol­wiek emo­cjo­nalne po­kre­wień­stwo – cho­ciaż będą one mo­gły po­sia­dać al­go­ryt­miczne zro­zu­mie­nie na­szego po­stę­po­wa­nia”.

W tym sa­mym du­chu Rees pi­sze: „Abs­trak­cyjne my­śle­nie istot wy­po­sa­żo­nych w bio­lo­giczny mózg leży u pod­staw ca­łej na­szej kul­tury i na­uki. Jed­nak ak­tyw­ność ta – obej­mu­jąca w naj­lep­szym ra­zie dzie­siątki ty­siąc­leci – bę­dzie je­dy­nie krót­kim pre­kur­so­rem nie­orga­nicz­nych istot in­te­li­gent­nych z ery post­ludz­kiej. W od­le­głej przy­szło­ści to nie ludz­kie umy­sły, ale umy­sły ma­szyn będą naj­peł­niej ro­zu­mieć ko­smos”.

Te­mat ten nie znik­nie sa­mo­ist­nie, sta­nowi bo­wiem przed­miot za­in­te­re­so­wa­nia nie tylko lu­dzi bez­po­śred­nio za­an­ga­żo­wa­nych w ba­da­nia nad AI, lecz także ma­te­ma­ty­ków i przed­sta­wi­cieli in­nych dys­cy­plin na­uko­wych, któ­rych dzia­łal­ność i sta­no­wi­sko po­zo­stają pod jego co­raz sil­niej­szym wpły­wem. Po­nie­waż re­zul­taty i kon­cep­cje zwią­zane z ba­da­niami AI od­dzia­łują na nas wszyst­kich, wielu lu­dzi pi­szą­cych i snu­ją­cych roz­wa­ża­nia na ten te­mat w ogóle nie jest na­ukow­cami. Dla­tego ważne jest, aby fi­lo­zo­fo­wie, etycy, teo­lo­go­wie, ko­men­ta­to­rzy kul­tury, pi­sa­rze i ar­ty­ści wzięli udział w szer­szej de­ba­cie. Nie trzeba prze­cież być fi­zy­kiem ato­mo­wym lub kli­ma­to­lo­giem, aby uczest­ni­czyć w dys­ku­sji na te­mat ener­gii ją­dro­wej lub zmian kli­matu.

CZYM JEST SZTUCZNA IN­TE­LI­GEN­CJA (AI)?

Za­cznijmy od ro­bo­tów. Słowo ro­bot po­cho­dzi od cze­skiego (i ro­syj­skiego) słowa ozna­cza­ją­cego pracę – ro­bota. Ro­bot jest ma­szyną za­pro­jek­to­waną i za­pro­gra­mo­waną przez in­te­li­gentną istotę ludzką do wy­ko­ny­wa­nia zwy­kle po­je­dyn­czego za­da­nia, które wy­maga in­te­rak­cji z fi­zycz­nym oto­cze­niem – za­da­nia, któ­rego wy­ko­na­nie w nor­mal­nych wa­run­kach wy­ma­ga­łoby udziału in­te­li­gent­nej istoty ludz­kiej. W tym sen­sie dzia­ła­nie tej ma­szyny imi­tuje ludzką in­te­li­gen­cję. Wy­wo­łało to sze­roką de­batę w spra­wie, czy sama ma­szyna po­winna być uznana w ja­kimś sen­sie za in­te­li­gentną, choć nie w ta­kim zna­cze­niu, w ja­kim ro­zu­miemy ludzką in­te­li­gen­cję (co samo w so­bie sta­nowi ob­szerne za­gad­nie­nie).

Ter­min AI zo­stał wpro­wa­dzony w 1956 roku pod­czas za­jęć szkoły let­niej Wy­działu ma­te­ma­tyki Dart­mo­uth Uni­ver­sity, pro­wa­dzo­nej przez Johna McCar­thy’ego, który po­wie­dział: „Sztuczna in­te­li­gen­cja to na­uka oraz in­ży­nie­ria zaj­mu­jąca się wy­twa­rza­niem in­te­li­gent­nych ma­szyn”. Obec­nie okre­śle­nie to sto­suje się dla zde­fi­nio­wa­nia in­te­li­gent­nych ma­szyn po­sia­da­ją­cych okre­ślony cel oraz na­uki i tech­no­lo­gii, które do tego celu zmie­rzają.

Ba­da­nia w tej dzie­dzi­nie po­dą­żyły w dwóch kie­run­kach. Z jed­nej strony po­ja­wiła się próba zro­zu­mie­nia my­śle­nia czło­wieka i pro­cesu my­ślo­wego za po­mocą ich mo­de­lo­wa­nia przy uży­ciu tech­no­lo­gii kom­pu­te­ro­wej, z dru­giej strony roz­po­częto ba­da­nia nad dzia­ła­niami czło­wieka i kon­stru­owa­niem ma­szyn, które będą te dzia­ła­nia na­śla­do­wać. Róż­nica ma istotne zna­cze­nie – co in­nego skon­stru­ować ma­szynę na­śla­du­jącą ludzką rękę pod­no­szącą ja­kiś przed­miot; co in­nego zaś zbu­do­wać ma­szynę zdolną do na­śla­do­wa­nia my­śli czło­wieka, gdy ten przed­miot pod­nosi. Pierw­sze za­da­nie jest znacz­nie prost­sze od dru­giego, więc je­śli ogra­ni­czymy się do czy­stej uży­tecz­no­ści, pierw­sze może oka­zać się wszyst­kim, co jest nie­zbędne. W końcu prze­mysł lot­ni­czy zaj­muje się bu­do­wa­niem ma­szyn po­tra­fią­cych la­tać, a nie kon­stru­owa­niem elek­tro­nicz­nego mó­zgu po­dob­nego do mó­zgu ptaka, aby sa­mo­lot le­ciał do­kład­nie tak samo jak ptak, czyli po­ru­sza­jąc skrzy­dłami.

Po­mysł kon­stru­owa­nia ma­szyn na­śla­du­ją­cych okre­ślone ele­menty ludz­kich i zwie­rzę­cych za­cho­wań ma dłu­gie dzieje. Dwa ty­siące lat temu grecki ma­te­ma­tyk He­ron z Alek­san­drii zbu­do­wał ba­sen ozdo­biony me­cha­nicz­nymi śpie­wa­ją­cymi pta­kami i sową, która po­ru­sze­niem głowy uci­szała ptac­two. Lu­dzi od wie­ków fa­scy­no­wało kon­stru­owa­nie au­to­ma­tów, ma­szyn na­śla­du­ją­cych ja­kiś aspekt ży­cia. Bo­gatą ko­lek­cję ta­kich wy­myśl­nych au­to­ma­tów można obej­rzeć w lon­dyń­skim Science Mu­seum, wie­deń­skim Kun­sthi­sto­ri­sches Mu­seum oraz Mu­seum Spe­el­klok w Utrech­cie. Za­in­te­re­so­wa­nie ta­kimi ma­szy­nami osła­bło w XIX stu­le­ciu, ale prze­trwało w świe­cie fik­cji li­te­rac­kiej, na przy­kład w po­wie­ści Fran­ken­stein pióra Mary Wol­l­sto­ne­craft Shel­ley. Wła­ści­wie stały się one jed­nym z pod­sta­wo­wych ele­men­tów li­te­ra­tury science fic­tion od po­czątku ist­nie­nia tego ga­tunku.

Jedną z waż­nych czyn­no­ści co­dzien­nych czło­wieka są ob­li­cze­nia, nic więc dziw­nego, że po­świę­cono wiele trudu, aby zauto­ma­ty­zo­wać ten pro­ces. W XVII wieku fran­cu­ski ma­te­ma­tyk Bla­ise Pas­cal skon­stru­ował me­cha­niczny kal­ku­la­tor, aby po­móc ojcu, po­borcy po­dat­ków, w mo­zol­nych ob­li­cze­niach. W XIX stu­le­ciu Char­les Bab­bage po­ło­żył pod­wa­liny pro­gra­mów ob­li­cze­nio­wych, kon­stru­ując ma­szynę róż­ni­cową, umoż­li­wia­jącą au­to­ma­tyczne do­da­wa­nie, a na­stęp­nie sil­nik ana­li­tyczny, który był pierw­szym pro­gra­mo­wal­nym kal­ku­la­to­rem. Bab­bage’a uważa się słusz­nie za ojca no­wo­żyt­nego kom­pu­tera.

Pod­czas dru­giej wojny świa­to­wej ge­nialny bry­tyj­ski in­for­ma­tyk Alan Tu­ring użył za­awan­so­wa­nej elek­tro­nicz­nej tech­no­lo­gii kom­pu­te­ro­wej do skon­stru­owa­nia ma­szyny zwa­nej Bombą, która po­zwo­liła jemu i jego ze­spo­łowi z Blet­chley Park zła­mać nie­miecki szyfr „Enigma” uży­wany do taj­nej ko­mu­ni­ka­cji woj­sko­wej. Wy­na­lazki i prace teo­re­tyczne Tu­ringa do­pro­wa­dziły do sfor­mu­ło­wa­nia po­stu­latu „uczą­cej się ma­szyny”. We­dług Tu­ringa ma­szyna, która po­tra­fi­łaby roz­ma­wiać z ludźmi – nie wzbu­dza­jąc po­dej­rzeń, że mają do czy­nie­nia z ma­szyną – wy­gra­łaby „grę w na­śla­do­wa­nie” i mo­głaby zo­stać na­zwana „in­te­li­gentną”. De­fi­ni­cja ta, obec­nie na­zy­wana te­stem Tu­ringa, do­star­czyła prak­tycz­nego spraw­dzianu po­zwa­la­ją­cego na przy­pi­sa­nie ma­szy­nie in­te­li­gen­cji. Jed­nak, jak się nie­ba­wem prze­ko­namy, po­dej­ście to spo­tkało się z po­waż­nymi za­rzu­tami fi­lo­zo­fów.

Mniej wię­cej w tym sa­mym cza­sie (1951) Ma­rvin Min­sky (współ­za­ło­ży­ciel la­bo­ra­to­rium ba­daw­czego sztucz­nej in­te­li­gen­cji w MIT) i Dean Ed­monds zbu­do­wali pierw­szy kom­pu­ter oparty na sieci neu­ro­no­wej. Ko­lej­nym prze­ło­mo­wym osią­gnię­ciem, które przy­cią­gnęło ogromną uwagę opi­nii pu­blicz­nej, był kom­pu­ter Deep Blue, zbu­do­wany przez IBM, który w 1997 roku po­ko­nał sza­cho­wego mi­strza świata Garry’ego Ka­spa­rowa, oraz pro­gram Al­phaGo firmy Go­ogle, który jako pierw­szy po­ko­nał za­wo­do­wego gra­cza dzięki ucze­niu ma­szy­no­wemu. Zna­cze­nie sztucz­nej in­te­li­gen­cji uznano w 2018 roku, usta­na­wia­jąc Na­grodę Tu­ringa, na­zy­waną „in­for­ma­tyczną na­grodą No­bla”. Przy­znano ją trójce ba­da­czy, któ­rzy po­ło­żyli pod­wa­liny obec­nego bo­omu w dzie­dzi­nie sztucz­nej in­te­li­gen­cji, szcze­gól­nie na polu tak zwa­nego głę­bo­kiego ucze­nia ma­szy­no­wego.

Pierw­sze ro­boty i sys­temy AI były po­zba­wione ele­mentu na­zy­wa­nego obec­nie „ucze­niem ma­szy­no­wym”. Klu­czem do zro­zu­mie­nia obec­nego pro­cesu ucze­nia ma­szy­no­wego jest kon­cep­cja al­go­rytmu, która może przyj­mo­wać wiele po­staci, na przy­kład al­go­rytmu sym­bo­licz­nego, ma­te­ma­tycz­nego itd.. Słowo al­go­rytm po­cho­dzi od na­zwi­ska słyn­nego per­skiego ma­te­ma­tyka, astro­noma i geo­grafa Mu­ham­mada ibn Musy al-Chu­wa­ri­zmiego (około 780‒850).

Dzi­siaj przez al­go­rytm ro­zu­mie się „pre­cy­zyj­nie zde­fi­nio­wany zbiór ope­ra­cji ma­te­ma­tycz­nych lub lo­gicz­nych słu­żą­cych wy­ko­na­niu okre­ślo­nego za­da­nia” (OED). Jego kon­cep­cja sięga sta­ro­żyt­nego Ba­bi­lonu (lata 1800‒1600 przed Chr.). Znany in­for­ma­tyk Do­nald Knuth ze Stan­ford Uni­ver­sity opu­bli­ko­wał nie­które z wcze­snych al­go­ryt­mów i do­szedł do na­stę­pu­ją­cego wnio­sku: „Ob­li­cze­nia za­pi­sane na ba­bi­loń­skich ta­blicz­kach nie są je­dy­nie roz­wią­za­niem kon­kret­nych pro­ble­mów. W rze­czy­wi­sto­ści są to ogólne pro­ce­dury słu­żące roz­wią­zy­wa­niu ca­łej klasy pro­ble­mów”. Taka jest też główna idea al­go­rytmu: kiedy po­znasz jego dzia­ła­nie, mo­żesz roz­wią­zać nie tylko je­den pro­blem, ale całą klasę pro­ble­mów.

Jed­nym z naj­słyn­niej­szych przy­kła­dów, o któ­rym wielu z nas do­wie­działo się w szkole, jest al­go­rytm Eu­kli­de­sow­ski bę­dący pro­ce­durą sto­so­waną w celu zna­le­zie­nia naj­więk­szego wspól­nego dziel­nika (GCD) dwóch do­dat­nich liczb cał­ko­wi­tych. Jako pierw­szy opi­sał go Eu­kli­des w swoim rę­ko­pi­sie za­ty­tu­ło­wa­nym Ele­menty, po­wsta­łym około 300 roku przed Chr. Ten sku­teczny al­go­rytm w ta­kiej lub in­nej po­staci znaj­duje za­sto­so­wa­nie do dziś, na przy­kład w kom­pu­te­rach. Jego im­ple­men­ta­cja po­lega na ko­lej­nym dzie­le­niu i zli­cza­niu reszty aż do osią­gnię­cia po­żą­da­nego wy­niku. Dzia­ła­nie al­go­rytmu naj­le­piej zro­zu­mieć na po­niż­szym przy­kła­dzie – ważne jest to, że działa on dla każ­dej pary cał­ko­wi­tych liczb do­dat­nich.

Przy­pu­śćmy, że chcemy ob­li­czyć GCD liczb 56 oraz 12. W tym celu wy­ko­nu­jemy na­stę­pu­jące kroki:

1. Krok 1: Po­dzie­lić więk­szą liczbę przez mniej­szą.

◦ 56 ÷ 12 = 4 reszta 8

2. Krok 2: Po­dzie­lić dziel­nik (12) przez resztę z po­przed­niego kroku.

◦ 12 ÷ 8 = 1 reszta 4

3. Krok 3: Wy­ko­ny­wać krok 2, aż nie po­zo­sta­nie żadna reszta (w tym przy­padku po­zo­stał jesz­cze je­den krok).

◦ 8 ÷ 4 = 2 (brak reszty)

W na­szym przy­kła­dzie naj­więk­szy wspólny po­dziel­nik to 4.

Ła­two prze­ło­żyć to na kod pro­gramu i za­sto­so­wać w kom­pu­te­rze. Wy­star­czy zaj­rzeć do In­ter­netu, aby stwier­dzić, że ty­siące róż­nego ro­dzaju al­go­ryt­mów znaj­dują za­sto­so­wa­nie w każ­dej dzie­dzi­nie na­uki, in­ży­nie­rii i me­dy­cyny. Głów­nym przy­kła­dem jest ro­bo­tyka, po­nie­waż ro­boty pro­jek­tuje się zwy­kle do wie­lo­krot­nego wy­ko­ny­wa­nia tego sa­mego za­da­nia.

W ty­po­wym współ­cze­snym sys­te­mie AI od­po­wied­nie al­go­rytmy zo­stają umiesz­czone w pro­gra­mie kom­pu­te­ro­wym, który sor­tuje, fil­truje i se­lek­cjo­nuje różne ele­menty in­for­ma­cji, które zo­stały do niego wpro­wa­dzone. Jedna z me­tod po­lega na na­śla­do­wa­niu, przy­naj­mniej w pew­nym stop­niu, dzia­ła­nia ludz­kiej kory mó­zgo­wej (siatki neu­ro­nów). Ogól­nie mó­wiąc, sys­tem AI może wy­ko­rzy­sty­wać in­for­ma­cje szko­le­niowe do „na­uki” (ucze­nie ma­szy­nowe) roz­po­zna­wa­nia, iden­ty­fi­ko­wa­nia oraz in­ter­pre­to­wa­nia sche­ma­tów cy­fro­wych, ta­kich jak ob­razy, dźwięki, mowa, tekst lub in­for­ma­cje. Inna me­toda po­słu­guje się apli­ka­cjami kom­pu­te­ro­wymi opar­tymi na lo­gice praw­do­po­do­bień­stwa bay­esow­skiego za­sto­so­wa­nej do ana­lizy in­for­ma­cji sta­ty­stycz­nych, żeby na tej pod­sta­wie osza­co­wać praw­do­po­do­bień­stwo okre­ślo­nej hi­po­tezy. Ująw­szy krótko, sys­tem ucze­nia ma­szy­no­wego od­biera in­for­ma­cje o prze­szło­ści i po­dej­muje de­cy­zje lub for­mu­łuje pro­gnozy po otrzy­ma­niu no­wych in­for­ma­cji.

Na­leży pod­kre­ślić, że al­go­rytmy zo­stały za­pro­gra­mo­wane do wy­ko­ny­wa­nia aprok­sy­ma­cji funk­cji, zwy­kle po­przez opty­ma­li­za­cję, oraz w więk­szo­ści przy­pad­ków otrzy­mały wy­raźne przy­kłady da­nych wej­ścio­wych i wyj­ścio­wych, a także kry­te­rium koń­czące, ukie­run­ko­wu­jące pro­ces tej opty­ma­li­za­cji. Al­go­rytmy nie „mielą” in­for­ma­cji bez czyn­nika ludz­kiego obec­nego w pę­tli pro­gramu i na ja­kimś po­zio­mie kie­ru­ją­cego ca­łym pro­ce­sem (na­wet wów­czas, gdy to czło­wiek two­rzy al­go­rytm „kry­tyczny” i umiesz­cza go w pę­tli pro­gramu kom­pu­te­ro­wego itd.). Udział czło­wieka to ele­ment świa­domy. Ma­szyna jest go po­zba­wiona.

W wielu wcze­snych pro­jek­tach z dzie­dziny AI lu­dzie wprost opra­co­wy­wali al­go­rytm roz­wią­za­nia kon­kret­nego pro­blemu. Jed­nak w no­wo­cze­śniej­szych sys­te­mach AI tak nie jest. Za­miast kon­kret­nego roz­wią­za­nia two­rzy się ogólny al­go­rytm ucze­nia się, który na­stęp­nie „uczy się” roz­wią­za­nia pro­blemu. Pro­gra­mi­ści czę­sto nie znają do­kład­nego al­go­rytmu roz­wią­za­nia pro­blemu i nie mają po­ję­cia, w jaki spo­sób sys­tem do­cho­dzi do swo­ich wnio­sków. Wcze­sne pro­gramy do gry w sza­chy za­li­czały się do pierw­szego ro­dzaju (na­wet Deep Blue na­le­żał za­sad­ni­czo do tej ka­te­go­rii), pod­czas gdy współ­cze­sne pro­gramy oparte na ję­zyku pro­gra­mo­wa­nia Go na­leżą do dru­giego ro­dzaju.

Oto przy­kłady sys­te­mów AI, z któ­rych wiele jest już zna­nych opi­nii pu­blicz­nej:

• Ama­zon używa al­go­ryt­mów śle­dzą­cych wszyst­kie pro­dukty, które ty i mi­liony in­nych lu­dzi ku­pu­je­cie od niego za po­śred­nic­twem In­ter­netu. Na­stęp­nie prze­siewa ob­szerną bazę da­nych i po­rów­nuje tę li­stę z po­dob­nymi pro­duk­tami, któ­rych jesz­cze nie po­sia­dasz. Na ko­niec wy­ko­rzy­stuje me­tody sta­ty­styczne do wy­bra­nia to­wa­rów ku­po­wa­nych przez lu­dzi „ta­kich jak ty” i spra­wia, że po­ja­wiają się one na twoim ekra­nie.

• Al­go­rytmy kom­pu­te­rowe po­tra­fią sor­to­wać bazy da­nych z po­da­niami o pracę i su­ge­ro­wać kan­dy­da­tów, któ­rzy naj­le­piej od­po­wia­dają okre­ślo­nemu sta­no­wi­sku. Za­ję­cia ge­ne­ru­jące wiele ty­sięcy apli­ka­cji są na­stęp­nie prze­ka­zy­wane do sys­te­mów AI, które prze­pro­wa­dzają pierw­sze wy­wiady, pod­czas któ­rych gro­ma­dzi się nie tylko in­for­ma­cje o od­po­wie­dziach kan­dy­da­tów na za­dane py­ta­nia, ale rów­nież fil­muje ich re­ak­cje emo­cjo­nalne i prze­siewa je ce­lem usta­le­nia, czy na­dają się do za­pro­sze­nia na roz­mowę kwa­li­fi­ka­cyjną.

• Sys­temy AI zo­stały z po­wo­dze­niem wy­ko­rzy­stane do pro­jek­to­wa­nia ener­go­osz­częd­nych bu­dyn­ków, urzą­dzeń go­spo­dar­stwa do­mo­wego pod­łą­czo­nych do In­ter­netu przed­mio­tów (IoT) oraz zin­te­gro­wa­nych sys­te­mów trans­portu.

• Sys­temy AI już dziś wy­ko­rzy­stują bazy z ty­sią­cami zdjęć rent­ge­now­skich, na przy­kład płuc w róż­nym sta­nie, oraz pro­fe­sjo­nal­nymi ana­li­zami ich kon­dy­cji. Sys­tem po­rów­nuje zdję­cia rent­ge­now­skie two­ich płuc z bazą da­nych, żeby spraw­dzić, czy cho­ru­jesz na okre­śloną cho­robę no­wo­two­rową. Mó­wiąc bar­dziej kon­kret­nie, od­czy­tuje dane i wzory wi­doczne na ob­ra­zie rent­ge­now­skim płuc i po­rów­nuje je z in­nymi ta­kimi da­nymi za­pi­sa­nymi w ba­zie da­nych. W nie­któ­rych przy­pad­kach tego ro­dzaju sys­temy po­tra­fią po­sta­wić bar­dziej pre­cy­zyjną dia­gnozę od naj­lep­szych le­ka­rzy spe­cja­li­stów.

• Astro­no­mo­wie uży­wają AI do szko­le­nia al­go­ryt­mów ma­szy­no­wego ucze­nia, aby iden­ty­fi­ko­wały szyb­kie bły­ski ra­diowe (po­za­ga­lak­tycz­nych krót­kich sy­gna­łów ra­dio­wych), do­cie­ra­jące z od­le­głych ga­lak­tyk, po­przez prze­sie­wa­nie po­tęż­nych baz da­nych z sy­gna­łami za­re­je­stro­wa­nymi przez ra­dio­te­le­skopy. Do tej pory (wrze­sień 2018) zna­leźli 72 przy­kłady, które zo­staną prze­ana­li­zo­wane w pro­gra­mie ba­daw­czym SETI. Wy­ko­rzy­stują rów­nież AI do zauto­ma­ty­zo­wa­nego roz­po­zna­wa­nia ga­lak­tyk.

• Po­jazdy au­to­no­miczne jako ma­szyny po­zba­wione świa­do­mo­ści na­tych­miast wy­wo­łały pro­blemy etyczne zwią­zane z za­sa­dami, w które na­le­ża­łoby je wy­po­sa­żyć, na przy­kład do­ty­czą­cymi sy­tu­acji, któ­rych po­winny uni­kać. Co cie­kawe, sys­tem au­to­ma­tycz­nego pi­lota w sa­mo­lo­cie nie zo­stał za­pro­jek­to­wany jako układ cał­ko­wi­cie au­to­no­miczny, cho­ciaż można ar­gu­men­to­wać, że ste­ro­wa­nie stat­kiem po­wietrz­nym jest ła­twiej­sze od kie­ro­wa­nia au­to­no­micz­nym sa­mo­cho­dem. Przy­czyną może być fakt, że firmy lot­ni­cze ko­rzy­sta­jące ze wspo­mnia­nego urzą­dze­nia pra­gną po­zo­stać na rynku, bo nie ma prze­cież etycz­nych wąt­pli­wo­ści co do od­po­wie­dzial­no­ści, gdyby do­szło do ka­ta­strofy sa­mo­lotu, nie­za­leż­nie od tego, czy sys­tem za­biłby nie­któ­rych pa­sa­że­rów, aby ura­to­wać in­nych.

• Sys­temy roz­po­zna­wa­nia twa­rzy są dziś w bar­dzo za­awan­so­wa­nym sta­dium. Jedna z za­baw­nych apli­ka­cji wy­ko­rzy­stuje tech­no­lo­gię AI do roz­po­zna­wa­nia twa­rzy w pu­bie, żeby zi­den­ty­fi­ko­wać na­stęp­nego klienta cze­ka­ją­cego na drinka przy ba­rze i w ten spo­sób za­po­biec nie­uczci­wemu prze­ska­ki­wa­niu ko­lejki. Wszech­obecne ka­mery te­le­wi­zji prze­my­sło­wej są wy­ko­rzy­sty­wane przez po­li­cję do śle­dze­nia dzia­łal­no­ści prze­stęp­czej. Ta­kie sys­temy in­wi­gi­la­cji mogą być uży­wane do kon­tro­lo­wa­nia spo­łe­czeń­stwa. Póź­niej zaj­miemy się po­waż­nymi kwe­stiami etycz­nymi, które wy­ni­kają z ta­kich za­sto­so­wań.

• Broń au­to­no­miczna i zwią­zane z nią pro­blemy na­tury etycz­nej są przed­mio­tem mię­dzy­na­ro­do­wej de­baty.

Już na pod­sta­wie tej krót­kiej li­sty jest oczy­wi­ste, że wiele, je­śli nie wszyst­kie ze wspo­mnia­nych po­wy­żej, wy­na­laz­ków bu­dzi py­ta­nia na­tury etycz­nej – od ma­ni­pu­la­cji fi­nan­so­wej i prze­stęp­czo­ści po na­ru­sza­nie pry­wat­no­ści i kon­tro­lo­wa­nie spo­łe­czeń­stwa. Ist­nieje nie­bez­pie­czeń­stwo, że lu­dzie ule­gną lo­gice „można, więc na­leży to zro­bić” bez sta­ran­nego prze­my­śle­nia po­ten­cjal­nych pro­ble­mów etycz­nych. Z dru­giej strony trzeba przy­znać, że kwe­stie etyczne szybko zy­skują na zna­cze­niu u czo­ło­wych gra­czy ze świata sztucz­nej in­te­li­gen­cji. Wiel­kie py­ta­nie, przed któ­rym sto­imy, brzmi: „Jak wpro­wa­dzić wy­miar etyczny do al­go­rytmu, który sam w so­bie nie ma serca, du­szy i umy­słu?”.

Na­leży pa­mię­tać, że więk­szość sys­te­mów AI (choćby przed­sta­wione wy­żej) za­pro­jek­to­wano do wy­ko­na­nia tylko jed­nego za­da­nia, na przy­kład kie­ro­wa­nia sa­mo­cho­dem, dia­gno­zo­wa­nia cho­rób lub for­mu­ło­wa­nia pro­gnoz na pod­sta­wie da­nych z prze­szło­ści. Aby o tym nie za­po­mnieć, czę­sto używa się okre­śle­nia wą­ska (słaba) AI. Po­nie­waż wszyst­kie do­tych­cza­sowe za­sto­so­wa­nia AI można scha­rak­te­ry­zo­wać jako wą­skie, nie­któ­rzy wolą po­słu­gi­wać się ter­mi­nem tech­no­lo­gie ko­gni­tywne/po­znaw­cze, obej­mu­jąc nim wszystko, co do tej pory osią­gnięto w ba­da­niach nad stwo­rze­niem in­te­li­gent­nej ma­szyny.

Nick Bo­strom i Elie­zer Yud­kow­sky ko­men­tują:

Dzi­siej­sze al­go­rytmy AI za­stę­pu­jące czło­wieka lub prze­wyż­sza­jące go sku­tecz­no­ścią cha­rak­te­ry­zuje kom­pe­ten­cja ce­lowo za­pro­gra­mo­wana w tylko jed­nej wą­skiej dzie­dzi­nie. Deep Blue zo­stał sza­cho­wym mi­strzem świata, choć nie po­trafi grać w war­caby, nie wspo­mi­na­jąc o kie­ro­wa­niu sa­mo­cho­dem lub do­ko­ny­wa­niu od­kryć na­uko­wych. Współ­cze­sne al­go­rytmy AI przy­po­mi­nają formy ży­cia bio­lo­gicz­nego z jed­nym tylko wy­jąt­kiem: Homo sa­piens. Psz­czoły wy­ka­zują kom­pe­ten­cję w bu­do­wa­niu ulów; bóbr od­zna­cza się kom­pe­ten­cją, je­śli cho­dzi o bu­do­wa­nie tam; ale psz­czoły nie bu­dują tam, a bór nie po­trafi się na­uczyć sztuki le­pie­nia ula. Cho­ciaż ob­ser­wu­jący je czło­wiek po­trafi się na­uczyć jed­nej i dru­giej sztuki, jest to uni­ka­towa zdol­ność wśród bio­lo­gicz­nych form ży­cia.

In­nym po­ten­cjal­nym (ko­lej­nym) źró­dłem za­mie­sza­nia w dys­ku­sji jest to, że nie­któ­rzy in­for­ma­tycy się­gają po słowa z ję­zyka co­dzien­nego, jak ucze­nie się, pla­no­wa­nie, ro­zu­mo­wa­nie oraz in­te­li­gen­cja. Czy­nią je ter­mi­nami tech­nicz­nymi opi­su­ją­cymi nie­oży­wione ma­szyny, co spra­wia, że sys­temy AI wy­dają się bar­dziej in­te­li­gentne niż fak­tycz­nie są, czę­sto bo­wiem in­for­ma­tycy uży­wają da­nych okre­śleń w sen­sie znacz­nie węż­szym od po­tocz­nego. W re­zul­ta­cie do­nie­sie­nia me­diów na te­mat AI ce­chują się dra­ma­ty­zo­wa­niem re­zul­ta­tów, prze­sad­nym opty­mi­zmem i nad­mier­nymi oba­wami. Pro­fe­sor in­ży­nie­rii kom­pu­te­ro­wej Danny Cro­okes z Qu­eens Uni­ver­sity w Bel­fa­ście pi­sze:

Współ­cze­sne tech­no­lo­gie, które wzbu­dzają nie­po­kój z po­wodu swo­jej zdol­no­ści mo­ni­to­ro­wa­nia i ma­ni­pu­lo­wa­nia ca­łymi spo­łecz­no­ściami, w rze­czy­wi­sto­ści wcale nie są tak in­te­li­gentne. I nie mu­szą być. Ich siła po­lega na zdol­no­ści do opa­no­wa­nia ogrom­nej ilo­ści da­nych, two­rze­nia pro­filu jed­nostki i wy­kry­wa­nia wzor­ców za­równo w po­stę­po­wa­niu jed­no­stek, jak i ca­łej po­pu­la­cji. Pań­stwa na­zi­stow­skie i ko­mu­ni­styczne ro­biły to za po­mocą ręcz­nych me­tod, na mniej­szą skalę. Współ­cze­sna tech­no­lo­gia umoż­li­wia re­ali­zo­wa­nie wspo­mnia­nego za­da­nia w skali glo­bal­nej. Cho­ciaż można uznać tę zdol­ność za nie­po­ko­jącą lub im­po­nu­jącą, nie jest ona praw­dziwą in­te­li­gen­cją. Tak zwane „głę­bo­kie ucze­nie ma­szy­nowe” jest ostat­nim krzy­kiem mody w ba­da­niach nad AI, ale nie ma w tym ni­czego szcze­gól­nie no­wego: cho­dzi je­dy­nie o to, że obec­nie ist­nieją moce ob­li­cze­niowe po­zwa­la­jące ob­słu­gi­wać wie­lo­po­zio­mowe (głę­bo­kie) sieci neu­ro­nów, które na pa­pie­rze ist­niały od dzie­się­cio­leci.

Pro­fe­sor Jo­seph McRae Mel­li­champ z Uni­ver­sity of Ala­bama, pod­czas prze­mó­wie­nia na kon­fe­ren­cji zor­ga­ni­zo­wa­nej przez Yale Uni­ver­sity do słu­cha­czy, wśród któ­rych znaj­do­wał się lau­reat Na­grody No­bla, Sir John Ec­c­les, znany z od­kry­cia sy­napsy, oraz inni pio­nie­rzy AI, po­wie­dział: „Mam wra­że­nie, że można by unik­nąć wielu nie­po­trzeb­nych dys­ku­sji, gdyby ba­da­cze AI zgo­dzili się przy­znać, że ist­nieją fun­da­men­talne róż­nice po­mię­dzy in­te­li­gen­cją ma­szy­nową a in­te­li­gen­cją ludzką – róż­nice, któ­rych nie można prze­zwy­cię­żyć żadną ilo­ścią ba­dań”. In­nymi słowy, w tym miej­scu po­zwolę so­bie za­cy­to­wać wy­mowny ty­tuł od­czytu Mel­li­champa, „wy­raz »sztuczna« w okre­śle­niu »sztuczna in­te­li­gen­cja« ma jak naj­bar­dziej re­alne zna­cze­nie”.

Pro­fe­sor Cro­okes pod­kre­śla po­trzebę re­ali­stycz­nego po­dej­ścia:

Na­dal bar­dzo da­leko nam do stwo­rze­nia praw­dzi­wej in­te­li­gen­cji przy­po­mi­na­ją­cej ludzką. Pu­blicz­ność dała się ogłu­pić prze­twa­rza­niu da­nych opar­temu na wiel­kiej mocy ob­li­cze­nio­wej (jak w po­przed­nim pa­ra­gra­fie) i prze­ko­nać, że zbli­żamy się w tej dzie­dzi­nie do po­ziomu ludz­kiej in­te­li­gen­cji. Uwa­żam, że bar­dzo da­leko nam do tego. W rze­czy­wi­sto­ści po­stęp ba­dań w dzie­dzi­nie AI uległ ostat­nio spo­wol­nie­niu. W dzi­siej­szych cza­sach pro­wa­dzi się mniej au­ten­tycz­nych ba­dań nad AI niż wcze­śniej, bo więk­szość fun­du­szy prze­zna­czono na re­klamę! Ba­da­cze po­dą­żają śla­dem pie­nię­dzy.

Sto­imy przed ogrom­nymi wy­zwa­niami, je­śli cho­dzi o zro­zu­mie­nie pro­cesu my­śle­nia czło­wieka. Do­strze­gam dwa fun­da­men­talne pro­blemy, które na­leży roz­wią­zać: (1) Na­wet gdy­by­śmy znali ogólne prawa ludz­kiego my­śle­nia, jak przejść od sy­tu­acji fi­zycz­nej do bar­dziej abs­trak­cyj­nego sfor­mu­ło­wa­nia, żeby można było je wy­ko­rzy­stać? (2) W jaki spo­sób kom­pu­ter mógłby wy­ge­ne­ro­wać i za­cho­wać w pa­mięci we­wnętrzny men­talny mo­del re­al­nego świata? Po­my­śl­cie o tym, w jaki spo­sób nie­wi­domy wi­zu­ali­zuje świat i jak o nim my­śli. Lu­dzie mają zdol­ność wi­zu­ali­zo­wa­nia rze­czy i my­śle­nia o sce­na­riu­szach za­wie­ra­ją­cych przed­mioty i pro­cesy ist­nie­jące je­dy­nie w ich umy­śle. Ta ogólna zdol­ność, którą po­sia­dają wszy­scy lu­dzie, jest wprost fe­no­me­nalna. Sta­nowi ona fun­da­men­talny wa­ru­nek praw­dzi­wej in­te­li­gen­cji, któ­rego w spo­sób za­sad­ni­czy bra­kuje wszyst­kim sys­te­mom AI. Są po­wody, aby wąt­pić, że kie­dy­kol­wiek zdo­łamy do­trzeć do tego punktu.

Moją główną my­ślą jest to, że po­win­ni­śmy za­cho­wać ostroż­ność, przyj­mu­jąc za­ło­że­nie, iż ludz­kość po­siada in­te­lek­tu­alną zdol­ność stwo­rze­nia in­te­li­gen­cji ry­wa­li­zu­ją­cej z in­te­li­gen­cją ludzką, nie wspo­mi­na­jąc o jej prze­wyż­sze­niu, nie­za­leżne od tego, jaką ilo­ścią czasu bę­dziemy dys­po­no­wać.

Mu­simy o tym pa­mię­tać, ana­li­zu­jąc spo­sób, w jaki Dan Brown wy­ko­rzy­stuje słabą (wą­ską) AI w swo­jej po­wie­ści, aby od­po­wie­dzieć na dwa fun­da­men­talne fi­lo­zo­ficzne py­ta­nia.

------------------------------------------------------------------------

Za­pra­szamy do za­kupu peł­nej wer­sji książki

------------------------------------------------------------------------
mniej..

BESTSELLERY

Menu

Zamknij