Facebook - konwersja
Przeczytaj fragment on-line
Darmowy fragment

  • promocja

Generatywna AI - ebook

Format:
EPUB
Data wydania:
16 stycznia 2025
6290 pkt
punktów Virtualo

Generatywna AI - ebook

W skład serii Wszystko, co warto wiedzieć wchodzi wiele unikalnych książek popularnonaukowych wydanych przez Oxford University Press, w których każdy znajdzie odpowiedzi na najbardziej palące i interesujące problemy współczesności – od zmian klimatu przez zagadki ewolucji, bioetykę, aż po fizykę kwantową. Seria ta ma charakter interdyscyplinarny i obejmuje wiedzę z zakresu nauk humanistycznych, medycyny i zdrowia, nauk ścisłych czy społecznych. Książki z tej serii są pisane przez czołowych ekspertów w swoich dziedzinach, dostarczając studentom, profesjonalistom i dociekliwym umysłom podstawową wiedzę, niezbędną do zrozumienia najważniejszych problemów XXI w. Postępy w dziedzinie generatywnej sztucznej inteligencji (GAI) stworzyły nową klasę systemów komputerowych, które wykazują zadziwiającą biegłość w szerokim zakresie zadań z nadludzką wydajnością; kreują nowe teksty, obrazy, muzykę i oprogramowanie dzięki analizie ogromnych zbiorów zdigitalizowanych informacji. Już wkrótce systemy te zapewnią fachową opiekę medyczną, będą oferować porady prawne, tworzyć dokumenty, pisać programy komputerowe, uczyć nasze dzieci oraz tworzyć muzykę i sztukę. Te postępy przyspieszą rozwój nauki, sztuki i ludzkiej wiedzy, lecz także przyniosą nowe niebezpieczeństwa. W publikacji tej znajdziemy odpowiedzi na te niezwykle interesujące pytania: - czy w końcu odkryliśmy świętego Graala sztucznej inteligencji — maszyny, które dorównują ludzkiej inteligencji lub ją przewyższają ? - które branże i zawody będą się rozwijać, a które zanikną? - jakie ryzyka i niebezpieczeństwa to ze sobą niesie? - jak możemy zapewnić, że te systemy będą respektować nasze zasady etyczne? - czy korzyści będą szeroko rozpowszechnione, czy też przypadną w udziale nielicznym szczęśliwcom? - jak GAI zmieni nasze systemy polityczne i konflikty międzynarodowe? - czy jesteśmy jedynie trampoliną do nowej formy życia niebiologicznego, czy też po prostu stajemy się lepsi w budowaniu przydatnych gadżetów? Generatywna AI. Wszystko, co warto wiedzieć to wyjątkowa książka – przewodnik po świecie sztucznej inteligencji, która odpowiada na powyższe i wiele innych doniosłych pytań. Autorem tej książki jest Jerry Kaplan – powszechnie znany ekspert od sztucznej inteligencji, przedsiębiorca, innowator techniczny, edukator, autor bestsellerów i futurolog. Wynalazł kilka przełomowych technologii, w tym przenośne tablety, aukcje internetowe i elektroniczne instrumenty muzyczne. Obecnie jest wykładowcą na Stanford University, gdzie wykłada społeczny i ekonomiczny wpływ sztucznej inteligencji w najlepiej ocenianym Wydziale Informatyki Uniwersytetu Stanforda.

Kategoria: Popularnonaukowe
Zabezpieczenie: Watermark
Watermark
Watermarkowanie polega na znakowaniu plików wewnątrz treści, dzięki czemu możliwe jest rozpoznanie unikatowej licencji transakcyjnej Użytkownika. E-książki zabezpieczone watermarkiem można odczytywać na wszystkich urządzeniach odtwarzających wybrany format (czytniki, tablety, smartfony). Nie ma również ograniczeń liczby licencji oraz istnieje możliwość swobodnego przenoszenia plików między urządzeniami. Pliki z watermarkiem są kompatybilne z popularnymi programami do odczytywania ebooków, jak np. Calibre oraz aplikacjami na urządzenia mobilne na takie platformy jak iOS oraz Android.
ISBN: 978-83-01-24074-5
Rozmiar pliku: 1,3 MB

FRAGMENT KSIĄŻKI

PODZIĘKOWANIA

Jestem wdzięczny czytelnikom i recenzentom za ich przemyślane komentarze i sugestie, w szczególności Randy’emu Komisarowi, Johnowi Markoffowi, Jamiemu Riotto, Maxowi Siegelmanowi, Russowi Siegelmanowi, Jeffowi Ostrowowi, Tommy’emu Kaplanowi i Amy Eckman. Chciałbym podziękować mojemu redaktorowi prowadzącemu Jeremy’emu Lewisowi, redaktorce projektu Emily Hu, redaktorce językowej Rebecce Cain i kierowniczce projektu Hinduji Dhanasegaran z Oxford University Press, a także mojej niestrudzonej agentce literackiej Emmie Parry z Janklow & Nesbit Associates za starania, aby ta książka znalazła szczęśliwy dom. Na koniec chciałbym podziękować GPT-4 za cierpliwość i wnikliwość podczas naszych wieczornych dyskusji nad kilkoma bardziej złożonymi tematami opisanymi w tej publikacji. Jego maniery mogą być sztuczne, ale inteligencja jest prawdziwa!WEJŚCIE

W ciągu ostatnich kilku lat szybki postęp w uczeniu maszynowym doprowadził do powstania nowej poddziedziny sztucznej inteligencji: generatywnej sztucznej inteligencji (ang. Generative Artificial Intelligence, GAI). Programy te tworzą nowatorskie teksty, obrazy, muzykę i oprogramowanie dzięki analizie ogromnych zbiorów zdigitalizowanych materiałów. (W tej książce będę takie programy nazywał skrótowo „GAI”).

Ale ten nijaki opis w najmniejszym stopniu nie oddaje sprawiedliwości tym niezwykłym komputerowym polimatom.

Pierwsza faza GAI koncentruje się przede wszystkim na umiejętności prowadzenia rozmowy w języku naturalnym. Takie GAI nazywane są „dużymi modelami językowymi” (ang. Large Language Models, LLM) i już wykazują zdumiewającą nadludzką biegłość w szerokiej gamie zadań – a także niepokojącą skłonność do fałszu, nielogiczności i wyrażania „atrap” emocji, takich jak deklaracje miłości do rozmówców. Rozmawiają z użytkownikami prostym językiem i z łatwością rozwiązują szeroki zakres złożonych problemów. Wkrótce LLM będą zapewniać fachową opiekę medyczną, udzielać porad prawnych, sporządzać nasze dokumenty, uczyć nasze dzieci, oferować porady, prowadzić terapię, pisać programy komputerowe oraz zarządzać naszymi organizacjami i infrastrukturą. Pokrewna klasa GAI na podstawie prostych opisów generuje obrazy wizualne, które są praktycznie nie do odróżnienia od ludzkich dzieł sztuki czy fotografii. Jeszcze inne aplikacje naśladują głosy i komponują muzykę w stylu danego artysty lub kompozytora. Prawdopodobnie najbardziej intrygujące z tych programów to tzw. modele multimodalne (ang. multimodals), ponieważ integrują różnorodne formy informacji (językowe, wizualne, dźwiękowe itp.) w celu zrozumienia i pojmowania świata. (W ramach demonstracji potencjalnych możliwości prototypowy system multimodalny zaplanował posiłek na podstawie zdjęcia zawartości lodówki).

Ale to dopiero początek rewolucji GAI. Technologia leżąca u podstaw tych systemów jest dość ogólna, w tym sensie, że programy te są w stanie uczyć się z dowolnego zbioru danych, które można zebrać i przygotować do przetwarzania – stosunkowo proste zadanie we współczesnym świecie cyfrowym. A odpowiednio skonfigurowane i z odpowiednimi autoryzacjami, będą mogły podejmować działania w naszym imieniu.

Przyszłe wersje tej technologii będą służyć jako zaufani asystenci. Będą robić za nas notatki, działać jako nasi przedstawiciele na wielu różnych forach, promować nasze interesy, zarządzać naszą komunikacją z innymi i ostrzegać o zbliżających się zagrożeniach. W zastosowaniach publicznych będą „twarzą” agencji rządowych, korporacji i organizacji. Połączone z sieciami czujników, będą monitorować świat fizyczny, aby ostrzegać nas przed zbliżającymi się katastrofami środowiskowymi, na przykład tornadami, pożarami lasów i toksycznymi wyciekami. W niektórych sytuacjach krytycznych będziemy mogli je czasowo oddelegować do podjęcia natychmiastowych działań, takich jak posadzenie na ziemi uszkodzonego samolotu podczas huraganu lub uratowanie dziecka, które weszło na jezdnię.

Czyżbyśmy w końcu odkryli Świętego Graala sztucznej inteligencji, tak zwaną „ogólną sztuczną inteligencję” (ang. Artificial General Intelligence, AGI), czyli maszynę, która dorównuje ludzkiej inteligencji lub ją przewyższa? AGI (nie mylić z GAI) było nieuchwytną fantazją pokoleń naukowców, nie wspominając o mnóstwie filmów i książek science fiction. Co ciekawe, odpowiedź brzmi warunkowo „tak”. Ze wszystkich praktycznych względów systemy te są wszechstronnymi „syntetycznymi mózgami” – ale to nie oznacza, że mają „umysły” w sensie ludzkim. Nie kryją w sobie niezależnych celów i pragnień, uprzedzeń i aspiracji, emocji i doznań: są to wyjątkowe cechy przypisane wyłącznie ludziom. Ale te programy mogą zachowywać się tak, jakby miały te cechy – o ile przeszkolimy je na odpowiednich danych i poinstruujemy, aby dążyły do odpowiednich celów. Będą nieskończenie elastyczne i uległe, gotowe przyjąć dowolną osobowość na naszą prośbę, niczym elektroniczny utalentowany pan Ripley. Mogą udawać niewolnika lub pana, towarzysza lub przeciwnika, nauczyciela lub ucznia. Chętnie odzwierciedlą nasze najlepsze lub najgorsze instynkty, bez wyrzutów i osądów.

Trudno przecenić prawdopodobny wpływ tej nowej technologii: jesteśmy świadkami momentu Kittyhawk. Dzisiejsze GAI są budowane przy użyciu stałych zbiorów danych szkoleniowych, lecz przyszłe wersje z pewnością wyeliminują to ograniczenie, ponieważ będą się stale uczyły i zdobywały nową wiedzę w taki sposób jak ludzie. Obecnie ich doświadczanie świata jest zapośredniczone przez treści generowane przez człowieka, ale to „wąskie gardło” zostanie wkrótce wyeliminowane przez połączenie systemów ze źródłami danych w czasie rzeczywistym, takimi jak kamery i mikrofony – co zasadniczo da GAI własne „oczy” i „uszy”.

Niewykluczone, że jesteśmy dosłownie na skraju nowego renesansu: eksplozji wielkiej aktywności kulturalnej i intelektualnej. Renesans, trwający od XIV do XVII wieku, przesunął uwagę ludzi z przedsięwzięć zorientowanych na religię ku świeckiej stronie życia, co zaowocowało ogromnym postępem w sztuce, nauce, technologii i ludzkiej wiedzy. GAI może spowodować olbrzymią zmianę kulturową ukierunkowaną na maszyny, dzięki czemu będziemy w stanie ujarzmić potęgę sztucznej inteligencji jako nowego narzędzia do przyspieszania postępu. W przyszłości, gdy będziemy szukać najbardziej fachowych, obiektywnych i zaufanych porad, będziemy zwracać się do maszyn, a nie do ludzi. Fundamentalne znaczenie dla tej rewolucji ma zmiana paradygmatu myślenia o maszynach. Generatywna sztuczna inteligencja wywraca do góry nogami nasze historyczne pojmowanie komputerów. Od zarania ery elektronicznej komputery były uważane za tajemnicze przeciwieństwo ludzi: niezawodnie precyzyjne, niezmiernie szybkie, zimne i wyrachowane, pozbawione uczuć społecznych czy osądów moralnych. Obecnie GAI często wykazują znakomite umiejętności interpersonalne, empatię i współczucie, pomimo braku doświadczenia w świecie rzeczywistym (na razie).

Nie jest jeszcze oczywiste, czy ta rewolucja technologiczna pozytywnie wpłynie na społeczeństwo, chociaż spodziewam się, że właśnie tak będzie. GAI zwiększa możliwości czarnych charakterów do zalewania świata dezinformacją i propagandą, co zanieczyszcza nasze kanały komunikacyjne i podkopuje zaufanie. Ponadto korzyści mogą ostatecznie przypadać przede wszystkim bogatym. Niektórzy myśliciele obawiają się, że może nawet stanowić egzystencjalne zagrożenie dla ludzkości, chociaż ten lęk jest przesadny. Werdykt w tej sprawie może zapaść dopiero za wiele lat, a w tej kwestii będzie wiele argumentów za i przeciw.

Czy powinniśmy wstrzymać badania w tej dziedzinie, zanim będzie za późno, jak proponują niektórzy? A może bardziej wyważone kroki są lepszym podejściem? Regulacja tak potężnych systemów jest nieunikniona, ale nie jest jasne, w jaki sposób możemy czerpać korzyści, przy jednoczesnym ograniczeniu ryzyka.

GAI różnią się od wcześniejszych prototypów inteligentnych maszyn z dwóch zasadniczych względów.

Po pierwsze, są niezwykle uniwersalne. Ten sam system, który może napisać esej na studia, może też ułożyć sonet, wyjaśnić, jak zmienić przebitą oponę w samochodzie, zaplanować posiłek na Święto Dziękczynienia lub wymyślić nowy termin, taki jak „sensokrytyzm: tendencja do przedkładania przyjemności zmysłowej nad spełnienie intelektualne i emocjonalne”. Wcześniejsze systemy sztucznej inteligencji były zwykle zaprojektowane do wykonywania jednego zadania jak najdokładniej ukierunkowanego na konkretny cel, na przykład na rozpoznawanie zdjęć kotów lub przewidywanie korków. Badania nad sztuczną inteligencją zostały w dużej mierze podzielone na poddziedziny wykorzystujące różne narzędzia i technologie: przetwarzanie języka naturalnego, widzenie komputerowe, rozpoznawanie mowy, robotykę i tak dalej. Natomiast GAI mogą otrzymać instrukcję, aby wykonać (lub przynajmniej opisać, jak wykonać) prawie każde zadanie, które możemy wymyślić... chociaż będą cierpliwie wyjaśniać, że ich projektanci zabronili im to robić. Są dżokerami wszystkich zawodów i w większości przypadków – mistrzami danej dziedziny.

Po drugie, wykazują niepokojąco ludzkie skłonności, takie jak popełnianie głupich błędów, uznawanie fałszu za fakty i posiłkowanie się kłamstewkami, aby usprawiedliwić swoje błędy lub nakłonić człowieka do zrobienia tego, czego chcą. Wykazują zdolność do korzystania z „teorii umysłu” (umiejętności przewidywania tego, co wiedzą lub zrobią inni ludzie) i są zaskakująco dobre w rozpoznawaniu subtelnych niuansów społecznych, na przykład faux pas.

O co, do licha, tutaj chodzi? Zupełnie jakby na Ziemię przybyli kosmici i pogrywali z ludzkością, komunikując się z nami pod przykrywką programów komputerowych. Ale odpowiedź jest dość niezwykła.

Częstym wyjaśnieniem jest to, że LLM tylko przewidują statystycznie słowa i wybierają kolejne, najbardziej prawdopodobne, wynikające z kontekstu podanej podpowiedzi. Ale ten opis jest w najlepszym razie zbyt uproszczony i ukrywa głębszą prawdę. Stwierdzenie, że LLM nie są inteligentne, ponieważ po prostu wybierają następne słowo w sekwencji, jest jak powiedzenie, że pianiści nie są artystami, ponieważ po prostu wybierają sekwencje klawiszy na klawiaturze fortepianu. Magia polega oczywiście na tym, w jaki sposób sekwencje są tworzone. Otwórzmy maskę LLM i zerknijmy do środka.

LLM są szkolone na olbrzymich zbiorach informacji. Przetwarzają i kompresują swoje ogromne zestawy treningowe do kompaktowej reprezentacji zwanej siecią neuronową, ale ta sieć nie tylko reprezentuje słowa – reprezentuje ich znaczenie wyrażone w sprytnej formie zwanej osadzeniem (ang. embedding). Najpierw LLM dzieli słowa na mniejsze jednostki (zwane „tokenami”), które można uznać za mniej więcej odpowiadające sylabom. Następnie tworzy osadzenie dla każdego tokenu, które go szereguje na setkach lub tysiącach skal semantycznych pochodzących z analizy danych treningowych. Wynikiem takiego działania jest wektor (uporządkowana lista) liczb, z których każda reprezentuje, w jaki sposób token odnosi się do wszystkich innych tokenów w jakimś wymiarze znaczenia. Chociaż niektóre z tych wymiarów mogą odpowiadać ludzkim koncepcjom, takim jak „pilność” lub „bystrość”, w praktyce większość z nich nie jest łatwa do bezpośredniego pojęcia. (Wartości nie mogą być interpretowane oddzielnie, lecz w odniesieniu do odpowiednich wartości dla innych tokenów). Osadzenie tokenu skutecznie charakteryzuje go jako punkt w niezrozumiale rozległej i skomplikowanej sieci połączonych ze sobą treści. Kiedy wpisujemy podpowiedź, umieszcza nasze dane wejściowe w tej sieci i formułuje, co zamierza przekazać, przez analizę kontekstu lokalnego. Na koniec wybiera słowa, które najlepiej wyrażają ten zamiar. Powtarza tę procedurę, aż wygeneruje pełną odpowiedź.

Aby pokazać, jak osadzenia reprezentują znaczenie, posłużę się pewnym słynnym przykładem pokazującym, jak prosta arytmetyka może przekształcić osadzenia dla słowa „król” – „mężczyzna” + „kobieta” w osadzenie dla słowa „królowa”. Ale czy to definiowanie tokenu przez jego związek z innymi tokenami jest sensowną reprezentacją znaczenia? Rozważmy jeden ze sposobów na poznanie znaczenia słowa: sprawdzenie w słowniku. A w jaki sposób słownik tłumaczy znaczenie słów? Przez ich związek z innymi słowami, jakich użyto w ich definicji. Osadzenia to przyjazna dla komputera forma definicji słownikowych, odpowiednio dostosowana i zaktualizowana na potrzeby ery cyfrowej.

Ten proces można podsumować w następujący sposób: najpierw LLM dowiaduje się o swoim „świecie” (podczas etapu treningowego); następnie ocenia znaczenie naszej podpowiedzi, wybiera znaczenie odpowiedzi i przekształca to znaczenie w słowa.

Jeśli to nie jest odpowiedni opis ogólnej inteligencji, to nie wiem, co może nią być. AGI w czystej postaci.

Nie oznacza to, że jest ona identyczna z ludzką inteligencją, tak samo jak pendrive nie jest identyczny z ludzką pamięcią. Tak naprawdę nie wiemy na tyle dokładnie, jak działają nasze mózgi, aby dokonać tego porównania, ale możemy zmierzyć wyniki. LLM radzą sobie teraz równie dobrze lub lepiej niż większość ludzi w najważniejszych testach na inteligencję i wiedzę, takich jak SAT (Scholastic Aptitude Test) i egzamin adwokacki (Bar Test). Systemy te są często obarczone błędem ze względu na ich niezdolność do logicznego rozumowania lub wykonywania pewnych innych trudnych zadań, ale tak samo jest z ludźmi. I praktycznie nie stoją w miejscu – gdy tylko ktoś nakreśla ich ograniczenia lub kpi z ich głupich odpowiedzi, pojawia się ulepszenie likwidujące te przeszkodę.

Ulepszenia te są często po prostu wynikiem budowania większego i lepszego systemu, przez co nieoczekiwanie pojawiają się nowe umiejętności ], co przypomina sposób, w jaki dzieci szybko nabywają zdolność mówienia lub czytania w pewnym momencie swojego rozwoju.

Ale porównywanie inteligencji maszynowej z ludzką to głupota. Pokusa myślenia o coraz zdolniejszych programach komputerowych jako o czujących istotach embrionalnych, potencjalnie stanowiących jakieś egzystencjalne wyzwanie dla ludzi, ma długą i haniebną historię. Aby zrozumieć, dlaczego tak jest, trzeba nieco naświetlić tło.

Jedną z wielkich wad badań nad sztuczną inteligencją jest pozornie nieodparta pokusa badaczy, aby ubrać swoją pracę w antropomorficzne odzwierciedlenia – twarze, syntetyczne głosy, tańczące roboty z rękami i nogami i tak dalej – co jest całkowicie niepotrzebne, aby pokazać istotne postępy, które osiągnęli. Dlaczego chcą tak robić? Oczywiście w celu awansu zawodowego.

Naukowcy zajmujący się sztuczną inteligencją są tylko ludźmi i pragną zainteresowania i chwały, tak jak wszyscy inni. Im więcej uwagi mediów zdobywają, tym lepsze są ich perspektywy w zakresie promocji, budżetów, kadencji, dotacji i innych wskaźników sukcesu. A jeszcze lepiej, jeśli są postrzegani jako ostatnia i najskuteczniejsza linia obrony przed mitycznym superinteligentnym potworem „pełznącym w stronę Betlejem, by tam się narodzić”. Prasa uwielbia historie, które przyciągają czytelników, bo wzbudzają strach przed tajemniczymi i potężnymi siłami.

To antropomorficzne obrazowanie wzmacnia ogólny niepokój, że inteligentne maszyny mogą nagle „obudzić się”, stać się świadome i potencjalnie mieć własne intencje, cele, osądy i pragnienia. O mój Boże, kiedy „oni” przejmą moją pracę, mój dom, moje życie? A co zrobimy, jeśli zdecydują, że już nas nie potrzebują? Cóż, wiadomość z ostatniej chwili: nie przyjdą po nas, ponieważ nie ma „ich”. Wbrew pozorom tam nie ma nikogo. GAI nie „myślą” w ludzkim tego słowa znaczeniu ani nie mają „umysłów”. Nie, Virginio, nie ma Świętego Mikołaja.

Niektórzy ludzie obawiają się, że tak właśnie skończy się ludzkość: superinteligentne maszyny w jakiś sposób rozwiną swoje własne cele i pragnienia i zostawią nas w tyle lub, co gorsza, zdecydują, że jesteśmy na tyle uciążliwi, iż trzeba nas wszystkich unicestwić. Ale te obawy stawiają wózek przed koniem, a dokładniej maszyny przed ludźmi. Oczywiście możemy zbudować niezwykle niebezpieczne narzędzia i „napuścić” je na nas samych ze szkodą dla całej ludzkości. Ale to będzie nasze własne działanie, a nie coś nieuniknionego i poza naszą kontrolą. Po to właśnie są wyłączniki, więc upewnijmy się, że je zamontowaliśmy i że projektowane przez nas maszyny nie oszaleją i nie wpadną w szał. Nie będzie to trudne, wręcz przeciwnie: zbudowanie maszyny zdolnej do zniszczenia ludzkości jest arcyskomplikowanym zadaniem, wysiłkiem, który prawdopodobnie musiałby zostać podjęty ze złowrogim zamysłem, wysiłkiem i kosztem. Od zawsze projektujemy niebezpieczne technologie, od krzemiennych grotów po AK-47 i bomby atomowe. I często, podobnie jak w przypadku samochodów, przechodzimy do porządku dziennego nad kwestią potencjalnych ofiar w ludziach, byle tylko czerpać korzyści z naszych wynalazków. Rozwiązanie jest proste: po prostu tego nie róbmy. Zaufajcie mi, to nie zdarzy się samo z siebie.

Firmy ścigające się w komercjalizacji tej nowej technologii nie wyświadczają nam żadnych przysług przez to, że projektują swoje produkty tak, aby jak najbardziej przypominały człowieka. To tylko potęguje wrażenie, że rozmawiasz z kimś lub czymś. Na przykład, dlaczego ChatGPT (obecnie wiodący LLM) „rozmawia” w pierwszej osobie? To była decyzja projektowa, aby aplikacja wyglądała bardziej realistycznie.

Cała ta komputerowa przebieranka prowadzi nas do pojmowania GAI w absolutnie nieprawidłowy sposób. Nie rozmawiamy z jakimś nowym przybocznym bóstwem. GAI powinno się raczej pojmować jako sposób na poznawanie zgromadzonej mądrości i doświadczenia ludzkości, co znajduje odzwierciedlenie w śladach elektronicznych śmieci, które pozostawiamy za sobą.

Kiedy GAI wykazuje coś, co wydaje nam się ludzką wrażliwością, w rzeczywistości jest to tylko lokalizacja i synteza pojęć, pomysłów, a nawet uczuć, które są ukryte w elektronicznych śladach pozostawionych na ogromnej cyfrowej równinie przez ostatnie kilka dekad. Okazuje się, że te przecinające się i nakładające się odciski, zakodowane w naszym języku i obrazach, odzwierciedlają w dużej mierze tkankę i sens naszego życia. Kiedy pytasz o coś GAI, nie pytasz kogoś, pytasz wszystkich. Kiedy GAI podaje przepis na ciasto owocowe, nie wybiera dania konkretnego szefa kuchni, lecz połączenie receptur wielu kucharzy. Jej odpowiedź, wygodnie wyrażona w języku pytającego, nie wynika z jej ogromnej wiedzy osobistej, ale z ogromnego doświadczenia ludzkości odzwierciedlonego w jej bazie danych.

Większość ludzi jest obecnie zaznajomiona z tradycyjnymi systemami baz danych, w których dane alfanumeryczne są zwykle układane w tabelach składających się z wierszy i kolumn. W ten sposób na przykład twój dostawca telefonii komórkowej śledzi twoje połączenia i wiadomości. W razie potrzeby może użyć systemu zarządzania bazą danych, aby pobrać i przetworzyć te informacje, na przykład w celu obliczenia miesięcznego rachunku. Dzięki wydajności tych systemów może szybko wybrać dane, które dotyczą tylko ciebie, i podsumować je niemal natychmiast oraz poinformować, ile jesteś winien.

Jesteśmy do tego tak przyzwyczajeni we wszystkich aspektach naszego życia, że nie uważamy tego już za niezwykłe. Ale bądźcie spokojni, że zanim stworzono elektroniczną ewidencję i opracowano techniki programowania do zarządzania tymi informacjami, obliczanie rachunku telefonicznego było żmudnym i pracochłonnym zadaniem wykonywanym przez wykwalifikowanych pracowników biurowych.

Dzięki systemom GAI stoimy teraz u progu takiej samej rewolucji w odniesieniu do nieustrukturyzowanych informacji – strumieni danych językowych, wizualnych, dźwiękowych i innych, które wcześniej były odporne na naszą analizę. GAI są pierwszym, choć całkiem możliwe, że nie jedynym narzędziem, które pozwoli nam czerpać korzyści z ogromnych cyfrowych spichlerzy informacji o ludzkości magazynowanych w naszych chmurowych centrach danych.

Nie ma to na celu umniejszyć wyjątkowości inżynierii, która buduje te systemy. W zasadzie łatwo wyjaśnić, jak działają, choć nie pokaże to półwiecznej ciężkiej pracy, żeby nakłonić komputer do przetwarzania tych informacji w sposób wydajny i skuteczny. Jednak podobnie jak wiele unowocześnień w sztucznej inteligencji w ciągu ostatnich pięćdziesięciu lat, głównym czynnikiem postępu jest nie tyle jakiś przełom naukowy, ile ciągła radykalna poprawa mocy obliczeniowej, dostępnych danych i wydajności algorytmicznej.

Generatywna sztuczna inteligencja wstrząsa fundamentem naszego poczucia siebie i podważa nasze spojrzenie na ludzką wyjątkowość w taki sam sposób, w jaki rewolucja kopernikańska zmieniła nasze pojmowanie układu słonecznego dzięki umiejscowieniu Słońca w jego centrum. Czy stanowimy jedynie odskocznię do nowej formy niebiologicznego życia? A może po prostu coraz lepiej konstruujemy przydatne gadżety?

Niezależnie od odpowiedzi jasne jest, że wchodzimy w nową falę gwałtownych zmian i zakłóceń. Generatywna sztuczna inteligencja zmieni prawie wszystko – w tym sposób, w jaki żyjemy, pracujemy, bawimy się, wyrażamy siebie, przekonujemy innych o naszych racjach, szukamy partnera, kształcimy nasze dzieci i dbamy o osoby starsze. Spowoduje to również przewrót na rynkach pracy, przetasowanie porządku społecznego i nadwyręży zarówno instytucje prywatne, jak i publiczne.

W ciągu najbliższych kilku dekad GAI rozciągnie naszą tkankę społeczną do granic możliwości. To, czy przyszłość będzie nową erą bezprecedensowego dobrobytu i wolności, jak pokazano w Star Treku, czy też nieustanną walką ludzi z maszynami, jak zobrazowano w Terminatorze, będzie w dużej mierze zależeć od naszych własnych działań. Mogę tylko mieć nadzieję, że wykorzystamy tę nowo odkrytą moc z rozwagą i roztropnością.

Napisanie tej książki wydaje się prawie niemożliwe: temat jest tak nowy, że trudno określić, dokąd to wszystko zmierza. Zmienia się tak szybko, że każde kompendium ostatnich wyników będzie wyglądać osobliwie, zanim trafi w ręce czytelników. Trudno przewidzieć, co będzie ważne, jakie pojawiające się szczegóły mogą okazać się krytyczne. Niemniej jednak mogę zaoferować wam nietypowe narzędzie pomiaru, czy ten tom jest wart waszego czasu.

Jako ekspert od sztucznej inteligencji – którym, mam nadzieję, jestem – uważam, że czytelnicy zasługują na mój szczery i najlepszy wgląd w to, jaka będzie przyszłość. Oczywiście istnieje duże prawdopodobieństwo, że pomylę się w części lub większości tego, co mam do powiedzenia. W baseballu średnia uderzeń 0,500 jest uważana za wyjątkową – do tej pory tylko jeden gracz przeskoczył tę poprzeczkę. Ale wynik 0,500 oznacza, że gracz tylko w połowie prób odniósł sukces.

Zatem tylko wy, żyjący w mojej przyszłości, możecie określić moją średnią „skutecznych uderzeń”. Dalej znajduje się wybór przewidywań zaczerpniętych z tej książki, które możecie obiektywnie ocenić w kontekście własnego czasu. Jeśli mój „wskaźnik sukcesu” spełni wasze oczekiwania, mam nadzieję, że przejrzycie tę książkę. Jeśli nie – cóż, być może możecie poprosić o zwrot pieniędzy. Tak jak uczestnictwo w meczu baseballu ma tę zaletę, że pozwala zaczerpnąć świeżego powietrza, tak ta gra ma tę zaletę, że daje wam poczucie tego, czego możecie się dowiedzieć na kolejnych stronach. Życzcie mi szczęścia…

• Zostaną opracowane przepisy i narzędzia, które będą próbowały złagodzić największe zagrożenia związane z GAI, takie jak zalewanie witryn mediów społecznościowych treściami budzącymi zastrzeżenia, podobnie jak filtry spamu naprawiły wadę w internetowych systemach poczty elektronicznej (co będzie darem niebios).

• Systemy GAI będą mogły uczyć się w sposób ciągły (aktualizować swoje wewnętrzne modele świata), nawet w trakcie aktywnego użytkowania. Pozwoli im to zapamiętać to, co wy (i potencjalnie wszyscy inni) powiedzieliście im w przeszłości, a to spowoduje znacznie bardziej spersonalizowane i kontekstowe interakcje. (W tej chwili GAI cierpią na rodzaj amnezji cyfrowej, więc zaczynają od zera za każdym razem, gdy rozpoczynamy nową rozmowę).

• GAI będą uczyć się bezpośrednio z rzeczywistych czujników, takich jak kamery i mikrofony, co zmniejszy ich obecną zależność od treści generowanych przez człowieka. Zapewni to im praktycznie nieograniczony dostęp do danych szkoleniowych, a także te dane będą obiektywniejsze i dokładniejsze (ponieważ nie będą interpretowane przez człowieka).

• Obecna skłonność GAI do halucynacji (zmyślania) będzie odpowiednio kontrolowana za pomocą dokładniejszych (zweryfikowanych) danych szkoleniowych, wymagających odniesień do materiałów źródłowych i zawierających pewną dozę zaufania do tworzenia ich odpowiedzi.

• GAI będą kiedyś w stanie skontrolować własne wewnętrzne działanie – coś, czego nie są w stanie zrobić teraz – i to prawdopodobnie już niedługo. Ta zdolność, analogiczna do obrazowania w naszych mózgach w trakcie procesu myślenia, może pomóc systemom GAI ulepszać własne projekty.

• Powstanie nowy komercyjny ekosystem składający się z warstw oprogramowania i wyselekcjonowanych zbiorów danych, od bardzo ogólnych do bardzo specyficznych. Dostawcy będą zajmować się marketingiem GAI wyspecjalizowanych do dowolnego celu, jaki tylko możemy sobie wyobrazić (lub za który jesteśmy gotowi zapłacić).

• Obecne załamywanie rąk, że tylko duże firmy technologiczne będą kontrolować tę technologię, okaże się nieuzasadnione, ponieważ otwarte i publicznie dostępne systemy GAI, które osiągają porównywalne wyniki, będą dostępne bezpłatnie lub za niewielkie pieniądze. Duże firmy pozostaną w grze, będą udostępniać swoje systemy, w nadziei na oparcie się na bezpłatnej sile roboczej inteligentnych inżynierów (ang. smart engineers) na całym świecie. (Właśnie w ten sposób rozwijały się Internet oraz rynki popularnych narzędzi programowych, przede wszystkim szalenie rozpowszechniony system operacyjny Linux).

• Całkiem nowa branża organizacji kontroli jakości – niektórych prywatnych i niektórych publicznych – zaangażuje się w formalne testy w celu sprawdzenia, czy systemy, z jakich korzystamy, zachowują się w sposób, który uważamy za akceptowalny, i przynoszą obiecane korzyści.

• Będziemy mieć całą gamę osobistych asystentów, którzy będą nas wspierać przez sprawdzanie rozmów telefonicznych, ustalanie priorytetów e-maili i tak dalej. Będą również działać „na zewnątrz”, negocjować zobowiązania w naszym imieniu, od prostych, takich jak umawianie i ustalanie terminów spotkań, do bardziej skomplikowanych, takich jak planowanie i rezerwowanie wakacji (oczywiście za waszą zgodą).

• Będziecie w stanie „wynająć” GAI do reprezentowania was w sporze prawnym – a wasz elektroniczny prawnik będzie faktycznie mógł wnieść sprawę do elektronicznego arbitra, co spowoduje natychmiastową decyzję za ułamek kosztów obecnego systemu prawnego. (Będziecie chcieli wybrać ten system zamiast rozprawy sądowej na żywo ze względu na istotne korzyści).

• Opieka medyczna wykraczająca poza obecny system lekarzy-ludzi będzie szeroko i tanio dostępna. To radykalnie poprawi stan zdrowia publicznego, zmniejszy śmiertelność niemowląt i zwiększy średnią długość życia, głównie w krajach rozwijających się.

• Niektórzy ludzie, zwłaszcza starsi i odizolowani, będą się zwracali do chatbotów GAI po emocjonalną pociechę i towarzystwo, co można by szyderczo nazwać „emocjonalną pornografią”.

• Jako pomocnicy i doradcy w zakresie wydajności GAI będą zacierać różnice między amatorami a ekspertami, osiągającymi słabe i wysokie wyniki, w wielu dziedzinach zawodowych. Może to pomóc w wyrównaniu różnic w wynagrodzeniach i zmniejszyć nierówności dochodowe.

• Systemy GAI zaangażują się w coraz bardziej eskalujący wyścig zbrojeń z samymi sobą, wypluwając tony tekstu w postaci raportów, esejów, książek i e-maili tylko po to, aby kolejny system zrobił ich przegląd i podsumował je dla nas. Już niedługo będziemy żyć w dziwnym świecie, w którym maszyny będą pisać i czytać dla siebie nawzajem, a nie dla nas, i pozostawią nas na łasce algorytmów decydujących, na co zwrócić naszą uwagę, a co odrzucić.

• Ostatecznie przekonamy się, że GAI konsekwentnie nie wykonują niektórych rodzajów zadań z powodu fundamentalnych aspektów ich projektowania, a nie z powodu ograniczeń praktycznych czy wdrożeniowych. (Przynajmniej biorąc pod uwagę podejście techniczne stosowane obecnie do ich budowy).

Na koniec kilka sugestii, jak czytać tę książkę.

Podobnie jak dobry posiłek: możecie przystąpić do konsumpcji, zaczynając od przystawki (to Wejście) i przechodząc do deseru (Wyjście). Jednak zakres informacji jest na tyle szeroki, że spokojnie można go potraktować jak szwedzki stół, stosownie do waszych upodobań. Podobnie jak w przypadku wszystkich książek z serii Co każdy musi wiedzieć, cały tekst jest zorganizowany w prosty format pytań i odpowiedzi, dzięki czemu możecie po prostu wybrać rozdziały i sekcje, które was interesują, a resztę pominąć. Jeśli zauważycie, że wasza uwaga „odpływa” w którymś momencie i nie jesteście w stanie jej utrzymać, macie moje przyzwolenie na bezwstydne przeskoczenie do przodu, tak jakbyście przechodzili do następnego utworu w albumie „największych przebojów”; nic się nie stało. Nie każdego muszą interesować szczegóły przestrzeni hiperwymiarowych albo subtelności prawa autorskiego.

Niezależnie od tego, jeśli jesteście maniakami historii (tak jak ja), zacznijcie od rozdziału 1 (Historia sztucznej inteligencji). Jeśli po prostu chcecie zrozumieć, jak działa GAI, możecie przejść do rozdziału 2 (Generatywna sztuczna inteligencja). Jeśli najbardziej interesują was bardziej praktyczne efekty ekonomiczne i biznesowe, skoczcie od razu do rozdziału 3 (Prawdopodobny wpływ), a potem do rozdziału 4 (Przyszłość pracy) i 5 (Ryzyko i zagrożenia). Jeśli interesuje was, w jaki sposób społeczeństwo zamierza zintegrować GAI, zapoznajcie się z rozdziałem 6 (Status prawny systemów GAI) i rozdziałem 7 (Regulacje, polityka publiczna, globalna konkurencja). Jeśli pasjonujecie się naukami humanistycznymi, przestudiujcie rozdział 8 (Zagadnienia filozoficzne i implikacje). A jeżeli lubicie futurystyczne spekulacje, po prostu przeczytajcie Wyjście, a następnie zwróćcie książkę do księgarni i odzyskajcie pieniądze. Dla waszej wygody każdy rozdział jest poprzedzony kosmetycznie poprawionym podsumowaniem wygenerowanym przez GPT-4, komercyjnie dostępnym LLM. Przypisy końcowe w każdym rozdziale są komentarzami lub opracowaniami pomocniczymi, wskazówkami do dalszej lektury lub okruszkami mojej podróży po oryginalnym materiale źródłowym.

Uwaga dotycząca stylu: być może zauważyliście, że mój styl jest raczej konwersacyjny i osobisty, jakby „ja” przemawiało bezpośrednio do „was”. Uważam, że daje mi to większą elastyczność w doborze słownictwa i wyrażeń potocznych i mam nadzieję, że w rezultacie ta książka okaże się nieco bardziej wciągająca niż typowa pozycja popularnonaukowa. Jeśli was to wkurza, wyluzujcie (zluzujcie, wychillujcie, podejdźcie na spokojnie) – taki styl umożliwia mi skuteczniejszą i żywszą komunikację. Uczę również w jednosalowej szkole, więc możecie czuć, że czasami wyjaśniam rzeczy oczywiste, czyli mansplaininguję (tendencja mężczyzn do wyjaśniania rzeczy, które są jasno zrozumiałe) i płynę na fali dygresji. Jeśli czytacie tę książkę w języku innym niż angielski, łagodnie potraktujcie wysiłki tłumacza, ponieważ ma przed sobą kawał ciężkiej roboty.

I jeszcze jedna rzecz: bardzo bym chciał dostać od was informację zwrotną. Pisanie książki to samotne przedsięwzięcie, niczym budowanie zamku z piasku na opuszczonej plaży. Jeśli podoba wam się to, co czytacie, albo i nie, ale macie konkretne przemyślenia, napiszcie do mnie w staromodny sposób: wysyłając wiadomość e-mail na adres [email protected]. Nie mogę obiecać, że odpowiem – ale też nie mogę obiecać, że będę wtedy jeszcze żyć.

Witamy w przyszłości!PRZYPISY

Wejście

W tej słynnej powieści z 1955 roku bohater biegle podszywa się pod innych ludzi i zastępuje ich.

Moment, w którym niemożliwe staje się możliwe, nazwany tak na cześć przełomowego lotu braci Wright na plaży w Kitty Hawk w Karolinie Północnej w 1903 roku.

Osoby w pewnym wieku mogą pamiętać klasyczny film z 1968 roku 2001: Odyseja kosmiczna, w którym kluczowym punktem fabuły było to, że potężny komputer HAL 9000 AI musiał zostać zapobiegawczo wyłączony, ponieważ popełnił błąd – coś, czego żaden komputer wcześniej nie zrobił! Oczywiście to śmieszne z perspektywy czasu, ale wiarygodne w czasach, gdy komputery znajdowały się wyłącznie w jasno oświetlonych, szklanych sterylnych pomieszczeniach i były obsługiwane przez czarodziejów nauki w białych kubraczkach.

„Sensokrytyzm” wraz z wieloma innymi sprytnymi nowymi słowami został wygenerowany przez publiczną wersję ChatGPT w odpowiedzi na moją podpowiedź: „Myśli ludzi są ograniczone przez ich słownictwo i język. Jakie nowe słowa byłyby najbardziej przydatne dla osób mówiących po angielsku?”.

Zabawny przykład LLM (GPT-4) mówiącego „małe kłamstewko” można znaleźć w prelekcji Sebastiena Bubecka z 6 kwietnia 2023 roku na MIT. Wyszukajcie na YouTube „Sparks of AGI: early experiments with GPT-4 Bubeck” („Iskry AGI: wczesne eksperymenty z GPT-4 Bubeck”) i przejdźcie do minuty 40 (opublikowany 6 kwietnia 2023 roku). (Podałbym tutaj link, ale wytyczne dotyczące stylu wydawniczego tej książki wyraźnie zabraniają linków do YouTube). Bubeck opowiada, że program popełnił błąd arytmetyczny, więc zapytał go dlaczego, na co komputer odpowiedział: „To była literówka, przepraszam”. Natknąłem się na coś podobnego podczas używania Barda, LLM firmy Google. Wpisałem: „Szukam książki o przetwarzaniu informacji przez człowieka, w której autor stawia tezę, że nasze umysły upraszczają informacje podobnie jak w grze wideo”. Z nadmierną pewnością siebie Bard odesłał mnie do książki… która nie istniała. Kiedy na to zwróciłem uwagę, odpowiedział: „Musiałem źle odczytać twoje zapytanie”.

Joseph Cox, GPT-4 Hired Unwitting TaskRabbit Worker By Pretending to Be ‘Vision-Impaired’ Human, „Vice”, 15 marca 2023, https://www.vice.com/en/article/jg5ew4/gpt4-hired-unwitting-taskrabbit-worker, dostęp 10 kwietnia 2023.

Na przykład, zobaczcie, jak GPT-3.5 przeszedł „test rozpoznania faux pas”, błędnie sugerując, że kobieta była w ciąży (https://t.co/503VqyGjU4, pobrany 29 czerwca 2023 r.).

King – Man + Woman = Queen: The Marvelous Mathematics of Computational Linguistics, Emerging Technology from the arXiv, 17 września 2015, https://www.technologyreview.com/2015/09/17/166211/king-man-woman-queen-the-marvelous-mathematics-of-computational-linguistics/, dostęp 29 czerwca 2023.

GPT-4 Technical Report, OpenAI, 2023, https:// arxiv.org/abs/ 2303.08774.

Sébastien Bubeck et al., Sparks of Artificial General Intelligence: Early Experiments with GPT-4, 13 kwietnia 2023, https://arxiv.org/abs/2303.12712, dostęp 4 sierpnia 2023.

Historia sztucznej inteligencji jest pełna opowieści „ku przestrodze” o niepotrzebnej antropomorfizacji, którą lubię nazywać „teatrem sztucznej inteligencji”. Pamiętacie Watsona, mówiący program IBM, który pokonał panujących mistrzów Jeopardy w 2011 roku, a za moment zniknął w mrokach niepamięci, co omal nie pociągnęło całej firmy na dno, z powodu wiary we własne bzdury? Czy Watson był dumny ze swego osiągnięcia? Z pewnością tak brzmiał, gdy przekomarzał się w starannie spreparowanym dialogu z gospodarzem Jeopardy Alekiem Trebekiem.

William Butler Yeats, The Second Coming, 1919, tłum. Stanisław Barańczak.

Nick Bostrom, Superintelligence: Paths, Dangers, Strategies, Oxford University Press, Oxford 2014.

Jeśli mi nie wierzycie, oto, co powiedział ChatGPT, kiedy zapytałem, dlaczego mówi w pierwszej osobie: „Używam zaimków pierwszej osoby jako konwencji konwersacyjnej, aby ułatwić naturalniejsze i angażujące interakcje z użytkownikami… co ułatwia ludziom kontakt i komunikację ze mną. Używanie zaimków pierwszej osoby jest wyborem projektowym mającym na celu poprawę doświadczenia użytkownika, a nie odzwierciedleniem jakiejkolwiek tożsamości osobistej lub samoświadomości”.

Jest to rekord Aledmysa Diaza, łapacza drużyny St. Louis Cardinals, z 2016 roku, Diaz Becomes 1st Player with .500 Batting Average Through 50 at-Bats, „Bleacher Report”, 26 kwietnia 2016 r., https:// bleacherreport.com/articles/ 2635861-diaz-becomes-1st-player- with-500-batt ing-average-through-50-at-bats.

Jaka to wada? Że koszt krańcowy wysłania wiadomości e-mail jest zerowy. Szacuje się, że około 90% wszystkich wysłanych dziś wiadomości e-mail to „śmieci”, z których większość jest filtrowana ze skrzynki odbiorczej przez coraz bardziej wyrafinowane oprogramowanie w niekończącym się wyścigu zbrojeń przeciwko sprawcom. Możecie sprawdzić folder ze spamem, aby zobaczyć ten strumień cyfrowych ścieków. Oznacza to, że koszt naszej infrastruktury e-mailowej jest dziesięciokrotnie wyższy niż w przypadku niewielkiej opłaty pocztowej, powiedzmy tysięcznej pensa, za wysłanie wiadomości. To małe przeoczenie obciążyło społeczeństwo znacznymi i wieczystymi kosztami.Ang. „No Virginia, there is no Santa Claus” – nawiązanie do sławnego w USA wydarzenia, gdy w 1897 roku dziewczynka o tym imieniu napisała list do „New York Timesa” z pytaniem, czy Święty Mikołaj istnieje. Redaktor naczelny odpowiedział zdaniem „Yes Virginia, there is Santa Claus” („Tak, Virginio, Święty Mikołaj istnieje”), które przeszło do amerykańskiej popkultury jako zapewnienie, że trzeba wierzyć w dobro ludzi i świata. Powstała nawet na ten temat książka dla dzieci autorstwa Lauren Martin (przyp. tłum.).
mniej..

BESTSELLERY

Menu

Zamknij