- W empik go
Zdrowy umysł w sieci algorytmów - ebook
Zdrowy umysł w sieci algorytmów - ebook
Wyobraźmy sobie, że pewna kawiarnia pozbyła się całej konkurencji przez to, że oferuje darmową kawę, więc nie mamy innego wyboru niż umawiać się właśnie tam. Podczas gdy rozkoszujemy się miłymi rozmowami z przyjaciółmi, zamontowane w stołach podsłuchy i kamery dokładnie monitorują nasze konwersacje i rejestrują, z kim siedzimy. W pomieszczeniu jest także pełno sprzedawców, którzy płacą za naszą kawę, ale nieustannie nam przerywają, proponując zakup swoich produktów i usług. W istocie klientami kawiarni są ci sprzedawcy, a nie Ty i Twoi przyjaciele. Na takiej zasadzie funkcjonują media społecznościowe.
Czy powinniśmy beztrosko oddać programom komputerowym prawo podejmowania za nas osobistych decyzji? Zdecydowanie nie. Inteligencja nie oznacza pokładania ślepej ufności w technologii, ale nie oznacza także przejawiania względem niej chorobliwej nieufności. Chodzi o to, by zdawać sobie sprawę z rzeczywistych możliwości AI i wiedzieć, co jest tylko chwytem marketingowym i artykułem techno-religijnej wiary. Chodzi także o zdolność zachowania kontroli nad urządzeniami.
A przede wszystkim o to, żeby nie przestać myśleć w świecie, który próbuje myśleć za nas.
Kategoria: | Psychologia |
Zabezpieczenie: |
Watermark
|
ISBN: | 978-83-7886-708-1 |
Rozmiar pliku: | 13 MB |
FRAGMENT KSIĄŻKI
Karta redakcyjna
Dedykacja
Wprowadzenie
I. LUDZKI ROMANS Z AI
1. Czy od prawdziwej miłości dzieli nas tylko jedno kliknięcie?
2. W czym AI najlepiej się sprawdza: zasada stabilnego świata
3. Jak maszyny wpływają na nasz sposób myślenia
4. Czy autonomiczne samochody już niebawem wyjadą na drogi?
5. Zdrowy rozsądek i AI
6. Jeden punkt danych może pokonać Big Data
II. GRA O WYSOKA STAWKĘ
7. Przejrzystość
8. Krokiem somnambulika do inwigilacji
9. Psychologia uzależniania użytkowników
10. Bezpieczeństwo i samokontrola
11. Prawda czy fałsz?
Podziękowanie
Przypisy
BibliografiaWPROWADZENIE
Tato, a gdy byłeś mały i nie było komputerów, to jak wchodziłeś do internetu?
– Siedmioletnie dziecko z Bostonu
Jeśli wszystko będą robić roboty, co my będziemy robić?
– Pięcioletni przedszkolak z Pekinu,
cytat za: Kai-Fu Lee, AI Superowers
Wyobraźmy sobie, że cyfrowy asystent robi wszystko lepiej niż my. Cokolwiek powiemy, on powie lepiej. Cokolwiek postanowimy, on nas poprawi. Gdy sporządzimy plan na kolejny rok, on poda doskonalszy. W pewnej chwili być może w ogóle zrezygnujemy z podejmowania samodzielnych decyzji. Odtąd sztuczna inteligencja bezbłędnie poprowadzi nasze finanse, zredaguje za nas wiadomości, wybierze nam partnera romantycznego i zaplanuje, kiedy powinny urodzić się nasze dzieci. Będą do nas przychodzić przesyłki z produktami, o których nawet nie wiedzieliśmy, że są nam potrzebne. Być może złoży nam wizytę pracownik socjalny, ponieważ cyfrowy asystent uznał, że nasze dziecko ma początki depresji. Ponadto, zanim jeszcze zaczniemy łamać sobie głowę nad tym, którego kandydata poprzeć w wyborach, asystent będzie już znał odpowiedź i w naszym imieniu zagłosuje. Jest tylko kwestią czasu, gdy firmy informatyczne przejmą kontrolę nad naszym życiem, a nasz wierny asystent przeobrazi się w autorytarną superinteligencję. Niczym stado owiec nasze wnuki w ufności lub strachu będą czekać na rozstrzygnięcia swego
nowego pana.
W ostatnich latach miałem spotkania na wielu popularnych wydarzeniach związanych ze sztuczną inteligencją (AI) i wielokrotnie się przekonywałem, jak rozpowszechniona jest bezwarunkowa wiara w potęgę algorytmów. Niezależnie od dziedziny, przedstawiciele firm informatycznych zapewniali słuchaczy, że maszyny będą wykonywać zadania w sposób dokładniejszy, szybszy i tańszy. Co więcej, ich zdaniem zastąpienie ludzi przez oprogramowanie przyniesie pozytywne skutki. W podobnym duchu formułowane są sądy, że Google zna swoich użytkowników lepiej niż oni sami i że AI może lub w nieodległej przyszłości będzie mogła przewidywać zachowania ludzi z niemal przerażającą dokładnością. Same firmy informatyczne chwalą się tą zdolnością, gdy proponują swoje usługi reklamodawcom, ubezpieczycielom i handlowcom. Mamy skłonność wierzyć w te zapewnienia. Taką niemal wszechwiedzę sztucznej inteligencji zakładają nawet pisarze, którzy snują katastroficzne wizje zdominowania ludzkości przez roboty, a także niektórzy zdecydowani krytycy przemysłu informatycznego, potępiający go jako złowrogi kapitalizm nadzoru i kontroli i drżący o przyszłość naszej wolności i godności. Z tego właśnie powodu wielu obawia się Facebooka (obecnie przemianowanego na Metę) jako przerażającej orwellowskiej maszyny nadzoru i kontroli. Przypadki wycieku danych i skandal związany z Cambridge Analytica doprowadziły do spotęgowania tej obawy. Oparte na strachu czy uprzedzeniu rozumowanie pozostaje niezmienne i przebiega mniej więcej tak:
AI już pokonała najlepszych ludzkich szachistów i graczy w Go.
Moc obliczeniowa komputerów podwaja się co parę lat.
A zatem niedługo maszyny wszystko będą robić lepiej niż ludzie.
Nazwijmy to argumentem o wyższości AI nad ludzką inteligencją. Przewiduje on, że superinteligencja maszynowa zbliża się wielkimi krokami. Jego dwie przesłanki są poprawne, lecz wniosek – nieuprawniony.
W rzeczywistości większa moc obliczeniowa wystarcza do rozwiązania pewnych problemów, ale nie wszystkich. Jak dotąd zdumiewające zwycięstwa sztucznej inteligencji dotyczyły dobrze zdefiniowanych gier o ustalonych regułach, takich jak szachy czy Go. Podobne sukcesy zanotowała ona w rozpoznawaniu twarzy czy głosu, jeżeli warunki były względnie niezmienne. W stabilnym otoczeniu AI prześciga człowieka. Kiedy przyszłość niewiele się różni od przeszłości, wielkie ilości danych mogą być użyteczne. Jeśli jednak zdarzają się niespodzianki, znajomość nawet ogromnej liczby danych – które zawsze pochodzą z przeszłości – może nie być pomocna w przewidywaniu przyszłości. Algorytmy oparte na danych nie ostrzegły nas przed kryzysem finansowym z roku 2008 i zapowiadały łatwe zwycięstwo Hillary Clinton w wyborach na prezydenta USA w roku 2016.
W istocie wiele problemów, z którymi mamy do czynienia, nie ma charakteru dobrze zdefiniowanych gier, ale dotyczy sytuacji nacechowanych niepewnością, na przykład znalezienia prawdziwej miłości, przewidzenia, kto popełni przestępstwo, lub właściwego zareagowania na nagłe, nieoczekiwane zdarzenia. W takich przypadkach większa moc obliczeniowa i większa ilość danych niewiele zmieniają. Głównym źródłem niepewności są ludzie. Wyobraźmy sobie, jak skomplikowałyby się szachy, gdyby król mógł dla kaprysu pogwałcić zasady, w reakcji na co oburzona królowa opuściłaby szachownicę, puściwszy wcześniej z dymem wieże. Tam, gdzie występują ludzie, wiara w algorytmy może prowadzić do złudzenia pewności, które niechybnie prowadzi do nieszczęścia.
Zrozumienie, że złożone algorytmy zwykle odnoszą sukces w stabilnych sytuacjach, ale nie radzą sobie dobrze z niepewnością, stanowi egzemplifikację ogólnego tematu tej książki:
Inteligencja oznacza zdolność rozumienia potencjału i niebezpieczeństw technologii cyfrowych oraz determinację utrzymania kontroli w świecie wszędobylskich algorytmów.
Książkę tę napisałem, by pomóc czytelnikowi zrozumieć możliwości technologii cyfrowych takich jak AI, a także – co nawet ważniejsze – ich ograniczenia i niebezpieczeństwa. W czasie, gdy technologie te stają się coraz bardziej rozpowszechnione i dominujące, chciałbym wyposażyć czytelnika w strategie i metody zachowania kontroli nad swoim życiem tak, by nie został on rozjechany przez walec zmian. Czy powinniśmy beztrosko oddać programom komputerowym prawo podejmowania za nas osobistych decyzji? Zdecydowanie nie. Inteligencja nie oznacza pokładania ślepej ufności w technologii, ale nie oznacza także przejawiania względem niej chorobliwej nieufności. Chodzi o to, by zdawać sobie sprawę z rzeczywistych możliwości AI i wiedzieć, co jest tylko chwytem marketingowym i artykułem techno-religijnej wiary. Chodzi także o to, żeby opanować zdolność kontrolowania urządzenia, a nie być przez nie kontrolowanym.
Inteligencja, o której mowa, nie jest tym samym, co posiadanie kompetencji cyfrowych pozwalających wykorzystywać technologię. Programy kształcenia na całym świecie dążą do podniesienia kompetencji cyfrowych poprzez kupowanie tabletów i tablic interaktywnych do sal lekcyjnych i przyuczanie dzieci do ich wykorzystywania. Programy te jednak rzadko uczą dzieci rozumieć zagrożenia związane z technologiami cyfrowymi. Nic więc dziwnego, że większość osób, które od dziecka obyte są z technologiami cyfrowymi, nie umie odróżnić ukrytej reklamy od wiadomości i daje się zmylić przez wygląd strony internetowej. Na przykład badanie, w którym wzięło udział 3466 takich „cyfrowych tubylców”, wykazało, że 96 procent z nich nie wie, jak sprawdzić wiarygodność strony internetowej lub postów.
Inteligentny świat nie polega po prostu na wstawieniu do pokoju inteligentnego telewizora (smart TV), umawianiu się na randki online i tego rodzaju gadżetach. Jest to świat przeobrażony przez technologię cyfrową. Gdy uchyliły się drzwi do inteligentnego świata, wielu zaczęło sobie wyobrażać, że oto wkroczymy do raju, gdzie wszyscy będą mieli dostęp do drzewa prawdziwych wiadomości, które ostatecznie położy kres ciemnocie, kłamstwom i zepsuciu. Zostaną ujawnione fakty o zmianie klimatu, terroryzmie, uchylaniu się od płacenia podatków, wyzyskiwaniu biednych i gwałceniu godności ludzkiej. Zostaną wykryci i zmuszeni do dymisji niemoralni politycy i chciwi biznesmeni. Niemożliwe stanie się szpiegowanie obywateli i naruszanie prywatności przez rządy. Do pewnego stopnia marzenie to się ziściło, choć raj okazał się także nieco skażony. Jednak, przede wszystkim na naszych oczach odbywa się przeobrażenie społeczeństwa. Nie można powiedzieć, że świat staje się lepszy lub gorszy, gdyż zmienia się sam nasz sposób myślenia o dobru i złu. Na przykład jeszcze niedawno ludzie byli bardzo wrażliwi na punkcie wszelkich naruszeń prywatności i urządzali demonstracje przeciwko rządom i korporacjom, które próbowały ich nadzorować lub pozyskiwać ich dane osobowe. Aktywiści o różnych orientacjach politycznych, młodzi liberałowie i uznane organizacje wspólnie urządzali masowe protesty przeciwko spisowi powszechnemu w Niemczech w 1987 roku, obawiając się, że komputery nie zagwarantują anonimowości odpowiedzi, a gniewni ludzie obkleili Mur Berliński tysiącami niewypełnionych kwestionariuszy. W australijskim spisie powszechnym z 2001 roku ponad 70 tysięcy ludzi zadeklarowało, że są wyznawcami religii „Jedi” (z filmu Gwiezdne wojny), a w 2011 roku obywatele brytyjscy protestowali przeciwko pytaniom, które ich zdaniem za bardzo ingerowały w ich prywatność, takim jak pytanie o wyznanie. Dzisiaj reagujemy wzruszeniem ramion na to, że nasz inteligentny dom przez dwadzieścia cztery godziny na dobę rejestruje, co robimy, nie wyłączając sypialni, a inteligentna lalka naszego dziecka nagrywa każdy powierzony jej sekret. Wrażliwość na punkcie prywatności i godności adaptuje się do technologii lub może nawet w ogóle stać się pojęciem z odległej przeszłości. Kiedyś marzono, że internet ofiaruje nam wolność; dzisiaj dla wielu wolność oznacza darmowy internet.
Od niepamiętnych czasów ludzie tworzą imponujące nowe technologie, z których jednak nie zawsze umieją mądrze korzystać. Jeśli chcemy czerpać rozliczne korzyści z technologii cyfrowej, powinniśmy się nauczyć myśleć w świecie, który próbuje myśleć za nas. Nie możemy sobie pozwolić na beztroskę, ale musimy być czujni i zachowywać kontrolę.
Zachowanie kontroli
Każdy, kto nie jest zupełnie lekkomyślny, czasami poświęca uwagę swemu bezpieczeństwu. Jakie nieszczęście z większym prawdopodobieństwem może nas spotkać w ciągu najbliższych dziesięciu lat?
• Zostaniemy zabici w zamachu terrorystycznym.
• Zostaniemy zabici przez kierowcę zajętego swoim smartfonem.
Jeśli czytelnik wybrał opcję zamachu terrorystycznego, to znajduje się w większości. Od czasu zamachów z 11 września 2001 roku, sondaże przeprowadzane w Ameryce Północnej i Europie wykazują, że ludzie uważają terroryzm za największe zagrożenie dla ich życia. W przypadku niektórych jest to największy ich lęk. Jednocześnie bez specjalnego zakłopotania większość ludzi przyznaje się do pisania lub czytania esemesów podczas prowadzenia samochodu. Przez dziesięć lat do roku 2020 w Stanach Zjednoczonych z rąk terrorystów, islamskich, prawicowych czy innych zginęło rocznie przeciętnie 36 osób. W tym samym okresie ponad 3 tysiące osób rocznie zginęło w wypadkach spowodowanych przez roztargnionych kierowców – którzy często zajęci byli esemesami, czytaniem lub streamowaniem na swoich smartfonach. Liczba ta odpowiada łącznej liczbie ofiar zamachów z 11 września, a dotyczy tylko jednego roku.
Większość Amerykanów boi się także zamachu terrorystycznego bardziej niż broni palnej, choć jest mniej prawdopodobne, że zostaną zabici przez terrorystę niż przez dziecko bawiące się bronią palną w ich własnym domu. Każdy, kto nie mieszka w kraju takim jak Afganistan lub Nigeria, ze znacznie większym prawdopodobieństwem może zginąć w wypadku samochodowym spowodowanym przez roztargnionego kierowcę, być może nawet siebie samego. Nietrudno zresztą zrozumieć dlaczego. Czas reakcji dwudziestolatka obsługującego telefon zwalnia do czasu reakcji siedemdziesięciolatka bez telefonu. Zjawisko to określa się mianem „chwilowego starzenia się mózgu”.
Dlaczego ludzie piszą lub czytają esemesy podczas prowadzenia pojazdu? Być może nie zdają sobie sprawy z tego, jakie to niebezpieczne. Opierając się na badaniach, stwierdziłem jednak, że większość dobrze zdaje sobie z istnienia zagrożenia. Nie chodzi o brak świadomości, ale o brak samokontroli. „Gdy nadchodzi wiadomość, po prostu muszę spojrzeć, choćby nie wiem co”, wyjaśnia pewien student. O samokontrolę coraz trudniej od czasu, gdy platformy internetowe wprowadziły notyfikacje, polubienia i inne sztuczki psychologiczne mające na celu przekierowanie uwagi użytkowników z tego, co się dzieje dookoła, na zawartość ich stron. A przecież można by uniknąć tylu nieszczęść, gdyby ludzie byli w stanie pokonać odruch sprawdzania telefonu, gdy powinni uważać na drogę. Dotyczy to nie tylko młodych osób. „Nie piszcie do bliskich esemesów, kiedy wiecie, że oni w danej chwili prowadzą samochód”, powiedziała wstrząśnięta matka, która znalazła swoją ciężko ranną córkę na oddziale intensywnej terapii, z poranioną twarzą i bez jednego oka, po tym, jak wysłała dziecku „durny esemes” . Smartfon jest wspaniałym wynalazkiem, ale wymaga, by mądrze korzystali z niego myślący ludzie. W tym przypadku zdolność zachowania kontroli nad technologią służy ochronie osobistego bezpieczeństwa naszego i naszych bliskich.
Nadzór i kontrola nad masami stanowi problem, jest problemem, a nie rozwiązaniem
Jedną z przyczyn tego, że boimy się bardziej zamachu terrorystycznego niż kierowcy ze wzrokiem utkwionym w ekran smartfona, jest znacznie większa uwaga mediów i polityków poświęcona terroryzmowi niż roztargnionym kierowcom. W celu chronienia swoich obywateli rządy na całym świecie eksperymentują z systemami kontroli opartymi na rozpoznawaniu twarzy. Systemy są niezawodne w przypadku rozpoznawania twarzy w kontekście laboratoryjnym, gdy wykorzystywane są fotografie z dokumentów, aplikacji o pracę czy inne dobrze oświetlone zdjęcia przedstawiające głowy ludzi w podobnych ustawieniach. Czy jednak są dokładne w świecie rzeczywistym? Blisko miejsca, gdzie mieszkam, przeprowadzono taki test.
Wieczorem 19 grudnia 2016 roku dwudziestoczteroletni islamski terrorysta uprowadził wielką ciężarówkę i wbił się nią w zatłoczony berliński rynek bożonarodzeniowy, pełny turystów i miejscowych delektujących się kiełbaskami i grzanym winem, zabijając dwanaście osób i raniąc czterdzieści dziewięć. Rok później niemieckie ministerstwo spraw wewnętrznych zainstalowało systemy rozpoznawania twarzy na jednym z berlińskich dworców kolejowych, aby przetestować dokładność tych urządzeń w rozpoznawaniu podejrzanych. Po rocznym okresie pilotażowym ministerstwo w komunikacie dla prasy obwieściło z dumą dwa wyniki: osiemdziesięcioprocentową dokładność trafień, co oznacza, że na dziesięciu podejrzanych systemy poprawnie identyfikowały ośmiu, a błędnie dwóch; oraz współczynnik fałszywych alarmów wynoszący 0,1 procent, co oznacza, że tylko jeden na tysiąc przechodniów został omyłkowo wzięty za podejrzanego. Minister uznał system za wielki sukces i głosił, że ogólnokrajowy nadzór jest wykonalny i pożądany.
Oświadczenie to wywołało burzliwą dyskusję. Jedni wyrażali przekonanie, że zapewnienie większego bezpieczeństwa usprawiedliwia dodatkowy nadzór, podczas gdy drudzy bali się, że kamery zaczną w którymś momencie pełnić funkcję „teleekranów” z powieści George’a Orwella Rok 1984. Nikt jednak nie kwestionował dokładności systemu. Zamiast opowiadać się po jednej ze stron w tej emocjonalnej debacie, zastanówmy się nad tym, co by się stało, gdyby takie systemy rozpoznawania twarzy zostały szeroko zaimplementowane. Każdego dnia przez dworce kolejowe Niemiec przewija się około dwanaście milionów pasażerów. Pomijając kilkuset poszukiwanych podejrzanych, są to normalni ludzie zdążający do pracy lub podróżujący dla przyjemności. Robiący wrażenie niski wskaźnik fałszywych wyników pozytywnych wynoszący 0,1 procent przekłada się na prawie 12 tysięcy przechodniów dziennie, którzy zostaliby fałszywie zidentyfikowani jako podejrzani. Każdy z nich musiałby zostać zatrzymany, przeszukany na okoliczność posiadania broni lub narkotyków i być może aresztowany do czasu potwierdzenia tożsamości. Należałoby poświęcić dodatkowe zasoby policyjne na dokładne badanie tych niewinnych obywateli zamiast na efektywne zapobieganie przestępstwom, co oznacza, że taki system w rzeczywistości skutkowałby obniżeniem bezpieczeństwa. Ostatecznie powstałby system nadzoru ograniczający wolność jednostki i na dodatek szkodzący życiu społecznemu i gospodarczemu.
Rozpoznawanie twarzy może być przydatne, lecz do innego celu: identyfikacji danej osoby, a nie masowego przesiewania. Po stwierdzeniu dokonania przestępstwa na stacji metra lub przejechania przez samochód na czerwonym świetle nagranie wideo może pomóc w identyfikacji sprawcy. W takiej sytuacji wiemy, że osoba ta popełniła przestępstwo. Natomiast gdy badamy każdego na dworcu, nie wiemy, czy te osoby są podejrzanymi. Większość nie jest, co – podobnie jak w przypadku masowych badań przesiewowych w medycynie – prowadzi do wielkiej liczby fałszywych alarmów. Funkcja rozpoznawania twarzy sprawdza się za to doskonale, wykonując zadanie nazywane uwierzytelnianiem. Dzięki niej możemy odblokować telefon, po prostu patrząc w ekran. Inaczej niż sprawca uciekający w metrze, patrzymy wprost w oko kamery, trzymając ją blisko twarzy, i nie poruszamy się; praktycznie zawsze to my staramy się odblokować aparat. W tej sytuacji powstaje bardzo stabilny świat: należymy do niego tylko my i nasz telefon. Rzadko zdarzają się błędy.
Gdy zamierzamy dyskutować o zaletach i wadach systemów rozpoznawania twarzy, musimy rozróżnić trzy możliwe sytuacje: wiele z wieloma, jeden z wieloma i jeden z jednym. W trakcie analizy przesiewowej wiele osób jest porównywanych z wieloma innymi osobami znajdującymi się w bazie danych; w identyfikacji jedna osoba jest porównywana z wieloma; z kolei w uwierzytelnianiu jedna osoba jest porównywania z jedną inną osobą. Im mniejsza niepewność – jak w identyfikacji, ale nie w masowym przesiewaniu – tym wyższa sprawność systemu. Przypomnijmy sobie wdarcie się tłumu w styczniu 2021 roku do Kapitolu Stanów Zjednoczonych, gdzie systemy rozpoznawania twarzy szybko zidentyfikowały niektórych uczestników, którzy zdołali wtargnąć do gmachu. Ogólna konstatacja jest taka, że sztuczna inteligencja nie jest dobra ani zła, a jest po prostu bardziej użyteczna w pewnych zadaniach, a mniej użyteczna w innych.
Powyższe rozumowanie ma wiele wspólnego z naszymi obawami co do zagrożenia prywatności. Na ogół niepokoi nas możliwość masowego nadzoru sprawowanego przez rządy, a nie identyfikacja sprawców i uwierzytelnianie. Okazuje się, że masowy nadzór jest tym, w czym systemy rozpoznawania twarzy najbardziej zawodzą. Zrozumienie tego kluczowego zagadnienia pomaga nam chronić wolności indywidualne, które cenimy w zachodnich demokracjach, przed rządami zainteresowanymi nadzorowaniem własnych obywateli.
„Nie mam nic do ukrycia”
Fraza ta przewija się często w dyskusjach dotyczących mediów społecznościowych, które gromadzą wszelkie dane osobowe, jakie tylko wpadną w ich ręce. Wypowiadają ją zazwyczaj użytkownicy, którzy wolą płacić swoimi danymi niż pieniędzmi. I fraza ta może być nawet prawdziwa w odniesieniu do tych z nas, którzy prowadzą spokojne życie bez szczególnych kłopotów zdrowotnych, nigdy nie narobili sobie wrogów i nie są skłonni do zabierania głosu w obronie praw obywatelskich zagrożonych przez rząd. Rzecz nie sprowadza się jednak do ukrywania czegoś ani do swobody publikowania bez opłat zdjęć ślicznych kotów. Firmom informatycznym jest obojętne, czy mamy coś do ukrycia, czy nie. Ponieważ nie płacimy za ich usługi, muszą one stosować psychologiczne sztuczki, które sprawią, że będziemy spędzać z ich aplikacjami jak najwięcej czasu. Nie jesteśmy klientami; klientami są reklamodawcy, którzy płacą firmom informatycznym za nieustanne przyciąganie naszej uwagi. Wielu z nas nie potrafi się rozstać ze smartfonem, nie dosypia z powodu swego nowego partnera w łóżku, z trudem znajduje czas na inne zajęcia i niecierpliwie czeka na kolejny zastrzyk dopaminy, jakiego dostarcza każdy nowy „lajk”. Jia Tolentino tak w „New Yorkerze” opisała swoje zmagania z telefonem komórkowym: „Noszę ze sobą wszędzie ten telefon, jakby to był zbiornik z tlenem. Wpatruję się w niego, gdy robię śniadanie i gdy wynoszę śmieci, rujnując to, za co najbardziej lubię pracę w domu – poczucie kontroli, względny spokój”. Inni przejmują się, gdy jakaś obca osoba napisze zgryźliwy komentarz o ich wyglądzie lub inteligencji. Jeszcze inni dryfują w kierunku grup
ekstremistycznych, które padają łatwym łupem fake newsów i mowy nienawiści.
Ludzkość dzieli się na tych, którzy nie za bardzo przejmują się tym, że technologia cyfrowa na nich oddziałuje, i tych, którzy – jak Tolentino – są przekonani, że wprowadza ich ona w uzależnienie podobne do tego, jakiego doświadcza nałogowy hazardzista niezdolny do myślenia o niczym innym niż o graniu. Niemniej, możliwa jest technologia, a w szczególności media społecznościowe, które nie będą okradać ludzi z wolnego czasu i snu. To nie media społecznościowe jako takie sprawiają, że się uzależniamy, ale model biznesowy oparty na spersonalizowanej reklamie. To grzech pierworodny, z którego biorą początek wszystkie szkody, jakie odnoszą użytkownicy.
Darmowa kawiarnia
Wyobraźmy sobie, że pewna kawiarnia pozbyła się całej konkurencji przez to, że oferuje darmową kawę, wskutek czego nie mamy innego wyboru niż umawiać się właśnie tam. Podczas gdy rozkoszujemy się miłymi rozmowami z przyjaciółmi, zamontowane w stołach podsłuchy i kamery dokładnie monitorują nasze konwersacje i rejestrują, z kim siedzimy. W pomieszczeniu jest także pełno sprzedawców, którzy płacą za naszą kawę, ale nieustannie nam przerywają, proponując zakup spersonalizowanych produktów i usług. W istocie klientami kawiarni są ci sprzedawcy, a nie ty i twoi przyjaciele. Na takiej zasadzie funkcjonują platformy takie jak Facebook.
Platformy mediów społecznościowych mogłyby funkcjonować w zdrowszy sposób, gdyby były oparte na modelu biznesowym prawdziwej kawiarni lub stacji telewizyjnej, radiowej czy innej instytucji, gdzie klient płaci za dobra, z których chce korzystać. W 1998 roku Sergey Brin i Larry Page, młodzi założyciele firmy Google, nawet krytykowali wyszukiwarki internetowe oparte na reklamach jako nieuchronnie faworyzujące bardziej reklamodawców niż klientów. Wkrótce jednak, ulegając presji inwestorów, ustąpili i zbudowali największy istniejący model spersonalizowanej reklamy. W tym modelu biznesowym towarem jest nasza uwaga. Rzeczywistymi klientami są firmy umieszczające na stronach internetowych swoje reklamy. Im więcej ludzi widzi reklamy, tym więcej płacą reklamodawcy, co prowadzi do tego, że marketingowcy mediów społecznościowych przeprowadzają ciągłe eksperymenty, które mają na celu maksymalizację czasu, jaki spędzamy na ich stronach, i wzbudzenie w nas chęci jak najszybszego powrotu. Dobrym przykładem jest odruch sięgania po telefon podczas prowadzenia samochodu. Krótko mówiąc, istotą tego modelu biznesowego jest przejęcie kontroli nad czasem i uwagą użytkowników w najwyższym możliwym stopniu.
By służyć reklamodawcom, firmy informatyczne w każdym momencie zbierają dane o tym, gdzie jesteśmy, co robimy i jakie strony przeglądamy. Na podstawie naszych zwyczajów budują one coś w rodzaju awatara nas samych. Gdy reklamodawca zamieszcza reklamę, powiedzmy najnowszego pistoletu lub drogiej pomadki do ust, reklama ta jest pokazywana tym internautom, którzy z największym prawdopodobieństwem w nią klikną. Na ogół reklamodawcy płacą firmie informatycznej za każdym razem, gdy internauta kliknie w reklamę, lub za każde wyświetlenie. Aby zatem zwiększyć prawdopodobieństwo kliknięcia w reklamę lub jej zobaczenia, podejmuje się wszelkie możliwe działania w celu skłonienia nas do pozostania na stronie jak najdłużej. Polubienia, notyfikacje i inne sztuczki psychologiczne służą temu, by nas uzależnić od korzystania ze smartfona – o każdej porze dnia i nocy. Tak więc to nie nasze dane są sprzedawane, ale nasza uwaga, czas i sen.
Gdyby Google czy Facebook opierały się na modelu usługi za opłatą, zabiegi te nie byłyby konieczne. Armie inżynierów i psychologów, którzy przeprowadzają eksperymenty nad tym, jak przykuć nas do ekranów, mogłyby pracować nad bardziej użytecznymi innowacjami technologicznymi. Media społecznościowe nadal gromadziłyby określone dane służące udoskonaleniu rekomendacji tak, by lepiej odpowiadały naszym określonym potrzebom, ale nie miałyby już motywacji do zbierania innych zbytecznych informacji, takich jak dane mogące wskazywać na to, czy cierpimy na depresję, mamy raka lub jesteśmy w ciąży. Zniknąłby bowiem główny powód, dla którego są gromadzone – spersonalizowana reklama. Przykładem firmy, która już zastosowała taki model usługi za opłatą, jest Netflix. Z perspektywy użytkowników małą niedogodnością byłoby to, że musielibyśmy co miesiąc uiszczać niewielką kwotę, by korzystać z mediów społecznościowych. Jednak dla mediów społecznościowych wielką przewagą zyskowniejszego planu płacenia danymi jest to, że ludzie znajdujący się na szczycie struktury należą obecnie do światowej elity bogactwa i władzy.
Nie dać się zdominować przez technologię
Przykłady te dają pierwszą wskazówkę co do tego, jak można nie dać się zdominować przez technologię. Jeśli chcemy oprzeć się pokusie odczytania wiadomości, gdy prowadzimy pojazd, musimy umieć zachować kontrolę nad technologią. Możliwości i ograniczenia systemów rozpoznawania twarzy pokazują, że ta technologia sprawdza się w dość stabilnych sytuacjach, takich jak odblokowanie telefonu lub kontrola graniczna, gdzie zdjęcie paszportowe jest porównywane ze zdjęciem wykonanym na miejscu. Gdy jednak przesiewamy twarze w trudnych do przewidzenia warunkach codziennej rzeczywistości, sztuczna inteligencja sobie nie radzi, bo wszczyna zbyt wiele fałszywych alarmów, co może prowadzić do ogromnych problemów (masy niewinnych osób musiałyby być zatrzymywane i przeszukiwane). Wreszcie problemy powodowane przez media społecznościowe – utrata czasu, snu i zdolności koncentracji na skutek uzależnienia – nie są winą mediów społecznościowych jako takich, ale zastosowanego planu biznesowego płacenia danymi. Do pokonania tych poważnych problemów nie wystarczy zmiana ustawień prywatności ani wprowadzenie państwowej regulacji treści internetowych. Problemy należy rozwiązać u ich źródła przez zmianę całego modelu biznesowego. Rządy muszą zdobyć się na odwagę polityczną niezbędną w celu ochrony ludzi, których reprezentują.
Można by sądzić, że pomoc w rozumieniu możliwości i zagrożeń technologii cyfrowej powinna być podstawowym celem wszystkich systemów edukacyjnych i rządów. Tak jednak nie jest. Nie wspomina się o tym nawet w dokumencie „Kluczowe zagadnienia transformacji cyfrowej w ramach G20” Organizacji Współpracy Gospodarczej i Rozwoju z 2017 roku ani w „Białej księdze w sprawie sztucznej inteligencji” wydanej w 2020 roku przez Komisję Europejską. Programy te skupiają się na innych ważnych zagadnieniach, między innymi tworzeniu hubów innowacyjności, infrastruktury cyfrowej, dobrego ustawodawstwa i zwiększeniu zaufania ludzi do sztucznej inteligencji. Nic więc dziwnego, że większość „cyfrowych tubylców” nie potrafi odróżniać faktów od fake’ów i wiadomości od reklamy.
Rozwiązanie tych problemów wymaga czegoś więcej niż rozwijania infrastruktury i regulacji. Potrzebny jest czas na refleksję i przeprowadzenie solidnych badań. Czy zdarzyło się czytelnikowi, że musiał długo czekać na infolinii, zanim ktoś się odezwał? Być może adres lub algorytm predykcyjny wskazał, że jesteśmy klientem małowartościowym. A czy czytelnik zauważył, że pierwszy wynik w wyszukiwaniach Google’a nie jest najbardziej użyteczny? Prawdopodobnie za pierwszy wynik reklamodawca najwięcej zapłacił. Czy czytelnik zdaje sobie sprawę z tego, że jego ukochany inteligentny telewizor rejestruje jego prywatne rozmowy odbywające się w salonie lub sypialni?
Jeśli wszystko to nie jest dla kogoś nowością, trudno mu będzie zrozumieć, że dla większości ludzi jest. Niewiele osób zdaje sobie sprawę z tego, że algorytmy określają ich czas oczekiwania lub analizują, co nagrywają ich inteligentne telewizory, z czego potem odnoszą korzyść nieznane im instytucje. Jak wykazują badania, około 50 procent dorosłych użytkowników nie rozumie, że początkowe wyniki wyszukiwania internetowego są w rzeczywistości reklamami, a nie najbardziej adekwatnym lub popularnymi wynikami. Zresztą reklamy są nawet oznaczone jako sponsorowane, lecz na przestrzeni lat coraz bardziej upodobniły się do naturalnych wyników wyszukiwania (to znaczy do nie-reklam). Od 2013 roku reklamy Google’a nie mają już specjalnego kolorowego tła, a zamiast tego wprowadzona została żółta ikonka „Ad” ; w roku 2020 żółty kolor usunięto, a słowo „Ad” zaczęło się wyświetlać na czarno, żeby nie dało się go łatwo odróżnić od naturalnych wyników wyszukiwania. Reklamodawcy płacą za każde kliknięcie w ich reklamę, dlatego jeśli użytkownicy błędnie sądzą, że pierwsze wyniki są najbardziej adekwatne, jest to dobre dla interesów Google’a.
Jak powiedziałem, wielu szefów firm i polityków odnosi się z nadmiernym entuzjazmem do Big Data i digitalizacji. Entuzjazm nie oznacza jednak jeszcze zrozumienia. Wydaje się, że wielu nadgorliwych proroków nie ma pojęcia, o czym mówi. Według badania przeprowadzonego wśród 400 dyrektorów w osiemdziesięciu dużych firmach notowanych na giełdzie 92 procent z nich nie posiada żadnego istotnego lub potwierdzonego doświadczenia w zakresie digitalizacji. Podobnie, kiedy Mark Zuckerberg został wezwany do złożenia zeznań przed członkami amerykańskiego Senatu i Izby Reprezentantów w sprawie najnowszej kontrowersji związanej z naruszeniem prywatności na Facebooku, największe wrażenie zrobiły nie jego przygotowane odpowiedzi, ale to, jak amerykańscy politycy mało wiedzą na temat nieprzejrzystego sposobu działania mediów społecznościowych. Gdy zasiadałem w Radzie Doradczej do Spraw Konsumenckich przy niemieckim Ministerstwie Sprawiedliwości i Ochrony Konsumentów, zajmowaliśmy się tym, jak sprawowany jest nadzór nad tajnymi algorytmami firm przygotowujących oceny potencjalnych kredytobiorców (ratingi kredytowe) przez instytucje odpowiedzialne za ochronę danych, których rolą jest dbanie o to, by algorytmy dawały wiarygodne wskaźniki zdolności kredytowej, wolne od dyskryminacji ze względu na płeć, rasę lub inne indywidualne cechy. Gdy największa firma przygotowująca ratingi kredytowe przedstawiła swój algorytm, władze przyznały, że nie dysponują wystarczającą wiedzą informatyczną i statystyczną do przeprowadzenia jego oceny. Ostatecznie firma sama przyszła władzom z pomocą, wyznaczając ekspertów, którzy napisali raport, a nawet opłacając ich honoraria. Wydaje się, że brak wiedzy jest regułą, a nie wyjątkiem w naszym świecie inteligentnych technologii. Musimy to jak najszybciej zmienić.
Paternalizm technologiczny
Paternalizm (od łacińskiego słowa pater oznaczającego ojca) jest poglądem, według którego pewna wybrana grupa ma prawo traktować innych ludzi jak dzieci, które powinny dobrowolnie poddać się jej autorytetowi. Historycznie paternalizm usprawiedliwiano w ten sposób, że panująca grupa została wybrana przez Boga, stanowi arystokratyczną elitę, posiada tajemną wiedzę lub niebywałe bogactwo. Ci, którzy podlegają jej władzy, uważani są za istoty niższe, gdyż na przykład są płci żeńskiej, mają odmienny kolor skóry, są ubodzy lub niewykształceni. W XX wieku paternalizm znalazł się w odwrocie po tym, jak ogromna większość ludzi uzyskała w końcu szansę na nauczenie się czytania i pisania, a rządy przyznały zarówno mężczyznom, jak i kobietom wolność słowa i poruszania się, a także prawo głosowania w wyborach. Dzięki tej rewolucji, której gorliwi zwolennicy byli wtrącani do więzienia, a nawet oddawali swoje życie, następne pokolenia – w tym nasze – mogły wziąć sprawy w swoje ręce. W XXI wieku jednak jesteśmy świadkami narodzin nowego paternalizmu korporacji, które wykorzystują maszyny do przewidywania i manipulowania zachowaniami ludzi, niezależnie od tego, czy oni się na to zgadzają, czy nie. Jego prorocy ogłaszają nawet nadejście nowego Boga – wszystkowiedzącej superinteligencji, znanej jako AGI (artificial general intelligence, sztuczna inteligencja ogólnego rodzaju), która ma przewyższyć ludzki mózg pod każdym względem. Do czasu jej nadejścia mamy podporządkować się jej prorokom.
Technokratyzm jest przekonaniem, że wszelkie problemy społeczne można rozwiązać przez zastosowanie odpowiedniego algorytmu. Paternalizm technologiczny stanowi jego naturalną konsekwencję – rządy algorytmów. Nie musi opierać się na fikcyjnej superinteligencji; oczekuje od nas tylko tego, że pozwolimy korporacjom i rządom rejestrować to, gdzie przebywamy, co robimy i z kim się kontaktujemy, sekunda po sekundzie, a także że zaufamy, iż dzięki tym zapisom świat stanie się lepszy. Według słów byłego szefa Google’a Erica Schmidta: „Naszym celem jest doprowadzenie do tego, by użytkownicy Google’a mogli zadawać pytania w rodzaju: Co powinienem zrobić jutro? lub Jaka praca będzie dla mnie najlepsza?”. Niemała liczba popularnych pisarzy usiłuje wzbudzić nasz respekt przed paternalizmem technologicznym, opowiadając historie, które co najmniej oszczędnie gospodarują prawdą. Co bardziej zaskakujące, nawet niektórzy wybitni badacze nie widzą granic zastosowań AI i twierdzą, że ludzki mózg to jedynie niezbyt doskonały komputer i tam, gdzie tylko się da, należy zastępować ludzi przez algorytmy. AI powie nam, co mamy robić, a my powinniśmy tylko słuchać i wykonywać polecenia. Musimy tylko trochę poczekać, aż AI bardziej się rozwinie. Co zastanawiające, nigdy nie mówi się, że również ludzie powinni bardziej się rozwinąć.
Pisząc tę książkę, chciałem, by czytelnicy otrzymali realistyczny pogląd na to, co może osiągnąć sztuczna inteligencja, i jak jest ona wykorzystywana do wywierania na nas wpływu. Nie potrzebujemy nowego paternalizmu; było go zbyt wiele w minionych stuleciach. Niepotrzebna nam jest jednak również technologiczna panika, przy okazji upowszechniania się każdej przełomowej technologii. Kiedy wynaleziono pociągi, lekarze ostrzegali pasażerów przed możliwą śmiercią z powodu braku powietrza.Upowszechnienie radia zrodziło obawy, że nadmierne słuchanie może wyrządzać krzywdę dzieciom, które potrzebują wytchnienia, a nie jazzu. Zamiast strachu lub zachwytów, świat cyfrowy potrzebuje lepiej poinformowanych i krytycznych obywateli, którzy pragną zachować kontrolę nad swoim życiem.
Książka ta nie stanowi akademickiego wprowadzenia do AI lub jej poddziedzin, takich jak uczenie maszynowe lub Big Data. Mówi ona o naszych doświadczeniach ze sztuczną inteligencją: zaufaniu, zawodach, zrozumieniu, uzależnieniu oraz osobistych i społecznych przeobrażeniach. Została napisana dla szerokiego kręgu odbiorców jako przewodnik po wyzwaniach świata technologii i korzysta z wyników moich własnych badań między innymi nad podejmowaniem decyzji w warunkach niepewności, jakie prowadziłem w Instytucie Rozwoju Ludzkiego im. Maxa Plancka. Na kartach tej książki nie ukrywam moich osobistych poglądów na temat wolności i godności ludzkiej, lecz staram się trzymać ściśle faktów i pozwalam czytelnikowi wyrobić sobie własne opinie. Jestem głęboko przekonany, że ludzie nie są tak głupi i niezdolni do funkcjonowania jak często się zakłada – o ile tylko pozostają aktywni i korzystają z własnego mózgu, który rozwinął się w skomplikowanym procesie ewolucyjnym. Niebezpieczeństwo, że ludzie uwierzą w negatywną narrację o wyższości AI nad ludzką inteligencją i biernie pozwolą władzom lub maszynom „optymalizować” swoje życie na ich zasadach, staje się każdego dnia coraz poważniejsze i to ono szczególnie zmotywowało mnie do napisania tej książki. Podobnie jak moje poprzednie książki Gut Feelings i Risk Savvy, Zdrowy umysł w sieci algorytmów jest żarliwym wezwaniem do zachowania naszego wywalczonego w ciężkich zmaganiach dziedzictwa wolności osobistej i demokracji.
Obecnie mamy i w najbliższej przyszłości nadal będziemy mieli do czynienia z konfliktem dwóch systemów – autokratycznego i demokratycznego – który przypomina czasy zimnej wojny. W odróżnieniu jednak od tamtej epoki, w której broń jądrowa pozwalała utrzymać jakąś równowagę między obiema potęgami, technologia cyfrowa może łatwo przechylić szalę na korzyść systemów autokratycznych. Mieliśmy tego przykłady w czasie pandemii COVID-19, gdy niektórym autokratycznym państwom udało się zahamować rozprzestrzenianie wirusa za pomocą systemów ścisłej cyfrowej kontroli.
Nie będę w stanie omówić wszystkich aspektów związanych z rozległą dziedziną digitalizacji, ale przedstawię wybór tematów, które wyjaśniają ogólne zasady mające szersze zastosowanie, takie jak zasada stabilnego świata i błąd teksańskiego strzelca wyborowego omówione w rozdziale 2 oraz zasada przystosowania do AI i błąd rosyjskiego czołgu omówione w rozdziale 4. Jak czytelnik mógł zauważyć, posługuję się terminem AI, sztuczna inteligencja, w szerokim sensie, obejmującym wszelkie rodzaje algorytmów, które wykonują zadania ludzkiej inteligencji, ale tam, gdzie to konieczne, będę uwzględniał niezbędne różnice.
Każda kultura musi prowadzić rozmowę o przyszłym świecie, w którym ludzie pragnęliby żyć. Trudno spodziewać się jednej odpowiedzi. Istnieje jednak ogólne przesłanie, które daje się zastosować do wszelkich wizji. Pomimo – albo właśnie z powodu – innowacji technologicznej bardziej niż kiedykolwiek musimy polegać na naszych mózgach.
Zaczniemy od zagadnienia bliskiego sercu każdego – poszukiwania prawdziwej miłości – oraz od tajnych algorytmów, które są tak proste, że każdy jest w stanie je zrozumieć.