Facebook - konwersja
Przeczytaj fragment on-line
Darmowy fragment

  • nowość

AI zmieni wszystko albo i nie - ebook

Wydawnictwo:
Format:
EPUB
Data wydania:
19 listopada 2025
39,90
3990 pkt
punktów Virtualo

AI zmieni wszystko albo i nie - ebook

Aby zrozumieć AI musimy oddzielić rzeczywistość od marketingu, technologię od mitologii oraz fakty od krzykliwych haseł. „Książka stanowi szeroki przegląd wielu zagadnień związanych z AI, pozwoli Wam zrozumieć obecną sytuację, najnowsze osiągnięcia, nadzieje i zagrożenia, bez wdawania się w jałowe dyskusje. Napisana jest na poziomie popularnym, ale zawiera też wiele odnośników, pozwalających głębiej poznać poruszane w niej tematy.” Prof. Włodzisław Duch, Katedra Informatyki Stosowanej, WFAiIS UMK „Świetna pozycja dla miłośników sztucznej inteligencji – z przymrużeniem oka, lecz pełna solidnej wiedzy. Książka ta stanowi przystępne wprowadzenie do świata sztucznej inteligencji, które zachwyci zarówno entuzjastów, jak i osoby dopiero zaczynające swoją przygodę z AI.” Remek Kinas, współtwórca polskiego modelu językowego Bielik O autorze: dr inż. Filip Sala – fizyk, optoelektronik, programista. W latach 2013–2023 adiunkt naukowo-dydaktyczny Wydziału Fizyki Politechniki Warszawskiej.

Ta publikacja spełnia wymagania dostępności zgodnie z dyrektywą EAA.

Kategoria: Popularnonaukowe
Zabezpieczenie: Watermark
Watermark
Watermarkowanie polega na znakowaniu plików wewnątrz treści, dzięki czemu możliwe jest rozpoznanie unikatowej licencji transakcyjnej Użytkownika. E-książki zabezpieczone watermarkiem można odczytywać na wszystkich urządzeniach odtwarzających wybrany format (czytniki, tablety, smartfony). Nie ma również ograniczeń liczby licencji oraz istnieje możliwość swobodnego przenoszenia plików między urządzeniami. Pliki z watermarkiem są kompatybilne z popularnymi programami do odczytywania ebooków, jak np. Calibre oraz aplikacjami na urządzenia mobilne na takie platformy jak iOS oraz Android.
ISBN: 9788397830615
Rozmiar pliku: 5,4 MB

FRAGMENT KSIĄŻKI

Słowo wstępne

Rozwój sztucznej inteligencji w ostatnich latach sprawił, że technologia ta zagościła niemal wszędzie. Od przedsiębiorstw, przez instytucje państwowe, media społecznościowe, aż po urządzenia, takie jak smartfony czy komputery. Gdzie nie spojrzeć – sztuczna inteligencja. Do tego wszechobecne hasła o zagładzie świata, utracie pracy lub wykrzykiwanie o wspaniałościach tej technologii, która zbawi ludzkość. Powstał niebywały szum medialny, w którym trudno się odnaleźć. Najgłośniej krzyczą celebryci i influencerzy, którzy powtarzają półprawdy i umacniają stereotypy. Z tego wszechogarniającego chaosu informacyjnego zrodził się pomysł na niniejszą książkę. Moim celem jest przedstawienie rzetelnych informacji na temat sztucznej inteligencji. Oddzielenie rzeczywistości od marketingu, technologii od mitologii oraz faktów od krzykliwych haseł. Chciałbym w tym miejscu również podziękować Remigiuszowi Kinasowi za cenne uwagi, które przyczyniły się do podniesienia jakości książki.

Już teraz wielu autorów książek korzysta ze sztucznej inteligencji w procesie tworzenia. Gdybyśmy tylko wiedzieli, dlaczego ja, pisząc te słowa, klepię w klawiaturę. Zapewne dlatego, że chcę przekazać swoje spojrzenie na sztuczną inteligencję i przedstawić własne doświadczenia, a nie ogólne prawdy i uśrednione poglądy. Dlatego też ani jedno zdanie w tej książce nie zostało napisane przez sztuczną inteligencję. Jedynymi treściami wygenerowanymi są dwa zdjęcia poglądowe oraz poniższy rysunek. W każdym przypadku jest to wyraźnie zaznaczone w opisie pod rysunkiem.

Spójrzmy jeszcze na strukturę niniejszej książki. Rozdziały 1–3 to ogólny opis sztucznej inteligencji, omówienie, czym jest, a czym nie jest ta technologia, skąd się wzięła, jakie są jej początki i historia oraz kto trzęsie teraz całym tym biznesem. Rozdziały 4–6 to ogólne omówienie pozytywnych i negatywnych aspektów sztucznej inteligencji. W rozdziale 7 pochylam się nad problemem wpływu sztucznej inteligencji na środowisko naturalne, ponieważ może być to niebagatelny problem, a sprawa wcale nie jest oczywista. Kolejne rozdziały to rozważania nad wpływem sztucznej inteligencji na mózg człowieka oraz krótka dyskusja na temat obowiązujących regulacji prawnych. W rozdziałach 10–13 analizuję problemy rynku pracy. Staram się odpowiedzieć na pytania o to, czy sztuczna inteligencja nas zastąpi i jak wpłynie na nasze życie zawodowe. Rozdział 14 to analiza sytuacji Polski w kontekście sztucznej inteligencji oraz perspektywy rozwoju tej technologii w naszym kraju. Miłej lektury.

Warszawa, 14 listopada 2025 r.

Rysunek wygenerowany przez model ChatGPT-4o1 Czym jest sztuczna inteligencja?

Zanim zaczniemy mówić o zagrożeniach, problemach, jak i pozytywnych stronach sztucznej inteligencji, powinniśmy zastanowić się, czym w zasadzie jest sztuczna inteligencja, w skrócie SI, a z angielskiego AI (ang. _Artificial Intelligence_). Dla jednych osób to narzędzie, które automatyzuje niektóre zadania, dla innych technologia, która zabierze im pracę, a dla jeszcze innych biegające po ulicach mordercze roboty rujnujące naszą cywilizację. Wyobrażenia i odbiór sztucznej inteligencji są bardzo różne, od hurraoptymizmu, przez obojętność, aż po chęć zakazywania wszystkiego, co związane z AI. Aby się w tym wszystkim odnaleźć, powinniśmy trzymać się faktów, a nie emocjonalnych przekazów niemających poparcia w rzeczywistości.

Zacznijmy od tego, że sztuczna inteligencja to pojęcie bardzo pojemne, które nie posiada jednej ścisłej definicji. Możemy powiedzieć, że urządzenia i programy komputerowe zdolne do wykonywania pewnych czynności na podstawie obserwacji, analizy oraz uczenia się to sztuczna inteligencja. Jest to zatem technologia, która umożliwia maszynom wykonywanie czynności w sposób zbliżony do tego, w jaki wykonują je ludzie. Dawniej systemy oparte na prostych regułach, jak chociażby diagnozowanie chorób na podstawie objawów, można było nazwać sztuczną inteligencją. Algorytm po prostu analizował objawy i na podstawie z góry zaprogramowanych reguł stawiał diagnozę i sugerował lek. Systemy takie nazywa się systemami eksperckimi, ponieważ symulują działanie ekspertów z danej dziedziny, w tym przypadku lekarzy. Innym przykładem może być sterownik klimatyzacji w budynku, który w zależności od temperatury ochładza lub podgrzewa pomieszczenie. Również inteligentny system sterowania ruchem w mieście można nazwać sztuczną inteligencją, ponieważ w zależności od pory dnia oraz informacji z czujników i kamer w odpowiedni sposób steruje ruchem ulicznym. Są to jednak bardzo proste przykłady. Chociaż systemy takie dawniej nazywano sztuczną inteligencją, to obecnie coraz częściej uznaje się je za proste i powszechne, a co za tym idzie – odbiera się im miano sztucznej inteligencji. Dobrym podsumowaniem mogą być słowa Johna McCarthy’ego: „Gdy coś zaczyna działać, nikt już nie nazywa tego sztuczną inteligencją”. Jednak nadal mianem sztucznej inteligencji moglibyśmy nazwać wyszukiwarki internetowe, urządzenia oraz programy do gry w szachy, systemy do rozpoznawania głosu oraz obrazów, chatboty czy też asystentów, takich jak Google Assistant czy Alexa. Są to oczywiście tylko nieliczne przykłady sztucznej inteligencji, która otacza nas od dość dawna.

---- ----------------------------------------------------------------------------------------------------------------------------------
SZTUCZNA INTELIGENCJA to technologia, która daje maszynom możliwości analizy, uczenia się i podejmowania decyzji na wzór ludzki.
---- ----------------------------------------------------------------------------------------------------------------------------------

O tym, jak to się wszystko zaczęło Niektórym wydaje się, że sztuczna inteligencja pojawiła się w ostatnich latach, tak nagle, niczym królik wyskakujący z kapelusza. Tyle tylko, że ten królik w tym kapeluszu siedział już od wielu wieków, a przez ostatnie kilkadziesiąt lat wystawały mu całkiem wyraźnie uszy. Dla wielu osób sztuczna inteligencja nie jest niczym nowym. Naturalnie, że skala, rozmach i osiągnięcia ostatnich lat budzą podziw, jednak nie jest to coś niespodziewanego. To raczej konsekwencja badań naukowych, które swój początek miały wiele wieków temu. Początki idei oraz podstaw matematycznych sztucznej inteligencji sięgają XVII wieku. Mam tu na myśli prace Gottfrieda Wilhelma Leibniza (1646 – 1716) nad równaniami różniczkowymi i regułą łańcuchową, która kilkaset lat później została użyta w metodzie wstecznej propagacji, będącej podstawą metod uczenia wielowarstwowych sieci neuronowych. Leibniz pracował również nad konstrukcją maszyn obliczeniowych oraz logiką formalną i symboliczną. Uważał także, że ludzki umysł można modelować jako system logiczny oraz jako taki odtworzyć przy użyciu maszyn. Jego idee wybiegały daleko w przyszłość. Kiedyś powiedział nawet, że „Nie przystoi, aby wspaniali ludzie tracili godziny, niczym niewolnicy na pracy obliczeniowej, którą można by przydzielić komukolwiek innemu, gdyby tylko używano maszyn”. Leibniz sugerował, że gdyby tylko istniała odpowiednia maszyna, to obliczenia mogłaby wykonywać dowolna osoba, a nie tylko naukowiec. Jak prorocze stają się jego słowa, gdy spojrzymy na dzisiejszą sztuczną inteligencję. Teraz każdy może programować, tworzyć grafiki i obrazy czy pisać teksty. Obliczenia też przestały być już domeną naukowców, ale to akurat stało się już jakiś czas temu. Wróćmy jednak do historii sztucznej inteligencji. Po dokonaniach Leibniza przyszedł czas na odkrycia związane z regresją liniową, a na początku XX wieku pojawił się model Isinga, który chociaż był modelem fizycznym opisującym magnetyzm, to lata później stał się inspiracją dla sieci Hopfielda. Dopiero w 1943 roku Warren McCulloch (1898 – 1969) oraz Walter Pitts (1923 – 1969) przedstawili matematyczny model sztucznej sieci neuronowej. Natomiast sama nazwa „sztuczna inteligencja” została zaproponowana w 1955 roku przez Johna McCarthy’ego (1927 – 2011) i stała się częścią nazwy zorganizowanych przez niego w 1956 roku warsztatów w Kolegium Dartmouth w New Hampshire. Spotkanie to stało się zalążkiem nowej dziedziny. Późniejsze przełomy to między innymi metody Donalda Oldinga Hebba (1904 – 1985) oraz pierwsza fizyczna realizacja sieci neuronowej, czyli skonstruowany w 1957 roku perceptron Franka Rosenblatta (1928 – 1971). Warto zauważyć, że obecnie wykorzystywane modele i algorytmy są zbieżne ze spojrzeniem naukowców na sztuczną inteligencję z lat 40. i 50. XX wieku. Pokazuje to wielkie wyczucie i wizjonerstwo tamtych badaczy, jak również wskazuje na to, że obecnie rozwijana technologia nie pojawiła się nagle, ale pracowano nad nią od dawna. W 1982 roku Joseph Hopfield (ur. 1933), laureat nagrody Nobla w dziedzinie fizyki z 2024 roku, przedstawił nową koncepcję sieci. Cztery lata później, w 1986 roku, Geoffrey Everest Hinton (ur. 1947) będący również laureatem nagrody Nobla z fizyki i uważany za ojca sztucznej inteligencji, popularyzuje metodę wstecznej propagacji do uczenia sieci wielowarstwowych. Sama metoda w postaci obecnie używanej została przedstawiona w 1970 roku przez Seppo Linnainmaa (ur. 1945). Jako ciekawostkę można tutaj dodać, jak niewiele brakowało, aby Hinton przestał zajmować się sieciami neuronowymi. Gdy będąc jeszcze doktorantem rozpoczął badania w tym kierunku, jego promotor usilnie go do tego zniechęcał sugerując, że to zrujnuje jego karierę naukową. Jak pokazuje historia, nie tylko nie zrujnowało, ale i doprowadziło na szczyty osiągnięć naukowych. W latach 80. XX wieku pojawiły się konwolucyjne sieci neuronowe (CNN, ang. _Convolutional Neural Networks_), często stosowane w tak zwanym widzeniu maszynowym, czyli na przykład w analizie obrazów i rozpoznawaniu twarzy. Podejmowano też próby ich używania w przetwarzaniu języka naturalnego (NLP, ang. _Natural Language Processing_), czyli takiego, jakim posługujemy się na co dzień. Sieciami konwolucyjnymi zajmował się między innymi Yann André LeCun (ur. 1960), którego prace zapoczątkowane już w latach 90. XX wieku miały wielki wpływ na takie zagadnienia, jak rozpoznawanie tekstu czy obrazów. Jako ciekawostkę można wspomnieć, że miał on również udział w tworzeniu popularnego formatu plików DjVu, służącego do zapisu i kompresji skanowanych dokumentów. Kolejnym krokiem były rekurencyjne sieci neuronowe (RNN, ang. _Recurrent Neural Networks_), które stały się podstawowymi narzędziami do przetwarzania języka naturalnego. Jedną z gałęzi rozwoju sztucznej inteligencji opartej na sieciach neuronowych jest również uczenie głębokie (ang. _deep learning_). Termin ten odnosi się do sieci neuronowych posiadających wiele warstw. W okolicach 2009 roku połączenie sieci rekurencyjnych, głębokiego uczenia, jak również rozpowszechnienie się odpowiedniego hardware’u pod postacią kart graficznych (GPU, ang. _Graphics Processing Unit_) zapoczątkowały gwałtowny rozwój sztucznej inteligencji. Sieci neuronowe zaczęto również uczyć na coraz większych zbiorach danych, co doprowadziło do dalszych osiągnięć w takich dziedzinach, jak rozpoznawanie obrazów i mowy oraz przetwarzanie języka naturalnego. Chociaż pojęcie generatywnej sztucznej inteligencji, czyli GenAI (ang. _Generative Artificial Intelligence_) przewijało się już od lat 90. XX wieku i tyczyło się modeli zdolnych do planowania i tworzenia pewnych treści, to poważny rozwój nastąpił dopiero około roku 2014 wraz z powstaniem generatywnych sieci przeciwstawnych (GAN, ang. _Generative Adversarial Network_). Umożliwiały one między innymi generowanie obrazów i zdjęć. W roku 2015 pojawiły się pierwsze modele dyfuzyjne (ang. _diffusion models_), które w kilka lat częściowo wyparły sieci GAN¹. Przykładami takich modeli są chociażby stworzony w 2021 roku przez firmę OpenAI model DALL-E oraz Stable Diffusion zaprezentowany przez CompVis. Jak widzimy jest to kolejny dowód na to, że generatywna sztuczna inteligencja nie powstała w ostatnich latach, a jej szybki rozwój rozpoczął się już przeszło dekadę temu. W roku 2017 nastąpił kolejny wielki przełom, który miał już bezpośredni wpływ na sztuczną inteligencję, jaką znamy dzisiaj. Wyniki badań zostały opisane przez pracowników firmy Google w publikacji, o wdzięcznym tytule _Attention Is All You Need_², czyli „Wszystko czego potrzebujesz to uwaga”, w której przedstawili koncepcję transformatorów. Początkowo były to wstępnie przeszkolone transformatory PT (ang. _Pre-trained Transformer_), które nie miały możliwości generowania nowych treści, jednak dobrze radziły sobie z tłumaczeniami oraz analizą tekstów. Jednym z przykładów może być stworzony przez firmę Google model BERT. Wkrótce jednak powstały bardziej wszechstronne modele, których nazwę słyszał chyba każdy z nas, a mianowicie GPT (ang. _Generative Pre-trained Transformer_). Są to transformatory, które nie tylko zostały wstępnie przetrenowane, ale mają również możliwość generowania treści, na przykład tekstów czy kodów źródłowych. Na bazie transformatorów i głębokiego uczenia powstały duże modele językowe LLM (ang. _Large Language Model_). Są to modele uczone na bardzo dużych zbiorach danych i zdolne do wykonywania przeróżnych zadań. Początkowo służyły do tłumaczenia i generowania tekstów, jednak szybko stały się podstawą analizy danych czy przetwarzania tekstu na obraz, dźwięk lub materiał wideo. Modele te stały się uniwersalnym narzędziem mogącym operować na niemal dowolnym typie danych. To właśnie transformatory oparte na sieciach neuronowych i zbudowane na nich duże modele językowe odgrywają teraz główną rolę w dziedzinie sztucznej inteligencji. Skoro same sieci neuronowe stały się wręcz synonimem sztucznej inteligencji, czy oznacza to, że nie istnieją inne modele? Oczywiście, że nie. Oto kilka przykładów wraz z popularnymi zastosowaniami: maszyny wektorów nośnych (rozpoznawanie i klasyfikacja obrazów), algorytmy genetyczne (optymalizacja, planowanie), drzewa decyzyjne (wspomaganie podejmowania decyzji), algorytmy oparte na wiedzy czy modele bazujące na logice rozmytej (sterowanie w automatyce przemysłowej czy systemy rekomendacji). Obecnie podejmuje się także próby połączenia sieci neuronowych i analizy symbolicznej. W dalszej części książki będziemy jednak patrzeć na sztuczną inteligencję głównie przez pryzmat sztucznych sieci neuronowych, wielkich modeli językowych i transformatorów generatywnych.

Sztuczna sieć neuronowa Ponieważ sztuczne sieci neuronowe są podstawą obecnie rozwijanych modeli sztucznej inteligencji, to wypadałoby powiedzieć, czym one właściwie są. Sztuczna sieć neuronowa to, mówiąc kolokwialnie, pewien matematyczny model, który wzorowany jest na zasadzie działania mózgu ludzi i zwierząt, a zatem rzeczywistych sieci neuronowych. Należy wyraźnie podkreślić, że jest to model uproszczony, który jedynie czerpie inspirację z działania żywych komórek i nie uwzględnia wielu biologicznych aspektów działania neuronów. Do symulowania struktur biologicznych stosuje się bardziej zaawansowane modele, jak impulsowe sieci neuronowe SNN (ang. _Spiking Neural Network_) czy model Hodgkina–Huxleya. Natomiast w przypadku sztucznej inteligencji używa się zazwyczaj modeli uproszczonych.

Żeby zrozumieć działanie sztucznej sieci neuronowej spójrzmy najpierw na jej budowę. Każda taka sieć posiada węzły, które są uproszczonym matematycznym odpowiednikiem neuronów mózgowych. Dlatego też terminy węzeł i neuron, w odniesieniu do sztucznej sieci neuronowej, stosuje się często zamiennie. Każdy neuron może przyjmować pewne wartości liczbowe, czyli mówiąc inaczej przyjmować pewien stan. W najprostszym przypadku będą to stany zero lub jeden. Neurony połączone są między sobą tworząc sieć. Zazwyczaj jednak nie są one połączone każdy z każdym. W pełni połączone sieci neuronowe należą do rzadkości. Każde połączenie posiada tak zwaną wagę, która określa jak silnie połączone są ze sobą dwa węzły. To właśnie w tych połączeniach i w ich wagach zapisana jest informacja. W procesie uczenia sieci neuronowej zmieniane są wartości odpowiednich wag połączeń. Sam neuron nie przechowuje trwale informacji. Jego stan zmienia się oczywiście w trakcie działania sieci i tylko w tym sensie przechowuje informację w sposób krótkotrwały, jednak to właśnie połączenia i ich wagi są kwintesencją działania sieci neuronowej.

---- ----------------------------------------------------------------------------------------------------------------------------------------------------------------------
Informacja zapisana jest w wagach połączeń pomiędzy neuronami. Same neurony przechowują informację tylko krótkotrwale i mają jedynie wpływ na działanie samej sieci.
---- ----------------------------------------------------------------------------------------------------------------------------------------------------------------------

Spójrzmy teraz na samo działanie sztucznej sieci neuronowej. Zacznijmy od bardzo prostego przykładu. Wyobraźmy sobie, że każdy neuron reprezentowany jest przez niewielką żarówkę, a połączenia neuronów przez przewody elektryczne. Neuronów, czyli w naszym przypadku żarówek, jak i ich połączeń jest bardzo wiele. Na początku jedne żarówki się świecą, a inne nie. W trakcie działania sieci poszczególne żarówki zapalają się i gasną, tak jak neurony, które przyjmują różne wartości. W pewnym momencie dochodzimy do stanu sieci, który uznajemy za odpowiedź. Reprezentują go zapalone i zgaszone żarówki. Omówiony schemat jest oczywiście tylko prostym przykładem przybliżającym ideę działania sztucznej sieci neuronowej, w której neurony przyjmują tylko dwa stany. W rzeczywistości neurony mogą przyjmować dowolne stany, nie tylko binarne. Nie mówiąc już o tym, że samych modeli i przeróżnych rodzajów sieci neuronowych istnieje bardzo wiele, w tym, jak już wspominaliśmy perceptrony, sieci jednokierunkowe, rekurencyjne czy konwolucyjne.

Inną analogią, która może przybliżyć nam działanie sieci neuronowej, jest wyobrażenie sobie krajobrazu, dolin, pagórków i szczytów, czyli terenu o przeróżnym ukształtowaniu, który reprezentuje sieć neuronową. Do tego krajobrazu wrzucamy dużą kolorową piłkę, która jest niczym innym jak stanem sieci neuronowej. Początkowo umieszczamy piłkę w losowym miejscu. Na przykład na zboczu góry. Wraz z działaniem sieci piłka stacza się w dół, podskakuje i odbija. W końcu może dotrzeć do jakiejś doliny lub zatrzymać się w niewielkim zagłębieniu terenu. Ten stabilny stan, nazywany atraktorem, jest odpowiedzią sieci neuronowej. Atraktor nie zawsze jest stanem stabilnym, może być to pewna trajektoria. W takim przypadku piłka na przykład kręci się w kółko w zagłębieniu. Wspomniany krajobraz odpowiada natomiast budowie naszej sieci. Podczas procesu uczenia zmieniają się połączenia sieci neuronowej, ich wagi, a co za tym idzie zmienia się krajobraz. Pojawiają się nowe góry, przeobrażeniu podlegają pagórki i doliny. Oczywiście rzeczywistość działania sieci neuronowej jest bardziej skomplikowana, jednak ten prosty przykład może nam uzmysłowić ogólny sposób jej działania. To nie jest tylko model obliczeniowy, to jest pewien układ, który ewoluuje w czasie, tak jak piłka staczająca się po zboczu.

Transformatory W roku 2017, wraz z pojawieniem się wspomnianej już wcześniej publikacji „Attention Is All You Need”, do przestrzeni sztucznych sieci neuronowych wkradł się nowy termin – transformator (ang. _transformer_). Odkrycie to mocno zamieszało w badaniach naukowych i dało podstawy do stworzenia dzisiejszych modeli językowych, takich jak BERT, GPT czy Llama. Transformator w kontekście sztucznych sieci neuronowych odnosi się do sposobu ich działania. W przypadku RNN, czyli rekurencyjnych sieci neuronowych, przetwarzanie danych było sekwencyjne. Operacje były wykonywane krok po kroku. Na przykład zdanie analizowane było słowo po słowie. W przypadku transformatorów tekst analizowany jest jako całość, co przyspiesza uczenie. Model wybiera słowa istotne do zrozumienia kontekstu i przydziela im wyższe wagi, czyli poświęca im więcej uwagi (stąd _attention_). Słowa mniej ważne w danym kontekście otrzymują wagi niższe. Następnie model buduje dynamiczne połączenia pomiędzy istotnymi słowami i analizuje ich zależności. W przypadku transformatorów nawet bardzo odległe słowa mogą być ze sobą powiązane. Natomiast tworzenie przez model odpowiedzi opiera się na przewidywaniu prawdopodobieństwa wystąpienia następnego słowa.

---- ------------------------------------------------------------------------------------------------------------------------------------
Mechanizm „uwagi” (_attention_) pokazuje modelowi, które fragmenty są istotne i na czym należy się skupić, aby zrozumieć kontekst.
---- ------------------------------------------------------------------------------------------------------------------------------------

Zauważono również, że wraz z uczeniem modeli i dostarczaniem im coraz większych zbiorów danych ich możliwości znacząco się zwiększają. Mówiąc kolokwialnie, jakość działania modelu rośnie wraz z wielkością danych, na których był uczony oraz liczbą jego parametrów. Modele zatem można skalować. Dlatego też kolejne wersje modeli językowych stają się coraz większe zarówno pod względem liczby parametrów, jak i ilości danych.

Niektórzy w języku polskim posługują się terminem „transformer” zamiast „transformator”, jednak moim zdaniem to drugie określenie lepiej oddaje naturę tego mechanizmu. Tak jak transformator elektryczny przekształca napięcie zmienne, tak transformator w modelach językowych przekształca dane wejściowe, warstwa po warstwie w celu uzyskania danych wyjściowych.

Uczenie maszynowe W kontekście sztucznej inteligencji często pojawia się termin uczenie maszynowe (ang. _machine learning_). Jest to dziedzina polegająca na uczeniu systemu przy użyciu zbioru danych, zamiast tworzenia konkretnych reguł. Mówiąc potocznie, nie ustalamy zasad, na podstawie których ma działać model, ale dajemy mu jedynie zbiór danych i mówimy, że ma się na jego podstawie uczyć. Może być to model liniowy, sieć neuronowa czy drzewo decyzyjne. Danymi mogą być na przykład teksty, liczby, obrazy czy filmy. Istnieje kilka popularnych metod uczenia:

Ważnym aspektem uczenia modeli jest tzw. generalizacja. Chcemy bowiem, aby model był w stanie rozwiązywać nie tylko problemy, których rozwiązania znajdują się w dostarczonych danych, ale także takie, z którymi się wcześniej nie spotkał. Na przykład, jeżeli pokażemy mu zdjęcia kotów różnej rasy, o różnym umaszczeniu oraz rozmiarach, to chcemy, aby model rozpoznał na zdjęciu kota, pomimo iż będzie miał on inny wygląd niż koty na zdjęciach, na podstawie których trenowano model. Dobrze wykonana generalizacja polega na tym, że model nie zapamiętuje danych, w tym przypadku zdjęć, tylko uczy się schematów, tak aby móc klasyfikować dane, z którymi się wcześniej nie spotkał. Uczenie maszynowe to bardzo powszechnie wykorzystywana technika, która stała się podstawą większości dzisiejszych modeli sztucznej inteligencji.

---- ---------------------------------------------------------------------------------------------------------------------------------
Model nie zapamiętuje danych treningowych, a jedynie uczy się na ich podstawie. Zapamiętuje zależności i schematy, a nie treść.
---- ---------------------------------------------------------------------------------------------------------------------------------

Gdy mówię o tym, że model nie zapamiętuje danych treningowych, mam na myśli ich standardowy sposób działania. Nie oznacza to, że model nie może zwrócić odpowiedzi, która jest bardzo podobna lub identyczna z danymi treningowymi. Może się tak stać przy odpowiednio spreparowanych zapytaniach, treściach, które występowały wielokrotnie w danych treningowych lub w przypadku popularnych sformułowań. Są to jednak przypadki rzadkie.
mniej..

BESTSELLERY

Menu

Zamknij