Facebook - konwersja
Czytaj fragment
Pobierz fragment

Wykłady z informatyki. Wstęp do informatyki - ebook

Data wydania:
1 stycznia 2017
Format ebooka:
EPUB
Format EPUB
czytaj
na czytniku
czytaj
na tablecie
czytaj
na smartfonie
Jeden z najpopularniejszych formatów e-booków na świecie. Niezwykle wygodny i przyjazny czytelnikom - w przeciwieństwie do formatu PDF umożliwia skalowanie czcionki, dzięki czemu możliwe jest dopasowanie jej wielkości do kroju i rozmiarów ekranu. Więcej informacji znajdziesz w dziale Pomoc.
Multiformat
E-booki w Virtualo.pl dostępne są w opcji multiformatu. Oznacza to, że po dokonaniu zakupu, e-book pojawi się na Twoim koncie we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu.
, MOBI
Format MOBI
czytaj
na czytniku
czytaj
na tablecie
czytaj
na smartfonie
Jeden z najczęściej wybieranych formatów wśród czytelników e-booków. Możesz go odczytać na czytniku Kindle oraz na smartfonach i tabletach po zainstalowaniu specjalnej aplikacji. Więcej informacji znajdziesz w dziale Pomoc.
Multiformat
E-booki w Virtualo.pl dostępne są w opcji multiformatu. Oznacza to, że po dokonaniu zakupu, e-book pojawi się na Twoim koncie we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu.
(2w1)
Multiformat
E-booki sprzedawane w księgarni Virtualo.pl dostępne są w opcji multiformatu - kupujesz treść, nie format. Po dodaniu e-booka do koszyka i dokonaniu płatności, e-book pojawi się na Twoim koncie w Mojej Bibliotece we wszystkich formatach dostępnych aktualnie dla danego tytułu. Informacja o dostępności poszczególnych formatów znajduje się na karcie produktu przy okładce. Uwaga: audiobooki nie są objęte opcją multiformatu.
czytaj
na tablecie
Aby odczytywać e-booki na swoim tablecie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. Bluefire dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na czytniku
Czytanie na e-czytniku z ekranem e-ink jest bardzo wygodne i nie męczy wzroku. Pliki przystosowane do odczytywania na czytnikach to przede wszystkim EPUB (ten format możesz odczytać m.in. na czytnikach PocketBook) i MOBI (ten fromat możesz odczytać m.in. na czytnikach Kindle).
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
czytaj
na smartfonie
Aby odczytywać e-booki na swoim smartfonie musisz zainstalować specjalną aplikację. W zależności od formatu e-booka oraz systemu operacyjnego, który jest zainstalowany na Twoim urządzeniu może to być np. iBooks dla EPUBa lub aplikacja Kindle dla formatu MOBI.
Informacje na temat zabezpieczenia e-booka znajdziesz na karcie produktu w "Szczegółach na temat e-booka". Więcej informacji znajdziesz w dziale Pomoc.
Czytaj fragment
Pobierz fragment
64,00

Wykłady z informatyki. Wstęp do informatyki - ebook

Publikacja przeznaczona jest głównie dla studentów pierwszego roku kierunków informatycznych, ale może zainteresować również słuchaczy wszystkich innych kierunków studiów, mających podstawy informatyki w programach oraz uczniów klas informatycznych szkół średnich.
To znakomity podręcznik dla wszystkich, którzy chcą poznać podstawowe pojęcia z dziedziny informatyki.
Dzięki książce Czytelnik pozna:
fundamentalne i niezmiennie aktualne pojęcia informatyki, filar najważniejszego działu informatyki – algorytmiki,   wspólne podstawy wszystkich języków programowania.   
Dowie się:
czym naprawdę jest informacja i jak ją mierzyć, jak naprawdę liczą komputery, dlaczego komputery zawsze będą omylne, jak przekazać komputerowi nawet najbardziej skomplikowane wzory, dlaczego komputery używając wyłącznie niepodzielnych bitów potrafią wykonywać obliczenia na ułamkach, jak zapisywać algorytmy bez znajomości programowania, co łączy języki programowania komputerów z językami naturalnymi.    
Przekonaj się, że wszystkie komputery są ideowo tym samym prostym urządzeniem.

Kategoria: Informatyka
Zabezpieczenie: Watermark
Watermark
Watermarkowanie polega na znakowaniu plików wewnątrz treści, dzięki czemu możliwe jest rozpoznanie unikatowej licencji transakcyjnej Użytkownika. E-książki zabezpieczone watermarkiem można odczytywać na wszystkich urządzeniach odtwarzających wybrany format (czytniki, tablety, smartfony). Nie ma również ograniczeń liczby licencji oraz istnieje możliwość swobodnego przenoszenia plików między urządzeniami. Pliki z watermarkiem są kompatybilne z popularnymi programami do odczytywania ebooków, jak np. Calibre oraz aplikacjami na urządzenia mobilne na takie platformy jak iOS oraz Android.
ISBN: 978-83-01-19604-2
Rozmiar pliku: 11 MB

FRAGMENT KSIĄŻKI

1. Wprowadzenie

1.1. Informacja

Zasadniczym tematem naszych rozważań jest informatyka, jednak nawet nikła wiedza o informatyce, wywiedziona jedynie z pobieżnej analizy użytego słowa, sugeruje związek pojęcia informatyka z pojęciem informacja. Dlatego, by zajmować się informatyką, konieczne jest przybliżenie bardziej podstawowego pojęcia informacji. Na początek spróbujmy zorientować się w zasobach najpopularniejszego obecnie źródła wiedzy – polskojęzycznej Wikipedii.

----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Informacja (łacińskie informatio – przedstawienie, wizerunek; informare – kształtować, przedstawiać) – termin interdyscyplinarny, definiowany różnie w różnych dziedzinach nauki; najogólniej – właściwość pewnych obiektów, relacja między elementami zbiorów pewnych obiektów, której istotą jest zmniejszanie niepewności (nieokreśloności).
----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Doceniając wysiłek autora hasła w pokonaniu trudności wynikających z nadmienionej interdyscyplinarności, nie sposób pominąć nadużycia słowa „pewnych”, w żaden sposób nieprzybliżającego czytelnika do rozumienia pojęcia informacji. Jednakże istota „informatycznego” rozumienia informacji zawarta jest w ostatnim zdaniu, pozwalającym wskazać najważniejszą, najbardziej fundamentalną cechę informacji, niemal jej kwintesencję:

------------------------------------------------------------
Informację niesie każde zjawisko zmniejszające niepewność.
------------------------------------------------------------

Powyższa cecha nie stanowi jeszcze definicji, dlatego skoncentrujmy uwagę na opisanym w Wikipedii bardziej komputerowo/informatycznym rozumieniu informacji.

+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Można wyróżnić dwa podstawowe punkty widzenia informacji: |
| |
| 1) obiektywny – informacja oznacza pewną właściwość fizyczną lub strukturalną obiektów (układów, systemów), przy czym jest kwestią dyskusyjną czy wszelkich obiektów, czy jedynie systemów samoregulujących się (w tym organizmów żywych), |
| |
| 2) subiektywny – informacja istnieje jedynie względem pewnego podmiotu, najczęściej rozumianego jako umysł, gdyż jedynie umysł jest w stanie nadać elementom rzeczywistości znaczenie (sens) i wykorzystać je do własnych celów. |
+--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+

Pomińmy sztuczność powyższego podziału i wskazując na ponowne nadużycie słowa „pewien”, zrezygnujmy z subiektywnego punktu widzenia i skoncentrujmy uwagę na spojrzeniu obiektywnym. Rozwijając opis hasła informacja, otrzymujemy następującą definicję:

+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Informacja obiektywna – w cybernetyce i teorii informacji najbardziej ogólnie: każde rozpoznanie stanu układu odróżnialnego od innego stanu tego układu (stanu wyróżnionego); wyróżnienie pewnego stanu wyróżnionego (odróżnialnego) z repertuaru (zbioru stanów wyróżnionych); „...w pojęciu informacji istotne jest nie samo zaistniałe zjawisko, lecz jego stosunek do zbioru zdarzeń, które mogły były zaistnieć”. |
| |
| Można odróżnić: |
| |
| 1) informację swobodną, kiedy możliwości (stany, zdarzenia) uważamy za abstrakcyjne i nie przypisujemy im żadnego znaczenia fizycznego, |
| |
| 2) informację związaną, kiedy możliwości (stany, zdarzenia) mogą być interpretowane jako mikrostany (lub zbiory mikrostanów) pewnego układu fizycznego. |
| |
| Informacja zawarta w stanach układu kwantowego to informacja kwantowa. |
| |
| Bardziej szczegółowo można rozpatrywać informację: |
| |
| 1) w odniesieniu do procesu komunikowania się (systemu przekazywania informacji, toru sterowniczego), |
| |
| 2) w odniesieniu do budowy układu. |
+------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+

Powyższa definicja graniczy z pseudonaukowym pustosłowiem, a sytuację w umiarkowanym stopniu ratuje inne określenie zawarte w dalszej części opisu hasła:

+---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Informacja w odniesieniu do procesu komunikowania się |
| |
| Informacja jest to wyróżnienie przez pewien układ informacyjny (odbiorcę) ze swojego repertuaru pewnego stanu wyróżnionego (przez odróżnienie go od innego stanu |
| |
| wyróżnionego), odbijające wyróżnienie stanu wyróżnionego układu informacyjnego będącego nadawcą (Definicja 1). |
| |
| O informacji można tu mówić jedynie w odniesieniu do układu, który jest zdolny ją odebrać (odbić wyróżnienie stanu wyróżnionego nadawcy), i tylko w takim zakresie, w jakim jest zdolny. Różne układy informacyjne mogą odbijać (rozpoznawać) różne stany wyróżnione z różnych repertuarów. |
| |
| W tym znaczeniu informacja ma charakter relatywny i jest nazywana informacją względną. |
+---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+

Niestety, kolejny raz nadużyto słowa „pewien”, a ponadto częstość użycia słowa „wyróżnienie” w cytowanej definicji graniczy z absurdem.

Jednakże usunięcie zbędnych wystąpień słowa „wyróżnienie” prowadzi do poniższej definicji informacji, prostej i skrótowej.

-------------------------------------------------------------------------------------------------------------------
Informacja – zjawisko osiągnięcia przez źródło informacji szczególnego stanu spośród wszystkich możliwych stanów.
-------------------------------------------------------------------------------------------------------------------

Powyższa definicja, mimo że lapidarna, jest ogólniejsza od wcześniej cytowanych, a ponadto odzwierciedla fundamentalną cechę informacji – zmniejszenie niepewności. Jeżeli bowiem istnieje niepewność stanu źródła informacji, to właśnie osiągnięcie szczególnego stanu tę niepewność zmniejsza.

Dla pełności definicji dookreślenia wymaga jeszcze termin źródło informacji. Ponieważ każda dziedzina wiedzy uznaje wybrane pojęcia za pierwotne (niewymagające definicji, zrozumiałe z natury rzeczy), dlatego w ślad za większością źródeł i autorów za niemal pierwotne uznajmy pojęcie źródła informacji – poprzestając na intuicyjnym opisie, że źródłem informacji jest każde zjawisko cechujące się możliwością zmiany swojego stanu.

Wprowadzona definicja informacji nie aspiruje do powszechnej akceptowalności i z całą pewnością pozostanie jedną z wielu.

1.2. Podstawowe cechy informacji

Wspomniana na wstępie fundamentalna cecha informacji, czyli zmniejszanie niepewności, jest wielkością mierzalną i będziemy się nią zajmować szczegółowo w rozdziale dotyczącym ilościowej teorii informacji. Jednakże informacja wykazuje wiele dodatkowych niezbywalnych cech, często z racji oczywistości zaniedbywanych, w konsekwencji zapominanych i powodujących problemy. Odwołajmy się powtórnie do zamieszczonego w Wikipedii opisu hasła informacja, znajdując następujący opis:

+---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Przenoszenie i przetwarzanie informacji |
| |
| Informacja może być przenoszona w czasie i przestrzeni. Przenoszenie w czasie nazywamy magazynowaniem lub zapamiętywaniem, przenoszenie w przestrzeni – przekazem lub komunikowaniem. Przenoszenie informacji odbywa się za pośrednictwem obiektów fizycznych i zjawisk fizycznych zwanych nośnikami informacji. Magazynowanie związane jest najczęściej ze stanami wyróżnionymi obiektu fizycznego – podłoża zapisu, a przekaz ze stanami wyróżnionymi zjawiska fizycznego – sygnałami.Problemami przetwarzania informacji zajmuje się informatyka. |
+---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------+

Powyższy opis zawiera całkiem udaną definicję informatyki (zajmiemy się nią osobno w dalszej części książki), a ponadto sygnalizuje niezbędne cechy informacji. Rozbudowując listę niezbywalnych cech informacji (z domniemaniem pewnej kompletności), można powiedzieć, że informacja:

• istnieje obiektywnie – inaczej mówiąc, niezależnie od odbiorcy; niemożność odebrania informacji (z różnych powodów: zależności czasowych, możliwości percepcyjnych lub technicznych) nie oznacza, że informacja nie występuje;

• podlega przetworzeniu – może być analizowana (na przykład dla wyodrębnienia części informacji w zależności od wagi), syntezowana (dla osiągnięcia nowej obszerniejszej informacji) i przetwarzana w dowolny inny sposób; informacja zastrzeżona do formy początkowego wystąpienia (bez możliwości przetworzenia) miałaby znaczenie ograniczone;

• jest przenaszalna – a nawet MUSI BYĆ przenaszalna; pozostając dostępna wyłącznie u źródła informacji, byłaby fizycznie związana ze źródłem, więc nie miałaby możliwości szerszego oddziaływania;

• jest powielalna – ponieważ występując w pojedynczej reprezentacji byłaby podobnie ściśle związana z jednostkową reprezentacją, co prowadziłoby do ograniczonego kręgu odbiorców oraz niemożności niezależnego przetwarzania;

• posiada różnorodne równoważne reprezentacje – w rozumieniu reprezentacji teoretycznej (matematycznej), ale również fizycznej; fizyczność reprezentacji należy rozumieć szeroko: fala elektromagnetyczna czy wartość natężenia w półprzewodniku równie dobrze służą zatem reprezentacji informacji jak zapis papierowy;

• bywa fragmentaryczna – kompletna informacja jest raczej ideą, a konieczność fizycznej reprezentacji implikuję możliwość fragmentaryczności; świadoma fragmentaryzacja stanowi zatem podstawę teleinformatyki i optymalizacji przesyłania informacji;

• podlega zniekształceniu – z racji wspomnianej konieczności fizycznej reprezentacji, implikującej naturalne podleganie różnorodnym oddziaływaniom;

• podlega interpretacji – fakt wystąpienia informacji, a nawet jej ilość są ścisłe i obiektywne, mimo wielu odbiorców; jednak działanie wynikające z informacji w zależności od konkretnego odbiorcy może być rozmaite, powodować odmienne skutki, stanowiąc inną interpretację.

1.3. Informatyka

1.3.1. Istota informatyki

Dysponując pojęciem informacji, możemy pokusić się o zdefiniowanie pojęcia informatyka. Ponownie odwołajmy się do polskojęzycznej Wikipedii.

----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Informatyka – dyscyplina naukowa i techniczna zajmująca się przetwarzaniem informacji, a w tym technologiami przetwarzania informacji oraz technologiami wytwarzania systemów przetwarzających informacje. Pierwotnie część matematyki, została rozwinięta do odrębnej dyscypliny naukowej. Pozostaje jednak nadal w ścisłym związku z matematyką, która dostarcza informatyce podstaw teoretycznych.
----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Powyższy opis wydaje się trafny, z nieco być może przesadnym podkreśleniem ścisłego związku informatyki z matematyką. Najbardziej rozwojowa część informatyki może być uznana za stosowaną matematykę (wspomniany związek jest niezaprzeczalny), jednakże postęp technologiczny istotnie ogranicza znaczenie czystej matematyki w codziennej informatyce, czyniąc go nie tak ścisłym, jak kiedyś.

Dla szerszego spojrzenia skonfrontujmy polski opis hasła z angielskim.

-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Informatyka zajmuje się badaniem teoretycznych podstaw informacji, automatycznego obliczania i praktycznymi technikami ich wdrażania oraz stosowania w systemach komputerowych. Informatycy wymyślają algorytmiczne procesy tworzące, opisujące i przetwarzające informację, a ponadto formułują odpowiednie abstrakcyjne modele złożonych systemów informatycznych.
-------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

W powyższej definicji łatwo dostrzec brak określenia istoty informatyki, z wątpliwym wyszczególnieniem wybranych zakresów pracy informatyków. Jednakże łącząc powyższe opisy hasła informatyka i odwołując się do wcześniejszych opisów hasła informacja, możemy sformułować określenie informatyki w poniższy sposób:

-------------------------------------------------------------------------
Informatyka – dziedzina wiedzy zajmująca się przetwarzaniem informacji.
-------------------------------------------------------------------------

1.3.2. Informatyka a komputery

Polskie słowo informatyka skonfrontowane z angielskim odpowiednikiem computer science (w kalce językowej – nauka komputerowa) może wzbudzić wątpliwość z powodu braku odniesienia do (wydawałoby się fundamentalnego) komputera. Nieco rozważenie etymologii słowa informatyka pozwoli zarazem sięgnąć pogłębione w istotę informatyki, obalając obiegowy mit o niemal równoważności informatyki i komputerów.

Fundamentalnemu wkładowi Wielkiej Brytanii (początkowo) i Stanów Zjednoczonych (aż do teraz) w rozwój informatyki trudno zaprzeczyć. Nawet odniesienia do wcześniejszych niż brytyjskie osiągnięć Niemca Konrada Zuse z komputerem Z3 mogą być podważone, ponieważ przed nimi pojawiły się maszyny różnicowa i analityczna Anglika Charlesa Babbage’a. Użycie słów computer science datowane jest mniej więcej na koniec lat pięćdziesiątych XX wieku. Pojęcie to zostało przyjęte zapewne z braku lepszej propozycji i od zarania budziło wątpliwość, ponieważ nadmiernie akcentuje znaczenie komputerów. Tymczasem fachowcy twierdzą, że informatyka jest czymś znacznie obszerniejszym niż nauka o komputerach. Najdobitniej rzecz ujmuje zdanie pochodzące z wydanego w styczniu 1993 roku czasopisma „Computer Research News”, przypisywane holenderskiemu pionierowi informatyki Edsgerowi Dijkstrze:

----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Twierdzenie, iż informatyka to nauka o komputerach, ma tyle samo sensu, ile twierdzenie, że astronomia to nauka o teleskopach, biologia to nauka o mikroskopach, a chemia to nauka o zlewkach i probówkach.
----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

W powyższej sentencji zasygnalizowano, że komputer jest jedynie narzędziem informatyki (niewątpliwie ważnym – czym zajmiemy się szerzej w następnym podrozdziale), a określenie computer science jest nieco ułomne. W konsekwencji w innych obszarach językowych, ze świadomością wspomnianej ułomności, posłużono się innymi wyrażeniami. W 1962 roku Francuzi zaproponowali termin informatique, stanowiący udane połączenie słów information (informacja) i automatique (automatyka), w konsekwencji prowadzące do niemieckiego oraz skandynawskich Informatik, włoskiego informatica czy rosyjskiego информатика (hiszpański obszar językowy używa wyrażenia ciencias de la computación). Opisane francuskie połączenie słów pozwala sformułować alternatywne określenie informatyki, być może mniej ogólne, ale zwracające uwagę na związek informatyki z automatycznością:

---------------------------------------
informatyka = informacja + automatyka
---------------------------------------

1.4. Komputer

Przy okazji opisu słowa informatyka wspomnieliśmy o podrzędności komputera w stosunku do informatyki – pojęcia znacznie szerszego. Mówiąc obrazowo, komputer bez informatyki jest bezużytecznym zestawem przetworzonej materii, podczas gdy informatyka istnieje nawet bez komputerów. Niemniej spośród wielu narzędzi wykorzystywanych w informatyce komputer pełnia rolę dużo istotniejszą niż wszystkie inne narzędzia razem wzięte. W konsekwencji ogólne opisanie pojęcia komputera wydaje się konieczne. W ślad za polską Wikipedią otrzymujemy definicję:

------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Komputer (z angielskiego computer od łacińskiego computare – obliczać; dawne nazwy używane w Polsce: mózg elektronowy, elektroniczna maszyna cyfrowa, maszyna matematyczna) – maszyna elektroniczna przeznaczona do przetwarzania informacji, które da się zapisać w formie ciągu cyfr albo sygnału ciągłego.
------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

Podkreślenie roli przetwarzania informacji wydaje się właściwe, natomiast odniesienia do ciągu cyfr lub sygnału ciągłego trudno uznać za poprawne. Dlatego sprawdźmy jeszcze anglojęzyczną Wikipedię. Znajdujemy w niej następującą definicję w wolnym tłumaczeniu autorów niniejszej książki:

---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
Komputer jest maszyną programowalną przeznaczoną do sekwencyjnego i automatycznego przeprowadzania ciągu operacji arytmetycznych lub logicznych. Poszczególne sekwencje operacji są łatwe do zmiany, dzięki czemu komputer pozwala rozwiązywać więcej niż jeden rodzaj problemów.
---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------

W przeciwieństwie do polskiej wersji, w angielskiej brak wyraźnego odniesienia do przetwarzania informacji (wynika ono z całości opisu), jednakże wprowadzenie zależności od programowania czyni całość definicji znacznie trafniejszą.

Kolejny raz syntetyzując różnorodne informacje dotyczące pojęcia komputera, formułujemy własne określenie:

---------------------------------------------------------------------------------------------------------------------------
Komputer – urządzenie zdolne do przetwarzania informacji, z możliwością sterowania przez nieograniczoną liczbę programów.
---------------------------------------------------------------------------------------------------------------------------

Wydaje się, że kwestia przetwarzania informacji, występująca w powyższym opisie, została już wcześniej uzasadniona i dlatego skupimy się na części dotyczącej sterowania. Nie będziemy wnikać w formalne definicje pojęć sterowania i programu (przyjmujemy tymczasowo, że są one intuicyjnie znane w stopniu niezbędnym do zajmowania się pojęciem komputera), ponieważ istotą jest odróżnienie komputera od automatu. Zarówno komputer, jak i automat są urządzeniami (realnymi lub wirtualnymi) przetwarzającymi informacje oraz sterowanymi programami – jednak występują między nimi istotne różnice. Automat jest przede wszystkim urządzeniem ukierunkowany na zamknięty zbiór możliwych działań, a odrębne sterowania/programy są stosunku do działań podrzędne i również ograniczone. W przypadku komputerów sytuacja jest niejako odwrotna: sterowanie (program, algorytm) jest najważniejsze i teoretycznie nieograniczone, a urządzenie/komputer jest podrzędnym narzędziem do realizacji idei zawartej w sterowaniu/programie/algorytmie.

1.5. Działy informatyki

Dzielenie dziedzin wiedzy o nawet głębokiej przeszłości nigdy nie jest jednoznaczne, dlatego trudno wymagać jednoznaczności w dzieleniu tak młodej i zarazem tak eklektycznej dyscypliny naukowej, jak informatyka. Dlatego dla klasyfikacji działów informatyki posłużymy się arbitralnymi podziałami pochodzącymi z polsko- i angielskojęzycznej Wikipedii. Towarzyszy nam zarazem świadomość, że opisy poszczególnych działów sięgają do wiedzy spoza przedstawionego materiału.

Polskojęzyczna Wikipedia wyróżnia następujące działy informatyki:

• Administracja sieciowa

Dział koncentrujący się na zarządzaniu sieciami komputerowymi, z dużym udziałem wiedzy telekomunikacyjnej.

• Administracja systemów

Dział zajmujący się większą liczbą komputerów połączonych nie tylko na poziomie komunikacji (jak w sieciach komputerowych), lecz także w rozumieniu wspólnej pracy.

• Algorytmika

Bez wątpienia najważniejszy dział informatyki, stanowiący o jej najbardziej znaczących postępach, niemal o istocie informatyki. Zajmuje się tworzeniem nowych algorytmów i w znaczącym stopniu wszechstronną oceną algorytmów istniejących.

• Architektura procesorów

Dział oparty na technologii i ukierunkowany na technologię, ale wraz z rozwojem możliwości procesorów coraz bardziej teoretyczny niż inżynierski.

• Bezpieczeństwo komputerowe

Dziedzina kiedyś mocno z związana z kryptografią, aktualnie w przeważającej części dotycząca bezpieczeństwa teleinformatyki.

• Grafika komputerowa

Dział silnie eklektyczny, zajmujący się szczególnym medium stanowionym przez ekran komputerowych monitorów.

• Inżynieria oprogramowania

Dział zajmujący się szerokim zakresem zjawisk towarzyszących tworzeniu oprogramowania. Z racji sięgania do zarządzania produkcją, zarządzania zasobami ludzkimi i wieloma innymi pokrewnymi dziedzinami również mocno eklektyczny.

• Języki programowania

Jeden z niewielu działów czysto informatycznych, zajmujący się tytułowym zagadnieniem z wykorzystaniem zaawansowanej lingwistyki i kognitywistyki, z użyciem szczególnych języków służących komunikacji z komputerem.

• Programowanie

Dział zajmujący się bezpośrednio tworzeniem programów i korzystający z dorobku wielu innych działów. Jednocześnie być może dział najbardziej informatyczny, stanowiący rodzaj ogólnoinformatycznego rzemiosła.

• Sprzęt komputerowy

Dział zajmujący się nie tylko komputerami w rozumieniu fizycznych urządzeń, lecz także szerokim zakresem urządzeń towarzyszących pracy komputerów we wszystkich możliwych aspektach.

• Symulacja komputerowa

Dziedzina wymagająca sięgania do wiedzy szczególnego przedmiotu symulacji, ale ponadto zajmująca się ogólnym zjawiskiem symulacji, niezależnie od konkretnego symulowanego zjawiska.

• Sztuczna inteligencja

Zapewne najbardziej interdyscyplinarny dział informatyki, próbujący sprawić, by komputery naśladowały inteligencję, czymkolwiek ona jest.

• Teoria informacji

Być może najbardziej fundamentalny dział informatyki, mocno zmatematyzowany i niejednokrotnie sięgający do różnych działów filozofii.

• Webmastering

Zróżnicowany dział ukierunkowany na obszar działalności związany z obsługą protokołu WWW, czyli (w ogromnym uproszczeniu) zasobami dostępnymi przez przeglądarki internetowe.

Mimo zapowiedzianej arbitralności powyższy podział wydaje się mocno niekompletny, a z drugiej strony grzeszy nadmierną szczegółowością. Alternatywę może stanowić podział pochodzący z anglojęzycznej Wikipedii, wyróżniający dwa najbardziej ogólne działy informatyki. Pierwszym jest informatyka teoretyczna (theoretical computer science), mieszcząca w sobie bardziej szczegółowe dziedziny związane z matematyką, teoretyczną fizyką czy filozofią. Drugi ogólny dział (applied computer science) jest ukierunkowany na zastosowania i obejmuje wiele bardziej praktycznych dziedzin inżynierskich. Szczegółowe dziedziny obu ogólnych działów często się przenikają, granice między nimi są płynne, dlatego zostaną przedstawione razem. Wyróżnione działy informatyki obejmują:

• Teorię obliczeń (obliczalności), (theory of computation)

Jeden z najbardziej fundamentalnych działów informatyki, zajmujący się między innymi odpowiedzią na pytania o sens stosowania komputerów. Mimo zaawansowanej matematyki ukierunkowany na informatykę.

• Teorię informacji i kodowania (information and coding theory)

W polskiej Wikipedii dział został nazywany teorią informacji.

• Algorytmy i struktury danych (algorithms and data structures)

Dział obejmujący zakres algorytmiki z polskiej Wikipedii, jednak uzupełniony o struktury danych, czyli (w dużym uproszczeniu) zagadnienia jak najlepszego (pod wieloma względami) pamiętania różnorodnych bytów.

• Teorię języków programowania (programming language theory)

W polskiej Wikipedii nazywaną językami programowania.

• Metody formalne (formal methods)

Dziedzinę zajmującą się wieloma aspektami informatyki z użyciem formalnej matematyki.

• Współbieżność, obliczenia równoległe i rozproszone (concurrent, parallel and distributed systems)

Dziedzinę zajmującą zagadnienia równoczesnego działania wielu programów na jednym komputerze, działania wielu komputerów nad rozwiązaniem jednego problemu czy też inne problemy jednoczesnego działania.

• Bazy danych i pozyskiwanie informacji (databases and information retrieval)

Jedną z najważniejszych dziedzin codziennej informatyki, kiedyś skoncentrowaną na szybkości dostępu do informacji, a obecnie coraz silniej akcentującą sposoby wyszukiwania informacji w ogromnym jej natłoku.

• Sztuczną inteligencję (artificial intelligence)

Definiowaną identycznie jak w polskiej Wikipedii.

• Architekturę i inżynierię komputerów (computer architecture and engineering)

To połączenie w jeden dział architektury procesorów oraz sprzętu komputerowego z polskiej Wikipedii.

• Grafikę komputerową i wizualizację (computer graphics and visualization)

Definiowaną odobnie jak w polskiej Wikipedii, z uwzględnieniem złożonych zagadnień wizualizacji różnorodnych bytów.

• Bezpieczeństwo komputerów i kryptografię (computer security and cryptography)

Opisywaną analogiczne jak w polskiej Wikipedii.

• Obliczenia naukowe (computational science)

Dziedzinę badającą możliwości wykorzystania informatyki do obliczeń wymaganych w naukach stosowanych.

• Informację naukową (information science)

Badającą problemy informacji w innych dziedzinach wiedzy, szczególnie w naukach społecznych, a nawet humanistycznych.

• Inżynierię oprogramowania (software engineering)

Definiowaną analogiczne jak w polskiej Wikipedii.2. Teoria informacji

Twórcą prezentowanej w tym rozdziale teorii jest Claude E. Shannon. Sama teoria nazywana jest ilościową teorią informacji i mimo że nie jest jedyna (znana jest na przykład jakościowa teoria informacji), pozostaje najpowszechniej uznawana.

2.1. Miara informacji

W poprzednim rozdziale określiliśmy najważniejszą własność informacji, sprowadzającą się do zmniejszenia niepewności. Jednak wspomniane określenie odzwierciedla wyłącznie fakt zmniejszenia niepewności, nie wnikając w relacje ilościowe. Mówiąc inaczej, jeżeli zachodzą dwa zdarzenia niosące informację (a więc zmniejszające niepewność), warto zadać pytanie, które zdarzenie daje więcej informacji, a które mniej.

Intuicyjne rozumienie ilości informacji oddaje słynne zdanie przypisywane Markowi Twainowi: Wiadomość, że pies pogryzł człowieka, to żadna wiadomość. Ale wiadomość, że człowiek pogryzł psa, to jest dopiero wiadomość. Mówiąc bardziej formalnie: jeżeli zdarzenie jest częste, to jego zachodzenie nie niesie zbyt wiele informacji (nie budzi zainteresowania), natomiast zajście zdarzenia rzadkiego niesie więcej informacji (wywołuje większe zainteresowanie).

Skojarzenie użycia przymiotników częste i rzadkie z rachunkiem prawdopodobieństwa jest w pełni uzasadnione, ponieważ miara informacji zawartej w zdarzeniu jest odwrotnie proporcjonalna do prawdopodobieństwa jego wystąpienia. Traktując rzecz czysto matematycznie, jeżeli przy oznaczeniu zdarzenia przez A oznaczymy prawdopodobieństwa zdarzenia A przez P(A), a niepewność zdarzenia A przez H(A) (H pochodzi od angielskiego słowa hesitance), to możemy ścisłe związki prawdopodobieństwa i niepewności sformułować w poniższych własnościach:

1. Jeżeli P(A) = 1, to H(A) = 0.

Zdarzenie pewne (wiadomo, że nastąpi lub już nastąpiło) nie wnosi żadnej informacji – właśnie z racji pewności jego zajścia.

2. Jeżeli P(A) < P(B), to H(A) > H(B).

Matematycznie wyrażona i opisana wcześniej intuicyjnie odwrotna zależność między prawdopodobieństwem a niepewnością. Zdarzenia mało prawdopodobne niosą większą niepewność (więcej informacji), podczas gdy zdarzenia bardziej prawdopodobne niosą mniejszą niepewność (mniej informacji).

3. Jeżeli zdarzenia A oraz B są zdarzeniami niezależnymi, to:

Powyższa równość wymyka się prostej intuicji, poprzestaniemy zatem na przybliżonym uzasadnieniu, w oderwaniu od wartości prawdopodobieństwa. Rozważmy dwa zdarzenia (zbiory zdarzeń elementarnych) wraz z towarzyszącymi im niepewnościami, załóżmy ich niezależność (nawet w potocznym rozumieniu) i rozpatrzmy zdarzenie będące ich mnogościowym iloczynem (nie należy przy tym ulegać pułapce utożsamiania niezależności z rozłącznością oraz pułapce utożsamiania części wspólnej z jednoczesnością lub wspólnością zachodzenia obu zdarzeń). Jeżeli wspólne zdarzenie zależy od obu wyjściowych zdarzeń, naturalne wydaje się, że na niepewność wspólnego zdarzenia mają wpływ niepewności obu zdarzeń składowych. Z niezależności zdarzeń wynika, że niepewność zdarzenia wspólnego musi być sumą niepewności zdarzeń składowych.

Teoria informacji zawiera jeszcze wiele innych interesujących własności, ale poprzestaniemy na powyższych, nieco arbitralnie uznając je za najistotniejsze.

Powyższe własności miary informacji (miary niepewności), opisując różnorodne jej zależności, nie podają samej miary w rozumieniu wartości liczbowej. Okazuje się, że odpowiednie właściwości określenia liczbowej miary informacji posiada każda funkcja logarytmiczna o podstawie większej od jedności, z odwrotności prawdopodobieństwa wystąpienia zdarzenia. Tym samym możemy zdefiniować:

+-------------------------------------------------------------------------------------------------------------------+
| Liczbową miarę ilości informacji zdarzenia A o prawdopodobieństwie wystąpienia P(A) wynoszącym p określa formuła: |
| |
| |
+-------------------------------------------------------------------------------------------------------------------+

Zauważmy, że jeżeli P(A) = 1, to

czyli spełniona jest pierwsza z podanych własności miary informacji. Ponadto jeżeli prawdopodobieństwa zdarzeń A oraz B wynoszą odpowiednio P(A) = p_(A) oraz P(B) = p_(B) i jednocześnie , wtedy (z racji dodatniej wartości prawdopodobieństw), a w konsekwencji (z racji rosnącej monotoniczności użytej funkcji logarytmicznej).

Ostatecznie otrzymujemy:

H(A) > H(B),

co oznacza drugą z podanych własności miary informacji. Dodatkowo przy niezależności zdarzeń A oraz B z definicji zdarzeń niezależnych wynika:

zatem:

Z kolei z własności funkcji logarytmicznej mamy:

W konsekwencji:

co oznacza spełnianie trzeciej z wymienionych własności miary informacji.

Wprowadzony wzór określający miarę informacji zależy wyłącznie od prawdopodobieństwa, będącego ponadto zawsze liczbą z przedziału jednostkowego. Dlatego wygodniejsze w użyciu jest operowanie wyłącznie prawdopodobieństwem dla określenia ilości informacji; w dalszych działaniach posługiwać się będziemy prostym przetworzeniem wprowadzonego wzoru. W zastępstwie podzbiorów zbioru zdarzeń elementarnych dziedziną będzie zbiór wartości funkcji prawdopodobieństwa i tylko na podstawie wartości prawdopodobieństwa będziemy określać ilość informacji.

+------------------------------------------------------------------------------------------------------------------+
| Ilość informacji (oznaczana przez I) o prawdopodobieństwie wystąpienia wynoszącym p określa funkcja dana wzorem: |
| |
| |
+------------------------------------------------------------------------------------------------------------------+

Jednostki miary informacji

Wprowadzone wzory miary informacji dopuszczają dowolność określenia podstawy logarytmu. Recz jasna, nie istnieje konieczność ogólnego ustalenia owej podstawy i można nawet każdorazowo przyjąć inną jej wartość; wystarczy jedynie pamiętać o niemieszaniu wartości podstaw w ramach jednej działalności. Jednak praktyka, inżynieria, a nawet teoria wyraźnie preferują wybraną wartość wynoszącą 2. Wybór tej, a nie innej wartości nie jest kwestią umowy, będzie szerzej omówiony w jednym z kolejnych rozdziałów, a aktualnie pozwala określić konkretną jednostkę informacji, czyli powszechnie znany bit.

+-----------------------------------------------------------------------------------------------------------------+
| Ilość bitów informacji niesioną przez zdarzenie o prawdopodobieństwie wystąpienia wynoszącym p określa funkcja: |
| |
| |
+-----------------------------------------------------------------------------------------------------------------+

Zwróćmy uwagę, że potoczne rozumienie bitu w postaci obiektu o ściśle dwoistej naturze jest wtórne w stosunku do definicji jednostki miary informacji, a nie na odwrót. Najpierw określono jednostkę informacji i nazwano ją bitem, by następnie zwyczajowo utożsamić obiekty dające dokładnie jeden bit informacji z nazwą jednostki miary informacji. Nazwa jednostki miary informacji nie pochodzi od wirtualnej czy rzeczywistej realizacji wspomnianego dwoistego obiektu. Właśnie dwoistość realizacji bitu w potocznym rozumieniu oznacza dwuelementowy zbiór zdarzeń elementarnych o połówkowych prawdopodobieństwach. Tym samym zdarzenie ustalenia dowolnej z dwóch wartości oznacza miarę informacji wynoszącą:

czyli dokładnie jeden bit informacji w rozumieniu miary.

Bit jest podstawową jednostką miary informacji, o szeroko uznawanym oznaczeniu b. Praktyka wymusiła wprowadzenie jednostek pokrewnych, z najpowszechniej znanym bajtem – czyli ilością informacji odpowiadającą ośmiu bitom – z równie powszechnym oznaczeniem B. Jednostkami pochodnymi od bajta są między innymi jednostki zwielokratniające ze standardowymi przedrostkami: kilo-, mega-, giga-, tera- i inne. W informatyce mają wartości bliskie tradycyjnym, jednak nieco się od nich różnią.

+---------------+-------------+-------------------------+-------------+--------------------------+
| nazwa | oznaczenie | wartość informatyczna | nazwa | wartość tradycyjna |
| | | | | |
| informatyczna | | | tradycyjna | |
+---------------+-------------+-------------------------+-------------+--------------------------+
| kilobajt | KB | 2¹⁰ = 1 024 | tysiąc | 10³ = 1 000 |
+---------------+-------------+-------------------------+-------------+--------------------------+
| megabajt | MB | 2²⁰ = 1 048 576 | milion | 10⁶ = 1 000 000 |
+---------------+-------------+-------------------------+-------------+--------------------------+
| gigabajt | GB | 2³⁰ = 1 073 741 824 | miliard | 10⁹ = 1 000 000 000 |
+---------------+-------------+-------------------------+-------------+--------------------------+
| terabajt | TB | 2³⁰ = 1 099 511 624 776 | bilion | 10¹² = 1 000 000 000 000 |
+---------------+-------------+-------------------------+-------------+--------------------------+

Powyższe zestawienie przedstawia najczęściej wykorzystywane jednostki informacji pochodne względem bajta w konfrontacji z ich tradycyjnymi wartościami. Kolejna jednostka nie jest określona przez mnożnik o wartości 10³ = 1000, ale przez jej najbliższy odpowiednik potęgi dwójki, czyli wartość 1024 = 2¹⁰. Łatwo zauważyć, że jednostka informatyczna od tradycyjnej może się różnić aż o niemal 10%.

Mimo że bit jest najpowszechniej stosowaną podstawową jednostką miary informacji, w wielu zastosowania spotkać można inne jednostki podstawowe. W zaawansowanych zagadnieniach matematycznych związanych z opisaną dalej entropią informacji stosowana jest jednostka o nazwie nit, nat lub nepit, określona wzorem:

a kryptografia i statystyka wykorzystuje jednostkę zwaną dit, ban lub hartley, określoną wzorem:

2.2. Entropia źródła informacji

Źródła informacji różnią się liczbą zdarzeń elementarnych lub układem prawdopodobieństw, dlatego zasadne wydaje się określenie kryterium pozwalającego wartościować źródła informacji między sobą. Poszukiwane kryterium będzie nosiło nazwę entropii źródła informacji. Słowo entropia może być w aktualnym kontekście nieco mylące, ponieważ najpowszechniejsze rozumienie entropii związane jest z termodynamiką (określając miarę nieuporządkowania), skąd przeniknęło do znaczenia niemal potocznego w rozumieniu ogólnego nieuporządkowania czy też komplikacji. W rozumieniu teorii informacji entropia źródła informacji nie ma związków z nieuporządkowaniem i intuicyjnie odzwierciedla przeciętną (w potocznym rozumieniu) ilość informacji źródła. Przeciętność mogłaby oznaczać średnią ilość informacji związaną z pojedynczym zdarzeniem elementarnym (sugerując średnią arytmetyczną), jednakże należy uwzględnić, że nie każda ilość informacji jest równie prawdopodobna.

Powyższe rozważania prowadzą do definicji entropii źródła informacji sformułowanej następująco:

+--------------------------------------------------------------------------------------------------------------------------------------------------------------------+
| Źródło informacji dysponujące n zdarzeniami elementarnymi z prawdopodobieństwami p₁, …, p_(n) ma entropię źródła informacji (oznaczaną przez H) określoną formułą: |
| |
| |
+--------------------------------------------------------------------------------------------------------------------------------------------------------------------+

Łatwo zauważyć, że powyższy wzór jest ważoną średnią arytmetyczną ilości informacji, z wagami określonymi poprzez prawdopodobieństwa.

Jedną z inspiracji do napisania czytanego podrozdziału było określenie przeciętnej ilości informacji źródła oraz kryterium jakościowego pozwalającego różnicować źródła informacji. Intuicję „przeciętności” można nieco rozszerzyć, traktując ją jak wiarygodność i ustalając w ten sposób kryterium jakościowe. Lepszym (bardziej wiarygodnym) źródłem informacji jest źródło o większej entropii.

Dla wzmocnienia intuicji rozważmy dwa źródła informacji z pewną analogią do środków masowego przekazu. Pierwsze źródło (w potocznym rozumieniu „poważne”) nie goni za sensacją (sprawdza uważnie nieprawdopodobne informacje aż czasami przestają być one sensacjami), czyli nie publikuje zdarzeń o skrajnie niskim prawdopodobieństwie (bardzo interesujących). Zarazem pierwsze źródło nie publikuje rzeczy oczywistych (dla sztucznego zapełnienia łamów treścią), ale wyłącznie rzeczy coś wnoszące (w naszym przypadku omijające zdarzenia o dużym prawdopodobieństwie). Dla ułatwienia przyjmijmy, że pierwsze źródło dysponuje ośmioma zdarzeniami o równych prawdopodobieństwach wynoszących (być może jest źródłem bez sensacji, ale zarazem bez bzdur). Entropia pierwszego źródła wynosi:

Rozpatrzmy teraz drugie źródło informacji, również dysponujące ośmioma zdarzeniami o prawdopodobieństwach . Widzimy, że trzy zdarzenia dają mało informacji, jednak dwa inne są prawdziwymi sensacjami z uwagi na ich niskie prawdopodobieństwo. Tym samym drugie źródło wydaje się nieco tabloidyzujące. Entropia drugiego źródła wynosi:

Łatwo zauważyć, że z racji większej wartości entropii pierwsze źródło informacji, mniej sensacyjne, ale rzetelne, jest bardziej wiarygodne niż źródło informacji goniące za sensacjami.
mniej..

BESTSELLERY

Kategorie: