Informacja w Internecie - ebook
Informacja w Internecie - ebook
W roku 1995 Clifford Stoll obserwując niezwykły wzrost popularności Internetu, wieszczył, że ludzkość wkrótce zatonie w śmietnisku informacji. Nikt nie przewidział tylko skali tego zjawiska. Dziś bowiem możemy mówić nie tylko o śmietnisku informacji, ale o śmietnisku komunikacji w ogóle.
Ta książka ma być „kołem ratunkowym”, a jednocześnie „kursem pływania” dla ludzi, którzy nie chcą utonąć w potopie internetowych treści, ale ujarzmić je i efektywnie wykorzystać. Jak rzekł Jacob Nielsen, jedyną stałą cechą Internetu jest jego zmienność (dodajmy: zmienność treści, ale i formy). Dlatego efektywne korzystanie z jego zasobów zależy od znajomości źródeł i umiejętności strategicznego poruszania się w dynamicznej sieci informacji. Tę wiedzę dostarcza niniejsza publikacja.
(Maciej Dutko, Magdalena Karciarz)
Kategoria: | Informatyka |
Zabezpieczenie: |
Watermark
|
ISBN: | 978-83-01-20491-4 |
Rozmiar pliku: | 18 MB |
FRAGMENT KSIĄŻKI
Magdalena Karciarz – absolwentka i doktorantka Instytutu Informacji Naukowej i Bibliotekoznawstwa Uniwersytetu Wrocławskiego (specjalizacja: elektroniczne serwisy informacyjne). Bibliotekarz dyplomowany, wykładowca, od 2004 pracownik Dolnośląskiej Szkoły Wyższej we Wrocławiu. W swoim życiu łączy zamiłowanie do szukania rozwiązań poprzez pracę ze źródłami informacji z ciekawością nowych technologii, która odzwierciedla się w modelowaniu przestrzeni Biblioteki DSW. Współtwórca serwisu Dyplomowany.pl, adresowanego do kandydatów na bibliotekarza dyplomowanego. Jej wielką pasją jest joga, która równoważy pracę i odpoczynek, oraz góry, które są tego dopełnieniem.
Więcej: Karciarz.info
Maciej Dutko – twórca firmy szkoleniowej Dutkon.pl i bloga e-biznesowego Akademia-Internetu.pl. Szkoleniowiec współpracujący z Allegro, wykładowca akademicki (uczy m.in. e-marketingu i e-handlu na studiach stacjonarnych, podyplomowych oraz MBA). W latach 2002–2006 redaktor naczelny Telegazety i stron WWW w TVP Wrocław. Autor bestsellera E-biznes. Poradnik praktyka, e-publikacji Nieprzyzwoicie łatwa strona WWW, audiobooka Konkurencyjne oczko oraz pracy doktorskiej z zakresu funkcjonalności stron WWW.
Więcej: Dutko.plWstęp
W roku 1995 Clifford Stoll, obserwując niezwykły wzrost popularności Internetu, wieszczył, że ludzkość wkrótce zatonie w śmietnisku informacji. Nikt nie przewidział tylko skali tego zjawiska. Dziś bowiem możemy mówić nie tylko o śmietnisku informacji, ale o śmietnisku komunikacji w ogóle.
Liczne źródła informacji w Sieci przeszły już pierwszą kataraktę na owym wirtualnym Nilu danych, pierwszą falę krytyki i pierwsze próby – skądinąd udanej – ekspiacji. Dzięki rozwojowi nauki o informacji, dzięki wysiłkom piewców idei społeczeństwa wiedzy, a wreszcie dzięki „samonaprawie” serwisów takich jak Wikipedia, nam, ludziom, udaje się wciąż trzymać głowę nad powierzchnią owego zalewu danych. Nowe niebezpieczeństwo coraz wyraźniej zaczyna się uwidaczniać w czym innym – w czasożernej i zasobochłonnej, wyrastającej znacznie ponad poziom ludzkich potrzeb, megakomunikacji.
Informacja i komunikacja zawsze były ze sobą nierozerwalnie związane. Informacja – jako jednostka wiedzy, komunikacja – jako sposób jej dystrybucji. Społeczeństwo informacyjne cierpi jednak już nie tylko na nadmiar informacji, ale też – ulegając dziecięcej fascynacji nowymi możliwościami – samo generuje niezwykłe wprost ilości komunikatów pustych, nie niosących za sobą żadnej konkretnej treści lub też powielających w nieskończoność treści już istniejące.
Książka ta ma być „kołem ratunkowym”, a jednocześnie „kursem pływania” dla ludzi, którzy nie chcą utonąć w potopie internetowych treści, ale ujarzmić je i efektywnie wykorzystać. Jak rzekł Jacob Nielsen, jedyną stałą cechą Internetu jest jego zmienność (dodajmy: zmienność treści, ale i formy). Dlatego efektywne korzystanie z jego zasobów zależy od znajomości źródeł i umiejętności strategicznego poruszania się w dynamicznej sieci informacji. Tę wiedzę dostarcza niniejsza publikacja.
Owocnej lektury!
Magdalena Karciarz
Maciej Dutko
Ps. Pragniemy podziękować osobom, które na drodze naszej edukacji oraz w pracy zawodowej inspirowały nas do odkrywania bogatego świata e-informacji: kadrze Instytutu Informacji Naukowej i Bibliotekoznawstwa Uniwersytetu Wrocławskiego oraz Dolnośląskiej Szkoły Wyższej.Rozdział 1 Wikipedia – zagłada autorytetów?
Internet początku drugiej dekady XXI wieku w dużej części jest medium społecznym. To znaczy takim, które nie tylko adresowane jest do wszystkich, ale które przez wszystkich jest tworzone. Truizm i banał? Ale czy naprawdę uświadamiamy sobie fenomen środka przekazu, w którym każdy może być autorem, ba!, nawet autorytetem dla innych?
A przecież zjawisko takie nigdy wcześniej nie miało precedensu w mediach mainstreamowych, czyli masowych: prasie, radio, telewizji. Spróbujmy wyobrazić sobie stację telewizyjną lub radiową, do której wstęp ma każdy widz czy słuchacz, i w której każdy może wyemitować każdą twórczość. Albo ogólnokrajowy dziennik, który zamieści wszystkie nadsyłane przez aktywnych czytelników teksty. Albo sytuację, kiedy przysłowiowy człowiek z ulicy ot tak, bez żadnych trudności i nakładów finansowych, otrzymuje nieograniczony dostęp do infrastruktury poligraficznej, by w krótkim czasie wydać dowolną książkę, nie martwiąc się, czy znajdzie ona odbiorców i przyniesie zysk. Wszędzie tam, gdzie tradycyjne środki przekazu mówią „Nie!”, Internet – parafrazując Mickiewicza – wszystkich w gościnę zaprasza.
1.1. Informacja w serwisach społecznościowych
Aby w pełni zrozumieć, czym w istocie różni się informacja zawarta na „tradycyjnych” (sic!) stronach internetowych od tych znajdujących się w serwisach społecznościowych, należy w pierwszej kolejności pochylić się nad rozumieniem pojęcia serwis społecznościowy czy web 2.0. Numeracja „2.0” jest bowiem czysto umowna i niewiele mówi o różnicach wobec „1.0”. A przecież nie chodzi o kolejną „wersję” Internetu czy jego nową odsłonę.
Przyjrzyjmy się kilku ważnym zmianom w dziejach tego medium. Sieć wzajemnie powiązanych ze sobą maszyn cyfrowych zaczęła kształtować się w latach 60. minionego stulecia. Jej celem było zastosowanie na potrzeby wojska, a powstanie militarnego Arpanetu wpisało się w amerykańsko-radziecką rywalizację o dominację globalną i wyścig zbrojeń. Oczywistym było więc, że grono użytkowników ówczesnego Internetu (choć słowa „Internet” po raz pierwszy użyli Vinton Cerf i Robert Kahn dopiero w roku 1974) stanowiły wyłącznie osoby związane z armią. Lata 70. przyniosły upowszechnienie się nowych usług sieciowych (m.in. poczta elektroniczna i telnet) oraz stopniowe asymilowanie się nowych technologii w środowiskach akademickich; grono faktycznych użytkowników Sieci rozszerzyło się więc o naukowców.
Lata 80. w historii technologii IT zasłynęły pierwszymi masowo produkowanymi komputerami osobistymi, a początek lat 90. zaznaczył się powstaniem usługi WWW oraz pierwszej strony internetowej, napisanej przez Tima Bernersa-Lee. Wskutek pojawienia się w 1993 r. przyjaznej użytkownikom przeglądarki internetowej Mosaic, zamknęła się era, którą określić moglibyśmy jako paleointernet, i nastał neointernet, którego twórcy coraz świadomiej stawiali na intuicyjność interfejsu. Temu wszystkiemu towarzyszył oczywiście lawinowy wzrost zainteresowania światem wirtualnym, jego dynamiczna komercjalizacja, a wreszcie – wzrost psychologicznej potrzeby zaistnienia w tym najbardziej otwartym z mediów.
W pierwszej fazie „zaistnienie w Internecie” oznaczało ni mniej, ni więcej tylko stworzenie i opublikowanie własnej strony WWW. Języki takie jak HTML (później też XHTML) czy PHP stanowiły oczywiście naturalną barierę technologiczną, reglamentującą możliwości publikowania i ograniczającą je do osób znających technologię lub mogących za wdrożenie witryny internetowej zapłacić. Z czasem pojawiły się przyjaźniejsze edytory stron WWW, jednak naprawdę intuicyjne i proste kreatory serwisów internetowych zaczynają się dopiero upowszechniać.
Zmiany w technologii i w sposobie myślenia o możliwości zyskania nowej e-tożsamości, które jeszcze kilka lat wcześniej oceniane mogły być wyłącznie w kategoriach sciencie fiction, stały się znakomitą pożywką dla Internetu społecznościowego, którego początki przypadły na pierwsze lata XXI wieku. U jego podstaw leżała bardzo prosta idea, która okazała się dobrym ziarnem rzuconym na niezwykle żyzny grunt:
Dać internautom możliwość swobodnego publikowania dowolnych treści.
W efekcie rozwinęło się zjawisko wielowymiarowe (rys.1):
Rysunek 1. Web 2.0 jako nurt wieloelementowy (opracowanie własne)
Jedną z sił napędowych tego zjawiska jest moda, która notabene wykroczyła już daleko poza Internet. Dziś mamy bowiem „kulturę 2.0”, „biblioteki 2.0”, „biznes 2.0”, „naukę 2.0”, mówi się już o „pokoleniu 2.0” czy wręcz o „życiu 2.0”. Owo nadużywane „2.0” w pewnym momencie stało się nader irytującą manierą.
Internet społecznościowy to również taki, którego rozwojowi sprzyjają nowe technologie tworzenia stron. Co jest zrozumiałe – jeśli chcemy osiągnąć nowy efekt (a Sieć 2.0 jest rzeczywiście czymś nowym w stosunku do wcześniejszego modelu tworzenia stron), musimy z reguły sięgnąć po nowe narzędzia. Serwisy te są tworzone w inny sposób: nie wystarczy już czysty kod HTML wsparty CSS-ami; niezbędne są tu bazy danych, technologia XML, kanały RSS czy wreszcie technologia Ajax, ułatwiająca interakcję użytkownika z serwerem. Łatwość publikowania własnych treści, a więc zaistnienia w Sieci, w linii prostej zależy więc od możliwości wykorzystywanych narzędzi i technologii.
Pod pojęciem „web 2.0” ukrywają się jednak także bardziej abstrakcyjne pojęcia, żeby tylko wymienić moralność. Chodzi oczywiście o moralność tłumu – użytkowników Internetu, którym nagle dano możliwość decydowania, jakie treści zamieszczą w Sieci. Ba! Dano im wręcz możliwość modyfikowania treści innych użytkowników, co jest jednym z punktów zapalnych sporu wokół Sieci 2.0.
Mawia się, że 2.0 to wręcz nowa wersja Internetu. Jest w tym kilka źdźbeł racji, bo przecież – co już wspomniano – dużo tu elementów nowości. Jednak czy mówienie o absolutnie nowym, odmienionym Internecie nie jest przesadą? Istnieje, owszem, web 2.0, ale tradycyjny Internet nie przestał przecież istnieć. Sieć 2.0 to nie nowa kolekcja ubrań, która zastępuje tę z poprzedniego sezonu. Tak naprawdę etykietka „web 2.0” jest genialnym hasłem marketingowym. Chodzi o to, że „stary” Internet został rozbudowany o pewne dodatkowe funkcjonalności, które promuje się i sprzedaje jako nowy produkt. Zupełnie jak z niejednym towarem: producent poprawia jego parametry, wkłada do nowego pudełka i sprzedaje jako coś całkowicie nowego. Tymczasem Internet 1.0 (jeśli zastosować taką wsteczną numerację) nie przestał istnieć. Co ważne: serwisy redagowane nie przez społeczności, lecz zamknięte grupy lub jednostki (redakcje, działy marketingu, urzędy) nadal generują większość treści w Sieci. A już na pewno tę bardziej wartościową większość.
W zasadzie należałoby stwierdzić, że elementem web 2.0, dzięki któremu zjawisko to sprzedaje się właśnie „w nowym pudełku”, jest przede wszystkim nowa filozofia tworzenia stron WWW, a konkretnie nowy paradygmat generowania treści. W przypadku tradycyjnych portali informacyjnych czy serwisów tematycznych (wortali), za wprowadzanie contentu, czyli zawartość, odpowiada np. redakcja. Tak, jak w czasopiśmie czy w telewizji. Możliwości ingerowania w treść przez odbiorców ograniczają się w zasadzie do naturalnego feedbacku medialnego, który najlepiej jest nam znany pod szyldem „Listy do redakcji” albo „Telefon do reportera”.
Tymczasem w środowisku społecznego generowania i publikowania treści, to użytkownicy są autorami, redaktorami, wydawcami i recenzentami zarazem. Web 2.0 jest więc komuną! W kontekście tej komuny rodzi się zaś modne w ostatnich latach pojęcie prosumenta, czyli użytkownika, który jest odbiorcą informacji wyprodukowanych przez innych (konsumentem), a zarazem producentem własnych.
Właśnie filozofia, nowe podejście do tworzenia treści stron WWW, wydaje się najbardziej rewolucyjną i najbardziej napędową siłą, dzięki której możemy mówić o fenomenie, a wręcz o przemyśle web 2.0, ze wszystkimi jego pozytywnymi i negatywnymi skutkami.
Aby pełniej zrozumieć siłę i atrakcyjność takiego modelu generowania treści, należy uświadomić sobie szereg aspiracji i pragnień, jakie pozwala on zaspokoić (rys. 2):
Rysunek 2. Społeczne i psychologiczne umocowanie web 2.0
(źródło: http://www.elac.edu/faculty/titlev/web20/web20.htm)Silicon snake oil: second thoughts on the information highway, Doubleday, 1995 (wydanie polskie: Krzemowe remedium: garść rozważań na temat infostrady, Rebis, 2000).
Idea utworzenia zdecentralizowanej sieci komputerów i powiązanych ze sobą informacji (hipertekst) była znacznie starsza: już w 1945 r. Vannevar Bush, amerykański inżynier i doradca prezydenta Roosevelta, w głośnym artykule As we May think przedstawił koncepcję komputera Memex, zawierającego wzajemnie powiązane dokumenty.
Pojęcie „prosumenta” (ang. prosumer, z połączenia słów producer i consumer) już w 1980 roku wprowadził amerykański wieszcz rewolucji komunikacyjnej, Alvin Toffler. Mianem tym określił szczególnego rodzaju konsumenta – takiego, który nie tylko „konsumuje”, lecz w większym stopniu interesuje się danym towarem lub marką, a niekiedy wręcz je współtworzy (a przynajmniej wywiera wpływ – między innymi dzięki rekomendacji konsumenckiej – na ich finalny wizerunek, a więc pośrednio na ich popyt)