czwartek, 15 listopada 2007

Skąd biorą się trudności w korzystaniu z Internetu?

Internet dla wielu jest podstawowym źródłem wszelkiej informacji. Wszechobecność Sieci i coraz łatwiejszy do niej dostęp czyni ze świata WWW źródło podręczne, natychmiastowe oraz instant. Jednym kliknięciem użytkownicy zagłębiają się w zasobach globalnej pajęczyny szczęśliwi, że oto za pośrednictwem komputera uzyskują wszystkie niezbędne informacje. Istny pharmakon nepenthes (środek łagodzący ból i troski). Panaceum na informacyjne bolączki. Owa prostota obsługi, wyrażająca się intuicyjnym przetrząsaniem świata licznych witryn i serwerów jest jednakże zwodnicza. Internet nie jest wcale prosty w obsłudze ani łatwy czy przyjemny w kontakcie. W dużej mierze dodatniemu odczuciu sprzyjają wizualne interfejsy, wykorzystywanie wirtualnego świata w tych samych celach, co dawnych mediów, np. oglądanie telewizji, słuchanie radia, czy też zwyczajowe nawiązywanie i utrzymywanie kontaktów interpersonalnych. Można więc założyć, że większość osób zażywa zdobyczy Internetu bardzo powierzchownie, zadowalając się zupełnie elementarnymi jego możliwościami.

Na pytanie dlaczego medium to trudne? Odpowiadam: cała architektura Internetu zbudowana jest na fundamencie licznych kodów semiotycznych, np. języków naturalnych, jak polski czy angielski; języków sztucznych, jak np. esperanto; języków programowania, jak np. HTML itd. Aby móc odczytać konkretny kod semiotyczny potrzeba wiedzy na temat jego uzusu semiotycznego. Każdy kod składa się ze zbioru znaków i reguł (gramatyki), pozwalających łączyć te znaki w większe całości, a zatem znajomość kodu oznacza de facto znajomość leksyki (zbiór znaków) oraz syntaktyki (reguł). Czym więcej kodów używa internauta tym więcej informacji na ich temat potrzebuje użytkownik aby móc wprawnie poruszać się w cyberświecie, a tych, jak wiadomo, stale przybywa, np. XHTML. Na tej chociażby podstawie twierdzę, że Internet nie jest wcale medium prostym w użytkowaniu. Każdorazowe wejście zmusza do wysiłku intelektualnego (odbiór, odczyt, nadawanie informacji), a tego każdy nomen omen konsument mediów niebywale unika.

Czy „Ukryty Internet” wciąż się ukrywa?

Obserwując rozwój i popularność wszelkiej maści serwisów opartych na idei 2.0 można wysnuć wniosek, że interesujące i popularne w literaturze, zjawisko tzw. Ukrytego (Głębokiego) Internetu (Invisible Web, Deep Web) prawdopodobnie straciło obecnie nieco ze swej wcześniejszej skali. Informacji naturalnie wciąż przybywa, ale przybywa również metainformacji skierowującej do interesujących nas danych, przybywa narzędzi, które poszukiwania te ułatwiają, odkrywając przed internautami dotychczas nieznane rejony.
Przyjęło się uważać, na podstawie szacunków Michaela K. Bergmana z 2001 r. że zasoby Ukrytego Internetu są ok. 500 razy większe niż ta jego zawartość, która jest widoczna (Visible Web, Surface Web). Jednakże, jak zwracają uwagę L. Derfert-Wolf oraz S. Cisek i R. Sapa, szacunki te były dyskutowane i podważane przez innych badaczy. Z pewnością Invisible Web jest nadal ogromny, bo są to w dużej mierze zasoby, których typowe wyszukiwarki wciąż jeszcze nie potrafią indeksować (zawartość baz danych, katalogi biblioteczne, strony generowane dynamicznie, serwisy wymagające rejestrowania, logowania itp.).
Jednakże specyficzna dla Web 2.0 tendencja do współdziałania w zakresie tworzenia nowych treści objęła również procesy gromadzenia, opisywania, przetwarzania i udostępniania informacji. Internauci niejako sami zajęli się typowymi dla informatoriów działaniami. Rośnie rola i skala współopisywania, współkatalogowania i klasyfikowania, w czym tkwi szansa na niwelację problemów wynikających z niedoskonałości wyszukiwarek.
Olbrzymie znaczenie mają katalogi internetowe współredagowane przez wolontariuszy z całego świata, dbających o wiarygodność informacji w nich zamieszczonych np. DMOZ open directory project: dmoz.org. Pojawiają się w Internecie serwisy pozwalające na wzajemne polecanie sobie wybranych interesujących stron na zasadzie udostępnianych publicznie zakładek, np. del.icio.us; niektóre serwisy pozwalają dyskutować i oceniać poszczególne pozycje, np. polski wykop.pl, lub linkr.pl. Można również dzielić się wyszperaną przez siebie konkretną wiadomością np. newsvine.com; polski gwar.pl.
Można również, co ważniejsze dla naszych rozważań, samodzielnie tworzyć opisy pozycji i dokonywać ich kategoryzacji. Pozwala na to np. serwis CiteULike, będący darmowym narzędziem do przechowywania, organizowania i udostępniania metainformacji o interesujących artykułach naukowych. Serwis dostarcza profesjonalnych narzędzi, takich jak opcja wyświetlania opisu bibliograficznego, w wybranym przez użytkownika formacie(!), specjalną metryczkę każdego rekordu, w formacie BibTex, służącą do automatycznego przygotowywania bibliografii przez użytkowników programu LaTex, wyświetla także abstrakty danych arykułów.
Narzędzia wspomagające docieranie do materiałów wysokiej jakości tworzone są przez potentatów w dziedzinie wyszukiwania, np. Google Scholar, Google Book Search, MSN Live Search Academic, Yahoo! Search Subscriptions. Zasoby bibliotek penetrować można on-line z pozycji centralnych katalogów krajowych, europejskich bibliotek narodowych dzięki The European Library, a w skali ogólnoświatowej na podobne poszukiwania pozwala wciąż powiększający się WorldCat.
Do wartościowych miejsc w sieci kierują zasoby popularnych coraz bardziej, także już w Polsce, specjalnych bramek tematycznych (Subject Gateways). Są one przykładem i dowodem pożytecznego mariażu nowoczesnych technologii internetowych z wiedzą i doświadczeniem budowanym przez bibliotekoznawstwo i informację naukową przez długie dziesięciolecia. Stosują bowiem do organizowania informacji typowo elektronicznej, tradycyjne klasyfikacje biblioteczne, takie jak np. Klasyfikacja Dziesiętna Deweya. Jednocześnie ich cechą zasadniczą jest to, że skupiają się właśnie na tych najbardziej wartościowych (i często dotychczas jednocześnie ukrytych) zasobach związanych z danym przedmiotem, tworzone są również przez specjalistów danej branży. Ten ich atrybut wyrażony jest w stosowanych często w stosunku do owych bramek, określnikach high quality lub quality-controlled. Cenny jest również fakt, że wiele z tego typu serwisów realizuje ideę 2.0 umożliwiając każdemu zainteresowanemu powiększanie ich zasobów (zawsze jednak dla zachowania jakości dodane rekordy są kontrolowane i w razie potrzeby uzupełniane). Za przykład mogą posłużyć amerykański lii.org, angielski bubl.ac.uk lub polska kinia.czytelnia.net. L. Derfert-Wolf w swoich artykułach podaje przykłady około setki tego typu serwisów i projektów.
Zjawisko Web 2.0 z pewnością w znacznym stopniu przyczyniło się do upowszechniania wiedzy o zasobach wcześniej niewidocznych. Internet przestaje być bowiem ukryty jeśli na jego zasoby wskazują palce wielomilionowej społeczności użytkowników sieci.

niedziela, 11 listopada 2007

Prawnicy i e-książki

Niedawne otwarcie Biblioteki Europejskiej wydawać się może próbą pokazania amerykańskim, komercyjnym firmom takim jak Google i Microsoft, że Europa też potrafi i łącząc siły 47 bibliotek narodowych jest w stanie ocalić i zaprezentować wielkiej internetowej społeczności kulturowe dziedzictwo krajów europejskich. O tym, czy biblioteka ta będzie będzie rozwijać się równie prężnie jak projekt Google Book Search przekonamy się w najbliższej przyszłości, jednak już teraz można pokusić się o stwierdzenie, że sprawne funkcjonowanie nie będzie jej mocną stroną a finanse przeznaczone przez biblioteki biorące udział w projekcie na jej działalność nie będą w stanie równać się z tymi do których ma dostęp internetowy gigant. Mimo licznych kontrowersji związanych z projektami Google’a i Microsoftu można zauważyć, że zainteresowanie książkami przez wymienione firmy zaczęło zmieniać mentalność środowisk związanych z książką zarówno amatorsko, jak i profesjonalnie. Mimo tego, zastanawiającym wydaje się pogląd znacznej części wypowiadających się na temat czytania e-książek. Zarówno fachowcy, do których bez wątpienia zaliczają się Grażyna Straus, Katarzyna Wolff i Sebastian Wierny, jak i przypadkowi internauci sądzą, że procent tych, którzy czytają książki z monitorów musi być niewielki. Świadczy o tym choćby to, że badacze z Biblioteki Narodowej dopiero w 2006 roku włączyli do swoich ankiet, pytania o ściąganie z sieci plików z książkami, badania przeprowadzone przez flashbook.pl, a także wypowiedzi internautów na różnorakich forach internetowych. Do podobnych wniosków doszedł Andrzej Gąsiorowski, który zauważył, że dość łatwo wejść w posiadanie elektronicznej wersji utworu, ale korzystanie z niej jest dość utrudnione, gdyż należy ją potem ponownie przekształcić w wersję drukowaną, co jest mało opłacalne. Także popularni polscy pisarze są raczej nieprzychylnie nastawieni do książek czytanych z ekranów monitorów. Mimo opinii tego typu, popieranej przez wielu miłośników książki drukowanej, liczba e-książek ciągle rośnie. Według Andrzeja Żygadło i Anety Wierzchowskiej w 2006 roku w Internecie krążyło „około 20 – 25 tysięcy książek w wersji elektronicznej w języku polskim, na świecie prawdopodobnie kilkaset tysięcy pozycji”, zaś „na jedną sprzedaną książkę w księgarni przypada czasem kilkaset albo i kilka tysięcy kopii rozpowszechnionych przez Internet”. Mimo braku kompleksowych badań w tym kierunku, wydaje się, że szacunek liczby e-książek znajdujących się w sieci przyjęte przez cytowanych autorów są dość zaniżone. Korzystając z pośrednictwa tylko Polskiej Biblioteki Internetowej możemy dotrzeć do 29 243 publikacji, zaś dodając do tego zawartość dostępną w innych bibliotekach cyfrowych okazuje się, że dysponujemy dostępem do o wiele wyższej liczby e-książek. Gdyby jednak brać pod uwagę tylko książki, rozpowszechniane w Sieci z naruszeniem praw autorów i wydawców liczba ich mogłaby rzeczywiście oscylować między 20 a 25 tysiącami. Natomiast pogląd o tym, że na jedną sprzedaną książkę przypada kilkaset lub kilka tysięcy kopii rozprowadzonych w sieci, wydaje się mocno przesadzony. za przykład (dość subiektywnie dobrany) może posłużyć "Harry Potter i Książę Półkrwi" Joanne Kathleen Rowling, który został w 2006 roku sprzedany w Polsce w liczbie 544 tysięcy egzemplarzy. Biorąc pod uwagę rachuby cytowanych autorów (Żygadło i Wierzchowskiej) wystarczy ową liczbę sprzedanych egzemplarzy pomnożyć przez 300, co zaowocuje wynikiem 163 200 000 pobranych plików z danym tytułem e-książki.