czwartek, 15 listopada 2007

Skąd biorą się trudności w korzystaniu z Internetu?

Internet dla wielu jest podstawowym źródłem wszelkiej informacji. Wszechobecność Sieci i coraz łatwiejszy do niej dostęp czyni ze świata WWW źródło podręczne, natychmiastowe oraz instant. Jednym kliknięciem użytkownicy zagłębiają się w zasobach globalnej pajęczyny szczęśliwi, że oto za pośrednictwem komputera uzyskują wszystkie niezbędne informacje. Istny pharmakon nepenthes (środek łagodzący ból i troski). Panaceum na informacyjne bolączki. Owa prostota obsługi, wyrażająca się intuicyjnym przetrząsaniem świata licznych witryn i serwerów jest jednakże zwodnicza. Internet nie jest wcale prosty w obsłudze ani łatwy czy przyjemny w kontakcie. W dużej mierze dodatniemu odczuciu sprzyjają wizualne interfejsy, wykorzystywanie wirtualnego świata w tych samych celach, co dawnych mediów, np. oglądanie telewizji, słuchanie radia, czy też zwyczajowe nawiązywanie i utrzymywanie kontaktów interpersonalnych. Można więc założyć, że większość osób zażywa zdobyczy Internetu bardzo powierzchownie, zadowalając się zupełnie elementarnymi jego możliwościami.

Na pytanie dlaczego medium to trudne? Odpowiadam: cała architektura Internetu zbudowana jest na fundamencie licznych kodów semiotycznych, np. języków naturalnych, jak polski czy angielski; języków sztucznych, jak np. esperanto; języków programowania, jak np. HTML itd. Aby móc odczytać konkretny kod semiotyczny potrzeba wiedzy na temat jego uzusu semiotycznego. Każdy kod składa się ze zbioru znaków i reguł (gramatyki), pozwalających łączyć te znaki w większe całości, a zatem znajomość kodu oznacza de facto znajomość leksyki (zbiór znaków) oraz syntaktyki (reguł). Czym więcej kodów używa internauta tym więcej informacji na ich temat potrzebuje użytkownik aby móc wprawnie poruszać się w cyberświecie, a tych, jak wiadomo, stale przybywa, np. XHTML. Na tej chociażby podstawie twierdzę, że Internet nie jest wcale medium prostym w użytkowaniu. Każdorazowe wejście zmusza do wysiłku intelektualnego (odbiór, odczyt, nadawanie informacji), a tego każdy nomen omen konsument mediów niebywale unika.

Czy „Ukryty Internet” wciąż się ukrywa?

Obserwując rozwój i popularność wszelkiej maści serwisów opartych na idei 2.0 można wysnuć wniosek, że interesujące i popularne w literaturze, zjawisko tzw. Ukrytego (Głębokiego) Internetu (Invisible Web, Deep Web) prawdopodobnie straciło obecnie nieco ze swej wcześniejszej skali. Informacji naturalnie wciąż przybywa, ale przybywa również metainformacji skierowującej do interesujących nas danych, przybywa narzędzi, które poszukiwania te ułatwiają, odkrywając przed internautami dotychczas nieznane rejony.
Przyjęło się uważać, na podstawie szacunków Michaela K. Bergmana z 2001 r. że zasoby Ukrytego Internetu są ok. 500 razy większe niż ta jego zawartość, która jest widoczna (Visible Web, Surface Web). Jednakże, jak zwracają uwagę L. Derfert-Wolf oraz S. Cisek i R. Sapa, szacunki te były dyskutowane i podważane przez innych badaczy. Z pewnością Invisible Web jest nadal ogromny, bo są to w dużej mierze zasoby, których typowe wyszukiwarki wciąż jeszcze nie potrafią indeksować (zawartość baz danych, katalogi biblioteczne, strony generowane dynamicznie, serwisy wymagające rejestrowania, logowania itp.).
Jednakże specyficzna dla Web 2.0 tendencja do współdziałania w zakresie tworzenia nowych treści objęła również procesy gromadzenia, opisywania, przetwarzania i udostępniania informacji. Internauci niejako sami zajęli się typowymi dla informatoriów działaniami. Rośnie rola i skala współopisywania, współkatalogowania i klasyfikowania, w czym tkwi szansa na niwelację problemów wynikających z niedoskonałości wyszukiwarek.
Olbrzymie znaczenie mają katalogi internetowe współredagowane przez wolontariuszy z całego świata, dbających o wiarygodność informacji w nich zamieszczonych np. DMOZ open directory project: dmoz.org. Pojawiają się w Internecie serwisy pozwalające na wzajemne polecanie sobie wybranych interesujących stron na zasadzie udostępnianych publicznie zakładek, np. del.icio.us; niektóre serwisy pozwalają dyskutować i oceniać poszczególne pozycje, np. polski wykop.pl, lub linkr.pl. Można również dzielić się wyszperaną przez siebie konkretną wiadomością np. newsvine.com; polski gwar.pl.
Można również, co ważniejsze dla naszych rozważań, samodzielnie tworzyć opisy pozycji i dokonywać ich kategoryzacji. Pozwala na to np. serwis CiteULike, będący darmowym narzędziem do przechowywania, organizowania i udostępniania metainformacji o interesujących artykułach naukowych. Serwis dostarcza profesjonalnych narzędzi, takich jak opcja wyświetlania opisu bibliograficznego, w wybranym przez użytkownika formacie(!), specjalną metryczkę każdego rekordu, w formacie BibTex, służącą do automatycznego przygotowywania bibliografii przez użytkowników programu LaTex, wyświetla także abstrakty danych arykułów.
Narzędzia wspomagające docieranie do materiałów wysokiej jakości tworzone są przez potentatów w dziedzinie wyszukiwania, np. Google Scholar, Google Book Search, MSN Live Search Academic, Yahoo! Search Subscriptions. Zasoby bibliotek penetrować można on-line z pozycji centralnych katalogów krajowych, europejskich bibliotek narodowych dzięki The European Library, a w skali ogólnoświatowej na podobne poszukiwania pozwala wciąż powiększający się WorldCat.
Do wartościowych miejsc w sieci kierują zasoby popularnych coraz bardziej, także już w Polsce, specjalnych bramek tematycznych (Subject Gateways). Są one przykładem i dowodem pożytecznego mariażu nowoczesnych technologii internetowych z wiedzą i doświadczeniem budowanym przez bibliotekoznawstwo i informację naukową przez długie dziesięciolecia. Stosują bowiem do organizowania informacji typowo elektronicznej, tradycyjne klasyfikacje biblioteczne, takie jak np. Klasyfikacja Dziesiętna Deweya. Jednocześnie ich cechą zasadniczą jest to, że skupiają się właśnie na tych najbardziej wartościowych (i często dotychczas jednocześnie ukrytych) zasobach związanych z danym przedmiotem, tworzone są również przez specjalistów danej branży. Ten ich atrybut wyrażony jest w stosowanych często w stosunku do owych bramek, określnikach high quality lub quality-controlled. Cenny jest również fakt, że wiele z tego typu serwisów realizuje ideę 2.0 umożliwiając każdemu zainteresowanemu powiększanie ich zasobów (zawsze jednak dla zachowania jakości dodane rekordy są kontrolowane i w razie potrzeby uzupełniane). Za przykład mogą posłużyć amerykański lii.org, angielski bubl.ac.uk lub polska kinia.czytelnia.net. L. Derfert-Wolf w swoich artykułach podaje przykłady około setki tego typu serwisów i projektów.
Zjawisko Web 2.0 z pewnością w znacznym stopniu przyczyniło się do upowszechniania wiedzy o zasobach wcześniej niewidocznych. Internet przestaje być bowiem ukryty jeśli na jego zasoby wskazują palce wielomilionowej społeczności użytkowników sieci.

niedziela, 11 listopada 2007

Prawnicy i e-książki

Niedawne otwarcie Biblioteki Europejskiej wydawać się może próbą pokazania amerykańskim, komercyjnym firmom takim jak Google i Microsoft, że Europa też potrafi i łącząc siły 47 bibliotek narodowych jest w stanie ocalić i zaprezentować wielkiej internetowej społeczności kulturowe dziedzictwo krajów europejskich. O tym, czy biblioteka ta będzie będzie rozwijać się równie prężnie jak projekt Google Book Search przekonamy się w najbliższej przyszłości, jednak już teraz można pokusić się o stwierdzenie, że sprawne funkcjonowanie nie będzie jej mocną stroną a finanse przeznaczone przez biblioteki biorące udział w projekcie na jej działalność nie będą w stanie równać się z tymi do których ma dostęp internetowy gigant. Mimo licznych kontrowersji związanych z projektami Google’a i Microsoftu można zauważyć, że zainteresowanie książkami przez wymienione firmy zaczęło zmieniać mentalność środowisk związanych z książką zarówno amatorsko, jak i profesjonalnie. Mimo tego, zastanawiającym wydaje się pogląd znacznej części wypowiadających się na temat czytania e-książek. Zarówno fachowcy, do których bez wątpienia zaliczają się Grażyna Straus, Katarzyna Wolff i Sebastian Wierny, jak i przypadkowi internauci sądzą, że procent tych, którzy czytają książki z monitorów musi być niewielki. Świadczy o tym choćby to, że badacze z Biblioteki Narodowej dopiero w 2006 roku włączyli do swoich ankiet, pytania o ściąganie z sieci plików z książkami, badania przeprowadzone przez flashbook.pl, a także wypowiedzi internautów na różnorakich forach internetowych. Do podobnych wniosków doszedł Andrzej Gąsiorowski, który zauważył, że dość łatwo wejść w posiadanie elektronicznej wersji utworu, ale korzystanie z niej jest dość utrudnione, gdyż należy ją potem ponownie przekształcić w wersję drukowaną, co jest mało opłacalne. Także popularni polscy pisarze są raczej nieprzychylnie nastawieni do książek czytanych z ekranów monitorów. Mimo opinii tego typu, popieranej przez wielu miłośników książki drukowanej, liczba e-książek ciągle rośnie. Według Andrzeja Żygadło i Anety Wierzchowskiej w 2006 roku w Internecie krążyło „około 20 – 25 tysięcy książek w wersji elektronicznej w języku polskim, na świecie prawdopodobnie kilkaset tysięcy pozycji”, zaś „na jedną sprzedaną książkę w księgarni przypada czasem kilkaset albo i kilka tysięcy kopii rozpowszechnionych przez Internet”. Mimo braku kompleksowych badań w tym kierunku, wydaje się, że szacunek liczby e-książek znajdujących się w sieci przyjęte przez cytowanych autorów są dość zaniżone. Korzystając z pośrednictwa tylko Polskiej Biblioteki Internetowej możemy dotrzeć do 29 243 publikacji, zaś dodając do tego zawartość dostępną w innych bibliotekach cyfrowych okazuje się, że dysponujemy dostępem do o wiele wyższej liczby e-książek. Gdyby jednak brać pod uwagę tylko książki, rozpowszechniane w Sieci z naruszeniem praw autorów i wydawców liczba ich mogłaby rzeczywiście oscylować między 20 a 25 tysiącami. Natomiast pogląd o tym, że na jedną sprzedaną książkę przypada kilkaset lub kilka tysięcy kopii rozprowadzonych w sieci, wydaje się mocno przesadzony. za przykład (dość subiektywnie dobrany) może posłużyć "Harry Potter i Książę Półkrwi" Joanne Kathleen Rowling, który został w 2006 roku sprzedany w Polsce w liczbie 544 tysięcy egzemplarzy. Biorąc pod uwagę rachuby cytowanych autorów (Żygadło i Wierzchowskiej) wystarczy ową liczbę sprzedanych egzemplarzy pomnożyć przez 300, co zaowocuje wynikiem 163 200 000 pobranych plików z danym tytułem e-książki.

sobota, 20 października 2007

Programy o książkach w telewizji Anno Domini 2007

O telewizyjnych programach, poświęconych zagadnieniom książki, naukowych artykułów raptem trzy, trochę publicystyki z gazet i tygodników. Treści o charakterze naukowym obiektywne, jak należy, coś opisują, deskrybują, dowody wyprowadzają. Prasa o zasięgu ogólnopolskim programy te przedstawia raczej w świetle stereotypowym. Cóż więc rzecz można o książce w telewizji Anno Domini 2007?

Ano zmiany przełomu lat 2006/2007 są niepokojące. Przegląd wykazał ubytki znaczne. Diagnoza w karcie: postępująca specjalizacja. Przebieg choroby, zalecane środki zaradcze, prognozy do dalszych działań, rokowania. Słowem szpitalna epikryza. No i przekład na nasze.

Jakiś czas temu dałem w „Bibliotece Analiz” [nr 184, 2006] przegląd programów o książkach objawianych w telewizorni. Wyszło, że w 2005 było ich od 12-16, w zależności jak liczyć (wszystkie na kanałach stacji dostępnych w tzw. pakiecie podstawowym). Początek 2006 to audycji już tylko 6. Od tamtego czasu medytowałem obficie o nową jakość. Powietrze przez przeponę wypuściłem dopiero w nowym roku. I co widzę? Ramówka trochę obskubana, wymaga szybkich zabiegów konserwatorskich bo gubi inkrustację. Z czterech produkcji końca roku 2006 mamy trzy, dodatkowo dodając, i pierwszy raz do ogólnej sumy zestawu wliczając, jeden program z niedostępnej wszystkim TV Kultura, wyjdzie ich 4.

Respirując dalej niespokojnie szybkim okrzykiem je tu wyliczę, w kolejności zgodnej z alfabetem polskim: „Czytelnia”, „Moliki książkowe”, „Telewizyjne wiadomości literackie”, „Wydanie drugie poprawione”.

Telewizyjnym programom potrzebny jest telewidz, tak jak książce czytelnik, jedyne co można przepisać na postępujący zanik to: włączać odbiornik TV o wyznaczanych godzinach. Jak się zdaje programów będzie ubywać i/lub będą raczej prezentowane w specjalnych pasmach. Coraz więcej jest kanałów tematycznych, personalizowanie oferty, zwłaszcza za sprawą Internetu sprzyja traktowaniu książki jako dobra dla wybranych. Tworzy się telewizje dla lekarzy, tworzy się telewizję o kulturze, tworzy się wreszcie i telewizję o książkach.

piątek, 5 października 2007

Infobroker czyli kto?

Najsampierw pozwolę sobie odesłać czytelnika do serwisu poświęconego w całości infobrokeringowi (Infobrokerwsto.pl), w którym to serwisie znajdziemy nie tylko przydatne definicje ale i szersze artykuły i wywody na temat całej idei infobrokerstwa. Nie będę więc mnożył rozważań, skupię się natomiast na przedstawieniu pewnego spostrzeżenia, które stało się dziełem jednej z mych myśli.

Postawiłbym znak prawie no równości między infobrokerem, a informatykiem. Informatyk przecież pisze programy, rozwiązuje stawiane przed nim problemy, wykorzystuje do tego celu komputer i nowoczesne technologie informacyjne i komunikacyjne. Infobroker z kolei szuka informacji, które rozwiążą dany problem (np. informacje niezbędne do napisana programu), przedstawia owe informacje w sposób przystępny dla stawiającego kwerendę, wykorzystuje również komputer i nowoczesne technologie informacyjne i komunikacyjne.

Zdaje się więc, że mają te zawody wiele ze sobą wspólnego, choć powiedziałbym, że infobroker powinien mieć szersze pole manewru i władać szerszą wiedzą. Wystarczy przypomnieć sobie zajęcia z informatyki w szkołach powszechnych. Polegają one z grubsza na nauczeniu wykorzystywania pewnych technologii. Jednakże już strona komunikacyjna technologii wychodzi poza ramy takich zajęć. Informatykom brak spojrzenia humanistycznego, wywodzą się przecież z kierunków ścisłych, to dopiero humanista infobroker, chciałoby się powiedzieć, może więcej, a przynajmniej powinien móc.

Biblioterapia dowodem na...........

Książka, jak wiadomo składa się z materiału oraz utrwalonego w owym materiale tekstu, wyrażonego najczęściej znakami graficznymi pisma, które to (pismo) służy przekazywaniu informacji. Abstrahując od tego, że w ujęciu McLuhana środek przekazu (np. książka) sama jest też przekazem, chciałem podać jeden ważny podwód, dla którego wyżej stawiać, w moim odczuciu, należy sam przekaz informacji zawarty w książce, a więc jej treść od materiału. Zdaję sobie sprawę, że dla wielu osób książka jest przedmiotem sztuki i że większą wagę przypisują jej materialnej postaci, tym samym jednak odbierając status książki na przykład plikowi komputerowemu.

Otóż zwracam uwagę na kwestię biblioterapii. Czymże jest ona wyjaśnię pokrótce. Ano zdiagnozowawszy jakiś problem u czytelnika należy podsunąć mu taką pozycję książkową (lub liczbę mnogą), która zapewni mu owego problemu zredukowanie. Oczywiście nie stanie się to od razu, z resztą o skuteczności wypowiadać się nie będę, tu potrzeba by kogoś z wykształceniem bibliotekoznawczym oraz psychologicznym. Z grubsza jednak sprawa wygląda tak, że recepcja tekstu, czy ściślej fabuły, opowiadania ma służyć przywróceniu duchowej równowagi (więcej w Wikipedii).

Do czego zatem zmierzam? Do tego, że mimo, iż mówimy o biblioterapii , tak jakby to książka leczyła, to tak na dobrą sprawę leczy de facto tekst umieszczony w tejże książce. Równie dobrze można by mówić o internetoterapii, czy weboterapi, netoterapii i wtedy traktować zagubionego czytelnika zbiorem wpisów blogowych, selfpublishingiem internautów, serwisami społecznościowymi. Czyż na przykład serwisy wideo nie spełniają podobnej funkcji, możemy znaleźć sobie filmik na każdą okazję, pośmiać się i ubawić.

poniedziałek, 30 kwietnia 2007

Netspeak = praktyczny

Każda forma komunikowania ma sobie tylko właściwe cechy i jest nastawiona na osiągnięcie sobie tylko właściwych celów. Wraz z rozwojem nowych sposobów komunikacji, wykorzystujących coraz to nowsze urządzenia i osiągnięcia techniki, powstają zupełnie nowe odmiany starych zachowań komunikacyjnych. Każda zmiana pociąga za sobą inną zmianę. Ostatnio nową, zauważalną sferą ludzkiej działalności, która wytworzyła sobie swoiste i odrębne sposoby komunikacji i tym samym sobie właściwy styl wypowiedzi, jest Internet.

Internet, globalna sieć, komunikacja elektroniczna, a więc np. IRC, czat, SMS daje sposobność do przekazywania informacji, jednakże informacje przekazywane via Sieć mają specyficzne cechy i są zbudowane w specyficznym stylu – w netspeaku. Netspeak został już dokładnie opisany przez Monikę Górską-Olesińską, nie ma więc potrzeby budować szczegółowych analiz, chcę natomiast zwrócić uwagę jedynie na jedną główną według mnie cechę netspeaku.

Tak jak dawniej powstanie pisma, druku, fotografii, radia czy telewizji powodowało powstawanie różnych gatunków wypowiedzi, np. gatunków publicystycznych, tak samo dzisiaj powstawanie nowych technologii komputerowych oraz rozwój Internetu daje początek nowym gatunkom wypowiedzi, np. blogom.
Styl internetowy, internetowa odmiana polszczyzny, język internetowy, język internetu, netlish, weblish, netlingo, wired style, cyberspeak, e-language, e-talk, e-disc jakby tego zjawiska nie nazwać nastawiony jest przede wszystkim na cel, jakim jest szybka i skuteczna komunikacja. Stąd tak wiele „błędów”, pomyłek, brak interpunkcji i ortografii, skróty, skrótowce, mieszanie mowy z pismem, skryptualizowanie mowy, mieszanie języków itd. W ten sam sposób daje się wytłumaczyć dlaczego coraz więcej stron WWW budowanych jest w języku esperanto. Otóż przecież esperanto jest systemem, który można opanować w stosunkowo krótkim czasie, a tym samym zdobyć umiejętność komunikacji i wymiany informacji z ludźmi z całego świata, bo jak dobrze wiemy nie ma takiego zakątka globu, gdzie nie funkcjonowałaby jakaś grupa praktykująca esperanto.

Pamiętajmy wreszcie, że jednym z synonimów leksemu virtual jest practical. Konotacja praktyczności jest łatwa do wyjaśnienia. Przecież ta wirtualna rzeczywistość jest rzeczywistością praktyczną bowiem spełnia cały szereg utylitarnych i pragmatycznych zadań. Daje na przykład elementom wirtualnym właściwości dokładnie takie same, jak mają elementy faktycznie istniejące w rzeczywistości. Rzeczywistość wirtualna została stworzona li tylko w praktycznych celach.

czwartek, 26 kwietnia 2007

Źródło uniwersalne


Lektura tekstów w ich postaci elektronicznej nie stanowi najprzyjemniejszej formy kontaktu czytelnika z dziełem, lecz taka właśnie postać informacji doskonale sprawdza się w realizacji procesów informacyjno-wyszukiwawczych. Nie dziwi więc, że działalność bibliograficzna przenosi się do Internetu. Być może już niebawem większość kontaktów np. na linii użytkownik - bibliografia będzie się odbywała za pośrednictwem sieci, przy czym prawdopodobnie zatarciu ulegną dotychczasowe granice pozwalające na wyraźne odróżnienie takich typów źródeł jak katalog, bibliografia, indeks, czy nawet zbiór biblioteczny. Zostaną one zintegrowane, w ramach tworzonego razem hipermedialnego, uniwersalnego źródła informacji. Jeśli wizja wyparcia tradycyjnych dokumentów przez elektroniczne ma szansę powodzenia, to najprawdopodobniej dosięgnie ona specyficznej kategorii, którą są opracowania informacyjne. Wbrew pozorom nie jest to wizja pesymistyczna.
Z informacyjnego punktu widzenia najważniejszą wydaje się ta cecha hipertekstu, która pozwala łączyć ze sobą różne obiekty informacyjne. Daje to dotychczasowym opracowaniom wręcz przełomowe możliwości. Oto rekordy katalogów bibliotecznych, ale też np. informacje księgarskie umiejscowione w Internecie, w bardzo prosty sposób, często poprzez jedno „klikniecie”, pozwalają użytkownikowi zamówić daną książkę, wskazują w której bibliotece, bądź repozytorium i gdzie najbliżej pozycja się znajduje (choćbyśmy znajdowali się w „odległym” zakątku świata), wskazują księgarnie internetowe, w których można dokonać zakupu, dostarczają pełny tekst dokumentu jeśli jest on dostępny publicznie w formie elektronicznej, tudzież pozwalają zapoznać się z jego spisem treści, abstraktem bądź fragmentami. Opracowania bibliograficzne pozbawione zostają większości dotychczasowych ograniczeń: terytorialnych, językowych, chronologicznych, czy dotyczących rodzaju opisywanych materiałów. Rekordy w takiej bibliografii wykorzystującej wynalazek hipertekstu i sieci WWW, przestają być statyczne. Spełniają nie tylko funkcję wskazującą, sygnalną ale zostają ożywione, zostaje im nadana nowa moc wywołująca przed oczami użytkownika konkretne, docelowo poszukiwane przez niego informacje, dostępne już w zasięgu kliknięcia myszą komputerową. Mogą równocześnie przenosić użytkownika bezpośrednio do danego dokumentu zawierającego poszukiwaną treść, do konkretnej frazy, leksji czy encji. Opis bibliograficzny wzbogacił się o nowe funkcje. Teraz spełnia nie tylko rolę deskryptywną ale również animacyjną, staje się interaktywnym narzędziem reagującym na aktywność użytkownika.

środa, 18 kwietnia 2007

Jak krytykuje się Wikipedię?

Odkąd Wikipedia stała się alternatywą dla wszelkich encyklopedii tradycyjnych (drukowanych) odtąd stale poszukuje się haków na to by wykazać różne błędy, lapsusy i wszelkie ciemne strony tego społecznościowego projektu. Krytyka prowadzona jest drogą bądź to wykazywania, że hasła w Wolnej Encyklopedii są pełne wad, np. dane o rzekomej śmierci poetki i zupełnie taka encyklopedia nie może się równać z tradycyjną, co jak wiemy nie jest prawdą. Przypominam artykuł Justyny Hofmokl i Alka Tarkowskiego, którzy przywołali szereg argumentów za, pokazując między innymi, że ilość błędów w encyklopediach tradycyjnych jest porównywalny z tymi wykrywanymi w Wikipedii.

Po drugie próbuje się wyłapywanymi, słynnymi lapsusami podważyć jakość haseł w Wikipedii. Mam na myśli dobrze znany przykład polski – mianowicie hasło Henryk Batuta. Co świadczy o tym, że niekoniecznie można celowo bądź niechcący napisać jakąś głupotę w którymś z haseł ale można w ogóle spreparować całe hasło i takie uprzednio wymyślone następnie umieścić na stronach Wikipedii.

Po trzecie próbuje się również w sposób bardziej inteligentny wskazać, że wszelkie serwisy oparte o model web 2.0 są z góry skazane na katastrofę ponieważ tworzą zbytnio skolektywizowane systemy lub stają się zlepkiem zbytnio zindywidualizowanych punktów widzenia. Szczególnie polecam w tym miejscu artykuł Mirosława Filiciaka, którzy przedstawił poglądy, postulujących te aspekty: Zizka i Laniera czy też artykuł Piotra G. Zielińskiego, który wykazuje, jaki jednak błąd popełnił Zizek przyrównując twórcę treści z odbiorcą treści.

Inna jeszcze możliwość to krytykowanie omawianej encyklopedii poprzez wyliczenia statystyczne. Blisko 70% haseł w angielskojęzycznej wersji Wikipedii redaguje około 2% użytkowników. Hmm, 2% w tym przypadku to około 40 tysięcy redaktorów, gdy np. klasyczne encyklopedie drukowane mogą się poszczycić kilkoma tysiącami redaktorów. Nie wyobrażam sobie aby liczby osób zaangażowanych w powstawanie encyklopedii w takich przypadkach były w jakikolwiek sposób zbieżne. Sam przyznam, że zredagowałem raptem 3, o ile dobrze pamiętam, hasła w Wikipedii, a jestem jej wielkim zwolennikiem. Po prostu w miejscu gdzie uznałem za słuszne dodałem hasło. I to jest ta tzw. mądrość tłumu. Wystarczy aby każdy Polak dodał jedno li tylko hasło i będziemy mieli 40 milionową encyklopedię. Nie da się? Owszem da, tylko trzeba wyedukować ludzi.

Na tym oczywiście problemy się nie kończą oto wyszło na jaw, że jeden z redaktorów ogromnej liczby haseł Wikipedii wcale nie jest tym za kogo się podawał, czyli że nie jest naukowcem z tytułami naukowymi.

W zasadzie zastanawiam się jaka to różnica czy osoba, która zredagowała, stworzyła i zmodyfikowała dwadzieścia tysięcy haseł jest kimś innym niż to deklarowała. Skoro nie wytknięto mu błędów, skoro zrobił kawał dobrej roboty to należy się cieszyć, że znalazł się ktoś, kto potrafił wykazać się wielką inicjatywą i konsekwencją. Jest to kolejny dowód na to, że każdy może współredagować tę ogromną bazę wiedzy. To jest clou całego przedsięwzięcia wszelkich serwisów ukutych we wzorze 2.0.

Mimo prób podważenia roli Wikipedii i ogólnikowej krytyki (w stylu: „Wikipedia jest rażąco nierówna” z roku na rok haseł przybywa, a liczba odwiedzin stale rośnie. Podobnie jak liczba haseł, których około pięciuset codziennie przybywa w wersji polskojęzycznej, a tysiące oczu permanentnie nadzoruje aby poszczególne artykuły hasłowe były poprawne stylistycznie i rzeczowo oraz aby były powiązane w relacje czyli aby były umieszczone w odpowiednich kategoriach.

Tym wszystkim, którzy dostrzegają niedostatki w Encyklopedii Wiki proponuje wreszcie zasiąść przed ekranem monitora i włożyć trochę wysiłku intelektualnego w edycje i poprawienie błędów. Kontestacja jest bardzo modna w Polsce. Narzekamy na wszystko i wszystkich zamiast zakasać rękawy i wziąć się do roboty.

Może te wszystkie próby podważenia jakości haseł Wikipedy, jak ją niektórzy zową ;), są tylko formą walki o pozostawienie wszystkiego bez zmian, o pozostawienie zastanego porządku, walki o status quo. Wszędzie napotyka się na opory i niechęć, a droga zmian często prowadzi do sytuacji, którą wszyscy świetnie znamy z historii, a którą to jeden z bibliotekarzy dostosował do przedstawienia prób wprowadzania jakichkolwiek zmian z działalności bibliotek.

poniedziałek, 16 kwietnia 2007

Małgorzata Kowalska: Dygitalizacja zbiorów bibliotek polskich. Warszawa 2007 Wydawnictwo SBP.

Początek dygitalizacji zbiorów drukowanych to rok 1971, kiedy Michael Hart wprowadził ręcznie do komputera Deklarację Niepodległości Stanów Zjednoczonych. Podjęta przez niego inicjatywa pociągnęła za sobą rozrastającą się grupę wolontariuszy i przerodziła w największy chyba niekomercyjny serwis z książkami w postaci cyfrowej na świecie. O ile pierwszą biblioteką cyfrową na świecie był wspomniany powyżej niefinansowany ani ze środków federalnych, ani z budżetu jakiegokolwiek stanu Project Gutenberg, tak na gruncie polskim jako pierwsza pojawiła się w 1997 roku Biblioteka Sieciowa. Ta współtworzona przez wolontariuszy inicjatywa wyprzedziła o ponad 5 lat otwartą z wielką pompą Polską Bibliotekę Internetową, która niestety z powodu wielu różnorakich perturbacji nie rozwija się tak, jak oczekiwałoby tego środowisko bibliotekarzy.


W dniu dzisiejszym biblioteki cyfrowe rozwijają się w sposób żywiołowy. Mimo, że liczba bibliotek, które przystąpiły do przenoszenia zawartości książek zagrożonych przez upływ czasu lub inne niekorzystne czynniki rośnie, to nadal jest ich zbyt mało a we wschodniej części Polski nie ma ich wcale. Dygitalizacja wywołała wprawdzie odzew w postaci licznych publikacji, jednakże do momentu wydania książki Małgorzaty Kowalskiej nie została w sposób kompleksowy opisana.


„Nadrzędnym celem opracowania – według autorki – jest charakterystyka strategii dygitalizacji przyjętych przez poszczególne biblioteki, ogólna ocena dokonań bibliotek w tym zakresie oraz próba ukazania perspektyw tego typu działalności na przyszłość.” Problematyka poruszona w książce jest istotna szczególnie w perspektywie ciągłego rozwoju Polski zmierzającej ku gospodarce opartej na wiedzy. Bez zasobów oferowanych przez biblioteki cyfrowe nie zdołano by ochronić znacznej części dziedzictwa narodowego, na który składa się twórczość autorów praktycznie nieznanych, których utwory zostały wydane jednokrotnie. Małgorzata Kowalska podzieliła książkę na dwie części. Pierwsza, zatytułowana „Zastosowanie techniki cyfrowej w ochronie dziedzictwa dokumentalnego” została poświęcona różnorakim aspektom dygitalizacji poczynając od technicznych przez organizacyjne, kończąc na prawnych. „Dygitalizacja zbiorów w bibliotekach polskich” to tytuł części drugiej poświęconej praktycznym efektom tejże czynności.


Nawet mimo słów autorki zamieszczonych we wstępie o tym, iż niniejsza książka nie ma pełnić funkcji poradnika, należy podkreślić, że stać się ona powinna wydawnictwem niezbędnym w księgozbiorze podręcznym każdej osoby kierującej pracami dygitalizacyjnymi w bibliotece. Bez wątpienia na to zasługuje z racji szerokiej problematyki podjętej w opracowaniu gromadzącym w jednym miejscu tematykę poruszaną w licznych artykułach rozrzuconych po wielu czasopismach i wydawnictwach zbiorowych. Jednak pozostała jedna sfera pominięta przez autorkę. Wprawdzie tytuł książki wyraźnie wskazuje, że jej problematyka została osnuta wokół zagadnień związanych z cyfryzacją zbiorów podejmowaną przez biblioteki, ale wydaje się, że brak w niej choćby podrozdziału poświęconego inicjatywom podejmowanym na pograniczu prawa, które zyskują coraz większą popularność. Oprócz Europejskiej Biblioteki Cyfrowej i budzącego liczne kontrowersje Google’a autorka właściwie nie opisała żadnego projektu dygitalizującego również zbiory chronione prawem autorskim. A może się okazać, że z racji dygitalizacji prowadzonej przez firmy komercyjne, rola biblioteki jako ośrodka gromadzącego piśmiennictwo zostanie zagrożona i aby przeczytać książkę nie zakupioną osobiście, dzisiejszy użytkownik biblioteki będzie zmuszony w niedalekiej przyszłości skorzystać z jednego z serwisów internetowych działających na pograniczu prawa.

Cała recenzja znajduje się w "Poradniku Bibliotekarza" nr 9/2007 s. 24 - 26.

Serdecznie dziękuję Pani Małgorzacie za dar w postaci książki.

piątek, 16 marca 2007

Znowu o książkach audio...

Mimo dużych kosztów dygitalizacji zbiorów dźwiękowych, w tym i książek mówionych, mimo problemów z dostępem do sprzętu i oprogramowania, koniecznym wydaje się ratowanie pierwszych nagrań dźwiękowych choćby w celu ocalenia polskiego dziedzictwa kulturowego. Wprawdzie prace nad cyfryzacją zasobów drukowanych posuwają się dość sprawnie – świadczy o tym sprawna współpraca regionalnych bibliotek cyfrowych – ale do jej ukończenia jeszcze daleka droga. O wiele gorzej jest z dygitalizacją bibliotecznych zbiorów muzycznych. Do tej pory uratowano jedynie nagrania zapisane na wałkach fonograficznych. W związku z tym nasuwają się kilka pytań:

Co z kilkunastoma tysiącami nagrań, które powstały przed drugą wojną światową w polskich wytwórniach fonograficznych?

Co z tysiącami książek audio, które niewidomi i niedowidzący ciągle mogą wypożyczać w bibliotekach udostępniających tego rodzaju zbiory (pierwsze tego typu wydawnictwa powstały na początku lat sześćdziesiątych)?

Wprawdzie Archiwum Polskiego Radia prowadzi prace nad dygitalizacją własnych zasobów dźwiękowych, ale z racji niezbyt dużej ilości specjalistów przy tym zadaniu proces ten będzie długotrwały. Poza tym Polskie Radio nie będzie w stanie zdygitalizować polskich zasobów dźwiękowych w sposób całościowy. Na przeszkodzie stoi bowiem ich znaczne rozproszenie i najprawdopodobniej również całkowite zniszczenie części z nich. Póki co wszyscy zainteresowani zdygitalizowanymi zbiorami Polskiego Radia muszą się doń udać osobiście, a przecież świat wychodzi ze swoimi zbiorami do internautów W sieci można znaleźć również słuchowiska prezentowane w amerykańskim radio w latach pięćdziesiątych , a także nagrania muzyczne i filmowe należące już do domeny publicznej. Polska w porównaniu za wzmiankowanymi wyżej inicjatywami państwowymi i prywatnymi wypada bardzo blado. Jedynie tzw. piraci internetowi ciągle dzielą się swoimi zbiorami, również książkami audio.

Po przeanalizowaniu tytułów książek audio, które krążą w swoistym obiegu nielegalnym, dość istotną konstatacją staje się ta, że część z nich (111 tytułów) należy już do domeny publicznej i jako takie mogą one dość szybko z owego obiegu zniknąć. Fakt, iż wydawcy postanowili zatrudnić lektora i ponownie wprowadzić dany tytuł na rynek, nie powinien stanowić problemu w jego swobodnym obiegu, o ile znajdzie się grupka ochotników , którzy zechcą wziąć przykład z zapaleńców współtworzących LibriVox.

czwartek, 15 marca 2007

Od dokumentu do chat'u

Przyzwyczajeni jesteśmy do posługiwania się dokumentem. W pracy, w domu, na studiach, w bibliotece czytamy, kserujemy, odpisujemy, wypożyczamy dokumenty. Biblioteka gromadzi, opracowuje, udostępnia a bibliografia opisuje dokumenty. Dokument stanowi podstawową jednostkę opisu i zainteresowań procesów informacyjno-wyszukiwawczych. Czymże on jednak jest? Okazuje się, że tradycyjnie pojmowany dokument bardzo silnie związał się z materią, swym nośnikiem. Przywykliśmy postrzegać go poprzez jego fizyczność. Pociąga to jednak za sobą utratę znaczącej ilości informacji. Dla społeczeństwa informacyjnego, istotna jest bowiem nie sama książka rozumiana jako forma, nie czasopismo, nie kaseta, dyskietka czy płyta ale ich zawartość (content), informacja na nich zapisana, np. nawet pojedynczy utwór z płyty (przykładem na to, że to utwór a nie cała płyta czy album, stanowi obiekt pożądania, może być popularność sklepów internetowych sprzedających odrębne utwory dla telefonów komórkowych, odtwarzaczy MP3, iPodów itp.). Oto również wraz z rozwojem technologii informacja zaczęła się przejawiać w zupełnie nowych postaciach. Wiedza utrwalana jest dzisiaj w wiadomościach e-mail, arkuszach kalkulacyjnych, wykresach, formularzach, prezentacjach, może tkwić w wirtualnych pogawędkach. Na horyzoncie zainteresowań nowoczesnej bibliografii mieszczą się już przedmioty żywe lub nieożywione, statyczne i ruchome, również nieistniejące, miejsca, również lokalizacje pozaziemskie a nawet abstrakcyjne pojęcia, usługi czy wydarzenia!

Dla deskrypcji owych zjawisk wprowadzane są nowe pojęcia, takie jak obiekt informacyjny, obiekt cyfrowy, także encja, leksja czy nawet obiekt dokumentopodobny, dużo lepiej oddające niezależność od fizycznego nośnika. Narzędzia pozwalające na poskromienie tych zjawisk to nowoczesne modele opisu jak np.: Dublin Core (DC) czy Functional Requirements for Bibliographic Records (FRBR), co ciekawe, czytelne zarówno maszynowo jak i dla człowieka. Nadchodzi epoka, w której przyjdzie nam zmienić sposób postrzegania źródła. Forma stanie się bardziej przejrzysta, mniej istotna, dostrzeżemy poprzez nią i uwolnimy wartość najważniejszą – WIEDZĘ.

czwartek, 8 marca 2007

Web 3.0

Gdy nieoczekiwanie bądź co bądź wyrósł na naszych oczach termin web 2.0 wielu uznało go li tylko za modne słowo kluczowe, którym opisuje się wszystko, co nowe w internecie. Nie będę w tej chwili zagłębiał się w znaczenie tego terminu ani nie będę rozważał jego konotacji bowiem to zostało uczynione licznie na niezliczonych forach, serwisach i artykułach publicystycznych.

Chcę natomiast zwrócić uwagę na coś zupełnie innego. Mianowicie gdy ukuto termin 2.0 zaczęto równocześnie poszukiwać objawów kolejnych zmian zlokalizowanych dalej na osi tym razem w miejscu przy punkcie 3.0.

Pierwszy raz ów twór słowno-liczbowy web 3.0 usłyszałem na konferencji w Pałacu Kultury w grudniu roku 2006. Wtedy to profesor Henry Jenkins był sugerował, że może właśnie sfera przejawów ludzkich działań w Second Life jest właśnie tym, czemu z czasem przytkniemy łatkę 3.0.

Nie długo trzeba było czekać oto bowiem nowy produkt na rynku gier zwiastuje rychłe zaopatrywanie graczy w konsolę służącą właśnie zgłębianiu możliwości wirtualnego świata web 3.0.

Nie mnie oceniać czy to dobrze czy źle, czy nazwa pasuje czy nie. Zastanawia mnie natomiast czy za sprawą wspominanego Second Life, i innych przedsięwzięć podobnych, z czasem nie zyskamy możliwości bycia nieśmiertelnymi. Wystarczy tylko oprogramowanie, które naszego awatara będzie podtrzymywać i nim kierować zgodnie z naszymi wcześniejszymi predyspozycjami oraz jakieś serwery, firma która zwietrzy interes w oferowaniu tego typu usług. Gdy natomiast niczym w grach RPG nasz awatar będzie zyskiwał coraz to nowe umiejętności (np. nauczy się obcych języków, zdobędzie informacje, poszerzy swoją wiedzę i w konsekwencji wyprodukuje nowy przekaz) to czy po pewnym czasie nie narodzi się wreszcie ta od lat poszukiwana sztuczna inteligencja?

A może zwyczajnie tak, jak było w przypadku web 2.0 pojawi się jakiś kolejny krok ewolucyjny, który dostrzeżony zostanie dopiero w momencie nazwania go, mimo iż od kilku lat będzie już funkcjonował. W każdym razie zmysły już mamy wyostrzone na owo novum, które ma nadejść. Kiedy? Nie wie nikt!

wtorek, 6 marca 2007

Skryptualizacja mowy – cecha netspeaku

Dawno temu niejaki Mike Sandbothe napisał był tekst, w którym wyłożył kilka cech charakteryzujących komunikację w internecie. Poza wyróżnioną w tytule posta były to: piktorializacja pisma i skryptualizacja obrazu. Jako, że w polskiej przestrzeni tekstowej na cytatę tegoż natknąłem się jeno raz, pozwalam więc sobie poniższym opusem przywołać gwoli przypomnienia najistotniejszą według mnie cechę komunikacji internetowej, o której był pisał wspomniany powyżej.

Jedną z głównych cech internetowej odmiany polszczyzny, jeśli o takiej w ogóle wolno mówić, jest skryptualizacja mowy. Z jednej strony fakt ten może jawić się jako zagrożenie dla języka polskiego w ogóle, a z drugiej jako właściwość dająca nowe, nieograniczone wręcz możliwości prowadzenia badań.

Termin skryptualizacja niesie w swym znaczeniu, poza implikacją, iż tradycyjny tekst mówiony w internecie staje się tekstem pisanym, ważne z punktu rozważań lingwistycznych treści. Mianowicie do tej pory specjaliści od języka zajmowali się głównie tekstami pisanymi, nieliczne prace z zakresu badań ustnych realizacji języka, ze względu na utrudnienia płynące z rejestrowania oralnych zaświadczeń skłaniały często do pominięcia takowych w toku inferencji oraz do koncentracji się jedynie na tych bardziej materialnych zdarzeniach językowych.

Skryptualizacja mowy oznacza, iż w internecie gości przekaz pierwotnie mówiony, a dziś za sprawą licznych komunikatorów wprowadzony na nowo do systemu polskiego systemu. Językoznawcy otrzymują w tej chwili materiał gotowy do badań, materiał pisany, aczkolwiek prezentujący ustną odmianę języka naturalnego.

Uważam więc, że to nowe zjawisko należy czym prędzej opisać i przebadać, ciekawe bowiem jest to jak ów kod mówiony oddziaływać będzie na pisany i na powrót na mówiony?

sobota, 3 marca 2007

Zizek i Web 2.0

Interesujący tekst Zizka dość ostro krytykuje świat wirtualny ze wszystkimi jego pozornymi zaletami. Ważną nagrodę Człowieka Roku przyznawaną corocznie przez tygodnik Time otrzymał według Zizka (cytuję) każdy, kto korzysta z internetu lub tworzy zawarte w nim treści. Różnica między odbiorcą a twórcą jest dosyć oczywista. Wprawdzie skala porównania, którego za chwile użyję jest przesadzona, ale pozwoli by może uzmysłowić sobie jaką pomyłkę popełnił filozof. Do chwili nadania tytułu Człowieka Roku w 2006 roku zbiorowości, tygodnik Time zazwyczaj wybierał do tego wybitne jednostki. Mimo tego, że kilkakrotnie nagrodzone zostały postaci abstrakcyjne np.: amerykański żołnierz, węgierski powstaniec, komputer osobisty, czy zbiorowości - amerykańska klasa średnia i potomkowie boomu demograficznego, ale były to odosobnione przypadki. Większość spośród nagrodzonych cechowała aktywność (wyjątek to komputer osobisty). W tym przypadku redakcja Time'a postąpiła podobnie i nagrodziła społeczność tworzącą zawartość internetu, a właściwie Web 2.0, a nie biernych odbiorców!

Jeśli Zizkowi wydaje się – pozwolę sobie tutaj zacytować - że każdy, kto patrzy na okładkę "Time'a", nie widzi innych, z którymi jakoby bezpośrednio się komunikuje, lecz lustrzane odbicie samego siebie. Czy wadą jest ujrzenie własnego odbicia w sieci? Czy możność wypowiedzenia się w medium docierającym do milionów ludzi jest mało znaczące i internauta otaczając się podobnymi do niego i spędzając coraz więcej czasu w sieci przestaje dostrzegać świat realny? A może filozof wyobraża sobie takiego internautę jako awatara funkcjonującego w alternatywnym świecie Second Life gdzie ślusarz może zostać dziennikarzem, a fryzjerka gwiazdą popu? A nawet jeśli tak, to czy owe awatary nie mogą się swobodnie wypowiadać?

Wydaje mi się, że Zizek się myli. Argumentem na to może być możliwość wpływania tego wirtualnego świata choćby na rzeczywistość medialną Polski (patrz afera z blogiem Elizy Michalik: 1, 2 i 3), czy pogłoski zamieszczone na pewnym blogu, które spowodowały rozprzestrzenienie się wieści o pewnym prezydencie, asystentce i cygarze (taką wersję przedstawił w grudniu w Warszawie Alexander Bard).

środa, 28 lutego 2007

O książkach audio słów kilka

W jednym ze swoich artykułów Richard Stallman przedstawił niepokojącą wizję przyszłości książki. Za czterdzieści lat zbiory bibliotek będą zdygitalizowane, każda publikacja będzie dostępna tylko w postaci elektronicznej i większość z nich będzie dostępna tylko dla bogatej części społeczeństwa. Oznaczać to może jeszcze większe rozwarstwienie społeczne i niemal całkowity brak możliwości awansu do klasy średniej dzięki zdobyciu wyższego wykształcenia.

Wypada żywić nadzieję, że się myli i prace podejmowane nad dygitalizacją zbiorów przez biblioteki cyfrowe, niezależne projekty funkcjonujące dzięki pracy wolontariuszy oraz przez gigantów internetowych nie doprowadzą do tego, że tradycyjne biblioteki zostaną zamknięte, a książkę będzie można przeczytać jedynie korzystając z usług swoistych archiwów książek bądź różnorakich pirackich serwisów internetowych. Wprawdzie czytanie nie cieszy się w dzisiejszym, nastawionym na konsumpcję świecie specjalną estymą i mimo zamykania kolejnych bibliotek, likwidowania małych i średnich księgarni, książka ciągle znajduje sobie miejsce.

Jeszcze bardziej wydłużający się czas pracy, powszechność internetu i ciągle powiększająca się oferta dostawców telewizji kablowej powodują, że zostaje coraz mniej czasu na lekturę. Jednym z lekarstw na taki stan rzeczy jest książka do słuchania. Wprawdzie początkowo służyła ona głównie jako substytut książki papierowej i dostępna była głównie w bibliotekach dla niesłyszących i niedosłyszących w postaci kilkunastu kaset magnetofonowych ale wraz z ewolucją sprzętu audio, ich przenoszenie i odtwarzanie stało się znacznie łatwiejsze. A pojawienie się oprogramowania umożliwiającego zripowanie nagrania do formatu mp3 oraz kart pamięci spowodowało, że książka audio zmniejszyła swe rozmiary ze wspomnianych wcześniej kilkunastu kaset, czy kilku płyt cd do kilkuset MB. W związku z tym możliwe jest odsłuchiwanie książki właściwie wszędzie i niemal w każdych warunkach, a uczniowie czujący awersję do czytania mogą wreszcie zapoznać się z lekturami szkolnymi w sposób niemal bezstresowy.

Niestety oferta rynkowa książek audio jest ciągle zbyt mała i o ile wiem nie powstała w Polsce inicjatywa podobna do Librivox, oferującej więcej tytułów na licencji Creative Commons niż największa polska księgarnia internetowa.

czwartek, 22 lutego 2007

KINIA - Katalog Internetowy Nauki o Informacji



W pierwszym poście tego bloga chcielibyśmy przedstawić nasze najnowsze dzieło - mianowicie subject gateway nauki o informacji.
W związku z potrzebą tworzenia miejsc w sieci internetowej, które zbierałyby i porządkowały dane o zasobach związanych z informacją i mediami oraz w związku z coraz większą popularnością internetowych projektów społecznościowych, kultury web 2.0, stworzyliśmy dedykowany tym zagadnieniom, polski subject gateway.

KINIA Katalog Internetowy Nauki o Informacji jest niezależnym projektem, którego ideą jest gromadzenie adresów do stron związanych przedmiotowo, lub poprzez wypełniane funkcje, z bibliotekoznawstwem, informacją naukową czy też nauką o informacji. Rekordy w katalogu porządkowane są obecnie w ramach kategorii pierwszego stopnia 000 Dzieła treści ogólnej, Klasyfikacji Dziesiętnej Deweya. Współtworzenie KINII umożliwiono każdemu zainteresowanemu zagadnieniami nauki o informacji. Każdy aktywny użytkownik internetu może dodawać adresy do katalogu i korzystać z efektów pracy - mamy taką nadzieję - licznego grona zainteresowanych. Cały proces dodawania linków i ich opisów jest bardzo prosty i został dodatkowo opisany w dziale pomocy, na stronie katalogu. Dalsze zastosowanie: kopiowanie, przetwarzanie znajdujących się w katalogu rekordów jest całkowicie dozwolone.

Zachęcamy tą drogą wszystkich bibliotekarzy, pracowników informacji oraz specjalistów z zakresu nauki o informacji do dodawania linków do ważnych zasobów sieciowych związanych z szeroko pojętą informacją.