czwartek, 15 listopada 2007

Czy „Ukryty Internet” wciąż się ukrywa?

Obserwując rozwój i popularność wszelkiej maści serwisów opartych na idei 2.0 można wysnuć wniosek, że interesujące i popularne w literaturze, zjawisko tzw. Ukrytego (Głębokiego) Internetu (Invisible Web, Deep Web) prawdopodobnie straciło obecnie nieco ze swej wcześniejszej skali. Informacji naturalnie wciąż przybywa, ale przybywa również metainformacji skierowującej do interesujących nas danych, przybywa narzędzi, które poszukiwania te ułatwiają, odkrywając przed internautami dotychczas nieznane rejony.
Przyjęło się uważać, na podstawie szacunków Michaela K. Bergmana z 2001 r. że zasoby Ukrytego Internetu są ok. 500 razy większe niż ta jego zawartość, która jest widoczna (Visible Web, Surface Web). Jednakże, jak zwracają uwagę L. Derfert-Wolf oraz S. Cisek i R. Sapa, szacunki te były dyskutowane i podważane przez innych badaczy. Z pewnością Invisible Web jest nadal ogromny, bo są to w dużej mierze zasoby, których typowe wyszukiwarki wciąż jeszcze nie potrafią indeksować (zawartość baz danych, katalogi biblioteczne, strony generowane dynamicznie, serwisy wymagające rejestrowania, logowania itp.).
Jednakże specyficzna dla Web 2.0 tendencja do współdziałania w zakresie tworzenia nowych treści objęła również procesy gromadzenia, opisywania, przetwarzania i udostępniania informacji. Internauci niejako sami zajęli się typowymi dla informatoriów działaniami. Rośnie rola i skala współopisywania, współkatalogowania i klasyfikowania, w czym tkwi szansa na niwelację problemów wynikających z niedoskonałości wyszukiwarek.
Olbrzymie znaczenie mają katalogi internetowe współredagowane przez wolontariuszy z całego świata, dbających o wiarygodność informacji w nich zamieszczonych np. DMOZ open directory project: dmoz.org. Pojawiają się w Internecie serwisy pozwalające na wzajemne polecanie sobie wybranych interesujących stron na zasadzie udostępnianych publicznie zakładek, np. del.icio.us; niektóre serwisy pozwalają dyskutować i oceniać poszczególne pozycje, np. polski wykop.pl, lub linkr.pl. Można również dzielić się wyszperaną przez siebie konkretną wiadomością np. newsvine.com; polski gwar.pl.
Można również, co ważniejsze dla naszych rozważań, samodzielnie tworzyć opisy pozycji i dokonywać ich kategoryzacji. Pozwala na to np. serwis CiteULike, będący darmowym narzędziem do przechowywania, organizowania i udostępniania metainformacji o interesujących artykułach naukowych. Serwis dostarcza profesjonalnych narzędzi, takich jak opcja wyświetlania opisu bibliograficznego, w wybranym przez użytkownika formacie(!), specjalną metryczkę każdego rekordu, w formacie BibTex, służącą do automatycznego przygotowywania bibliografii przez użytkowników programu LaTex, wyświetla także abstrakty danych arykułów.
Narzędzia wspomagające docieranie do materiałów wysokiej jakości tworzone są przez potentatów w dziedzinie wyszukiwania, np. Google Scholar, Google Book Search, MSN Live Search Academic, Yahoo! Search Subscriptions. Zasoby bibliotek penetrować można on-line z pozycji centralnych katalogów krajowych, europejskich bibliotek narodowych dzięki The European Library, a w skali ogólnoświatowej na podobne poszukiwania pozwala wciąż powiększający się WorldCat.
Do wartościowych miejsc w sieci kierują zasoby popularnych coraz bardziej, także już w Polsce, specjalnych bramek tematycznych (Subject Gateways). Są one przykładem i dowodem pożytecznego mariażu nowoczesnych technologii internetowych z wiedzą i doświadczeniem budowanym przez bibliotekoznawstwo i informację naukową przez długie dziesięciolecia. Stosują bowiem do organizowania informacji typowo elektronicznej, tradycyjne klasyfikacje biblioteczne, takie jak np. Klasyfikacja Dziesiętna Deweya. Jednocześnie ich cechą zasadniczą jest to, że skupiają się właśnie na tych najbardziej wartościowych (i często dotychczas jednocześnie ukrytych) zasobach związanych z danym przedmiotem, tworzone są również przez specjalistów danej branży. Ten ich atrybut wyrażony jest w stosowanych często w stosunku do owych bramek, określnikach high quality lub quality-controlled. Cenny jest również fakt, że wiele z tego typu serwisów realizuje ideę 2.0 umożliwiając każdemu zainteresowanemu powiększanie ich zasobów (zawsze jednak dla zachowania jakości dodane rekordy są kontrolowane i w razie potrzeby uzupełniane). Za przykład mogą posłużyć amerykański lii.org, angielski bubl.ac.uk lub polska kinia.czytelnia.net. L. Derfert-Wolf w swoich artykułach podaje przykłady około setki tego typu serwisów i projektów.
Zjawisko Web 2.0 z pewnością w znacznym stopniu przyczyniło się do upowszechniania wiedzy o zasobach wcześniej niewidocznych. Internet przestaje być bowiem ukryty jeśli na jego zasoby wskazują palce wielomilionowej społeczności użytkowników sieci.

Brak komentarzy: