poniedziałek, 30 kwietnia 2007

Netspeak = praktyczny

Każda forma komunikowania ma sobie tylko właściwe cechy i jest nastawiona na osiągnięcie sobie tylko właściwych celów. Wraz z rozwojem nowych sposobów komunikacji, wykorzystujących coraz to nowsze urządzenia i osiągnięcia techniki, powstają zupełnie nowe odmiany starych zachowań komunikacyjnych. Każda zmiana pociąga za sobą inną zmianę. Ostatnio nową, zauważalną sferą ludzkiej działalności, która wytworzyła sobie swoiste i odrębne sposoby komunikacji i tym samym sobie właściwy styl wypowiedzi, jest Internet.

Internet, globalna sieć, komunikacja elektroniczna, a więc np. IRC, czat, SMS daje sposobność do przekazywania informacji, jednakże informacje przekazywane via Sieć mają specyficzne cechy i są zbudowane w specyficznym stylu – w netspeaku. Netspeak został już dokładnie opisany przez Monikę Górską-Olesińską, nie ma więc potrzeby budować szczegółowych analiz, chcę natomiast zwrócić uwagę jedynie na jedną główną według mnie cechę netspeaku.

Tak jak dawniej powstanie pisma, druku, fotografii, radia czy telewizji powodowało powstawanie różnych gatunków wypowiedzi, np. gatunków publicystycznych, tak samo dzisiaj powstawanie nowych technologii komputerowych oraz rozwój Internetu daje początek nowym gatunkom wypowiedzi, np. blogom.
Styl internetowy, internetowa odmiana polszczyzny, język internetowy, język internetu, netlish, weblish, netlingo, wired style, cyberspeak, e-language, e-talk, e-disc jakby tego zjawiska nie nazwać nastawiony jest przede wszystkim na cel, jakim jest szybka i skuteczna komunikacja. Stąd tak wiele „błędów”, pomyłek, brak interpunkcji i ortografii, skróty, skrótowce, mieszanie mowy z pismem, skryptualizowanie mowy, mieszanie języków itd. W ten sam sposób daje się wytłumaczyć dlaczego coraz więcej stron WWW budowanych jest w języku esperanto. Otóż przecież esperanto jest systemem, który można opanować w stosunkowo krótkim czasie, a tym samym zdobyć umiejętność komunikacji i wymiany informacji z ludźmi z całego świata, bo jak dobrze wiemy nie ma takiego zakątka globu, gdzie nie funkcjonowałaby jakaś grupa praktykująca esperanto.

Pamiętajmy wreszcie, że jednym z synonimów leksemu virtual jest practical. Konotacja praktyczności jest łatwa do wyjaśnienia. Przecież ta wirtualna rzeczywistość jest rzeczywistością praktyczną bowiem spełnia cały szereg utylitarnych i pragmatycznych zadań. Daje na przykład elementom wirtualnym właściwości dokładnie takie same, jak mają elementy faktycznie istniejące w rzeczywistości. Rzeczywistość wirtualna została stworzona li tylko w praktycznych celach.

czwartek, 26 kwietnia 2007

Źródło uniwersalne


Lektura tekstów w ich postaci elektronicznej nie stanowi najprzyjemniejszej formy kontaktu czytelnika z dziełem, lecz taka właśnie postać informacji doskonale sprawdza się w realizacji procesów informacyjno-wyszukiwawczych. Nie dziwi więc, że działalność bibliograficzna przenosi się do Internetu. Być może już niebawem większość kontaktów np. na linii użytkownik - bibliografia będzie się odbywała za pośrednictwem sieci, przy czym prawdopodobnie zatarciu ulegną dotychczasowe granice pozwalające na wyraźne odróżnienie takich typów źródeł jak katalog, bibliografia, indeks, czy nawet zbiór biblioteczny. Zostaną one zintegrowane, w ramach tworzonego razem hipermedialnego, uniwersalnego źródła informacji. Jeśli wizja wyparcia tradycyjnych dokumentów przez elektroniczne ma szansę powodzenia, to najprawdopodobniej dosięgnie ona specyficznej kategorii, którą są opracowania informacyjne. Wbrew pozorom nie jest to wizja pesymistyczna.
Z informacyjnego punktu widzenia najważniejszą wydaje się ta cecha hipertekstu, która pozwala łączyć ze sobą różne obiekty informacyjne. Daje to dotychczasowym opracowaniom wręcz przełomowe możliwości. Oto rekordy katalogów bibliotecznych, ale też np. informacje księgarskie umiejscowione w Internecie, w bardzo prosty sposób, często poprzez jedno „klikniecie”, pozwalają użytkownikowi zamówić daną książkę, wskazują w której bibliotece, bądź repozytorium i gdzie najbliżej pozycja się znajduje (choćbyśmy znajdowali się w „odległym” zakątku świata), wskazują księgarnie internetowe, w których można dokonać zakupu, dostarczają pełny tekst dokumentu jeśli jest on dostępny publicznie w formie elektronicznej, tudzież pozwalają zapoznać się z jego spisem treści, abstraktem bądź fragmentami. Opracowania bibliograficzne pozbawione zostają większości dotychczasowych ograniczeń: terytorialnych, językowych, chronologicznych, czy dotyczących rodzaju opisywanych materiałów. Rekordy w takiej bibliografii wykorzystującej wynalazek hipertekstu i sieci WWW, przestają być statyczne. Spełniają nie tylko funkcję wskazującą, sygnalną ale zostają ożywione, zostaje im nadana nowa moc wywołująca przed oczami użytkownika konkretne, docelowo poszukiwane przez niego informacje, dostępne już w zasięgu kliknięcia myszą komputerową. Mogą równocześnie przenosić użytkownika bezpośrednio do danego dokumentu zawierającego poszukiwaną treść, do konkretnej frazy, leksji czy encji. Opis bibliograficzny wzbogacił się o nowe funkcje. Teraz spełnia nie tylko rolę deskryptywną ale również animacyjną, staje się interaktywnym narzędziem reagującym na aktywność użytkownika.

środa, 18 kwietnia 2007

Jak krytykuje się Wikipedię?

Odkąd Wikipedia stała się alternatywą dla wszelkich encyklopedii tradycyjnych (drukowanych) odtąd stale poszukuje się haków na to by wykazać różne błędy, lapsusy i wszelkie ciemne strony tego społecznościowego projektu. Krytyka prowadzona jest drogą bądź to wykazywania, że hasła w Wolnej Encyklopedii są pełne wad, np. dane o rzekomej śmierci poetki i zupełnie taka encyklopedia nie może się równać z tradycyjną, co jak wiemy nie jest prawdą. Przypominam artykuł Justyny Hofmokl i Alka Tarkowskiego, którzy przywołali szereg argumentów za, pokazując między innymi, że ilość błędów w encyklopediach tradycyjnych jest porównywalny z tymi wykrywanymi w Wikipedii.

Po drugie próbuje się wyłapywanymi, słynnymi lapsusami podważyć jakość haseł w Wikipedii. Mam na myśli dobrze znany przykład polski – mianowicie hasło Henryk Batuta. Co świadczy o tym, że niekoniecznie można celowo bądź niechcący napisać jakąś głupotę w którymś z haseł ale można w ogóle spreparować całe hasło i takie uprzednio wymyślone następnie umieścić na stronach Wikipedii.

Po trzecie próbuje się również w sposób bardziej inteligentny wskazać, że wszelkie serwisy oparte o model web 2.0 są z góry skazane na katastrofę ponieważ tworzą zbytnio skolektywizowane systemy lub stają się zlepkiem zbytnio zindywidualizowanych punktów widzenia. Szczególnie polecam w tym miejscu artykuł Mirosława Filiciaka, którzy przedstawił poglądy, postulujących te aspekty: Zizka i Laniera czy też artykuł Piotra G. Zielińskiego, który wykazuje, jaki jednak błąd popełnił Zizek przyrównując twórcę treści z odbiorcą treści.

Inna jeszcze możliwość to krytykowanie omawianej encyklopedii poprzez wyliczenia statystyczne. Blisko 70% haseł w angielskojęzycznej wersji Wikipedii redaguje około 2% użytkowników. Hmm, 2% w tym przypadku to około 40 tysięcy redaktorów, gdy np. klasyczne encyklopedie drukowane mogą się poszczycić kilkoma tysiącami redaktorów. Nie wyobrażam sobie aby liczby osób zaangażowanych w powstawanie encyklopedii w takich przypadkach były w jakikolwiek sposób zbieżne. Sam przyznam, że zredagowałem raptem 3, o ile dobrze pamiętam, hasła w Wikipedii, a jestem jej wielkim zwolennikiem. Po prostu w miejscu gdzie uznałem za słuszne dodałem hasło. I to jest ta tzw. mądrość tłumu. Wystarczy aby każdy Polak dodał jedno li tylko hasło i będziemy mieli 40 milionową encyklopedię. Nie da się? Owszem da, tylko trzeba wyedukować ludzi.

Na tym oczywiście problemy się nie kończą oto wyszło na jaw, że jeden z redaktorów ogromnej liczby haseł Wikipedii wcale nie jest tym za kogo się podawał, czyli że nie jest naukowcem z tytułami naukowymi.

W zasadzie zastanawiam się jaka to różnica czy osoba, która zredagowała, stworzyła i zmodyfikowała dwadzieścia tysięcy haseł jest kimś innym niż to deklarowała. Skoro nie wytknięto mu błędów, skoro zrobił kawał dobrej roboty to należy się cieszyć, że znalazł się ktoś, kto potrafił wykazać się wielką inicjatywą i konsekwencją. Jest to kolejny dowód na to, że każdy może współredagować tę ogromną bazę wiedzy. To jest clou całego przedsięwzięcia wszelkich serwisów ukutych we wzorze 2.0.

Mimo prób podważenia roli Wikipedii i ogólnikowej krytyki (w stylu: „Wikipedia jest rażąco nierówna” z roku na rok haseł przybywa, a liczba odwiedzin stale rośnie. Podobnie jak liczba haseł, których około pięciuset codziennie przybywa w wersji polskojęzycznej, a tysiące oczu permanentnie nadzoruje aby poszczególne artykuły hasłowe były poprawne stylistycznie i rzeczowo oraz aby były powiązane w relacje czyli aby były umieszczone w odpowiednich kategoriach.

Tym wszystkim, którzy dostrzegają niedostatki w Encyklopedii Wiki proponuje wreszcie zasiąść przed ekranem monitora i włożyć trochę wysiłku intelektualnego w edycje i poprawienie błędów. Kontestacja jest bardzo modna w Polsce. Narzekamy na wszystko i wszystkich zamiast zakasać rękawy i wziąć się do roboty.

Może te wszystkie próby podważenia jakości haseł Wikipedy, jak ją niektórzy zową ;), są tylko formą walki o pozostawienie wszystkiego bez zmian, o pozostawienie zastanego porządku, walki o status quo. Wszędzie napotyka się na opory i niechęć, a droga zmian często prowadzi do sytuacji, którą wszyscy świetnie znamy z historii, a którą to jeden z bibliotekarzy dostosował do przedstawienia prób wprowadzania jakichkolwiek zmian z działalności bibliotek.

poniedziałek, 16 kwietnia 2007

Małgorzata Kowalska: Dygitalizacja zbiorów bibliotek polskich. Warszawa 2007 Wydawnictwo SBP.

Początek dygitalizacji zbiorów drukowanych to rok 1971, kiedy Michael Hart wprowadził ręcznie do komputera Deklarację Niepodległości Stanów Zjednoczonych. Podjęta przez niego inicjatywa pociągnęła za sobą rozrastającą się grupę wolontariuszy i przerodziła w największy chyba niekomercyjny serwis z książkami w postaci cyfrowej na świecie. O ile pierwszą biblioteką cyfrową na świecie był wspomniany powyżej niefinansowany ani ze środków federalnych, ani z budżetu jakiegokolwiek stanu Project Gutenberg, tak na gruncie polskim jako pierwsza pojawiła się w 1997 roku Biblioteka Sieciowa. Ta współtworzona przez wolontariuszy inicjatywa wyprzedziła o ponad 5 lat otwartą z wielką pompą Polską Bibliotekę Internetową, która niestety z powodu wielu różnorakich perturbacji nie rozwija się tak, jak oczekiwałoby tego środowisko bibliotekarzy.


W dniu dzisiejszym biblioteki cyfrowe rozwijają się w sposób żywiołowy. Mimo, że liczba bibliotek, które przystąpiły do przenoszenia zawartości książek zagrożonych przez upływ czasu lub inne niekorzystne czynniki rośnie, to nadal jest ich zbyt mało a we wschodniej części Polski nie ma ich wcale. Dygitalizacja wywołała wprawdzie odzew w postaci licznych publikacji, jednakże do momentu wydania książki Małgorzaty Kowalskiej nie została w sposób kompleksowy opisana.


„Nadrzędnym celem opracowania – według autorki – jest charakterystyka strategii dygitalizacji przyjętych przez poszczególne biblioteki, ogólna ocena dokonań bibliotek w tym zakresie oraz próba ukazania perspektyw tego typu działalności na przyszłość.” Problematyka poruszona w książce jest istotna szczególnie w perspektywie ciągłego rozwoju Polski zmierzającej ku gospodarce opartej na wiedzy. Bez zasobów oferowanych przez biblioteki cyfrowe nie zdołano by ochronić znacznej części dziedzictwa narodowego, na który składa się twórczość autorów praktycznie nieznanych, których utwory zostały wydane jednokrotnie. Małgorzata Kowalska podzieliła książkę na dwie części. Pierwsza, zatytułowana „Zastosowanie techniki cyfrowej w ochronie dziedzictwa dokumentalnego” została poświęcona różnorakim aspektom dygitalizacji poczynając od technicznych przez organizacyjne, kończąc na prawnych. „Dygitalizacja zbiorów w bibliotekach polskich” to tytuł części drugiej poświęconej praktycznym efektom tejże czynności.


Nawet mimo słów autorki zamieszczonych we wstępie o tym, iż niniejsza książka nie ma pełnić funkcji poradnika, należy podkreślić, że stać się ona powinna wydawnictwem niezbędnym w księgozbiorze podręcznym każdej osoby kierującej pracami dygitalizacyjnymi w bibliotece. Bez wątpienia na to zasługuje z racji szerokiej problematyki podjętej w opracowaniu gromadzącym w jednym miejscu tematykę poruszaną w licznych artykułach rozrzuconych po wielu czasopismach i wydawnictwach zbiorowych. Jednak pozostała jedna sfera pominięta przez autorkę. Wprawdzie tytuł książki wyraźnie wskazuje, że jej problematyka została osnuta wokół zagadnień związanych z cyfryzacją zbiorów podejmowaną przez biblioteki, ale wydaje się, że brak w niej choćby podrozdziału poświęconego inicjatywom podejmowanym na pograniczu prawa, które zyskują coraz większą popularność. Oprócz Europejskiej Biblioteki Cyfrowej i budzącego liczne kontrowersje Google’a autorka właściwie nie opisała żadnego projektu dygitalizującego również zbiory chronione prawem autorskim. A może się okazać, że z racji dygitalizacji prowadzonej przez firmy komercyjne, rola biblioteki jako ośrodka gromadzącego piśmiennictwo zostanie zagrożona i aby przeczytać książkę nie zakupioną osobiście, dzisiejszy użytkownik biblioteki będzie zmuszony w niedalekiej przyszłości skorzystać z jednego z serwisów internetowych działających na pograniczu prawa.

Cała recenzja znajduje się w "Poradniku Bibliotekarza" nr 9/2007 s. 24 - 26.

Serdecznie dziękuję Pani Małgorzacie za dar w postaci książki.