Archive for marzo, 2009

Non ce la possiamo fare (Post di protesta)

31 marzo 2009

Questo è un post di protesta. All’interno del nostro corso sul reference abbiamo segnalato, come risorsa gratuita, la banca dati delle direttive comunitarie, curata dal Dipartimento politiche comunitarie della Presidenza del Consiglio. Funzionava in modo semplice, si inserivano gli estremi della direttiva, e si aveva come output il provvedimento legislativo di recepimento, se esistente. Una alternativa all’ottimo Eur-Lex, che nella voce “MNE” offriva (ed offre) le misure nazionali di esecuzione del dispositivo comunitario. La banca dati del Dipartimento politiche comunitarie risulta attualmente “in fase di aggiornamento e temporaneamente sospesa“, probabilmente dai primi mesi del 2008. Peccato che questa informazione non viene fornita nella pagina di accesso diretto alla risorsa, a cui verosimilmente puntano i bookmark, ma qui, nella pagina precedente. Chi accede direttamente avrà quindi l’impressione di usare una risorsa ancora attiva… Allora:
1) peccato chiudere questa risorsa
2) peccato non segnalare correttamente che essa non è piu’ utilizzabile
3) peccato, visto che si parla molto di internet come leva dello sviluppo economico, produrre siti istituzionali che trattano l’informazione dei precedenti cicli politici (qualunque essi siano) come “siti archeologici“, anzichè rendere cumulative e integrate le informazioni.

Errore 404: Pagina non trovata. Se il documento che state cercando e' precedente all'8 maggio 2008 vi invitiamo a cercarlo nell'area Siti archeologici di Governo.it

Errore 404: Pagina non trovata. Se il documento che state cercando e' precedente all'8 maggio 2008 vi invitiamo a cercarlo nell'area Siti archeologici di Governo.it

Open access. La situazione italiana

26 marzo 2009

Continuiamo nostra personale rassegna degli spunti che ci ha offerto il Convegno Bibliostar (palazzo delle “Stelline”, Milano 16-17 marzo).
Abbiamo fatto cenno al movimento open access nell’edizione “ligure” del nostro corso di aggiornamento. A Milano Paola Gargiulo, nel workshop organizzato da Springer ed Aida ci ha offerto l’opportunità, attraverso il suo intervento “L’ Accesso Aperto in Italia“, di fare davvero il punto della situazione nazionale dell’open access.
L’intervento (ecco qui le slides) si focalizza su alcuni attori in gioco: la CRUI (e nello specifico il gruppo OA della Commissione Biblioteche CRUI) e i Consorzi (Cilea e Caspur), animatori e promotori di esperienze come Pleiadi, il Wiki sull’open access ed Aepic.
La Crui, che sostiene la Dichiarazione di Berlino, (documento alla base delle politiche open access in Europa), ha costituito al suo interno il Gruppo di lavoro sull’Open access, strumento operativo di monitoraggio e di studio su questo tema.
Tra le attività più recenti del Gruppo vanno ricordate le linee guida per il deposito delle tesi di dottorato, le raccomandazioni per una didattica OA, che faciliti la circolazione ed il riuso dei materiali didattici (abbiamo parlato, in questo blog dell’iniziativa del MIT “open courseware“), le linee guida (politiche, tecniche organizzative) per la creazione di archivi aperti e una rilevazione delle politiche delle parti in gioco nei confronti dell’accesso aperto. Una attività di monitoraggio ed impulso che -riteniamo- rappresenta un contributo utile per la comunità dei bibliotecari.
I consorzi (Cilea, Caspur) offrono servizi, formazione e tecnologia per le biblioteche digitali, e la concreta realizzazione di progetti open access. Tra le esperienze individuate nel seminario ricordiamo Aepic, un team Cilea orientato alla progettazione di soluzioni per l’editoria elettronica (archivi aperti biblioteche digitali, piattaforme e-publishing), Pleiadi, progetto Cilea-Caspur che permette un accesso unificato agli archivi e depositi istituzionali italiani, ed il wiki sull’open access, che a nostro avviso è una risorsa (in italiano!) insostituibile per chi vuole addentrarsi nel tema open access ed essere aggiornato sullo scenario italiano e non solo.
A che punto siamo nello sviluppo delle politiche Open access?
Il dibattito a fine seminario (affollatissimo, in sala piccola…) ha sottolineato luci ed ombre: da un lato notizie incoraggianti a livello internazionale (come questa) e -dall’altro- ancora una certa inerzialità del modello italiano, in cui, nonostante l’ampia adesione degli Atenei italiani alla dichiarazione di Messina gli open archives nazionali si popolano ancora con qualche lentezza di documenti e materiali.
Sta a noi bibliotecari, anche attraverso l’utilizzo di queste risorse in ambito di reference, promuoverne l’uso e la conoscenza…

E-journals: le strategie degli Atenei italiani. Un workshop

26 marzo 2009

Le riviste elettroniche dei grandi editori scientifici, gli Archivi aperti di tipo istituzionale o disciplinare sono molto spesso la “materia prima” delle nostre sessioni di reference. In un interessante workshop organizzato da Springer e Aida al Convegno Bibliostar, presso il palazzo delle “Stelline” a Milano il 16 marzo, abbiamo avuto l’opportunità di fare il punto, ma anche di aggiornarci sulle prospettive italiane di questo scenario. Tutte le slides del workshop sono disponibili QUI.
Sappiamo quanto la sottoscrizione alle riviste elettroniche pesi nelle scelte e nei budget degli Atenei: l’intervento di Maria Cassella: “I contratti di licenza di uso: criticità e modelli e-only: i risultati di un’indagine tra gli atenei italiani” ci aggiorna su alcuni punti, che proviamo a riassumere in questo post:
1) Alcuni consorzi (Caspur e Cilea) hanno adottato la pratica di autoarchiviare (local loading) nei loro server i contenuti in abbonamento, negoziando questa possibilità con gli editori
2) Max Planck Gesellschaft e le University of California Libraries hanno recentemente sottoscritto degli accordi con Springer che consentono agli autori di queste organizzazioni accademiche di pubblicare articoli ad accesso aperto nei titoli Springer senza costi addizionali (laddove la pratica in questi casi è l’ authors pay, l’autofinanziamento da parte dell’autore): per approfondire vedi qui
3) Gli esiti di un recente sondaggio effettuato nel settembre 2008 sugli SBA italiani (81 contattati, 48 rispondenti) indicano che l’ e-only sta diventando la modalità contrattuale prevalente: sono infatti 295 i modelli di contratto e-only stipulati dagli atenei italiani, fronte a 195 print+elettronico e 44 “solo print”.
Quali vantaggi/svantaggi dell’e-only? I vantaggi sono il risparmio di spazi (e quindi di costi), la possibilità di accedere ad un numero piu’ ampio di contenuti; gli svantaggi una negoziazione dei contratti più laboriosa e il problema della preservazione dei contenuti, laddove non sono possibili strategie di auto-archiviazione (che comunque comportano, in fase di start-up, costi e competenze).
E se la crisi economica globale “morde” un po’ ovunque, a risentirne sono anche le istituzioni accademiche, che, coalizzate in ICOLC (una coalizione internazionale di consorzi, a cui aderiscono, per l’Italia, Ciber, Infer e il gruppo di lavoro per le risorse elettroniche della CRUI) a gennaio 2009 hanno sottoscritto un documento: Statement on the Global Economic Crisis and Its Impact on Consortial Licenses dove si chiedono agli editori modelli economici flessibili e soluzioni creative che cerchino di evitare la perdita di contenuti informativi (contratti pluriennali, personalizzati, meno marketing per nuovi prodotti o piattaforme e piu’ titoli e contenuti).

I servizi messi a disposizione dalle biblioteche con e per l’utente. Un seminario

18 marzo 2009

Al Convegno Bibliostar, presso il Palazzo delle “Stelline” a Milano, abbiamo seguito alcuni seminari. In questo post vorrei segnalare:
I servizi messi a disposizione delle biblioteche con e per l’utente“, co-organizzato da Cenfor e da Aida (associazione italiana per la documentazione avanzata) e introdotto da Serena Sangiorgi. Le slides sono disponibili QUI.
Il seminario era particolarmente coerente con i temi sviluppati in questo blog post-corso: dopo l’approfondito contributo di Bonaria Biancu sui mashups, vorrei segnalare l’intervento di Virginia Gentilini, che “fa il punto” su criticità e punti di forza di Wikipedia come strumento di reference, e sulle contromisure adottate dai competitor diretti: Britannica e, in Italia, Treccani. Virginia ha integrato i contenuti, già ricchi, delle sue slides con un post “ad hoc”, del suo blog, che riprende il titolo del suo intervento: “partecipazione e credibilita’ nell’epoca del reference 2.0“. Un altro punto importante del seminario curato da Virginia fa riferimento a due iniziative dei bibliotecari di reference: la prima “Slam the boards” ha come obiettivo concertare una presenza massiccia ed “autopromozionale” dei bibliotecari nei servizi di reference online, e la seconda fa riferimento a due esperienze, Hakia e Reference extract, pensate per mettere in gioco, in maniera complementare a Google, l’esperienza dei bibliotecari di reference.
Vorrei infine ricordare l’intervento di Mary Joan Crowley e Vincenzo d’Aguanno che racconta l’esperienza di “Cyber 23 library things” un percorso didattico di formazione agli strumenti web 2.0 in ambito bibliotecario intrapreso da Ciber, che attraverso un wiki, un blog, ed un percorso strutturato teorico-pratico ha modellato un ambiente didattico avvincente e vivace, con tanto di creazione di blog (e contest finale, se ho ben compreso) da parte degli utenti stessi del corso.
Un esempio di information literacy strutturato e serio, che ci incoraggia e ci offre spunti per fare meglio!

L'ultima slide del seminario dedicato al progetto Ciber 23 libray things

L'ultima slide del seminario sul progetto Ciber 23 libray things

Youtube off line

7 marzo 2009

I video presenti su Youtube (o su altri social network di condivisione video) si fruiscono in streaming. Questo significa che per vederli dobbiamo essere online, e possibilmente con una connessione discreta, per evitare interruzioni e lunghe pause. Su Youtube troviamo degli ottimi video didattici anche in italiano (in questo blog ne abbiamo segnalato uno sui Feed RSS -visto in aula a Torino il 3 marzo- e uno sul web 2.0). Può capitare di voler usare questi video (ad esempio, in un contesto di information literacy), senza connessione internet o senza rischiare interruzioni o rallentamenti se l’allaccio alla rete non è ottimo. Sul primo numero del magazine Wired Italia, nella rubrica “FAQ” (pag. 232, non disponibile online) Angelo Di Veroli suggerisce un software online che si chiama Keepvid (www.keepvid.com). E’ sufficiente copiare e incollare il link del nostro video nella finestra presente in keepvid e fare click su “download”. Il file puo’ essere salvato in versione “flv” (piu’ leggero e meno di qualità) oppure in formato mp4. Abbiamo testato Keepvid con il video sui feed RSS: il formato MP4 era di 16Mb (il video dura 3:44 minuti). Una volta scaricato il video puo’ essere visualizzato con  Quick time player o con ogni altro viewer.

videata con Keepvid

videata con Keepvid

Deep web reloaded: esplorare il pagliaio

6 marzo 2009

Il 2 marzo, durante il nostro corso, ragionando sull’information overload, facevo cenno al “Deep web” come uno degli indicatori, ma anche delle metafore, che alludono -già da diversi anni- alla complessità del pluriverso documentale presente in Rete. Con l’espressione “Deep web” si indica infatti tutta quella parte di web che, per ragioni diverse, non viene indicizzata dai motori di ricerca, e che rappresenta il 90% dell’informazione presente su web. Come segnalato da AIDA Lampi , che cita “The Deep Web: Surfacing Hidden Value” il paper “classico” di Bergman del 2001 (a cui aggiungerei un tutorial semplice di Laura Cohen, della biblioteca dell’Università di Albany), il tema del Deep web continua ad interessare alcune start-up (cosmix) o ad animare progetti (Deepep) orientati sulla creazione di “nuovi” search engines. In un articolo di Alex Wright , pubblicato sul sito web del New York Times il 23 febbraio, viene sottolineato come il problema non è più “trovare un ago in un pagliaio” ma “esplorare il pagliaio” cioè indicizzare non solo il web, ma i database che popolano il web, affrontando il problema della interoperabilità delle migliaia di sorgenti di dati presenti in Internet. Riccardo Bagnato su Repubblica online (25 febbraio) riprende questo tema, e il 5 marzo su Nòva il Sole 24 ore n. 163 troviamo un contributo di Luca Tremolada (pag. 11 “Sotto la Rete niente: Deep web, l’internet che sfugge a Google”) che riassume un po’ tutta la questione: il trilione di pagine web censite da Google sono ben poca cosa rispetto alla quantita’ di materiali non intercettati dai motori di ricerca o perche’ non-interoperabili (è il problema dei database) o perche’ non citati da nessuno, e quindi collocati in un cono d’ombra dall’algoritmo PageRank, che come sappiamo opera in Google misurando l’importanza e la trovabilità di un sito soprattuto in base alla sua popolarità.  L’articolo di Nòva sposta il focus del problema “deep web” su un livello promettente, che è il web semantico, cioè precisamente sui modelli di organizzazione (e quindi di trovabilità) della conoscenza su web.