A special report on managing information (dall’ Economist)

7 aprile 2010

immagine dall'economist

Fonte: The Economist

– Google gestisce circa la metà delle ricerche che si fanno in internet, rispondendo a circa 35.000 domande al secondo.
– Facebook ospita circa 40 bilioni di foto.
– La decodifica del genoma umano comporta l’analisi di 3 bilioni informazioni: la prima volta che fu svolta, nel 2003, questa analisi impegnava 10 anni. La medesima analisi viene svolta oggi in 1 settimana.

– Ci sono 4,6 bilioni di abbonamenti al telefono mobile nel mondo, e 6,8 bilioni di abitanti (ma nei paesi ricchi molti hanno piu’ di un telefono mobile: queste due grandezze vanno quindi accostate con molta cautela)
– Secondo uno studio del 2008 dell’International Data Corp (IDC), una azienda che si occupa di ricerche di mercato, circa 1.200 esabyte di dati digitali saranno generati quest’anno (un esabyte corrisponde a 1000 petabyte, 2 elevato a 60 byte, il corrsipondente di 10 bilioni di copie dell’Economist).
– La catena di supermercati Wal-Mart gestisce più di 1 milione di transazioni commerciali ogni ora, popolando basidati stimate di almento 2.5 petabyte: l’equivalente di 167 volte i libri della Library of Congress.
tabella sulle grandezze delle misure in bit dal bit allo yottabyte

Fonte: The Economist


(cliccare sull’immagine per vederla in dimensioni leggibili, oppure qui, nel suo contesto originale)
Ho trovato tutti questi dati (che volutamente ho citato senza un ordine definito), in un report dell’Economist, pubblicato il 25 febbraio 2010 del titolo “A special report on managing information“. Il taglio del report, strutturato in 9 capitoli tematici, è sicuramente giornalistico, divulgativo, ma la bibliografia è interessante e i collaboratori autorevoli (anche se nettamente sbilanciati sul versante corporate).
Ne consiglio la lettura perche’ introduce alcuni elementi di riflessione a mio avviso interessanti anche per noi, se consideriamo l’information overload come una sfida da affrontare anche nella gestione delle fonti per il servizio reference, e nel supporto all’utenza per il recupero dei documenti.
Sono elementi che vanno letti criticamente, e tra essi mi sono sembrati interessanti questi:
1) mentre l’informazione in termini di dati è sovrabbondante, è invece scarsa la capacità di interpretarli, di dare loro un senso.
2) Andiamo verso una vera e propria “rivoluzione industriale dei dati“: mentre la prima rivoluzione industriale -semplificando- venne dall’utilizzo delle macchine a vapore nella manifattura, e la seconda dall’utilizzo del petrolio, il “motore” concretamente produttivo della rivoluzione che stiamo vivendo sono i dati.
3) Le tecnologie che permettono di manipolare e gestire queste montagne di dati sono sostanzialmente due: il cloud computing e un software open source, sviluppato dalla Apache software foundation di nome Hadoop che permette ad un semplice pc di manipolare una quantità di dati precedentemente sostenibili solo per un supercomputer.
4) Negli Stati uniti i dati pubblici (demografici economici ecc.) sono considerati una infrastruttura al pari delle strade: nei suoi primi giorni alla Casa Bianca Barack Obama indirizzò un memorandum presidenziale alle Agenzie federali anzichè rendessero disponibili più dati possibili in base alla presunzione che “in caso di dubbio, l’apertura deve prevalere“, mentre l’approccio dell’amministrazione precedente istruiva le Istituzioni a comportarsi sula base del criterio opposto.

Lascia un commento

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione / Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione / Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione / Modifica )

Google+ photo

Stai commentando usando il tuo account Google+. Chiudi sessione / Modifica )

Connessione a %s...

%d blogger cliccano Mi Piace per questo: