in

Expo 2015, perché liberiamo i dati e da oggi li studiamo insieme

innovaizone

In un post del 15 settembre ho raccontato l’avventura di Wikitalia in Expo, tutto ciò che ha preceduto la presentazione del portale, e come sono andate le cose. Il sito l’avete visto e lo stiamo tuttora sviluppando con nuove pagine e visualizzazioni.

Oggi però si apre a Milano, nella mia casa universitaria di Bovisa, l’hackaton sui dati di OpenExpo promosso da Wired, Wikitalia e da Density Design del Politecnico. Ed è il caso di fare un punto. Insomma, finite le fanfare delle presentazioni ufficiali, spente le luci delle telecamere, partite le auto dei ministri, capire se le cose sono andate avanti oppure si è sgonfiato tutto, secondo la solita teoria dell’effetto “annuncio”.

Dire “E qualcosa rimane”, e proseguire con “tra le pagine chiare e le pagine scure” ci sta proprio tutto e, per quanto mi sforzi, non riesco a trovare una metafora più incisiva.

Abbiate pazienza. Qualcosa rimane. Appunto. Perché proprio oggi, in occasione dell’Expathon di Milano, si attiva il collegamento live tra i server della società e quelli di AgID dove, con la collaborazione di Formez, è basato OpenExpo.

Molti degli open dataset in Italia sono “statici”. La vita ordinaria dell’ente e quella della trasparenza e della partecipazione, pure in casi virtuosi, convivono spesso come separati in casa: ognuno nelle sue stanze, con i suoi orari, le proprie abitudini in una sostanziale estraneità

L’unico terreno di scambio, di condivisione, è quello dei dati. Prodotti da una parte, come se l’altra metà del mondo non esistesse, periodicamente passano il checkpoint e vengono trasmessi sull’altro lato del fronte, affinché vadano online. Si preparano le tabelle, si verificano, si convertono i vari formati e finalmente si pubblicano.

Nel frattempo, magari, il dato è già invecchiato perché, mentre questi lo pubblicano, gli altri lo hanno aggiornato, rivisto, modificato. Esiste difatti una frequenza intrinseca di produzione che, magari, è giornaliera, se non di ora in ora, e una di aggiornamento online che talvolta (per essere generosi) è “quando capita”, ma assai spesso non presenta una correlazione diretta con l’altra. Ne nasce un mondo schizofrenico nel quale, in un pur sincero intento di trasparenza, si ottiene l’effetto contrario: quello pubblicare di numeri la cui affidabilità in termini di freschezza non è mai veramente certa e che sono perennemente disallineati.

La presentazione di OpenExpo alla sala stampa estera (fonte: Marcopolonews.it)

Lavorando in Expo abbiamo cercato di lasciare qualcosa in un arco di tempo di sei mesi che volge ormai al termine.

Già nell’atto convenzionale con Wikitalia avevamo scritto che, per fare qualcosa, si doveva incidere nei processi organizzativi, andare a toccare, a cambiare, nella immensa massa sommersa nell’iceberg dei backoffice affinché si potesse fornire qualcosa di buono online, nella piccola isola emersa che appare al pubblico. Expo, in tre mesi di lavoro e con un po’ del nostro aiuto, ha sviluppato una procedura interna, fatta di filiere di lavorazione, di tempistica, di responsabilità (oltreché di linee di codice) per il dataentry, la validazione di qualità e l’archiviazione dei dati relativi a tutti gli affidamenti, indipendentemente dalla natura e dall’importo. E che poi, soprattutto per i cantieri, li seguisse nella loro evoluzione, tra varianti, sospensioni, riprese, stati di avanzamento, fine lavori, collaudo, per avere il polso della situazione in tempo più o meno reale.

Una sorta di applicativo gestionale trasversale, in una società basata essenzialmente su “verticali”, è stata una novità, e non da poco

Vorrei anche aggiungere che tutto è stato sviluppato internamente, senza ricorso ad affidamenti a ditte esterne e che quindi non lo troverete tra i dati. Bene, da oggi i data set di OpenExpo, sono “viste”, “query” su questo stesso database. Esiste insomma un “filo”, un “bocchettone” virtuale che unisce direttamente i due mondi, senza checkpoint, intermediazioni, operazioni di trasferimento e ulteriori costi di produzione. I dati sono differiti, tenuti in caldo il tempo materiale ai controlli di qualità, il traguardo di un allineamento sulle 24 ore è lì a un passo.

Ma è il principio che conta. La filiera che produce il dato è la stessa filiera che lo pubblica. Il checkpoint può essere smantellato. Qualcosa, insomma, rimane. Tra le pagine chiare e le pagine scure.

GIOVANNI MENDUNI

Originariamente pubblicato su chefuturo.it

Lascia un commento

Il tuo indirizzo email non sarà pubblicato.

What do you think?

Scritto da chef

scienze

Il genoma raccontato da Encode porta la scienza fino all’iPad

innovaizone

Come schierarsi nella guerra dei font tra Helvetica e Comic Sans