Memoria digitale e conservazione: come si farà ricerca storica nel futuro

Fragili e deperibili documenti immateriali

di Marta Musso

dal numero di marzo 2018

Cercando on line informazioni sugli archivi digitali, è facile incappare nella “Long Now Foundation”, la “Fondazione a Lungo Termine”. Questa associazione, gestita da scienziati, ingegneri, filosofi, e musicisti (il più noto Brian Eno), si batte per promuovere il pensiero a lungo termine, in tutte le sfere della vita. Nella presentazione dell’associazione, il fondatore Daniel Hillis scrive: “Da bambino (nei primi anni sessanta, ndr) tutti parlavano di quello che sarebbe successo entro il 02000. Per i successivi trent’ anni, tutti hanno continuato a parlare di cosa sarebbe successo entro il 02000, e adesso nessuno nomina più date nel futuro. Il futuro si è contratto con ritmo annuale per tutta la mia vita”. Lo zero davanti all’anno non è un errore: viene usato per evitare il problema del “decamillennium bug”, un errore di lettura dei computer quando devono elaborare gli anni espressi in cinque cifre. Nel 10000, difficilmente la tecnologia di elaborazione dati che usiamo adesso sarà ancora attiva, senza contare che il calendario potrebbe aver subito riforme tali per cui la nostra numerazione non avrà più alcun significato; ma il decamillennium bug provoca già dei problemi ai software che esaminano problemi a lungo termine, come quello delle scorie nucleari.

Pensare all’anno 10000 provoca le stesse vertigini dell’immaginare MACS0647-JD, la galassia più lontana che conosciamo, 13.3 bilioni di anni luce dal pianeta. D’altra parte, aver smesso di immaginare il futuro, o immaginarlo con angoscia, sono due tratti fondamentali del nostro tempo, sempre più spesso definito come l’età dell’ansia. Che sia una delle conseguenze culturali del maturo neoliberismo in cui viviamo, che predica l’accumulazione hic et nunc; o uno degli effetti del cambiamento climatico, i cui pronostici oltre l’anno 2070 danno concrete possibilità di apocalisse; o semplicemente perché abbiamo perso quell’atmosfera di ottimismo e avanguardia che ha caratterizzato Les trente glorieuses; fatto sta che il futuro di cui si discute è quello fra 5 anni, non fra 50, e tanto meno fra 5000.

Archivi digitali da supporti analogici e supporti informatici

In una società a breve termine, lo storico si trova nei guai – soprattutto lo storico del futuro, che corre il grande rischio di non avere fonti primarie su cui lavorare. Quando si parla di archivi digitali, si pensa soprattutto alla digitalizzazione di documenti nati in ambito analogico, su carta, pergamena, o pellicola. La digitalizzazione è una pratica che apre enormi possibilità alla ricerca storica, come l’analisi testuale quantitativa automatizzata (l’ormai famoso text mining), o l’integrazione dei cataloghi archivistici e bibliotecari in un unico standard. Basti pensare ai cataloghi bibliotecari online, ormai a disposizione anche degli enti più piccoli, che rendono possibile localizzare un volume anche a migliaia di chilometri di distanza. O a esperimenti come Archives Portal Europe, un progetto nato nel 2009 e gestito da un consorzio di 19 archivi di stato europei (in cui l’Italia è uno dei capifila) che portano avanti l’integrazione dei propri cataloghi online, in modo da rendere possibile la consultazione su web di migliaia di cataloghi di archivi sparsi in tutta Europa. A marzo, il ministro Franceschini ha annunciato lo stanziamento di due milioni di euro per la Digital library d’Italia, un progetto che coinvolge 101 archivi e 46 biblioteche per la digitalizzazione di un patrimonio di miliardi di libri e fotografie. Un altro progetto di digitalizzazione centrato sull’Italia è la Venice time machine, una collaborazione tra il Politecnico di Losanna e l’Università di Venezia Ca’ Foscari, che si prefigge di creare una macchina del tempo digitale tramite l’analisi e la visualizzazione dell’evoluzione della città su oltre mille anni: un’impresa resa possibile dal fatto che la città di Venezia ha avuto, nella propria storia, un’amministrazione estremamente burocratica che ha organizzato bene la propria conservazione: l’Archivio di Stato di Venezia possiede 80 chilometri lineari di documenti che registrano il traffico di merci, le costruzioni, i cambiamenti della città e dei suoi abitanti lungo un arco di tempo millenario. Il progetto, che coinvolge un team di trecento ricercatori tra storici, informatici ed esperti d’arte, ha il potenziale di segnare una nuova fase nella storia della ricerca, dotando lo storico di nuovi strumenti di analisi computerizzata delle fonti.

Il futuro digitale dell’analogico non sembra quindi porre troppi problemi, neanche in Italia che è tra le ultime in Europa per divario digitale; semmai, dà spazio a grandi opportunità. Ma i documenti conservati a Venezia, come il resto del patrimonio archivistico mondiale prodotto fino al XX secolo, sono conservati in faldoni accessibili con gli occhi, protetti dall’usura del tempo con tecniche ormai collaudate. La vera sfida, e la vera fonte d’ansia per lo storico, è il destino dei documenti nati digitali, senza una componente fisica. Tra duecento anni, sarà possibile analizzare documenti prodotti con un computer del 1985? E tra cinque anni? Il problema è enorme, soprattutto perché affrontato in un momento storico che non dà importanza alla conservazione, quando non la scoraggia. I supporti informatici, mentre rendono possibile l’istantanea trasmissione e duplicazione di dati senza alcuno sforzo, sono anche estremamente più fragili di qualsiasi supporto analogico. Dalla pergamena o dalla carta, persino quella carbonizzata, è spesso possibile estrarre delle informazioni (come nel caso delle pergamene di Pompei); ma i dati contenuti in un hard drive corrotto, o leggibili solo da un software dismesso, sono completamente perduti. Chiunque abbia scritto con Wordstar negli anni ottanta, salvando su floppy disk, lo sa fin troppo bene: quello che non è stato stampato o migrato su altri supporti e formati è andato perduto. Nel giro di pochi anni i programmi che usiamo vengono sostituiti, e i nostri dati vengono persi. Un recente studio, pubblicato su “Current Biology”, ha calcolato che degli articoli scientifici pubblicati negli anni novanta si sono persi più dell’80 per cento dei dati alla base delle ricerche. La maturità delle tecnologie digitali sta rallentando il ritmo a cui supporti e programmi cambiano, e soprattutto è diventato obbligatorio far sì che le nuove versioni di un programma supportino file creati con le versioni precedenti. Ma resta il fatto che la tecnologia digitale impone un lavoro costante di salvaguardia, attraverso periodiche migrazioni e soprattutto tramite un’interazione crescente tra soggetti creatori e soggetti conservatori, in modo che i documenti vengano creati a monte in modo da poter essere preservati.

La salvaguardia della produzione digitale

In questo scenario di nuovi passaggi obbligatori per la conservazione, il mercato è indifferente se non prono a promuovere un’obsolescenza al limite del ricatto (se non si compra la nuova versione di un prodotto quello che si è creato diventa illeggibile); il legislatore è disattento (la mancanza di standard open source internazionali e il regime di monopolio in cui operano compagnie come Google o Microsoft ne sono un esempio); e il pubblico non è consapevole del rischio. Ce ne si accorgerà fra trent’anni, quando sarà troppo tardi. Finora le azioni più significative e importanti per la salvaguardia della nostra produzione digitale sono arrivate da iniziative spontanee di archivi e istituti di ricerca, spesso senza fondi adeguati e senza piani di conservazione strutturali. L’esempio più lampante è quello del World Wide Web: una piattaforma di pubblicazione digitale che è ormai uno dei mezzi di comunicazione più usati e pervasivi del nostro tempo, di cui non rimarrebbe traccia se non fosse per l’associazione americana Internet Archives, un ente no-profit fondato nel 1996 con lo scopo di archiviare il web. È solo grazie a questa associazione se è adesso possibile ricostruire l’evoluzione del web nei suoi primi vent’anni di esistenza. Grazie agli Internet Archives, paesi come la Francia e l’Inghilterra hanno potuto salvare il proprio patrimonio di pubblicazioni sul web nonostante la progettazione di archivi ad hoc siano arrivati solo pochi anni fa. Altri domini, come il nostro “.it”, aspettano ancora una regolamentazione in materia, e soprattutto i fondi per poter salvaguardare le pubblicazioni digitali nostrane, ormai parte del patrimonio culturale e storico del nostro paese. Dipendiamo da Internet Archives, che però non è (almeno non ancora) un ente che gode di tutele internazionali. È indicativo notare come, dopo l’elezione di Trump, gli Internet Archives abbiano iniziato un progetto di backup in Canada, per paura di possibili restrizioni di accesso al web; la recente decisione degli Stati Uniti di abbandonare l’Unesco sembra confermare la bontà di questa scelta.

C’è una battuta ricorrente, tra gli storici dell’antichità, per cui la distruzione della biblioteca di Alessandria sia forse stata la cosa migliore che potesse capitare per il loro lavoro: meno fonti, ma più attenzione a quelle sopravvissute. È però, si sospetta, solo una battuta, e forse con la biblioteca di Alessandria potremmo scrivere una diversa storia del mondo, soprattutto ora che la computazione può aiutarci a elaborare dati conservati nei secoli. In questo senso, il ritardo della conversione digitale della pubblica amministrazione in Italia a fronte della mancanza di investimenti nella preservazione è da vedere come un fatto positivo: invece di una conversione digitale forzata senza piani a lungo termine, è meglio continuare a usare la carta, più resistente al tempo e, soprattutto, al brevetermismo.

marta.musso@eui.eu

M Musso è borsista allo European University Institute di San Domenico di Fiesole (FI)