Uno dei modelli per la creazione di Internet, come abbiamo visto, è stato quello di una biblioteca universale digitale, prospettata nell’opera di J. Licklider, primo capo dell’Information Processing Techniques Office dell’ARPA. Gli eredi più prossimi del suo progetto possono essere considerati l’Internet Archive e Wikipedia, giunti oggi a un accordo che si potrebbe definire storico.
Il primo, un’iniziativa no profit attiva dal 1996, ha raccolto la sfida di archiviare il maggior numero possibile di risorse documentali, siano esse libri (oltre 3,8 milioni, 20 milioni se considerati insieme agli altri testi), pagine web (più di 330 miliardi), registrazioni audio e video (oltre 8,5 milioni) e immagini (3 milioni), oltre a 200 mila programmi software. Ad essere recuperate per prima sono state le pagine web divenute ormai obsolete o rimosse nel tempo: la Wayback Machine, questo il nome del progetto poi divenuto una branca a sé dell’Archive, è a tutti gli effetti una fonte, uno strumento storico unico per ricostruire la vita della Rete quasi dall’origine ai nostri giorni, e, com’è stato sottolineato da più parti, un’arma preziosa contro la disinformazione basata sulla cancellazione selettiva e deliberata di dati originariamente pubblicati.
Ma una parte altrettanto importante dell’Archive è rappresentata dalla biblioteca digitale, composta di libri e testi che è possibile scaricare liberamente o, nel caso degli ebook in commercio, prendere in prestito digitale. Proprio la disponibilità online dei volumi è stata la base per la collaborazione con Wikipedia, l’altra nipotina di Licklider, annunciata qualche giorno fa. L’enciclopedia virtuale può in questo modo rafforzare la missione di combattere la disinformazione, avvalendosi della possibilità di inserire nelle singole voci il link diretto alle pagine dei libri citati come fonte bibliografici, e persino di visualizzare un estratto del volume, ove liberamente disponibile.
Certo, la chiave di questa disponibilità resta quella dei diritti, potenzialmente rivendicati da autori e editori in nome della difesa del copyright. Era già accaduto con Google Books: l’iniziativa di Google (nota dapprima come Project Ocean, poi come Google Print), arrivata ormai al quindicesimo anno di vita, ha iniziato la digitalizzazione e la messa in Rete dei libri disponibili sul mercato USA nel 2004, per poi estendere il progetto a livello globale: ma sin dal 2005 ha dovuto attraversare una pluriennale vicenda giudiziaria (due cause, una civile e una class action), che ha opposto alla società le associazioni americane degli autori e degli editori. La questione, almeno negli USA, si è conclusa in maniera controversa: da un lato, un accordo con gli editori, che ha messo capo alla selezione e limitazione del contenuto testuale da mostrare, ma allo stesso tempo il riconoscimento in sede giudiziaria della prevalenza dell’interesse generale su quello autoriale.
A differenza che per Google, società a scopo di lucro, nel caso di Internet Archive e Wikipedia l’interesse culturale pubblico potrebbe risultare ancora più evidente, dato peraltro che il fine dichiarato è quello di combattere le fake news e la disinformazione. L’effetto più interessante è a sua volta da considerare una conquista per chi continua a vedere il Web come una “biblioteca del futuro”: semplificare il reperimento dei documenti (in misura superiore alla limitata porzione di testo disponibile tramite Google Books) a chi si occupa di ricerca, di giornalismo o comunque di studi che ne richiedano la consultazione. E una volta di più la persistenza dell’informazione in Rete, lungi dal rappresentare solo uno spiacevole effetto indesiderato dell’esibizionismo da social network, si confermerebbe strumento insostituibile per la ricerca storica, mostrandoci Internet come solo raramente ci appare: come una straordinaria macchina per la memoria.