Se Google perde la memoria

Paura, eh? Il #googledown è sembrato a molti la ciliegina sulla torta, per concludere in bellezza l’anno che (per fortuna!) si avvia al termine. Niente a che vedere, tuttavia, con il temuto attacco hacker di servizi segreti stranieri e ostili, che ha scatenato le fantasie degli studenti di scuola superiore, benedetti dall’insperata interruzione della DAD (come nel meme in alto): a causare il problema, stando alle dichiarazioni di Mountain View su Twitter, sembrerebbe essere stato più banalmente un problema di memoria, o “internal storage quota issue”.

La disavventura di Google ha scatenato il panico non solo tra i docenti impegnati nei compiti in classe virtuali, o tra gli utenti di servizi per gli individui, ma anche e soprattutto tra le aziende che impiegano gli stessi servizi per il business. Immancabile, quindi, la riapertura dei dibattiti sull’effettiva affidabilità del cloud, sulla sicurezza delle informazioni depositate in server a migliaia di chilometri di distanza, oltre che sulla reale opportunità di accantonare il sovranismo informatico per affidarsi a società nella quasi totalità localizzate negli Stati Uniti. Come è stato già fatto efficacemente notare da più parti, obiezioni di questo tipo non affrontano con sufficiente spirito analitico la percorribilità delle alternative (davvero i server di Google sono meno sicuri degli armadi negli scantinati nostrani?), evitando di confrontare a ragion veduta il rischio percepito in questo caso con quello reale cui si andrebbe incontro scegliendo soluzioni diverse. Più che approfondire questo punto, quindi, vale la pena di concentrarsi su quello che il blackout di Google, e le ragioni alla sua base, ci confermano dell’economia digitale:

inequivocabilmente, un’economia della memoria.

I timori sulla perdita delle informazioni affidate al cloud non sono in fondo diversi da quelli nutriti da coloro che, nei secoli, si sono messi alla ricerca del miglior metodo di conservazione e trasmissione del sapere: spaventati da distruzioni come il rogo degli innumerevoli volumi della biblioteca di Alessandria, o come quelle perpetrate da regimi storicamente esistiti (il nazismo, tra tutti), ispiratori di altri generati dalla fantasia letteraria (come in Fahrenheit 451). Il caso di Google conferma che il problema della salvaguardia dell’informazione nell’epoca digitale è tutt’altro che risolto: anche in questo caso a custodire l’immateriale sono infatti oggetti materiali, passibili di danneggiamento, limitati nello spazio – problemi di capienza, appunto – ma anche nel tempo. La continuità dell’innovazione rende infatti l’obsolescenza dei supporti utilizzati una minaccia altrettanto concreta che gli incendi o le devastazioni naturali: e come ebbe a denunciare nel 2010 Adam Farquar, all’epoca responsabile della Digital Library Technology della British Library, la produzione digitalizzata degli scienziati contemporanei potrebbe presto risultare meno accessibile di quella dei loro secolari predecessori, conservata su carta.

I tentativi di individuare tecnologie di conservazione non solo durevoli, ma in grado di restare altrettanto accessibili nel tempo della carta, sono tutt’altro che conclusi: tra i più notevoli risultati c’è Project Silica, frutto della ricerca di Microsoft e dell’università di Southampton, che a novembre 2019 aveva salvato una copia del film “Spiderman” su un quadrato di 75 mm di lato, con uno spessore di 2mm, a prova di calore, di abrasione e di smagnetizzazione, promettendogli l’eternità, o quasi. Eppure, anche in questo caso siamo lontani dal poter aspirare a tanto, non solo per la strutturale incertezza cui questo avanguardistico supporto – non meno dei CD, ormai obsoleti – è a sua volta esposto dal progresso tecnologico, ma soprattutto perché, come tutti i suoi simili, si fonda sulla dissociazione tra software e hardware , che non sono entrambi a portata immediata dell’utente umano – come è storicamente accaduto solo per una tecnologia: la scrittura.

L’insicurezza dello storage, insomma, non è un problema di Google, e non è un’esclusiva del cloud. Il fatto è che non esiste (ancora) un sistema di trasferimento dell’informazione eterno: lo stesso funzionamento della «macchina del tempo» di Internet dipende dal buono stato di salute di server e codici, il cui superamento per raggiunti limiti di età, o di capienza, o di efficienza, potrebbe in ogni momento vanificare l’efficacia dello straordinario dispositivo di memoria diffusa che la Rete rappresenta; non resta che augurarci, mentre Google perde la memoria, di non fare altrettanto.