Sul fatto che l’attenzione sia la vera risorsa scarsa dei nostri tempi si è detto e scritto molto (anche qui), e da lungo tempo ormai si parla di un’economia dell’attenzione. Le dimensioni di questa economia sono solitamente ricavate dalla misurazione della mole e del valore delle informazioni, dei dati, dei contenuti – digitali e non (su questo un bel contributo, chiaro e essenziale, qui) che all’attenzione vengono proposti.
Misurare l’economia dell’attenzione equivale quindi a quantificare il ritorno atteso dai materiali che la impegnano: che siano retribuiti dall’utente finale (quindi acquistati), ovvero pagati dagli inserzionisti pubblicitari (e quindi apparentemente gratuiti: ormai lo sappiamo, in Rete e più in generale nei media non esiste gratuità). Ma come sempre accade in economia, è il tempo a essere denaro. Vale a dire, non basta soppesare il valore intrinseco dei materiali, né giudicarne il successo contando gli utenti che ne hanno fruito, ma occorre valutare l’interesse che sono capaci di suscitare – il cosiddetto engagement. E per questo tipo di misurazione è indispensabile utilizzare come indicatore la quantità di tempo in cui l’attenzione resta impegnata. Non si tratta di misure alternative, ma complementari: nel campo dei media audiovisuali, per esempio, dove da tempo non basta più contare le “teste”, e l’avanzata di nuovi attori protagonisti del mercato – in primis nel video on demand – è andata di pari passo con l’abbandono delle metriche tradizionali.
Restando all’ambito dei media e del digitale, un indicatore come il tempo esprime valore anche su altri fronti. Per esempio, la conservazione a lunga durata di contenuti come quelli sopra citati, materiali e più in generale dati, in costante (esponenziale, come si dice) crescita. Con l’inaudito incremento della mole di dati, è aumentata proporzionalmente l’esigenza di metterli al riparo; e la concomitante obsolescenza dei supporti fisici – invecchiati a velocità inaudita nel corso degli ultimi due decenni – si è aggravato il problema di garantire non solo la persistenza del dato, ma anche la sua accessibilità. La risposta è stata la diffusione di memorie delocalizzate: invisibili, ma tutt’altro che virtuali. Grazie all’inesauribile domanda di archiviazione, il mercato globale delle soluzioni server è in costante crescita (lo scorso anno ha fatto registrare il suo miglior trimestre da sempre). Oltre alla gestione dello storage, il fenomeno va letto alla luce della spinta propulsiva del cloud computing – oltre che per conservare, memoria per elaborare e processare.
Tutto lascia pensare che siamo pronti per un altro tipo di economia: un’economia che potremmo definire della memoria (altro tema del quale su queste pagine si è già parlato). Memoria per aiutarci a conservare il gravoso fardello delle informazioni che costantemente produciamo, in modo che siano non soltanto al sicuro, ma anche sempre disponibile: qui il valore sviluppato è equivalente al costo che l’utente è disposto a sostenere per garantirne tale conservazione nel tempo. Ma anche memoria per leggere, richiamare, utilizzare le stesse informazioni sempre più in profondità: qui si aggiunge qui il valore della capacità di elaborazione, che mette la macchina in grado non solo di processare i dati, ma di apprendere da essi, riconoscendo trame, modelli, percorsi, comparandoli, riproducendoli, prevedendo gli effetti della loro ripetizione.
L’economia dell’intelligenza artificiale, allora, sarebbe essenzialmente un’economia della memoria, in cui le facoltà fondamentali dell’intelligenza umana, collegate alla dimensione mnemonica, vengono riprodotte e trovano una traduzione in valore. Non tutte, di certo, e non completamente: ma per tracciare il discrimine tra macchina e uomo, com’è noto, l’economia non basta, e bisognerà invece rivolgersi alla filosofia (a quella di Henri Bergson, per esempio). Ne riparleremo.