Indica un intervallo di date:
  • Dal Al
©credits

Possiamo davvero fidarci delle cose?

Possiamo davvero fidarci delle cose? La domanda sarebbe sembrata bizzarra fino a qualche tempo fa, ma con il dilagare della Rete nel mondo degli oggetti acquista un senso del tutto nuovo. Sono sempre di più, tra gli artefatti che ci circondano, quelli che possono essere connessi a Internet, e quindi possono scambiare informazioni tra di loro e con noi. Dagli elettrodomestici ai sistemi di vigilanza della casa, dai braccialetti per il fitness ai contatori dell’energia elettrica e del gas, dai dispositivi contachilometri per l’assicurazione dell’auto agli strumenti elettromedicali per il monitoraggio degli indicatori vitali: l’elenco si allunga sempre più.  O meglio, include sempre più funzionalità in grado di trasformare case, automobili e oggetti di uso personale e quotidiano in smart objects, veri e propri agenti di intelligenza artificiale. Perché ciò accada, tuttavia, è necessario poterli considerare affidabili: vale a dire, che le informazioni scambiate siano attendibili, e che vengano trasferite con puntualità, completezza, chiarezza, precisione, riservatezza.

Come possiamo essere certi che lo siano? A prima vista, la garanzia di affidabilità degli oggetti intelligenti sta nel loro codice, il modo in cui sono stati programmati. Affermarlo significa spostare il problema sul piano della scrittura del software. Di recente, in campo automobilistico l’affare Volkswagen ha mostrato come il codice possa essere utilizzato non solo per insegnare alle auto a guidare senza un autista, ma anche per frodare i controlli. In un articolo su Wired US, Klint Finley ha affermato che lo scandalo tedesco rappresenta l’occasione giusta per chiedere con forza che l’Internet of Things si sviluppi all’insegna della trasparenza e dell’open software.

La sfida consiste nel coniugare questa apertura con le esigenze di sicurezza, che rappresentano una parte fondamentale per la costruzione della fiducia. Se il software fosse disponibile a tutti, non solo la concorrenza potrebbe beneficiarne indebitamente – obiezione tradizionale dei produttori, non solo di automobili, contrari all’apertura -, ma soprattutto potrebbe essere manipolato dalle mani sbagliate, a fini di frode, sabotaggio o addirittura distruzione, fino a diventare un vero e proprio pericolo pubblico.

Per controbattere all’obiezione dei produttori, basterebbe limitare l’accesso agli incaricati dei controlli e ai regolatori, analogamente a quanto avviene ad esempio per le slot-machine (questo il suggerimento del sociologo Tufekci sul New York Times); ma in questo caso sarebbe più difficile individuare un correttivo, che non sia un certo livello di “chiusura” del software, un limite non valicabile. Se è vero, come afferma Finley, che un maggiore controllo sui propri gadget da parte degli utenti potrebbe metterli in grado di ripararne le falle in caso di malfunzionamento – è altrettanto vero che i dispositivi connessi, che si tratti di automobili o di strumenti per la domotica, potrebbero essere riprogrammati in maniera perversa: in tempi di attentati terroristici a cielo aperto, questo tipo di rischio suscita comprensibilmente una preoccupata attenzione.

L’indirizzo deviato impresso all’intelligenza delle cose non è che uno dei possibili pericoli che un mondo popolato da oggetti connessi deve prepararsi ad affrontare. Se consideriamo cruciale il modo in cui gli oggetti vengono programmati è perché assumiamo che le istruzioni impartite dal codice vengano poi seguite dalla macchina senza margine di errore. Questo però potrebbe a sua volta rappresentare un problema, in un contesto in cui sia richiesta una flessibilità ancora sconosciuta alle smart things – non a caso, all’origine delle difficoltà incontrate dalle Google Car c’è stata l’interazione con un sistema stradale in cui le altre auto, guidate da uomini, commettono costantemente errori. Ancora, i dati personali degli utenti, raccolti in quantità incomparabile rispetto al passato, potrebbero essere utilizzati in modo da eccedere i limiti della privacy: il trade off tra servizi avanguardistici e invasione della vita privata potrebbe non essere così facile da individuare.

Per paradossale che possa sembrare, il superamento di questi ostacoli lungo la via dell’innovazione richiede una dose ancora maggiore di fiducia: nelle smart things, certo, ma soprattutto negli uomini che le hanno messe in condizione di diventare tali: proprio questa riflessione è stata al centro del convegno “InnovaFiducia”, qualche giorno fa, a Expo 2015. Come in ogni impresa umana, anche in questo caso la chiave del successo, e quindi dello sviluppo, sta nella capacità degli interessati di negoziare condizioni accettabili per tutte le parti coinvolte – sviluppatori, produttori, utilizzatori, controllori -, e di rispettare poi tali condizioni. A questo scopo, è necessario confidare nell’utilità dei limiti, nella competenza e nelle intenzioni di chi li ha disegnati; e allo stesso tempo, avere fiducia nelle opportunità di crescita e di sviluppo offerte al di là di contingenze apparentemente insormontabili e che non possono rappresentare un veto.  Malgrado tutte le incognite che si annidano tra le pieghe di un mondo complesso, è indispensabile essere fiduciosi che valga la pena di assumere rischi, di commettere errori, di cercare soluzioni, proprio per sciogliere quelle incognite: solo così si può sperare che il punto di arrivo sia più alto di quello di partenza.

(Pubblicato originariamente su La Stampa)