Indica un intervallo di date:
  • Dal Al
©credits

Umano, troppo umano

La fortuna del concetto di filter bubble sembra essere destinata a un rapido esaurimento. Già le ricerche condotte qualche anno fa dalle università del Michigan, di Oxford e di Stanford avevano sollevato dubbi solla sua robustezza: da ultimo, è il Reuters Institute ad assestare alla tenuta del “mito” un colpo definitivo, basato sia sui dati raccolti dal suo Digital News Report annuale che su considerazioni di carattere metodologico. Richard Fletcher, ricercatore del team Reuters, in un recente seminario sul tema ha mostrato, numeri alla mano, come gli utenti dei social media siano esposti con maggiore probabilità a fonti di notizie diverse, e questa probabilità diventa addirittura significativa se si parla di utenti di motori di ricerca. Soprattutto, Fletcher ha sottolineato la necessità di rifuggire una concezione “romantica” della fruizione dell’informazione tradizionale:  anche nel mondo offline esiste, è sempre esistita, una forma di personalizzazione del proprio approvvigionamento di news: sarebbe sbagliato quindi confrontare l’operazione di pre-selezione operata dagli algoritmi delle fonti online con un’assenza totale di personalizzazione, che fa parte di uno scenario irrealistico.

Il rifornimento di informazione da parte delle persone, sia online che offline, è un fenomeno più complesso e più ampio di quanto sembri. D’altro canto, i sistemi di recommendation basati sulla profilazione degli utenti, a un esame minimamente attento, si rivelano tutt’altro che perfettamente automatizzati, e tuttora frutto di una percentuale preponderante di decisioni umane: pertanto assolutamente imperfetti – forse neppure perfettibili. Se n’è occupato di recente, a proposito di Netflix, Giorgio Avezzù su Link,  che ha a sua volta parlato di “mito” riferendosi all’automazione – poco più che una retorica, secondo Avezzù, che meriterebbe di essere finalmente storicizzata. Difficile dargli torto, se si pensa all’incidenza del contributo di lavoratori in carne e ossa non solo nella programmazione di sistemi basati sulla cosiddetta “intelligenza artificiale”, ma anche nel loro allenamento, rodaggio, e test. Lo sanno bene i moderatori di Facebook, la cui indispensabile attività è tanto poco sostituibile da indurre l’azienda ad assicurarsene la collaborazione costringendoli a firmare un accordo malgrado i rischi dichiarati di sviluppare patologie come il disturbo da stress post-traumatico. Lo stesso avanzatissimo chatbot presentato alla fine di Gennaio da Google sul suo AI Blog , il più avanzato della tipologia open-domain, ha fatto ampio affidamento sul contributo di cosiddetti crowdworkers per valutare la propria accuratezza: Meena (così si chiama), basato su un modello conversazionale di tipo neurale allenato su dati provenienti dai social network, è  stato comparato con altri sistemi simili su un nuovo parametro proposto dai ricercatori e denominato SSA (Sensibleness and Specificity Average), che tuttavia riposa interamente sul giudizio umano.

Che l’intelligenza artificiale non fosse affatto intelligente, nel senso proprio del termine, era già noto; ma scopriamo ora che sarebbe azzardato anche definirla artificiale. Tutto sarebbe quindi umano, troppo umano? Alla luce di queste considerazioni, i timori collegati allo strapotere dell’algoritmo – tanto nel campo dell’informazione, quanto della comunicazione e dell’automazione in generale – sembrano ancor più eccessivi di quanto non suggerissero già le labili assunzioni che li sottendono. La perplessità di fondo è sempre la stessa, già valida per tutti i mezzi di comunicazione di massa: il rapporto tra esposizione allo strumento e modificazione conseguente, che resta un rapporto di concomitanza, difficile tra tramutare in un rapporto automatico di causa ed effetto, a meno di non dare per scontata una “meccanizzazione” dell’utente, dello spettatore, del lettore e persino dell’elettore. La natura aperta, storica, relazionale della nostra mente rende difficile assumere il soggetto quale destinatario inerte di modificazioni stabilite a priori; e questo anche senza ammettere la possibilità che si tratti di un soggetto attivo, libero di stabilire quale aspetto dell’indirizzo ricevuto accettare e quale respingere o reindirizzare diversamente. La plasticità della nostra identità e della nostra memoria fanno sì che entrambe evolvano continuamente, sfuggendo ai tentativi di immobilizzazione e solidificazione: da questo punto di vista, il fatto che la nostra umanità giochi ancora un soverchiante ruolo nei sistemi che percepiamo tanto invasivi è un’ottima notizia.