Il paternalismo digitale
4 min readGli algoritmi di machine learning che si vedono in azione per esempio nelle raccomandazioni per gli acquisti in giganti dell’e-commerce come Amazon o Alibaba, sono in grado di tracciare il profilo di centinaia di milioni o, nel caso della Cina, di miliardi di utenti.
Il “Google” cinese, che si chiama Baidu, può ad esempio costruire un profilo delle ricerche effettuate da chiunque. Anche altre attività svolte sul web possono ugualmente essere tracciate e riportate nella “cartella” dedicata all’utente, in teoria anonimo, ma facilmente identificabile.
Tutte queste tracce possono essere automaticamente esaminate e valutate; sono stati visitati siti web strani? O siti politicamente ostili al governo centrale? Oppure questi siti sono stati visitati non dall’utente direttamente, ma dai suoi amici virtuali di qualche rete sociale? Tutti clic che danno punteggio negativo abbassano il citizen score.
Nel profilo dell’utente possono ovviamente finire informazioni di altre fonti; è stato multato per eccesso di velocità o per esser passato col rosso? O peggio ancora, l’etilometro ha segnato un eccesso di alcool nel sangue? Altri punti negativi.
Il punteggio, in apparenza, punisce azioni che spesso non sono nemmeno reati ma delle quali non molti sarebbero orgogliosi. Alla fine, il punteggio negativo, farà sentire il suo peso quando il cittadino in questione dovrà chiedere un mutuo, un visto per un viaggio o essere assunto da qualche impresa.
Dietro l’encomiabile obiettivo di formare “buoni” cittadini rispettosi della legge e della morale si nasconde un’insidia per la democrazia e per la vita privata del cittadino. Gerd Gigerenzer, psicologo tedesco, riassume alcuni dei rischi più gravi del citizen score:
1. La tracciabilità e la valutazione di tutte le attività che lasciano tracce digitali lascerà il cittadino “nudo”. La sua dignità e la sua privacy verranno progressivamente erose.
2. Le decisioni del cittadino non potranno più essere libere, perché su di loro penderà la spada di Damocle del punteggio (assegnato in base a regole stabilite da un’autorità centrale) e delle sue conseguenze negative.
3. Si potrebbe addirittura arrivare a punire le intenzioni in base alle previsioni degli algoritmi che analizzano i profili dei cittadini e la loro tendenza a “peccare”.
4. Poiché anche gli algoritmi sbagliano, il punteggio introduce l’imparzialità nella giustizia e, contro questo sistema automatico, il cittadino avrebbe poche difese (il pregiudizio digitale).
5. Le regole di buona condotta del punteggio stabilite da un’autorità centrale produrranno società ad una dimensione, eliminando la variabilità delle diverse culture e tradizioni.
Il paternalismo digitale, cioè il trattare i cittadini come “minorenni” bisognosi di una guida, non si limita solo al caso cinese, ma è alla portata anche di governi e nazioni più democratiche, reso possibile grazie ai potenti algoritmi di intelligenza artificiale, dell’apprendimento automatico e delle reti neurali.
Fortunatamente per noi cittadini che viviamo in nazioni democratiche, queste tecniche verranno implementate (si auspica) con l’unico obiettivo di migliorare la vita delle persone.
La tecnica ha un nome inglese, “Nudging”, che potremmo rendere in italiano come “spinta”. Una gentile pressione che indirizza le persone verso la strada giusta. Una pressione che, grazie agli onnipresenti canali di comunicazione aperti dai miliardi di smartphone, può facilmente raggiungere milioni di persone in una frazione di tempo.
Qui non si tratta di punire azioni moralmente censurabili ma di indirizzare il cittadino verso comportamenti che sono nel suo stesso interesse. Una “spintina” per ricordare che fare esercizio fisico fa bene alla salute o che fumare è, invece, dannoso. Un’altra spintina per ricordare che separare i rifiuti nella differenziata è un’azione che riduce l’inquinamento dell’ambiente.
Tutte queste spintine, grazie ai big data, ossia all’enorme quantità di dati che vengono raccolti su tutti i cittadini, potrebbero essere modellate come un abito su misura per le singole persone. Consigli che, arrivando al momento giusto, verrebbero ascoltati probabilmente con più attenzione. Un sovrano invisibile, dotato di potere “saggio”, potrebbe così dirigere le masse, a volte confuse e poco consapevoli, verso il loro stesso bene e quello dell’intera società.
Anche qui i pericoli sono dietro l’angolo. Il rischio di una deriva manipolatoria che, da spintine encomiabili per migliorare la salute o l’ambiente, passi ad altre spintine per favorire questo o quell’altro governo nelle elezioni, è tuttavia alto. Sono scenari che, in gran parte, riguardano il futuro ma ci avvertono che gli algoritmi di intelligenza artificiale e dell’apprendimento automatico sono strumenti molto potenti capaci di trasformare profondamente le nostre società e che quindi, una riflessione sul loro utilizzo, è ormai urgente.
LINK UTILI:
Il sistema di credito sociale
Germany edges toward Chinese-style rating of citizens
Sono un ricercatore presso Co.Mac – CFT, un importante gruppo italiano che opera nell’ambito degli impianti industriali. Laureato in ingegneria Meccanica con specializzazione in Meccatronica al Polimi. Attualmente studio automazione con particolare focus verso gli algoritmi di intelligenza artificiale e le sue applicazioni nel mondo reale.
Comunicare significa donare parte di noi stessi, ed è questo il motivo per cui la divulgazione scientifica è una delle mie più grandi passioni.