Dall’automazione della società alla società automatizzata (quarta parte)

L’uso distorto dei dati

C’è una caratteristica che rende le macchine learning ( algoritmi) strategiche nella vita delle persone: le macchine digitali decidono in autonomia come interagire a seconda del tipo di informazioni raccolgono seguendo specifiche regole. 

Quali sono queste regole?  Alcune volte sono regole matematiche, spesso sono quelle del suo programmatore, e, in quanto  tali, non sono regole scientificamente fondate. 

Oltre ai dati pubblici, sono usati altri dati che vengono acquisiti sul mercato in modo ingannevole. Sono strumenti assunti dalle assicurazioni per decidere l’elargizione di un  premio, o dalle banche per accordare prestiti più o meno alti.  Se la reputazione è buona allora sarà maggiore la possibilità di ottenere un mutuo a  tassi più convenienti.

Ma lo stesso può valere per qualsiasi aspetto delle vita di una persona, senza che l’interessato se ne possa rendere conto e condizionare aspetti importanti della sua esistenza. Ad esempio sull’accesso alle cure mediche. I dati sulla salute sono molto ambiti  e da questi si può stabilire a quali cure ognuno di noi   abbia diritto.  

Potrebbe accadere per l’istruzione. Ci sono algoritmi che propongono percorsi  scolastici determinati dalla zona di provenienza, dagli interessi culturali mostrati e dalle disponibilità  finanziarie.                                                                                                                                           

Anche in questo caso il rischio è che una ragazza/un ragazzo veda già, a partire dall’ambiente in cui è nato, quale sarà la sua esistenza futura, a quale tipo di impiego possa aspirare, quale retribuzione potrà ottenere. Nessuna possibilità di cambiare la propria situazione di partenza.    

Tuttavia non possiamo dimenticare che gli strumenti digitali sono il prodotto dell’operato dell’uomo, per cui i pregiudizi e le idee sbagliate che fanno parte della natura umana si riflettono su di loro. Questi pregiudizi portano a milioni di decisioni scorrette.

Nella raccolta dei dati se inserisci spazzatura uscirà spazzatura. Se le informazioni utilizzate per addestrare le intelligenze artificiali sono difettati il risultato non può che essere pessimo. 

E’ quello che si è verificato con gli algoritmi di riconoscimento facciale, dove le persone ispaniche o di colore risultavano maggiormente pericolose rispetto ai bianchi, i quali, al contrario, avevano maggiori probabilità di essere qualificati come persone a basso rischio.

I dati sono selezionati in maniera errata in quanto intrisi di pregiudizi umani che ne stravolgono la scientificità producendo errori eclatanti, razzismo  e discriminazioni di massa.

Fece scalpore la fotografia di bambina che fuggiva dalle bombe al napalm durante la guerra del Vietnam. La bambina era nuda: l’algoritmo che filtrava le immagini le interpretò come una violazione delle regole sulle foto di minori nudi.  La foto fu tolta. Era la foto che  vinse  il premio Pulitzer ed è una immagine simbolo dell’orrore della guerra.

Negli Stati Uniti, è stato verificato che molte richieste di aiuti sanitari, alimentari, economici sono state negate a causa di sistemi informatici inaffidabili, non validi. L’adozione di sistemi digitali di selezione della platea dei beneficiari delle misure di welfare, sostenuta da logiche neoliberiste come antidoto all’inefficienze e agli sprechi, ha avuto conseguenze pesanti sulla vita di cittadini più poveri e socialmente esclusi.

Gli algoritmi, specie negli USA, vengono usati quotidianamente nei tribunali per decidere l’entità della pena.  La giuria popolare quasi mai contraddice il responso dell’algoritmo.

Non c’è scelta più soggettiva che la scelta del personale in caso di assunzioni, perché gli algoritmi se da un lato facilitano il processo di selezione tra centinaia di profili dall’altro possono essere molto selettivi soprattutto verso chi ha avuto certe malattie o fatto scelte di vita non ritenute in linea con i valori aziendali 

Le macchine digitali, ad esempio, vengono impiegate spesso per manipolare la dialettica politica. Gli elettori sono impreparati a proteggersi dall’uso spregiudicato che ne viene fatto, mentre i politici sono ben consapevoli del loro potere e l’utilizzano per raccogliere voti.

L’elezione di Trump fu determinata da potenti algoritmi che hanno  puntato a delegittimare gli avversari, a catturare l’attenzione degli elettori per condizionare il risultato finale.   

Anche Salvini  si è dotato di una macchina del consenso che in poco tempo ha operato un completo re-styling  della Lega, con l’apporto di una piattaforma, dal significativo nome “bestia”, che gli preordinava tutte le modalità per entrare in sintonia con la “pancia” degli elettori, e con l’obiettivo ossessivo di far passare l’idea di un solo capo al comando.

Però, per essere obiettivi, risulta strano che i media americani, durante questi quattro anni, hanno disegnato Trump come un pericoloso spacciatore di fake news, ma abbiano giudicato con simpatia colui che per primo ha usato in politica certe tecniche: proprio Obama.

Le tecniche  artificiali sono necessarie per gestire molti aspetti della nostra società e per semplificare molte attività umane, ma non possiamo/dobbiamo lasciare  a  loro di decidere  cosa sia meglio per noi. 

Ci sono esperienze concrete che vedono la gestione di piattaforme non per estrarre profitto, ma mettere in comune risorse, competenze, servizi. Oppure quella dell’utilizzo a fini sociali della sterminata ricchezza delle informazioni per migliorare i sistemi sanitari o quelli di prevenzione ambientale. L’unico problema è l’accesso ai dati  finora gestiti dai monopolisti digitali.  

Questa voce è stata pubblicata in Comunità sociale, FinanzCapitalismo. Contrassegna il permalink.

Lascia un commento