Il dato è mio e lo controllo io. O forse no…

Cominciamo questa seconda riflessione del nostro approfondimento sull’intelligenza artificiale con il richiamo ad uno slogan che – per collocazione storica e rimando culturale – potrebbe apparire lontano e anacronistico rispetto a robot, cyborg, assistenti virtuali e connessioni elettroniche inequivocabilmente lontani dalla carne e sangue del corpo delle donne del quale il movimento femminista, negli anni 70, rivendicava la sottrazione al controllo del patriarcato.

Eppure, proprio ciò che più consideriamo proiettato nel futuro in realtà può essere ciò che più rischia di ancorarci al passato, e con esso ad una bolla di vecchie e nuove discriminazioni. Parliamo di Big Data e algoritmi. E di discriminazioni di genere.

Nell’ultimi anni lo sviluppo di nuove tecnologie, cambiando profondamente l’agire nella quotidianità, ha fatto sì che la quantità di dati esistente e costantemente generata da transazioni economiche, relazioni personali sui social, siti che visitiamo, acquisti online, applicazioni, telecamere di monitoraggio e sistemi di mobilità – solo per fare degli esempi – sia tale che i dati, già nel 2006, sono stati definiti “il nuovo petrolio” per il ruolo centrale che giocano nelle economie.

Ma, proprio come il petrolio, nella loro trasformazione, non sono esenti da esternalità negative. Per il petrolio è l’inquinamento e i danni all’ambiente. E per i dati?
La scia elettronica di dati personali che disseminiamo costituisce la materia prima per elaborare modelli rappresentativi con connessioni il più delle volte ignorate dagli stessi proprietari dei dati. Ma perché dovremmo preoccuparci dell’uso che si fa dei nostri dati? La cosa che più comunemente si dice è “io non ho nulla da nascondere” E la risposta che non si dà è: “potresti avere da nascondere – o meglio, da tutelare – più di quanto tu stess* sappia”.

Di seguito qualche esempio.

I dati non interpretati sono sostanzialmente inutili. Dare forma e significato alla mole di dati personali raccolti da diverse fonti è compito degli algoritmi, appositamente programmati per aggregare le tracce digitali e individuarne correlazioni. Il rischio, però, è che gli algoritmi usati per decodificare la realtà- anche se elaborati da strumenti come i computer privi di emotività e pregiudizi – non siano in realtà elementi neutrali.

Questo avviene non necessariamente perché gli algoritmi siano programmati intenzionalmente per operare una discriminazione – in base al genere, all’etnia o al sistema culturale, ad esempio – ma l’effetto delle elaborazioni può comunque produrre una discriminazione. Intanto perché gli algoritmi imparano dal passato e quel passato tendono a perpetrare: l’intelligenza artificiale viene addestrata attraverso dati che riflettono lo storico delle cose, quindi, nel caso delle donne, stipendi più bassi, scarsi ruoli di vertice, poche promozioni. In secondo luogo, gli algoritmi vengono ottimizzati per un certo tipo di successo che in genere privilegia le persone considerate «di successo» nel passato, nella fattispecie quasi sempre uomini bianchi.

Ma oltre alle discriminazioni inconsapevoli altre, più consapevoli e tradizionali, possono essere messe in atto utilizzando le informazioni in rete. Profili social aperti e alimentati da fotografie, dettagli su vita personale, interazioni amicali potrebbero far si che ai selezionatori e potenziali datori di lavoro sia risparmiato di dover porre alla candidata – in sede di colloquio – l’imbarazzante domanda relativa alla vita sentimentale e a future pianificazioni familiari. Uno sguardo a facebook o instagram – non consentito dalle norme ma difficile da provare in sede di giudizio – potrebbe portare a non contrattualizzare giovani donne il cui profilo virtuale fosse caratterizzato da progetti di maternità.

Ancora più invasiva, per la realtà strettamente personale femminile, è risultata essere una vicenda di cessione non autorizzata di dati che ha coinvolto alcune applicazioni utilizzate dalle donne per monitorare ciclo mestruale, fertilità e gravidanza.

A finire sotto accusa è stata soprattutto un’applicazione americana, considerata responsabile di condividere arbitrariamente, con una serie di soggetti, i dati inseriti dalle utilizzatrici. Con i datori di lavoro, potenzialmente interessati a capire quante dipendenti stessero tentando di avere un figlio o quante avessero gravidanze in atto. Ma anche con le assicurazioni sanitarie, che possono utilizzare le informazioni per aumentare o ridurre i benefici della copertura sanitaria. Addirittura con i pubblicitari, che, utilizzando teorie tese ad associare meccanismi biologici con quelli psicologici, sfruttano il ciclo ormonale delle utenti per vendite mirate: prodotti relativi all’apparire (moda, cosmetica) durante la fase fertile, quando la possibilità di concepimento è maggiore, e prodotti legati alla casa e alla “cura del nido” nel periodo immediatamente successivo.

Più di quanto già non si faccia, quindi, sarebbe utile – nella pubblica amministrazione, nel sindacato, nei sistemi produttivi, nei sistemi di comunicazione – guardare all’utilizzo dei dati dal punto di vista delle donne. In un processo di analisi dei rischi, di simulazione degli effetti e di individuazione di carenze e ambiti di sviluppo che abbia l’obiettivo di comprendere e far comprendere meglio. Per trovare soluzioni di impatto positivo e incidere sulla possibile parzialità algoritmica e la scarsa trasparenza dei processi decisionali automatizzati che rischiano di andarsi a sommare alle ancora non del tutto superate discriminazioni più antiche.

Tonia Maffei

Pubblicato il 25 Luglio 2023