Scorie - Il pregiudizio sui pregiudizi
La Commissione europea ha deciso di regolamentare l'intelligenza artificiale. La cosa non deve stupire, dato che l'approccio della politica comunitaria consiste nel regolamentare il più possibile ogni aspetto dell'attività umana.
Mario Mariniello, senior fellow di Bruegel, sostiene che le applicazioni basate sull'intelligenza artificiale finiscano per proiettare pregiudizi, sia di coloro che le programmano, sia delle fonti dalle quali sono programmate per attingere le informazioni su cui basare il proprio apprendimento.
Scrive Mariniello:
"Le applicazioni di apprendimento automatico favoriscono i candidati maschi rispetto alle donne. I software per le traduzioni replicano alcuni stereotipi di genere. Dovremmo essere molto preoccupati per i pregiudizi incorporati nell'Ai. Gli sforzi per arginarli sono benvenuti, come il regolamento proposto dalla Commissione Ue su un «approccio europeo per l'intelligenza artificiale». Spesso, tuttavia, i pregiudizi non sono solo incorporati nella progettazione dell'algoritmo. Sono anche esterni a esso, originati dalla società. Le applicazioni di traduzione automatica imparano gli stereotipi di genere dalle migliaia di libri usati per addestrarli. La discriminazione contro le donne e le minoranze si riflette bene nella letteratura. Non importa quanto oggettivi cerchiamo di essere, la semplice decisione di adottare soluzioni di intelligenza artificiale ha profonde implicazioni. Quella decisione è soggettiva e viene con una certa responsabilità politica, che va oltre la semplice regolamentazione dell'uso dell'Ai. Gli algoritmi imparano a essere discriminatori come la società che osservano. Poi suggeriscono decisioni che finiscono per esacerbare la discriminazione."
Potrà in certi casi trattarsi di pregiudizi, in altri di tradizioni culturali sviluppatesi nel corso della storia. Le quali possono non piacere, ma esistono. Partendo dal presupposto che la soggettività è ineliminabile - ed è bene che sia così, perché senza soggettività andrebbe a farsi benedire anche la libertà - a me pare che l'unica conclusione sensata sia quella di favorire il più possibile lo sviluppo di ordini spontanei.
Al contrario, Mariniello invoca l'intervento della politica.
"Se la politica pubblica mira a migliorare il processo decisionale e a costruire una società più inclusiva, dovrebbe affrontare la questione del ruolo dell'Ai nel raggiungere l'obiettivo finale. Se quest'ultima amplifica i pregiudizi della società, la politica potrebbe aver bisogno di intervenire, proibendo il suo uso o incorporando dei pregiudizi di compensazione. Per esempio, gli algoritmi che classificano i contenuti soggettivi nelle chat online potrebbero essere costretti ad attribuire pesi inferiori ai commenti discriminatori. Questo distorcerebbe i sentimenti di una comunità, ma l'algoritmo produrrebbe una rappresentazione del mondo più vicina a quello che vorremmo che fosse."
Nella parte finale delle affermazioni che ho riportato risiede il nocciolo del problema, a mio parere. Avere "una rappresentazione del mondo più vicina a quello che vorremmo che fosse" dal punto di vista di chi? Inevitabilmente di chi detta le regole. Si sostituirebbe, quindi, il pregiudizio politico del legislatore a quello che, non sempre ma più probabilmente, si avvicina maggiormente al parere di una più ampia pluralità di soggetti e fonti.
L'impostazione di Mariniello è tipica di coloro che lavorano in think tank la cui missione è ispirare i provvedimenti legislativi. In sostanza, l'esperto consiglia il politico e, così facendo, pensa di ottenere mediante la legislazione l'imposizione di ciò che egli stesso ritiene auspicabile. Pur non essendo egli stesso onnisciente, a maggior ragione quando si tratta di valutazioni in gran parte soggettive.
Sostiene ancora Mariniello:
"Ciò che rende una visione più desiderabile di un'altra non è la sua neutralità, ma se può servire meglio i propri obiettivi nel contesto in cui questi obiettivi vengono perseguiti."
Il fatto è che, per restare alla cronaca di questi tempi, esiste un perfetto esempio di politica che usa (anche) l'intelligenza artificiale per ottenere ciò che ritiene dovrebbe essere: la Repubblica popolare cinese.
Immagino già la replica: in Europa sarebbe diverso. Credo che lo sarebbe per intensità, almeno inizialmente, ma l'impostazione di fondo resterebbe la stessa. Quanto al futuro, dipenderebbe da cosa di volta in volta il legislatore (e i suoi consiglieri) riterrebbero desiderabile. Uno scenario che preferirei evitare.
Commenti
Posta un commento