Le domande scomode ancora senza risposta nel mondo dell’AI
Pregiudizio degli algoritmi, diseguaglianze di potere, utilizzi non trasparenti: su questi problemi stanno lavorando ricercatori ed esperti.
Pubblicato il 26 agosto 2021 da Valentina Bernocco

Al problema del pregiudizio nell’intelligenza artificiale, così come ad altre questioni etiche connesse a questa tecnologia, ancora non c’è una risposta semplice. Ma diversi progetti di ricerca stanno tentando di comprendere e di gestire i pericoli nascosti nei sistemi di AI. Aziende come Google, Microsoft, Amazon, Apple e Facebook stanno costruendo il proprio impero economico sui dati e sull’intelligenza artificiale a essi applicata: due patrimoni che, messi insieme, permettono a questi colossi di offrire servizi sempre più evoluti, personalizzati e diversificati. Ma il rischio di manipolazioni o distorsioni nella rappresentazione della realtà, anche involontarie, è talmente alto che queste aziende non possono sottrarsi al problema etico. Nella teoria, Google fa un’ottima figura: stando alle sue linee guida, l’intelligenza artificiale dev’essere inclusiva, benefica per la società, rispettosa della privacy, accessibile democraticamente, sicura a partire dalla sua progettazione, affidabile e credibile. Deve, inoltre, “evitare di creare o rafforzare ingiusti pregiudizi”. Dalle dichiarazioni d’intenti alla pratica, però, non sempre tutto fila liscio. A fine 2020 ha fatto discutere la decisione di Big G di licenziare una delle sue ricercatrici, la trentasettenne Timnit Gebru. In un articolo scientifico scritto insieme ad altri cinque ricercatori, Gebru evidenziava due problemi connessi ai software di elaborazione del linguaggio, capaci di processare enormi moli di dati e di creare testi di senso compiuto: il pesante impatto ambientale di questi programmi e il rischio che possano veicolare pregiudizi, razzismo e discriminazioni.
Ecologista o inquinante?
Addestrare un modello di AI di grandi dimensioni richiede un’enorme potenza di calcolo, dunque non stupisce che tra il 2017 e il 2017 le emissioni di CO2 e i costi dei progetti di intelligenza artificiale siano esplosi. Secondo uno studio del 2019 di Emma Strubell (altra ricercatrice di Google), il training di un algoritmo di comprensione del linguaggio può generare 284 tonnellate di anidride carbonica, l’equivalente di quanto prodotto in media da un’automobile nel suo intero ciclo di vita. Stando ai calcoli di Strubell, per allenare Bert (Bidirectional Encoder Representations from Transformers, modello introdotto nel 2019 nel motore di ricerca di Google) è stata prodotta una quantità di CO2 pari a quella di un volo aereo di andata e ritorno tra New York e San Francisco. D’altra parte gli algoritmi di machine learning e AI vengono anche usati per analizzare i funzionamenti dei data center e ricavare ottimizzazioni di efficienza energetica. A detta di Google, dopo un anno e mezzo di sperimentazione, già nel 2016 un algoritmo di apprendimento automatico aveva permesso di tagliare del 15% i data center. Dunque non c’è una risposta semplice alla domanda se l’intelligenza artificiale sia più ecologista o più inquinante, ma certamente ci sono contraddizioni da sanare.
Diversity imperfetta?
Un’altra domanda scomoda da porsi riguarda l’inclusività. Gli algoritmi dei programmi di comprensione del linguaggio vengano spesso allenati su grandi volumi di dati tratti dal Web, un calderone in cui proliferano discriminazioni, razzismo, sessismo, discorsi d’odio, volgarità. Nel rispondere alle polemiche sull’allontanamento di Timnit Gebru, Jeff Dean, vice presidente della divisione AI di Google, ha sottolineato l’impegno di Google a “continuare la ricerca su temi di particolare importanza per la diversity individuale e intellettuale, dall’ingiusto pregiudizio sociale e tecnico nei modelli di machine learning, alla insufficiente rappresentatività dei dati di training, fino all’inclusione del contesto sociale nei sistemi di AI”. Di nuovo, le dichiarazioni di principio si scontrano con la realtà. Ha qualcosa da dire in merito anche Kate Crawford, docente della University of Southern California e senior principal researcher di Microsoft Research: nel suo saggio Atlas of AI sono analizzati processi che avvengono nel dietro le quinte dell’intelligenza artificiale, come lo sfruttamento di personale sottopagato e gli impatti ambientali della supply chain. Come raccontato da Crawford in un’intervista al Guardian, “Questi sistemi si stanno diffondendo in una moltitudine di settori senza una forte regolamentazione, consenso o dibattito democratico”. Per mettere in piedi un sistema altamente automatizzato è spesso necessario un grosso lavoro manuale (malpagato) di raccolta e classificazione dei dati. “L’AI non è né artificiale né intelligente”, ha detto Crawford. “È fatta di risorse naturali e sono le persone che eseguono le attività a far apparire i sistemi autonomi. C’è poi il problema del bias, anche se il termine potrebbe essere riduttivo, perché “questi sistemi producono continuamente errori: l’affidabilità creditizia delle donne viene giudicata inferiore, i volti di persone di colore vengono male etichettati, e finora la risposta è stata che ci servono più dati. Ma ho cercato di capire le logiche di classificazione più profonde e si intravedono forme di discriminazione non solo quando i sistemi vengono messi all’opera, ma nel modo in cui vengono costruiti e allenati a vedere il mondo”. Nei dataset usati per allenare gli algoritmi le persone vengono catalogate secondo logiche non inclusive: per esempio esistono due sessi, maschio e femmina, e non c’è spazio per altre identità di genere, mentre i gruppi etnici sono soltanto cinque. Esistono sistemi di AI che correlano le espressioni facciali alle emozioni, considerando però vecchie classificazioni ormai superate. Come una degli anni Settanta, dello psicologo Paul Ekman, che restringeva a rabbia, paura, tristezza, felicità, sorpresa e disgusto il ventaglio delle emozioni deducibili dalle espressioni del volto. Successivamente lo stesso Ekman ampliò questa lista, e studi più recenti hanno sfatato il mito di poter correlare con precisione ciò che si legge sul volto di una persona allo stato d’animo sottostante. Tutte queste politiche di classificazione nel training degli algoritmi sono ormai sedimentate e anche per questo il bias è difficile da estirpare.
AI & DATA INTELLIGENCE