Quantcast

Seguici su

Cerca nel sito

L’Ue identifica i sistemi di Intelligenza Artificiale ad alto rischio per gli individui e la comunità

Focus su processo di digitalizzazione e 5G a cura dell’economista Maria Alejandra Guglielmetti

Il 21 aprile scorso la Commissione Europea ha pubblicato una proposta di regolamento per i sistemi di Intelligenza Artificiale, la quale identifica i sistemi come ad alto rischio per gli individui e per la comunità, con l’intenzione di ridurre il loro uso indiscriminato e la loro opacità. Riconosce, di fatto, che l’utilizzo dell’Intelligenza Artificiale può aumentare le disuguaglianze e la nostra vulnerabilità in numerosi ambiti: accesso ai servizi sociali, educazione, reclutamento del personale, giustizia, per citarne solo alcuni.

 La proposta di Regolamento dovrebbe essere considerata dai cittadini un invito a vigilare, anche perché non si sa quando la normativa andrà in vigore né se sarà abbastanza efficace.  L’illustrazione di casi di danni subiti da cittadini inconsapevoli può aiutare a creare consapevolezza sulla necessità di essere molto cauti quando si è costretti all’utilizzo di questi sistemi anche nell’ambito dei servizi pubblici.

Due studiose e attiviste americane, Virginia Eubanks e Cathy O’Neil, hanno raccolto ed analizzato per anni una serie di casi emblematici: come testimonia la preoccupazione dell’UE è chiaro che potrebbero verificarsi anche in Italia in contesti diversi. Eubanks e O’Neil dimostrano che le promesse di efficienza e trasparenza di questi sistemi non esitano a tradursi in nuove forme di discriminazione che rischiano di essere più potenti perché nascoste. Riportiamo alcuni casi invitandovi alla lettura dei loro testi “Automatizzazione e Povertà” e “Armi di Distruzione Matematica”.

Sophie, una bambina di 6 anni affetta da paralisi cerebrale, appartenente ad una famiglia povera e numerosa, perde l’accesso all’assistenza medica (così come tutta la sua famiglia) a seguito dell’automazione del processo di richiesta e, quindi, all’introduzione di processi amministrativi on line incredibilmente complicati. Riceve a suo nome una lettera dall’ente di competenza in cui le viene comunicato di non essere più idonea perché “non aveva collaborato” (parole testuali!). Si scopre in seguito che risultava mancante una firma. Soltanto l’impegno di un attivista riuscì a rendere evidente l’”errore di sistema” ed a farle recuperare l’assistenza medica. Tuttavia per tre anni il sistema negò l’assistenza a circa un milione di persone.

Kyle, un giovane e bravo studente universitario, sospende i suoi studi a causa di un disturbo bipolare. Si riprende e cerca un lavoretto. Un amico lo informa che si sarebbe liberata una posizione part time in un supermercato e che avrebbe garantito per lui. Risponde all’annuncio on line ma non viene chiamato. Il suo amico cerca chiarimenti e viene a sapere che il ragazzo “è stato targato rosso” nel test di personalità (sistema molto diffuso nell’area in questione). Tuttavia, l’esito del test non viene comunicato agli aspiranti. Il padre, un avvocato, indaga e scopre che le domande sulla salute mentale chiudevano a suo figlio la possibilità di accedere al mercato del lavoro, nonostante fosse vietato utilizzarle nei test di assunzione. La class action è ancora in corso.

Jeanette cerca di pagare i suoi studi e mantenere sua figlia di 4 anni lavorando come barista in una grande catena di ristorazione. Il sistema di assegnazione dei turni di lavoro utilizzato, come succede in tutte catene di questo tipo, tra cui anche Amazon, prevede cambiamenti continui di orario, comunicati tramite app ed impossibili da gestire. Non riesce a conciliare studio e lavoro e deve pagare una baby-sitter per coprire le sue assenze impreviste, di giorno e di notte. Il caso è pubblicato dal New York Times e l’azienda si impegna a modificare l’algoritmo affinché i turni vengano comunicati una settimana prima. Non è successo, anche perché i manager erano incentivati ad allocare le risorse in modo ottimale e gli incentivi non erano stati modificati!

Chiudiamo con due casi di “effetti collaterali” dovuti ad errori di sistema.  Caterina Taylor perde il suo lavoro. Nella lettera di licenziamento la motivazione è chiara: dipendente condannato penalmente. L’informazione era falsa e Caterina si chiede se avesse anche perso l’assistenza abitativa per lo stesso motivo. Avvia le indagini, supportata, per fortuna, da un essere umano chiamato Wanda, la quale scopre e corregge l’errore: a sistema c’era anche una sua omonima, nata lo stesso giorno, condannata penalmente. Ma, occorre chiedersi, quante Wanda hanno la disponibilità e la capacità di identificare e di correggere questi errori sui nostri dati, soprattutto se il sistema è opaco a chi assiste gli utenti? Helen, invece, vuole trasferirsi in una pensione per anziani, ma la sua richiesta viene rifiutata perché nel passato era stata arrestata durante un litigio con il suo ex marito. Tuttavia non c’era stata alcuna condanna. Riesce a risalire alla società (data broker) che aveva recuperato e svolto controlli sui dati di migliaia di altre persone per l’agenzia immobiliare, fornendo dati incompleti su di lei. La ricerca è costata tempo e soldi. In quanti se lo possono permettere?

Che si tratti di errori o di uso indiscriminato dell’Intelligenza Artificiale, il loro utilizzo massivo con sistemi sempre più interconnessi (case, infrastrutture pubbliche, ospedali, istituzioni finanziarie, ecc.), e su grandissima scala, aumenta la nostra vulnerabilità, in particolare quella delle persone più fragili.
(Il Faro online)