#InternetDay. Di Maio: mezz’ora di Internet gratis. Bongiorno: “accompagnare digitalizzazione PA”.
giugno 26, 2018
Conte alla vigilia del primo Consiglio Ue. Priorità: un’Europa più giusta e più equa
giugno 27, 2018
Mostra tutto

Intelligenza artificiale, algoritmi e trasparenza. La lezione britannica

MAURIZIO MENSI

Serve cornice etica e giuridica. Intervista di LabParlamento al prof. Maurizio Mensi

Di Alessandro Alongi

L’Unione europea si prepara ad entrare nel terzo millennio e a governare i cambiamenti che l’Intelligenza Artificiale (IA) introdurrà in ogni ambito, dalla mobilità urbana, alla sanità e, soprattutto, rappresenterà un elemento chiave per competitività e crescita economica.

Nel marzo scorso il Presidente Macron ha presentato la strategia francese per lo sviluppo dell’IA, così come l’AGID ha pubblicato il primo libro bianco su questa materia e anche l’Unione europea, il mese scorso, non ha mancato di far sentire la propria voce sul tema.

Ma, accanto ad innegabili benefici, in assenza di un’adeguata cornice giuridica ed etica, tale rivoluzione potrebbe presto presentare l’altra faccia della medaglia, un lato oscuro capace presto di disperdere tutto il potenziale benefico dell’IA.

LabParlamento ha incontrato il Prof. Maurizio Mensi, già membro del Servizio giuridico della Commissione europea, docente di Diritto dell’economia alla Scuola Nazionale dell’Amministrazione e responsabile di @LawLab, laboratorio di ricerca sul diritto del digitale dell’Università LUISS Guido Carli.

Prof. Mensi, analizzando i numerosi studi sull’IA, accanto ad una percezione immediata sui benefici di questa nuova tecnologia traspare anche una certa preoccupazione verso i potenziali rischi di una perdita di controllo “umano” del processo, soprattutto legati alla gestione degli algoritmi, le procedure di calcolo che determinano la risoluzione di determinati problemi.

È proprio così. L’utilizzo sempre più diffuso degli algoritmi, a vari livelli e in diversi settori, presenta il rischio di decisioni discriminatorie e irragionevoli, con delicate implicazioni anche di carattere sociale, laddove non si conoscano e non si riescano a disciplinare i meccanismi posti alla base dell’effettivo funzionamento della “scatola nera”. Di qui l’invito rivolto dal Parlamento britannico al governo a prendere iniziative in merito. In un rapporto su: “Algorithms in decision-making” pubblicato lo scorso 23 maggio, il Comitato “Scienza e tecnologia” della Camera dei Comuni ha opportunamente ricordato che la tecnologia deve essere utilizzata per migliorare la qualità dei servizi pubblici e guidare l’innovazione, in particolare in settori come i trasporti e la sanità. Alla base di tutti vi sono i dati, soprattutto quelli in mano al  settore pubblico, sui quali operano algoritmi che non sono affatto la formula magica che produce automaticamente benefici in assenza di un quadro accurato di regole, anche di carattere etico. In sostanza, il rapporto evidenzia che l’applicazione degli algoritmi, al pari di ogni decisione umana, può essere condizionata da errori che comportano esiti imprevedibili e talora discriminatori, soprattutto nei confronti di determinate categorie sociali, se il loro funzionamento non è corretto oppure viene alterato.

Qual è la soluzione prospettata dal Governo britannico?

Per evitare tale rischio, il Parlamento invita il governo ad affidare al “Centre for Data Ethics and Innovation”, organismo consultivo che sta per essere creato, previsto dalla legge di bilancio dello scorso anno, il compito di verificare il funzionamento degli algoritmi. Il che significa controllare e garantire la qualità dei dati sui quali gli stessi si basano assicurandosi che i loro sviluppatori siano in grado di spiegare come funzionano. Tali meccanismi dovrebbero infatti essere pubblicati e conoscibili a tutti, nel momento in cui incidono sui diritti e la libertà dei cittadini.

Si va verso un “garante” per gli algoritmi insomma…

In un certo senso sì. Il Comitato ha richiesto al governo di preparare un elenco, accessibile al pubblico, dei casi in cui sono usati algoritmi che hanno “un impatto significativo” o di cui il governo centrale prevede l’utilizzo, così da accrescere trasparenza e responsabilità e incoraggiare il coinvolgimento anche del settore privato. A ciò si aggiunge la necessità di istituire un “champion” nazionale, di rango ministeriale, in grado di vigilare sugli algoritmi usati nel settore pubblico e coordinare i vari dipartimenti interessati. E’ poi posta una particolare enfasi sulla cooperazione internazionale, la necessità che l’Information Commissioner’s Office (ICO), il garante per la privacy britannico, disponga di adeguate risorse finanziarie e che sia sempre pubblicata e accessibile la “valutazione d’impatto” sulla protezione dei dati personali, uno dei pilastri del Regolamento europeo

Questo introduce un tema molto più complesso, relativamente alla trasparenza degli algoritmi alla luce delle nuove regole sulla privacy di matrice europea…

Il tema della trasparenza dell’algoritmo è diventato centrale soprattutto alla luce del Regolamento europeo applicabile dal 25 maggio scorso, che introduce il concetto della “correttezza e trasparenza” dei dati, vale a dire la disponibilità di strumenti in grado di verificarne l’affidabilità, quali per esempio accurati sistemi di audit per gli algoritmi e di certificazione per i loro sviluppatori, come raccomandato – sempre per fare il caso dell’esempio britannico – dal Comitato della Camera dei Comuni. Potrebbero al riguardo essere previsti dei “data trusts”, metodo ipotizzato nel rapporto sull’intelligenza artificiale presentato al governo nel 2017 dallo scienziato Wendi Hall e dall’amministratore delegato di BelnevolentTech Jérôme Pesenti. L’idea è in sostanza di prevedere modalità standardizzate a beneficio delle entità che gestiscono i dati che intendono condividere. Insomma, svariate iniziative meritevoli di attenzione.