“Lo sviluppo di Machine Learning deve essere svolto con le giuste best practices ed è nostro compito diffonderle, per renderne cosciente anche il cittadino”.

Così è terminato il convegno tenutesi Mercoledì 27 Febbraio presso la sede di Google Italia a Milano, dal titolo: “Machine Learning and Fairness”. A pronunciare queste parole è stata l’ingegnere Azzurra Ragone, Dottorato in Ingegneria dell’informatica e attualmente Program Manager di Google, che, insieme al Professore Alexiei Dingli, Capo del Dipartimento di Intelligenze Artificiali all’Università di Malta, hanno affrontato e spiegato alcune importanti tematiche del così definito “human side of AI”.

L’evento, organizzato dal meetup tra Google Italia e Frog, nota firma americana del design tecnologico, ha affrontato nello specifico due tematiche: la comprensione del processo decisionale delle macchine e l’equità (fairness) dei loro risultati. Da tempo infatti si sente parlare di Intelligenze Artificiali, e nella fatti specie di Machine Learning, ma ancora poco si discute delle buone pratiche che sia opportuno adottare perché il loro funzionamento sia trasparente ed equo.

In modo molto semplicistico, quello che un algoritmo di Machine Learning fa è svolgere delle predizioni, e quindi prendere decisioni, sulla base dei dati ad esso forniti. Alla macchina vengono “date in pasto” una grande mole di informazioni, i famosi Big Data, in modo tale che questa possa imparare e riconoscerne autonomamente le caratteristiche in futuro. Esistono algoritmi di Machine Learning di ogni tipo, e ogni giorno ne veniamo a contatto: il riconoscimento facciale del nostro smartphone, che capisce se si tratta del nostro volto oppure no, l’autopilot delle vetture più moderne, o ancora gli algoritmi di previsione dei nostri consumi energetici o dei prezzi delle case.

Tuttavia, le modalità esatte con cui queste macchine giungano alle loro conclusioni, seppur corrette, non vengono spesso indagate.

Come ha argomentato infatti il Professore Alexiei, le intelligenze artificiali sono delle black-box di cui si conosce l’output e l’input, ma si fatica a comprenderne esattamente il “ragionamento” alla base, data la loro complessità. Ci si ferma, nella maggior parte dei casi, a valutare che l’accuratezza dei risultati sia alta, ma questo, ha dimostrato il professore, non è sufficiente. Alcuni degli esempi riportati durante il convegno hanno reso evidente come sia possibile che le conclusioni delle macchine, durante le fasi di test, possano risultare corrette ma sulla base di meccanismi logici errati. Soprattutto nel caso di dati dinamici, è importante quindi valutare attentamente, nella fase di allenamento della macchina, che i risultati ottenuti siano stati raggiunti nel modo corretto, ovvero come un umano li raggiungerebbe. A tal proposito è stato presentato il metodo LIME (Local Interpretable Model-Agnostic Explanations), con il quale è possibile studiare la correttezza dell’algoritmo (per maggiori dettagli: https://arxiv.org/pdf/1602.04938v1.pdf).

L’utilizzo del Machine Learning può nascondere inoltre altre insidie, ha sostenuto l’Ing. Ragone. Innanzitutto l’abitudine di utilizzare pacchetti di dati “preconfezionati”, i data-set disponibili nel web, può portare la macchina a riflettere nei suoi risultati alcuni vizi e pregiudizi presenti nelle informazioni di partenza. E’ così, per esempio, che la traduzione dal turco (lingua che non distingue il maschile dal femminile) avviene per la parola “infermiere” automaticamente al femminile, mentre per la parola “dottore” automaticamente al maschile, poiché questa è l’associazione che si trova più frequentemente nei testi dati in pasto all’algoritmo di traduzione; o ancora, un algoritmo di Machine Learning riesce a riconoscere con esattezza una sposa all’occidentale, ma non una sposa di altra etnia, dal momento che le informazioni di partenza corrispondono ad un data set euroamericano. Questi, insieme ad altri esempi, hanno fatto capire come sia necessaria una cultura di studio e di pulizia dei dati, precedente alla fase di allenamento delle macchine e che oggi risulta essere carente. Tra i tool utilizzabili per questa mansione è stato citato il software di casa Google “What-if”, in grado di mostrare una panoramica di qualità dei dati e analizzarne la bontà in modo rapido e intuitivo.

 

Sempre legato alla scelta dai dati di partenza, un altro problema che si può presentare è stato definito come il “Feedback loop”. Questo si pone soprattutto nei casi di predizione dei trend, per esempio dei prezzi di mercato di un particolare bene: dai dati di partenza la macchina può prevedere un aumento della domanda per una particolare categoria di bene, e quindi promuoverne l’appetibilità sul mercato e favorirne ancora di più la sua richiesta. Questo fenomeno potrebbe generare un loop simile a quello di una speculazione finanziaria, nelle modalità con cui, per esempio, è avvenuto il noto caso Bitcoin.

Proprio per queste ragioni, il convegno si è concluso ribadendo l’importanza di un lavoro attento sulle origini dei dati e sulle modalità di funzionamento delle intelligenze artificiali, che deve essere svolto, in primis, dai soggetti operanti in questo ambito, ma deve essere anche compreso da chi vive questa realtà come utilizzatore. Dopo tutto l’evoluzione di queste tecnologie ci aiuteranno sempre di più nella vita e nelle decisioni di tutti i giorni, ma spetterà pur sempre a noi dare fiducia o no a queste macchine.

Articolo di Daniele Doninelli