Skip to main content

Anche i robot hanno pregiudizi? A sradicarli ci pensa la due diligence. (Etica dell'IA, parte 3)

Roland Alston, Appian
October 4, 2018

Joanna Bryson, esperta di IA
Joanna Bryson, esperta di IA e informatica presso l'Universit‡ di Bath, nel Regno Unito.

(Questo l'ultimo episodio della nostra serie in tre parti sull'intelligenza artificiale, che ha come protagonista l'informatica Joanna Bryson (@j2bryson), una delle 50 principali influencer in materia di IA da seguire su Twitter secondo Cognilytica). Leggi la seconda parte qui.

Nei due episodi precedenti, Bryson ha messo in discussione molte considerazioni fumose e devianti sulla resistenza opposta alla regolamentazione dell'IA e ha analizzato l'importanza della due diligence nel processo di sviluppo software.

In quest'ultimo post, Bryson ci parla di quanto sia difficile sradicare i pregiudizi nei confronti dell'IA, ci spiega perchÈ le macchine non conquisteranno il mondo e ci svela il segreto per un'IA di successo.

Speriamo che troverai degli spunti interessanti.

Appian: L'altra volta hai affermato che non credi che un'azienda che ha come motto "move fast and break things" possa dimostrare di aver seguito la due diligence se il suo software fa succedere delle brutte cose. Che insegnamento possono trarne i leader dell'IT e del business?

Bryson: Indipendentemente dal settore in cui si opera, bisognerebbe poter dimostrare di aver adottato la massima cautela nello sviluppo del software, compreso l'uso del machine learning.

Se gestisci una banca e ti ritrovi con un problema di contabilit‡, non ti metti a studiare le sinapsi dei tuoi contabili, ma ti chiedi: "Hanno fatto bene i conti"?

Penso che si possa fare la stessa cosa con il machine learning: "Questi sono i dati che ho usato. L'ho allenato cosÏ. Ho applicato le best practice cos‡." » cosÏ che ci si tutela e ci si protegge dai rischi.

Non abbiamo bisogno di nuove regole per l'IA

Appian: Il che ci porta alla domanda relativa alla regolamentazione dell'IA.

Bryson: Se solo riuscissimo a far capire alle aziende che questo ciÚ che ci si aspetta, che questa la normalit‡... Qui, nel Regno Unito, non pensiamo di aver bisogno di nuove leggi: dobbiamo solo aiutare la gente a capire come applicare quelle esistenti all'industria del software.

https://twitter.com/j2bryson/status/1045693197396135936

Appian: Detto questo, credi che l'approccio europeo del GDPR (Regolamento generale per la protezione dei dati) sia un buon esempio da seguire?

Bryson: La perfezione non esiste, ma penso che il GDPR stia aprendo una nuova strada per le policy dell'IA. Certo, si puÚ sempre cercare di migliorarlo, ma se non ci impegneremo in questo senso, dovremmo semplicemente adottarlo (ride).

Fa ridere, perchÈ in Europa tutti si chiedono "PerchÈ qui non ci sono aziende come Facebook o Google? PerchÈ non ci sono aziende cosÏ grandi in Europa?"... Il fatto che negli Stati Uniti ci siano aziende tanto potenti, perÚ, non significa per forza che quello che stanno facendo sia giusto.

La domanda : vogliamo davvero concentrare cosÏ tanto potere e capitale in una sola grande azienda?

E penso che sia soprattutto per questo che Microsoft sta dando cosÏ tanta importanza all'etica e all'IA. Loro hanno gi‡ avuto diversi problemi con l'antitrust e sono ben consapevoli delle potenziali responsabilit‡ dell'IA. E adesso non vedono l'ora di dimostrare la loro maturit‡ sulla questione della governance. Anzi, forse lo hanno gi‡ fatto.

I leader digitali danno la priorit‡ alla governance IA

Appian: Quindi alcuni dei giganti della tecnologia si stanno muovendo nella direzione giusta per quel che riguarda IA e governance?

Bryson: Cinque anni fa non l'avrei mai detto. Ma negli ultimi 18 mesi alcuni di loro (Microsoft e Google) hanno fatto scelte interessanti.

Appian: Cambiamo argomento. Parliamo dei pregiudizi degli algoritmi: tutto vero o solo una moda?

Bryson:Il machine learning sviluppa gli stessi pregiudizi degli umani (i cosiddetti pregiudizi "impliciti" per gli psicologi) quando questi ultimi li esprimono.

Appian: Puoi fare un esempio?

Bryson: Diciamo che, in generale, i nomi da donna sono pi˘ strettamente associati a termini che hanno a che fare con l'ambiente domestico, mentre i nomi da uomo a concetti orientati alla carriera. Questo quanto emerge dal test di associazione implicita svolto dagli psicologi.

Ed un buon esempio del fatto che, se si usa il machine learning per allenare l'IA, si hanno buone probabilit‡ di scontrarsi con pregiudizi gi‡ esistenti. Questo perÚ solo uno dei tre modi in cui insinuare dei pregiudizi nell'IA.

https://twitter.com/j2bryson/status/1044332545893109761

Quando l'IA diventa cattiva

Appian: Quanto dovremmo preoccuparci dei pregiudizi dell'IA?

Bryson: Io sono molto preoccupata. Uno degli esempi che mi piace citare quello dei dispenser di sapone che non fanno uscire il sapone a meno che la tua pelle non sia di una certa tonalit‡. [Secondo i giornali, i sensori a infrarossi non erano stati progettati per distinguere tonalit‡ di pelle pi˘ scure.] PerciÚ, per far uscire il sapone, la gente in Asia Meridionale finiva per usare la carta igienica.

In altre parole, nessuno di coloro che hanno testato i dispenser era asiatico. Stranamente, erano tutti di razza caucasica (ride).

» una follia. Ma questi sono i pregiudizi pi˘ facili da correggere. E questo uno degli aspetti positivi dell'IA.

» pi˘ difficile capire che cosa si cela dietro i pregiudizi impliciti degli esseri umani, mentre nel caso dell'IA, come per i veicoli senza conducente, puoi controllare i data log, verificare le percezioni dell'IA e capire perchÈ ha agito in un certo modo.

Appian: Cosa ne pensi dei contesti in cui i pregiudizi vengono intenzionalmente insegnati all'IA?

Bryson: ...Questo proprio quello che secondo me le persone non capisce dei pregiudizi (nell'IA): che possibile istigarli volontariamente. Non una cattiveria da parte dell'algoritmo. Piuttosto qualcuno che arriva e dice: "Mi hanno appena eletto, voglio diminuire le tasse e voglio togliere soldi a quelli che non hanno votato per me".

Un algoritmo sbagliato taglia le pensioni di invalidit‡

In Idaho successo che lo Stato ha scritto un algoritmo per distribuire le pensioni di invalidit‡. Ma la formula ha dato dei risultati per cui all'improvviso molta gente si ritrovata con le pensioni tagliate, in alcuni casi anche del 42%. Quando gli aventi diritto se ne sono accorti, lo Stato si rifiutato di divulgare l'algoritmo, dicendo che era protetto da propriet‡ intellettuale.

Appian: E cosa successo?

Bryson: L'ACLU (American Civil Liberties Union) ha assunto il caso, ha vinto un regolare processo e ha costretto lo Stato a rivelare la formula per distribuire le pensioni, che ovviamente era un vero disastro. Lo stesso sta succedendo con i programmi per la recidivit‡:alcuni giudici usano un software di IA capace di predire la possibilit‡ che una persona torni a commettere un reato. E il software che c' dietro questi programmi molto peggio di quello che scrivono di solito gli accademici. Non siamo riusciti a capire come abbiano potuto commettere cosÏ tanti errori di previsione.

Insomma, che cosa staranno sbagliando? Davvero perchÈ non sanno programmare? Oppure i pregiudizi nella programmazione sono volontari?

Per questo prima ho detto che la cosa pi˘ importante [per l'IA] la responsabilit‡. L'unico modo che abbiamo per capire se una persona ha inserito un pregiudizio volontariamente, e non per errore, tramite la responsabilit‡ e i log.

https://twitter.com/j2bryson/status/1043612582844792832

L'IA non conquister‡ il mondo

Appian: Passiamo un attimo ad altro. Allora, l'automazione intelligente ha fatto parecchi progressi. Siamo arrivati al punto in cui le macchine usano algoritmi sofisticati per imitare il comportamento degli umani. Ma questo le rende intelligenti?

Bryson: Per me, un termostato intelligente. A che scopo definire l'intelligenza come appartenenza alla razza umana? Ci sono molti modi di essere intelligente. Ma penso che quello che sta davvero a cuore alle persone l'agire morale e la pazienza morale.

Appian: Agire morale? Pazienza morale? Che cosa intendi?

Bryson: L'agire morale riguarda chi o cosa responsabile per le azioni compiute da un singolo individuo.La pazienza morale indica per "chi" o "cosa" responsabile la societ‡.

Visto che ne stiamo parlando, le due cose alle quali la gente tiene di pi˘ sono:

    • L'IA sar‡ come noi?

    • Dobbiamo preoccuparci che possa conquistare il mondo?

Appian: Quindi dovremmo preoccuparci di un'apocalisse IA? L'IA conquister‡ il mondo?

Bryson: Penso che non ci sia una sola macchina che possa conquistare il mondo. Il mondo abbastanza grande. Ma, in gruppo, l'umanit‡ sta facendo un ottimo lavoro per conquistare l'intero ecosistema.

Siamo noi che stiamo cambiando la societ‡ con l'IA. E come dovremmo regolare la situazione? Come dovremmo cambiare le leggi per tutelare le persone, ora che sappiamo un sacco di cose sul loro conto grazie ai big data?

Pi˘ frammentazione con l'avvento dell'IA

Appian: Nonostante i progressi di cui parli, i pi˘ scettici cercano ancora di oscurare l'IA affermando che solo una moda fantascientifica. Alcuni tra i pi˘ critici dicono che si tratta solo di machine learning avanzato e intelligenza aumentata, non di IA vera e propria. Tu cosa ne pensi?

Bryson: Se intendi dire che non abbiamo un'IA che abbia l'aspetto di una persona, ti rispondo che una cosa del genere non esister‡ mai. Non c' una sola cosa fatta di cavi e silicone che avr‡ mai una coscienza fenomenologica anche solo lontanamente paragonabile a quella di un topo. E noi i topi li avveleniamo.

Uno dei problemi che stiamo affrontando nell'evoluzione dell'IA la frammentazione. Pensa a quanto sarebbero diverse le nostre comunit‡ se tutti si aprissero e parlassero tra di loro. Il problema della frammentazione sorto per via delle tecnologie di comunicazione. E peggiorer‡ con l'ascesa dell'IA.

https://twitter.com/UniofBath/status/1042093599041757185

Appian: Ancora un altro paio di domande prima di chiudere... Pensando a tutti i leader aziendali e delle politiche pubbliche con cui hai parlato, qual il pregiudizio pi˘ pesante nei confronti dell'IA?

Bryson: Sono molti. Uno di questi si rif‡ a una delle cose che ho detto prima, ovvero la paura che, se sottoposta a regolamentazione, l'IA perda tutto il suo fascino.

No, l'IA si puÚ disciplinare e lo si puÚ fare agendo sulle performance.

» anche sbagliato pensare che disciplinare l'IA comporti la perdita della propriet‡ intellettuale o metta a rischio l'innovazione.

La medicina un settore altamente regolato in cui il materiale tutelato da propriet‡ intellettuale 10 volte superiore a quello dell'industria tecnologica. Gran parte del rifiuto alla regolamentazione proviene da chi non disposto a cambiare, persone che non capiscono che le norme in realt‡ potrebbero essergli d'aiuto.

PerciÚ, quando mi confronto con le grandi aziende, cerco di comunicare soprattutto l'importanza della responsabilit‡ e di prendere il controllo del proprio processo di sviluppo software. E che il machine learning solo l'ennesimo utensile in una cassetta degli attrezzi.

Il che significa che si dovrebbe stare pi˘ attenti alla progettazione dei sistemi. Bisogna conoscere la fonte delle librerie utilizzate.

Non importa se sono librerie software alle quali ti colleghi o librerie di dati dalle quali il tuo sistema apprende, quello che conta sapere da dove vengono e chi vi puÚ accedere.

» ora di capire come integrare l'IA nelle nostre vite

Appian: Per finire, quali sono le tue previsioni in merito all'IA per il 2019 e per gli anni a venire?

Bryson: Penso che sia importante capire che l'IA ovunque, e che le sfide pi˘ grandi che stiamo affrontando in questo momento riguardano le conseguenze politiche, sociali ed economiche del modo in cui puÚ influire su di noi.

Tra il 2007 e 2017 c' stato un salto enorme in termini di capacit‡ dell'IA, perchÈ possedevamo pi˘ dati e abbiamo migliorato il machine learning.

Credo che, nel lungo periodo, questo fattore accelerer‡ il ritmo del progresso.

Ma nel breve termine, in qualche modo assisteremo a un rallentamento.

Quindi questo il momento giusto per capire come integrare l'IA nelle nostre vite.