Skip to main content

Memo per i CXO: Joanna Bryson smonta le critiche alla regolamentazione dell'IA (Etica dell'IA, parte 2)

Roland Alston, Appian
September 27, 2018

Joanna Bryson, esperta di IA e informatica presso l'Universit‡ di Bath, nel Regno Unito.

(Questo il secondo episodio della nostra serie sull'intelligenza artificiale, che ha come protagonista l'informatica Joanna Bryson (@j2bryson), una delle 50 principali influencer in materia di IA da seguire su Twitter secondo Cognilytica). Leggi la prima parte qui.

Su quali basi una richiesta di credito viene negata?PerchÈ a una certa persona viene negata la libert‡ vigilata? Com' che alcuni contribuenti si sono visti tagliare i sussidi di invalidit‡?

PerchÈ i computer che apprendono dagli umani interpretano automaticamente determinati lavori come maschili o femminili?

E cosÏ via.

Il punto che i dirigenti aziendali sono sottoposti a pressioni sempre maggiori per ottenere la fiducia dei consumatori nelle decisioni automatizzate che gi‡ influenzano gran parte delle loro vite.

Secondo alcuni studi, pi˘ di met‡ dei consumatori nel mondo (53%) sostiene che c'È bisogno di pi˘ educazione sul ruolo dell'IA nella societ‡.

In altre parole, molti di loro non si fidano.

Ma la mancanza di fiducia sulla sua capacit‡ di essere all'altezza delle aspettative etiche rischia di alimentare sempre maggiore timore e disprezzo.

La buona notizia?

Gran parte delle variabili riguardanti un uso etico dell'IA spesso direttamente legata alle scelte fatte nello sviluppo della tecnologia.

CosÏ, almeno, sostiene Joanna Bryson,esperta di IA e informatica presso l'Universit‡ di Bath, nel Regno Unito.

Di recente, Bryson ha collaborato a uno studio sull'IA (pubblicato sulla rivista Science), da cui emerso che i computer possono avere gli stessi pregiudizi degli esseri umani, se li si addestra senza due diligence.

Eliminare i pregiudizi dall'IA

Lo studio ha confermato che, quando gli algoritmi ricavano il significato delle parole da grandi quantit‡ di dati, applicano stereotipi molto simili ai nostri.

Questa solo una delle ragioni per cui Bryson ritiene che sia importante dare priorit‡ alla due diligence nello sviluppo dei sistemi di Intelligenza Artificiale,non tramite la creazione di nuovi regolamenti, bensÏ utilizzando le normative esistenti per ritenere responsabile chi costruisce, possiede o opera l'IA per ciÚ che viene fatto dai suoi sistemi.

In parole povere, Bryson se ne frega dell'uso etico dell'IA.

Speriamo che questa conversazione ti offrir‡ degli spunti interessanti.

Appian: Sei ottimista riguardo l'impatto dell'IA sulla societ‡? C' chi crede che il boom dell'intelligenza artificiale possa stroncare migliaia di posti di lavoro. Tu cosa ne pensi?

Bryson: C' chi mi definisce ottimista perchÈ non temo ciÚ che fa paura agli altri. D'altra parte, c' anche chi pensa che sia solo una pessimista tecnofobica.

PerchÈ la governance dell'IA dovrebbe essere una priorit‡

Appian: Cosa ti preoccupa del futuro dell'IA? Cosa ti tiene sveglia la notte?

Bryson: Un futuro in cui non potremo essere noi stessi, dove tutto ciÚ che ci riguarda sar‡ online e verremo penalizzati per questo. » una prospettiva che mi preoccupa molto. Insomma, sono perfettamente consapevole dei lati negativi di uno "stato di sorveglianza",solo che non saprei come uscirne. Tutti sapranno chi siamo, cosa facciamo, cosa abbiamo fatto in passato e quali sono i nostri interessi.

Appian: Ho letto che l'IA rispecchia i valori della nostra cultura. Che non possiamo comprenderla a fondo se prima non capiamo noi stessi. Ma come si fa? Come facciamo a capire l'IA?

Bryson:

Penso che quello che dobbiamo fare, e che sta diventando forse il tema pi˘ rilevante, capire come gestire la governance dell'IA. Come possiamo coordinare le nostre azioni attraverso la goverance per proteggere i singoli individui?

https://twitter.com/j2bryson/status/1036645253695057920

Gli algoritmi andrebbero regolamentati?

Appian: Che consiglio daresti alle organizzazioni in merito allo sviluppo dell'IA?

Bryson: La cosa pi˘ importante su cui sto cercando di concentrare l'attenzione di aziende ed enti regolatori, adesso, che abbiamo bisogno di attribuire maggiori responsabilit‡ in materia di IA. Niente di impossibile.

Appian: Tuttavia, c' chi si oppone alla regolamentazione dell'IA con la scusa che possa soffocare l'innovazione. Tu cosa ne pensi?

Bryson:

Sono state fatte molte considerazioni fumose e devianti in materia di IA. Appena due anni fa, prestigiosi ingegneri non esitavano ad affermare che i regolamenti erano la morte dell'apprendimento profondo, che il succo dell'innovazione dell'IA.

Ora, perÚ, grandi aziende tecnologiche come Microsoft hanno cominciato ad affermare che credono nella regolamentazione dell'IA.

https://twitter.com/ipfconline1/status/1029625414178807809

Credo sia importante riconoscere che possibile monitorare e documentare ciÚ che viene fatto anche senza seguire la due diligence nello sviluppo dell'IA. Si tratta di una procedura analoga a quella di qualunque altro settore, solo che al giorno d'oggi l'IA al centro dell'attenzione.

La trasparenza pi˘ importante che mai

Appian: Quali sono i problemi connessi a una mancanza di trasparenza in materia di IA? Che cosa si rischia?Bryson:

In questo momento, chiss‡ quante persone stanno rilasciando codice senza neanche chiedersi da quali librerie [di codice] provenga, senza conoscerne l'origine e senza sapere se sono state compromesse o dispongono di backdoor.

In sostanza, dobbiamo solo essere pi˘ prudenti. Pensiamo al caso del ponte Morandi: se non si sa quanto siano buoni i materiali edili utilizzati o se siano state adottate delle scorciatoie, non possibile valutare la resistenza di ciÚ che si costruisce.

Oggi esistono leggi ben precise in materia di edilizia e di ponti,ma, fino a qualche secolo fa, chiunque disponesse di denaro sufficiente poteva costruire ovunque volesse.

Adesso, per costruire un edificio bisogna presentare i progetti alla commissione urbanistica, servirsi di architetti professionisti e cosÏ via, tutto perchÈ gli edifici sono importanti e se sono fatti male possono crollare e fare stragi.

Puoi sostenere la legittimit‡ del tuo software?

Appian: Pensi che i software vadano considerati allo stesso modo?

Bryson: Una volta non era cosÏ, ma adesso sÏ.Bisogna seguire procedure ben precise per essere sicuri di apportare innovazioni sostenibili.

Dovremmo essere in grado di dimostrare che il nostro software del tutto legittimo ed essere ritenuti responsabili per quello che fa.

PerchÈ la due diligence importante

Appian: L'idea di ritenere le aziende responsabili per i software che creano interessante, nella teoria, ma come puÚ funzionare nel mondo reale?

Bryson: Ho sentito raccontare una storia molto interessante in questo senso. Quasi tutte le auto moderne ricorrono all'intelligenza artificiale, almeno in una certa misura, soprattutto per quanto riguarda la velocit‡ di crociera e il rimanere nella propria corsia.

Purtroppo, un uomo in Germania ha avuto un infarto mentre era alla guida, ma rimasto con le mani sul volante e gli occhi aperti.

Molti sistemi di IA sono fatti per evitare che chi guida si addormenti al volante, perciÚ in questo caso l'auto non ha rilevato problemi, rimasta nella sua corsia e ha continuato ad andare dritto, finendo col causare un terribile incidente.

Il pubblico ministero ha indagato l'azienda produttrice dell'auto per scoprire cosa avesse fatto di sbagliato, ma questa stata in grado di dimostrare che aveva seguito tutte le best practice del caso, e che quindi non poteva essere condannata.

Appian: Quale lezione possono ricavarne gli imprenditori che hanno adottato l'IA o stanno pensando di farlo?

Bryson: Non credo che un'azienda che ha come motto "move fast and break things" possa dimostrare di aver seguito la due diligence se il loro software fa acqua da qualche parte.

Leggi la parte 3 del nostro dialogo con Bryson.