Skip to main content

L'esperta di IA Joanna Bryson parla di due diligence e di sradicamento dei pregiudizi dell'IA, parte 1

Roland Alston, Appian
February 18, 2021

Si parla molto dell'intelligenza artificiale (IA) e di come sta rivoluzionando questo o trasformando quello. Ma in questo tempestivo remix di un post precedentemente pubblicato, l'esperta di IA Joanna Bryson (@j2bryson) si concentra sull'iperbole dell'IA e ci aiuta a vedere le cose come sono davvero:

    • Sradicare i pregiudizi sull'IA.

    • Dare priorità alla due diligence nello sviluppo del software.

    • Regolamentare l'IA senza togliere la magia all'innovazione dell'IA.

Nota: Bryson professoressa di etica e tecnologia alla Hertie School of Governance di Berlino, dove forma i futuri tecnologi e politici sull'inclusione digitale e la governance dell'IA. » una voce importante nel movimento per migliorare la governance e l'etica della tecnologia digitale. Ed stata recentemente riconosciuta come una top digital influencer dalla European Digital Development Alliance.

Se si scorrono le notizie sulle tendenze tecnologiche, si può vedere che l'IA continua ad accelerare dal margine al mainstream a velocità notevole. Le big tech stanno puntando tutto sull'IA. Le agenzie governative stanno investendo miliardi. E gli appelli a dare la priorità alle considerazioni etiche nell'implementazione dell'IA stanno riverberando attraverso le C-suite e i consigli di amministrazione ovunque.

Allora, dove siamo diretti?

Sembra che siamo a un bivio in quella che la Harvard Business Review chiamal'età dell'IA implementata. Dove siamo diretti ora, dice Bryson, riguarda più che altro la governance con cui scegliamo di guidare l'evoluzione dell'IA. E, quindi, c' un crescente senso di urgenza tra le aziende, i legislatori e i tecnologi nello svolgere un lavoro migliore di due diligence con casi d'uso che coinvolgono sistemi di punteggio dei rischi basati sull'IA in settori come la giustizia penale, i servizi sociali, l'assistenza sanitaria e simili.

La responsabilità per l'etica dell'IA può in ultima analisi essere di consigli e dirigenti di livello C. Ma la grande domanda : come possiamo adattare eticamente i migliori casi d'uso dell'IA?

"Ciò che importante, dice Bryson, capire in che modo l'IA prende decisioni, come determina cosa vediamo e cosa no, e chi responsabile quando le cose non vanno male".

Dai un'occhiata al seguente remix della nostra conversazione del 2018, ma ancora attuale, con l'importante leader di pensiero AI Joanna Bryson.

Appian: Sei ottimista o pessimista sull'impatto dell'IA sulla società?

Bryson: Alcune persone mi definiscono un'ottimista. Ma altri pensano che io sia una pessimista tecnofobica.

Appian: Quando pensi all'incredibile evoluzione dell'IA, cosa ti preoccupa del futuro, cosa ti tiene sveglia la notte?

Bryson: Un futuro in cui non potremo essere noi stessi, in cui tutto ciò che ci riguarda online e potremo essere penalizzati per questo. » una prospettiva che mi preoccupa molto. Insomma, sono perfettamente consapevole dei lati negativi di uno "stato di sorveglianza".E non vedo davvero un modo per evitarlo. Tutti sapranno chi siamo, cosa facciamo, cosa abbiamo fatto e cosa siamo inclini a fare.

Appian: Alcuni esperti dicono che l'IA riflette i valori della nostra cultura e che non possiamo capire a fondo l'IA se non siamo disposti a capire noi stessi. Qual la chiave per capire l'IA?

Bryson:

"Penso che quello che dobbiamo fare, e che sta diventando forse il tema più rilevante, capire come gestire la governance dell'IA. Come possiamo coordinare le nostre azioni attraverso la goverance per proteggere i singoli individui".

Gli algoritmi andrebbero regolamentati?

Appian:Quindi, nel contesto della regolamentazione e della governance, quali consigli daresti ai leader aziendali per uno sviluppo etico dell'IA?

Bryson: La cosa più importante metto in evidenza conle aziende e i regolatori che abbiamo bisogno di più responsabilità con l'IA, e possiamo farlo.

Appian:C' chi teme che la regolamentazione dell'IA soffochi l'innovazione. Cosa ne pensi?

Bryson: Ultimamente si parlato molto dell'IA e alcuni ingegneri di alto profilo hanno detto che se verrà regolata, si perderà il deep learning, che il succo magico dell'innovazione dell'IA. Ma ora ci sono grandi aziende tecnologiche che dicono di credere nella regolamentazione per l'IA.

Penso che sia importante riconoscere che siamo in grado di tracciare e documentare se seguire o meno la due diligence nello sviluppo dell'IA. Il processo non diverso da quello di qualsiasi altro settore. E' solo che l'IA per ora passata inosservata.

Appian: Qual il problema della trasparenza nell'AI, e perchè importa?

"In questo momento, chissà quante persone stanno rilasciando codice senza neanche chiedersi da quali librerie [di codice] provenga, senza conoscerne l'origine e senza sapere se sono state compromesse o dispongono di backdoor".

In sostanza, dobbiamo solo essere più prudenti. Pensiamo al caso del ponte Morandi: se non si sa quanto siano buoni i materiali edili utilizzati o se siano state adottate delle scorciatoie, non possibile valutare la resistenza di ciò che si costruisce.

Oggi esistono leggi ben precise in materia di edilizia e di ponti, ma, fino a qualche secolo fa, chiunque disponesse di denaro sufficiente poteva costruire ovunque volesse.

Adesso, per costruire un edificio bisogna presentare i progetti alla commissione urbanistica, servirsi di architetti professionisti e cosÏ via, tutto perchè gli edifici sono importanti e se sono fatti male possono crollare.

https://open.spotify.com/episode/29wGMEgijFq6cfLzgSmAF0?si=vETGXR2ZRGS_-61Rjw7X7A

Puoi sostenere la legittimità del tuo software?

Appian: Quindi pensi che dobbiamo prendere più sul serio la due diligence nello sviluppo del software?

Bryson:Dovremmo seguire delle procedure per assicurarci che le nostre innovazioni siano sostenibili. Dovremmo essere in grado di dimostrare che possiamo stare dietro al nostro software. E dovremmo essere ritenuti responsabili di ciò che il nostro software fa.

Appian: Sembra ragionevole. Ma, a livello pratico, come possiamo farlo nel mondo reale?

Bryson: Allora, ho sentito una grande storia a proposito. Quasi tutte le auto in circolazione hanno un certo livello di IA al loro interno. E una delle cose che l'IA fa aiutarti a rimanere nella tua corsia.

Ma un uomo in Germania ha avuto un ictus mentre guidava. Ed stato il tipo di ictus che gli ha lasciato le mani sul volante e gli occhi aperti. L'IA guarda se ti stai addormentando al volante. Ma in questo caso, la macchina pensava che il conducente stesse bene. CosÏ, l'IA ha mantenuto la sua corsia e ha fatto andare l'auto dritta. Ed finita in un orribile incidente.

I procuratori hanno esaminato la compagnia automobilistica per scoprire cosa avevano fatto di sbagliato. Ma l'azienda stata in grado di dimostrare che aveva seguito le migliori pratiche e ha convinto i procuratori che il caso non sussisteva.

Appian: Qual il risultato per i leader aziendali?

Bryson: A prescindere dal settore in cui ci si trova, si dovrebbe essere in grado di dimostrare di aver seguito metodi molto attenti di costruzione del software, incluso l'utilizzo del machine learning.

Se si gestisce una banca e si ha un problema di contabilità, non si vanno a controllare le sinapsi nel cervello del proprio contabile. Si guarda se i conti sono stati fatti correttamente.

E penso che la stessa cosa possa essere fatta con il machine learning: "Ecco i dati che ho usato. Ecco come li ho addestrati. Ecco come ho usato le migliori pratiche". Ecco come si riduce il rischio.

(PS: Guarda questo spazioper l'episodio finale di questa conversazione in due parti con la principale esperta di IA Joanna Bryson. Nel frattempo, per informazioni su IA e sviluppo low-code, dà un'occhiata a questorapporto di Cognilytica Research.)