Skip to main content

L’IA renderà gli esseri umani obsoleti? Non nel breve periodo (parte 2)

Roland Alston, Appian
February 7, 2019

(Ecco il secondo e ultimo episodio della nostra serie sull’intelligenza artificiale, con la partecipazione di Vincent Conitzer (@conitzer), esperto di IA e professore di Informatica presso la Duke University.  Leggi la prima parte qui.)

Le cifre sono impressionanti: entro il 2020 ci saranno più di 50 miliardi di dispositivi connessi a Internet,

ma la cosa ancor più importante è che già oggi l’IA è integrata in più di un miliardo di quelli esistenti

(si pensi a Siri o Alexa).

Questo ci porta all’ultimo episodio della nostra intervista sull’intelligenza artificiale, con la partecipazione di Vincent Conitzer, esperto di IA e professore di Informatica presso la Duke University.

Conitzer concorda sul fatto che stiamo per assistere a un’incredibile rivoluzione dell’automazione intelligente, ma ritiene che essere umani abbia ancora dei vantaggi.

Dobbiamo preoccuparci che l’intelligenza artificiale possa conquistare il mondo? Per quanto si tratti di una domanda certamente legittima nel lungo periodo, secondo lui l’IA di oggi è ancora troppo limitata.

Allo stesso tempo, Conitzer commenta alcune delle tendenze più controverse che si vanno delineando all’orizzonte (la guerra "intelligente", la disoccupazione causata dalla tecnologia, i pregiudizi degli algoritmi), mette in guardia da una regolamentazione precipitosa dell’IA e sfata alcuni miti sull’intelligenza artificiale.

Speriamo che questa conversazione ti fornisca spunti interessanti.

Appian: Il rapporto tra etica e IA è oggetto di un’accesa discussione. Lei cosa ne pensa? Quali sono le principali sfide di carattere etico per l’intelligenza artificiale?

Conitzer: Da quello che vedo, oggi, l’implementazione dell’IA in contesti di vita reale viene sfruttata per obiettivi sempre più importanti. In passato non era un grosso problema, perché l’IA era ancora in via di sviluppo. Prendiamo il caso dell’apprendimento per rinforzo, un filone dell’IA nel quale il sistema apprende come intervenire per ottimizzare un obiettivo.

Immaginiamo un carrello che si muove lungo dei binari con sopra un’asta incernierata in posizione verticale: l’asta rischia di cadere da una parte o dall’altra e il compito del sistema è muovere il carrello avanti e indietro, mantenendo l'asta in equilibrio.

Appian: Non sembra un problema di facile risoluzione.

Conitzer: No, affatto. Presenta un ottimo standard di riferimento per gli algoritmi, perché l’obiettivo da raggiungere (non far cadere l’asta) è evidente,

ma nella realtà quanti di noi si trovano a dover tenere in equilibrio un’asta su un carrello? Quando invece spostiamo gli obiettivi dal laboratorio al mondo reale, allora sì che iniziano ad assumere una certa rilevanza.

A scuola di machine learning

Appian: Se non sbaglio, lei ha parlato anche di “classificazione supervisionata”. In cosa consiste e come si collega all’IA?

Conitzer: È un problema che si verifica frequentemente nel machine learning, soprattutto in presenza di un elevato numero di dati di input. Ipotizziamo che tra questi vi siano dati a carattere identificativo, come nel caso di fotografie contenenti tag. Questi dati possono essere inseriti in un sistema di IA per addestrarlo a riconoscere automaticamente i soggetti in foto.

Appian: Non si tratta dello stesso procedimento usato nei sistemi di riconoscimento verbale?

Conitzer: Esattamente. In quel caso, il sistema si esercita sui dati contenuti all’interno di file audio per imparare a trascrivere frasi del parlato che non ha mai incontrato in precedenza e la speranza è che impari a farlo quando si trova ancora in laboratorio.

Appian: Come fate a capire quando l’IA è pronta per essere utilizzata nel mondo reale?

Conitzer: Una possibilità è monitorare la percentuale di decisioni corrette che riesce a prendere, ma quando si implementa un sistema del genere in contesti reali possono verificarsi problemi di altro tipo.

Il sistema può dare ottimi risultati con la varietà linguistica più diffusa in una data zona ma scarsi con un dialetto minoritario, discriminando in questo modo un gruppo di utenti.

E sto parlando di episodi accaduti realmente. Mi ricordo quando i miei figli, da piccoli, provavano a parlare con Siri dall’iPhone di mia moglie: il numero di errori di interpretazione del sistema era sconvolgente. Probabilmente succedeva perché il set di dati di Siri non conteneva molte voci di bambini: in quel caso non era un grosso problema, ma in altre situazioni le conseguenze possono essere ben più gravi.

https://twitter.com/AIESConf/status/1092172899845312512

Appian: Può farci qualche esempio?

Conitzer: Le aziende tecnologiche come Google e Facebook richiedono ai propri utenti di creare un account e ne verificano l’identità attraverso vari dati, tra cui il nome, in modo da individuare quelli che non corrispondono a persone reali.

Uno dei criteri per stabilire se una persona esiste davvero è proprio il nome, e al riguardo si è scoperto che i nomi di molti nativi americani presentano caratteristiche tipiche degli account falsi.

Appian: Può essere più specifico?

Conitzer: I nomi degli account falsi solitamente contengono più parole. In base a questo criterio, gli account dei nativi americani venivano classificati come non reali con una frequenza significativamente maggiore rispetto ad altri utenti.

A obiettivi semplici non sempre corrispondono buoni risultati

Appian: Quindi sta dicendo che l’intelligenza artificiale non si è accorta dell’errore?

Conitzer: No, il sistema non aveva accesso al contesto più ampio di quella specifica situazione  e ha finito per danneggiare un’intera categoria di utenti.

Casi come questi richiedono la massima attenzione, perché a obiettivi semplici non sempre corrispondono buoni risultati.

Appian: Come possiamo proteggerci da questi pregiudizi involontari? C’è un modo per evitarli?

Conitzer: Non è una domanda facile, perché anche solo stabilire cosa si intende con “sistema privo di pregiudizi” è complicato e le varie definizioni esistenti non sono sempre concordi.  Il primo problema da affrontare è proprio questo, anche se in certi casi è palese che qualcosa è andato storto. In sostanza, non esiste un solo metodo per eliminare i pregiudizi dall’IA.

La soluzione migliore è avvalersi di un gruppo eterogeneo di persone sia durante lo sviluppo del software che durante il suo collaudo.

Il software andrebbe testato a fondo prima della sua distribuzione, per evitare la comparsa di risultati come quelli menzionati.

Sapere che cosa si sta regolamentando è fondamentale

Appian: A proposito di temi come l’etica, la trasparenza e la responsabilità, che cosa ne pensa del dibattito sulla regolamentazione dell’intelligenza artificiale? È necessaria oppure rischia di ostacolare l’evoluzione dell’IA?

Conitzer: Non sono contrario alla regolamentazione, ma credo che si debba distinguere caso per caso. C’è una bella differenza fra usare l’IA per decidere quali annunci saranno visualizzati dagli utenti o chi verrà rilasciato su cauzione, o addirittura per stabilire la sentenza di chi ha commesso un reato.

Per regolamentare l’IA è necessario avere ben chiaro sia il funzionamento dei sistemi sia l’obiettivo che si vuole raggiungere.

Ricorrere a una regolamentazione affrettata, senza capire bene su cosa si sta intervenendo e perché, non apporterà grandi vantaggi.

Tuttavia, in alcuni casi non si può fare a meno di stabilire delle normative. Nei casi riguardanti l’applicazione della legge, per esempio per decidere se un individuo abbia o meno il diritto di uscire su cauzione, i sistemi di intelligenza artificiale dovrebbero essere trasparenti e responsabili.

Appian: A questo proposito, il rapporto tra responsabilità ed etica è al centro di un ampio dibattito. Qual è la sua opinione al riguardo?

Conitzer: Pensi alle auto che si guidano da sole. In caso di incidente, chi è responsabile? Si tratta di una domanda insidiosa: il codice stradale ha norme precise al riguardo, ma quando subentrano i sistemi di intelligenza artificiale identificare l’errore e chi deve assumersi la responsabilità può essere difficile.

La colpa è del programmatore o di chi ha fornito i dati con cui è stato addestrato il sistema? Questo genere di domande è sempre più frequente in campo legale.

I miti più comuni sull’intelligenza artificiale

Appian: Al giorno d’oggi non si fa altro che parlare di IA. Di tutto ciò che si sente dire sulle sue capacità, qual è il principale mito da sfatare?

Conitzer: L’intelligenza artificiale ha effettivamente compiuto notevoli passi in avanti, quindi sotto questo aspetto non sono chiacchiere infondate. Tuttavia, la gente tende a saltare a conclusioni affrettate. Una delle cose più difficili da comprendere, per noi, è che problemi che gli esseri umani tendono a considerare estremamente complessi per l’IA non lo sono affatto.

Appian: Può farci un esempio pratico?

Conitzer: Prima dell'avvento dell’IA, agli albori dell’informatica, si pensava che gli scacchi fossero espressione della più alta forma di intelligenza umana e che chi vi giocava fosse estremamente intelligente. In seguito, però, si è scoperto che può essere più semplice giocare a scacchi che a calcio. Esistono già diverse applicazioni di intelligenza artificiale in questo senso: vi consiglio di dargli un’occhiata, sono molto divertenti.

In sostanza, la ricerca sull’IA ha alterato la nostra percezione delle attività in cui gli esseri umani dimostrano un’intelligenza superiore.

Ciò può rivelarsi frustrante per i ricercatori in questo campo: ogni volta che risolvono un problema considerato uno standard di riferimento per l’IA, infatti, tale obiettivo viene ridefinito, causando l’insoddisfazione di chi è riuscito a risolverlo.

Appian: In poche parole, la nostra idea di cosa rende unici gli esseri umani si evolve di pari passo con la ricerca sull’intelligenza artificiale.

È lecito provare timore o avversione verso l’IA?

Conitzer: Sì, ma sarà sempre così? Non ne sono sicuro. Alcuni temono che l’IA possa ottenere risultati migliori rispetto agli esseri umani anche al di là di semplici attività limitate e che sia in grado di raggiungere il loro stesso livello di flessibilità e comprensione del mondo. Una simile prospettiva dà adito a una lunga serie di scenari catastrofici.

Appian: Cosa ne pensa di questa avversione per l’IA generale?

Conitzer: Per chi si occupa di intelligenza artificiale non è stato facile affrontare l’argomento.

Molte delle audaci previsioni formulate in passato non si sono avverate perché risolvere i problemi si è rivelato più difficile del previsto.

Per questo da allora si è più cauti nell’avanzare pronostici.

Appian: Ma ci sono persone esterne alla comunità dedicata all’IA che stanno iniziando a esprimere le stesse preoccupazioni.

Conitzer: È vero, ma bisogna considerare le tempistiche.

Timori come quello della guerra intelligente, della disoccupazione causata dalla tecnologia e dei pregiudizi degli algoritmi sono fondati

e dobbiamo preoccuparcene perché si stanno verificando in questo preciso momento. Ma l’idea che l’IA possa conquistare il mondo è decisamente fantascientifica.

Appian: Dunque allo stato attuale il rischio non sussiste?

Conitzer: Gli algoritmi di oggi non sono sufficientemente potenti. Sono considerazioni legittime  e non mi sento di criticare chi le esprime, ma dobbiamo ricordare che stiamo parlando di tempistiche e di gradi di certezza diversi.

Oltre il riconoscimento di semplici modelli: cosa ci aspetta?

Appian: In un’ottica futura, quali tendenze si aspetta di veder comparire nell’ambito dell’intelligenza artificiale, soprattutto in relazione all’etica e alla responsabilità?

Conitzer: Nel breve termine assisteremo a un netto miglioramento del machine learning e delle tecniche di riconoscimento dei modelli, e inizieremo a trovarli nel mondo reale in contesti molto diversi fra loro. Una tendenza destinata a portare con sé tutta una serie di problemi imprevisti.

Appian: Cosa intende esattamente?

Conitzer: Il semplice riconoscimento di modelli potrebbe non essere più sufficiente. Lo vediamo già oggi, con le auto che si guidano da sole.

I sistemi di IA presenti sulle auto non rilevano solo dei modelli, ma riescono ad adottare misure correttive sulla base di quanto rilevato. L’intelligenza artificiale andrà sempre più in questa direzione.

Appian: E dove si colloca l’etica in tutto questo?

Conitzer: Per funzionare correttamente, questi sistemi hanno bisogno che l’obiettivo da raggiungere sia ben specificato. Qualsiasi dirigente aziendale sa che se dà un obiettivo poco chiaro ai dipendenti non otterrà i risultati sperati.

Lo stesso vale per sistemi di IA: se si specifica l’obiettivo sbagliato, i risultati saranno diversi da quelli attesi.