Skip to main content

Le policy in materia di IA generativa: 7 questioni che i leader dovrebbero considerare

Dan O'Keefe, Appian
September 28, 2023

L'intelligenza artificiale (IA) generativa costituisce un elemento rivoluzionario, con promesse di un'efficienza senza precedenti e la possibilità di accedere a nuovi mercati. Man mano che l'IA generativa guadagna sempre più popolarità, le organizzazioni sono impazienti di sfruttarne il potere innovativo.

Tuttavia, questo entusiasmo dovrebbe essere accompagnato da una buona dose di cautela. È fondamentale che le organizzazioni sviluppino una solida policy in materia di IA generativa, in modo che il fascino della nuova tecnologia non porti a incidenti devastanti. Le policy sull’utilizzo dell'IA generativa aiutano a impedire errori, a ridurre i potenziali rischi ed a garantire che le organizzazioni possano sfruttare gli evidenti vantaggi dell'IA limitandone gli svantaggi.

Questo post affronta sette aspetti critici da tenere in considerazione per elaborare una policy sull'IA generativa solida e ben informata.

1. Privacy dei dati.

I dati sono oro. Non si dovrebbe essere costretti a condividerli con terzi. La privacy dei dati potrebbe essere uno dei problemi principali dell'IA generativa, in quanto molte aziende costruiscono LLM e li addestrano usando un misto di informazioni disponibili pubblicamente e dati dei loro clienti. Mettendo a disposizione i propri dati con questi modelli, è possibile che inavvertitamente si favorisca la concorrenza o si condividano inconsapevolmente segreti commerciali.

Inoltre, è possibile che si incorra in una violazione delle normative sulla conformità alle norme. L'inserimento di informazioni private, che potrebbero potenzialmente condurre all’identificazione dei clienti, viola le normative dei settori sottoposti a controlli rigorosi, con il rischio di multe. Assicurati di stabilire regole per l'utilizzo dell'IA generativa in considerazione di questo aspetto.

[Che cosa differenzia l’IA privata da quella pubblica? Leggi il post, IA privata vs. IA pubblica: 4 fatti chiave. ]

2. Proprietà intellettuale e diritto d’autore.

Poiché molti modelli di IA vengono addestrati utilizzando sia informazioni ampiamente disponibili che i dati dei clienti, la distinzione tra uso e titolarità della proprietà intellettuale diventa vaga. Il problema è duplice. In primo luogo, è possibile che la tua proprietà intellettuale venga utilizzata da un concorrente qualora questi usi una IA generativa che crea contenuti molto simili ai tuoi. In secondo luogo, è possibile che involontariamente vengano utilizzati contenuti generati dall'IA estremamente simili a quelli di qualcun altro, con conseguenti accuse di plagio.

3. Accesso alle informazioni.

Una policy cruciale in materia di IA generativa da adottare in modo corretto è quella relativa alla regolamentazione dell'accesso alle informazioni. Se un dipendente pone una domanda, l'IA generativa fornirà una risposta. Tuttavia, è lecito che questo dipendente riceva tale risposta? Ad esempio, se lavorando per un'organizzazione chiedi: "Qual è l'architettura sottostante i nostri sistemi?" Queste informazioni potrebbero essere utili per i team IT o per quelli deputati all’architettura, ma l'accesso a queste informazioni da parte di un dipendente potrebbe costituire un rischio per la sicurezza.

La governance delle informazioni è fondamentale. Nel creare la tua IA, assicurati di addestrarla fornendole solo informazioni sicure, altrimenti, se non procedi con cautela, è possibile che si trasformi in un incubo.

4. Tracciabilità e pregiudizio.

Molte persone, anche se non seguono le notizie sull’IA/ML ogni giorno, hanno sentito parlare di allucinazioni dell’IA. Le allucinazioni possono spesso essere banali e irrilevanti, come ad esempio chiedere chi ha vinto le World Series nel 1910 e sentirsi dire che sono stati i Philadelphia Eagles (in questo caso, città giusta, sport sbagliato..., ma sono stati i Philadelphia Athletics).

Allucinazioni come queste hanno effetti minimi. Tuttavia, quando si devono prendere decisioni aziendali fondamentali, non ci si può permettere una risposta sbagliata. È importante scegliere modelli di intelligenza artificiale addestrati sui propri dati specifici (riducendo così le possibilità di imprecisioni) e/o che mostrino come sono arrivati ad una risposta. Se il modello rende evidente il modo in cui ha lavorato, gli esperti possono convalidarne i risultati e garantire l’accuratezza delle informazioni sulle quali si stanno prendendo delle decisioni.

Anche la tracciabilità è strettamente legata al pregiudizio. Il pregiudizio dell'intelligenza artificiale è anch’esso un tema scottante e se non si capisce cosa è stato fatto per creare un modello o come si è giunti ad un risultato, si corre il rischio di istituzionalizzarlo.

5. Normative.

L'IA è al vaglio delle autorità di regolamentazione di tutto il mondo. Quasi tutti riconoscono che questa tecnologia può essere utilizzata in modo improprio, dalla diffusione di informazioni false alla fuga di dati, fino a causare problemi relativi al diritto d’autore e di plagio. I dettagli legali varieranno da regione a regione e non è ancora chiaro come, alla fine, si concretizzeranno le normative, ma, è importante rendersi conto che il panorama normativo continuerà a evolversi

Tuttavia, la questione non riguarda solo le nuove leggi. Molti settori sono già soggetti a normative vigenti che potrebbero esporli a rischi nell’ambito dell’IA generativa. Molte organizzazioni del settore pubblico, ad esempio, devono avere policy in materia di utilizzo dell’IA generativa che siano avverse al rischio. Anche le organizzazioni sanitarie potrebbero dover essere più caute, soprattutto per quanto riguarda l'utilizzo delle informazioni sanitarie protette.

6. Mancanza di casi d'uso chiari.

Anche se può sembrare il contrario, l'intelligenza artificiale non è magia. Se le organizzazioni vogliono implementare l'IA in modo efficace, è fondamentale che il suo utilizzo non sia fine a se stesso, bensì collegato alla strategia aziendale complessiva. 

Sebbene le aziende abbiano spesso il timore di rimanere indietro per quanto riguarda l’IA, dovrebbero evitare di agire frettolosamente, riflettendo bene su quali problemi organizzativi intendono risolvere con l’aiuto dell'IA. Ad esempio, potrebbero voler prevedere i risultati relativi alla fidelizzazione dei clienti, ridurre i costi di elaborazione di documenti e contenuti o costruire una query in linguaggio naturale per la propria base di conoscenze in modo da migliorare le domande e le risposte. 

Ricordati di concentrarti sulle metriche chiave: Questo ridurrà i costi? Libererà risorse per altri lavori? Si collegherà ad un'iniziativa strategica più ampia? Spesso è utile esaminare i problemi che si desidera risolvere, quindi decidere come applicare l'IA a supporto, o persino decidere che sarebbe meglio utilizzare un'altra tecnologia, come l'automazione robotica dei processi (RPA, Robotic Process Automation) o quella analitica tradizionale. 

[Ti interessa conoscere casi più concreti di uso dell'IA? Leggi Sette casi d'uso di IA/ML da considerare.]

7. La necessità di riqualificare la forza lavoro.

I media sottolineano la necessità di riqualificare la forza lavoro, solitamente nel contesto dei cambi di quelle mansioni che potrebbero essere in qualche modo minate dall’IA. Tuttavia, l'intelligenza artificiale non sostituisce gli esseri umani, ma li migliora. Ciò significa che le organizzazioni devono concentrarsi sulla riqualificazione della propria forza lavoro per affrontare il momento e prepararsi al futuro.

Come fare? La formazione e l'addestramento sono fondamentali, ma bisogna anche fornire ai dipendenti il tempo e lo spazio per lavorare con questi strumenti. Lascia loro spazio per sperimentare l'IA nel proprio lavoro, a patto che lo facciano in modo sicuro e senza infrangere le regole della governance. Tuttavia, per poterne trarre un reale vantaggio a lungo termine, i dipendenti devono sentirsi a proprio agio nell'utilizzo degli strumenti di IA.

Policy in materia di IA generativa: la chiave per un uso responsabile dell'IA.

Con i progressi tecnologici sempre più rapidi, l'IA generativa annuncia una rimodellazione dei settori, incitando le organizzazioni a rivalutare le loro strategie attuali. Tuttavia, esistono rischi e ostacoli da superare. Le aziende devono tenere conto della privacy dei dati, della proprietà intellettuale, della parzialità, della governance e persino dell'applicazione stessa dell'IA. Anziché considerare l’IA come una soluzione a problemi indefiniti, è necessario avere casi d'uso chiari che supportino le iniziative aziendali. Agire in questo modo aiuta le organizzazioni a cogliere i vantaggi dell'IA, proteggendosi al contempo dai rischi.

Come accennato in precedenza, la privacy dei dati è un fattore cruciale durante l’implementazione dell'IA nella propria organizzazione. D’altro canto, non è sempre necessario mettere a repentaglio la privacy dei dati. Richiedi l’eBook Implementazione dell’IA privata: una guida pratica per scoprire come.