Cosa fare e non fare per un approccio responsabile all’AI

Cosa fare e non fare per un approccio responsabile all'AI

Introduzione

Nell’era digitale attuale, l’Intelligenza Artificiale (IA) sta rivoluzionando il modo in cui le organizzazioni operano, creando nuove opportunità ma anche nuove sfide.

Tuttavia, l’adozione indiscriminata dell’IA senza una chiara comprensione dei rischi associati può portare a gravi conseguenze, sia legali che etiche.

Da un lato, l’uso improprio dei dati e dell’IA può comportare violazioni della privacy e sanzioni legali; dall’altro, l’adozione responsabile e consapevole di queste tecnologie può portare a innovazioni significative e a vantaggi competitivi.

Questo approfondimento esplora cosa fare e cosa non fare per un approccio responsabile all’IA, utilizzando esempi reali di errori commessi e migliori pratiche da adottare.

Inoltre, evidenzieremo come Qlik, leader nella gestione e analisi dei dati, può supportare le organizzazioni nel garantire che l’IA venga utilizzata in modo etico, trasparente e conforme alle normative.

Approccio responsabile all’AI: cosa NON fare

L’implementazione dell’Intelligenza Artificiale (IA) può offrire vantaggi straordinari, ma è fondamentale evitare errori che potrebbero comportare gravi conseguenze legali e reputazionali.

Di seguito elenchiamo alcuni esempi da non seguire se si vuole approcciare l’AI in maniera responsabile.

Ignorare i rischi di privacy e confidenzialità

Quando ChatGPT è esploso sulla scena, non ci è voluto molto perché quasi tutti cominciassero ad usarlo senza rendersi conto dei potenziali rischi di inserire dati privati e confidenziali nello strumento.

Ad esempio, c’è stato il caso di un dirigente che ha copiato e incollato il documento strategico della sua azienda per il 2023 in ChatGPT, chiedendogli di creare una presentazione PowerPoint.

In un altro caso, un medico ha inserito il nome del paziente e la sua condizione medica, chiedendo a ChatGPT di redigere una lettera per la compagnia assicurativa.

Questi esempi mostrano come l’uso incauto dell’IA possa portare a gravi violazioni della privacy.

Usare dati senza considerare le implicazioni legali

Ancor prima che venissero approvate leggi specifiche per l’IA, non creare o utilizzare l’IA in modo responsabile poteva comportare gravi problemi per le organizzazioni.

Le leggi esistenti sull’uso equo della proprietà intellettuale e dei dati personali di altri entravano in gioco in termini di come venivano formati i modelli di base, in particolare quelli che utilizzavano dati pubblici che sono proprietari o di natura personale.

La costruzione di modelli di IA utilizzando dati pubblici senza il permesso dei proprietari può violare le leggi sulla proprietà intellettuale e sui dati personali.

Anche se le informazioni sono pubbliche, non significa che possano essere utilizzate liberamente per scopi di lucro.

Affidarsi ciecamente ai risultati dell’IA

Mentre gli strumenti di IA Generativa come ChatGPT possono essere incredibilmente preziosi, quest’ultima può far prendere degli abbagli e produrre risultati inaccurati.

L’output dovrebbe generalmente essere sottoposto a revisione e modifica da parte di un umano prima dell’uso.

Ad esempio Air Canada ha ritirato i propri chatbot dal servizio dopo che questi hanno fornito informazioni errate sulle politiche e sugli sconti, causando disagi ai clienti.

Anche un avvocato di New York è stato sorpreso a usare casi fittizi generati da ChatGPT nei suoi atti legali, affermando di non essersi reso conto che le informazioni potessero essere inesatte.

Trascurare la conformità dell’AI alle leggi emergenti

Con l’introduzione dell’EU AI Act, le organizzazioni devono prestare attenzione alle nuove normative che richiedono un uso responsabile e trasparente dell’IA, pena sanzioni severe.

Con l’IA Generativa che inizia a passare dall’hype alla realtà all’interno delle organizzazioni e con l’aumento dell’uso e della creazione di valore che porta a un maggiore controllo, questa nuova legislazione si rivela più che necessaria.

EU AI Act: cos’è e cosa regolamenta

L’EU AI Act rappresenta la prima legge completa al mondo sull’Intelligenza Artificiale, stabilendo un quadro normativo chiaro per l’uso dell’IA all’interno dell’Unione Europea.

Questa legge classifica gli usi dell’IA in quattro categorie:

  • proibiti
  • ad alto rischio
  • a rischio limitato
  • senza rischio

Gli usi proibiti includono, ad esempio, i sistemi biometrici che inferiscono caratteristiche come la razza.

Gli usi ad alto rischio, come la classificazione dei CV, richiedono rigorosi adempimenti normativi, inclusa la registrazione.

Gli usi a rischio limitato, come i chatbot, devono rispettare requisiti di avviso, mentre gli usi senza rischio, come i filtri antispam, sono esenti da obblighi di conformità.

Inoltre, i grandi modelli linguistici come ChatGPT sono soggetti a obblighi di test e di trasparenza sui dati utilizzati per la loro formazione.

Con l’entrata in vigore prevista per la fine del 2024 per gli usi proibiti e per l’estate del 2025 per le altre categorie, le organizzazioni devono prepararsi ora per assicurarsi la conformità.

Qlik può supportare le aziende in questo percorso, aiutandole a navigare il nuovo panorama regolamentare e a implementare pratiche di IA responsabile.

Approccio responsabile all’AI: cosa fare

Per utilizzare l’IA in modo responsabile e beneficiare appieno delle sue potenzialità, è importante seguire alcune buone pratiche.

Ecco alcuni suggerimenti su cosa fare, con un focus su come Qlik può aiutarti.

Stabilire una policy sull’IA

Hai già redatto una policy chiara sull’uso dell’IA nella tua organizzazione? Se non l’hai ancora fatto, dovresti cominciare a pensare di metterne in piedi una.

Lo stesso Qlik, ad esempio, ha pubblicato una policy che stabilisce i parametri per l’uso dell’IA.

Questa policy si applica a tutti i dipendenti e contractors di Qlik, i quali sono tenuti a rispettare le regole di questa politica quando utilizzano l’IA generativa all’interno della piattaforma.

Queste regole sono progettate per bilanciare i benefici dell’uso dell’IA generativa, proteggendo al contempo le informazioni confidenziali di Qlik, le aspettative dei clienti e la proprietà intellettuale, e rispettando le leggi, le normative e gli standard etici applicabili.

Implementare Data Products

Bisogna sempre adottare un approccio incentrato sul prodotto per la gestione dei dati.

Qlik consiglia di utilizzare una gestione dei dati orientata al prodotto per fornire tracciabilità e governance, essenziali per iniziative di IA generativa di successo.

Monitorare l’uso dell’IA nella Supply Chain

Sai quali dei tuoi vendors nella tua Supply Chain utilizzano l’IA?

Così come le informazioni ambientali, sociali e di governance (ESG) provenienti dai fornitori sono fondamentali per la nuova legislazione, lo stesso varrà anche per l’IA.

Sebbene le organizzazioni abbiano ancora un po’ di tempo prima che l’AI Act entri in vigore, un aspetto fondamentale riguarderà il garantire che gli strumenti di IA utilizzati dalla tua organizzazione siano conformi e che la tua forza lavoro li utilizzi solo per scopi consentiti.

Con le soluzioni di Qlik, le aziende possono ottenere trasparenza nell’uso dell’IA e assicurarsi di rispettare tutte le normative applicabili, riducendo i rischi e massimizzando le opportunità offerte dall’IA.

Stabilire una Data Foundation affidabile e pronta per l’IA

Una buona pratica è infine quella di creare una base dati sicura e ben gestita.

Qlik può aiutarti a costruire una Data Foundation robusta ed affidabile, pronta per supportare iniziative di IA Generativa.

È importante anche assicurarsi che i modelli di IA siano trasparenti e sottoposti a supervisione umana.

Qlik promuove la formazione di modelli responsabili e trasparenti, l’eliminazione dei bias e la supervisione continua per garantire risultati accurati ed affidabili.

Inoltre, anticipare e prepararsi per le nuove regolamentazioni, come l’EU AI Act, è fondamentale.

Qlik ha una lunga esperienza nel supportare le organizzazioni a conformarsi a normative complesse come il GDPR, ed offre risorse per aiutarti a navigare il nuovo panorama.

Conclusione

In definitiva, l’introduzione dell’EU AI Act suscita un senso di déjà vu rispetto al GDPR.

Quando il GDPR fu emanato, Qlik intraprese processi completi per garantire la conformità dell’organizzazione e la fiducia dei clienti nell’uso sicuro dei prodotti, supportando anche i clienti nel raggiungimento dei loro obiettivi di conformità.

Oggi, con il suo nuovo AI Council, Qlik discute le somiglianze e le differenze tra queste due normative: entrambe leggi dell’UE con implicazioni globali e multe elevate, ma mentre il GDPR riguarda tutti i dati personali, l’AI Act interessa solo le aziende che creano o utilizzano l’IA.

Inoltre, si prospetta un panorama regolamentare complesso, con altri paesi come gli Stati Uniti che probabilmente emaneranno leggi proprie, ciascuno con un approccio diverso.