Articolo

Intelligenza artificiale: rischi, opportunità e nodo privacy

Published

Read time

L'intelligenza artificiale generativa è uno dei temi centrali del primo semestre 2023 e senza dubbio resterà in cima alle discussioni sul futuro. Una tecnologia che produce una serie di riflessioni, anche e soprattutto a livello istituzionale e sovranazionale, per via della innumerevoli ripercussioni delle applicazioni possibili, a partire dall'uso che viene fatto dei dati raccolti. Tema della privacy che il Garante italiano è stato tra i primi a sollevare.

ChatGPT e Garante per la Privacy

Da quando a fine 2022 OpenAI, azienda statunitense specializzata in intelligenza artificiale generativa, ha reso disponibile al grande pubblico ChatGPT, il dibattito su questa innovazione ha avuto un'accelerazione esponenziale, toccando i molteplici ambiti sui quali, in positivo e in negativo, l'AI può produrre degli effetti a breve, medio e lungo termine.
Nel nostro Paese, poi, il Garante per la protezione dei dati personali (Garante Privacy) si è inserito con un provvedimento che ha temporaneamente sospeso l'uso dell'applicazione in Italia.
Il Garante ha motivato la sospensione con una scarsa trasparenza della piattaforma nella gestione dei dati degli utenti, e dei minori in particolare, che in gran numero avevano iniziato ad utilizzare e testare le potenzialità di ChatGPT.
Ne è seguito un acceso dibattito e tra Garante e rappresentanti di OpenAI che ha portato, in poco più di due settimane, dalla chiusura stabilita l'11 aprile 2023 alla riapertura della piattaforma il 28 aprile, con maggiori garanzie su trasparenza e diritti degli utenti.

Nel dettaglio OpenAI ha:

  • predisposto e pubblicato sul proprio sito un’informativa rivolta a tutti gli utenti e non utenti, in Europa e nel resto del mondo, per chiarire le modalità di trattamento dei dati e ricordare che chiunque ha diritto di opporsi a tale trattamento;
  • ampliato l’informativa sul trattamento dei dati riservata agli utenti rendendola visibile prima che un utente si registri al servizio;
  • riconosciuto a tutte le persone che vivono in Europa, anche non utenti, il diritto di opporsi a che i loro dati personali siano trattati per l’addestramento degli algoritmi;
  • previsto per gli interessati la possibilità di far cancellare le informazioni ritenute errate dichiarandosi, al momento della riapertura della piattaforma, tecnicamente impossibilitata a correggere gli errori;
  • chiarito, nell’informativa riservata agli utenti, che mentre continuerà a trattare taluni dati personali per garantire il corretto funzionamento del servizio sulla base del contratto, tratterà i loro dati personali ai fini dell’addestramento degli algoritmi, salvo che esercitino il diritto di opposizione, sulla base del legittimo interesse;
  • implementato per gli utenti un modulo che consente a tutti gli utenti europei di esercitare il diritto di opposizione al trattamento dei propri dati personali e poter così escludere le conversazioni e la relativa cronologia dal training dei propri algoritmi;
  • inserito nella schermata di benvenuto riservata agli utenti italiani già registrati al servizio un pulsante attraverso il quale, per riaccedere al servizio, dovranno dichiarare di essere maggiorenni o ultratredicenni e, in questo caso, di avere il consenso dei genitori;
  • inserito nella maschera di registrazione al servizio la richiesta della data di nascita prevedendo un blocco alla registrazione per gli utenti infratredicenni e prevedendo, nell’ipotesi di utenti ultratredicenni ma minorenni che debbano confermare di avere il consenso dei genitori all’uso del servizio.

Questo lungo elenco mostra la complessità di gestione dei dati raccolti per l'addestramento degli algoritmi, complessità sollevata dal Garante italiano ma che riguarda l'intero approccio europeo alla gestione dei dati, storicamente molto più stringente rispetto a quanto previsto ad esempio negli Stati Uniti.
A seguito della riapertura della piattaforma il Garante, infatti, ha dichiarato: "L’Autorità riconosce i passi in avanti compiuti per coniugare il progresso tecnologico con il rispetto dei diritti delle persone e auspica che la società prosegua lungo questo percorso di adeguamento alla normativa europea sulla protezione dati. L’Autorità proseguirà dunque nell’attività istruttoria avviata nei confronti di OpenAI e nel lavoro che porterà avanti la apposita task force costituita in seno al Comitato che riunisce le Autorità per la privacy dell’Unione europea."


L'approccio europeo all'intelligenza artificiale

E allora come sta affrontando l'Unione europea il tema cruciale dell'artificial intelligence, che è ormai presente? Il Parlamento europeo ha istituito fin dal giugno 2020 la Commissione speciale sull’intelligenza artificiale in un’era digitale (AIDA), che in ha esaminato l’impatto della tecnologia e proposto una tabella di marcia dell'UE a lungo termine verso l'IA. La Commissione ha proposto un approccio olistico per il consolidamento di una posizione comune a lungo termine, che metta in luce i valori chiave dell’UE, gli obiettivi e i valori sull’IA, che consentano di proseguire gli attuali sforzi legislativi dell’UE in questo settore.
Le norme, le salvaguardie e i regolamenti dell’UE dovrebbero garantire che l’IA apporti consistenti benefici in ogni settore d‘Europa, dalla transizione verde alla salute e dall’industria, alla governance pubblica, all’agricoltura e alla produttività del lavoro, preservando cittadini, organizzazioni e istituzioni dai rischi connessi alla diffusione dell'intelligenza artificiale, a partire dal già menzionato trattamento dei dati raccolti dalle piattaforme, sia in fase di accesso e registrazione, sia in fase di utilizzo e dunque di addestramento degli algoritmi.
La relazione mette in guardia sull'importanza di un'azione tempestiva dell’UE per fissare standard chiari basati sui valori europei, e per evitare che questi vengano definiti altrove.
Infatti poiché le tecnologie di IA dipendono dai dati disponibili, la condivisione dei dati nell’UE deve essere rivista ed estesa.
In conclusione la relazione della Commissione speciale sull’intelligenza artificiale in un’era digitale, afferma la necessità di affrontare gli aspetti militari e di sicurezza dell’intelligenza artificiale, con l’Europa che dovrebbe cooperare a livello internazionale con partner che la pensano allo stesso modo, per promuovere la propria visione umanistica.

Benefici dell'intelligenza artificiale

Come detto, la diffusione dell'intelligenza artificiale apre numerosi fronti di discussione, che in Europa sono stati ben sintetizzati dall'AIDA nella propria relazione, mettendo a fuoco benefici e rischi dell'IA.

Partiamo dalle buone notizie:

  • Cittadini. Una migliore assistenza sanitaria, automobili e altri sistemi di trasporto più sicuri e anche prodotti e servizi su misura, più economici e più resistenti. Accesso facilitato all’informazione, all’istruzione e alla formazione.
  • Imprese. Sviluppo di una nuova generazione di prodotti e servizi, anche in settori in cui le aziende europee sono già in una posizione di forza come l’economia circolare, l’agricoltura, la sanità, la moda e il turismo, con percorsi di vendita più fluidi e ottimizzati, migliore manutenzione dei macchinari, incremento di produzione e qualità, migliore servizio al cliente e risparmio energetico.
  • Servizi pubblici. Riduzione dei costi e nuove opzioni nel trasporto pubblico, nell’istruzione, nella gestione dell’energia e dei rifiuti e migliore sostenibilità dei prodotti.
  • Democrazia. Verifiche basate sui dati, prevenzione della disinformazione e degli attacchi informatici e accesso a informazioni di qualità per contribuire a rafforzare la democrazia. Sostegno a diversità e uguaglianza di opportunità, ad esempio attenuando i pregiudizi in materia di assunzione attraverso l’uso di dati analitici.
  • Sicurezza. Prevenzione dei reati e come ausilio nella giustizia penale, elaborando più velocemente grandi volumi di dati, valutando con più accuratezza i rischi di fuga dei detenuti, prevedendo e prevenendo crimini e attacchi terroristici. L’IA viene già usata dalle piatteforme online per individuare e rispondere a pratiche illegali o inappropriate in rete.
  • Difesa. In campo militare, l’intelligenza artificiale potrebbe essere usata per la difesa e le strategie di attacco in caso di crimini informatici o per attaccare obiettivi chiave nella lotta informatica.

 

Rischi dell'intelligenza artificiale

Ma l'intelligenza artificiale apre anche a scenari non proprio positivi e porta con sè una serie di rischi che vanno analizzati e prevenuti prontamente, per non perdere il controllo di una tecnologia che potrebbe diventare pervasiva. In particolare la Commissione punta i fari su:

  • Abuso e sottoutilizzo dell’intelligenza artificiale. Non usare l’intelligenza artificiale in tutto il suo potenziale è un rischio, soprattutto in ottica di perdita del vantaggio competitivo rispetto ad altre aree del globo. Ma anche l’abuso è un rischio, basti pensare ad un utilizzo distorto e in via esclusiva per spiegare o risolvere complesse questioni sociali.
  • Aspetto assicurativo legato alla responsabilità civile. Di chi è la colpa se l'IA causa dei danni? Del proprietario dei dispositivi che la impiegano, del costruttore o del programmatore? Se il produttore fosse privo di responsabilità potrebbero non esserci incentivi sufficienti a fornire un prodotto sicuro ed efficiente. Il pubblico potrebbe avere meno fiducia nella tecnologia. Ma allo stesso tempo delle norme troppo severe potrebbero soffocare i tentativi di innovazione.
  • Minacce ai diritti fondamentali e alla democrazia. Le modalità di progettazione e immissione dei dati nell'IA, può condizionarne gli esiti prodotti. Ecco che questo processo, influenzato intenzionalmente o meno può incidere su aspetti fondamentali del vivere democratico. Ad esempio, se non programmata correttamente, l’IA potrebbe condurre a decisioni riguardo a un’offerta di lavoro, all’offerta di prestiti e anche nei procedimenti penali, influenzate dall’etnia, dal genere, dall’età.
  • Protezione dei dati e diritto alla privacy. L'IA può essere usata, ad esempio, in dispositivi per il riconoscimento facciale o per la profilazione online, oltre ad essere in grado di mettere insieme le informazioni che acquisisce su una persona senza che questa ne sia a conoscenza. Un tema cruciale questo che ci riporta alle azioni poste in essere dal Garante italiano.
  • Lavoro. Uno dei più grandi timori è quello della scomparsa di molti posti di lavoro. Anche se ne verranno creati altri e migliori, è cruciale che ci sia un'adeguata transizione, soprattutto sul fronte della formazione in modo da gestire il passaggio da un'occupazione all'altra con il minor danno possibile.
  • Concorrenza. L’accumulo di informazioni potrebbe anche portare a una distorsione della concorrenza, in quanto le parti con maggiori informazioni potrebbero ottenere un vantaggio e cercare di eliminare i concorrenti.
  • Sicurezza. Numerose le problematiche fino a quella più preoccupante: un uso non regolamentato dell’intelligenza artificiale negli armamenti potrebbe condurre a una perdita di controllo su armi distruttive.
  • Trasparenza. Una forte asimmetria informativa, favorita dall'intelligenza artificiale, potrebbe essere sfruttata a danno degli utenti. Inoltre potrebbe non essere chiaro per l’utente se sta interagendo con una persona o con un sistema di intelligenza artificiale.

Una carrellata di benefici e rischi, e nemmeno tutti quelli possibili, che ci mostrano bene quanto l'intelligenza artificiale non possa essere considerata né una risorsa salvifica né una minaccia assoluta, e va invece trattata nella sua complessità, con gli strumenti opportuni e con accordi internazionali e pubblico-privati, a tutela di cittadini, imprese ed istituzioni democratiche.

AI Act: l'approccio risk based dell'Unione europea

Chiudiamo analizzando lo stato della normativa comunitaria in materia di intelligenza artificiale. Come abbiamo visto la regolamentazione diventa cruciale per prevenire e mitigare le possibili distorsioni e i suoi effetti negativi. La Commissione UE, già nell'aprile 2021, aveva presentato una proposta di Regolamento del Parlamento Europeo e del Consiglio, che stabiliva regole armonizzate sull’intelligenza artificiale, l'Artificial Intelligence Act, con l’obiettivo di assicurare che i sistemi di intelligenza artificiale immessi sul mercato UE:

  • siano sicuri ed etici;
  • rispettino la normativa vigente in materia di diritti fondamentali;
  • rispettino i valori dell’Unione mediante un approccio proporzionato basato sul rischio.

L’approccio risk based della proposta di Regolamento porta a una classificazione dei sistemi di IA in base ai rischi che questi pongono per i diritti fondamentali. In attesa dell'emanazione di questo importante provvedimento comunitario, segnaliamo l'attività di individuazione di "sistemi ad alto rischio", quelli cioè in grado di incidere in modo sensibile sui diritti fondamentali, quali la salute, delle persone fisiche. Il Consiglio europeo nel dicembre 2022 ha apportando alcune modifiche al testo originario, con la definizione di IA che viene limitata ai sistemi sviluppati mediante approcci di apprendimento automatico e approcci basati sulla logica e sulla conoscenza, in modo da favorire la distinzione tra tecnologie di IA e semplici software. Inoltre il Consiglio è intervenuto per disciplinare le "IA per finalità generali", sistemi che possono essere utilizzati per molti scopi diversi, considerando in questo senso anche i casi in cui queste tecnologie sono integrate successivamente in sistemi ad alto rischio.
Inserito poi un livello orizzontale in aggiunta alla classificazione ad alto rischio, al fine di garantire che non siano inclusi i sistemi di IA che non presentano il rischio di causare gravi violazioni dei diritti fondamentali o altri rischi significativi.
In attesa del testo definitivo e delle future evoluzioni, il dibattito resta aperto.