Il nuovo Regolamento Europeo per un’ Intelligenza Artificiale affidabile: luci e ombre

10 Maggio 2021

di Lucia Confalonieri

Nel commentare l’iniziativa che ha portato il 21 Aprile 2021 la Commissione Europea a presentare il primo regolamento europeo per l’Intelligenza Artificiale, Margrethe Vestager (commissaria europea per il digitale) ha parlato esplicitamente di un uso etico della tecnologia, che metta al centro l’essere umano e i suoi diritti fondamentali, soprattutto nel campo della salute, della lotta al cambiamento climatico e della qualità della vita delle persone. 

Il regolamento, valido per tutti gli Stati membri, di fatto costituisce il primo quadro giuridico per l’IA nel mondo.

Impedire, e nel caso sanzionare pesantemente tutte le applicazioni che ledono la sicurezza e i diritti fondamentali di persone e imprese, e contemporaneamente favorire il potenziale positivo dell’Intelligenza Artificiale, attraverso investimenti e politiche innovative per l’economia e il benessere collettivo: appare quindi evidente, nella scelta dei criteri seguiti, da un lato la necessità di prevenire possibili abusi, e dall’altro, la spinta all’innovazione, attraverso opportuni strumenti giuridici.

Appare altrettanto evidente la continuità con quanto fatto per la normativa sulla protezione dei dati (GDPR) di cui quella della IA  riflette in modo evidente l’approccio. 

Se l’obiettivo è far diventare la UE il polo mondiale per una IA affidabile, l’iter è tuttavia ancora lungo, dato che il regolamento dovrà ottenere il via libera dei governi e poi del Parlamento europeo per non parlare del confronto con soggetti terzi, quali le Big-tech americane che operano già prepotentemente nel campo.

Applicazioni ammesse e vietate

Le nuove norme, che saranno uniformi su tutto il territorio europeo, vietano alcune applicazioni e pongono forti caveat su altre, categorizzandole su livelli crescenti di rischio:

  • Rischio inaccettabile: sono vietati tutti quei sistemi che: a) manipolano opinioni e forzano decisioni (ad esempio gli assistenti vocali che spingono le persone, soprattutto giovani o adolescenti, a compiere azioni, spesso pericolose); b) strumentalizzano la vulnerabilità delle persone c) forniscono, attraverso elaborazioni statistiche, una valutazione complessiva del comportamento delle persone, tipicamente rispetto a problematiche di solvibilità e affidabilità creditizia, ma anche rispetto all’adesione a modelli di tipo politico-sociale predefiniti. Rientra in questa categoria il sistema del credito sociale (ampiamente utilizzato in Cina) d) effettuano sorveglianza di massa, attraverso tecniche di riconoscimento facciale. Sono  vietati i sistemi di identificazione biometrica, anche se utilizzati in spazi pubblici e a supporto delle forze dell’ordine, salvo eccezioni predefinite e regolamentate, ad esempio nella ricerca di minori scomparsi, nella prevenzione di azioni terroristiche imminenti, per individuare, identificare l’autore o il sospetto di un reato grave. Per chi opera nel campo della tutela della privacy e che da tempo chiede un divieto totale dell’impiego di tecnologie per il riconoscimento facciale nei luoghi pubblici, tuttavia questa concessione è rischiosa in quanto passibile di abusi ed eccessi.
  • Alto rischio: rientrano in questa categoria le applicazioni che a) operano nelle infrastrutture critiche; b) determinano l’accesso a istituzioni educative o di formazione in base alla valutazione degli studenti; c) utilizzano algoritmi di IA nella chirurgia assistita da robot; d) supportano le attività di assunzione del personale nelle aziende (screening e filtraggio dei curricula); e) valutano l’affidabilità finanziaria delle persone; f) valutano l’affidabilità delle informazioni fornite da persone fisiche per prevenire, investigare o prevenire reati; g) esaminano e gestiscono domande di asilo,visti e permessi di soggiorno; h) supportano i giudici in fase di emissione di sentenza. Per le applicazioni ad alto rischio è richiesto il criterio “accountability” della normativa GDPR, ovvero sono previste attività che garantiscano un alto livello di robustezza, sicurezza e accuratezza, quali: analisi del rischio, qualità dei dataset, tracciabilità e supervisione umana.
  • Rischio limitato: riguarda applicazioni della tipologia “Chatbot”, dove sarà obbligatorio esplicitare all’utente che sta interagendo con un sistema non umano.
  • Rischio minimo: ovvero sistemi di IA a “minimo impatto” quali ad esempio sistemi antispam e videogame.

I punti deboli 

Sicuramente quello europeo è uno sforzo importante nel mettere il valore dell’etica al centro degli sviluppi tecnologici della IA e non solo. Sforzo che appare in netta controtendenza rispetto all’atteggiamento di controllo sociale pervasivo esercitato dalla Cina, dove lo stato è proprietario di tutti dati che alimentano gli algoritmi di IA o al laissez-faire degli USA, dove, grazie alle politiche liberiste in atto dagli anni ‘80 in poi, l’impatto delle Big-Tech è andato  ben oltre l’ambito tecnologico per toccare pesantemente anche quello sociale e geopolitico.

Il tema dell’etica nel campo della IA è un trend topic molto diffuso. La creazione di gruppi di lavoro etici con il compito di supervisionare gli sviluppi applicativi nel campo della IA, con particolare attenzione alla presenza di pregiudizi (i cosiddetti bias cognitivi) insiti nei dati, al fine di evitare pesanti discriminazioni – razziali, di genere, di classe sociale, ecc. – costituiscono, tuttavia, spesso un’operazione di facciata, realizzando quello che possiamo chiamare “ethical washing”.

Al proposito vale la pena ricordare il recente caso dell’allontanamento da parte di Google di Timnit Gebru  un’ importante scienziata nel campo della IA, seguito da quello di Margaret Mitchell,  co-leader con Gebru del team etico sulla IA, entrambe licenziate perché stavano svolgendo in modo “troppo” efficace il loro lavoro di individuazione dei  pregiudizi insiti nei giganteschi dati set alla base degli sviluppi del motore di ricerca , ostacolando di fatto un progetto cruciale per l’azienda.  

Per l’Unione Europea il confronto su questi temi con le Big-tech americane, costituisce quindi la sfida più grande, con livelli di efficacia che verranno acuiti o smorzati  in base all’orientamento sul tema e sul livello di cooperazione dell’ amministrazione Biden.

Altra criticità è rappresentata da quello che di fatto è una lacuna vistosa, ovvero l’assenza nel regolamento di politiche normative precise per l’utilizzo della IA in campo militare. L’uso di sistemi d’arma autonomi e letali detti LAWS (Lethal Autonomous Weapon System) solleva questioni etiche e legali fondamentali che a partire dalla dalla risoluzione del Parlamento europeo del 12 Settembre 2018 non sono ancora state recepite in una norma precisa. I deputati hanno semplicemente ribadito Ia richiesta di una strategia UE che proibisca i LAWS, in quanto la decisione di selezionare un bersaglio e di compiere un’azione letale utilizzando un sistema d’arma autonomo deve sempre essere presa da un essere umano con adeguato livello di controllo e giudizio, in linea con i principi di proporzionalità e necessità.

Un’ulteriore lacuna è data dall’assenza di indicazioni precise per la gestione di tecnologie già utilizzate, ad esempio nella gestione delle risorse umane o nel campo giuridico e finanziario.

Al fine di affrontare in corso d’opera tutte queste criticità, unitamente a quelle poste dalla rapida evoluzione della stessa tecnologia, il regolamento prevede  l’istituzione di un Comitato europeo specifico per la IA, che include un rappresentante di ogni Stato membro, l’autorità di protezione dei dati dell’Unione europea (Edps) e un rappresentante della Commissione. Compito principale di questo comitato è il monitorare l’applicazione della normativa proposta approfondendo via via  le linee guida e i relativi livelli di rischio per ogni specifico settore di applicazione.