Dall’annuncio del cambio di nome di Facebook in Meta e del progetto di creazione del Metaverso, su diversi fronti si è parlato di adozione di regole ad hoc per governare una novità di tale portata. Tutto questo, però, non può prescindere dalla presa d’atto dello stato dell’arte. A che punto siamo con la regolamentazione dell’AI nel mondo?
Un approfondimento a cura di Massimiliano Nicolini esperto di iA, membro del Team42 e sviluppatore VRO.
Pochi giorni fa il “neonato” gruppo Meta ha annunciato la costruzione del più potente supercomputer per l’intelligenza artificiale al mondo, a distanza di pochi mesi dal cambio di nome e dalla rivelazione del progetto di creazione del Metaverso, idea fantasiosa fino a poco tempo fa. Ma non è stata l’unica novità recente in materia di AI.
Si pensi infatti al pubblico ministero robot creato in Cina, il quale sarebbe capace di sfruttare gli algoritmi per formulare vere e proprie accuse partendo da un verbale di polizia, oppure al primo intervento chirurgico interamente compiuto senza alcun aiuto umano da un androide – il cui nome è Smart Tissue Autonomous Robot (STAR) – messo a punto dalla John Hopkins University.
Ebbene, questo apre il dibattito su due aspetti distinti ma necessariamente connessi. Il primo riguarda la velocità con la quale l’intelligenza artificiale sta prendendo piede in modo sempre più importante, e il secondo concerne invece l’adeguatezza delle regole ad oggi esistenti – o in programma per l’immediato futuro – e finalizzate a regolamentare un settore estremamente ampio e con il quale si dovrà necessariamente imparare a convivere.
Il progetto di Regolamento europeo Il 21 aprile 2021, la Commissione europea ha pubblicato, nell’ambito della Strategia europea per l’IA, la proposta di Regolamento sull’approccio europeo all’intelligenza artificiale, la quale rappresenta il primo vero quadro giuridico europeo in materia. Questo significa quindi che le istituzioni comunitarie hanno deciso di seguire la stessa strada intrapresa con il Regolamento UE 2016/679 in materia di protezione dei dati personali, adottando una normativa globale che sia direttamente applicabile in tutti gli Stati membri.
Quanto ai principi del progetto comunitario, la proposta si fonda su due punti cardine: l’utilizzo dell’intelligenza artificiale nel rispetto dei diritti fondamentali e dei valori europei, e assicurarsi che la regolamentazione non sia un inutile ostacolo allo sviluppo tecnologico, bensì un mezzo per promuoverlo in modo etico e sostenibile.
Collocando i due obiettivi appena citati nel contesto della grande corsa alla leadership nel settore, significa che l’UE mira concretamente ad accrescere la fiducia nell’intelligenza artificiale dei cittadini e delle aziende mettendo in prima linea i suoi valori fondanti, assicurandosi al contempo una posizione preminente al fianco – o possibilmente davanti – dei competitor mondiali.
A livello contenutistico, l’elemento fondamentale del Regolamento è la classificazione dei prodotti che utilizzano completamente o parzialmente software AI in base al rischio di impatto negativo sui diritti fondamentali, e in modo particolare la dignità umana, la libertà, l’uguaglianza, la democrazia, il diritto alla non discriminazione, la protezione dei dati, la salute e la sicurezza. Più il prodotto è suscettibile di mettere in pericolo questi diritti, più severe sono le misure adottate per eliminare o mitigare l’impatto negativo, fino al provvedimento massimo consistente nel divieto totale per incompatibilità assoluta con questi diritti. A rientrare nella categoria dei prodotti proibiti sono tutti quelli suscettibili di causare danni fisici o psicologici mediante la manipolazione dell’uomo al fine di aggirarne il libero arbitrio, e quelli utilizzati per il c.d. social scoring ossia, in altri termini, quelli capaci di dare un “punteggio” al soggetto in determinati settori. Questi sono quelli che maggiormente hanno attirato le critiche negli ultimi anni, in quanto utilizzati soprattutto nel settore creditizio al fine di valutare il “merito” del soggetto ad accedere ai finanziamenti, producendo spesso risultati discriminatori.
Per quanto riguarda infine il tema più caldo quando si parla di intelligenza artificiale, ossia il riconoscimento biometrico, la proposta di regolamento europeo vieta l’utilizzo di questi sistemi in tempo reale e negli spazi pubblici da parte delle forze dell’ordine, salvo quando strettamente necessario per la ricerca di vittime di un reato o di bambini scomparsi, per prevenire una minaccia specifica, per individuare, localizzare, identificare o perseguire un criminale o un sospettato punibile con una pena di almeno 3 anni per alcuni reati.
Tuttavia, il regolamento lascia ai singoli Stati la facoltà di decidere se autorizzare o meno queste forme di riconoscimento facciale, in che modo e per quali crimini; un aspetto che ha suscitato qualche critica per il grado di democrazia e sensibilità verso i diritti umani presenti in alcuni Paesi dell’UE.
Gli Stati Uniti non sono solo uno dei principali competitor dell’Europa nella corsa all’AI, ma anche uno dei sistemi più diversi dal punto di vista della regolamentazione. In altri termini, se l’Unione europea ha optato per un approccio fondato soprattutto sulla tutela dei diritti fondamentali introducendo obblighi piuttosto stringenti, gli Stati Uniti hanno preferito propendere verso un sistema maggiormente improntato sull’attrazione massiccia degli investimenti e una maggiore flessibilità per far sì che le regole possano adattarsi facilmente agli sviluppi futuri. Per questo l’approccio americano si basa soprattutto su principi e standard non vincolanti, in netta contrapposizione alle regole europee.
Le linee guida dell’Office Management of Budget (OMB) pubblicate sulla base dell’ordine esecutivo Mantaining American Leadership in Artificial Intelligence firmato da Trump, si occupano infatti di individuare i principi che le agenzie federali americane devono prendere in considerazione nel regolare l’uso delle tecnologie di AI nel settore privato. Tra questi, compaiono soprattutto l’affidabilità dei sistemi, la partecipazione collettiva al processo legislativo, la qualità dei dati utilizzati, e la flessibilità delle misure affinché siano in grado di adattarsi al costante sviluppo della tecnologia. Inoltre, le agenzie federali sono incaricate di dare preferenza allo sviluppo di linee guida, best practice, raccomandazioni settoriali e standard non vincolanti a cui le imprese possono aderire su base volontaria.
Va però precisato che alcuni Stati americani hanno cercato di fare qualche passo verso un approccio più “europeo” con provvedimenti maggiormente garantisti verso le persone, come il Bolstering Online Transparency Act californiano che prevede l’obbligo di informare i consumatori dell’eventuale utilizzo di bots, o l’Artificial Intelligence Video Interview Act in Illinois che limita l’utilizzo di tecnologie di AI nei processi di assunzione. Al di là di normative statali di questo tipo, l’approccio americano è ancora piuttosto chiaro, e si basa sull’assunto che il progresso richieda dei compromessi. Di conseguenza, per permettere agli Stati Uniti di continuare e accelerare la corsa verso la leadership nel settore dell’intelligenza artificiale, l’intento è proseguire sulla strada delle regole flessibili per garantire l’assorbimento più rapido ed efficiente possibile delle novità ed attirare quindi il più alto numero di investimenti. Ne è un recente esempio il Chips for America Act, finalizzato ad aumentare la produzione di microchip e accelerare lo sviluppo delle tecnologie di intelligenza artificiale nel Paese.
Di recente la Cina – dai più considerata l’attuale vera leader nell’ambito dell’AI – ha adottato una prima serie di linee guida per regolamentare l’intelligenza artificiale in modo etico. Prendono il nome di Specifiche etiche per l’intelligenza artificiale di nuova generazione e sono state redatte da un apposito comitato per la governance dell’AI, costituito all’interno del Ministry of Science and Technology della Repubblica popolare cinese.
Con questo provvedimento la Cina ha essenzialmente dichiarato di voler adottare un approccio maggiormente etico e improntato sulla tutela dei cittadini, adottando una linea di controllo sui livelli etici delle applicazioni, garantendo la protezione più ampia dei dati personali e riducendo l’influenza dei giganti del web.
Per quanto riguarda i diritti dell’utente, la strategia cinese sembra voler offrire un controllo umano maggiore nei rapporti con l’AI, dare più scelta rispetto al trattamento dei propri dati personali, e riconoscere al soggetto il diritto di rinunciare al processo decisionale guidato dall’intelligenza artificiale.
Inoltre, la Cina vorrebbe incentivare la sicurezza informatica e la prevenzione dei rischi, chiedendo di individuare e affrontare i punti deboli da un punto di vista sia tecnico che della sicurezza in tutti i sistemi di intelligenza artificiale. Infine, le linee guida prevedono anche un divieto assoluto all’utilizzo illegale dei prodotti, nonché per attività pericolose per la sicurezza nazionale, la sicurezza pubblica o la sicurezza della produzione.
Vedendo i punti salienti del recente provvedimento cinese, questo sembrerebbe accogliere alcuni dei principi cardine della proposta di regolamento europeo e prediligere un approccio analogo a quello adottato proprio dall’UE. Peraltro, si tratta di un intervento quasi concomitante all’approvazione di altri provvedimenti: la Data security law, la Cybersecurity law e soprattutto la Personal information protection law, ossia la legge cinese sulla privacy. Anche quest’ultima riprende molteplici aspetti del GDPR europeo, come la necessità di una base giuridica per il trattamento, la regolamentazione dei trasferimenti dei dati verso altri Paesi e la previsione di una molteplicità di diritti degli interessati.
Quando si parla di intelligenza artificiale, è naturale che il primo pensiero vada ai tre “giganti” che principalmente si contendono la leadership nel settore (Europa, Usa e Cina). Tuttavia, meritano attenzione anche altri contesti che stanno cercando di avvicinarsi attraverso normative capaci di assorbire efficacemente gli sviluppi futuri. Tra questi c’è in primo luogo il Regno Unito, il quale non potrà di certo beneficiare della proposta di regolamento europea ma dovrà proseguire sulle proprie gambe. Proprio in UK, il governo ha annunciato l’intenzione di avviare un progetto in collaborazione con l’Alan Turing Institute per migliorare la governance dell’AI, integrare la regolamentazione a favore dell’innovazione e dello sfruttamento dell’enorme potenziale economico di queste tecnologie. La Norvegia invece si è orientata verso la creazione di una sandbox normativa finalizzata allo sviluppo di un’intelligenza artificiale etica e rispettosa dei diritti.
Altri Paesi sono invece già in fase avanzata da tempo, come il Canada e l’Australia che, seppur sulla base di principi diversi, hanno già provveduto ad adottare proprie regolamentazioni dell’intelligenza artificiale. Il Digital Charter Implementation Act canadese è senz’altro molto improntato alla sicurezza, basti pensare ai rigidi doveri di informazione o alla necessità di effettuare valutazioni d’impatto dell’algoritmo prima che il sistema decisionale automatizzato possa essere prodotto e utilizzato. L’Australia, invece, ha adottato un approccio di c.d. soft law, privilegiando cioè linee guida, prassi, e best practice al posto di una regolamentazione governativa più solida.
Si può quindi affermare, in conclusione, che la disciplina dell’intelligenza artificiale sembra avviata su due differenti strade: quella della normativa puntuale e precisa, fatta di condizioni, divieti e regole chiare da un lato, e l’approccio basato su linee guida e norme flessibili dall’altro. Due diversi modi di affrontare il progresso che rispondono essenzialmente a due esigenze non necessariamente inconciliabili. Infatti, chi adotta un approccio di regolamentazione analogo a quello europeo, mira soprattutto ad accrescere la fiducia dei cittadini e far sì che le nuove tecnologie possano radicarsi nella cultura di quella popolazione come strumento per migliorare la quotidianità e non come pericolo; sull’altro fronte, invece, regole più flessibili ed elastiche oltre a una maggiore libertà concessa ai privati a scapito del controllo statale, caratterizzano quei contesti che mirano soprattutto ad aumentare la forza attrattiva per gli investimenti.
La vera sfida, però, sembra proprio quella di conciliare entrambi gli approcci mediante regolamentazioni che siano capaci di non far sentire le persone “minacciate” dallo sviluppo tecnologico, ma che al contempo non frenino il progresso. Chi ci riuscirà per primo e se i legislatori dei vari Paesi saranno pronti ad accogliere le novità in arrivo, è ancora presto per dirlo, ma la speranza è che la corsa al titolo di Paese leader dell’intelligenza artificiale non oscuri i diritti di coloro i quali dovranno conviverci in futuro. Gli annunci recenti sul futuro dell’AI nella quotidianità degli individui fanno pensare a un futuro ancora più tecnologico, colmo di opportunità, certo, ma anche di rischi da affrontare nel migliore dei modi.