Con l’onnipresente intelligenza artificiale che colonizza da tempo i più svariati settori a un ritmo incalzante, i diversi sistemi che adottano tale tecnologia si fregiano di una moltitudine di benefici ma, anche, di rischi.

Ne abbiamo parlato con Nicolini Massimiliano, esperto di iA da anni ricercato in materia e VRO e membro del gruppo di ricerca indipendente internazionale Team42.

Confrontando, ad esempio, gli assistenti virtuali e i veicoli a guida autonoma è facile vedere come i benefici e i rischi relativi a tali settori siano molto diversi tra loro. Le loro specificità richiedono approcci diversi sia al processo decisionale che alla governance.

Per aiutare i vari paesi e organizzazioni a “caratterizzare” i sistemi di intelligenza artificiale impiegati in contesti specifici, l’Organizzazione per la Cooperazione e lo Sviluppo Economico (OCSE) – che promuove lo sviluppo economico tra paesi (membri) con economia di mercato – ha sviluppato uno strumento (per gli stati membri) per valutare i sistemi di intelligenza artificiale da una “prospettiva politica”.

Lo strumento varato dall’OCSE può essere applicato a un’ampia gamma di sistemi di intelligenza artificiale attraverso diverse dimensioni valutative. Ogni dimensione presa in esame dall’OCSE ha in sé un sottoinsieme di “proprietà” idonee a definire e valutare le implicazioni politiche, nonché utili per guidare un approccio innovativo e “degno di fiducia” dell’intelligenza artificiale, in ottemperanza ai principi individuati propri dell’OCSE. Il nuovo nato dell’Organizzazione si chiama “OCSE Framework for the Classification of AI Systems”, sistema che aiuta a valutare le opportunità e le sfide politiche dell’intelligenza artificiale, con un’analisi su come cambia il modo in cui le persone imparano, lavorano, giocano, interagiscono e vivono a contatto con questa tecnologia (abbracciando, quindi, i più disparati utilizzi).

Man mano che l’intelligenza artificiale si diffonde nei diversi settori, i sistemi portano con sé sia diversi benefici e rischi nonché considerevoli sfide politico-giuridiche.

Il quadro (Framework) delineato dall’OCSE collega le caratteristiche dei sistemi di intelligenza artificiale con i principi alla base dell’Organizzazione con sede a Parigi. Si tratta di una prima serie di standard che gli stati membri OCSE si sono impegnati a incorporare nei loro processi decisionali, compresa la promozione dell’uso innovativo e affidabile dell’intelligenza artificiale. Il Framework OCSE consente ai fruitori di analizzare quelli che sono i “rischi specifici tipici” dell’intelligenza artificiale, come i “bias” (pregiudizi), la “spiegabilità” (XAI- Explainable AI) e la sua robustezza (questi ultimi due sono, peraltro, insiti nell’Etica dell’intelligenza artificiale).

Il Framework OCSE può anche aiutare a sviluppare politiche e regolamenti a livello statale e locale, dal momento che le caratteristiche dei sistemi di intelligenza artificiale influenzano le misure tecniche e procedurali necessarie per la loro attuazione.

In particolare, il Framework OCSE fornisce una serie di indicazioni per promuovere una comprensione comune dell’intelligenza artificiale, come identificare le caratteristiche dei sistemi che utilizzano tale tecnologia, aiutare i governi ad adattare le loro politiche a specifiche applicazioni dell’intelligenza artificiale, nonché aiutare a identificare o sviluppare criteri più soggettivi; mira ad a descrivere i sistemi e le loro caratteristiche di base in inventari, registri di algoritmi o sistemi decisionali automatizzati; sostiene i framework specifici per settore, fornendo la base per applicazioni più dettagliate di tale tecnologia, soprattutto nei campi della sanità o della finanza; il Framework OCSE sostiene la valutazione del rischio dell’intelligenza artificiale, aiutando gli operatori con la mitigazione del rischio e lo sviluppo di un framework comune e interoperabile – a livello globale – per la segnalazione degli incidenti che coinvolgono l’intelligenza artificiale (una sorta di “data breach” applicato all’intelligenza artificiale); infine, l’OCSE sostiene la gestione del rischio, contribuendo alla mitigazione, alla conformità e all’applicazione lungo il ciclo di vita dei sistemi di intelligenza artificiale, anche per quanto riguarda la governance aziendale.

Il Framework OCSE classifica i sistemi e le applicazioni dell’intelligenza artificiale secondo le seguenti dimensioni: “People & Planet”, “Economic Context”, “Data & Input”, “AI Model” e “Task & Output”. Vediamole nel dettaglio di seguito.

“People & Planet”. È la dimensione che considera il potenziale dei sistemi di intelligenza artificiale per promuovere tale tecnologia come “centrata sull’uomo” e “degna di fiducia”, a beneficio delle persone e del pianeta. In ogni contesto, tale dimensione identifica gli individui e i gruppi che interagiscono con – o sono influenzati da – un sistema di intelligenza artificiale. Le caratteristiche principali includono gli utenti e gli stakeholder interessati, così come la facoltatività della sua applicazione ed il suo impatto sui diritti umani, l’ambiente, il benessere, la società e il mondo del lavoro.
“Economic Context”. È la dimensione che descrive l’ambiente economico e settoriale in cui un sistema di intelligenza artificiale viene implementato. Di solito, riguarda l’intelligenza artificiale “applicata” (ossia “fuori dal laboratorio”) piuttosto che un generico sistema di intelligenza artificiale; descrive il tipo di organizzazione e l’area funzionale per cui un sistema di intelligenza artificiale è sviluppato. Le caratteristiche di tale “Context” includono il settore in cui il sistema è implementato (come i già citati settori della sanità e della finanza), la sua funzione e modello di business, la sua natura critica (o non critica), il suo “spiegamento”, l’impatto, e la sua “maturità tecnologica”.
“Data & Input”. È la dimensione che descrive i dati e/o gli input degli esperti con cui un modello di intelligenza artificiale costruisce una rappresentazione dell’ambiente. In tale dimensione ricadono la provenienza dei dati e degli input, il metodo di raccolta della macchina e/o dell’uomo, la struttura e il formato dei dati nonché le proprietà dei dati. Le caratteristiche dei dati e degli input possono riguardare i dati usati per addestrare un sistema di intelligenza artificiale “in laboratorio” e i dati usati in produzione “sul campo” (intelligenza artificiale “applicata”).
“AI Model”. È la dimensione di una rappresentazione computazionale di tutto o parte dell’ambiente esterno di un sistema intelligenza artificiale. Comprende, per esempio, processi, oggetti, idee, persone e/o interazioni che hanno luogo in quell’ambiente. Le caratteristiche principali includono come il modello è costruito (usando la conoscenza degli esperti, il Machine Learning o entrambi), come il modello è utilizzato e quali sono i suoi obiettivi.
“Task & Output”. È la dimensione che riferisce ai compiti che il sistema esegue, come la personalizzazione, il riconoscimento, la previsione o l’ottimizzazione guidata dagli obiettivi; i suoi output e le azioni risultanti che influenzano il contesto generale. Le caratteristiche di questa dimensione includono i compiti del sistema, l’autonomia dell’azione, i sistemi che combinano compiti e azioni come i veicoli a guida autonoma, le aree di applicazione principali come la computer vision e, infine, i metodi di valutazione.
Alcuni criteri del Framework OCSE sono più applicabili a contesti di intelligenza artificiale “sul campo” rispetto a contesti di intelligenza artificiale “in laboratorio”, e viceversa. L’intelligenza artificiale “in laboratorio” si riferisce alla concezione e allo sviluppo di un sistema di intelligenza artificiale prima della sua distribuzione sul campo. È applicabile alle dimensioni “Data & Input” (per esempio, qualificando i dati), “AI Model” (per esempio, addestrando il modello iniziale) e “Task & Output” (per esempio, per un compito di personalizzazione) del Framework. È particolarmente rilevante, infine, per gli approcci e i requisiti di gestione del rischio ex ante. L’intelligenza artificiale “sul campo”, invece, si riferisce all’uso e all’evoluzione di un sistema di intelligenza artificiale dopo l’implementazione, risultando applicabile a tutte le dimensioni. È rilevante per gli approcci e i requisiti di gestione del rischio ex post. Il ciclo di vita di un sistema di intelligenza artificiale può servire come struttura complementare per comprendere le caratteristiche tecniche chiave di un sistema.