Principi etici definiti dall'Unione Europea sulla Trustworthy Artificial Intelligence e sulla nostra convivenza con essa. La tecnologia deve essere affidabile!

L’Artificial Intelligence è una scienza, che studia come strutturare programmi e macchine intelligenti in grado di risolvere in modo creativo problematiche di vario genere. La diffusione sempre maggiore di queste tecnologie ci sta catapultando in una rivoluzione tecnologica in grado di potenziare la catena di produzione e porta con sé molte sfide sul piano etico e legale.

L’unico modo per comprenderne il potenziale è stabilire quei principi che ne garantiscono l’integrazione nell'ottica di un progresso tecnologico a beneficio del mondo del lavoro e dei professionisti.

L’approccio dell’Unione Europea

Ci sono molte preoccupazioni in merito ai rischi derivanti dall’abuso delle funzionalità dell’Artificial Intelligence e l’Unione europea si è pronunciata a tutela del lavoratore. Nell’aprile 2019 il gruppo internazionale, High-Level Expert Group on Artificial Intelligence (AI HLEG), istituito dalla Commissione europea e composta da 52 esperti di alto livello, ha reso disponibile il codice Ethics Guidelines for Trustworthy Artificial Intelligence (AI), per affrontare temi di interesse per gli operatori impegnati nella progettazione e gestione dell’Intelligenza Artificiale.

L’obiettivo è quello di promuovere una Trustworthy Artificial Intelligence, traducibile con “Intelligenza Artificiale Affidabile”, per orientare il mercato a implementazioni di tecnologie rispettose delle leggi applicabili, etiche e “robuste”.

Il documento cerca di stabilire, quindi, i principi e i requisiti da adottare e incorporare nel processo creativo o applicativo di una Trustworthy Artificial Intelligence. I quattro punti emersi dal codice sono rispetto dell’autonomia umana, prevenzione del danno, equità ed esplicabilità dei sistemi, del loro funzionamento e dei loro effetti.

I sette requisiti, che ne derivano, per definire un’Intelligenza Artificiale Trustworthy sono:

  • Supervisione dell’autonomia: maggiore sarà l’autonomia di un’intelligenza artificiale, maggiore sarà il controllo umano su di essa;
  • Robustezza e sicurezza: gli algoritmi devono contrastare gli errori e le inconsistenze durante l’intero ciclo di vita dei sistemi di Intelligenza Artificiale;
  • Privacy e Data Governance: la protezione dei dati e la privacy devono essere assicurate per tutta la vita dell’AI e conformi al GDPR.
  • Trasparenza: deve essere garantita la tracciabilità dei sistemi;
  • Design democratico: tutti possono accedere ai dati, utilizzare prodotti e servizi indipendentemente dall’età, eventuale disabilità o stato sociale;
  • Benessere sociale e ambientale: i sistemi di Intelligenza Artificiale dovrebbero essere utilizzati per sostenere cambiamenti positivi ed incentivare la sostenibilità ambientale;
  • Responsabilità: in caso di errori è possibile risalire ai responsabili.

Risulta fondamentale sviluppare una Trustworthy Artificial Intelligence, perché gli strumenti Hi-Tech possono portare vantaggi svariati o danni ingenti. Tutto dipende da come l’Intelligenza Artificiale viene programmata, diffusa e utilizzata.