Più che analizzare in modo tecnico l’IA nei vari campi del sapere scientifico in questo articolo si affrontano tematiche multi disciplinare. Si tralasciano aspetti informatici per stimolare invece una riflessione sull’applicazione dell’IA nel contesto socio – economico.

Da una parte si alimenta una riflessione dell’impatto sociale ovvero come l’uomo risulterà influenzato dal progredire dell’IA nelle dinamiche relazionali e di gruppo, dall’altra i cambianti nel settore economico e produttivo.

Nuove professioni, ad esempio, si stanno presentando nel mercato del lavoro mentre figure professionali più standardizzate potrebbero essere al centro di una conversione a favore dell’implementazione tecnologica dell’IA.

Si sono già sviluppati da tempo dei cambiamenti importanti nelle nostre abitudini di vita, in uno scenario globalizzato ove le garanzie di libertà di circolazione, sviluppo della persona, di pensiero (per citarne alcune) si stanno proiettando con forme sempre più smart e sensibili anche al più minuscolo mutamento, al passo con l’evoluzione digitale.

Lo scenario economico è trainante e destinato a dominare nel quadro di un processo globale di sviluppo ove l’uomo si scontra con i suoli limiti interiori.

Non a caso in un articolo e studio molto interessante elaborato da J.P. Morgan, leader nel settore finanziario, si menziona l’attualità di uno scenario economico “resiliente” in un mondo “fragile” e, non a caso, l’avvento dell’IA porterà profonde conseguenze sulla redditività delle aziende e delle imprese.

Il dato formidabile sull’uso dell’IA è la sua utilità in settori come la ricerca scientifica, sanitaria e con ciò il miglioramento della qualità della vita dell’uomo è indubbia.

La comprensione del fenomeno sociale ed etico, con l’avvento dell’intelligenza artificiale, richiede tuttavia degli sforzi cognitivi ed applicativi: l’IA è uno strumento al servizio dell’uomo che necessita di controlli per garantire e mantenere il nucleo fondamentale del nostro vivere sociale, civile e sostenibile, rappresentato dalla persona umana stessa.

Secondo l’accezione oggi in uso l'intelligenza artificiale (IA) è un ramo dell'informatica che si occupa della creazione di sistemi e programmi capaci di eseguire compiti che, quando svolti da esseri umani, richiedono intelligenza. 

Questi compiti possono includere la comprensione del linguaggio naturale, la risoluzione di problemi, l'apprendimento, la pianificazione, la percezione visiva e la presa di decisioni. 

L'IA si basa su vari approcci, tra cui l'apprendimento automatico (machine learning), l'apprendimento profondo (deep learning), la logica fuzzy e le reti neurali, tra gli altri. 

La sua applicazione si estende a diversi settori, come la medicina, la finanza, i trasporti, l'intrattenimento e molti altri.

La rilevanza dell’etica e la sua positiva implementazione nell’applicazione dell’IA è intuibile ed a dir poco essenziale. La necessità da soddisfare e garantire è il “controllo”, alla base delle manifestazioni e proiezioni di forme di potere e ragionamento logico.

La capacità di ragionamento ed elaborazione di soluzioni “artificiali” non può ma deve assimilare l’etica con un catalogo di principi e valori determinanti la protezione della persona umana e di tutti gli individui.

La matrice fondante è, ancora una volta, il valore unitario della persona umana che si pone al centro di una dinamica ove l’IA diviene uno strumento che migliora e semplifica processi e bisogni (umani). L’avvento dell’IA nelle sue varie forme e destinazioni offre e deve offrire opportunità all’uomo, globalmente, senza discriminazioni o con il rischio di destrutturare diritti fondamentali dell’individuo come singolo e nella società e formazioni sociali in cui il medesimo sviluppa la propria personalità. 

Diritti e garanzie fondamentali che sono il risultato e la conquista conseguente a tradizioni giuridiche e sociali comunali di ogni Paese civile e democratico nel mondo.

Senza dimenticare il rispetto delle culture, della storia di intere comunità e popolazioni, della pace tra i valori primari da proteggere e conservare per le generazioni future.

Sui principi etici si può parlare molto ma fra tutti dovrebbe spiccare l’attenzione sull’assenza di discriminazioni intorno al valore dell’uomo e della donna, tutti senza distinzioni o discriminazioni; quindi essere etici rappresenta una condizione fondamentale per utilizzare l’IA. 

I principi etici nell'intelligenza artificiale (IA) sono fondamentali per garantire che lo sviluppo e l'uso dell'IA siano responsabili e rispettino i diritti umani e il benessere sociale. Ecco alcuni dei principali principi etici che vengono spesso discussi nel contesto dell'IA:

Trasparenza: Gli algoritmi e i processi decisionali dell'IA devono essere chiari e comprensibili. Gli utenti dovrebbero essere in grado di comprendere come vengono prese le decisioni e quali dati vengono utilizzati.

Giustizia e non discriminazione: L'IA deve essere progettata per evitare bias e discriminazioni. È importante garantire che i sistemi di IA non perpetuino o amplifichino disuguaglianze esistenti basate su razza, genere, classe sociale, età, ecc.

Responsabilità: Devono essere stabilite delle chiari responsabilità legali ed etiche per le decisioni prese dall'IA. Le organizzazioni dovrebbero essere pronte ad assumersi la responsabilità per gli effetti delle loro tecnologie.

Privacy: La protezione dei dati personali è cruciale. I sistemi di IA devono rispettare la privacy degli utenti, garantendo che i dati siano raccolti, archiviati e utilizzati in modo conforme alle normative sulla protezione dei dati.

Sicurezza: È essenziale garantire che i sistemi di IA operino in modo sicuro e siano protetti da attacchi esterni o manipolazioni che possano causare danni.

Umanità: L'IA deve essere progettata per servire l'umanità, migliorando la qualità della vita delle persone. Deve essere utilizzata per scopi che promuovono il bene comune e il progresso sociale.

Inclusione: I sistemi di IA devono essere accessibili e inclusivi, prendendo in considerazione i diversi bisogni e prospettive di tutti gli utenti.

Sostenibilità: L'impatto ambientale dell'IA dovrebbe essere preso in considerazione. Le tecnologie sviluppate dovrebbero contribuire a obiettivi di sostenibilità e riduzione dell'impronta ecologica.

Collaborazione: È importante che ci sia una collaborazione tra governi, aziende, ricercatori e società civile per sviluppare normative e linee guida etiche nell'uso dell'IA.

Adottare questi principi etici può aiutare a costruire un futuro in cui l'IA contribuisce positivamente alla società e riduce i rischi associati alle nuove tecnologie.

Le potenzialità positive e l’impatto applicativo dell’IA è intuibile: nel campo sanitario, legale, della consulenza d’impresa e nella comunicazione, ma gli scenari sono infiniti o almeno così pare.

Riflettendo sulle possibili dinamiche nel nostro Paese, le trasformazioni epocali sono sempre oggetto di una preliminare diffidenza e scetticismo soprattutto nella massa, mentre gli operatori professionali e le categorie più abituate a vivere in un contesto globalizzato o che lavorano nel mondo degli affari hanno una propensione al cambiamento più veloce. 

L'IA nasce ufficialmente come disciplina negli anni '50, con figure chiave come Alan Turing e John McCarthy. Turing propose il famoso "Test di Turing", mentre McCarthy coniò il termine "intelligenza artificiale" nel 1956.

Durante questo periodo, il focus era sulla creazione di sistemi in grado di eseguire compiti che normalmente richiederebbero intelligenza umana, come la risoluzione di problemi e il gioco degli scacchi.

Anni '70 e '80. L'IA ha iniziato a svilupparsi in modo più applicato, portando alla creazione di "sistemi esperti". Questi sistemi erano progettati per emulare il processo decisionale di esperti umani in settori specifici, compreso il diritto.

Progetti come "MYCIN", un sistema esperto per la diagnosi medica, dimostrarono la potenzialità di simili tecnologie anche nel contesto legale.

Negli anni '90 si ha l’inizio della Digitalizzazione Legale. Con l'avvento di computer più potenti e l'accesso crescente ai dati legali digitalizzati, le prime forme di IA giuridica si svilupparono. Piattaforme per la ricerca legale iniziarono a combinare algoritmi di ricerca con banche dati giuridiche. I software di gestione documentale e le applicazioni per l'analisi dei contratti iniziarono a prendere piede in studi legali.

Veniamo adesso agli anni 2000: Legal Tech e Automazione. La "Legal Tech" emerse come un settore nuovo, con numerose startup che svilupparono strumenti di automazione per la revisione dei contratti, la due diligence e altre funzioni legali.

Tecnologie come il machine learning e il natural language processing (NLP) sono state utilizzate per sviluppare strumenti in grado di analizzare grandi volumi di documenti legali, identificare schemi e persino prevedere esiti di casi.

L'IA nella pratica giuridica moderna (anni 2010 e oltre). I recenti progressi nel deep learning e nelle reti neurali hanno ampliato notevolmente le capacità delle applicazioni di IA nel diritto. Strumenti sofisticati sono ora in grado di compiere analisi predittive su decisioni giuridiche, assistendo avvocati e giudici nella preparazione dei casi.

Con l'espansione dell'IA giuridica, emergono anche questioni etiche e legali. Si pone il problema della responsabilità nell'uso di decisioni algoritmiche, nonché preoccupazioni sulla parzialità dei dati e della privacy.

Gli organismi di regolamentazione e le associazioni professionali stanno lavorando per definire linee guida etiche e normative rispetto all'uso dell'IA nel diritto.

L'intelligenza artificiale giuridica è un campo in rapida evoluzione che offre opportunità significative ma introduce anche sfide complesse. La storia dell'IA nel contesto legale è caratterizzata da un passaggio da sistemi esperti a strumenti avanzati che integrano il machine learning e il NLP. Guardando al futuro, sarà fondamentale bilanciare l'innovazione con considerazioni etiche e legali, per garantire che l'IA serve realmente il sistema giuridico e la società nel suo complesso:

  • principali sviluppi tecnologici;
  • introduzione ai principi etici.

La cultura giuridica si trova nelle condizioni di affrontare e gestire il fenomeno dell’IA nei suoi vari aspetti disciplinari?

La risposta al quesito non è ovviamente semplice ed immediata: il nostro ordinamento giuridico è avanzato e rappresenta una delle realtà più ricche anche mediante un’approccio transnazionale, paragonandolo a quello di altri Paesi comunitari ed extra UE. 

Esempio, l’articolo 2 della Costituzione italiana, “La Repubblica riconosce e garantisce I diritti inviolabili dell’uomo, sia come singolo sia nelle formazioni sociali ove si svolge la sua personalità, e richiede l’adempimento dei doveri inderogabili di solidarietà politica, economica e sociale”.

La struttura garantista e positiva della disposizione resiste giuridicamente e “socialmente” a qualsiasi impatto ed innovazione tesa a modificare la proiezione della persona umana e del suo valore esistenziale.

Ciò in pratica si traduce nell’inviolabilità dell’uomo anche di fronte a possibili discriminazioni o lesioni dei propri diritti realizzate mediante l’applicazione dell’IA. 

Nel libro di Napoleon Hill “La Filosofia del successo” si parla del significato della fede attiva e motivante, quale condizione essenziale dell’essere uomo (di successo) essenziale per comprendere la vita in generale e la natura. 

Pertanto gli esseri umani sentono la necessità di porre il proprio essere in qualcosa di superiore, in una sorta di Intelligenza Infinita. Da qui lo spunto per non distogliere lo sguardo sull’etica, come forza che contiene una potenziale tendenza ad affidarsi a qualcosa che sentiamo come superiore (cioè l’IA) o potenzialmente infinito.  

Ecco che se chiediamo all’IA di elaborare una definizione di etica, sulla base di algoritmi, otteniamo quanto segue:

“L'etica è un ramo della filosofia che si occupa dei principi e dei valori che governano il comportamento umano, distinguendo tra ciò che è considerato giusto e sbagliato, buono e cattivo".

L’etica ha origini lontane che abbracciano le stesse origini dell’uomo. Lo strumento dell’IA quindi è un derivato dell’attività dell’uomo che pur realizzando un sistema logico autonomo e pensante rappresenta una risorsa destinata ad essere impiegata nella vita dell’uomo.

Le potenzialità nei vari campi e settori è certa, tanto da divenire ormai una tendenza in grado di offrire opportunità di business e crescita esponenziale in vari mercati economici.

Tuttavia la crescita e lo sviluppo dell’uomo, per progredire, necessita di meccanismi di controllo e di regolamentazione non solo giuridica (come normazione propriamente intesa), ma sistemi di prevenzione e gestione dei rischi reali e potenziali per un successo armonico ed equilibrato.

Quindi scienza ed etica si stringono amichevolmente in una relazione positiva, ove la tecnologia è lo strumento cioè l’input in grado di produrre e risolvere delle necessità al servizio dell’uomo e per l’uomo, dando vita a processi di automazione che in quanto tali non possono deresponsabilizzarsi.

Appare oggi più che mai importante per le organizzazioni pubbliche e private impegnate a vario titolo sull’Intelligenza Artificiale considerare l’etica come una garanzia (sulla base non solo di principi morali e valori ma anche strumenti normativi di prevenzione dei rischi) in grado di modellare il futuro della nostra società.