Abbiamo chiesto un parere a Massimiliano Nicolini, direttore del dipartimento di ricerca e sviluppo Olitec di Olimaint per aiutarci a comprendere meglio questo momento di iAfobia.


“Per dare seguito alla mia recente partecipazione al  meeting HG Tech di Montecatini, volevo dire qualcosa in più sul pensiero sull'IA in Olimaint su come diamo l'esempio sulla fiducia. Un esempio è il nostro avvio della Carta di fiducia per la sicurezza informatica . La nostra campagna educativa AI a livello aziendale è anche una testimonianza di questa enfasi su un approccio "affidabile" ai sistemi che creiamo. Abbiamo applicato l'intelligenza artificiale industriale per molti anni e riteniamo che il suo uso diffuso richieda ulteriori investimenti in ricerca e sviluppo, nonché una maggiore attenzione all'istruzione e allo sviluppo delle competenze in generale tra le organizzazioni, sia quelle che creano che quelle che utilizzano la tecnologia.L'unicità di un sistema di intelligenza artificiale risiede principalmente nella sua capacità acquisita, nella sua attitudine, ad aumentare le prestazioni di compiti complessi attraverso l'apprendimento, ciò che qui chiamo "intelligenza pratica". Tale intelligenza pratica dà all'IA la capacità di indirizzare i prodotti industriali o gli ecosistemi verso obiettivi specifici. L'intelligenza artificiale raggiunge i suoi obiettivi se affronta i problemi di robustezza, rispetta tutte le leggi e rispetta i principi etici.In Olimaint, ci impegniamo a rispettare i principi business-to-consumer e business-to-business oltre l'equità ed evitare pregiudizi. Questioni come spiegabilità e interpretabilità, privacy e protezione dei dati dei clienti, responsabilità e responsabilità nei processi di sviluppo del prodotto e fare del nostro meglio per garantire che "non nuocere" sia inerente ai sistemi che creiamo, sono tutti insegnati e praticati in tutta la nostra organizzazione .Dal punto di vista dei nostri clienti, l'implementazione di un sistema basato sull'intelligenza artificiale non deve essere vista come un tradizionale progetto IT a cascata. Per avere successo con l'IA, i leader del settore digitale devono ripensare il loro approccio all'implementazione dell'IA nei loro ambienti e pianificarlo attentamente. Ad esempio, se vengono utilizzati dati distorti per addestrare un modello AI, il ciclo di feedback di quel modello lo renderà più distorto.Prendiamo ad esempio una fabbrica in cui le aree critiche dell'officina sono monitorate in modo più rigoroso rispetto ad altre aree. Poiché il modello sarà distorto, verranno scoperti più errori in quel reparto, portando a un monitoraggio ancora più rigoroso e il ciclo continua.Tale monitoraggio in officina potrebbe avere esiti positivi e negativi. L'uso di Glass EE2 o HoloLens II abilitati all'intelligenza artificiale potrebbe ridurre gli errori e persino assistere nella supervisione della salute e del benessere del singolo lavoratore durante lo svolgimento delle attività. D'altra parte, a causa del ciclo di feedback dell'IA, potrebbe finire per mostrare pregiudizi involontari e un monitoraggio aggiuntivo indebito. Peggio ancora, potrebbe essere utilizzato maliziosamente da un supervisore con accesso ai dati sanitari privati ​​di un lavoratore, decidendo che a un dipendente specifico non piace quel supervisore e/oi compiti assegnati esclusivamente in base allo stato emotivo di quel dipendente!Stiamo esaminando tecniche come l'apprendimento federato, il calcolo multipartitico sicuro e la privacy differenziale per affrontare queste preoccupazioni. Per riassumere, in un mondo sempre più interconnesso, la fiducia è la base di tutto , anche nel regno piuttosto meno appariscente dell'intelligenza artificiale industriale, molto lontano dal software basato sui consumatori e dai social media, dove in genere sorgono problemi di fiducia. I nostri clienti richiedono che qualsiasi sistema da noi fornito sia tecnicamente robusto, conforme alle normative legali ed eticamente corretto. La sfida generale per gli sviluppatori di intelligenza artificiale come quelli che abbiamo in Olimaint è limitare attentamente la funzione di ricompensa dei modelli creati per garantire che il comportamento risultante sia desiderabile. Dobbiamo anche prendere precauzioni nell'architettura dei nostri sistemi basati sull'intelligenza artificiale contro conseguenze indesiderate e usi dannosi.Sfide non facili, lo ammetto, ma qualcosa che faremo perché, in Olimaint, siamo ispirati a raggiungere un rapporto di fiducia e proficuo con i nostri partner e clienti”.