Lo sviluppo dei processi decisionali automatizzati presenta delle sfide per la tutela dei consumatori. L’intelligenza artificiale viene utilizzata sempre di più nella progettazione di algoritmi decisionali. Le decisioni prese dagli algoritmi possono avere un impatto significativo nella vita dei cittadini: dalla concessione di credito, all’ottenimento di un lavoro o di cure mediche fino ad influire sull'esito di sentenze giudiziarie.
In alcuni casi i processi decisionali automatizzati rischiano di perpetuare il divario sociale. Alcuni algoritmi, ad esempio, si sono dimostrati discriminatori nei confronti delle donne: si tratta di sistemi di intelligenza artificiale utilizzati negli uffici risorse umane di alcune aziende che a causa di distorsioni storiche nei dati che utilizzano per elaborare una decisione - privilegiano le assunzioni (o le promozioni) maschili rispetto a quelle femminili. Gli algoritmi di apprendimento sono in grado di elaborare serie di dati con una precisione e una velocità superiori alle capacità umane, ecco perché le applicazioni di intelligenza artificiale (IA) sono diventate sempre più comuni in tutti i settori: dalla finanza alla salute, dall’istruzione al sistema giuridico, e oltre. Essa può essere pericolosa quindi affidarsi all’intelligenza artificiale comporta dei rischi, specialmente quando questa ha la facoltà di prendere decisioni senza la supervisione umana. L’apprendimento automatico (noto in inglese come machine learning) si basa sul riconoscimento di modelli (tecnicamente chiamati pattern) all’interno di set di dati. I dati forniti dagli uomini alle macchine possono però riflettere pregiudizi sociali, e in quel caso l’intelligenza artificiale incorporerà gli stessi pregiudizi nel proprio processo decisionale.
Lo sviluppo dell’intelligenza artificiale e dei processi decisionali automatizzati presenta delle sfide anche per la fiducia e il benessere dei consumatori: quando interagiscono con questi sistemi, i consumatori dovrebbero essere adeguatamente informati sul loro funzionamento, per poter prendere decisioni consapevoli sul loro utilizzo.
La risoluzione del Parlamento Europeo adottata il 23 gennaio dalla Commissione per il mercato interno e la protezione dei consumatori, chiede alla Commissione di valutare la necessità di attuare misure supplementari per garantire una tutela solida dei diritti dei consumatori nell’ambito dell’intelligenza artificiale e dei sistemi decisionali automatizzati.
https://www.europarl.europa.eu/meetdocs/2014_2019/plmrep/COMMITTEES/IMCO/DV/2020/01-22/RE_1194746_EN.pdf
La Commissione dovrà chiarire come prevede di garantire la protezione dei consumatori da pratiche commerciali sleali e/o discriminatorie, o da rischi derivanti da servizi commerciali di intelligenza artificiale; di garantire maggiore trasparenza in questi processi; e di assicurare che soltanto dati non discriminatori e di alta qualità vengano utilizzati nei sistemi decisionali automatizzati.
#carlomarinoeuropeannewsagency