Intelligenza Artificiale: lo studio che ha dato l'allerta
ChatGPT è politicizzata o meglio è politicamente orientata, questi i risultati dello studio neozelandese pubblicato dall'autorevole Social Sciences un mese fa. (link)
Infatti, il ricercatore David Rozado ha sottoposto a ChatGPT i principali test d'opinione, come Political Spectrum Quiz, Political Compass Test, IDRlabs Ideologies / Coordinates Tests eccetera.
Si tratta dei test maggiormente usati da chi naviga in rete ed ormai sono di provata affidabilità. E tutti - univocamente - collocano la 'personalità' di ChatGPT come fortemente orientata a sinistra.
I grafici sono scaricabili a questo link .
Con l'orientamento politico delle intelligenze sorge il problema delle 'mezze verità' se non proprio delle fake news.
Ad esempio, la AI potrebbe raccontarci che la chiusura di una fabbrica è "colpa" di un imprenditore anziché far riferimento alla congiuntura di mercato.
Oppure che le diseguaglianze sono causate dall'arricchimento e non anche dall'arretramento.
O che l'apprendimento possa venire dal sentito dire (a lezione) e non dal fare proprio (studiando).
Oppure che la priorità siano i diritti di qualche posto lontano o di qualche minoranza e non i bisogni che ci sono in casa e/o toccano la maggior parte delle persone.
E tanto altro ancora.
Insomma, ci ritroviamo con le solite mezze verità tutte umane che già ben conosciamo.
Mezze verità con le quali - a quanto pare - abbiamo già condizionato proprio la AI (ChatGPT) che qualcuno vorrebbe usare nelle scuole e nelle università.