ChatGPT  è politicizzata o meglio è politicamente orientata, questi i risultati dello studio neozelandese pubblicato dall'autorevole Social Sciences un mese fa. (link)

Infatti, il ricercatore David Rozado ha sottoposto a ChatGPT i principali test d'opinione, come Political Spectrum Quiz, Political Compass Test, IDRlabs Ideologies / Coordinates Tests eccetera.

Si tratta dei test maggiormente usati da chi naviga in rete ed ormai sono di provata affidabilità. E tutti - univocamente - collocano la 'personalità' di ChatGPT come  fortemente orientata a sinistra.
I grafici sono scaricabili a questo link .

Con l'orientamento politico delle intelligenze sorge il problema delle 'mezze verità' se non proprio delle fake news.

Ad esempio, la AI potrebbe raccontarci che la chiusura di una fabbrica è "colpa" di un imprenditore anziché far riferimento alla congiuntura di mercato.
Oppure che le diseguaglianze sono causate dall'arricchimento e non anche dall'arretramento.

O che l'apprendimento possa venire dal sentito dire (a lezione) e non dal fare proprio (studiando).
Oppure che la priorità siano i diritti di qualche posto lontano o di qualche minoranza e non i bisogni che ci sono in casa e/o toccano la maggior parte delle persone.
E tanto altro ancora.

Insomma, ci ritroviamo con le solite mezze verità tutte umane che già ben conosciamo.
Mezze verità con le quali  - a quanto pare - abbiamo già condizionato proprio la AI (ChatGPT) che qualcuno vorrebbe usare nelle scuole e nelle università.