C’era una volta l’intelligenza collettiva. Era l’idea che le tecnologie dell’informazione potessero amplificare la generazione e la condivisione di conoscenze nelle comunità umane.

Poi arrivò l’intelligenza artificiale, e con essa un’idea diametralmente opposta: le comunità sono un insieme di consumatori di conoscenze generate nelle viscere degli automi da inattingibili algoritmi. L’intelligenza collettiva nasce dal confronto linguistico tra esseri umani; l’intelligenza artificiale è il pensiero privato e algebrico delle macchine.

 Questi due paradigmi si confrontano oggi in una dialettica molto complessa. Da una parte, grazie all’Ia, aumenta la concentrazione di conoscenze e poteri nelle mani di pochi; dall’altra, tra mille insidie e con esiti incerti, continua l’eccentrica soggettività delle relazioni umane in rete.

 
L’intelligenza artificiale nell’ufficio del personale? Come evitare discriminazioni  
Ricercatori virtuosi lavorano a una sintesi che preservi la ragione umana senza rinunciare alla potenza degli algoritmi, ma il pericolo di collassare nella cognitività disumana degli automi è avvertito da molti.Un grande passo verso il disumano s’è mosso lo scorso anno, quando Gpt-3, la titanica rete neurale costruita in Silicon Valley e poi acquisita da Microsoft, ha mostrato una straordinaria abilità nel generare testi plausibili sulla base di brevi spunti forniti dagli utenti.
 
Nonostante sia apparso subito chiaro che Gpt-3 in realtà non capisce quello che dice, l’idea di usare generatori linguistici di questo tipo sta facendo strada. AI21labs, azienda israeliana, ha recentemente annunciato di poter fare meglio di Gpt-3, anche se con modelli dello stesso tipo. Il motivo per cui si investe tanto nel costruire automi in grado di generare testi verosimili traspare quando si apre un account su loro sistema: «Sei giornalista?» viene chiesto al cliente.

Lo use case di riferimento, dunque, è molto chiaro. In effetti, cresce il numero di aziende di Ia che propone agli editori di sostituire il lavoro umano nelle redazioni con sistemi automatici, o integrarlo in modo sostanziale. Il robo-giornalista del Washington Post lo scorso anno ha scritto 850 articoli, guadagnandosi largamente lo stipendio. Si tratta per lo più di articoli sportivi molto stereotipati, ma l’idea che la narrazione dei fatti del mondo possa essere con disinvoltura delegata alle macchine è nell’aria.

Pochi sembrano preoccuparsi di quello che viene perduto nel momento in cui scompare il nome di chi ha scritto l’articolo, e con esso la possibilità di mandargli, ad esempio, una smentita.

Il software è uno dei frutti più maturi dell’intelligenza collettiva. Non c’è sviluppatore che oggi non usi moduli scritti da altri, o non faccia ricorso a piattaforme collaborative come Stack Overflow per venire a capo dei mille rebus che incontra nel suo lavoro.

Qualsiasi software che usiamo ha dentro il sapere dell’intera comunità informatica. Ma gli stessi creatori di Gpt-3 hanno applicato le tecniche già sperimentate sul linguaggio anche per estrarre conoscenze dai repository di software aperto, per poi renderle generative.
 
L’idea di OpenAI Codex è questa: chi programma propone all’Ia una frase del tipo di quelle usate per documentare le funzioni, e l’Ia codifica automaticamente la funzione evocata. Benché si tratti comunque di usare conoscenze umane, è evidente come l’Ia sospinga chi sviluppa verso un ruolo passivo, e come dissolva quella trama di conversazioni che si produce sulle piattaforme collaborative tra chi propone una soluzione e chi la adotta.

La forza generativa degli algoritmi può comprimere il lavoro cognitivo, oppure può ampliare i suoi spazi. Questa tensione può risolversi a favore dell’umanità a condizione che venga salvaguardata la creatività dialogante delle persone.

Già sappiamo (lo chiede l’Europa) che l’Ia dovrà essere trasparente e spiegabile. A questo va aggiunto un tassello: quello della plasmabilità sociale delle conoscenze che usiamo attraverso gli automi.