Per la prima volta in quasi un decennio, la quota di mercato di Google Search è scesa sotto la soglia psicologica del 90%. Secondo i dati di StatCounter, il colosso di Mountain View ha chiuso l'ultimo trimestre del 2024 con una quota dell'89,34%. Un breve rimbalzo al 90,15% a febbraio 2025 non è bastato a invertire la tendenza: a marzo è nuovamente calata all'89,71% e da allora non si è più ripresa. È un segnale chiaro: qualcosa si sta muovendo in un settore che, fino a pochi anni fa, sembrava dominato da un solo attore.
Il primo a far notare pubblicamente il cambiamento è stato Mario Nawfal, fondatore dell'International Blockchain Consulting Group, con un post su X poi rilanciato anche da Elon Musk. Il messaggio è chiaro: i motori di ricerca tradizionali, costruiti sull'indicizzazione di link e pagine web, stanno iniziando a mostrare la corda di fronte all'efficienza dei modelli di intelligenza artificiale generativa.
Per anni, Google ha dettato legge nella ricerca online. Ma negli ultimi tempi, l'esperienza utente si è progressivamente degradata. L'algoritmo di Google cerca di mostrare i contenuti più pertinenti, certo, ma è sempre più inquinato da SEO aggressivi, siti pieni di parole chiave inutili, contenuti duplicati e, soprattutto, risultati sponsorizzati mascherati da informazione.
L'utente medio si ritrova a dover scegliere tra risultati artefatti, link farm e clickbait per trovare risposte semplici. E qui l'IA entra in gioco: perché perdere tempo tra mille link quando puoi semplicemente fare una domanda e ottenere subito la risposta?
Nonostante la comodità, l'IA ha i suoi limiti. I sistemi come Bard, ChatGPT o Grok possono essere rapidi, ma non sempre affidabili. Le cosiddette "allucinazioni" – risposte inventate o errate – sono ancora comuni, e chi si affida ciecamente all'IA senza verificare le fonti rischia di incappare in errori anche gravi.
Inoltre, nessun servizio di questa portata è realmente gratuito. Le aziende che sviluppano IA investono miliardi, e il modello di business dovrà inevitabilmente recuperare quei costi. O si paga un abbonamento, oppure si monetizza in altro modo: pubblicità, raccolta dati, sponsorizzazioni. In altre parole, l'IA potrebbe finire per replicare – se non peggiorare – le stesse distorsioni che oggi penalizzano la ricerca tradizionale.
Un altro punto critico è la manipolazione dei sistemi di IA. Esattamente come i motori di ricerca sono stati colonizzati da "esperti SEO, oggi stanno emergendo i primi "ottimizzatori IA": figure che insegnano come scrivere contenuti "AI-friendly" per ottenere maggiore visibilità nei risultati forniti dai chatbot. Se questa tendenza prende piede, non ci vorrà molto prima che anche l'intelligenza artificiale venga ingannata da contenuti studiati solo per apparire credibili, ma privi di valore reale.
E non è tutto. Dietro ogni modello linguistico c'è un enorme bacino di dati, spesso ottenuti in modo opaco. Le polemiche e le cause legali sullo sfruttamento di contenuti protetti da copyright sono solo la punta dell'iceberg. Se la ricerca basata sull'IA diventa lo standard, si aprirà un altro vaso di Pandora: il rischio è che, nel lungo termine, l'IA si nutra di contenuti generati da se stessa, in un circolo vizioso che potrebbe minare la qualità dell'informazione in rete.
Siamo a un bivio. Il calo sotto il 90% di Google Search è più che una semplice statistica: è il sintomo di un cambiamento profondo. Gli utenti stanno cercando alternative più efficienti, e l'intelligenza artificiale sembra pronta a raccogliere la sfida. Ma non è il momento di abbandonare il pensiero critico. Nessuno strumento, per quanto avanzato, può sostituire il buon senso e la capacità di analisi dell'utente.
Il futuro della ricerca è ancora da scrivere. Potrebbe essere più intelligente, più veloce, più personale. Ma solo se chi la usa – e chi la sviluppa – saprà evitare le scorciatoie e le illusioni.