In base ad una esclusiva riportata dal sito Axios, negli ultimi sei mesi YouTube ha rimosso più di 30mila video in cui erano state fatte  affermazioni fuorvianti o false sui vaccini anti-Covid, come dichiarato dalla portavoce della controllata Alphabet, Elena Hernandez.

Da febbraio 2020, invece, i video contenenti informazioni errate sul coronavirus rimossi da YouTube sono stati più di 800mila.

I video vengono prima contrassegnati dai sistemi di intelligenza artificiale dell'azienda o da revisori umani, quindi, dopo la prima segnalazione, vengono ulteriormente esaminati prima di essere definitivamente rimossi.

I video che violano la politica sui vaccini, secondo le regole di YouTube, sono quelli che si contrappongono alle indicazioni delle autorità sanitarie o dell'Organizzazione mondiale della sanità.

Gli utenti che violano le regole di YouTube posso essere esclusi dall'utilizzo del sito in maniera permanente.

Politiche simili sono state adottate anche dalle altre piattaforme principali, da Twitter a Facebook, anche se non tutta la disinformazione viene catturata dalla sorveglianza. secondo uno studio del Center for Countering Digital Hate, ad esempio, fino a fine 2020 l'algoritmo di Instagram ha continuato a consigliare contenuti negazionisti nonostante le contromisure messe in atto.