Ante la explosión de desinformación médica tras la pandemia del covid-19, YouTube (propiedad de Google), comenzó en 2022 a perseguir contenidos antivacunas y después a los que fomentan los trastornos alimentarios.
Un año después, la plataforma de videos asegura querer ahondar en las medidas y rastrear la información falsa sobre el cáncer, señalando que las personas diagnosticadas con esa enfermedad «a menudo acuden a internet para informarse sobre los síntomas y los tratamientos, y para encontrar un sentido (de pertenencia) a una comunidad».
A los internautas que publiquen información falsa sobre la salud se les borrará el video y después de tres publicaciones repetidas, se les bloqueará el canal o incluso la cuenta.
Aunque YouTube defiende un proceso a largo plazo, «no hace más que cumplir sus obligaciones», advierte a AFP el sociólogo Laurent Cordonier, de la Fundación Descartes, un organismo francés sobre cuestiones de información.
El experto ha referencia a la entrada en vigor, el 25 de agosto, de un reglamento europeo que exige a las principales plataformas digitales tomar medidas contra la desinformación y otros contenidos ilícitos.
El investigador, según el cual «los desinformadores sanitarios abundan literalmente en el YouTube francófono», duda de la eficacia de las medidas anunciadas, al señalar en particular los anuncios que también son vehículos de desinformación.
Citó un anuncio reciente «para un libro que denuncia la idea de que hay que hidratarse durante una ola de calor, con el pretexto de que ‘la gente en el desierto bebe muy poco’».
Para la periodista Angie Holan, directora de la red internacional de fact-checking IFCN, de la cual AFP forma parte, «YouTube alberga tantos contenidos que es muy difícil decir si la calidad de la información ha mejorado o no».
Falta de eficacia y transparencia
Cada minuto, la plataforma recibe más de 500 horas de contenidos nuevos y la detección de informaciones falsas representa un «desafío tecnológico enorme», según YouTube, sobre todo ahora que los videos viejos deben también ser sometidos a las nuevas reglas.
Entre enero y abril de 2023, YouTube asegura haber suprimido más de 8,7 millones de videos, de los cuales más de 90% fueron identificados por la inteligencia artificial.
Pero esos «medios automáticos (…) fallan estrepitosamente sobre todo cuando el video no está en inglés», lamenta el periodista español Carlos Hernández-Echevarría, del servicio de verificación de datos Maldita y coautor de una carta abierta a YouTube sobre el tema en enero de 2022.
El periodista critica también la «censura» ejercida por YouTube que suprime los videos «sin que los internautas sepan por qué una información en particular es falsa», mientras otras plataformas optan por limitar la viralidad de los contenidos problemáticos o añadirles contexto.
Holan, cuya red ha recibido fondos de Google para luchar contra la desinformación, igual que otras organizaciones de verificación de datos como AFP, lamenta también «la falta de transparencia» de la plataforma en sus criterios de clasificación.
«Es muy difícil saber qué hace realmente YouTube», reclama.
YouTube se justifica explicando que no quiere ofrecer un «aviso» detallado que pueda facilitar a los internautas evadir sus reglas.
Junto a estas acciones, YouTube ha desarrollado nuevas herramientas para destacar los contenidos de las autoridades sanitarias y hospitales, y en Francia difunde mensajes informativos bajo los videos para ayudar a los usuarios a identificar la fuente.
Clément Bastié, del colectivo l’Extracteur, que lucha contra la desinformación, se declara «incómodo de que confiemos a una empresa privada la tarea de dictar lo que se puede o no decir, y lo que es fiable y no fiable sobre temas complejos».
Teme que la política de YouTube, «sin duda eficaz a corto plazo», refuerce a largo plazo las teorías conspirativas que encontrarán «otras plataformas para expresarse».