Algoritmo de Youtube: por qué siempre te recomienda conspiraciones y bulos

Probablemente, alguna vez te hayas dado cuenta de que Youtube te recomienda con mucha facilidad vídeos conspiratorios. La primera vez que me percaté de esta realidad fue cuando Youtube empezó a recomendarme contenido que asegura que Michael Jackson está vivo. Por el simple hecho de haber invertido una hora de mi tiempo en ver los videoclips del rey del pop, Youtube interpretó que quería ver bulos.

Google: el gran radicalizador del siglo XXI

El New York Times ha bautizado a Youtube como el "Gran Radicalizador del siglo XXI". Y, aunque parezca una afirmación demasiado rotunda, no está tan lejos de la realidad. Si yo me percaté de este fenómeno viendo vídeos de Michael Jackson copa de vino en mano, la periodista Zeynep Tufekci lo hizo mientras buscaba vídeos de Trump para un artículo.

¿Resultado? Youtube comenzó a recomendarle vídeos relacionados con la extrema derecha: nazismo, holocausto y cualquier exageración relacionada con la ideología más conservadora. Con el objetivo de constatar el comportamiento de Youtube, la periodista comenzó a buscar desde otro perfil vídeos de la ideología contraria: Hillary Clinton, Berney Sanders, etc.

En este caso, Youtube le recomendó contenido sobre la implicación del gobierno en el 11-S, un movimiento conspiratorio de la izquierda o las presuntas pruebas que aseguraban que el gobierno americano tenía agencias de información secretas.

Pero, ¿por qué ofrecen contenido sensacionalista?

Zeynep Tufekci siguió indagando en esta cuestión y para ello se puso en contacto con uno de los principales desarrolladores del algoritmo recomendador de Youtube. Al poco tiempo de terminar el desarrollo, Guillaume Chaslot se dio cuenta de que la mecánica de recomendaciones no era la más óptima para el usuario. Aunque el algoritmo lograba incrementar el tráfico, pecaba en la calidad del contenido recomendado.

Para combatir este "efecto secundario", Chaslot propuso varias alternativas para que el algoritmo no penalizase en la calidad del contenido, pero ninguna de ellas gustó a los jefazos de Google quiénes le despidieron en 2013 por "bajo rendimiento".

En sus declaraciones al New York Times, Chaslot reafirmó las creencias de la periodista: Youtube quiere alimentar los extremismos con la idea de conseguir que los usuarios se queden mayor tiempo en la plataforma. Así, si alguien busca información sobre la vacuna de la gripe, Youtube le va a ofrecer vídeos que hablen sobre la anticampaña de las vacunas.

El extrabajador de Google, de momento, no se calla

Chaslot no solo ha colaborado con el New York Times, sino que previamente había participado en una investigación similar en el Wall Street Journal. Sin embargo, antes de que los medios se hiciesen eco, él ya se había despachado a gusto al respecto, en su blog personal.

A través del post "Cómo el algoritmo de Youtube aumenta los bulos" expone 5 ejemplos para explicar hasta qué punto el algoritmo desvirtúa el contenido. Si alguien busca en tres sites diferentes "¿Quién es realmente Michelle Obama?" puede observar cómo los resultados más sensacionalistas provienen del recomendador de Youtube.

El resultado "Michelle Obama nació hombre" solamente aparece en un 5% de los resultados del buscador de Google, en un 45% del buscador de Youtube y en un 65% de las recomendaciones. Es decir, la forma en la que Youtube ofrece contenido sensacionalista y falso sobre la ex primera dama americana es a través de las recomendaciones.

¿Solución? Borrar en la medida de lo posible el historial de búsqueda de Youtube. Por mucho que este programador haya destapado el secreto del algoritmo, Google no va a cambiar su forma de proceder, al menos de momento. Conseguir que los usuarios vayan "en automático" de un vídeo a otro ante las recomendaciones de click fácil, ayuda a Google a vender más y más anuncios y, por lo tanto, a ganar más dinero con publicidad.

Ver todos los comentarios en https://www.thewatmag.com

VER 0 Comentario

Portada de WATmag