He perdido la cuenta del número de veces que hemos denunciado la sección de Tendencias de YouTube o las incongruencias de una plataforma que organiza campañas para prevenir el discurso del odio, pero que luego no mueve ni un dedo por terminar con los vídeos conspiratorios o tóxicos. A lo largo de este reportaje, Bloomberg comparte conversaciones con ex trabajadores de la plataforma que cuentan como en YouTube prima más el beneficio económico que el control por el contenido que se comparte.
No interesa eliminar el contenido sensacionalista
Hoy por hoy Tendencias España es un espacio dedicado a los vídeos de BadaBun, los diferentes canales de prensa rosa que narran cotilleos locutados por una voz en off y el contenido de creadores que promueven el click más básico en torno a temas como "Ignoro a mi abuela".
Bien, si hasta la fecha pensábamos que el algoritmo está roto o funciona mal, según las declaraciones que recoge Bloomberg estábamos equivocados. YouTube es plenamente consciente de que ese contenido de baja calidad acumula miles y miles de visitas y eso les interesa especialmente. Micah Schaffe fue empleado de YouTube antes de la compra de Google en 2006 y cuando la plataforma aún no era rentable. Él, que fue de los encargados en redactar parte de las políticas de uso, no comparte la dirección que la plataforma comenzó a tomar durante esta última década:
"YouTube nunca debería haber permitido que teorías de conspiración peligrosas se convirtieran en una parte tan dominante de la cultura de la plataforma".
Una de las razones por las que YouTube ha terminado siendo un gigante mediático que no controla gran parte del contenido que aloja reside en su prioridad por el crecimiento económico basado en el engagement. A principios de 2009, cuando Google tomó el control del plan de negocio de YouTube su objetivo era "mantener en el tiempo un crecimiento explosivo". Tres años después, en 2012, YouTube se dio cuenta que "cuántas más personas viesen sus vídeos, más publicidad podían incluir en ellos" y más beneficios podían obtener. Los vídeos recomendados a la derecha fueron la solución idónea para mantener a los usuarios pivotando de un contenido a otro a lo largo de la plataforma.
"Por aquel entonces YouTube estaba dirigido por el veterano de Google Salar Kamangar quien estableció un objetivo para toda la compañía: alcanzar mil millones de horas de visualización al día y rediseñó el motor de recomendaciones para maximizar ese objetivo", explica el reportaje. Cuando en 2014 Susan Wojcicki asumió el control llevaban un 30% del objetivo cumplido y no fue hasta finales de 2016 cuando llegaron a la cifra mágica.
De hecho, durante este proceso YouTube aprendió el que a día de hoy es uno de sus mantras de crecimiento y que Brittain Heller, académico de la Universidad de Harvard corrobora: "YouTube no da la receta exacta para la viralidad, pero mientras trataban de alcanzar los mil millones de horas de visionado se dieron cuenta que cuánto más escandaloso era el contenido más interés despertaba en el espectador".
Un ex directivo de Google tiene bloqueado Youtube.com en su propio pc
Una de las cosas que logra el reportaje de Bloomberg es disipar la confusión en torno a la eterna contradicción de YouTube, una plataforma que dice controlar el contenido falso o sensacionalista, pero que en la práctica no solo no lo frena, sino que lo promociona. ¿Cómo si no puede explicar YouTube que un canal que busca la provocación verbal y física de los protagonistas de sus vídeos haya superado los 30 millones de suscriptores?
Son varios los ingenieros que han trabajado en la plataforma y han compartido sus experiencias al tratar de revertir esta mala praxis. Yonatan Zunger es uno de ellos y cuenta a Bloomberg que antes de irse en 2016 propuso hacer modificaciones en la lista de vídeos recomendados porque muchos de ellos rozaban el incumplimiento de las políticas de uso. La respuesta por parte de uno de los directivos que trabajan en el área de políticas de uso fue un "no" rotundo algo que el propio Zunger considera que les perjudica notablemente.
Sin ir más lejos Patrick Copelland, un ex directivo de Google que abandonó la empresa en 2016 sostiene que en su ordenador el dominio "youtube.com" está bloqueado porque no quiere que sus hijos vean el contenido que aloja la plataforma. Es curioso ver cómo una empresa que promueve el contenido "family friendly" permite que existan canales que hacen apología contra las vacunas o que buscan dinamitar campañas electorales a favor de un lado u otro de los candidatos. Las declaraciones y en general todo el contexto que pone sobre la mesa el reportaje confirman una sensación que llevábamos percibiendo desde hace meses: no existe un control editorial en YouTube porque el sensacionalismo favorece el engagement rate y por lo tanto los beneficios económicos que llegan a través de la publicidad.
El objetivo de YouTube es que veas más videos y con más implicación. No tienen línea editorial y les da igual el contenido. ¿Resultado? Lo más tóxico genera más implicación. La responsabilidad ya tal. https://t.co/KRj7CmjviP
— Outconsumer (@Outconsumer) 3 de abril de 2019