¿Por qué el algoritmo de YouTube favorece los contenidos de extrema derecha?

[resumen.cl] El sexismo, la homofobia e ideas de extrema derecha son algunos de los videos más populares en YouTube, los que dejan ingresos económicos para el sitio de videos, así como para los creadores de estos contenidos. En un reportaje audiovisual de la televisión alemana DW se cuestiona el algoritmo detrás de la famosa plataforma web de videos, que al parecer favorece los contenidos radicales de derecha por medio de su configuración actual.

Los algoritmos están diseñados para aumentar los ingresos económicos y el tiempo de visualización de los videos, sin embargo esto está trayendo consigo que se potencien contenidos que fomentan el odio. Frente a esto YouTube ha anunciado cambios como por ejemplo eliminar más rápido el contenido violento, aumentar el contenido de base científica, reducir la difusión de contenido «radical» y elevar los estándares de la monetización, es decir evitar que contenido de extrema derecha que fomente el odio pueda ganar dinero en la plataforma. Sin embargo, no todos están convencidos de que estas medidas vayan a tener efectos.

En agosto de 2019 YouTube intentó eliminar los contenidos del YouTuber de extrema derecha Martin Sellner y otros del mismo tipo, pero sin éxito. Martin Sellner apeló y junto con un abogado logró que su canal volviera a estar en linea al día siguiente de ser bloqueado. Además aunque el contenido sea bloqueado, otras personas pueden volver a subirlo.

Por su parte diferentes entendidos en la materia vinculada a la programación y los algoritmos de internet, cuestionan la ética detrás de la inteligencia artificial de YouTube. Los contenidos de larga duración son más rentables para la empresa, ya que permiten incluir más publicidad. Los videos que polarizan y contienen opiniones extremas han demostrado que son muy populares, entonces para la plataforma es rentable publicitarlos mediante sus algoritmos, ya que pueden introducir más publicidad en medio. Es así como se está exigiendo por parte de algunas organizaciones que estos algoritmos sean públicos y puedan ser fiscalizados para evitar que conduzcan hacia posiciones de odio y discriminación por clase socio-económica, sexo-género o raza-etnia, típicos de las posiciones de extrema derecha.

Al respecto la cadena DW explica que «El algoritmo de YouTube busca mantener al usuario en la plataforma. Para ello a menudo muestra contenido extremo que genere fuertes reacciones y que puede conducir, en algunos casos, a la radicalización de los usuarios. ¿Por qué se hace dinero con el odio en YouTube? ¿Y qué significa eso para el usuario?»

Imagen principal: fayerwayer.com