YouTube ha eliminado más contenido que nunca durante el segundo trimestre de 2020. Unos 11,4 millones de vídeos, según ha informado la compañía en un reporte de transparencia. En comparación, la compañía bajó unos 9 millones de vídeos en el mismo periodo de tiempo en 2019.

Es la consecuencia de atravesar las medidas de distanciamiento de seguridad y cuarentenas debido a la COVID-19. YouTube, para poder mantener control sobre la plataforma, se apoyó mucho más en sus algoritmos de detección automática de contenido inapropiado o prohibido.

Cuando nos dimos cuenta que, debido a la COVID-19, tendríamos menor capacidad de moderación de contenidos realizada por humanos, nos vimos obligados a elegir entre ser potencialmente menos o más estrictos de lo necesario. Elegimos la segunda opción, porque nuestra prioridad número uno es ser responsables y nos apoyamos más en tecnologías de revisión automatizada.

Otra cifra que refleja el impacto significativo de la falta de moderación manual, realizada por humanos, es el número de vídeos eliminados que no fueron etiquetados automáticamente como potencialmente peligrosos.

Se trata de vídeos etiquetados por otras personas que navegan y ven vídeos en YouTube, por agencias de gobierno o por organizaciones sin fines de lucro dedicadas.

Durante abril a junio de 2019, se eliminaron 1.155.051 videos manualmente a partir del etiquetado no automatizado. En cambio, de abril a junio de 2020 solamente se eliminaron 552.062 usando esta metodología.

El 33,5% de los vídeos eliminados son por razones de protección a menores de edad, seguro del 28,3% relacionado a spam, engaños y trampas.

YouTube sabía que apoyarse en un algoritmo para eliminar contenido potencialmente no apropiado significaría más apelaciones por parte de creadores de contenido que consideran que la decisión fue injusta. Es por eso que aumentó el número de empleados dedicados a la revisión manual de estos contenidos para resolver la reclamación lo antes posible.

Diferencias fundamentales entre YouTube y Facebook

YouTube no es la única plataforma que ha publicado reportes sobre la eliminación de contenidos potencialmente peligrosos o inapropiados. Facebook también reveló datos sobre cómo hace cumplir las reglas a su comunidad.

La aproximación hacia el mismo problema de ambas compañía es bastante distinto. YouTube prefirió arriesgarse a eliminar contenido válido y penalizar a usuarios que no hicieron nada malo. Facebook, en cambio, hizo lo contrario: ser un poco más laxo y dejar que publicaciones prohibidas aparezcan en la plataforma más tiempo de lo normal.

Ambos enfoques reflejan la inmensa dificultad hacia la moderación de contenidos cuando se trata de plataformas extremadamente populares. También es una prueba más de la poca efectividad de los sistemas automatizados de moderación y lo mucho que deben de madurar antes de convertirse en herramientas realmente confiables.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: