YouTube está limpiando la plataforma después de determinar que no permitirá que más vídeos se publiquen con expresiones, o se mantengan online. Susan Wojcicki, jefe de la división de Youtube, explicó que la empresa está actualmente usando algoritmos para filtrar contenidos inapropiados para niños o que puedan influenciar negativamente a los espectadores.
Pero los algoritmos no consiguen determinar por sí solos lo que permanece en el sitio y lo que debe ser excluido. Por esta razón, Google anunció que al menos 10.000 personas serán utilizados para analizar el contenido que pueda violar las políticas de YouTube para ayudar a los algoritmos a trabajar mejor.
YouTube declaró que el machine learning de sus algoritmos es capaz de detectar el 70% del contenido que tiene violencia y discursos extremistas en hasta 8 horas después de su publicación. Al programar estos algoritmos para hacer lo mismo con otros tipos de vídeos, como los que llegan al público infantil, la plataforma podría tardar más de ocho horas.
Además de la ayuda de los empleados para monitorear los contenidos, la empresa también promete ser más transparente. A partir de 2018 YouTube publicará informes sobre el estado y el mantenimiento de la plataforma.