Los usuarios y creadores de contenido de YouTube sintieron durante los últimos meses que las restricciones para sus videos eran cada vez más fuertes y muchos se quejaron por las diferentes redes sociales sobre esta situación.
Al parecer, todo se dio debido a que desde marzo la compañía dijo que dependería más de los sistemas de aprendizaje automático para marcar y eliminar contenido que violara sus políticas sobre discursos de odio y desinformación, aunque al parecer estos sistemas fueron demasiado estrictos.
Ahora, YouTube informa que está recuperando moderadores humanos que fueron “desconectados” durante la pandemia, luego de que los filtros de Inteligencia Artificial de la compañía no coincidieran con su precisión y eliminaran alrededor de 11 millones de videos entre abril y junio, según información del Financial Times.
Esa cifra corresponde al doble habitual, por lo que se apelaron alrededor de 320.000 de estos videos eliminados y se restablecieron la mitad, lo cual representa también el doble de la cifra que están acostumbrados a manejar, situación que les confirmó que los sistemas de Inteligencia Artificial fueron demasiado estrictos detectando contenido dañino.
El director de productos de YouTube, Neal Mohan, explicó al FT que los sistemas de aprendizaje automático definitivamente tienen su lugar, incluso si es solo para eliminar a los infractores más obvios. “Más del 50 por ciento de esos 11 millones de videos fueron eliminados sin una sola vista por un usuario real de YouTube y más del 80 por ciento fueron eliminados con menos de 10 vistas”, dijo. “Y ese es el poder de las máquinas”.