BeTech: noticias de tecnología

YOUTUBE

Hombre vs Maquina: YouTube recurre a moderadores humanos de nuevo

La moderación automática no le ha dado el resultado esperado y la plataforma ha decidido volver a lo auténtico.

Hombre vs Maquina: YouTube recurre a moderadores humanos de nuevo

Si abres la web del informe de Transparencia de Google para leer las aplicaciones de las normas de la comunidad de YouTube, se puede leer el aviso siguiente:

“En respuesta a la situación del COVID-19, hemos tomado medidas para proteger a nuestro personal externo y reducir el personal presencial en las oficinas. Como resultado, y de forma temporal, estamos usando más la tecnología para llevar a cabo algunas de las tareas que normalmente hacen los revisores de carne y hueso, por lo que estamos eliminando más contenido que es posible que no infrinja nuestras políticas. Esto influye en algunas de las métricas de este informe y probablemente seguirá influyendo en las métricas de ahora en adelante. Para consultar las últimas novedades sobre cómo estamos abordando la situación del COVID-19, visita g.co/yt-covid19“.

Una medida tomada por la pandemia que seguimos viviendo, según el informe, entre los meses de abril y junio -el tiempo que pasamos en confinamiento-,YouTube eliminó más de 11,4 millones de vídeos por infringir las normas de la plataforma, una cifra más elevada de lo usual cuando se la compara con la del mismo periodo en el año 2019, en la que el servicio retiró alrededor de 9 millones de vídeos. ¿Por qué? Porque la moderación era automática, mediante IA.


Moderadores automáticos Vs moderadores humanos


YouTube comenzó a dar a su sistema de Inteligencia Artificial una mayor autonomía para evitar que los usuarios de la plataforma vieran vídeos violentos, de odio u otros contenidos dañinos o de desinformación. Y esto ha provocado que se hayan borrado más vídeos de los que debería. Por ello, el servicio de Google ha tomado la decisión de volver a dejar la moderación en manos humanas.


El director de Productos de YouTube, Neal Mohan, ha afirmado al medio Financial Times que han recuperado al equipo de moderadores humanos, ya que a pesar de que la tecnología puede eliminar de forma rápida contenidos claramente dañinos, sus capacidades tienen un límite. En este sentido, los algoritmos pudieron identificar vídeos que podrían ser potencialmente dañinos, pero en varias ocasiones no fueron tan buenos a la hora de decidir qué debería eliminarse.


Preciso pero no eficiente

Más del 50% de los 11,4 millones de vídeos eliminados de la plataforma durante el segundo trimestre del año fueron retirados sin que un solo usuarios real de YouTube los hubiera visto, mientras que más del 80% fueron retirados con menos de diez vistas. La capacidad del sistema de moderación automatizado es rápida y precisa, pero no todo lo eficiente que debería. Por ello, YouTube ha revertido su decisión.

"Ahí es donde entran nuestros revisores humanos capacitados", apunta Mohan, añadiendo que usaron los vídeos destacados por la IA y después "tomaron decisiones que tienden a ser más matizadas, especialmente en temas como el discurso del odio o la desinformación médica o el acoso".