Meta comparte su herramienta para evitar los post que bloquean el contenido terrorista
Los de Menlo Park compartirán con varias empresas su sistem para luchar contra la información violenta que circula por las redes sociales.
Las redes sociales son lugares más inhóspitos de lo que parecen. Si tienes claros tus intereses seguro que no encontrarás mucho contenido que se salga de lo que te gusta o buscas, pero en ocasiones te puedes encontrar con post que son francamente desagradables. Las diferentes compañías se han esforzado y mucho para eliminarlos en la medida de lo posible y en el caso de Meta por fin veremos cómo más empresas ayudan en su labor antiterrorista al publicar su propia herramienta. Meta comparte su herramienta para evitar el contenido violento No es la primera vez que nos encontramos hablando de los problemas de las redes sociales para los más jóvenes. Son los usuarios más sensibles al contenido que circula por ellas y, en ocasiones, se pueden topar con un problema grande cuando se trata de contenido violento, que incita al terrorismo o que, en el peor de los casos, intentan reclutar a gente con el fin de preservar una causa violenta. Por suerte, en Meta se han tomado muy en serio este y otros asuntos como las noticias falsas y ahora quieren compartir con el mundo una herramienta llamada Hasher-Matcher-Actioner (HMA). El nombre es un poco extraño, lo sabemos, pero lo importante es lo que hace que es avisar del uso indebido de contenido que viole las normas de uso del servicio. Cómo funciona HMA La compañía tiene claro que hay que encontrar la forma de hacer que los servicios en línea sean más transparentes y tengan más herramientas de moderación. La compañía ha lanzado un comunicado de prensa en el que ha advertido de lo importante que es la eliminación de contenido en cualquier tipo de página. Pero una parte importante tiene que ver con el funcionamiento de este programa de código abierto. Este funciona de tal forma que es capaz de encontrar imágenes duplicadas o parecidas para ayudar a detectar fotografías que hagan enaltecimiento del terrorsimo. Lo mismo pasa con los videos, donde un algoritmo es capaz de reconocer un video que se asemeje a otros que hayan sido prohibidos. Será desde el próximo mes de enero cuando este software estará disponible para todas las empresa que quieran desarrollar con este sistema.