NewslettersRegístrateAPP
españaESPAÑAchileCHILEcolombiaCOLOMBIAusaUSAméxicoMÉXICOusa latinoUSA LATINOaméricaAMÉRICA

SOCIEDAD

La Fiscalía pide que sean delito los vídeos sexuales con caras suplantadas

El caso del vídeo sexual manipulado de Almendralejo, creado con Inteligencia Artificial, destapó la “la punta del iceberg de un fenómeno en pleno ascenso”, según la Fiscalía.

estafa telefono movil ciberdelincuencia

Los nuevos desarrollos de la tecnología han dado como resultado grandes avances en la llamada Inteligencia Artificial (IA). A través de ella, es posible crear escenarios que, si bien no son reales, se asemejan mucho a ello. El problema es cuando se hace uso de esta tecnología con fines delictivos, como desinformar o presentar una escena irreal con el objetivo de perjudicar a alguien.

Esto es lo que persigue desde la Fiscalía, que pretende que los llamados deepfakes sexuales (vídeos manipulados en los que se suplanta la cara de una persona real) sean tipificados como delito. En su última Memoria anual, presentada este jueves, el Ministerio Público ha propuesto “reforzar la legislación” para castigar estas prácticas recientes.

Desde el citado ministerio han advertido del “progresivo incremento de los delitos cometidos por menores utilizando las redes sociales y de aquellos en los que las víctimas son los propios menores”. Y es que, como recuerdan desde la Fiscalía, todavía sigue muy presente el caso del deepfake ocurrido en 2023 en Almendralejo. A través de una aplicación, varios menores utilizaron los rostros de chicas de su edad (mediante fotos de sus perfiles en redes sociales) para crear imágenes falsas, colocándolas en cuerpos desnudos femeninos, “aparentando de modo realista corresponder a las propias menores”.

Según aparece indicado en la Memoria, “las fotografías alteradas las habrían compartido, ocasionando humillación y desasosiego en las afectadas, que cuentan entre once y quince años de edad”. Todas las víctimas de esta manipulación fotográfica eran compañeras de colegio de los autores de estos vídeos manipulados a través de la Inteligencia Artificial. Por ello, desde el organismo que lidera el fiscal Álvaro García Ortiz instan a “prestar especial atención” a su desarrollo.

Y es que, además de ser capaz de generar vídeos sexuales falsos y crear contenido de pornografía infantil (también irreal), otro de sus objetivos suele ser el de desinformar mediante discursos políticos modificados, poniendo en ellos palabras que no se han dicho. En este sentido, desde Sumar pidieron al Gobierno el desarrollo de una reforma legislativa para penar este tipo de vídeos manipulados.

Menores desprotegidos

De hecho, en la Memoria, la Fiscalía avisa de que estas aplicaciones empleadas para crear esos vídeos falsos son “muy fácilmente accesibles y descargables en la red. Es verdaderamente sorprendente esta situación y la total ausencia de control”.

Además, aseguran que el caso ocurrido en Almendralejo no es el único, sino que ha sido el que “ha destapado la punta del iceberg de un fenómeno en pleno ascenso”. Un fenómeno, dicen, en el que una nueva generación de adolescentes se encuentran expuestos y desprotegidos ante “nuevas herramientas tecnológicas más peligrosas que nunca, con su intimidad a un clic de hacerse viral y una preocupación omnipresente: la popularidad”.

Sigue el canal de Diario AS en WhatsApp, donde encontrarás todo el deporte en un solo espacio: la actualidad del día, la agenda con la última hora de los eventos deportivos más importantes, las imágenes más destacadas, la opinión de las mejores firmas de AS, reportajes, vídeos, y algo de humor de vez en cuando.

Normas