Inteligencia artificial
Así es Sora, la IA de OpenAI que genera vídeos que parecen reales a partir de entradas de texto
OpenAI presenta a Sora, su nuevo modelo de inteligencia artificial que genera vídeos a partir del texto introducido por el usuario.
La empresa experta en inteligencia artificial OpenAI ha dado un salto cualitativo con su nueva IA llamada Sora. Se trata de un nuevo modelo de texto a vídeo. Es decir, genera vídeos de aspecto realista a partir de las entradas de texto introducidas por el usuario. Junto con su anuncio, la compañía de Sam Altman también ha hablado de las medidas que están tomando para evitar un uso malicioso de Sora como desinformación o apología al odio.
Sora de OpenAI es la nueva IA que crea vídeos con el texto que le escribas
OpenAI presentó a Sora el pasado 15 de febrero mediante un breve hilo de publicaciones en su cuenta oficial de X, la red social de Elon Musk. En el primero de estos posts podemos ver un vídeo generado detallando una Tokio vibrante con copos de nieve y muchos pétalos de cerezos en flor. El resultado, como se puede ver en el propio vídeo, es tan realista que da miedo.
O lo que es lo mismo: Sora es a los vídeos lo que DALL-E3, también de OpenAI, a las imágenes. Según informa la compañía, como medida para evitar en lo posible un uso malicioso de Sora, es trabajar codo con codo junto con un equipo de expertos en áreas como la desinformación o los prejuicios que están buscando flecos de forma concienzuda en las capacidades de generación de este modelo de IA. En otras palabras: es un grupo de especialistas que está “usando mal” a Sora de forma deliberada precisamente para poder evitar que se haga un uso nocivo de esta inteligencia artificial en un futuro. Esto propiciaría que Sora usase prompts ocultos para combatir prejuicios como el racismo, como hace DALL-E3.
No en vano, las preocupaciones sobre la utilización de las IAs de forma carente de ética van en aumento. Varios investigadores de OpenAI llegaron a publicar una misiva dirigida al consejo de administración en la que le instaban que tomasen medidas para evitar “la destrucción de la humanidad”.
Por lo pronto, Sora solo está disponible para los red teamers, es decir, los usuarios que trabajarán codo con codo con la compañía propietaria de ChatGPT para buscar cualquier posible atisbo de uso potencialmente perjudicial. OpenAI también proporcionará acceso a Sora a varios artistas, diseñadores y cineastas para obtener feedback con el que saber cómo calibrar a este modelo de cara al futuro.
Según OpenAI, “Sora es capaz de generar escenas complejas con múltiples personajes, tipos muy específicos de movimiento y detalles muy precisos sobre los sujetos a tratar y el fondo. El modelo entiende no solo qué le pide el usuario, sino también cómo existen esos elementos en un espacio físico”. Y la compañía no lo dice sin más; los vídeos que acompañan a este texto demuestran que cada vez será más difícil distinguir un vídeo real de uno generado por IA.
“El modelo actual posee puntos débiles. Puede tener problemas a la hora de representar una escena compleja, y puede no entender instancias específicas de causa y efecto. Por ejemplo, una persona podría dar un bocado a una galleta, pero tras esto la galleta podría no tener la marca de ese bocado”, se justifica OpenAI con respecto al hecho de que Sora aún está en fase de pruebas.
En cualquier caso, tras su anuncio Sora ha dado mucho de qué hablar en redes sociales no solo por el hecho de que cada vez se difumina más la línea entre ficción y realidad, sino también por los peligros que ello conlleva y por los potenciales usos maliciosos que pueden tener este tipo de herramientas.
Según Ralph Brooks, científico de datos e ingeniero de machine learning, Sora de OpenAI estaría usando Unreal Engine 5 de Epic Games para simular las escenas que los usuarios pretenden generar. Tras esto, el modelo nos devuelve una basada en los cálculos que el motor gráfico de Fortnite ha procesado.