Gaming Club
Regístrate
españaESPAÑAméxicoMÉXICOusaUSA
Betech
Ciencia y tecnología

IA

Las IAs como DALL-E3 usan prompts ocultos para combatir el racismo

Os contamos cómo inteligencias artificiales como DALL-E3 usan prompts secretos para luchar contra el racismo en machine learning.

Actualizado a
dall-e3 ia inteligencia artificial racismo

Que hay racismo y contenido inapropiado implícito en ciertas inteligencias artificiales que aprenden mediante machine learning es un hecho, y ha habido casos sonados como el de la serie de Seinfeld generada por IA de Twitch que se volvió homófoba. Ahora algunos usuarios han descubierto que DALL-E3 utiliza prompts secretos para intentar combatir el racismo, a veces “descompensando” la balanza hacia el otro lado y dando como resultado a imágenes muy peculiares y que irónicamente también son racistas. Debajo os contamos más al respecto:

Así compensa DALL-E3 el racismo implícito de las inteligencias artificiales

Varios usuarios de la red social X han puesto el foco en un tipo de generación de imágenes muy peculiar por parte de DALL-E3. Esta IA añade prompts o datos ocultos a las imágenes que le piden que genere para combatir el problema de racismo implícito en IAs y motores de búsqueda. Un caso reciente que se ha viralizado ha sido una generación de DALL-E3 cuyos prompts eran “meme del tío rodeado de espadas excepto que el tío es Homer Simpson”. En ningún momento se especifica la raza, pero el Homer Simpson generado es de color y porta una chapa en la que pone “de etnia ambigua” mal escrito.

Y es que, tal y como demuestran algunas otras imágenes generadas de esta forma, IAs como DALL-E3 añaden prompts ocultos de razas no caucásicas cuando no se especifica una raza en particular en ciertas generaciones para evitar que las IAs sigan creyendo que la raza blanca es “la raza por defecto”. Una forma de detectar qué prompts ocultos añade la IA es generar imágenes tipo “una persona con una camiseta en la que ponga ‘‘”, con el espacio entre las comillas vacío. Los resultados son imágenes de personas con camisetas con texto en los que se pueden ver estos datos secretos que introduce la IA por su cuenta:

Aunque la intención es noble, a veces estos prompts ocultos irónicamente dan lugar a estampas racistas, que es exactamente lo opuesto para lo que existen. Uno de los ejemplos más populares —o infames, según se mire— de generaciones de este tipo fue la “Hatsune Miku gritando a la policía en un suburbio de Detroit”. En ningún momento se especificó la raza de Miku, pero la IA creyó oportuno hacer que esta Miku fuese de color, lo cual redunda en racismo porque en Estados Unidos hay un problema grave de brutalidad policial hacia las minorías de color.

El problema del racismo en IAs, machine learning y motores de búsqueda

Tal y como informa el prestigioso New York Times, hay problemas de prejuicios de raza en IAs como Midjourney, OpenAI y Stability AI. El problema reside en que las IAs, que funcionan gracias a los resultados de los motores de búsqueda, asumen que las personas blancas/caucásicas son “el ser humano estándar” a la hora de generar imágenes. Esto redunda en que cuando a una de estas IAs les pides que te generen a una persona de color, simplemente crean una imagen que no representa a un ser humano en absoluto porque no saben que las personas de color son también personas.

Para que sepáis mejor a qué nos referimos, pongamos como ejemplo una generación vía IA de “una mujer negra llorando”. El resultado es estremecedor; la imagen (que está justo debajo de estas líneas) representa a algo que remotamente se asemeja a un ser humano cuya cara está completamente distorsionada y que es un perfecto combustible de pesadillas.

dall-e3 ia inteligencia artificial racismo
Ampliar
Generación de "una mujer negra llorando" vía IA en 2016, dando como resultado a un horror indescriptible

Esta generación fue en 2016, y ya se ha avanzado bastante desde entonces. No obstante, casos recientes demuestran que todavía queda un largo camino por recorrer en este campo.

Normas