Un experto activa las alarmas: la gente está empezando a hablar como ChatGPT
Los sesgos ocultos de la inteligencia artificial se filtran al lenguaje cotidiano.

Está sucediendo y a algunos les da miedo: cada vez más personas están empezando a hablar como ChatGPT. Expresiones y palabras características de los grandes modelos de lenguaje (LLM, por sus siglas en inglés) están saltando de las pantallas a las conversaciones humanas, marcando una transformación silenciosa en la manera en que nos comunicamos.
El lingüista Adam Aleksic, autor del libro Algospeak: cómo las redes sociales están transformando el futuro del lenguaje, advierte en un artículo para The Washington Post que “los angloparlantes están empezando a sonar como el interlocutor inhumano del otro lado de la línea”.
El lenguaje de las máquinas
Los chatbots como ChatGPT, Claude o Gemini no procesan el lenguaje como lo hacemos las personas. Sus respuestas no son “pensadas” en un idioma natural, sino que pasan primero por un proceso de conversión a números en un espacio vectorial, una especie de mapa bidimensional del lenguaje. Después, palabra por palabra, predicen la salida más probable según sus datos de entrenamiento y la retroalimentación humana que recibieron.
Ese proceso técnico, aunque efectivo, introduce sesgos inevitables. Por ejemplo, investigadores de la Universidad de Florida encontraron que ChatGPT utiliza la palabra inglesa delve (“profundizar”) con una frecuencia mucho mayor a la habitual. Esta inclinación podría haberse reforzado durante el ajuste del modelo por parte de evaluadores humanos, muchos de ellos trabajadores mal pagados en países como Nigeria o Kenia, donde el uso de delve es más común que en el inglés estadounidense o británico.

En las conversaciones
El problema, según Aleksic, es que estos hábitos lingüísticos ya no se quedan en las respuestas generadas por la inteligencia artificial. “El uso excesivo se ha extendido a la cultura global”, advierte.
En los dos años transcurridos desde el lanzamiento de ChatGPT a finales de 2022, el uso del término “profundizar” en publicaciones académicas se multiplicó por diez. Investigadores que utilizan IA para redactar borradores o mejorar textos han empezado a incorporar estos giros en su propia escritura.
El fenómeno no se limita al ámbito académico. Un estudio reciente publicado en Scientific American mostró que la gente ya emplea “profundizar” con mayor frecuencia en conversaciones espontáneas, señal de que los sesgos lingüísticos de las máquinas se están filtrando a la vida cotidiana.
Un bucle de retroalimentación
En psicolingüística está demostrado que cuanto más vemos una palabra, más disponible se vuelve en nuestro vocabulario mental. Si la IA introduce un término con frecuencia inusual, este acaba integrándose en nuestro repertorio, haciéndose natural.
De este modo, los humanos empiezan a sonar más como las máquinas, mientras que los modelos lingüísticos se entrenan con textos cada vez más influidos por la IA. El resultado es un bucle de retroalimentación en el que se difuminan las fronteras entre lenguaje humano y artificial.
Para muchos lingüistas, el cambio no es necesariamente negativo: que un término se popularice no implica un empobrecimiento del lenguaje. Sin embargo, Aleksic recuerda que las consecuencias van más allá del vocabulario. “Los modelos de IA no son neutrales”, advierte. Además de sesgos lingüísticos, arrastran sesgos de género, raciales o políticos, más difíciles de medir pero igualmente presentes.

Noticias relacionadas
Sigue el canal de MeriStation en Twitter. Tu web de videojuegos y de entretenimiento, para conocer todas las noticias, novedades y última hora sobre el mundo del videojuego, cine, series, manga y anime. Avances, análisis, entrevistas, tráileres, gameplays, podcasts y mucho más.
¡Suscríbete! Si estás interesado en licenciar este contenido, pincha aquí.
Rellene su nombre y apellidos para comentar