Elon Musk desafía en duelo a uno de sus grandes enemigos históricos, aunque el experto ha optado por la colaboración
Elon Musk comparó el desafío público entre su modelo Grok 5 y el investigador Andrej Karpathy con la histórica partida de Deep Blue contra Kasparov. Karpathy la desestimó.
Elon Musk ha propuesto un desafío público de codificación, evocando la histórica partida de ajedrez de 1997 entre Garri Kasparov e IBM Deep Blue. El reto estaba dirigido a Andrej Karpathy, una figura prominente en la industria y exjefe de investigación de OpenAI, la compañía rival de la startup de Musk, xAI (y antes de eso fue jefe de IA para Tesla, por lo que Elon es también su ex-jefe).
Sin embargo, Karpathy rechazó la contienda, afirmando que preferiría “colaborar con Grok antes que competir contra él”.
La propuesta de Musk surgió como respuesta a un clip de la reciente entrevista de Karpathy en el “Dwarkesh Podcast”. En ella, Karpathy argumentó que la Inteligencia Artificial General (AGI) está probablemente a una década de distancia (este el santo grial de la IA, un tipo de inteligencia artificial teórica que tendría la capacidad de entender, aprender y aplicar su conocimiento a cualquier tarea intelectual que un ser humano pueda realizar) y describió a Grok 5, el último modelo de xAI, como un sistema que va “varios meses por detrás” de GPT-4 de OpenAI.
Musk, quien ha declarado que Grok 5 tiene una “probabilidad del 10% y en aumento” de alcanzar la AGI, interpretó el comentario como un reto. “¿Te apuntas a un concurso de codificación de IA?”, publicó Musk en la plataforma X, etiquetando directamente a Karpathy.
La respuesta de Karpathy fue diplomática, señalando que su contribución personal en tal enfrentamiento “tendería a cero”. Su negativa subraya un cambio más amplio en cómo los expertos en machine learning perciben la evolución de esta tecnología: el enfoque se está desplazando de las competiciones directas (humanos contra máquinas) a la aceleración de la productividad humana (humanos con máquinas).
El Estado de las Competiciones de IA
La idea de un concurso formal de codificación humano-IA no es descabellada. DeepMind anunció este año que su modelo Gemini 2.5 resolvió 10 de 12 problemas en condiciones de las Finales Mundiales de la ICPC (un nivel equivalente a una medalla de oro). Tanto OpenAI como DeepMind han alcanzado desde entonces puntuaciones perfectas de 12/12 en el mismo benchmark usando GPT-4 y GPT-5.
Estos problemas, extraídos de competiciones algorítmicas de nivel universitario, se juzgan tanto por la corrección como por el rendimiento del tiempo de ejecución, bajo estrictas limitaciones de recursos.
A principios de este año, un programador polaco venció a un modelo personalizado de OpenAI en la final del AtCoder World Tour, un evento de 10 horas de duración, lo que desató especulaciones sobre si esta sería la última victoria humana al más alto nivel.
Los expertos señalan que si Musk desea que Grok 5 sea tomado en serio en esta liga, debe someterlo a las mismas condiciones medibles. La comparación con Deep Blue solo es válida si la partida es transparente: concursos de duración fija, conjuntos de problemas públicos, acceso idéntico a herramientas y computación, y sin asistencia humana externa.
Hasta la fecha, Grok 5 de xAI aún no ha publicado una puntuación oficial en estas competiciones de referencia.
Sigue el canal de MeriStation en Twitter. Tu web de videojuegos y de entretenimiento, para conocer todas las noticias, novedades y última hora sobre el mundo del videojuego, cine, series, manga y anime. Avances, análisis, entrevistas, tráileres, gameplays, podcasts y mucho más.
¡Suscríbete! Si estás interesado en licenciar este contenido, pincha aquí.