Jon Hernández, experto en IA, revela el nuevo modelo que llega para cambiarlo todo: “Es un antes y un después”
El divulgador español enmarca el nuevo avance de Google como un salto real en razonamiento y creación de software, no como una mejora menor de laboratorio.


Jon Hernández no está hablando de una actualización menor ni de una de esas iteraciones que sólo interesan a quienes viven pendientes de los benchmarks. Su tesis, repetida en distintos formatos durante las últimas semanas, es bastante más agresiva. Para el divulgador español, Google ha encontrado en Gemini una vía para cambiar de verdad el equilibrio de fuerzas en la inteligencia artificial, hasta el punto de hablar de un “antes y un después” y de un modelo que, sencillamente, juega en otra liga.
@vextria_agency Olvida todo lo que creías saber sobre los límites de la IA. ¡Lo de Gemini no tiene sentido! 🤯🚀 Jon Hernández lo dice claro: esto no es la típica mejora aburrida de un 5% a la que nos tienen acostumbrados. Estamos ante un salto de nivel histórico que dobla la puntuación de GPT-5 en pruebas de rendimiento brutales. Ya no son gráficas teóricas; es una diferencia tan bestia que la notas al instante cuando programas o creas webs. Estamos en ese punto de "antes y después" donde la tecnología se vuelve tan inteligente que asusta. Si tu infraestructura digital sigue en el ayer, te estás quedando fuera de la liga donde Gemini ya está jugando. 🎙️ Vía: La Fórmula del Éxito | Podcast | @jonhernandezia@taramonication@urisabat Síguenos para más contenido 👉 Vextria #IA #fyp #inteligenciaartifical #gemini
♬ sonido original - vextria - vextria
El mensaje que ha circulado en redes empuja precisamente en esa dirección. Hernández sostiene que ya no se trata de la típica mejora “aburrida” del 5%, sino de una diferencia que se percibe al instante cuando se programa, se automatizan tareas o se crean webs. Esa idea encaja además con lo que él mismo ha venido publicando en sus propios canales. A finales de diciembre describió Gemini 3 Flash como un modelo “absurdo” que marca “un antes y un después por coste”, porque hace viables tareas que antes, directamente, no compensaban. Y pocos días después redobló la apuesta al presentar Gemini 3.1 como “el mejor modelo en casi todo”.
Hernández lleva tiempo comparando la evolución de Google con la de OpenAI y, cuando habla de GPT-5.1, lo hace en términos bastante más fríos. En uno de sus análisis explica que esa versión mejora entre un 2% y un 3% respecto a GPT-5 en programación y tareas generales. Es decir, justo el tipo de subida incremental que él contrapone ahora al salto de Gemini. La comparación, por tanto, no se entiende sólo como una guerra de marcas, sino como una diferencia entre refinar lo existente y presentar un modelo que empuja más fuerte en razonamiento, coste y velocidad.
Un golpe de mano por parte de Google
Los datos oficiales de Google ayudan a entender por qué Hernández está cargando tanto las tintas. La compañía lanzó Gemini 3.1 Pro el 19 de febrero de 2026 y aseguró que el modelo alcanzó un 77,1% verificado en ARC-AGI-2, una prueba pensada para medir razonamiento ante patrones lógicos nuevos. Google afirma, además, que ese resultado supone más del doble del rendimiento de Gemini 3 Pro en ese benchmark. En paralelo, la firma ha mostrado al modelo creando gráficos SVG animados listos para web, cuadros de mando complejos e interfaces interactivas a partir de un simple prompt, justo el tipo de demostración que alimenta el discurso de Hernández sobre una diferencia visible en el trabajo real.

A eso se suma el otro gran frente que él lleva semanas subrayando: la eficiencia. Google presentó Gemini 3 Flash como un modelo capaz de superar a 2.5 Pro siendo tres veces más rápido, con un 30% menos de tokens de media y un 78% en SWE-bench Verified para tareas de programación agéntica. Esa mezcla de velocidad, coste y rendimiento es, probablemente, la base de su insistencia. No basta con que un modelo sea mejor en una tabla comparativa. Tiene que abaratar procesos, acelerar flujos y volver normal lo que hace apenas unos meses parecía una extravagancia técnica.
Sin embargo, hay que tener en cuenta ese tipo de benchmarks no basta por sí solo para concluir que un modelo “cambia todo” o que deja atrás de forma indiscutible a toda la competencia en cualquier uso. En inteligencia artificial, el rendimiento real sigue dependiendo del contexto concreto, del tipo de tarea y, sobre todo, de cómo se comporta el sistema fuera de las demos y pruebas controladas.
Noticias relacionadas
Sigue el canal de MeriStation en Twitter. Tu web de videojuegos y de entretenimiento, para conocer todas las noticias, novedades y última hora sobre el mundo del videojuego, cine, series, manga y anime. Avances, análisis, entrevistas, tráileres, gameplays, podcasts y mucho más.
¡Suscríbete! Si estás interesado en licenciar este contenido, pincha aquí.


Rellene su nombre y apellidos para comentar