GeForce 6800 vs Radeon X800: Siguiente asalto.

Una nueva generación de chips y de nuevo todo por decidir. Ninguno de los dos fabricantes da un paso atrás. La batalla sigue como siempre, pero las armas son más potentes que nunca.

Ampliar

Shader

NVIDIA
Empecemos con el primero en llegar. Con la presentación de su nuevo NV40, bautizado como GeForce 6800, NVIDIA deja atrás los malos tragos que le ha hecho pasar la anterior familia de chips NV3x, GeForce FX, cuyo reciente FX5950 Ultra ha sido el único capaz de plantar cara al archienemigo ATi y sus Radeon 9xxx. NVIDIA decide optar por el borrón y cuenta nueva y nos ofrece un total replanteamiento de su hardware gráfico. Se acabó el FX, las de NVIDIA vuelven a ser GeForce 'a secas', y las cosas se han hecho mucho mejor que la última vez.

/es/node/Array
El ventilador también refrigera un conjunto de MOSFETS tras los Moles

El Hardware
Lo primero que llama la atención de las 6800 Ultra es su impresionante aspecto. Aunque mantiene las mismas dimensiones que las 5950, el enorme disipador que la cubre casi por completo se eleva hasta obligarnos a invertir dos slots en su colocación. Ese enorme conjunto de disipación, sumado a las dos tomas de corriente en uno de sus extremos, nos hacen pensar rápidamente en tres cosas: ruido, consumo y calor, mucho calor. La cosa se complica aún más cuando vemos las recomendaciones de NVIDIA. Deberíamos contar con una fuente de al menos 480W y destinar dos de sus conexiones 'molex' para la GeForce, nada de ladrones o cables en Y.

La tarjeta ocupa dos slots
El aire del ventilador no sale hacia el exterior

Llegamos a entender estos requerimientos cuando vemos las especificaciones de la tarjeta. Bajo tan enorme disipador se esconde el procesador gráfico más complejo jamás creado, construido por IBM bajo las consignas de NVIDIA con tecnología de 0.13 micras. 222 millones de transistores con la única función de asombrar a nuestros ojos. Para hacernos una idea de la complejidad de este mastodonte reseñar que el actual Pentium 4 no llega a los 180 millones de transistores.

Inmediatamente sobre la el chip gráfico o GPU se encuentra otra interesante peculiaridad de las 6800Ultra. El enorme disipador que lo cubre basa su funcionamiento en una pequeña cantidad de líquido que alberga en el interior de un circuito de pequeños conductos. Este líquido cuenta con la propiedad de hervir y convertirse en gas a temperaturas mucho más bajas que el agua. Aprovechando esta circunstancia se crea un circuito dentro del cual el líquido se transforma en gas en la zona que está en contacto con la GPU, viaja en ese estado hacia el ventilador, cuya corriente de aire permite que vuelva al estado líquido y así volver a viajar por otra tubería hacia la caliente GPU y repetir el proceso. Esta es una forma más efectiva de disipar calor que la de la clásica corriente de aire directamente sobre el disipador.

Vista cenital de la nueva tarjeta de NVIDIA
Ventilador con el logo de NVIDIA
La muestra recibida disponía de 2 salidas DVI, pero no de VGA

Rodeando a la GPU se encuentran los 256 MB de memoria GDDR3. El diseño del PCB permite que todos ellos estén situados en la misma cara de la tarjeta, lo que a su vez permite que todo el conjunto quede refrigerado por un solo disipador. Además, este tipo de memoria consume menos que la clásica DDR y produce menos calor.

Aquí podéis ver el "blower" de la tarjeta
El disipador que cubre el chip y los de las memorias
El NV40 al descubierto
El contacto entre el disipador y las memorias se mejora mediante almohadillas térmicas
La tarjeta es tan larga que sobrepasa los zócalos DIMM

Una vez hemos salvado todas las dificultades de requerimientos e instalación, nos falta comprobar qué es lo que realmente ofrece el nuevo NV40. Entre todas las nuevas especificaciones tenemos que empezar destacando que es el primer chip con 16 canales de renderizado reales, no 8x2 como chips anteriores. De este modo el nuevo chip renderiza como mínimo el doble de píxeles por ciclo de reloj que las GeForce FX, pudiendo llegar cuadruplicarles en determinadas condiciones de sombreado.

Tuvimos que usar un adaptador DVI-VGA

La segunda característica de esta nueva familia de tarjetas que más nos ha gustado es la inclusión de un procesador paralelo para cumplir exclusivamente con las funciones de codificación y compresión de vídeo. Este segundo procesador puede llegar a funcionar completamente autónomo a la GPU principal y se encargará de realizar la compresión y descompresión de vídeo MPEG, ya sea 1, 2 ó DivX y del entrelazado, escalado y filtrado del vídeo y su sincronización con el audio. Para ello NVIDIA está trabajando con el apoyo de Microsoft sobre su reproductor Windows Media. Pero no sólo eso; además presenta codificador de televisión y soporte completo para la inminente televisión de alta definición (HDTV).

Sin embargo, mirando al medio plazo, seguramente la mayor innovación del NV40 viene dada por sus nuevas funciones gráficas. NVIDIA presenta a los desarrolladores de juegos un gran aumento de sus posibilidades gracias a tecnologías como CinemaFX 3.0, destinada a permitir una iluminación que aseguran podrá confundirse con la realidad, la UltraShadow II, destinada a ahorrar recursos eludiendo procesar aquellas zonas de la escena ocultas a la vista, o la HPDR (High-Precision Dynamic-Range), cuyo objeto es imitar el comportamiento del ojo humano ante los desajustes luminosos. A destacar la llamada IntelliSample 3.0, que no es más que una forma más efectiva de calcular el color de los bordes de un objeto y del fondo que lo rodea de modo que el antialiasing sea más efectivo. No queremos entrar en los detalles técnicos de estas tecnologías dado que ese no es el fin de este artículo y además están disponibles en la web de NVIDIA y muy pronto lo estarán en la de ATi, los cuales presentan nuevas funciones muy similares a estas. XX Lo que sí parece claro es que un buen aprovechamiento de estas tecnologías por parte de los desarrolladores nos abren las puertas a una hacia otra escalada en la calidad visual de los mismos.

La 6800 en nuestro banco de pruebas
Los chips de memoria son de 1.6 ns
La muestra recibida está marcada como NV40 revisión A1

Una vez conocemos las expectativas que depara el nuevo abanderado de NVIDIA, nos falta verle funcionar. Nos sorprende el arranque de la tarjeta. El ventilador emite un ruido que se nos antoja demasiado alto, si bien se reduce sensiblemente una vez termina el arranque de Windows. Aunque ruidoso el conjunto de refrigeración cumple con su propósito desprendiendo muy poco calor, poquísimo si lo comparamos con las 'ardientes' 9800XT.

La tarjeta funciona sin problemas en una fuente de 350W. Si bien la inmensa mayoría de los PCs domésticos o de oficina montan como máximo esta potencia, si vamos a gastarnos lo que cuesta esta tarjeta, sería muy recomendable gastarse un poco más y meter una fuente de 500W. Si NVIDIA ha recomendado públicamente su uso, es por algo. También hay que tener en cuenta la recomendación de no usar ladrones o cables en Y para alimentar la tarjeta gráfica. Más que una recomendación… sencillamente si no lo hacemos el ordenador no arrancará. Desde la BIOS se nos mostrará un mensaje informando de que la tarjeta gráfica no cuenta con la suficiente energía.

No sabemos si la versión final de la 6800 carecerá de salida VGA

Algo parecido ocurre con las salidas de vídeo de la tarjeta. Hasta ahora las más básicas sólo traían una conexión VGA para los monitores de tubo CRT 'de toda la vida'. Luego están las que además añaden salida de S-Video y por último las que además incluyen una salida DVI para monitores digitales. En el caso de las GF6800 se prescinde de la salida analógica y sólo se ofrecen dos salidas DVI. Aunque las pantallas TFT y los monitores digitales cada vez son más numerosos, la mayoría de nosotros seguimos usando CRT. Es más, los jugadores tenemos claro que no hay color a la hora de jugar en un buen monitor 'de tubo' o en uno de los pequeños y caros TFT. Es ahora cuando empiezan a aparecer TFT con tiempos de refresco 'dignos' que empiezan a permitir jugar sin problemas. Partiendo que el producto de NVIDIA está directamente dirigido a los jugadores, es muy extraño que haya obviado así sus preferencias. Gracias a Dios hay adaptadores DVI/VGA…

La tarjeta requiere dos conexiones de corriente

Si bien estos requerimientos dan la impresión de ser muy perjudiciales para NVIDIA, dado que deja a su producto fuera de las posibilidades de la gran mayoría de sus potenciales compradores, son conscientes de que se trata de un producto para una minoría de hardgamers que, evidentemente, tienen un gran presupuesto para hardware y no tendrán demasiados problemas para cambiar la fuente o incluso de monitor. El resto de los mortales optaremos por comprar las versiones 'modestas', con menos prestaciones, sí, pero que ocupa sólo un slot, salida VGA, requiere una sola conexión Molex y menos potencia.

La muestra recibida disponía de 2 salidas DVI, pero no de VGA

A este respecto, ya conocemos los movimientos que tiene previstos NVIDIA con sus nuevas 6800. "Hacia arriba" presentará una versión denominada 6800 Ultra Extreme, que mantiene las mismas características que la Ultra "normal" pero eleva la frecuencia del chip gráfico hasta los 450MHz. Tanto el nombre como el precio están por confirmar, pero se la espera para mediados de junio. Por debajo aparecerán como mínimo otros dos modelos de 6800. La 6800GT contará con 16 canales de render y demás características de sus hermanas mayores, pero reduce las frecuencias a 350 y 500 MHz para core y memoria. Estará en la calle a mediados de junio y costará alrededor de 399$. Ya por debajo saldrá al mercado la GeForce 6800. Sus características ya dan un bajón considerable. Por un lado sólo cuenta con 12 canales de render, luego las frecuencias se reducen a 325 y 350 (core y memoria) y por último, sólo lleva 128 MB de memoria DDR1 (el resto de las 6800 lleva DDR3). Estará en la calle a finales de este mes y su precio no llegará a los 300$.

ATi

Tan sólo unos días después de que NVIDIA presentara su hardware, ATi invitaba a la prensa a la presentación del suyo. Los fabricantes no nos dejan ni unos días para asimilar las novedades…

Salida DVI, VGA y S-VIDEO

La nomenclatura de ATi se mantiene, sustituyendo el 10 que corresponde a su nueva serie por la su número romano, la X. Así las nuevas tarjetas se llamarán X800, X600, X300, etc. Asimismo mantienen PRO y XT para definir aún más los modelos. Las que hoy nos ocupan son las dos primeras en llegar al mercado. La que hoy por hoy es su tope de gama, la X800XT y las X800PRO.

El Hardware
Cuando las vimos por primera vez, nos llevamos una pequeña desilusión. Nos esperábamos algo diferente, sobre todo después de ver el impresionante aspecto de 'las nuevas' de NVIDIA. Porque sabíamos que eran X800, si no, hasta que no hubiésemos visto sus rendimientos habríamos estado convencidos de que eran alguna nueva revisión de las 9800PRO. Tanto los PCB, disipadores y conexiones son prácticamente los mismos en ambas tarjetas, si exceptuamos el tema que ahora decora el disipador. La desilusión se torno en satisfacción cuando comprendimos que no necesitábamos ni fuente de 480W, ni otra conexión Molex, ni dos slot…

La única diferencia entre ambas tarjetas es la pegatina y los chips de memoria

De este modo, la instalación en sí no presenta ningún problema. La puesta en marcha es igual a las de las 9800XT. Al igual que éstas, no son demasiado ruidosas pero, eso sí, se calientan endiabladamente. Recordemos que en los análisis de las Radeon 9800XT que hemos hecho, a poco que las forzásemos con la herramienta Overdrive, se alcanzaban temperaturas superiores a los 100º. En las X800, aunque no hemos podido comprobar la temperatura exacta el chip, no deben estar muy lejos. Para agravar el problema, las X800, al contrario de las GF6800, reparten su memoria en las dos caras del PCB. Este detalle implica que tanto los 'retailers' como los usuarios que quieran mejorar la refrigeración, lo tienen más difícil a la hora de ser efectivos. A nuestro ver, la 9800XT quizá no necesitaba desarrollar un sistema de refrigeración más efectivo, dado que su permanencia en el mercado iba a ser muy corta, pero dado que las nuevas X800 mantienen el mismo problema, entendemos que ATi sí que se tiene que poner las pilas y sustituir el actual ventilador y disipador de cobre por 'algo' más efectivo. No dudamos que los distintos fabricantes en usar este chip van a utilizar la refrigeración para marcar diferencias respecto a su competencia.

X800Ultra y 9800XT por encima...
... y por debajo.

Una vez en funcionamiento y después de alucinar con las demos de la nueva imagen corporativa (la pelirroja Ruby), intentamos ver qué es lo nuevo que nos ofrece ATi.

El imprescindible Rage Theater

De entre todas las nuevas posibilidades en la programación y reproducción de juegos, nos quedamos con lo que ATi denomina High Definition Gaming (HDG). Han creado este término a partir de la Televisión de Alta Definición (HDTV) que tantas ventajas al parecer nos traerá. Según ATi, del mismo modo que la HDTV nos elevará a un nuevo estadio de calidad en las imágenes televisivas, gracias a la mayor posibilidad de apreciar hasta los más pequeños detalles, su nueva generación de chips gráficos harán lo propio con los juegos. Para ello se poyarán en las siguientes tecnologías:

Demo Ruby

SMARTSHADER HD. Esta tecnología abarca las nuevas posibilidades tanto sobre Píxel Shader como sobre Vertex Shader. El más importante avance lo supone la capacidad de ejecutar operaciones de sombreado con precisión de 32 bit, por encima de 700 millones de operaciones de sombreado de polígonos por segundo. Si hablamos de sombreado de píxeles se sobrepasarían los 4 billones de píxeles por segundo. Llevándolo al terreno práctico, esto supondría ser 2,5 veces más rápidas que las 9800XT.

Dentro de los nuevos SmartShader HD nos llegan nuevos efectos algunos de los cuales son.
- High Dynamic Range (HDR): Muy similar al High-Precision Dynamic-Range, tanto que casi se llaman igual. Con él se intenta conseguir imágenes no como son realmente, sino como la luz provoca que nuestros ojos las vean.
- Virtual Displacement Mapping o Parallax Mapping: Mediante él se pude dotar de un auténtico aspecto 3D a simples texturas 2D, consiguiendo que los efectos de iluminado se comporten como si realmente existiesen esas tres dimensiones.
- Profundidad de campo: Cualquier aficionado a la fotografía entiende la importancia de controlar la profundidad de campo. Esta nueva mejora permite 'ajustar el enfoque' a gusto del programador y así conseguir una imagen que, al contrario que con el HDR, no es como la vemos realmente, sino como los fotógrafos nos han enseñado a apreciarlas, destacando los objetos interesantes y difuminando los que no lo son.
- Sombras Suaves: Algo tan sencillo como efectivo. Se recalcula la forma de la sombra de modo que se ofrecen más difuminadas y realistas.
- Reflexión y refracción compleja: Un paso más adelante en el tratamiento de la luz al atravesar superficies semitransparentes como el agua o el humo. ATi va más allá permitiendo que se creen efectos a través de superficies complejas, con varias caras o planos, como por ejemplo la gema de la foto.
- Dispersión interior (Subsurface Scattering): Al igual que el anterior efecto, este busca un mejor tratamiento de la luz al atravesar objetos, en este caso cuando son traslúcidos. Calcula el grosor del objeto y su opacidad y lo ilumina acorde a lo que sería en realidad.
- Light Shaft Rendering: En un nuevo intento por mostrar la iluminación más real, se intenta reproducir como actúa la luz cuando existen partículas en suspensión, como polvo o humo, y permitiendo la creación de sombras más complejas y detalladas.
- 3Dc: Dejamos para el final la que nos parece la mejor aportación para los desarrolladores de juegos. Esta tecnología significa una clara evolución sobre los algoritmos de compresión DXTC, aún vigentes desde el milenio pasado, cuando los empezó a usar S3 (1999). Esta técnica se basa en crear 'mapas de normales'. 'Normal' es la altura de un vector. Explicándolo llanamente, lo que se hace es unir las normales de todos los polígonos que forman una escena y crear una nueva 'capa' que una las más determinantes de esas normales, intuyendo por dónde deben estar el resto. De este modo la información con la que se trabaja se reduce drásticamente, ahorrando recursos, y sin repercutir demasiado en el resultado final. Consciente de que no es fácil de entender, os invito a estudiar el siguiente gráfico…

Demo SubSurface
14.000 polígonos de ahorro gracias a un "normal map"
Demo Ruby
Demo Ruby
Demo Ruby
Demo Ruby

SMOOTHVISION HD. La nueva versión del antialiasing de ATi. Básicamente es igual al IntelliSample que ofrece NVIDIA. Actualmente mediante aliasing se puede eliminar los 'jaggies' o dientes de sierra propios de las escenas 3d a bajas resoluciones. Sin embargo las actuales técnicas de antialiasing en ocasiones provocan una sensación de reborde en los polígonos que han 'redondeado'. Se eliminan los jaggies, pero la escena sigue sin ser natural. Tanto con SmoothVision HD como con IntelliSample 3.0 se consigue ser más preciso a la hora de definir los píxeles que dibujan el borde del objeto y su fondo, difuminando mucho mejor ese borde y consiguiendo una imagen más natural.

Demo Ruby
Demo Ruby

Sin embargo ATi va un poco más allá y presenta una nueva solución a este problema bajo el nombre de Antialiasing Temporal. Con un funcionamiento similar al que acabamos de describir, lo que esta técnica hace es simultanear durante un fotograma los píxeles que se utilizan para calcular el color final de los píxeles resultantes que dibujarán el borde del objeto al que se aplica el antialiasing. De este modo se provoca un difuminado imperceptible para la vista pero que también ayuda a mejorar el resultado del antialiasing. Si bien esta técnica no consigue los mismos resultados que las clásicas, consume menos recursos.

Demo Ruby

Existen otras mejoras interesantes, como el nuevo algoritmo usado para optimizar el filtrado anisótropo u otra encaminada a ajustar automáticamente la corrección de gama y evitar así perder detalles por quedar demasiado oscuros, pero ya iremos aprendiendo más sobre ellas poco a poco.

HYPER Z HD: Se trata de una nueva revisión de todas las ventajas que ofrecen los chips ATi respecto al tratamiento y mejor aprovechamiento de la memoria. Como ya empezaron a hacer las primeras Radeon, se trata de no dibujar lo que no hace falta, lo que hay que dibujar hacerlo más rápido y almacenándolo con una mejor compresión… pero todo mucho mejor que antes. Este tipo de funciones no se ven sobre la pantalla, sino en las gráficas de rendimientos.

Demo Ruby

Esta es la teoría. Habrá que ver qué y cómo se aprovecha en el futuro.

Shader 3.0

Demo Nalu

Como no puede haber grandes lanzamientos libres de polémica, la de estos nuevos chips se llama Shader 3.0. Los nuevos Píxel y Vertex Shaders han sido reprogramados desde cero y prometen grandes cosas. Digo prometen, pero de momento 'sólo' son el arma de mayor calibre que NVIDIA tiene contra ATi, dado que sus nuevos R4xx no lo soportan.

Demo Nalu

Recordemos de forma básica que un Shader, de píxeles o de vértices, es un pequeño programa que el desarrollador utiliza para automatizar determinadas rutinas en el coloreado de los píxeles que recaen sobre el chip gráfico o GPU. Los Shaders se implementaron por primera vez en las GeForce 3 y desde entonces han recibido constantes optimizaciones. Sin embargo, los desarrolladores siempre optan por usar la versión del Shader más antigua que les es posible, intentando conseguir la máxima compatibilidad con el hardware de los usuarios.

Demo Clear Sailing

La polémica saltaba cuando NVIDIA, en la presentación de las 6800, ofrecía a la prensa capturas propias entre las que había evidente diferencia de calidad. En teoría las mejores estaban obtenidas bajo Shader 3 y las otras bajo una versión anterior de los mismos, lo que a todas luces debían ser los Shader 2. Podemos ver dichas imágenes en la cobertura que hicimos de aquella presentación. XX Sin embargo era tan evidente que las imágenes no habían sido capturadas con los Shader 2, que NVIDIA se vio obligada a reconocer que lo habían sido bajo Shader 1  (sintetizando podríamos decir que Shader 1 corresponde a los DirectX 8, Shader 2 a los DirectX 9 y Shader 3 a los DirectX 10). Y aquello fue como echar gasolina al fuego. Dado que no se daban explicaciones a por qué no se había hecho la comparativa lógica con los Shader 2, creció la sensación de que NVIDIA había intentado magnificar las bondades de sus exclusivos Shader 3 mediante esta comparación sin sentido. Sin embargo la forma tan ingenua de intentarlo ayuda a exculpar a la compañía de haberlo hecho con mala fe.

Demo Nalu

Tras varios días parece claro que las ventajas de los Shader 3, aunque evidentes sobre el papel, hoy día no pueden ser demostradas en una pantalla. Como NVIDIA necesitaba algo definitorio en la presentación de su novedad, utilizó la calidad gráfica como arma a costa de utilizar los Shader 1, consciente de que la diferencia visual entre los Shader 2 y los Shader 3 no existe.

Demo Timbury

Esta pequeña polémica tiene también su 'versión ATi'. Al parecer uno de los encargados de la presentación de sus nuevos chips descuidó sus notas para la misma y en una de ellas se podía leer algo así como: 'Intentar alejar a la gente de los Shader 3 porque esperamos que nos hagan bastante daño. (Son también la característica adicional que tiene el NV40 sobre el R420, así que desanimemos a la gente a usarlo hasta que las R5xx lo ejecuten decentemente)'. Literalmente: "Steer people away from flow control in ps3.0 because we expect it to hurt badly. [Also it's the main extra feature on NV40 vs R420 so let's discourage people from using it until R5xx shows up with decent performance...]"

Demo Timbury

De esta forma, aunque las tarjetas tienen funciones mucho más interesantes que estos nuevos Shaders, seguramente será sobre ellos sobre los que escucharemos más 'diálogo' entre ATi y NVIDIA. Según los desarrolladores, es muy sencillo reprogramar los Shader 3 sobre los Shader 2, de modo que en cuestión de semanas asistiremos a 'parcheos' de juegos como Far Cry o Breed con el soporte Shader 3. Partiendo de que los Shader 3 sólo se usarían en casos muy concretos y que la mayoría de sus novedades van más encaminadas al mejor aprovechamiento de los recursos que a una mejor calidad visual, resulta difícil esperar una mejoría destacable en estos juegos 'actualizados'. Cuando dentro de unos meses salgan al mercado juegos en los que los desarrolladores hayan pensado en los Shader 3 desde el principio, la cosa puede ser distinta. Esperamos que el salto sea tan notable como lo fue de los Shader 1 a los Shader 2. Pero para entonces ya no estaremos hablando de los X800 y GF6800.

Microsoft toma la batuta
A la hora de 'manejar' el mercado los fabricantes saben muy bien cómo y cuándo presentar las novedades y hacia dónde dirigirlas. Si hablamos de NVIDIA y ATi, estar sometidos a la presión que supone un rival semejante provoca que los lanzamientos no sigan esos criterios, sino la obligación de no quedarse atrás. Sin embargo es evidente que ninguno de los dos fabricantes iba a echar un paso atrás e iba a permitir que su directo competidor lanzase un producto que, independientemente de las mayores o menores ventajas sobre el propio, crearía la idea en los usuarios de que no habían sido capaces de estar a la altura. Por supuesto tampoco existía el campo apropiado sobre el que llegar a un 'acuerdo de no agresión'.

Los drivers recibidos para las X800(y los Catalyst 4.4) daban problemas en la demo de Sands of Time

Esto en apariencia representaría grandes ventajas para los usuarios, dado que la evolución constante de la tecnología nos agrada a todos y un mayor dinamismo en el mercado favorece a los precios. Sin embargo las cosas a nivel empresarial son bien distintas. Hay que partir del hecho de que los investigadores y técnicos no trabajan más o más rápido. Trabajan a un mismo ritmo y son los directivos de la empresa los que marcan cuándo se saca al mercado el hardware con el que estén trabajando. Si ese hardware está muy avanzado, bien. Si no lo está tanto… De este modo hemos asistido al lanzamiento de chips buenos, muy buenos y regulares. Productos en los que algunas de sus funciones no podían ser aprovechadas y que por otra parte todavía debían ser pulidos para su rendimiento óptimo. Y principalmente, muchas revisiones de un mismo chip que hacían perder toda razón de ser a sus versiones anteriores.

Mientras ahora escribo muy ufano sobre las bondades de estos nuevos chips, los técnicos de ATi están puliendo los últimos detalles de su sucesor, los R5xx y en pleno desarrollo de los R6xx. NVIDIA hace lo propio con los NV50 y los NV60. Ambas compañías están en condiciones de lanzar hardware que supere holgadamente al que hoy presentamos en cuestión de semanas. A esto se suma la circunstancia de que el hardware más avanzado, en contra de ofrecer beneficios, siempre arroja un balance negativo que, sin embargo, es fácilmente absorbido por las ganancias que producen los productos de gama media y baja, que son los que realmente dan dinero. Sacar ahora al mercado productos como estas 6800 y X800, productos muy caros de producir, suponen pérdidas para sus fabricantes. Sin embargo esas pérdidas son minucia comparada con lo que supondría el no contar con un producto puntero que evite ser pisoteado por la competencia, aunque eso sólo ocurra a nivel mediático y que en la calle estos productos supongan un porcentaje mínimo del negocio.

Problemas en la demo de Pandora Tomorrow para X800. Esto no pasa con los Catalyst 4.4 en la 9800XT

Y aquí es donde interviene Microsoft. Es evidente que esta compañía mantiene una gran influencia sobre los desarrolladores de hard. Lo vimos en la colaboración estrecha que mantuvo Microsoft con ellos en el desarrollo de sus DirectX. Primero NVIDIA, luego ATi, ahora otra vez NVIDIA… Evidentemente esta mayor o menor colaboración viene dada por otros agentes, como puede ser el desarrollo del hardware gráfico de X-Box y X-Box 2 y repercute en que uno de los dos contendientes obtenga ligeras ventajas sobre el otro, generalmente en un anterior acceso a los desarrollos de Microsoft. Lo hemos comprobado hoy mismo con el soporte de los DirectX 9.c (Shader 3.0) con el que ahora mismo cuenta NVIDIA y por el que ATi deberá esperar a su siguiente chip (R5xx)

Tanto en la presentación de NVIDIA como en la de ATi escuchamos rumores semejantes. La alocada carrera de las dos compañías de hardware ha obligado a la de software a intentar mantener su ritmo con una herramienta fundamental para los tres: Los DirectX. Ya sea por intereses o porque no está dispuesto a lanzar continuas revisiones de estas librerías, Microsoft ha transmitido algo de cordura a ambos fabricantes y les ha hecho comprender las ventajas de reducir el número de lanzamientos buscando la mayor trascendencia de los mismos. Así, de tener un lanzamiento cada seis meses, como 'soportamos' en los últimos años, los nuevos productos aparecerán cada año, perfectamente coordinados y totalmente operativos con las nuevas versiones de los DirectX. La ventaja es que serán realmente nuevas tecnologías que sí supongan los avances que todos deseamos. Entre lanzamiento y lanzamiento, cada fabricante seguirá sacando nuevas versiones de su producto jugando con frecuencias, memoria, pipelines, etc. de modo que se mantenga el necesario dinamismo del mercado.

Todo esto me sirve para explicar las circunstancias en las que hemos analizado estas tarjetas. En los pocos días que las hemos disfrutado, hemos tenido oportunidad de probar varias revisiones de sus controladores. Los últimos nos han llegado hoy y los hemos dejado fuera de la comparativa porque de repetir las pruebas seguro que nos llegarían otros antes de poder publicarlas. A esos controladores les han seguido otros de ATi. Tantos unos como otros afirman que esa actualización del software repercutirá en un aumento de más o menos el 5% en los rendimientos. Rendimientos que nos ha costado conseguir, porque en varios de los juegos que teníamos pensado utilizar, las tarjetas no funcionaban correctamente. Un ejemplo concreto es el Prince of Persia, donde dejábamos de ver la mitad de los efectos. O bien ocurre eso, o no hay posibilidades de overclockear las tarjetas, o no se puede desactivar el V-Sync, o... Personalmente hubiera preferido esperar al mes que viene para analizar las tarjetas. Ahora mismo estoy muy contento con mi 9800PRO y sobre todo desde que he sabido que no va a desaparecer del mercado. Es tarjeta más que suficiente para mí y, aunque no lo fuera, tampoco tengo el dinero que me van a pedir por una de estas. ¿Era necesario presentar los chips ya? El mercado no obliga, la competencia sí. Esperemos que los rumores sobre Microsoft tengan algo de cierto.

Las Pruebas

Equipo de pruebas

- Placa base Epox 4PDA5+, con chipset Intel i865PE
- 2 módulos 512 MB DDR400 genérica con chips infineon CAS3 8-3-3
- Pentium 4 3.4 GHz HT Bus a 800 MHz
- Disco duro Fujitsu 3.5 GB 5400 rpm 2 MB buffer IDE33 para el sistema operativo
- Disco duro Seagete 120 GB 7200.7 7200 rpm 8 MB buffer Serial ATA
- Fuente de alimentación Enermax de 350W.

Tenemos que agradecer a APP el habernos facilitado el microprocesador y la memoria y muchas gracias a Epox por prestarnos la placa base.

Tarjetas gráficas
- NVIDIA GeForce 6800Ultra (Sample)
- ATI Radeon X800Ultra (Sample)
- ATI Radeon X800PRO (Sample)
- ATI Radeon 9800XT (Retail)

De izquierda a derecha: Hercules 9800XT, X800Pro y X800XT

Windows XP Professional SP1
DirectX 9.0b

Drivers:
NVIDIA: ForceWare 60.72
ATI: Catalyst Beta 6.14.10.6444 para X800XT y X800 Pro. Catalyst 4.4 para 9800XT


Call of Duty
Últimamente nos gusta bastante este juego para las comparatias. Tiene el motor que tiene y hay que incluirlo. Sin embargo es uno de los que nos ha dado algún problemilla. Como veréis en la gráfica, no fuimos capaces de desactivar la protección V-Sync para hacer los test con la GeForce. Que para qué lo hemos incluido entonces?... Sencillamente para que comprobéis cómo existe un cuello de botella ajeno al hardware gráfico. Las tres ATi, independientemente de las grandes diferencias que existen entre ellas, rinden "demasiado" parecido.

Configuración Call of Duty
Configuración Call of Duty

Colin McRae
Con este test nos pasa algo parecido al anterior. Las cuatro gráficas rinden muy parecido. Esa escasa diferencia, sobretodo respecto a la 9800XT, indica que no están dando todo lo que pueden dar. Hay que aplicar todos los filtrados y alta resolución para descolgar a una de ellas.

Configuración Colin MacRae 4

Need for Speed: Underground
Un segudno juego de conducción, esta vez algo más exigente. Vemos cómo la NVIDIA marca una apreciable diferencia, pero la 9800XT sigue aguantando las formas.

Configuración Need for Speed Underground
Configuración Need for Speed Underground

Max Payne II
Vamos a ir complicando poco a poco las cosas. Las texturas de este juego suelen pasar altas facturas a las VGAs. En esta comparativa vemos cómo todas las tarjetas siguen funcionando sin esforzarse demasiado para moverlo a más de 100 FPS. Sin embargo vemos cómo la 9800XT comienza a quedarse descolgada a medida que vamos subiendo la resolución.

Configuración Max Payne 2

Halo
Este es un juego curioso para hacer comparativas de gráficas. Aún sin tener unos gráficos sobresalientes, su origen consolero le marca con el estigma de una mala optimización. Las VGAs sencillamente se atascan. En este caso destaca lo bien que resuelve el problema la NVIDIA, si bien es el chip que más se resiente cuando aumentamos las exigencias del test, hasta ser finalmente alcanzado por la X800XT.

Configuración Halo

Splinter Cell: Pandora Tomorrow
Ya empezamos con palabras mayores. Splinter es el primero de los juegos que nos da la bienvenida a su nueva generación. Aprovecha muy bien los Shaders y su iluminación en general es de sobresaliente. Los rendimientos no son tan altos. Todas las tarjetas lo corren de maravilla, pero los dos samples de ATi empiezan a hacer cosas raras cuando aplicamos los filtros. Podéis ver un par de pantallazos para entender a lo que me refiero. Los drivers facilitados por ATI hacían que la sombra de Sam no se representara y que hubiese problemas en el modelo del personaje cuando se activaba el antialias. Este problema no sucede con los Catalyst 4.4.

Configuración Splinter Cell Pandora Tomorrow
Problemas en la demo de Pandora Tomorrow para X800. Esto no pasa con los Catalyst 4.4 en la 9800XT

La NVIDIA sigue acusando más que el resto el salto de 1024 a 1280 y la aplicación de filtrados.

Pandora Tomorrow en una 6800 con los ForceWare 60.72
Pandora Tomorrow con Catalyst 4.4 en una 9800XT
Y en una X800XT con los drivers que nos ha enviado ATI (fijaos en la sombra)

X2: The Threat
Si alguien hace una semana me hubiera pedido que dibujara una gráfica con los rendimientos que yo pensaba iban a tener estas tarjetas, hubiera dibujado una idéntica a esta. Los dos chips más potentes mantienen su paridad, la PRO acusa su falta de fuerza bruta y la 9800XT queda descolgada.

Configuración X2 The Threat

Far Cry
Y con él llegó el escándalo. Por curiosidad hicimos la prueba de jugarlo sin parchearlo y efectivamente la pérdida de calidad es impresionante. La 6800 con la versión 1.0 funciona como si no tuviera pixel shaders, como podéis ver en las imágenes. Es necesario el parche 1.1 para poder ver los efectos igual en las ATI que en la 6800. Una vez lo parcheamos, no tuvimos el más mínimo problema. En los rendimientos vuelve a destacar la poca diferencia a la que queda la 9800XT. Lo que está claro es que este test hay que repetirlo muy pronto, en cuanto esté disponible la posibilidad de hacerlo con los Shader 3.0 activados.

Configuración Far Cry
Far Cry 1.0 en una 6800
Far Cry 1.0 en una 6800
Far Cry 1.0 en una X800XT
Far Cry 1.1 en una 6800
Far Cry 1.1 en una 6800
Far Cry 1.0 en una X800XT

3D Mark 2003. Game 1 & 2
Aunque no somos amigos de los benchmarks "sintéticos", no podemos dejar de meter al menos uno.

Para estos tests con 3DMark, "máxima calidad" significa el mayor nivel de AA y FA de que eran capaces las gráficas: AA8X - FA16X para NVIDIA y AA6X - FA16X para ATI. En ambas gráficas nos llama la atención una cosa ¿por qué se le atraganta tanto la máxima calidad a la 6800?. También es de destacar lo poquito que gana con el overclocking, síntoma de que en los límites en los que se está moviendo influye algo más que la carga gráfica.

3D Mark 2003. Game 3 & 4
Bastante más interesantes que los anteriores, estos test nos dan una buena muestra de lo que puede lograr el overclocking y de que los filtrados aún nos lo ponen difícil.

3D Mark 2003. Texturado
En las siguientes dos gráficas veremos qué diferencias hay en los chips a la hora de afrontar mayores números de capas de textura. En teoría los 16 canales de textura se tienen que lucir aquí...

Efectivamente las diferencias respecto a las 9800XT son grandísimas. Las X800PRO y sus 12 canales también queda un poco descolgada. En cuanto a las de 16 pipelines, es curioso ver cómo las NVIDIA sobresalen cuando la carga de texturas es menor y que cuando esta aumenta es la ATi la que la supera.

3D Mark 2003. Shaders
En este test la NVIDIA están en desventaja porque no se valora su superioridad en este apartado, al no tenerse en cuenta las funciones de los Shader 3.0 que sólo ella soporta.

Los nuevos chips por fin empiezan a justificar claramente su existencia. Es aquí donde más partido se las va a sacar. Una buena programación de los sombreados con un hardware como este promete llegar a escenas increíbles. Basta ver cómo la 9800XT hace aguas de forma más que evidente. El futuro va por este camino... 

3D Mark 2003. RagTroll & Global
En los cálculos del test RagTroll destaca la 6800, que por primera vez se resiente menos que las ATi al realizar filtrados.

Y para acabar, el global de todos los test. En las resoluciones más bajas la igualdad parece indicar que hay algún condicionante que impida a las tarjetas rendir más. O eso o están tan igualadas que sólo unas milésimas las diferencian. Lo cual no es probable. Así que nosotros prestaríamos más atención a los test hechos con los filtrados. Hemos comentado ya cómo las NVIDIA aún soportan peor que las ATi la sobrecarga de filtrado. En este gráfico vemos también cómo las ATi se resienten por lógica con el aumento de la resolución, pero que no aflojan tanto subiendo los filtrados. Parece ser que la ecuación ideal para ganar calidad sin perder rendimiento para las NVIDIA sería aumentar la resolución y dejar los filtros, mientras que para las ATi sería mantener la resolución y subir los filtros.

Calidad de imagen:

Lo cierto es que hemos tomado capturas de la misma escena de Colin Mac Rae 4 con las diferentes tarjetas y modos de AA y es muy difícil elegir un ganador. Queda probado que las NVIDIA por fin han conseguido superar su problema en este apartado. Si os descargáis los BMPs sin comprimir (2.3 MB), veréis cómo el AA6X de ATI y el AA8X de NVIDIA difieren en muy poquito, sólo en la sombra que arrojan los árboles del fondo. Os proponemos descargaros estos BMPs y juzgar por vosotros mismos.

NVIDIA AA8X FA16X (2.3 MB)
NVIDIA AA8X FA16X (2.3 MB)

ATI AA6X FA16X (2.3 MB)
ATI AA6X FA16X (2.3 MB)

NVIDIA AA4X FA16X (2.3 MB)
NVIDIA AA4X FA16X (2.3 MB)

ATI AA4X FA16X (2.3 MB)
ATI AA4X FA16X (2.3 MB)

NVIDIA AA4X FA8X (2.3 MB)
NVIDIA AA4X FA8X (2.3 MB)

ATI AA4X FA8X (2.3 MB)
ATI AA4X FA8X (2.3 MB)

Controladores
En estos compases del lanzamiento, los controladores son mejorados en cuestión de horas. De aquí a pocos meses las tarjetas habrán ganado bastante en rendimientos y estabilidad a fuerza de software. De todos modos, y aún sabiendo que son drivers provisionales, os hemos cpaturado unos pantallazos para que podáis ver hasta dónde nos van a permitir los fabricantes que trasteemos en su hardware... por el momento.

NVIDIA

Pestaña principal de los drivers
Pestáña de la temperatura
Pestaña de overclocking
Se puede desactivar el filtrado trilineal optimizado
Pestaña de la calidad de imagen
Pestaña del escritorio y nView
Configuración del filtrado anisótropo
Configuración del AA
Pestaña 3D de los drivers

Llama la atención la existencia de una opción en los drivers para activar o no el filtrado trilineal optimizado, ya que las NVIDIA hasta ahora ofrecían este filtrado de una forma diferente al resto de fabricantes. También vemos que se ha implementado un AA8X, pero no un AA6X: de AA4X se pasa a AA8X sin pasos intermedios. El resto de las pestañas permanen invariables respecto de las últimas versiones.

Gracias al registro Coolbits, pudimos activar la pestaña de overclocking y ver que en estos drivers también aparece una forma de overclocking automático al estilo del OverDrive de ATI.

ATi

Versión de los drivers empleados
Personalización de OpenGL
Personalización de Direct3D
Pestaña 3D de los drivers

En estos drivers de ATi no hay ningún cambio frente a los Catalyst 4.4. Bueno, hay uno: no hay pestaña de OverDrive. Quizá en una próxima versión, las X800 soporten esta funcionalidad tan estimada por los amantes del overclocking seguro.

Conclusiones
La primera conclusión es que no se cumplen las expectativas más optimistas que nos habíamos hecho. Antes de probar las tarjetas habíamos oído afirmaciones sobre que esta nueva generación supondría un salto cualitativo como nunca habíamos visto. Después de ver las nuevas funciones, somos del parecer de que resultó mucho más importante, por ejemplo, la aparición de las primeras GPU (salto de TNT a GeForce) por parte de NVIDIA o la posterior implementación de los Shaders. Las novedades presentadas por ambos fabricantes son similares, variando el nombre y consiguiendo haber alcanzado una mejor o peor perfección, pero siempre por el camino marcado por los DirectX. Estas funciones en su mayoría son pequeñas mejoras visuales y optimización de efectos que ya se hacían. La gran diferencia es que con cada revisión de los Shaders se consiguen hacer efectos más complejos aprovechando mejor los recursos que, a su vez, son cada vez mayores. Eso supone un aumento aún mayor de los rendimientos.

Esos mismos rendimientos que tampoco nos han sorprendido tanto. Habíamos podido acceder a algunas hojas de rendimientos producidas por los propios fabricantes donde las diferencias con el hardware más inmediato rondaban entre el 80 y el 150%. En nuestros test hemos podido ver que aunque la Radeon 9800XT sale seriamente vapuleada, en algunos test sí que planta cara e incluso llega a superar a los nuevos chips. Eso nos enseña que buscando mucho, siempre encontraremos algún test que nos ofrezca los resultados que queremos.

Pero una cosa es que no se cumplan todas las expectativas y otra es que neguemos lo evidente. Tanto NVIDIA como ATi nos han puesto al alcance de la mano unas auténticas bestias. El salto en potencia bruta sí que ha sido muy importante. Lo hemos notado en alguno de los test. Aún usando una de las máquinas más potentes que hoy en día podemos montar, Pentium 4 3.4 GHz y 1GB de RAM, se han producido algunos cuellos de botella que creíamos imposibles en la práctica. Es decir, las gráficas podían asimilar más de lo que el resto del sistema era capaz de ofrecerles. Aquí tiene mucho que ver la arquitectura de las tarjetas. El uso de los 16 'pipelines' o canales de render reales por parte de NVIDIA supuso un salto que comprometía el producto de ATi. Lo mismo ocurre con la operaciones de punto flotante de 32bit. Por fin ATi acaba con las dudas y presenta un producto que cuenta con esas posibilidades. Así, ambas arquitecturas son muy parejas y hay que buscar las diferencias en otra parte. NVIDIA no se cansa de hablar de su soporte, exclusivo, para los Shader 3.0, mientras ATi aún siente menos cansancio en decir que realmente no aportan nada. El debate sin duda aún se extenderá mucho y con el tiempo y las ventas se verá a quién da la razón el usuario. Por el momento, comprobamos cómo las GeForce siguen con su diferencia respecto a las Radeon de las últimas generaciones; siguen resintiéndose más ante el aumento de filtrados. Tienen más fuerza bruta, pero se ven superadas en las escenas más trabajosas.

Así, mientras que en arquitectura y funciones ambos chips corren muy parejos, con vista al futuro sale beneficiada NVIDIA y sus Shader 3.0, pero esa ventaja se ve claramente superada por los problemas que pueden ocasionar los requerimientos de la tarjeta. Uno ya lleva muchos años viendo tarjetas y recuerdo que la misma sensación que tuve cuando cogí la X800 en una mano y la 6800 en la otra, ya la tuve hace muchos años. En aquel entonces también tuve una NVIDIA, y en la otra mano una 3dfx. Ambas funcionaban más o menos parecido, pero 3dfx se estaba viendo obligado a fabricar PCB tan largos que no entraban en muchas cajas o encontrar soluciones como la de hacer funcionar dos tarjetas en paralelo. Y mientras NVIDIA hacía lo mismo, al mismo precio y sin presentar ningún problema. Ahora me ocurre un poco lo mismo. Las dos tarjetas son excelentes, pero los requerimientos de la nueva GeForce me hacen pensar que la tecnología de la ATi es más acertada. Ahora mismo, después de haberlas probado, es el detalle más recurrente a la hora de tener que decidirme por una u otra. Eso sí, de comprar una ATi no aceptaría mantenerla con el sistema de refrigeración que traen los samples analizados. Para un hardware así y su interesantísima memoria GDDR3, el overclocking es un futuro inevitable y esa refrigeración no lo permite.

Si los Shader 3.0 pueden ser un as en la manga de NVIDIA, el as que ya tiene sobre la mesa es la capacidad de sus nuevas tarjetas para trabajar con vídeo por hardware. No hemos podido hacer pruebas sobre este apartado porque según NVIDIA aún no están siendo aprovechadas por los controladores de los que disponemos, por lo que no podemos opinar nada sobre sus ventajas.

Si hemos de fijarnos estrictamente en los rendimientos, dependerá de nuestros gustos a la hora de jugar y del equipo que tengamos. Influye principalmente si nos gusta jugar en monitor grande a altas resoluciones o con menos resolución pero filtros a tope. Una conclusión clara de esta comparativa es que estos nuevos chips no van a demostrar la verdadera ventaja que suponen hasta que los juegos aprovechen aún más los Shaders. Es ahí donde doblan en rendimiento a tarjetas como la 9800XT.

Y siempre hay que recordar que el precio es definitivo. Ahora mismo los precios provisionales que manejamos colocan a la 6800Ultra entre los precios de la X800PRO y la X800XT. Estos precios se van a mover bastante en cuanto las retail lleven unas semanas en el mercado y aún más cuando aparezcan las Extreme y las GT. Para los que vamos a tener que ver los movimientos desde la barrera (por falta de presupuesto) al menos tenemos garantizada una pelea bastante movidita.

Por último, quiero dejar bien claro que hemos analizado los dos primeros samples en ser ofrecidos por los fabricantes a la prensa. Esos samples aún tienen que ser optimizados y, sobre todo, tienen que ir contando con unos controladores que les saquen todo lo que llevan dentro. La comparativa se ha complicado bastante porque ambos chips daban problemas en determinadas situaciones. No hemos podido despegar los ojos de la pantalla por miedo a que en una determinada situación una tarjeta dibujase una sombra o reflejo más que la otra. De todos será conocido el problema de las NVIDIA y el Far Cry, solucionado ya mediante un parche, por lo que sabréis de qué hablamos. Esta comparativa ha sido una primera toma de contacto con los chips, muy verdes todavía, pero ya hemos recibido la confirmación de que no tardaremos mucho en recibir las primeras tarjetas 'retail'. Entonces las pruebas se enfocarán de otro modo y quizá las conclusiones también sean distintas. Esto no ha hecho más que empezar...