FX5900 Ultra: NVIDIA contraataca
ATI y NVIDIA siguen sacando tarjetas gráficas cada vez más potentes, luchando por conseguir el trono de las 3D. Cada chip de ATI se ve contrarrestado por uno de NVIDIA y el NV35 es la respuesta al Radeon 9800 Pro. Veamos si supera a su rival...
Ya hace casi un par de meses de la presentación oficial del NV35 o GeForce FX 5900. En su día dimos la noticia y os contamos las principales características del último chip de NVIDIA, pero hoy vamos a verlo en detalle ya que la compañía californiana nos ha dejado probar una tarjeta de referencia que hemos podido testear intensivamente en nuestro laboratorio de pruebas.
| La parte superior de la tarjeta |
El NV35 nace como sustituto directo del decepcionante NV30, uno de los escasos fracasos de NVIDIA en toda su historia. Y es que no sólo era el ruido que producía su sistema de ventilación, sino que pese a su precio superior, no conseguía sobrepasar el rendimiento del Radeon 9700 Pro, el chip de gama alta de ATI por aquel entonces. Con el lanzamiento del Radeon 9800 Pro, la compañía canadiense adelantaba a la americana en la carrera por el trono de la aceleración 3D, pero la reacción de NVIDIA no se hizo esperar y a mediados de Mayo se presentaba el GeForce FX5900 Ultra.
Varios son los cambios fundamentales del nuevo chip frente a su predecesor, el FX5800. En primer lugar, en vez de usar memoria DDR-2 con bus de 128 bits y 1000 MHz, se optó por emplear DDR convencional de 256 bits y 850 MHz, siguiendo el camino de las 9700 y 9800 y aumentando el ancho de banda hasta los 27.2 GB/s. Además, pese que se disminuyó la velocidad del procesador de 500 a 450 MHz, se consiguió duplicar la velocidad de los shaders. Pero aparte de todo esto, en el nuevo chip se implementaron nuevas técnicas de ahorro de ancho de banda:
- Intellisample HCT. Recordaréis que el NV30 implementaba Compresión de Color, usada sobre todo cuando se activaba el FSAA. El FX 5800 hacía que se pudiera comprimir la información sobre el color hasta una relación de 4:1, igualando el color de los píxels adyacentes dentro de un polígono. Evidentemente, esta compresión no se alcanzaba siempre, pero con el nuevo Intellisample HCT (High Compression Technology), la eficiencia se ha incrementado en un 50%. La compresión sigue siendo de 4:1, pero ahora se alcanza esa cifra más a menudo.
- UltraShadow. Esta técnica permite al desarrollador de juegos especificar en qué partes de la escena se mostrará una sombra y en cuáles no, previniendo cálculos innecesarios. Así se podrán conseguir sombras más complejas en ciertas partes. Hasta ahora, los cálculos con las sombras se hacían con el Stencil Buffer, pero el nuevo GeForce puede renderizar sombras volumétricas en una sóla pasada gracias a su soporte Stencil de dos caras, mientras que otras GPUs necesitan dos pasadas. La única pega es que el juego tiene que estar programado para aprovechar esta característica. La implementación de esta nueva tecnología da como resultado el CineFX 2.0.
| /es/node/Array |
| Parte inferior de la tarjeta, con el disipador cubriendo las memorias |
Los primeros tests del nuevo chip comentaban que NVIDIA había vuelto al trono, pero tras dos meses de nuevos drivers y benchmarks, la cosa no está tan clara. ¿Por qué? Pues porque parece que lo más importante de una tarjeta gráfica es que sea la más rápida en el test de moda, el 3DMark 2003 y eso ha hecho que FutureMark y NVIDIA hayan tenido sus desavenencias debido a los tests de una y los drivers optimizados de la otra. Finalmente, parece que las aguas vuelven a su cauce y ambas compañías colaborarán juntas de nuevo, pero los acontecimientos anteriores han propiciado la aparición de un parche para evitar drivers "demasiado optimizados" y de la afirmación de que sólo los drivers WHQL serían válidos para correr el 3DMark 2003.
Y, ¿qué hemos hecho nosotros? Pues no casarnos con nadie y probar mucho y variado, como veremos más adelante. Porque primero querréis ver la tarjeta, ¿no?
La tarjeta
| Una Siluro Ti4200-8X OTES al lado de la FX5900 para que os hagáis una idea del tamaño |
Cuando saqué de la caja la FX5900 Ultra de NVIDIA me llamaron la atención varias cosas. La primera es que es la tarjeta más larga que he visto desde los tiempos de las tarjetas gráficas Vesa Local Bus :-) Eso hace que en algunas cajas podríamos tener problemas de que toque con algún CD-ROM o algo, pero afortunadamente hoy en día, las cajas se hacen con más espacio que antaño. Lo que sí que pasa es que la tarjeta llega hasta el último zócalo DIMM de las dos placas base en la que la hemos probado: una ABIT KD7-G y una Epox 8RDA3+. Por tanto, para sacar un módulo de memoria de cualquiera de los zócalos, tendremos que desmontar la tarjeta y para montarla tendremos que tener las pestañas blancas de sujección de la RAM cerradas, o podríamos arañar la superficie de la tarjeta con tan mala suerte de cortocircuitar alguna pista.
|
|
|
| La tarjeta montada en una Epox 8RDA3+ |
El otro detalle que me llamó la atención fue el peso. No obstante, es algo a lo que hoy en día nos vamos habituando: los procesadores gráficos cada vez van más rápido y se calientan más, por lo que necesitan disipadores de mayor tamaño. Y dado que el metal (ya sea aluminio o cobre) es lo que mejor disipa, el peso de una tarjeta de gama alta de hoy en día no tiene nada que ver con el de una de hace un año.
|
|
|
En el caso de la tarjeta que nos ocupa, tenemos disipador por las dos caras. Como veis en las fotografías, sólo hay ventilador en la cara superior y está diseñado de tal manera que el aire recorra la mayor parte posible de la superficie de la tarjeta, refrescando también los disipadores dispuestos sobre la RAM de esta cara. En la parte inferior, tanto la memoria como la parte trasera del chip están refrigerados pasivamente, pero hay algunos fabricantes, como MSI que han decidido instalar un ventilador también en esta cara.
|
|
|
Y, ¿es ruidosa? Para nada. El ventilador gira según lo caliente que esté la tarjeta, por lo que en condiciones normales de temperatura, hace mucho menos ruido que la FX 5800 o que una Siluro OTES. Incluso tras pasar varios benchmarks seguidos y aumentando la temperatura del chip casi un 70%, el ventilador nunca se oyó por encima del ruido que generaban los ventiladores de la fuente de alimentación y de la caja. Sólo se notó su presencia cuando reiniciábamos el ordenador, momento en el que se ponía a máxima velocidad por unos instantes y volvía luego al modo silencioso.
| En la tarjeta de referencia vemos unas almohadillas entre las memorias y el disipador |
| El aire sale del ventilador central y refresca la superficie de la tarjeta |
Instalación y drivers
Lo cierto es que fue muy sencillo. Tras pinchar la tarjeta y arrancar Windows XP (donde tenía instalados los Detonator 44.03, últimos con certificación WHQL), el sistema operativo reconoció el hardware y lo dejó instalado.
| Si ya disponéis de una tarjeta NVIDIA con los últimos drivers, Windows detectará la 5900 |
| Tenemos que conectar la tarjeta a la fuente de alimentación |
Como siempre con las últimas tarjetas, se me olvidó conectarla a la fuente de alimentación. Cuando esto sucede con una Radeon 9700/9800, nada más encender el ordenador la BIOS de la tarjeta te avisa, pero con la FX 5900 el aviso no salió hasta que se arrancó el sistema operativo y se cargaron los drivers. Esto te obliga a tener que apagar para conectar el cable y tener que volver a pasar por el arranque del sistema operativo, pero es un mal menor.
|
| ||||
|
|
Como veis en las imágenes, los drivers son muy similares a los de cualquier otra GeForce. Vemos las típicas pestañas de superposición, calidad del renderizado, colocación de pantalla, D3D, OpenGL, etc. Destaca la pestaña de control de temperatura, donde podemos ver la temperatura de la GPU y la ambiental, además de poder configurarlo para que al llegar a cierta temperatura la tarjeta baje la velocidad de core y memoria.
|
| ||||
|
|
Y ya que hablamos de temperatura, decir que nada más arrancar el sistema el core alcanzaba los 43 grados centígrados (con una temperatura en la habitación de unos 28 grados), mientras que tras una buena tanda de tests seguidos llegó a los 73. Cierto que la superficie de la tarjeta estaba muy caliente, pero no hizo falta que el ventilador de la FX empezase a girar a pleno rendimiento, por lo que podemos decir que este sistema es mucho mejor que el de la FX 5800.
|
|
|
Entorno de pruebas
Un artículo sobre tarjetas gráficas no sería nada sin tests, así que veamos cómo hemos probado este pedazo de chip. El sistema operativo en ambos casos ha sido Windows XP con DirectX9.0a, instalado sobre un disco duro Seagate Barracuda IV de 20 GB y 7200 rpm. La GeForce FX 5900 Ultra que hemos probado llevaba 256 MB de RAM.
Sistema 1:
- Procesador Athlon XP 2100+ con bus a 266 MHz configurado a 133x13 = 1729 MHz reales (velocidad por defecto)
- Disipador Green Cooler
- Placa base ABIT KD7-G (VIA KT400)
- 2 módulos de 256 MB de memoria DDR266 Hyundai CAS 2.5 6-3-3 DDR266
- Drivers detonator 44.03 WHQL
- Drivers detonator 44.65
- Drivers VIA Hyperion 4.45
Sistema 2:
- Procesador Athlon XP 2600+ con bus a 333 MHz configurado a 166x12.5 = 2083 MHz reales (velocidad por defecto)
- Disipador Spire FalconRock II
- Placa base Epox 8RDA3+ (nForce2 Ultra 400)
- 2 módulos de 256 MB de memoria DDR400 Kingston CAS 2 5-2-2 DDR333 en modo Dual DDR
- Drivers detonator 44.65
- Drivers nForce 2 1.15
¿Por qué dos sistemas diferentes? Por varios motivos: el primero es que queríamos probar la escalabilidad de la tarjeta con combinaciones de micro y memoria más potentes. Además, de paso probábamos la compatibilidad tanto en tamaño como en drivers con dos placas diferentes con chipsets diferentes. Y por último, así tenéis referencias de dos combinaciones de micro y placa para que podáis comparar mejor con los que tengáis al alcance.
En cuanto a comparar esta tarjeta con una Radeon 9800 Pro, sencillamente no lo hemos hecho. Sois totalmente libres de ir al artículo sobre la tarjeta de referencia de ATI y comparar los puntos y frames por segundo obtenidos en los diferentes tests, pero no voy a comparar esas puntuaciones con las obtenidas con la GeForce FX. ¿Por qué? Pues porque no me parece justo para ninguno de los dos fabricantes.
Con todo el escándalo montado alrededor del 3DMark 2003, es difícil saber si realmente estamos corriendo el mismo test en ambas tarjetas. Incluso ejecutando la versión de este test con el parche 330 para evitar drivers optimizados, veréis que hay diferencia entre los últimos WHQL y los últimos filtrados. Pero no es sólo eso, sino que los métodos y opciones disponibles de antialias y fitlrado anisótropo no tienen nada que ver. Podrán tener más o menos calidad unos que otros, pero en los tests se mide la velocidad y por eso no podemos comparar el modo FA8X de la FX5900 con el 6X de la Radeon 9800 Pro, por ejemplo.
Y en cuanto a calidad de imagen, seamos sinceros. ¿Cuando estás jugando a un juego 3D te pones a parar la acción y a empezar a buscar si las texturas son más definidas en una tarjeta que en otra? Pues es la única manera de ver las diferencias entre las imágenes generadas por ambos chips y lo cierto es que tenía guardadas varias capturas de cuando hice las pruebas con la 9800 y es muy difícil percibir las diferencias. Prácticamente hay que buscarlas con lupa y ciertas apreciaciones son subjetivas, porque hay gente que le gustan las texturas lejanas muy definidas y a mí me parecen irreales (porque soy un poco míope y sin gafas veo borroso de lejos). Además, en cuanto coges una captura y la pasas a JPG, tanto en un caso como en otro se difuminan, con lo que las diferencias desaparecen. En resumen, que no sabría deciros cuál tiene mejor calidad de imagen.
Lo que sí que os puedo decir que la salida de TV de la tarjeta de referencia es de buena calidad y que el soporte nView es perfecto: conectamos dos monitores CRT de 17" a 1024x768x32 y 85 Hz, uno al conector VGA y otro al DVI mediante adaptador y se veía perfecto. Ideal para diseñadores gráficos que quieran tener el escritorio más grande posible.
Y ahora ya, pasemos a las pruebas...
La metodología ha sido la siguiente: hemos probado la FX5900 Ultra con el XP 2100+ a dos resoluciones, y luego a la resolución que suelo usar yo para jugar en mi monitor de 17" (1024x768) con el máximo antialias y nivel de filtrado anisótropo disponible en los drivers. Estos se han usado siempre en modo "Calidad". Viendo que en algunos tests el XP 2100+ hacía de cuello de botella, se han repetido las pruebas a 1024x768 con el XP 2600+. Por fin, en las gráficas se han incluido sólo las puntuaciones de la Radeon 9800 Pro a 1024x768 y 1280x1024 (1280x960 en las pruebas de UT2003), debido a que el multiplicador que acompaña al antialias o al anisótropo no es comparable. En todas las pruebas se ha usado una profundidad de color de 32 bits.
Las pruebas
3DMark 2003 build 330
Como he comentado antes, esta es la última versión del benchmark, que evita los drivers con "trucos". Aún así, vemos cómo al cambiar de los drivers WHQL a los últimos filtrados, la puntuación aumenta unos 700 puntos, suficiente para sobrepasar a la Radeon 9800 Pro. Y otra cosa interesante es el aumento de rendimiento experimentado al usar un procesador y memoria más potente: si creemos a FutureMark, el benchmark es bastante independiente de estos parámetros, por lo que la explicación sería que estamos aprovechando más la tarjeta gráfica con el XP2600+ con el nForce2.
| Resultados 3DMark 2003 |
3DMark 2001SE build 330
Sí, ya lo sé, este es un benchmark DX7/DX8 y estamos testeando una tarjeta DX9. Pese a su "antigüedad" este test sigue gustándome hoy en día, porque quizá sea el que refleje más lo que podemos ver en los juegos actuales. El caso es que las pruebas realizadas nos dicen que sin filtros, la Radeon 9800 Pro es más rápida que la FX5900 Ultra, excepto si montamos la tarjeta de NVIDIA en un sistema más rápido. Es interesante observar como la activación del AA8X hace disminuir el rendimiento a la mitad, mientras que si usamos filtrado anisótropo 8X, la pérdida es mucho menor. También se aprecia una disminución global del rendimiento con los drivers filtrados.
| Resultados 3DMark 2001 SE |
CodeCreatures
Ya sabéis lo exigente que es este test para cualquier tarjeta, pero por algún motivo, parece que funciona bastante mejor en el modelo de NVIDIA. Fijaos también que cuando aumentamos la potencia del micro y la memoria, el rendimiento sube más de un 10 %, ya sea porque el test depende mucho del procesador o de que el XP 2100+ se queda corto para mandarle los datos al FX 5900 a la velocidad suficiente.
| Resultados CodeCreatures |
GunMetal
Este juego de Yeti Studios es nuestra última adición a la lista de benchmarks. Hemos usado el benchmark que está disponible públicamente (desde el 20 de Junio) y que admite dos benchmarks diferentes. Este juego está programado con el Cg de NVIDIA y estará disponible próximamente para PC y Xbox. Podéis ver más información sobre el juego en la página de sus programadores: http://www.yetistudios.com/
El juego es un arcade de gráficos espectaculares, en el que manejaremos un robot transformable en avión, al estilo de los "mechas" japoneses de Robotech o de los Transformers. En la página de NVIDIA podemos leer la siguiente información que el juego nos mostrará efectos de 'Motion Blur', refracción realista para el agua, 'Occlusion Query' para efectos de destello realistas y uso de buffers en coma flotante de 128 bits, permitiendo mayor colorido y efectos.
Pero bueno, vamos a lo que interesa, los benchmarks... En este juego no hemos fijado el AA desde los drivers, sino desde dentro del juego, ya que sólo permite usar AA2X y AA4X. Desde luego, en una Siluro OTES Ti4200-8X va a saltos por completo a 1024x768x32 con el AA2X, pero en la FX 5900 va mucho más fluido, aunque en el benchmark 1 nunca llega a los 30 fps ni siquiera con el sistema más potente. En el benchmark 2 la cosa va algo mejor (es una secuencia que transcurre en el modo jet en su mayor parte, por lo que hay menos suelo que renderizar), pero tampoco es para tirar cohetes. Es lo que pasa con los benchmarks nada más salir, que te asustan cosa mala y empiezas a pensar en cambiar de PC :-)
|
|
En cualquier caso, vemos cómo los drivers más modernos rinden menos que los WHQL y que el paso de AA2X a AA4X apenas se deja notar (lógico, con lo exigente que es el juego).
Demo Unreal Tournament 2003
Como ya sabéis, el test en modo BotMatch pide bastante procesador para funcionar de forma fluida. No hay más que fijarse en lo parecidas que salen todas las puntuaciones hasta que usamos el micro más potente. Está claro que cualquiera de las tarjetas gráficas de última generación necesita un micro a la altura de las circunstancias.
| Resultados UT2003 BotMatch |
El test FlyBy es otra historia, pero también depende bastante de la CPU. La tarjeta de NVIDIA gana a la de ATI por muy poco en las pruebas sin flitros. Cabe destacar que con el AA8X el rendimiento no desciende un 50% y que al activar el Filtrado Anisótropo apenas afecta a los frames por segundo (a no ser que lo combinemos con el AA8X, claro).
| Resultados UT2003 FlyBy |
Dado que era una tarjeta de referencia, hemos omitido las pruebas de overclocking. Lo cierto es que intenté hacerlas, pero no encontré el software apropiado que me funcionase con los Detonator 44.65. Cuando recibamos tarjetas destinadas al usuario final, haremos las pruebas pertinentes de esta categoría.
Conclusión
Como en el caso de la Radeon 9800 Pro nos enfrentamos a toda una bestia de la aceleración gráfica 3D. Cualquiera de las dos tarjetas moverá con fluidez cualquier juego actual y futuro (restringiendo futuro a dos años como mucho) a máxima resolución y con el máximo antialias (8X para NVIDIA, 6X para ATI) y filtrado anisótropo (8X para NVIDIA, 16X para ATI) disponible. Como ya he comentado no voy a comparar ambas tarjetas en estos apartados porque son diferentes modos de hacer las cosas, pero viendo las gráficas de la Radeon 9800 Pro podemos decir que andan muy parejas, ganando cada una en unas pruebas y perdiendo en otras.
Pero cuando uno prueba una tarjeta de estas características sabe que el rendimiento va a ser impresionante, tanto como el precio, como pasa con las tarjetas basadas en el último chip de ATI. Ahora mismo, puedes adquirir una Radeon 9800 Pro de 128 MB por unos 440-520 euros vía Internet en una tienda nacional, pero todavía no disponemos de los precios de las tarjetas de NVIDIA en tienda (aunque se rumorea que podría llegar a los 600 euros en el modelo de 256 MB de Creative, por ejemplo). Es evidente que son tarjetas para ese pequeño segmento de público que quiere lo último y lo mejor, sin importarle el precio.
Y os preguntaréis, "¿y cuál compro?". Difícil elección, siempre que tengas el dinero. Lo cierto es que yo no sabría por cuál decantarme, dada la similitud en el rendimiento, calidad de imagen y compatibilidad de los drivers, así que mira las gráficas de nuestros artículos sobre ambas tarjetas y observa en qué pruebas es mejor una que otra, quizá puedas decidirte en función de las pérdidas de rendimiento cuando activas un filtrado o el antialias. Pero claro, eso no puede garantizarte que vayan a tener la misma pérdida de rendimiento en tu juego favorito... Chicos, cada vez es más difícil elegir tarjeta gráfica de gama alta. Menos mal que no tengo tanto dinero como para encontrarme en esa tesitura :-) Quizá cuando empiecen a aparecer los modelos de los diferentes fabricantes, la inclusión de juegos en el paquete o de entrada de vídeo nos haga decidir por una tarjeta en concreto...