Tarjetas Gráficas

Review: Tarjeta gráfica ASUS Republic of Gamers Strix RTX 2080 Ti OC

Analizamos la tarjeta gráfica ASUS Republic of Gamers Strix RTX 2080 Ti OC, una solución impresionante para el gaming con soporte para Raytracing y DLSS.

La nueva generación de tarjetas gráficas NVIDIA Turing ha sido desarrollada para llevar el gaming a un nuevo nivel. El máximo exponente de estas gráficas es la NVIDIA GeForce RTX 2080 Ti. Ya de por si esta gráfica es excelente pero ASUS le ha dado una vuelta de tuerca. En este caso tenemos la ASUS Republic of Gamers Strix RTX 2080 Ti OC, que es una auténtica monstruosidad de tarjeta gráfica. Se ha instalado en este caso un potente disipador para mantener muy bien controlada la temperatura de esta gráfica.

Características de la ASUS Republic of Gamers Strix RTX 2080 Ti OC

El silicio TU102 de las RTX 2080 Ti de NVIDIA cuenta con un total de 4352 CUDA Cores, 544 Tensor Cores y 68 RT Cores. En el caso de este modelo de ASUS cuenta con una frecuencia base de 1350MHz que en modo Boost llega a los 1650MHz en el modo Gaming. Esta tarjeta gráfica cuenta con un modo overclocking cuya frecuencia básica se mantiene pero en modo Boost puede llegar a los 1665MHz. La GPU esta acompañada de 11GB de memoria GDDR6 trabajando a una frecuencia de 14GHz

Respecto a la conectividad esta tarjeta gráfica dispone de dos conectores HDMI 2.0b, dos conectores DispayPort 1.4, un puerto HDCP y un puerto USB Type-C. Cuenta esta tarjeta gráfica con un conector NVLink. Para la alimentación esta tarjeta gráfica cuenta con dos conectores PCIe de 8 pines.

Esta tarjeta gráfica además cuenta en su disipador con el sistema de iluminación Aura Sync RGB que permite sincronizar todos los componentes de ASUS de nuestro sistema. Se ha implementado también un sistema de Dual BIOS para poder devolver los parámetros de fabrica en el caso que hagamos overclocking a la gráfica o actualicemos la BIOS y algo vaya mal en el proceso.

Sistema de refrigeración de la ASUS Republic of Gamers Strix RTX 2080 Ti OC

ASUS ha dispuesto para esta tarjeta gráfica un disipador de grandes dimensiones para refrigerar correctamente la GPU. El radiador de esta tarjeta gráfica dispone de un grosor de 2.7 ranuras PCIe. La superficie del radiador se ha aumentado un 20% con respecto al radiador de la serie Pascal que permite mejorar en la disipación y ofrece la posibilidad de un mayor overclocking.

El disipador dispone de un sistema de refrigeración de triple ventilador de tipo axial. El ventilador se ha mejorado con un borde exterior reducido que ha permitido alargar las aspas del ventilador. Esto ha permitido un aumento en la presión del aire.

Gracias al gran disipador, esta gráfica cuenta con la tecnología 0dB. Esta tecnología permite que el ventilador no funcione hasta que la tarjeta gráfica llegue a una temperatura de 55ºC.

Destaca también que el disipador cuenta con la tecnología Max Control. Esta tecnología lo que nos ofrece es una superficie de contacto con la GPU mejorada, que permite una mejora en la transferencia térmica.

Tecnologías especiales de la ASUS Republic of Gamers Strix RTX 2080 Ti OC

Se ha desarrollado por parte de ASUS un nuevo sistema de producción para sus componentes. La compañía usa la tecnología Max Control, la cual ha sido desarrollada para la automatización del proceso de producción de una gráfica. Básicamente lo que nos ofrece es la reducción del tiempo de fabricación mediante un sistema  de soldadura única.

Al implementar este sistema de soldadura única se reduce la cantidad de estrés térmico que sufren los componentes y se usan menos productos químicos. Esto a su vez tiene un menor impacto ambiental, se reduce la cantidad de energía necesaria para la fabricación y además ofrece un producto cada vez más fiable.

Los ingenieros de ASUS además han desarrollado un sistema de refuerzo para el chasis que le da más consistencia. Para ello se ha implementado un sistema de refuerzo para el chasis más allá del backplate para evitar que se doble la tarjeta gráfica y sufra daños.

Tecnología NVIDIA HDR

La tecnología NVIDIA HDR es una mejora cualitativa más que cuantitativa en la experiencia de juego. Framerates más altos y resoluciones más altas son cualidades conocidas. Una resolución más alta significa una posibilidad de detalle mejor, mientras que los framerates más altos significan un juego y un vídeo más fluidos. La tecnología de frecuencia de actualización variable pronto siguió, resolviendo el dilema del retardo en la entrada de V-Sync, aunque una vez más llevó tiempo llegar a donde está ahora.

Para las pantallas de juego, el HDR era sustancialmente diferente de añadir detalles gráficos o permitir una jugabilidad y reproducción más suaves, porque significaba una nueva dimensión de “colores más posibles” y “blancos más brillantes y negros más oscuros” en los juegos. Debido a que la capacidad del HDR requería el apoyo de toda la cadena gráfica, así como un monitor y contenido del HDR de alta calidad para sacar el máximo provecho, fue más difícil mostrarlo. Además de los otros aspectos de los gráficos para juegos de alta gama, y a la espera de un mayor desarrollo de la VR, este era el futuro de las GPU.

Pero hoy en día NVIDIA está cambiando de rumbo, yendo a la forma fundamental en que se modelan los gráficos de ordenador en los juegos de hoy en día. En los procesos de renderizado más realistas, la luz puede ser emulada como rayos que emiten desde sus respectivas fuentes, pero calcular incluso un subconjunto del número de rayos y sus interacciones (reflexión, refracción, etc.) en un espacio delimitado es tan intensivo que el renderizado en tiempo real era imposible. Pero para obtener el rendimiento necesario para renderizar en tiempo real, la rasterización esencialmente reduce los objetos 3D a representaciones 2D para simplificar los cálculos, falsificando significativamente el comportamiento de la luz.

La utilización de efectos de trazado de rayos en tiempo real en los juegos puede requerir sacrificar algunos o todos los tres parámetros como son: alta resolución, cuadros ultra altos y HDR. El HDR está limitado por el apoyo de los juegos más que por cualquier otra cosa. Pero los dos primeros tienen unos estándares de rendimiento mínimos cuando se trata de juegos modernos de alta gama en el PC. Cualquier cosa por debajo de 1080p es completamente desagradable, y cualquier cosa por debajo de 30fps o más realistamente de 45fps a 60fps perjudica la jugabilidad. La frecuencia de actualización variable puede mitigar esta última y las gotas enmarcadas son temporales, pero la baja resolución es para siempre.

Tecnología NVIDIA Ray Tracing

La gran visión de NVIDIA para los gráficos de Ray Tracing híbridos en tiempo real significa que necesitaban realizar importantes inversiones arquitectónicas en futuras GPUs. La propia naturaleza de las operaciones necesarias para el trazado de rayos significa que no se adaptan especialmente bien a la ejecución SIMT tradicional y, aunque esto no impide el Ray Tracing en la GPU a través del cálculo en la GPU tradicional, al final lo hace de forma relativamente ineficiente. Lo que significa que de los muchos cambios arquitectónicos en Turing, muchos de ellos se han dedicado a resolver el problema del trazado de rayos, algunos de los cuales exclusivamente.

Para Ray Tracing, Turing introduce dos nuevos tipos de unidades de hardware que no estaban presentes en su predecesor Pascal: Núcleos RT y Tensor Cores. El primero es más o menos lo que el nombre dice en el envase, con los núcleos RT acelerando el proceso de trazado de los rayos, y todos los nuevos algoritmos involucrados en ello. Mientras tanto, los Tensor Cores no están técnicamente relacionados con el proceso de Ray Tracing en sí, pero desempeñan un papel clave en la viabilidad de la renderización del Ray Tracing, junto con la potenciación de otras funciones que se implementan con la serie GeForce RTX.

Los núcleos RT son la mayor innovación de NVIDIA, pero también es la pieza del rompecabezas de la que menos le gusta hablar a NVIDIA. La compañía no esta revelando los elementos básicos del funcionamiento de estos núcleos y como han conseguido que cálculos complejos se puedan hacer de manera tan ‘sencilla’.

Los núcleos RT pueden ser considerados esencialmente como un bloque de función fija que está diseñado específicamente para acelerar las búsquedas de la Jerarquía de Volumen Encuadernado (BVH por sus siglas en inglés). BVH es una estructura en forma de árbol utilizada para almacenar información de polígonos para el trazado de rayos, y se utiliza aquí porque es un medio innatamente eficiente para probar la intersección de rayos. Específicamente, al subdividir continuamente una escena a través de cuadros delimitadores cada vez más pequeños, es posible identificar los polígonos con los que se cruza un rayo en sólo una fracción del tiempo que se necesitaría para probar todos los polígonos.

Los núcleos RT de NVIDIA implementan una versión hiperoptimizada de este proceso. Eso implica precisamente la salsa secreta de NVIDIA (en particular, el modo en que NVIDIA determinó la mejor variación de BVH para la aceleración de hardware), pero al final los núcleos RT están diseñados de forma muy específica para acelerar este proceso. El producto final es una colección de dos bloques de hardware distintos que constantemente iteran a través de controles de cajas delimitadoras o polígonos, para probar la intersección, al ritmo de miles de millones de rayos por segundo y muchas veces ese número en pruebas individuales.

NVIDIA afirma que las piezas Turing más potentes basadas en la GPU TU102, pueden manejar más de 10.000 millones de intersecciones de rayos por segundo (10 GigaRays/segundo), diez veces más de lo que Pascal puede hacer si sigue el mismo proceso utilizando sus shaders.

NVIDIA no ha dicho cual es el tamaño de un núcleo RT individual, pero se cree que son bastante grandes. Turing implementa sólo un núcleo RT por SM, lo que significa que incluso la descomunal GPU TU102 que da vida a la RTX 2080 Ti sólo tiene 72 unidades para Ray Tracing. Además, como los núcleos RT forman parte del SM, están estrechamente relacionados a los SM en términos de rendimiento y número de núcleos. A medida que NVIDIA reduce la escala de Turing para GPUs más pequeñas utilizando un menor número de SM, el número de núcleos RT y el rendimiento de Ray Tracing resultante también se reducen con él. Por lo tanto, NVIDIA siempre mantiene la misma proporción de recursos de SM (aunque los diseños de chips pueden hacerlo en cualquier otro lugar).

Junto con el desarrollo de un medio para probar las intersecciones de rayos de forma más eficiente, la otra parte de la fórmula para el éxito del Ray Tracing en el libro de NVIDIA es reducir al máximo la cantidad de trabajo necesaria. Los núcleos RT de NVIDIA son comparativamente rápidos, pero aún así, las pruebas de interacción de rayos siguen siendo moderadamente complejas. Para ello NVIDIA ha recurrido a sus Tensor Cores para que los ayuden en el resto del camino, lo que permite que un número moderado de rayos siga siendo suficiente para obtener imágenes de alta calidad.

Así el Ray Tracing normalmente necesitaria emitir muchos rayos de todos y cada uno de los píxeles de una pantalla. Esto es necesario porque se necesita un gran número de rayos por píxel para generar el aspecto “limpio” de una imagen totalmente renderizada. Por el contrario, si se prueban muy pocos rayos, se obtiene una imagen “ruidosa” en la que hay una discontinuidad significativa entre los píxeles porque no se han emitido suficientes rayos para resolver los detalles más finos. Pero como NVIDIA no puede probar tantos rayos en tiempo real, está haciendo lo mejor y fingiendo, usando redes neuronales para limpiar una imagen y hacer que parezca más detallada de lo que realmente es.

NVIDIA se apoya en los Tensor Cores. Estos núcleos se introdujeron por primera vez en la arquitectura Volta, exclusiva para servidores de NVIDIA y pueden considerarse como un núcleo CUDA para esteroides. Fundamentalmente son una colección mucho más grande de ALU dentro de un solo núcleo, con gran parte de su flexibilidad eliminada. De este modo, en lugar de obtener el núcleo CUDA altamente flexible, se obtiene una enorme máquina de multiplicación de matrices que está increíblemente optimizada para procesar miles de valores a la vez (en lo que se denomina una operación tensorial). Los Tensor Cores de Turing, a su vez, duplican lo que Volta comenzó apoyando métodos más nuevos y de menor precisión que el original, que en ciertos casos pueden ofrecer un rendimiento aún mejor y al mismo tiempo, una precisión suficiente.

En cuanto a cómo se aplica esto al Ray Tracing, la fuerza de los Tensor Cores es que las operaciones tensoriales se mapean extremadamente bien a la inferencia de redes neuronales. Esto significa que NVIDIA puede utilizar los núcleos para ejecutar redes neuronales que realizarán tareas de renderizado adicionales. En este caso, se utiliza un filtro de eliminación de ruido de la red neuronal para limpiar la imagen trazada por rayos en una fracción del tiempo (y con una fracción de los recursos) que se necesita para probar el número necesario de rayos.

El filtro denotativo en sí mismo es esencialmente un filtro de redimensionamiento de imágenes con esteroides, y puede (normalmente) producir una imagen de calidad similar al trazado de rayos mediante fuerza bruta adivinando algorítmicamente qué detalles deberían estar presentes entre el ruido. Sin embargo, conseguir que funcione bien significa que necesita ser entrenado, y por lo tanto no es una solución genérica. Más bien los desarrolladores necesitan tomar parte en el proceso, entrenando una red neuronal basada en imágenes de alta calidad totalmente renderizadas de su juego.

En total hay 8 Tensor Cores en cada SM, por lo que, al igual que los núcleos RT, están estrechamente acoplados a los bloques procesadores individuales de NVIDIA. Además, esto significa que el rendimiento de los Tenosr se reduce en las GPU con menor cantidad de SM. De modo que NVIDIA siempre tiene la misma proporción de Tensor Cores que de núcleos RT para manejar lo que los núcleos RT escupen groseramente.


Tecnologia NVIDIA Deep Learning Super Sampling (DLSS)

Los Tensor Core no son hardware con una función fija en un sentido tradicional. Son bastante rígidos en sus habilidades, pero son programables. Por su parte, NVIDIA quiere saber a cuántos campos y tareas diferentes pueden aplicar su extensa red neuronal y su hardware de IA.

Los juegos, por supuesto, no caen bajo el paraguas de las tareas tradicionales de las redes neuronales, ya que estas redes se inclinan hacia el consumo y el análisis de imágenes en lugar de crearlas. No obstante, además de eliminar la salida de sus núcleos RT, el otro gran caso de uso de juegos de NVIDIA para sus Tensor Cores es lo que ellos denominan Deep Learning Super Sampling (DLSS).

DLSS sigue el mismo principio que la eliminación de ruido mediante procesamiento para limpiar una imagen, pero en lugar de eliminar el ruido, se trata de restaurar los detalles. Específicamente, cómo aproximar los beneficios de calidad de imagen del anti-aliasing. Es un meotdo indirecto de renderizar a una resolución más alta sin el alto costo de hacer el trabajo. Cuando todo va bien, según NVIDIA el resultado es una imagen comparable a una imagen antialiasing sin el alto coste.

La forma en que esto funciona depende de los desarrolladores, en parte porque están decidiendo cuánto trabajo quieren hacer con el renderizado normal frente al escalado DLSS. En el modo estándar, DLSS renderiza con un recuento de muestras de entrada más bajo y luego infiere un resultado, que con la resolución objetivo es de calidad similar a un resultado de Anti-Aliasing Temporal (TAA). Existe un modo DLSS 2X, en el que la entrada se renderiza con la resolución final del objetivo y luego se combina con una red DLSS más grande. Se podría decir que TAA no es un nivel muy alto para establecer, pero NVIDIA se ha propuesto resolver algunas de las deficiencias tradicionales de TAA con DLSS, en particular la borrosidad.

Ahora hay que tener en cuenta que DLSS tiene que ser entrenado para cada juego; no es una solución universal. Esto se hace con el fin de aplicar una red neutral única que es apropiada para el juego en cuestion. En este caso, las redes neuronales son entrenadas usando imágenes SSAA 64x, dando a las redes una línea base de muy alta calidad con la cual trabajar.

Los dos casos de uso más importantes de NVIDIA para los Tensor Cores, el DLSS es, con mucho, el más fácil de implementar. Los desarrolladores solo tienen que hacer un trabajo básico para añadir las llamadas a la API NGX de NVIDIA a un juego (esencialmente añadir DLSS como fase de posprocesamiento) y NVIDIA se encargará del resto en lo que se refiere a la formación en redes neuronales. Así que el soporte DLSS saldrá de la puerta muy rápidamente, mientras que la utilización del Ray Tracing (y especialmente el Ray Tracing significativo) tomará mucho más tiempo.

Benchmark de la ASUS Republic of Gamers Strix RTX 2080 Ti OC

Conclusión

La tarjeta gráfica ASUS Republic of Gamers Strix RTX 2080 Ti OC es una excelente tarjeta gráfica. No podemos dar una pega debido al excelente rendimiento de esta gráfica. Quizá el gran pero es que no hemos podido probar el rendimiento completo ya que solo hay un juego con Raytracing y DLSS y no contamos con este. Además esta gráfica ofrece prestaciones únicas y mejoradas con respecto a generaciones anteriores. Las mejoras técnicas implementadas son algo muy a tener en cuenta que favorece un mejor desempeño.

Mostrar más

Roberto Solé

Director de Contenidos y Redacción de esta misma web, técnico en sistemas de generación de energía renovables y técnico electricista de baja tensión. Trabajo delante de un PC, en mi tiempo libre estoy delante de un PC y cuando salgo de casa estoy pegado a la pantalla de mi smartphone. Cada mañana cuando me levanto cruzo el Stargate para hacerme un café y empezar a ver vídeos de YouTube. Una vez vi un dragón... ¿o era un Dragonite?

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar

Bloqueador de anuncios detectado

Este sitio se financia mediante el uso de publicidad, miramos en todo momento que la misma no sea demasiado intrusiva para el lector y priorizamos la experiencia del mismo en la web. Pero si bloquea los anuncios, parte de nuestra financiación se verá mermada.