El reescalado de imagen ya no es un “extra” opcional en el PC gaming moderno: se ha convertido en una pieza estructural del rendimiento, especialmente en los grandes lanzamientos. Tecnologías como DLSS (NVIDIA) y FSR (AMD) aparecen de forma casi sistemática en títulos AAA —y cada vez más en AA e independientes— porque permiten sostener resoluciones altas y tasas de refresco elevadas sin exigir tanto a la GPU en cada fotograma. El problema es que ese mismo “alivio” sobre la tarjeta gráfica puede desplazar la presión hacia otro componente: la CPU.
El razonamiento es directo. Cuando se activa un reescalador, la GPU trabaja con una resolución interna menor que la de salida. Eso reduce el tiempo de renderizado por fotograma y permite producir más imágenes por segundo. Pero para que esa cadencia se mantenga, la GPU necesita que la CPU le entregue instrucciones (draw calls, lógica de juego, física, streaming de assets, etc.) con mayor rapidez. Si la CPU no da abasto, la situación cambia de golpe: la GPU deja de ser el freno y el rendimiento queda limitado por procesador, incluso aunque se esté jugando a 1.440p o 4K en el monitor.
La consecuencia es incómoda para una idea muy extendida: que “a partir de 1.440p el procesador ya no importa”. En un escenario clásico de 4K nativo, muchos juegos escalan poco con mejores CPUs porque la carga recae de forma masiva en la GPU. Sin embargo, el análisis del que parten estas pruebas recuerda que en la era del reescalado, 4K nativo no es necesariamente el modo de juego predominante. Y cuando la resolución interna baja lo suficiente, la CPU vuelve a la primera línea del rendimiento.
Por qué DLSS puede “bajar” tu juego por debajo de 1.080p sin que lo notes
La clave está en el porcentaje de renderizado interno. En el modo Quality de DLSS, el render scale ronda el 66,7 %, mientras que en Performance baja al 50 %. Eso no solo afecta al número final de fotogramas, sino al tipo de carga que recibe el sistema.
El propio esquema de resolución interna y salida deja claro el salto:
- Con salida 3.840 × 2.160 (4K), DLSS Quality renderiza internamente a 2.560 × 1.440, y DLSS Performance lo hace a 1.920 × 1.080.
- Con salida 2.560 × 1.440, DLSS Quality cae a 1.706 × 960, y DLSS Performance baja a 1.280 × 720.
- Con salida 1.920 × 1.080, DLSS Performance puede situar la resolución interna en 960 × 540.
Traducido a la práctica: jugar “a 1.440p con DLSS” puede significar que la GPU está procesando algo mucho más cercano a 720p, y ahí el margen para generar más fps se dispara… hasta que la CPU se convierte en el tapón.
El objetivo del análisis: ¿en qué punto desaparece el “CPU scaling” con DLSS?
En lugar de centrarse solo en el caso más obvio —el cuello de botella por CPU a resoluciones internas muy bajas—, el planteamiento va a una pregunta más sutil: a medida que sube la resolución de salida con DLSS activo, ¿cuándo deja de notarse la diferencia entre CPUs? Dicho de otra forma, ¿en qué punto el reescalado vuelve a colocar a la GPU como límite dominante y hace que cambiar de procesador apenas altere los fps?
Para explorarlo, las pruebas se diseñan buscando un equilibrio: crear primero escenarios claramente GPU-bound y, a partir de ahí, observar cuándo reaparecen diferencias relevantes de CPU al activar DLSS.
Banco de pruebas: una RTX 4080 Super y cuatro CPUs para medir el efecto
El entorno de test descrito utiliza una RTX 4080 Super y una selección de CPUs de Intel y AMD:
- Intel Core i5-14400
- Intel Core i7-14700K
- AMD Ryzen 5 9600X
- AMD Ryzen 5 9850X3D
Se indica además el uso de placas MSI MPG Z790 Carbon Wi-Fi (LGA1700) y MSI MPG X870E Carbon Wi-Fi (AM5), refrigeración líquida Corsair iCue Link H150i Elite Cappalix, almacenamiento 2 TB Sabrent Rocket 4 Plus, memoria DDR5-6.000 (2×16 GB) y fuente MSI MPG A1000GS. En los juegos, se emplea una mezcla de ajustes High/Ultra.
Para mantener el foco, el análisis se centra en dos modos de reescalado considerados “estándar” en la práctica real: DLSS Quality (66,7 %) y DLSS Performance (50 %). El modo Ultra Performance se menciona como opcional y no presente en todos los juegos, por lo que queda fuera del núcleo de las comparaciones.
No todo DLSS es igual: versiones, presets y el salto al modelo Transformer
Otro punto relevante del texto es que DLSS no solo cambia por “Quality/Balanced/Performance”. Internamente, el resultado depende también de la versión de DLSS y del preset elegido por el desarrollador, que puede priorizar nitidez, estabilidad, rendimiento o control de artefactos.
En la muestra citada aparecen estos casos:
- Cyberpunk 2077: DLSS v310.1.0, Preset J
- Doom: The Dark Ages: DLSS v310.2.1, Preset K
- Flight Simulator 2024: DLSS v310.1.0, Preset E
- Marvel’s Spider-Man 2: DLSS v310.1.0, Preset J
- The Last of Us Part One: DLSS v3.1.2, Preset A
El artículo explica que los presets A–F se asocian al modelo CNN (red neuronal convolucional) de generaciones anteriores, mientras que los presets J y K emplean la primera iteración del modelo Transformer, que tiende a ofrecer más calidad a costa de más carga de cómputo. En ese contexto, Preset K se describe como más estable pero menos nítido, y Preset J como más nítido pero con menos estabilidad.
Además, se menciona que DLSS 4.5 (segunda generación Transformer) aprovecha instrucciones FP8, y que las GPU RTX 20 y RTX 30 no soportan FP8 en sus Tensor Cores, lo que puede traducirse en una penalización de rendimiento con presets más nuevos como L o M. Para evitar “contaminar” las conclusiones sobre CPU, el análisis indica que se ha preferido respetar los ajustes por defecto de cada juego.
Qué debería extraer el jugador: la CPU vuelve al centro cuando se persiguen muchos fps
El mensaje de fondo no es que el reescalado sea “malo”, sino que cambia la naturaleza del equilibrio del PC. DLSS puede convertir un escenario que era claramente GPU-bound en uno donde la GPU ya no está al límite y el juego empieza a escalar con CPUs más rápidas.
Esto es especialmente visible en tres situaciones habituales:
- Monitores de alta tasa de refresco (120/144/240 Hz), donde cada fotograma adicional exige más del procesador.
- DLSS Performance (o escalados agresivos), que reducen tanto la resolución interna que la GPU se queda “sobrada” antes de lo esperado.
- Juegos con alta carga de CPU (simulación, mundo abierto complejo, streaming intenso, IA de NPCs), donde el techo de fps suele estar en el hilo principal.
En la práctica, esto obliga a replantear recomendaciones simplistas del tipo “para 4K da igual la CPU”. Puede ser cierto en 4K nativo, pero deja de serlo cuando 4K se juega con render interno a 1.920 × 1.080. El reescalado no solo mejora la fluidez: también puede revelar un límite que antes quedaba escondido.
Preguntas frecuentes
¿Por qué DLSS puede aumentar el cuello de botella de CPU en juegos a 1.440p o 4K?
Porque reduce la resolución interna de renderizado, la GPU tarda menos por fotograma y exige a la CPU entregar más trabajo por segundo para mantener el ritmo de fps.
¿Qué modo de DLSS suele provocar más limitación por CPU: Quality o Performance?
En general, Performance es más propenso, ya que renderiza internamente a una resolución mucho más baja (por ejemplo, 1.280 × 720 al jugar a 1.440p), lo que libera más a la GPU.
¿Cómo saber si el rendimiento está limitado por CPU cuando uso DLSS?
Una pista típica es ver uso de GPU bajo o irregular mientras los fps no suben, junto a picos de carga en uno o pocos hilos de CPU. También ayuda comparar fps con distintos ajustes de DLSS: si bajar la resolución interna no aumenta fps, suele haber límite por CPU.
¿Influyen las versiones y presets de DLSS en el rendimiento además de Quality/Performance?
Sí. El artículo señala que distintos juegos usan versiones y presets diferentes (CNN vs Transformer), y que esos presets pueden priorizar estabilidad, nitidez o rendimiento, alterando el coste de cómputo y el comportamiento final.
vía: tomshardware