Análisis de The Last of Us Parte I: Pruebas de portátiles y ordenadores de sobremesa
Aspectos técnicos
Un simulador de espera con un consumo absurdo de VRAM: Así se puede resumir actualmente la versión para PC de The Last of Us. No es de extrañar que el juego de acción y aventura esté siendo bombardeado con críticas negativas en Steam. La confusión comienza en los primeros segundos: Los shaders tardan al menos media hora en instalarse, incluso en los PC de gama alta. Es un nuevo récord, y no en el buen sentido. Pero los largos tiempos de carga parecen inofensivos en comparación.
El desorbitado consumo de VRAM resulta ser tan molesto como el tiempo que se tarda en instalar los sombreadores. En concreto, las tarjetas gráficas con 6 GB o menos se meten rápidamente en un buen lío. Esto llevó a nuestro dispositivo de pruebas con unaGeForce RTX 3060 se bloqueara constantemente al intentar ejecutar el juego a 1.920 x 1.080 píxeles con la configuración ultra. A esto no ayuda el hecho de que Nvidia lleva muchos años dotando a sus tarjetas gráficas de muy poca VRAM, aunque hay que decir que The Last of Us está mal programado en general en este sentido.
Top 10 Análisis
» Top 10 Portátiles Multimedia
» Top 10 Portátiles de Juego
» Top 10 Portátiles de Juego ligeros
» Top 10 Portátiles Asequibles de Oficina/Empresa
» Top 10 Portátiles de Juego Ligeros
» Top 10 Portátiles de Oficina/Empresa Premium
» Top 10 Estaciones de Trabajo
» Top 10 Subportátiles
» Top 10 Ultrabooks
» Top 10 Convertibles
» Top 10 Tablets
» Top 10 Tablets Windows
» Top 10 Tablets de menos de 250 Euros
» Top 10 Phablets (>5.5")
» Top 10 Smartphones
» Top 10 Smartphones (≤5")
» Top 10 Smartphones de menos de 300 Euros
» Top 10 Smartphones de menos de 120 Euros
» Top 10 Portátiles de menos de 1000 Euros
» Top 10 Portátiles de menos de 500 Euros
» Top 10 Portátiles de menos de 300 Euros
» Los Mejores Displays de Portátiles Analizados por Notebookcheck
A primera vista, este juego de bajo rendimiento es una sorpresa, ya que las anteriores adaptaciones de Sony para PC (p. ej. Spider-Man Miles Morales,Days Gone&God of War) causaron muy buena impresión. El problema aquí parece ser Iron Galaxy, el desarrollador responsable del port para PC, que no siempre ha realizado trabajos limpios en el pasado (palabra clave: Batman Arkham Knight). Pero independientemente de quién sea el responsable de este problema técnico, nuestra opinión es que The Last of Us nunca debería haberse lanzado en PC de esta forma. Sólo nos queda esperar que las futuras actualizaciones solucionen todos estos problemas.
A la hora de la verdad, el juego tiene potencial para ser disfrutado, siempre y cuando tengas una tarjeta gráfica potente con mucha VRAM. En general, los gráficos del remake parecen bastante modernos y actualizados. Las texturas, así como los efectos en los niveles superiores (humo, fuego, reflejos, ...) y los personajes, son geniales. El juego gana muchos puntos por su nivel de detalle y su gran ambientación. Nos ha encantado su producción cinemática y, sobre todo, las transiciones dinámicas entre las secuencias de vídeo y el juego. Otro aspecto positivo es la cautivadora narrativa del juego.
Los productores se han pasado con el menú gráfico. The Last of Us ofrece tantas opciones (véanse las capturas de pantalla) que tienes que desplazarte durante siglos y pierdes rápidamente la noción de qué es qué. Por suerte, hay algunos preajustes prácticos que te ahorran trabajo y mejoran la calidad del juego con un solo clic. Los cambios se realizan de forma instantánea, sin necesidad de reiniciar el juego. Como era de esperar de un juego moderno, admite varias opciones de escalado, como FSR y DLSS, exclusivo de Nvidia (sin embargo, falta el trazado de rayos).
En comparación con la versión de consola, la tasa de FPS sólo se limita si así lo seleccionas. Otro aspecto positivo son las descripciones detalladas con la influencia de la CPU, la GPU y la VRAM, que a veces incluso incluyen prácticas imágenes comparativas. Lo único que echamos en falta fue un modo "clásico" a pantalla completa. El gran requerimiento de CPU a resolución moderada es probablemente el culpable de que el juego apenas rinda mejor a pesar de reducir los ajustes, lo que lleva a unos gráficos visiblemente peores.
Punto de referencia
Hemos utilizado una mezcla de secuencias de vídeo del juego y de juego "real" para nuestras mediciones comparativas. Puedes ver el pasaje exacto que utilizamos, que tiene lugar cerca del principio del juego y cuenta con un montón de transeúntes y efectos, en el vídeo de abajo. Registramos la frecuencia de imagen durante aproximadamente un minuto con la herramienta CapframeX.
Resultados
FHD (1.920 x 1.080)
Cuando se trata de usar iGPUs, puedes olvidarte de The Last of Us. Ni siquiera la Radeon 680M alcanzó la marca de 30 FPS en Full HD con los ajustes mínimos (1.280 x 720 píxeles eran prácticamente jugables). Necesitarás al menos un dispositivo de gama media para jugar a 1.920 x 1.080 píxeles. ARadeon RX 6600M consigue alcanzar casi 60 FPS usando los preajustes medio y alto.
The Last of Us | |
1920x1080 Low Preset 1920x1080 Medium Preset 1920x1080 High Preset 1920x1080 Ultra Preset | |
NVIDIA GeForce RTX 4080, i9-12900K | |
AMD Radeon RX 7900 XTX, i9-12900K | |
AMD Radeon RX 7900 XT, i9-12900K | |
NVIDIA GeForce RTX 3080, i9-12900K | |
NVIDIA GeForce RTX 3080 Ti Laptop GPU, i9-12900HX | |
NVIDIA GeForce RTX 3070, i9-12900K | |
AMD Radeon RX 6800M, R9 5900HX | |
NVIDIA GeForce RTX 3060 Laptop GPU, i7-12700H | |
AMD Radeon RX 6600M, R7 5800H | |
AMD Radeon 680M, R9 6900HS |
QHD (2.560 x 1.440)
The Last of Us | |
2560x1440 Ultra Preset | |
NVIDIA GeForce RTX 4080, i9-12900K | |
AMD Radeon RX 7900 XTX, i9-12900K | |
AMD Radeon RX 7900 XT, i9-12900K | |
NVIDIA GeForce RTX 3080, i9-12900K | |
NVIDIA GeForce RTX 3080 Ti Laptop GPU, i9-12900HX | |
NVIDIA GeForce RTX 3070, i9-12900K | |
AMD Radeon RX 6800M, R9 5900HX | |
AMD Radeon RX 6600M, R7 5800H |
UHD (3.840 x 2.160)
Si juegas a 3.840 x 2.160 píxeles y ajustes máximos, incluso los chips de gama alta como laGeForce RTX 3080 Ti lo pasan realmente mal. En este caso, tiene sentido utilizar DLSS, por ejemplo, como se muestra en la siguiente tabla.
The Last of Us | |
3840x2160 Ultra Preset + Quality DLSS 3840x2160 Ultra Preset | |
NVIDIA GeForce RTX 4080, i9-12900K | |
AMD Radeon RX 7900 XTX, i9-12900K | |
AMD Radeon RX 7900 XT, i9-12900K | |
NVIDIA GeForce RTX 3080, i9-12900K | |
NVIDIA GeForce RTX 3080 Ti Laptop GPU, i9-12900HX | |
NVIDIA GeForce RTX 3070, i9-12900K | |
AMD Radeon RX 6800M, R9 5900HX | |
AMD Radeon RX 6600M, R7 5800H |
Nota
Dado que las pruebas de juegos requieren mucho tiempo y suelen estar condicionadas por los límites de instalación o activación, en el momento de publicar este artículo sólo podemos ofrecerte una parte de los resultados de las pruebas comparativas. En los próximos días y semanas iremos añadiendo más tarjetas gráficas.
Overview
Sistemas de prueba
Actualmente utilizamos estos portátiles para nuestras pruebas de juego. Si haces clic en las fotos, irás a la página del fabricante correspondiente. Todos los demás sistemas de prueba (PC de torre, mini PC, ...) se pueden encontrar en la siguiente lista.
Dispositivo | Tarjeta gráfica | Procesador | RAM |
---|---|---|---|
Portátiles | |||
MSI Titan GT77 12UHS | Nvidia GeForce RTX 3080 Ti @175 W TGP (16 GB GDDR6) | Intel Core i9-12900 | 2 x 16 GB DDR5 |
Lenovo Legion 5 Pro | Nvidia GeForce RTX 3060 @140 W TGP (6 GB GDDR6) | Intel Core i7-12700H | 2 x 8 GB DDR5 |
Asus ROG Strix G15 | AMD Radeon RX 6800M (12 GB GDDR6) | AMD Ryzen 9 5900HX | 2 x 8 GB DDR4 |
Lenovo Legion 5 | AMD Radeon RX 6600M (8 GB GDDR6) | AMD Ryzen 7 5800H | 2 x 8 GB DDR4 |
Asus ROG Zephyrus G14 | AMD Radeon 680M | AMD Ryzen 9 6900HS | 2 x 16 GB DDR5 |
Torre PC | |||
Custom I | AMD Radeon RX 7900 XTX (24 GB GDDR6) AMD Radeon RX 7900 XT (20 GB GDDR6) MSI GeForce RTX 3080 (10 GB GDDR6X) MSI GeForce RTX 3070 (8 GB GDDR6) |
Intel Core i9-12900K | 2 x 16 GB DDR4 |
Custom II | Palit GeForce RTX 4090 GameRock OC (24 GBGDDR6X) Nvidia GeForce RTX 3090 FE (24 GB GDDR6X) Nvidia GeForce RTX 3060 Ti (8 GB GDDR6X) NvidiaTitan RTX (24 GB GDDR6) lNvidia GeForce RTX2070 Super (8 GB GDDR6) Nvidia GeForce RTX 2060 Super (8 GB GDDR6) KFA2 GeForce GTX 1660 Super (6 GB GDDR6) PNY GeForce GTX 1660 (6 GB GDDR5) KFA2 GeForce GTX 1650 Super (4 GB GDDR6) AMD RadeonRX 6950 XT (16 GB DDR6) AMD Radeon RX 6800 (16 GB DDR6) AMD Radeon RX 6700 XT (12 GB DDR6) AMD Radeon RX 6650 XT (8 GB GDDR6) AMD Radeon RX 6600 (8 GB GDDR6) AMDRadeon RX 5700 XT (8 GB GDDR6) AMD Radeon RX 5700 (8 GB GDDR6) AMD Radeon RX 5600 XT (6 GB GDDR6) AMD Radeon RX 5500 XT (8 GB GDDR6) |
AMD Ryzen 9 7950X | 2 x 16 GB DDR5 |
Custom III | Nvidia GeForce RTX 2080 Super FE | Intel Core i9-11900K | 2 x 8 GB DDR4 |
Mini PC | |||
Zotac ZBOX CI665 Nano | Gráficos Intel Iris Xe G7 (96 CUs) | Intel Core i7-1165G7 | 2 x 8 GB DDR4 |
Morefine S500+ | AMD Radeon RX Vega 8 | AMD Ryzen 9 5900HX | 2 x 16 GB DDR4 |
MinisforumNUCXi7 | Nvidia GeForce RTX 3070 @125 W TGP (8 GB GDDR6) | Intel Core i7-11800H | 2 x 8 GB DDR4 |
Minisforum HX99G | AMD Radeon RX 6600M @100 W TGP (8 GB GDDR6) | AMD Ryzen 9 6900HX | 2 x 16 GB DDR5 |
monitores 4K | Sistema operativo | Controlador Nvidia | Controlador AMD |
---|---|---|---|
Philips Brilliance 329P9H, Gigabyte M32U | Windows 11 | ForceWare | Adrenalin |