Cyberpunk 2077 mette in crisi la RTX 3090 in 4K al massimo dettaglio
E senza DLSS i risultati sono semplicemente drammatici
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione.Ecco come funziona
Cyberpunk 2077è sicuramente un gioco impegnativo se si desidera eseguirlo alle risoluzioni più elevate al massimo del dettaglio.Nvidiastessa ha eseguito i propri benchmark, dimostrando che anche la potente scheda graficaRTX 3090fatica seriamente a mantenere una media di 60 fotogrammi al secondo alla risoluzione 4K con il massimo dettaglio grafico, nonostante l’attivazione del DLSS in modalità “performance”.
Come riportaWccftech, Nvidia ha appena condiviso i propri risultati dei test con Cyberpunk 2077, eseguiti su un PC dotato di processoreIntel Core i9-10900Kin4Kcon dettagli impostati su Ultra e ray tracing attivo al massimo del dettaglio. O, per dirla in breve, con la migliore qualità possibile al momento.
E come accennato, anche nonostante l’utilizzo della tecnologia DLSS di Nvidia, impostata in modalità prestazioni per aumentare il frame rate, la RTX 3090 ha raggiunto un frame rate medio di 57,8 fps (senza DLSS, il risultato sarebbe stato un imbarazzante 22 fps).
57,8 fps non è certo un pessimo risultato, ma è frustrante vedere una scheda da €2000 faticare a mantenere i classici 60 fps. Un valore che è considerato come lo standard per considerare il gameplay ottimale. Una media di 57 fps indica che Cyberpunk 2077 potrebbe faticare a mantenere il framerate a valori accettabili in determinati momenti, producendo fastidiosi scatti (stuttering).
Certo, è possibile abbassare il livello di dettaglio per tornare ad una situazione più congeniale, ma se si è costretti a fare ciò con la scheda grafica più potente di sempre, cosa succederà utilizzando schede più economiche che costano la metà o un quarto del prezzo? E parliamo sempre di cifre importanti, superiori a €500.
Con le stesse impostazioni in 4K, la più ragionevoleRTX 3080è arrivata abbastanza vicina alle prestazioni del modello di punta di Nvidia, con una media di 51,8 fps, mentre la ex top di gammaRTX 2080 Tisfigura con soli 38,2 fps. Mantiene la giocabilità, ma non certo la fluidità necessaria per un’esperienza ottimale.
Abbassare la risoluzione
Ma cosa succede se si abbassa la risoluzione a 1440p?
Get the best Black Friday deals direct to your inbox, plus news, reviews, and more.
Sign up to be the first to know about unmissable Black Friday deals on top tech, plus get all your favorite TechRadar content.
Innanzitutto ricordiamo che utilizzare uno schermo 4K a 1440p non è una passeggiata, i pixel devono essere interpolati per una visualizzazione certamente meno che ottimale, che fa perdere gran parte della nitidezza.
A tale risoluzione la RTX 3090 e la RTX 3080, producono rispettivamente 71,7 e 65 fps dignitosi frame al secondo, mentre laRTX 3070e la RTX 2080 Ti, che hanno prestazioni molto simili, sono limitate a una media inferiore ai 50 fps, dove la neo arrivata RTX 3060 Ti si ferma appena a 44 fps.
Interessante è vedere come senza DLSS, anche la RTX 3090 fatica seriamente a mantenere una media accettabile a 1440p, raggiungendo solo 44,8 fps al massimo delle impostazioni e conray tracingattivo.
Per quanto riguarda la risoluzione Full HD (1080p), ancora una volta con qualità massima e DLSS in modalità qualità, la RTX 3090 raggiunge una media di 96,6 fps. La RTX 3080 le si avvicina con 89,1 fps, mentre le RTX 3070 edRTX 3060 Tisono limitate a 70,6 fps e 64,2 fps.
CD Projekt, lo sviluppatore di Cyberpunk 2077, ha già introdotto un’importante patch “Day One” che applica un’enorme quantità di correzioni e ottimizzazioni.
È lecito aspettarsi che ulteriori miglioramenti per il gioco verranno introdotti tramite patch successive e nuove versioni di driver Nvidia, perciò i frame rate potrebbero ancora migliorare nel prossimo futuro.
Lenovo Legion Go: il successore potrebbe arrivare con il nuovo chip Ryzen Z2
Non è la Switch 2, ma c’è un nuovo dispositivo Nintendo in arrivo
Pixel Phone, nuove risposte automatiche alle chiamate grazie all’AI Gemini di Google