beatl ha scritto:IlPresidente ha scritto:Nemesis Elite ha scritto:Qualche numeretto x la 2080 liscia :
https://wccftech.com/nvidia-geforce-rtx ... x-1080-4k/" onclick="window.open(this.href);return false;
...e non vi basta? Ed ancora poi :
"We've seen some game demos of the same game running on a 1080 Ti and the other on the 2080 Ti, the performance was often doubled with close to the same image quality. DLSS is short for High-Quality" 
Se quei numeri, con quei giochi, la 2080 riesce a farli in 4K...allora comincio a vederlo verosimile quella notizia di cui sopra che riporta la 2080Ti in grado di far girare a 100fps in 4K diversi titoli AAA....

Andiamo pianino un attimo: stiamo dicendo che con il DLSS si fa upscaling "intelligente"? Si raddoppiano le performance renderizzando a risoluzione più bassa e upscalando con i tensor core e le DNN?
Inviato dal mio Redmi Note 4 utilizzando Tapatalk
Io ho capito che a parità di tutto 2080ti+DLSS va il doppio di 1080ti+TAA, quindi non si capisce che peso relativo abbiano la maggiore potenza bruta e l nuova tecnica di AA in questo +100%
Se ho capito bene non è Anti Aliasing, è super resolution: renderizzi a risoluzione più bassa e Turing usa i tensorcore per fare upscaling, che però essendoci di mezzo una rete neurale dovrebbe essere fatto mooooolto meglio rispetto all'interpolazione lineare che viene svolta abbassando la risoluzione del monitor, diciamo.
Fatto sta che l'immagine è filtrata e teoricamente un po' di informazione comunque si perde rispetto a renderizzare a risoluzione originale. Con il TAA invece l'informazione viene aggiunta poiché viene fatta inferenza dai frame precedenti.
Questo lo dico per quanto ne so io sulla super resolution, poi ne sapremo di più in futuro. Per i puristi dell'immagine forse si può storcere il naso, ma per chi è interessato al framerate potrebbe essere una novità decisamente succosa! Sarebbe bello se fosse disponibile in ogni gioco una tale opzione (simile al DSR, ma al contrario)
La mia idea è che il ray tracing sia comunque parecchio pesante anche a risoluzione bassa(full hd), quindi per evitare di fare questo sgradevole passo indietro su risoluzione e framerate, Nvidia ha pensato di sfruttare i TensorCore per fare upscaling, che comunque impiegano un tempo costante per svolgere il loro compito, in questo modo comunque non è Raytracing in 4K (che è fantascienza al momento) ma l'immagine finale dovrebbe mantenere comunque una qualità gradevole. L'idea è brillante, inizialmente pensavo che i Tensor Core venissero utilizzati per effettuare denoising (potrebbe essere comunque così?!).
Inviato dal mio Redmi Note 4 utilizzando Tapatalk