Nemesis Elite ha scritto:Lord ,definire un capolavoro ingegneristico la 970 per quello che è successo ci vuole bel coraggio : è stata invece una mancanza totale di rispetto verso la propria clientela vendendo un qualcosa che non rispettava le specifiche reali dio quanto riportato nei dettagli tecnici, un pessimo errore di marketing che, ricordo anche nuovamente, costo' la testa a qualche responsabile di turno (notizia riportata sul web).
Ricordiamoci anche che ci fu una class action non da poco e ci furono, almeno per il territorio americano, anche dei rimborsi (parziali ) in merito verso tutti quegli utenti che, dopo aver scoperto "l'inganno" , decisero di darla indietro.
Sulle 2080Ti di rei proprio di no : su un prodotto top di gamma come questo, la scheda viene messa sul mercato solo dopo aver passato i + svariati stress test nei laboratori NVIDIA. Certo che in produzione possono verificarsi casi anomali ma non come il lancio delle 2080Ti che hanno visto una moria fuori dal comune.
Chiaramente qui qualcuno non si è accorto del problema (non voglio pensare che lo hanno fatto passare per buono un possibile problema rischiando futuri RMA) di qualche componente di turno installato sul pcb o ancora di qualche componente sollecitato maggiormente al calore sul pcb a causa di una posizione infelice sullo stesso. Non lo sapremo mai con certezza perchè NVIDIA lo ha ricosciuto pubblicamente pur restando sul vago (un modo molto elegante per dirci che ce la vediamo noi internamente).
Faccio presente che le Quadro, così come le Tesla, prima di entrare sul mercato passano 24/24 ore di stress test ininterrotti anche per giorni. Ora le 2080Ti non avranno certo lo stesso trattamento del Pro ma comunque il lancio è stato tutto così accellerato e veloce a mio avviso considerando poi che arrivarono sul mercato pure con il contagocce .
Dal lato puramente tecnico è chiaramente un capolavoro, come detto era una scheda destinata ad avere 3 Gb con una banda passante di 224 Gb/s su bus da 256 bit, invece l'hanno pensata per averne 4 segmentata in 3.5 Gb e 0.5 Gb, la perdita di efficienza usando più di 3.5 Gb rispetto a GTX 980 era del 3% mi pare.
Tutte le polemiche che ci sono state sulla ram (che era effettivamente di 4 Gb) per me non avevano senso, se proprio vogliamo trovare il pelo nell'uovo era il numero di Rops errato.
Su un prodotto che al lancio costava 329 euro, un valore aggiunto incredibile, oggi alla stessa cifra ti compri una ciabatta lato Nvidia
Poi lo so che hanno fatto la class action, dei parziali rimborsi, ma per me resta una delle schede, for the money, migliori mai prodotte da Nvidia.
Riguardo a GTX 2080 ti do per assodato che i test sono stati fatti ma son problemi che probabilmente non sono emersi in quelle specifiche batterie, succede, ma comunque è una questione che viaggerà sempre sul filo delle speculazioni, anche perchè il ritorno in fatto di immagine e di mole di rimborsi, non valeva, imho, il rischio.
Poi i laboratori dove fanno queste prove sono diversi, stento a credere possa essere un errore generalizzato.
guarda Lord, se NVIDIA è arrivata a restituire 30$ a ciascun utente USA che aveva acquistato la scheda (avendone vendute moltissime sono un sacco di soldi da tirare fuori) vuol dire palesemente chiedere scusa alla sua clientela per la scorrettezza subita. Bravissimo (me lo hai ricordato adesso questo punto che mi era sfuggito) anche il numero di rops errato nelle specifiche del prodotto e siccome parliamo di schede grafiche, mettere una specifica per un'altra è una grave mancanza verso il cliente. Per me quella è stata una pessima immagine di NVIDIA seconda soltanto alla presentazione della GTX480 di cartone.
Comunque alla fine si, la scheda in se era veloce in rapporto alla sua fascia tant'è che qualche redazione l'ha anche eletta hardware dell'anno; la scorrettezza avvenuta comunque è innegabile.
Per sua fortuna (per non dire competenza) NVIDIA ci ha messo ben poco a recuperare fiducia e credibilità nel mondo consumer mettendo a segno un colpo dietro l'altro negli anni successivi.
Per me invece resta un prodotto dotato di caratteristiche migliori del previsto grazie all'abilità ingegneristica di Nvidia, poi molti la presero per le review, le performance in game, e fino a quando non scoppiò lo scandalo nessuno si era lamentato.
Per questo la ritengo una forzatura, tanto che se vai sulla pagina di GTX 970 anche ora, è presentata come una scheda a 4 Gb.
Poi anche tu hai ragione sul numero di Rops, la banda passante dei 3.5 che era solo 7/8 del dichiarato, ci sono delle ombre nella comunicazione, ma sono elementi secondari rispetto a una mera valutazione Hw.
La polemica è servita comunque a capire molto bene lo schema di funzionamento della GPU e da li capire alcune scelte tecniche.
Se non si era capito sono un grande estimatore di GTX 970
Ha poco senso confrontare GTX 1080 ti con una diversa modalità di AA contro RTX 2080 ti con DLSS, inoltre ci sono delle differenze di nitidezza evidenti, fossero confermate non solo pesa di meno, ma è pure migliore qualitativamente, ma essendo un video promozionale tendo a dubitare.
Lordpkappa ha scritto:Ha poco senso confrontare GTX 1080 ti con una diversa modalità di AA contro RTX 2080 ti con DLSS, inoltre ci sono delle differenze di nitidezza evidenti, fossero confermate non solo pesa di meno, ma è pure migliore qualitativamente, ma essendo un video promozionale tendo a dubitare.
Ok che il video fa tanto marketing ma dal neretto intuisco Lord che non ti è ben chiaro cosa faccia e a cosa serva il DLSS e perchè confrontato con la 1080Ti in TXAA 4X : il DLSS serve, in sostanza, sulle RTX per avere le stesse qualità (target) di un TXAA senza perdita prestazionale andando ad impegnare un uso di risorse minimo, detto in pochissime parole. Il confronto è del tutto lecito quindi.
Lordpkappa ha scritto:Ha poco senso confrontare GTX 1080 ti con una diversa modalità di AA contro RTX 2080 ti con DLSS, inoltre ci sono delle differenze di nitidezza evidenti, fossero confermate non solo pesa di meno, ma è pure migliore qualitativamente, ma essendo un video promozionale tendo a dubitare.
Ok che il video fa tanto marketing ma dal neretto intuisco Lord che non ti è ben chiaro cosa faccia e a cosa serva il DLSS e perchè confrontato con la 1080Ti in TXAA 4X : il DLSS serve, in sostanza, sulle RTX per avere le stesse qualità (target) di un TXAA senza perdita prestazionale andando ad impegnare un uso di risorse minimo, detto in pochissime parole. Il confronto è del tutto lecito quindi.
Ti sei risposto da solo, ma arrivi alla conclusione sbagliata, secondo me.
Premetto che so di cosa parlo, quindi intavoliamo un confronto sul rispetto delle competenze altrui senza insinuare leggerezze, ma è evidente che per valutarne la resa ci voglia la stessa scheda video testata nelle due modalità, con TXAA 4x e con DLSS.
E scommetto che chiunque testerà tra qualche ora Final Fantasy XV farà proprio, giustamente, questo.
Confrontarla con GTX 1080 ti è solo un'operazione per fare numeri migliori, visto che di base vi è già un divario consistente.
Lord ti dico dove voglio arrivare con il mio post : il DLSS è una prerogativa della 2080Ti quindi utilizzandola (dove supportato) ne porterà benefici che gli appartengono.
Confrontandola con la top di gamma della generazione precedente, che non ha questi vantaggi, emerge un divario prestazionale ben maggiore che non abilitarlo per ovvie ragioni.
Chiaramente i numeri sarebbero sempre a vantaggio della 2080Ti con DLSS abilitato che senza sempre restando sulla 2080Ti ma con margini inferiori ovviamente.
Quel video quindi (per questo sono comunque d'accordo che fa tanto marketing)vuole far emergere al massimo tutti i benefici apportati dall'hardware di una RTX rispetto alla precedente che non gode di questi privilegi.Tutto qui, quindi per me NVIDIA ha fatto bene a prendere la 1080Ti mettendola sotto un TXAA 4x per un confronto diretto. In sostanza NVIDIA ci sta mostrando in quel video dove puo' arrivare una top di gamma di precedente generazione utilizzando il TXAA in 4k e dove puo' arrivare una 2080Ti utlizzando al meglio la nuova architettura di base.