Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Valójában itt a pillanatnyi peak értékeknél van gond, ezeket kell jól lereagálni. Ezért van egy bizonyos órajel fölött para, mert valameddig megy 2 GHz fölött is, de amint jön egy peak érték, ami minden hardveren elég magas lehet, azonnal meg is pusztul.
Valószínű, hogy ez az egész azért alakult ki, mert az NVIDIA last minute emelt egy kicsit a teljesítményen. Nem tudni, hogy miért, de ehhez az új szinthez már nem igazították hozzá a specifikációt, mert talán azzal számoltak, hogy a hardver frekvencia- és feszültségskálázása kellően hatékony lesz, hogy lekezelje a módosítást. Úgy néz ki, hogy nem lett az. Talán ha adnak egy kis időt a partnereknek a tesztelésre, akkor lehetett volna olyan paraméterezést találni, amivel hat POS-Cap is stabil, de ahhoz a startot csúsztatni kellett volna.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Hellwhatever #19 üzenetére
Őszintén szólva az AIB-k eleve meg vannak lőve egy referenciával párhuzamos starttal. Mivel egy csomó tesztre nincs idejük, így kénytelenek elhinni azt, amit az NVIDIA mond nekik. Ha nem hiszik el, akkor még októberben sem tudják kiadni a custom GeForce-okat.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz #09256960 #21 üzenetére
Ez nem garasoskodás. Az MLCC-nek hátránya is van. Nehéz vele a gyártás, mert ha elrontják csak egy kondi forrasztását, akkor a fellépő hőterhelésben meg fog repedni. 60 kondinál azért drámaian nő a hiba esélye. Szóval egyáltalán nem azért választják a POS-Capot, mert olcsóbb, hanem azért, mert egyszerűbb vele a gyártás. A legtöbben pedig azért kombinálják a POS-Capot az MLCC-vel, mert csökkenteni akarják a hibalehetőséget.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Egyszerű. POS-Cappal sokkal kisebb a későbbi meghibásodás esélye, míg az MLCC ezt a tényezőt növeli. Csak MLCC-re építeni 60 kerámiakondit jelent, és ott már azért relatíve nagy annak az esélye, hogy egy rosszul kivitelezett forrasztás miatt idővel az érintett kondi bereped, vagy akár szét is törik.
A meghibásodás esélye szempontjából a legjobb megoldásnak az 5 POS-Cap és a 10 MLCC kombinációja tűnik. De mondjuk az FE megoldása is még belefér.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Az NVIDIA már tudja, hogy az AMD mit hoz. Nekik is vannak next-gen konzoljaik, le tudják tesztelni, hogy az RDNA2 mire képes, és még össze is tudnak rakni maguknak egy képet az iparági értesüléseikből, hogy melyik készülő Navi +/- 5%-on belül hova várható. Szóval attól, hogy mi nem értjük a kapkodást, bőven lehet, hogy nekik nagyon is komoly indokaik vannak rá.
Egy NVIDIA kaliberű cég hibázni ugyan tud, de nem hülye, tehát indok nélkül nem vállalnák be a gyors startot.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ezek az NVIDIA előírásai. Pont az a baj, hogy ezt követték a gyártók, és nem csináltak maguk tesztet, mert nem fért volna bele az időbe. Az EVGA például csinált, mert az FTW3-at 6 POS-Cappal akarták hozni, és kiszúrták, hogy nem stimmel a dolog, annak ellenére sem, hogy papíron jónak kellene lennie. Viszont az FTW3-at nem is tudták időre kiadni.
(#30) Ribi: Olyan eget rengetően nem nagy gond, de nyilván gyártók szemmel tartják a potenciális problémaforrásokat, és nem csak aszerint választanak, hogy az egyik olcsóbb, mint a másik. A POS-Cap és MLCC kérdés nem egyszerűen olcsóbb/drágább, rosszabb/jobb döntés, mindkettőnek vannak előnyei és hátrányai.
(#33) gbors: Órajel, feszültség is, stb. Nem egy egyszerű kérdés ez, leginkább a tápfeszültség ingadozása a gond. Ha elkezd a rendszer peakekre ráugrálni, akkor az nem egyszerűen kezelhető szituáció a hardver felé.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
A mostani tesztcsomagot használjuk. Az RDNA2 teljesítményéről fogalmunk sincs, szóval nem igazán tudunk erre számolni. Nekünk például az NV-vel ellentétben next-gen konzoljaink sincsenek, tehát nem tudjuk ellenőrizni sem, hogy milyen kódokat hogyan futtat az AMD rendszere.
(#37) Balika911: Az nem biztos egyelőre. Ugye TDR-be egy rendszer sok dologtól belefuthat. Akár lehet egy szimpla szoftveres probléma is a komplett rendszerben. Tehát az, hogy van FE-vel TDR-ező felhasználó még nem jelent semmit.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Azért ezt a részét mindenki géppel csinálja.
Egyébként ezt ne úgy képzeljétek el, hogy itt tömegesen repednek majd meg a kondik, hanem egyszerűen van esélye, és ha már valamire van esély, akkor a gyártók kalkulálnak a kockázattal. Némelyik gyártónak ez megéri, némelyik nem akar annyit kockáztatni, ami valószínűleg 60 MLCC mellett is egy minimális kockázat, de valakinek az is sok. Ugyanakkor ettől nem lesznek ám tömeges kártyapusztulások, csak az a lényeg, hogy az MLCC és a POS-Cap opciók között nincs jobb és rosszabb. Egyszerűen csak mások. A kérdés a gyártók szemében az, hogy full MLCC mellett bevállalják-e azt, hogy maximum 0,1-0,2 százalékponttal megnő majd a hibaarány egy termékre, ami százalékosan baromira pici, de ha eladsz a termékből ezres tételeket, akkor tervezni kell rá.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.