Aktív témák
-
DcsabaS
senior tag
Érdekes adalék azzal kapcsolatban, hogy a 0.13 mikronos gyártás hogyan érik, fejlődik napjainkban: ''Nvidia set to up GeForce FX 5600 speeds'':
Idézet:
''... The increase has come as a result of Nvidia's improved understanding of the 0.13 micron process, said European marketing chief Alain Tiquet. ''It took us a long time to get it right,'' he admitted. ...''
''... Tiquet suggested that Nvidia's growing ability to work with 0.13 micron designs will quickly see further 5600 clock speed increases and improvements to the chips' yields. That holds out the potential for future boosts to the 5900 family too, particularly with ATI preparing to launch the successor to the Radeon 9800 Pro later this year. ...''
A teljes szöveg itt:
http://www.theregister.co.uk/content/3/30709.html -
DcsabaS
senior tag
válasz
Nowhereman #66 üzenetére
Kedves (#66) Nowhereman!
A fogyasztással kapcsolatban az a helyzet (mint már írtam), hogy szorosan összefügg a grafikus teljesítménnyel. Hiszen ha növeled az órajelet, vagy több tranzisztort vonsz be a feladat végrehajtásába, az az elektromos teljesítményfelvételt is hasonló arányban növeli!
Ezért igazából megtakarítani csak azzal lehet, ha:
1.) csökkented a tranzisztoronkénti, adott frekvenián mért fogyasztást (a félvezető technológia finomításával oldható meg),
2.) az aktuális feladathoz nem használt chip-részeket kikapcsolod, illetve
3.) az aktuális órajelet az aktuális processzálási igénynek megfelelően állítod be.
Önmagában az, hogy mondjuk egy SiS, VIA, vagy Trident GPU kevesebb tranzisztort tartalmaz, mint mondjuk egy ATi, vagy nVIDIA, még nem jelent sokat, ha mondjuk az 1/5 teljesítményfelvételt 1/10 3D teljesítményt produkálva valósítja meg.
********
Kedves (#67) Power!
Csupán rögzíteni szeretném, hogy nyilvánvalóan NEM ÉRTESZ a félvezető eszközök fizikájához, így azt sem értheted, hogy valójában min múlik a félvezető eszközök magasabb működési frekvenciájának elérhetősége. És így tényleg nincs értelme tovább vitatkozni.
********
Kedves (#70) Egon!
Igazad van. Általában az van, hogy laptopok céljára úgy optimalizálnak, hogy minél kisebb legyen a teljesítményfelvétel, új desktop gépek számára meg úgy, hogy minél magasabb legyen az órajel, még ha dögös tápegység is kell hozzá. Mindkét célra az alapvető módszer a finomabb félvezető technológia bevezetése, ahogy a példádban is írtad, különböző feszültségen hajtva.
********
Megjelentek az első GeForce FX 5900 tesztek, amelyekből (ha nagy is egyelőre a használt driver-ek körüli kavarodás) azért jól látszik, hogy a magasabb tranzisztorszámból, magasabb órajelből és magasabb RAM sávszélességből együttesen nagyjából a várakozásoknak megfelelő mértékben gyorsabb az FX 5900 a Radeon 9800 Pro-nál. -
Egon
nagyúr
''Laptopok céljára csináltak 0,25 mikronos verziót is, de nem magasabb frekire, hanem alacsonyabb (kisebb feszültségű) fogyasztásra optimalizálva.''
A pontosítás pontosítása következik..:)
Is-is. A core fesz ezeknék a note-prociknál 2.1V az asztali gépek 2.5V-val szemben, de volt 266 MHz-es MMX note-proci is (Tillamook). -
Cane
őstag
Itt egy link, amelyben összehasonlítja az 5200-5600 kártyákat, továbbá az ati 9000 és 9500-ösöket is. Szvsz érdemes megnézni.
[L]http://www.xbitlabs.com/articles/video/display/nv31-nv34.html[/L] -
Power
senior tag
Csak két dolgot emelnék ki:
''A pipeline hossza és más efélék csupán porhintés. (Azok hivatkoznak rá, akik nem tanulták meg a fizikát.)''
Lehet, hogy tanultál fizikát, nem tudom, de hogy a processzorokhoz nem konyítasz az biztos.
Honnan veszel vagy jutnak eszedbe ilyen okos gondolatok?
Írtam:
''A saját elméleted alapján semmi sem indokolná a P3 és a P4 közötti(azonos gyártástechnológia melletti) óriási órajel eltérést.''
Erre te:
''Tévedés! Az ugyanis, hogy egy adott félvezető technológia lehetővé tesz valamekkor működési frekvenciát, még egyáltalán nem jelenti azt, hogy buta tervezéssel ne lehetne elrontani! Nagyon könnyen el lehet rontani!''
Most elb*szták a P3-at? Szólj má nekik! :DD :DD :DD
A részemről lezárom a vitát, semmi értelme.
Azért kiváncsi vagyok ki tudna téged meggyőzni? :DD :DD
Tudsz olyan elismert szakembert vagy professzort akinek elfogadod a véleményét?
Sima D. vagy John Crawford név mond neked valamit? -
Nowhereman
őstag
Attol tartok, hogy lassan a fogyasztás lesz a korlátozo tényezö, akkor pedig a tranyotakarékosabb sis-xabre és trident megoldások lassan de biztosan végetvetnek a klasszikus geforce-raedon párharcnak...
-
DcsabaS
senior tag
Pontosítás:
A Pentium eredetileg 0,8 mikronon és 60 MHz-en indult, de aztán hamar átálltak a 0,6 mikronra (P54C), azzal mentek fel 200 MHz-ig. Később csináltak javított, 0,55 és 0,5 mikronos verziókat is, laptopok céljára. Az MMX-es verzió (P55C) indult 0,35 mikronon, de a frekivel megálltak 233 MHz-nél. Laptopok céljára csináltak 0,25 mikronos verziót is, de nem magasabb frekire, hanem alacsonyabb (kisebb feszültségű) fogyasztásra optimalizálva. -
DcsabaS
senior tag
Kedves (#62) xuldar!
Írod:
''Én csak a képletedre írtam ezeket, amely képletben nyoma sem volt egyéb más tényezőnek, mint a csíkszélességnek.''
Persze, de hiszen a képlet csak azt fejezi ki, hogy mik az elvi lehetőségek! Hogy gyakorlatban abból mennyit érünk el, az számos egyéb dolog függvénye, és éppen ezért hangsúlyoztam annyiszor, hogy a 0,13 mikronos technológia még nem tekinthető kiforrottnak, ugyanis jócskán elmarad az elvi lehetőségeitől. (Főleg a TSMC de még az IBM vonatkozásában is.)
(A Pentium eredetileg 0,8 mikronon és 60 MHz-en indult, de aztán hamar átálltak a 0,5 mikronra, azzal mentek fel 200 MHz-ig. A 0,35 mikronra akkor álltak át, amikor bevezették az MMX-es Pentiumot (P55C), de aztán azt sem vitték fel a lehetséges maximális MHz-ig (akár csak mostanában a P3-at), hanem megálltak 233 MHz-nél, és elkezdték nyomatni helyette a P2-őt, illetve annak Celeronos verzióját.) (Egyes laptopokba szánt verziókat később 0,25 mikronon is gyártottak, a kisebb fogyasztás érdekében.)
********
Kedves (#63) Gaius!
Írod:
''A helyzet az, hogy én ezeknek a teszteredményeknek egyáltalán nem hiszek.
1. Az NV35 nincs kész teljesen, jövő héten debütál csak az E3-on. Ettől még természetesen teszpéldányok lehetnek.''
Én hiszek, csak kíváncsibb lettem volna mondjuk egy Q3A teszt eredményére.
Írod:
''2. Tekintettel arra, hogy a Futuremark fejlesztők összeugrottak az Nvidiával és az Ati-t favorizálják, kétlem hogy ilyen eredményt ki lehetne csikarni egy Nvidia cuccból.''
Összeugrottak, mert akkoriban az nVIDIA vezetése még talán úgy hitte, hogy a szokásos agresszív PR nyomulásukkal és a FutureMark szidalmazásával el tudját tüntetni valahogy a GeForce FX sávszélesség-fogyatékosságát. De az NV35 2-csatornás DDR-I-es RAM-ja már annak a jele, hogy szerencsésen meggondolták magukat, és a közölt teszt eredmények matematikailag teljesen rendben vannak, hihetők.
Írod:
''Így nem lehet értékelhető összehasonlító tesztet végezni, az eredményekre nem lehet adni. Összehasonlítani két terméket pedig végképp nem lehet.''
Hát az biztos, hogy roppant nehéz volna egy minden szempontból kielégítő, ám viszonylag egyszerű tesztet csinálni. Úgy kell tekinteni ezt az eredményt is (feltéve, hogy igaz), mint ami része a palettának. Remélhetőleg akadnak majd jó játékok, amelyek nagyjából hasonlóan értékelik az egyes 3D kártyákat, és akkor lesz haszna.
Írod:
''3. Mivel a GefFX5800 ára a plafonon van, indokolatlanul, ezért körülbelül az Nv35-ös ára itthon 200 rigó körül lesz. Megfizethetetlen.''
Szerintem az új kártya megjelenésével esni fog a többi ára. Persze, ha az NV35 lesz a sebességkirály, akkor meg fogják kérni az árát. (Úgy 150 eFt körüli árat tippelnék.) -
Gaius
tag
Kedves DCsabaS!
A helyzet az, hogy én ezeknek a teszteredményeknek egyáltalán nem hiszek.
1. Az NV35 nincs kész teljesen, jövő héten debütál csak az E3-on. Ettől még természetesen teszpéldányok lehetnek.
2. Tekintettel arra, hogy a Futuremark fejlesztők összeugrottak az Nvidiával és az Ati-t favorizálják, kétlem hogy ilyen eredményt ki lehetne csikarni egy Nvidia cuccból. Ettől egyébként az én nézetem szerint pont azt a dolgot veszíti el a 3DMark, amitől kialakult anno. Így nem lehet értékelhető összehasonlító tesztet végezni, az eredményekre nem lehet adni. Összehasonlítani két terméket pedig végképp nem lehet.
3. Mivel a GefFX5800 ára a plafonon van, indokolatlanul, ezért körülbelül az Nv35-ös ára itthon 200 rigó körül lesz. Megfizethetetlen.
4. Az Ati HASZNÁLJA a 0,13-as technológiát, az Nvidia kísérletezik azzal, hogy működő terméket adjon ki a kezei közül.
5. Addig, amíg nem tudnak normális drivert készíteni a saját kártyájukhoz, addig mit akarnak? -
DcsabaS
senior tag
Kedves (#60) xuldar!
Írod:
''Bár én nem foglalkoztam procitervezéssel, diplomám is csak ezután lesz, azért azt a laikus is látja, hogy a csíkszélesség nem minden. ''
Jól látod. Én sem állítok mást. A finomabb félvezető technológia csupán LEHETŐSÉGET ad a nagyobb frekvenciára, a több integrált tranzisztorra, a bonyolultabb (és célszerűen hatékonyabb) architektúrára, a viszonylag alacsonyabb fogyasztásra, stb.
Írod:
''Tualatin P3-nak kb 1800Mhz a csúcssebessége, amit válogatott procikból válogatva lehet elérni, a Northwood P4-nek meg valahol 4Ghz környékén van a vége jelenleg. Mindkettő 0,13 mikronnal készült, de ha megnézzük az órajeleket...''
E különbség legfőbb oka az, hogy az Intel a P4-et óhajtja erőltetni, és ezért nem javítják ki a P3 sebességet korlátozó hibáit. (Ugyanezt megtette a PIII kontra PII Celeron vonatkozásában is.) Az Intel egyébként nincs egyedül ezzel a magatartásával, mert pl. az AMD is teljesen hasonló okból hanyagolta az AthlonXP fejlesztését (különös tekintettel a 166 és 200 MHz-es FSB-re), amikor a Hammer-t igyekezett előtérbe tolni. Az AthlonXP újbóli fejlesztéséhez csak azután láttak neki, hogy kiderült, a Hammert (újabban Athlon64 és Opteron) nem tudják időben piacra dobni. Vagy hogy még egy példát hozzak, a Seagate is azért szabotálta (és szabotálja) az Parallel ATA133-as interfész elkészítését a HDD-ihez, mert igyekszik áttolni a hangsúlyt az Serial ATA interfészre, amelynek egyik fő zászlóvivője. -
xuldar
addikt
Bár én nem foglalkoztam procitervezéssel, diplomám is csak ezután lesz, azért azt a laikus is látja, hogy a csíkszélesség nem minden. Elég csak azt nézni, hogy a Tualatin P3-nak kb 1800Mhz a csúcssebessége, amit válogatott procikból válogatva lehet elérni, a Northwood P4-nek meg valahol 4Ghz környékén van a vége jelenleg. Mindkettő 0,13 mikronnal készült, de ha megnézzük az órajeleket...
Szerintem a vak is látja, hogy a csíkszélesség csak egy tényező a sok közül. -
DcsabaS
senior tag
Kedves (#57) Power!
Írod:
''DE nem tér el a két proci között.''
Nem vagyok benne biztos. (Link?)
Írod:
''Kösz, hogy tévedésben élek és még proci tervezéssel is foglalkoztam, vissza is adom az összes diplomám.''
Ezen mosolyognom kell (:-)))).
Kérdezed:
''Szavakon lovagolsz, írd már le légyszíves mi az amit te kiforottnak tartasz és mi a megfelelő!''
De hiszen világosan leírtam! Kiforrott (azaz érett, megállapodott, fejlődésének csúcsára eljutott) az, ami már elég jól megközelíti elvi lehetőségeit.
A ''megfelelő'' viszont csak annyi, hogy egy adott célra megfelelő, pl. az egyetemen a 2-es vizsgajegy, hogy ne bukj meg.
Írod:
''Értem, akkor ilyen nincs a földön.
De az iparban biztos. Nem azért nem javítanak valamit, mert nem lehet, hanem azért mert nem éri meg javítani.''
Van, mint az érett gyümölcs (olyat talán már láttál...) Továbbá nem mindegy, hogy miért nem érdemes valamit javítani. Azért-e, mert már így is csaknem annyira jó, amennyire egyáltalán lehet, vagy mert rossz, de túl sokba kerülne a javítása.
Kérdezed:
''Mi köze RAM órajele és GPU órajeléhez?''
''DE ennek mi köze a GPU elérhető órajeléhez???
Itt ugyanis csak pont arról volt szó és nem a GFX-ről, de mégcsak nem is videókártyáról és még arról sem, hogy mi a gpu sebesség-memória sebesség kapcsolata.''
Az a köze (mint már többször is részleteztem), hogy a GPU órajelét és a RAM sávszélességét egymáshoz képest megfelelően MÉRETEZNI kell.
Írod:
''Akkor tesztelj le több chipes grafikus kártyákat és hasonlitsd a single chipeshez, meg fogsz lepődni! Bizonyos esetekben valóban közelít a 2-szereshez, de nagyon sok esetben a 40%-ot sem éri el.''
A közel 2-es faktor gyorsulás magától értetődően csak akkor lép fel, amikor a GPU a sebesség döntő korlátja, nem pedig mondjuk az alaplapi CPU. (Általában nagy felbontás, bekapcsolt FSAA és más effektek.)
Vélekedsz:
''A Pentium és Pentium4 chip és gyártása között rengeteg különbség van!!!
Nem pusztán a 0,6 és 0,13. Vegyük az architektúrát: ...''
Valóban, de ezek az egyes tranzisztorok szintjén nem számítanak. Az órajel szempontjából pedig az egyes tranzisztorok maximális működési frekvenciája az alapja minden másnak (ami pedig a félvezető technológiától függ).
A pipeline hossza és más efélék csupán porhintés. (Azok hivatkoznak rá, akik nem tanulták meg a fizikát.)
Vélekedsz:
''A saját elméleted alapján semmi sem indokolná a P3 és a P4 közötti(azonos gyártástechnológia melletti) óriási órajel eltérést.''
Tévedés! Az ugyanis, hogy egy adott félvezető technológia lehetővé tesz valamekkor működési frekvenciát, még egyáltalán nem jelenti azt, hogy buta tervezéssel ne lehetne elrontani! Nagyon könnyen el lehet rontani!
Írod:
''A gyártásról: most nem akarok részletesen belemenni, de pl. a 0,13 mikronon vezette be az intel a réz kivezetéseket, ami +15-20%. És nem csak ennyi változott a két gyártástechnológia között.''
Valóban nemcsak ennyi változott (:-)! Mindez nem változtatja meg a fizika alapvető törvényeit, csak módosítja, hogy hogyan tudjuk kihasználni azokat. -
Power
senior tag
Az eredmény jó, a megoldás menete viszont nem. :DD :DD
A Pentium és Pentium4 chip és gyártása között rengeteg különbség van!!!
Nem pusztán a 0,6 és 0,13.
Vegyük az architektúrát:
pl. a pipeline hossza: 5 és 20 és ez érdemben befolyásolja a CPU órajelét.
A saját elméleted alapján semmi sem indokolná a P3 és a P4 közötti(azonos gyártástechnológia melletti) óriási órajel eltérést.
A gyártásról: most nem akarok részletesen belemenni, de pl. a 0,13 mikronon vezette be az intel a réz kivezetéseket, ami +15-20%. És nem csak ennyi változott a két gyártástechnológia között.
Tehát. 0,6/0,13 * 20/5 * 1,15 * 0,2 GHz ~ 4,26 GHz. -
Power
senior tag
Kedves DCsaba (#53)!
''Ez éppen elég nagy módosítás, különös tekintettel arra, hogy pl. az L3 cache órajele radikálisan eltérhet a magétól.''
DE nem tér el a két proci között.
''Tévedésben vagy. Leírtam, hogy mi határozza meg a maximális frekvenciát (a felülettel arányosan csökkenő kapacitások áttöltési ideje). Az, hogy a gyakorlatban általában nem használják ki teljesen ezt a frekvencia növelési potenciált, csak azért van, mert egyúttal igyekeznek mérsékelni a disszipációt is. Ez csaknem olyan fontos szempont (néha még fontosabb is), mint a magasabb órajel.
Lehet, hogy pont ezt makogtad, de ettől még a 0,13 mikronos gyártás nem tekinthető teljesen kiforrottnak. (Az IBM sem tudta még a 0,13 mikronos pricijainál megfelelően növelni a frekvenciát és csökkenteni a disszipációt. Még a legjobb az Intel, de ők sem fejezték még be a freki felfelé tornászását.)''
Kösz, hogy tévedésben élek és még proci tervezéssel is foglalkoztam, vissza is adom az összes diplomám. :DD :DD
Szavakon lovagolsz, írd már le légyszíves mi az amit te kiforottnak tartasz és mi a megfelelő!
''Kérdezed:
''Mi köze RAM órajele és GPU órajeléhez?''
A GPU órajelét és a RAM sávszélességet összhangba kell hozni, mégpedig úgy, hogy a GPU kb. ugyanannyi adatot tudjon átadni és fogadni a RAM felől, amennyit processzálni képes. A GeForce FX-nél a GPU megfelelően gyors, viszont a RAM túl lassú, mert csak DDR-I üzemmódban megy, és csupán 128 bit-es szélesség mellett. A GPU további lassítása, ha nem is drámaian, de tovább csökkentené az amúgy is elégtelen 3D teljesítményt, miközben a hőtermelés nem csökkenne jelentősen, hiszen az jórészt a DDR-II-es RAM-vezérlőből (és a DDR-II-es RAM-okból) jön. Ha pedig a RAM-vezérlő és a RAM sebességét is csökkentenék a GPU underclockolása mellett, akkor még jobban csökkenne a 3D sebesség. (Én azt gondolom, hogy az nVIDIA igyekezett megtalálni az optimumot a GeForce FX számára, ha az eredmény nem is túl fényes.)''
DE ennek mi köze a GPU elérhető órajeléhez???
Itt ugyanis csak pont arról volt szó és nem a GFX-ről, de mégcsak nem is videókártyáról és még arról sem, hogy mi a gpu sebesség-memória sebesség kapcsolata.
''Tévedés. A kiforrottság azt jelenti, hogy az adott dolognál további javításokra már nem szorul, mert eléggé megközelíti az elvi lehetőségek szabta határokat. (Ez többet jelent, mint ami üzletileg - esetleg éppen csak hogy - megéri.)''
Értem, akkor ilyen nincs a földön.
De az iparban biztos. Nem azért nem javítanak valamit, mert nem lehet, hanem azért mert nem éri meg javítani.
''Alacsony felbontásokban és FSAA nélkül a GeForce FX jellemzően gyorsabb volt, mint a Radeon9700Pro (ha nem is mindegyik játéknál). Ezért én nem látom olyan egyértelműnek ezt a problémát.''
Ha meg 64 bites színkezelést használsz és AF-et elfelejted, valamint és 640x480-ben nézed, akkor meg szárnyalni fog!
Felesleges valamit 300 fps-sel futatni, minek? Sokkal inkább a látvány fontos.
''Ha a pontos számot szeretnénk meghatározni, akkor persze sok zavaró körülményt számításba kellene venni, de az alapvető tájékozódáshoz erre nincs szükség. Vedd a következő hasonlatot (3Dfx, ATi, stb.): legyen 2 grafikus chipünk, amelyek egymást váltva számolják ki az egyes frame-eket. Így a 3D sebesség értelemszerűen (meglehetősen jó közelítéssel) megduplázódik. (Bár az igaz, hogy több RAM kell egy ilyen rendszer kiszolgálásához.) a 3D számítások természetéből fakadóan igen tág határa nyílik az ilyen és másféle párhuzamosításoknak.''
Akkor tesztelj le több chipes grafikus kártyákat és hasonlitsd a single chipeshez, meg fogsz lepődni! Bizonyos esetekben valóban közelít a 2-szereshez, de nagyon sok esetben a 40%-ot sem éri el. -
DcsabaS
senior tag
A hivatalos megjelenés előtt már kezdenek kiszivárogni az NV35 tesztek eredményei, első körben a 3D Mark 2003, lásd pl. itt:
http://www.tt-hardware.com/
http://www.xbitlabs.com/forum/viewtopic.php?t=522
1024x768-as felbontásban a GeForce FX 5900 Ultra (Det R50 driverrel) 6678 pontot ért el, míg a Radeon 9800 Pro 5496-ot. Játékokban és más driverekkel természetesen módosulhat, de a jelen felállásban ez kb. 21 százalékkal nagyobb sebességet jelent. -
DcsabaS
senior tag
A félvezető technológia és a lehetséges maximális működési frekvencia kapcsolatára visszatérve, pillanatnyilag nem találtam adatot arra nézve, hogy azonos architektúrájú, de különböző félvezető technológián megvalósított prociknál hogyan alakul az órajel (biztosan van, de nincs kedvem tovább keresni).
Vedd viszont a következőt:
Az Intel P54C procija (MMX nélküli Pentium) 0,6 mikronon volt gyártva, és a maximális működési frekvenciája 200 MHz volt. A négyzetes szabály szerint, egy kiforrott 0,13 mikronos technológián (0,6/0,13)^2 = 21,3-szoros maximális frekvenciát remélhetünk, ami 200*21.3 = 4,26 GHz. Ezt hasonlítsd össze a pillanatnyilag leggyorsabb 3,2 GHz-es P4-ekkel (overclock-kal 4 GHz)!
Ha a lineáris gyorsulás volna igaz (mint feltételezted), akkor (0,6/0,13) = 4,6-szoros gyorsulás történt volna, vagyis csak kb. 900 MHz procijaink lehetnének. -
Fr4G
aktív tag
Az atinak ezek ellenére elég könnyen ki sikerult adnia a 0.13 mikronos technológiával készült VGA-it (r9600) ... (remélem nem irtam hulyeseget) :))
-
DcsabaS
senior tag
Kedves (#42) Gaius!
Írod:
''Az Nvidiának most nem utol kellene érnie a 9800-as Radeont, hanem megelőznie a 9900-est.''
Ez valószínűleg most nem fog sikerülni az NV35-tel, legfeljebb csak a javításával, ha időközben sikerül teljes mértékben kihasználni 256 bit-en a DDR-II-őt.
''Az NV35 megint egy vakítás lesz, mint ahogyan az volt az utóbbi két-három év Nvidia terméke is.''
Az NV30 szerintem is ''parasztvakítás'' volt, de az NV35 szerintem határozottan jó lesz. Minden esélye megvan rá.
*******
Kedves (#46) Fr4G!
A 128 bit is elég lett volna a Radeon9700Pro übereléséhez, ha a DDR-II és a 0,13 mikron minden szempontból rendben lenne. De hát nincs, és ezt most az nVIDIA nagyfőnöke is elismerte.
*******
Kedves (#48) Power!
Írod:
''Itt az Itanium2 és Itanium2 között történt a váltás. Nincsenek lényeges architektúrális különbségek, a L3 cache méretét növelték, plusz pár módosítás.''
Ez éppen elég nagy módosítás, különös tekintettel arra, hogy pl. az L3 cache órajele radikálisan eltérhet a magétól.
Ezt írtam:
''De ha ugyanazt a procit gyártanák 0,18 helyett 0,13 mikronon, akkor a maximális működési frekvencia kb. 1,9-szeresére nőne''
Mire Te:
''Ez nem igaz. Lineárisan változik, bár ez is inkább elméleti. Mondj rá példát, ha tudsz!''
Tévedésben vagy. Leírtam, hogy mi határozza meg a maximális frekvenciát (a felülettel arányosan csökkenő kapacitások áttöltési ideje). Az, hogy a gyakorlatban általában nem használják ki teljesen ezt a frekvencia növelési potenciált, csak azért van, mert egyúttal igyekeznek mérsékelni a disszipációt is. Ez csaknem olyan fontos szempont (néha még fontosabb is), mint a magasabb órajel.
Írod:
''Pont ezt makogtam. Az nV itt hibázott, hogy nem tudta kellőképp megtervezni a chipet, de ettől még a 0,13 mikron kiforott.''
Lehet, hogy pont ezt makogtad, de ettől még a 0,13 mikronos gyártás nem tekinthető teljesen kiforrottnak. (Az IBM sem tudta még a 0,13 mikronos pricijainál megfelelően növelni a frekvenciát és csökkenteni a disszipációt. Még a legjobb az Intel, de ők sem fejezték még be a freki felfelé tornászását.)
Kérdezed:
''Mi köze RAM órajele és GPU órajeléhez?''
A GPU órajelét és a RAM sávszélességet összhangba kell hozni, mégpedig úgy, hogy a GPU kb. ugyanannyi adatot tudjon átadni és fogadni a RAM felől, amennyit processzálni képes. A GeForce FX-nél a GPU megfelelően gyors, viszont a RAM túl lassú, mert csak DDR-I üzemmódban megy, és csupán 128 bit-es szélesség mellett. A GPU további lassítása, ha nem is drámaian, de tovább csökkentené az amúgy is elégtelen 3D teljesítményt, miközben a hőtermelés nem csökkenne jelentősen, hiszen az jórészt a DDR-II-es RAM-vezérlőből (és a DDR-II-es RAM-okból) jön. Ha pedig a RAM-vezérlő és a RAM sebességét is csökkentenék a GPU underclockolása mellett, akkor még jobban csökkenne a 3D sebesség. (Én azt gondolom, hogy az nVIDIA igyekezett megtalálni az optimumot a GeForce FX számára, ha az eredmény nem is túl fényes.)
Vélekedsz:
''A kiforottság azt jelenti, hogy üzletileg megéri. Ennyi.''
Tévedés. A kiforrottság azt jelenti, hogy az adott dolognál további javításokra már nem szorul, mert eléggé megközelíti az elvi lehetőségek szabta határokat. (Ez többet jelent, mint ami üzletileg - esetleg éppen csak hogy - megéri.)
Írod:
''Ne várj olyan nagy különbséget a DDR-I és II között, itt is csak elmélet a 2x-es.''
Ez igaz. De a grafikus kártyákban jellemzően folytonos nagy szakaszokban megy az adattovábbítás, ami kedvez a DDR/QDR trükköknek. (Persze a végeredményt még látni kéne.)
Írod:
''A 4 pipeline kontra 8 pipeline nem lehet sávszélességgel megoldani, ezt jól mutatja az alacsony felbontáson végzett tesztek, ahol sávszélesség a GFX-et sem korlátozza.''
Alacsony felbontásokban és FSAA nélkül a GeForce FX jellemzően gyorsabb volt, mint a Radeon9700Pro (ha nem is mindegyik játéknál). Ezért én nem látom olyan egyértelműnek ezt a problémát.
Írod:
''Csakhogy egy chip nem úgy épül fel, hogy összerakok kettőt, aztán 2x annyi tranyó 2x gyorsabb lesz. Rengeteg egész más áramkör kell ezek összehangolásához, másrészt nagyon elméleti a 2x.''
Ha a pontos számot szeretnénk meghatározni, akkor persze sok zavaró körülményt számításba kellene venni, de az alapvető tájékozódáshoz erre nincs szükség. Vedd a következő hasonlatot (3Dfx, ATi, stb.): legyen 2 grafikus chipünk, amelyek egymást váltva számolják ki az egyes frame-eket. Így a 3D sebesség értelemszerűen (meglehetősen jó közelítéssel) megduplázódik. (Bár az igaz, hogy több RAM kell egy ilyen rendszer kiszolgálásához.) a 3D számítások természetéből fakadóan igen tág határa nyílik az ilyen és másféle párhuzamosításoknak. -
McJames
senior tag
Szia Egon!
Tény:_ az nV beszállítót váltott: szerződést kötött az IBM-mel (szerinted miért? talán olcsóbb? nem hiszem...)...
Bár alapjában igazad van, de nem váltott ''beszállítót''. Továbbra is együttműködik (gyártat) a TMSC-vel, de a 0.13-as cuccait tudomásom szerint - lásd eggyel feljebb - az IBM fogja csinálni. A többi stimmel. -
-
Gaius
tag
''Kíváncsi lennék, hogy mit fog szólni a sok ATI párti, ha a GFFX5900 [b]lekeni[/b] a Radeon9800Pro-t?!''
Nézd, a helyzet az, hogy mivel kb. lesz megint fél év eltérés a két kártya között, óriási szégyen is lenne, ha megint nem sikerülne megverni az Atit.
Én is jó ideig Nvidia cuccokat használtam, nem is volt tényleg iagzán problémám vele. Ez tény. És én sem ''húztam le'' más gyártók termékeit. De most megérett az idő a váltásra. Azt hiszem.
Az is tény, hogy üzletileg tényleg az Nvidia a piacvezető. De azért ha megnézitek, egy Fx árát, akkor azt hiszem nem kell nagyon sokat gondolkodni azon, hogy kinek a termékeit vásároljuk. Pláne, ha az jobb. Én személy szerint örülök az Ati térhódításának. Nekem mindig is szúrta a szemem az Nvidia. Régi Voodoo rajongó vagyok, soha nem szerettem az Nvidiát, pláne mióta megvette a 3Dfx-et. Tudom, hogy ez aztán abszolúte nem az Nvidia hibája, sokkal inkább a 3Dfx rontotta el. De hát az érzelmek....:)))))))
Szóval továbbra is fenntartom azt a nézetemet, hogy most az Nvidiának azt kellene kitűznie, hogy gyorsabb zsugát készítsen, mint az Ati 9900 Pro. -
Power
senior tag
''Az alkalmazott félvezető technológia hatása az Itanium és az Itanium2 esetéből nem hámozható ki olyan könnyen, ugyanis lényeges architekturális különbségeik is vannak, mindjárt pl. az, hogy az Itanium2 le tudja kapcsolni a nem használt részeit. ''
Itt az Itanium2 és Itanium2 között történt a váltás. Nincsenek lényeges architektúrális különbségek, a L3 cache méretét növelték, plusz pár módosítás.
''De ha ugyanazt a procit gyártanák 0,18 helyett 0,13 mikronon, akkor a maximális működési frekvencia kb. 1,9-szeresére nőne''
Ez nem igaz. Lineárisan változik, bár ez is inkább elméleti.
Mondj rá példát, ha tudsz!
''Fejlesztésekhez előszeretettel használnak kiforrott félvezető technológiát, csak hogy minél tisztábban tudjanak az architekturális problémákra összpontosítani. A következő lépés szokott lenni a sebességi és teljesítményfelvételi optimalizálás, amit nagy tranzisztorszám esetén észszerű összekapcsolni finomabb félvezető technológiára való áttéréssel, ami az árat is jelentősen csökkenti (távlatilag).''
Pont ezt makogtam. Az nV itt hibázott, hogy nem tudta kellőképp megtervezni a chipet, de ettől még a 0,13 mikron kiforott.
''''Ha az NV30-at 350MHz-en járatnák, akkor semmi probléma nem lenne a melegedéssel.''
Egyetértek, akkor kezelhető szintűre esne a melegedése, de a RAM sávszélesség további csökkenése miatt még lassúbb lenne 3D-ben.''
Mi köze RAM órajele és GPU órajeléhez?
''''A SOI igenis kiforott. Ha valakinek nem megy, attól még másnak mehet.''
Úgy látom, ''kiforrottságon'' Te valami olyasmit értel, hogy az adott dolgot már érdemes megkockáztatni (:-)...''
A kiforottság azt jelenti, hogy üzletileg megéri. Ennyi.
A SOI fejlesztési költség(+licence) + gyártási költség + egyéb költségek < Bevétel
''Nem az R300 miatt jött a pofáraesés, hanem mert a DDR-II nem ment, csak DDR-I módban. Ez felezte meg a sávszélességet, és ezért kellett overclockhoz folyamodni. Ha ment volna a DDR-II, akkor 400 MHz-en is a GeForce FX lett volna a gyorsabb. (FSAA-ban is.)''
Ne várj olyan nagy különbséget a DDR-I és II között, itt is csak elmélet a 2x-es. A 4 pipeline kontra 8 pipeline nem lehet sávszélességgel megoldani, ezt jól mutatja az alacsony felbontáson végzett tesztek, ahol sávszélesség a GFX-et sem korlátozza.
''''A tranzisztor szám 2x akkor a sebesség 2x?''
Ha az elvégzendő feladat jól párhuzamosítható, akkor igen. (Csak hogy ne legyen félreértés, a sebesség itt nem az órajelet jelenti.)''
Órajel ez, hogy jön ide?
Csakhogy egy chip nem úgy épül fel, hogy összerakok kettőt, aztán 2x annyi tranyó 2x gyorsabb lesz. Rengeteg egész más áramkör kell ezek összehangolásához, másrészt nagyon elméleti a 2x.
''Nem tudom pontosan mire utalsz. Mindenesetre én azt állítom, hogy az NV35 lényegesen gyorsabb lesz a Radeon9800Pro-nál is. (Kb. olyan arányban, amilyen arányban a memória alrendszere.)''
Majd meglássuk. :)) :))
Lesznek biztos olyan esetek is, de olyan is lesz, ahol lassabb lesz.
De aszondod, hogy 850/680 = 1,25, tehát 25%-kal gyorsabb lesz átlagosan.
(900-as variáció esetén 900/680 -> 32%). Szerintem kizárt, de erre térjünk vissza :DD -
Egon
nagyúr
Egy icipicit szélsőséges a véleményed, ráadásul részben ellentmond a _tényeknek_:
1. ''Egyszerűen elb....-ta az Nvidia. Saját magának.''
Szerintem meg a TMSC cseszte el. _Tény:_ az nV beszállítót váltott: szerződést kötött az IBM-mel (szerinted miért? talán olcsóbb? nem hiszem...).
2. ''Mert azt remélem senki sem gondolja komolyan, hogy FX-et vegyen...
A drivereket is elrontották (melegedés, elfüstölés, stb...).''
Biztos lesznek, akik megveszik (főleg talán az 5600-at: pláne ha lesz elfogadható (hangú) hűtés rá, amire van esély: az alacsonyabb órajel alacsonyabb hőtermelést jelent...)). a driverekről: _egy_ elcseszett driver volt/van (43.45), amit vélhetőleg baromi hamar kijavítanak (lehet már meg is történt). Elfüstöl(tet)ni egy kártyát sem sikerült (még amikor direkte próbálkoztak is vele): asszem van ott is valamiféle hővédelem...
3. ''Az NV35 megint egy vakítás lesz, mint ahogyan az volt az utóbbi két-három év Nvidia terméke is.''
Hehehe...:) Barátom, két-három éve az nV _egyeduralkodó_ volt a vga-piacon, _érdemi konkurens nélkül_... Az Ati a futottak még kategóriában (sem) volt _évekig_, és mégis sikerült átvenniük a technológiai vezető szerepkört. Kérdés, mennyi időre: mint tudjuk, a csúcsra nem felérni nehéz, hanem fennmaradni...
Ja, és ne felejtsük el: a piacvezető (azaz a legnagyobb piaci részesedéssel bíró cég) _még mindíg_ az nV!
4. ''Azért nem véletlen az sem, hogy a Microsoft (aki azért mindig megnézi, hogy hova fektet be) is törölte az Xbox2 Nvidia garfikus prociját.....''
? Én úgy tudom (legalábbis a legutolsó, általam olvasott, a témához kapcsolódó hír szerint), hogy - igaz nem részletezett - ún. ''hosszú távú együttműködési megállapodást'' kötöttek (az Xbox kapcsán kitört vitájuk zárult ezzel). -
Fr4G
aktív tag
Persze hogy hiba volt, a 128 bites memóriainterfész adatátviteli sebessége már akkor kevesebbb volt mint az R9700-nak. Valami színtömörítéssel védekeztek nVidiáék, dehát úgylátszik nem jött be nekik.
-
engusz
veterán
Kíváncsi lennék, hogy mit fog szólni a sok ATI párti, ha a GFFX5900 [b]lekeni[/b] a Radeon9800Pro-t?! :).
A GeForce FX 5200-es szériát, pedig nem kell nagyon leírni, mert pl ott az MSI-nek a FX5200-TDR128 kártyája. Lassú, de felér egy jobb digi kártyával, valamint még távirányító is jár hozzá. Valakinek ez pl impozáns lehet, úgy, hogy kevesebbet játszik, mint az átlag. Emellett mondjuk nem kíván 80-90-100 ezreket kiadni egy gyorsabb kártyára és ''szüksége van'' az előbb emélített dolgokra.
OFF
Szerintem sokkal értelmesebben lehet úgy ''társalogni'', ha tényeket közlünk és kész érveink vannak. Persze ha ezeknek van valóságalapja. Vagy azért, mert értünk hozzá (DcsabaS esete) vagy, mert rendesen utánnanéztünk és naprakészek vagyunk. Hülyeségnek tartom azt, ha valaki csak úgy vagdalózik a dolgokkal és megpróbálja megdönteni az ''okosabb'' ember tényeit, érveit.
ON
Én bízok az nVidiában. Eddig meg voltam elégedve vele. Emellett sosasem elleneztem más gyártók kártyáit. Elismerem, hogy most gyorsabbak a Radeonok.
Kíváncsian várom, hogy ezek után mi lesz... :P -
simbazz
aktív tag
''Az NV35 megint egy vakítás lesz, mint ahogyan az volt az utóbbi két-három év Nvidia terméke is. Persze, nyolcmillió megahertz, tízmilliárd tranzisztor, stb-stb.
És így persze, majd jóval gyorsabb lesz a radeon 9800-asnál. Hiszem, ha látom.''
Nos, gyorsabb lesz. Valamennyivel tutkó. Deviszont... Amint kapható lesz, csomó ilyennel fogunk találkozni itt a fórumokban: ''Jááj, leégett a 400W-s tápom az NV35-től (FX62475895-től)'' meg hogy ''jaaa, azt nem mondták, hogy 3 kártyahelyet elfoglal a hajszárító'' vagy akár ''rakéta porszívók másodvirágzása: FX-re fel!''.
!!!RÓÓÓÓÓÓÓTFL!!!
:)) :)) :)) -
Gaius
tag
Hi mindenkinek!
Én az egész mögött ugyanazt a ''hátradőlök a székemben, mert senki más nem tud ilyet'' effektust érzem ki, mint anno a 3Dfx-nél. Egyszerűen elb....-ta az Nvidia. Saját magának. És most jön majd a kapkodás. Mert ugye mi is történik jelen időben? Az, hogy az ATI tarol, az Nvidiának meg nincs olyan terméke, amely felvenné a Radeonokkal a versenyt. Az egyedüli megoldás most is a legfullosabb 4600-os Gef4. Mert azt remélem senki sem gondolja komolyan, hogy FX-et vegyen...
A drivereket is elrontották (melegedés, elfüstölés, stb...).
Szóval minél gyorsabban ki kell adniuk valamit, ami jobb lesz, mint a Radeon. De ezt most csak kapkodással tudják behozni. És mindenki tudja, aki ért a géphez, meg általában is, hogy ''hamar munka ritkán jó''. Most az Nvidia kényszerhatás alatt dolgozik, MUSZÁJ jobbat csinálniuk. Csakhogy az a bibi, hogy eközben a stabil, nagyon gyors és nagyon jó Radeonokat vásárolják folyamatosan. És az ATI pedig a pillanatnyi helyzeti előnye miatt kényelmesen tud fejleszteni. El is tolták a 9900-es megjelenését. Az Nvidiának most nem utol kellene érnie a 9800-as Radeont, hanem megelőznie a 9900-est.
Az NV35 megint egy vakítás lesz, mint ahogyan az volt az utóbbi két-három év Nvidia terméke is. Persze, nyolcmillió megahertz, tízmilliárd tranzisztor, stb-stb.
És így persze, majd jóval gyorsabb lesz a radeon 9800-asnál. Hiszem, ha látom.
Az az Nvidia baja, hogy megállt a tudomány. Az ATI nem hatalmas órajeleket meg biszbaszokat ígér, hanem iszonyatos munkával TECHNOLÓGIAILAG nőtt az Nvidia fölé, ígérgetések nélkül.
Azért nem véletlen az sem, hogy a Microsoft (aki azért mindig megnézi, hogy hova fektet be) is törölte az Xbox2 Nvidia garfikus prociját..... -
DcsabaS
senior tag
Kedves (#37) Power!
Az alkalmazott félvezető technológia hatása az Itanium és az Itanium2 esetéből nem hámozható ki olyan könnyen, ugyanis lényeges architekturális különbségeik is vannak, mindjárt pl. az, hogy az Itanium2 le tudja kapcsolni a nem használt részeit.
De ha ugyanazt a procit gyártanák 0,18 helyett 0,13 mikronon, akkor a maximális működési frekvencia kb. 1,9-szeresére nőne, a chip mérete pedig az 52 százalékára esne. Ha nem ragaszkodnak kihasználni a majd 2-szeres gyorsulást, akkor a feszültség és az órajel csökkentésének árán csökkenthetik a disszipációt.
Kérdezed:
''Nem kell keverni a dolgokat. Mind az Itanium2, mind a Power4 0,18 mikronnal gyártották eredetileg, pedig már akkor is volt 0,13 mindkét cégnél. Akkor miért is?''
Fejlesztésekhez előszeretettel használnak kiforrott félvezető technológiát, csak hogy minél tisztábban tudjanak az architekturális problémákra összpontosítani. A következő lépés szokott lenni a sebességi és teljesítményfelvételi optimalizálás, amit nagy tranzisztorszám esetén észszerű összekapcsolni finomabb félvezető technológiára való áttéréssel, ami az árat is jelentősen csökkenti (távlatilag).
Írod:
''Akkor még valóban nem volt elég kiforott és ezért az egyszerűbb útat választották, de ma már mindakettő 0,13-mal készül, mert megérett rá.''
Az idő tényleg megérett a 0,13 mikronon való gyártásra, mert ma már jobb (gyorsabb és olcsóbb), mint akár a 0,15 mikron. De ez még NEM jelenti azt, hogy a 0,13 mikronos technológia kiforrott. A kiforrottság azt jelentené, hogy már jól megközelítené az elméleti lehetőségeit. (Ha a 0,13 mikron annyira kiforrott lenne, mint azt az nVIDIA eleinte remélte, nem lenne olyan rohadt meleg a GeForce FX.)
Írod:
''Nem azért melegszenek, mert ezzel vagy azzal gyártják, hanem mert az adott gyártástechnológiához-tervezéshez-chiphez képest magas órajelen járatják.''
Ezzel félig egyetértek. Az erőltetetten magas órajel mindig drámaian megnöveli a disszipációt, hiszen megnő a frekvencia, növelni kell a core feszültséget és növekszik a felvett áram is. De az nem igaz, hogy a félvezető technológiának ne lenne lényeges hatása, hiszen a tranzisztorok méretének (felületének) csökkenése miatt arányosan kisebb áramokkal lehet a kapacitásokat áttölteni, ezért azonos core feszültség, frekvencia és tranzisztorszám mellett a chip felületével nagyjából arányosan csökken a teljes disszipáció. (Persze, ha a frekvenciát jobban növeljük, mint ahogy a core feszültséget csökkentjük, akkor a chip felszíni üzemi hőmérséklete emelkedni fog, ami a 0,13 mikronos Athlon-oknál nyilvánvalóvá is vált.)
Írod:
''Ha az NV30-at 350MHz-en járatnák, akkor semmi probléma nem lenne a melegedéssel.''
Egyetértek, akkor kezelhető szintűre esne a melegedése, de a RAM sávszélesség további csökkenése miatt még lassúbb lenne 3D-ben.
Írod:
''A SOI igenis kiforott. Ha valakinek nem megy, attól még másnak mehet.''
Úgy látom, ''kiforrottságon'' Te valami olyasmit értel, hogy az adott dolgot már érdemes megkockáztatni (:-)...
Írod:
''Persze, de ez a tervezéskor már becsülik és az NV30-at eredetileg 400MHz-en képzelték el. De jött az R300 és az nV kapkodásában 500-ra emelte, aztán pofára esett.''
Nem az R300 miatt jött a pofáraesés, hanem mert a DDR-II nem ment, csak DDR-I módban. Ez felezte meg a sávszélességet, és ezért kellett overclockhoz folyamodni. Ha ment volna a DDR-II, akkor 400 MHz-en is a GeForce FX lett volna a gyorsabb. (FSAA-ban is.)
Kérdezed:
''??? Te miről beszélsz????
A frekvencia emelése sosem négyzetes, te valamit nagyon kavarsz.''
Próbáld megérteni, hogy a chipekben kapcsolóként használt tranzisztorok PN átmenetei kapacitásokkal bírnak, amelyeket ki-be kapcsolásonként feltölteni és kisütni kell. Ezekből adódik a disszipáció döntő hányada. Minthogy a tranzisztorok felületével arányosak e kapacitások, azonos áramerősségek mellett a slew rate, és így a kapcsolási sebesség is a felület nagyságával fordítva arányos. Persze megtehetjük, hogy nem használjuk ki teljesen ezt a nagyobb működési frekvenciát, hanem megelégszünk kisebbel, hogy csökkentsük a disszipációt.
Kérdezed:
''A tranzisztor szám 2x akkor a sebesség 2x?''
Ha az elvégzendő feladat jól párhuzamosítható, akkor igen. (Csak hogy ne legyen félreértés, a sebesség itt nem az órajelet jelenti.)
Írod:
''Itt az R350 vs. NV3X-ről van szó. Hogy megértsd gondolj a P3 vs. P4-re.''
Nem tudom pontosan mire utalsz. Mindenesetre én azt állítom, hogy az NV35 lényegesen gyorsabb lesz a Radeon9800Pro-nál is. (Kb. olyan arányban, amilyen arányban a memória alrendszere.) -
Power
senior tag
Amúgy itt a Radeon9800PRO kontra GFX 5800/5900-ről van szó, ahol a GPU mindegyik esetben a GFX-en magasabb az órajele és a sebesség viszont...
Elméletileg és általánosságban igazad, csakhogy egy rendszer(itt most egy grafikuskártyát tekintsünk annak) ''sebessége'' sok egyébb tényező befolyásolja, tehát azonos chip esetén sem biztos, hogy a nagyobb órajelű lesz a gyorsabb kártya. -
Power
senior tag
''Úgy látom Egon már megelőzött (:-), így hát csak megismétlem, hogy az Itanium2 és a Power4 is túl sokat fogyaszt, közönséges PC-ben (vagy pláne egy grafikus kártyán) nehezen volna használható. A VIA C3 meg csak azért hideg, mert (ahogyan Te is utaltál rá) sokkkkkkal kevesebb tranzisztort tartalmaz és még azokat is alacsonyabb órajelen használja. (Természetesen a processzálási teljesítménye meg ennek megfelelő.) A SOI-t abszolute kiforrotnak nevezni meg egy vicc, már megbocsáss. (Csak hogy tudd: Magyarországon egyedül nálunk - KFKI MFA - van teljes működő félvezető technológiai sor. Sehol máshol.)''
Nem kell keverni a dolgokat. Mind az Itanium2, mind a Power4 0,18 mikronnal gyártották eredetileg, pedig már akkor is volt 0,13 mindkét cégnél. Akkor miért is? Akkor még valóban nem volt elég kiforott és ezért az egyszerűbb útat választották, de ma már mindakettő 0,13-mal készül, mert megérett rá.
Nem azért melegszenek, mert ezzel vagy azzal gyártják, hanem mert az adott gyártástechnológiához-tervezéshez-chiphez képest magas órajelen járatják.
Ha az NV30-at 350MHz-en járatnák, akkor semmi probléma nem lenne a melegedéssel. Azért olyan hangos, mert az nV gyárilag tuningolt vackot adott ki.
Az NV25-höz képesti órajel növekedés arányát nem indokolta a 0,15 -> 0,13 mikron.
A SOI igenis kiforott. Ha valakinek nem megy, attól még másnak mehet.
''Ez így önmagában még kevés, ugyanis a kihozatalnál számít az is, hogy milyen frekvenciát várunk el és mekkora elektromos teljesítményfelvételt, illetve hőmérsékletet engedünk meg.''
Persze, de ez a tervezéskor már becsülik és az NV30-at eredetileg 400MHz-en képzelték el. De jött az R300 és az nV kapkodásában 500-ra emelte, aztán pofára esett.
''Vélekedsz:
''Elképzelhető, hogy 10-15%-kal gyorsabb lesz, de ár/teljesítmény arányban nem fog vele versenyezni.''
Tévedés. Egy 0,13 mikronon gyártott chip a 0,15 mikronon gyártotthoz képest négyzetesen kisebb, azaz 0,75-szoros méretű, miközben a dielektromos kapacitások hasonló arányban kisebbek, ezért azonos fajlagos fogyasztás mellett 1,33-szoros frekvenciájú lehet. Tehát ha az NV35 ugyanannyi tranzisztort tartalmazna, mint a Radeon9800Pro (talán 120 millió), akkor 0,75-szörös ár mellett 1.33-szoros sebességű lenne (eltekintve az architekturális különbségektől).''
??? Te miről beszélsz????
A frekvencia emelése sosem négyzetes, te valamit nagyon kavarsz.
A chip mérete valóban négyzetesen változik, DE ezt csak azt jelenti, hogy ennyivel kisebb lesz.(azaz pl. ugyanakkora órajelen dúrván 75%-a lesz a fogyasztás).
Másrészről az NV35 nem egy 0,13-mas R350 és én az R9800PRO-hoz hasonlítottam.
Egyre mosolyogtatóbb :))
''Az előbbi számítások természetesen az ideális esetre vonatkoznak, vagyis amikor a 0,13-as félvezető technológia tényleg kiforrott lesz.''
Már most is az nem a NV+TMSC párosításban, de aki béna az béna.
''A magasabb órajelből nem következik magasabb sebesség.''
''Ez csak akkor igaz, ha valamit elbaltáznak, pl. nem gyorsítják hozzá megfelelően a RAM-ot. (Mondjuk a GeForceFX-nél éppen ez esett meg.)''
Itt az R350 vs. NV3X-ről van szó. Hogy megértsd gondolj a P3 vs. P4-re.
''''A DDR-II-öt ugyanúgy oda lehet tenni az R350 mellé is, tehát ez nem érv.''
Kérdés. Mondani bármit lehet, az nVIDIA-nak már ténylegesen végrehajtott kísérlete is volt.''
Publikált kisérlete az ATi-nak is volt, csakhogy ők aszonták rá, hogy kiprobáltuk és lehet, az nV ugyanerre aszonta, hogy kész a kártya :)) -
Joz76
tag
Teljesen egyetértek Veled egy kivétellel. Az Intel már nem, vagy csak igen kis mennyiségben gyárt 0.18-as technológiával. A 2GHz-es illetve nagyobb Celeronok ugye már 0.13-asok, és már kitűzték a dátumot (pontosan nem tudom mikor), miután már nem lehet rendelni 1.7-est. Szóval 1,8, 1,9 már csak ezek 0.18-asok, és nem vagyok biztos benne, hogy ezeket nem raktárról adja az Intel.
Joz -
Power
senior tag
1. Szerinted több, mint 400 millió tranzisztornak mennyit kellene fogyasztania???
A 0,18 mikron kiforott???
Itanium2 - 0,18 mikron 221 millió tranzisztor, 1.0 GHz kb. 130 W
Itanium2 - 0,13 mikron több, mint 400 millió tranzisztor, 1.5 GHz ez is kb. annyi
Ezen neked mi nem kiforott???
Közel 2x annyi tranzisztor; 1,5x akkor órajel ugyanakkora fogyasztás, neked ezen mi nem kiforott??????
2. Ennek gazdasági és pénzügyi okai vannak és semmi köze a kiforottsághoz. Ma a chipek jelentős része készül 0,25 mikronnal. És?
''??? Miért is?!? Még nem nagyon lehet megtippelni, mennyiért is fogják adni a két _még meg nem jelent_ kártyát... Nem tartom valószínűnek, hogy a töbletteljesítménynél nagyobb mértékben lesz drágább. Ha 10%-kal drágább lesz 10%-os teljesítmény-többlet mellett, az pont azonos ár/teljesítmény - ott az egyéni szimpátia dönt (driverek, képminőség stb.).''
499 dollár az 5900Ultra vs 399 dollár a 9800PRO.(ezt már kapható, míg az előbbi...)
Ennyit erről. -
DcsabaS
senior tag
Kedves (#34) Parci!
Írod:
''Ha tehát az nVidia tud normálisan 0.13 mikronon gyártani, az ATI is fog tudni.''
Ez természetesen igaz. Kérdés persze, hogy mennyi időbe kerül majd az áttervezés. (Illetve, hogy elkezdték-e egyáltalán.)
Írod:
''DDR-II: ne misztifikáljuk túl. Egyrészt, az ATI memória-vezérlői is ''fel vannak készítve'' rá. Másrészt az nVidia is épp most lép vissza, és csak ugyanezt mondja az NV35-ről.''
Távol álljon tőlem, hogy a DDR-II-őt a kelleténél jobb színben tüntessem fel. Szerintem akkor jön el az ideje egy új technológiának, amikor a régi már nem megfelelő. Vagyis amikor kénytelenek vagyunk váltani. A DDR-II-re még nem szorulunk rá (ahogy az RDRAM-ra sem szorultunk rá anno, amikor az Intel erőltette az új technológia koraszülését.)
(De hogy az ATi vezérlői mennyire vannak felkészítve a DDR-II-re, azt azért még jó lenne látni.)
Kérdezed:
''Szerintetek mekkora feladat egy R9800-ast 0.13 mikronon, nagyobb órajelen, gyorsabb RAM-mal legyártani?''
0,13 mikronra átállni tipikusan néhány hónaptól mondjuk fél évig terjedő idő lehet. Ráadásul a R9800 pillanatnyilag jobban is járna vele (mint az NV30, vagy az NV35), ugyanis az alacsonyabb tranzisztorszám javítja a jelenleg még nem túl fényes kihozatalt. Az órajel egyből feljebb mehetne, de a megbeszéltek szerint az elektromos teljesítményfelvétel is emelkedne. A DDR-II támogatása viszont még mindig sötét ló.
Írod:
''Mert, az nVidiával ellentétben az ATI-nak már van működő 256 bites buszú memória-alrendszere.''
Ez igaz, és hála istennek remekül megy. A személyes véleményem az, hogy grafikus kártyáknál még az 512 bit-es memóriára is előbb volna érdemes átállni, mint a DDR-II-re. (De persze nem én döntöm el.) -
Azt felejtitek el, hogy a 0.13 mikron a TSMC/UMC általi külső adottság az nVidiának és az ATI-nak. Hacsak nem terveznek valami béna chipet, akkor ezen a két cégen múlik, hogy mikor áll készen.
Ha tehát az nVidia tud normálisan 0.13 mikronon gyártani, az ATI is fog tudni.
DDR-II: ne misztifikáljuk túl. Egyrészt, az ATI memória-vezérlői is ''fel vannak készítve'' rá. Másrészt az nVidia is épp most lép vissza, és csak ugyanezt mondja az NV35-ről.
Szerintetek mekkora feladat egy R9800-ast 0.13 mikronon, nagyobb órajelen, gyorsabb RAM-mal legyártani? Mert, az nVidiával ellentétben az ATI-nak már van működő 256 bites buszú memória-alrendszere. Az R9800 csak egy 0.15 -> 0.13 csökkentésre vár, és máris oda lehet az NV35 előnye.
HA (!) nincs semmi architekturális újítás a GF FX-hez képest. -
DcsabaS
senior tag
Kedves (#31) Power!
Úgy látom Egon már megelőzött (:-), így hát csak megismétlem, hogy az Itanium2 és a Power4 is túl sokat fogyaszt, közönséges PC-ben (vagy pláne egy grafikus kártyán) nehezen volna használható. A VIA C3 meg csak azért hideg, mert (ahogyan Te is utaltál rá) sokkkkkkal kevesebb tranzisztort tartalmaz és még azokat is alacsonyabb órajelen használja. (Természetesen a processzálási teljesítménye meg ennek megfelelő.) A SOI-t abszolute kiforrotnak nevezni meg egy vicc, már megbocsáss. (Csak hogy tudd: Magyarországon egyedül nálunk - KFKI MFA - van teljes működő félvezető technológiai sor. Sehol máshol.)
Írod:
''A GF2 óta nem változott. Most nem akarok arra kitérni, hogy a 2xTMU jobb-e vagy az 1x, de a 4 pipeline kevés.''
Önmagában a pipeline-ok szaporításával természetesen egyetértek. A 3D számítások természetéből fakadóan akár 512 db pipeline-t is hatékonyan felhasználhatnánk.
Írod:
''Az számít kiforottnak, ha chipek döntő többsége hibátlan(pl. 90% már annak számít).''
Ez így önmagában még kevés, ugyanis a kihozatalnál számít az is, hogy milyen frekvenciát várunk el és mekkora elektromos teljesítményfelvételt, illetve hőmérsékletet engedünk meg.
Vélekedsz:
''Elképzelhető, hogy 10-15%-kal gyorsabb lesz, de ár/teljesítmény arányban nem fog vele versenyezni.''
Tévedés. Egy 0,13 mikronon gyártott chip a 0,15 mikronon gyártotthoz képest négyzetesen kisebb, azaz 0,75-szoros méretű, miközben a dielektromos kapacitások hasonló arányban kisebbek, ezért azonos fajlagos fogyasztás mellett 1,33-szoros frekvenciájú lehet. Tehát ha az NV35 ugyanannyi tranzisztort tartalmazna, mint a Radeon9800Pro (talán 120 millió), akkor 0,75-szörös ár mellett 1.33-szoros sebességű lenne (eltekintve az architekturális különbségektől).
De persze több tranzisztort tartalmaz majd (talán vagy 140 milliót), így ha az eltérő architektúra hatásától továbbra is eltekintünk, akkor nagyjából a következőkre lehet számítani:
kb. 90 százalékos chip méret és ár (ti. (0,13/0,15)^2*(140/120) = 0,876)
kb. 150 százalékos 3D sebesség (ti. (0,15/0,13)^2*(140/120) = 1,555) és szintén
kb. 150 százalékos teljesítmény felvétel (ti. (0,15/0,13)^2*(140/120) = 1,555)
Az előbbi paramétereket egymás rovására lehet javítani. Tehát ha az elektromos teljesítményfelvételt az nVIDIA csökkenteni akarja (alacsonyabb órajellel), akkor csökkenni fog a 3D sebesség is.
Az előbbi számítások természetesen az ideális esetre vonatkoznak, vagyis amikor a 0,13-as félvezető technológia tényleg kiforrott lesz.
Írod:
''A magasabb órajelből nem következik magasabb sebesség.''
Ez csak akkor igaz, ha valamit elbaltáznak, pl. nem gyorsítják hozzá megfelelően a RAM-ot. (Mondjuk a GeForceFX-nél éppen ez esett meg.)
Írod:
''A DDR-II-öt ugyanúgy oda lehet tenni az R350 mellé is, tehát ez nem érv.''
Kérdés. Mondani bármit lehet, az nVIDIA-nak már ténylegesen végrehajtott kísérlete is volt. -
Egon
nagyúr
''Két konkrét példát írtam, olyanokat amik az NV30-cal összemérhető bonyolultságuak. Teljesen probléma mentes. A C3 illetve a P4 (ami úgye 1,5 éve) direkt nem írtam, mert egyszerűbb felépítésüek. Szóval abszolute kiforott.''
1. Elbeszélsz a másik fél mondandója mellett. Mennyi is pl. az Itanium2 teljesítmény-felvétele?!? Baromi sok. Azaz melegszik rendesen.
2. Az Intelnek (és az IBM-nek sem) kell ''külsőssel'' gyártatni: több gyáruk van, ahol _fokozatosan_ átállnak a fejlettebb gyártástechnológiára. Még _jelenleg_ is gyárt pl. az Intel 0.18 mikronos procit (Celeron)!
''Elképzelhető, hogy 10-15%-kal gyorsabb lesz, de ár/teljesítmény arányban nem fog vele versenyezni.''
??? Miért is?!? Még nem nagyon lehet megtippelni, mennyiért is fogják adni a két _még meg nem jelent_ kártyát... Nem tartom valószínűnek, hogy a töbletteljesítménynél nagyobb mértékben lesz drágább. Ha 10%-kal drágább lesz 10%-os teljesítmény-többlet mellett, az pont azonos ár/teljesítmény - ott az egyéni szimpátia dönt (driverek, képminőség stb.). -
Power
senior tag
''Szóval 0,13 mikronon jelenleg vagy a kihozatal nem elég jó, vagy a frekvencia nem elég magas, vagy a fogyasztás túl nagy.''
Két konkrét példát írtam, olyanokat amik az NV30-cal összemérhető bonyolultságuak. Teljesen probléma mentes. A C3 illetve a P4 (ami úgye 1,5 éve) direkt nem írtam, mert egyszerűbb felépítésüek. Szóval abszolute kiforott.
''Hogy a 4*2-es architektúra távlatilag rossz lenne, azt én nem látom igazoltnak.''
A GF2 óta nem változott. Most nem akarok arra kitérni, hogy a 2xTMU jobb-e vagy az 1x, de a 4 pipeline kevés.
''Nem tudom, hogy ki mit számít forradalomnak, de én mindenesetre azt várom, hogy eleve gyorsabb lesz a Radeon9800Pro-nál, és mert 0,13 mikronon lesz gyártva, hamarosan olcsóbb is, továbbá ha megoldódik a DDR-II ügye, akkor pedig még tovább gyorsul.''
Az számít kiforottnak, ha chipek döntő többsége hibátlan(pl. 90% már annak számít).
Elképzelhető, hogy 10-15%-kal gyorsabb lesz, de ár/teljesítmény arányban nem fog vele versenyezni.
A magasabb órajelből nem következik magasabb sebesség.
A gpu chip gyártásik költsége 15-20 dolcsi. Az R350 kevesebb tranzisztorból, de mondjuk 3 dollárral olcsóbb lesz az NV35. És??? Nem ezen fog múlni, egy 300-400 dolláros kártyánál.
A DDR-II-öt ugyanúgy oda lehet tenni az R350 mellé is, tehát ez nem érv. -
Xmas
tag
''mivel sem a 0,13 mikronos gyártástechnológia, sem a DDR-II RAM-ok még nem érettek meg a sorozatgyártásra, illetve az együttes felhasználásra (azért figyeljük meg, hogy Huang elegánsan az ''éretlen piacra'' keni a dolgot''
Felhívnám a figyelmet arra, hogy az ''éretlen piac'' a CIKKÍRÓ megfogalmazása. Huang a gyártástechnológiák és sorozatgyártás kapcsolatáról beszél, vagyis az IPARRÓL és nem a PIACRÓL beszél.
Néha az ilyeneket is lehetne javítani a cikkekben... (Sőt, igazából nem kellene ilyeneket beleírni.) -
Egon
nagyúr
Kötsög nVidia, már megint nincs rajta sapka mi?
Az eredeti forrást megnézve - igaz, rendkívül csekély nyelvtudásommal - nem azt láttam, amit az itteni cikk szerzője (gondolok itt az ''éretlen piac'' kitételre - ilyet _senki_ nem mond, akinek minimális marketing-ismeretei vannak, illetve a piacról él...). -
DcsabaS
senior tag
''A 0,13 mikronos gyártástechnológia nem kiforott???''
Sajnos azt kell mondani, hogy még nem. Ez persze nem azt jelenti, hogy egyáltalán nincs rajta termelés, hiszen itt van mindjárt a köztudottan gyors (vagy csak hűvös (:-)?) VIA C3 is, azt jó ideje azon termelik.
Szóval 0,13 mikronon jelenleg vagy a kihozatal nem elég jó, vagy a frekvencia nem elég magas, vagy a fogyasztás túl nagy. Így csak akkor érdemes használni, ha tudjuk valamire specializálni (lásd a C3-at). Egyébként még csiszolni kell rajta.
''A 4*2-es architektúra és 128 bites busz az amit elcsesztek.''
Hogy a 4*2-es architektúra távlatilag rossz lenne, azt én nem látom igazoltnak.
A 128 bit-es buszt tényleg tervezhették volna eredetileg is 256 bit-esre, és akkor nem lenne bajuk. (Na de a 256 bit-es DDR-II valószínűleg túl nagy falatnak nézett ki.)
''Nem hiszem, hogy az NV35 forradalmi változásokat hozna, azonkivül, hogy lehet majd kapni.''
Nem tudom, hogy ki mit számít forradalomnak, de én mindenesetre azt várom, hogy eleve gyorsabb lesz a Radeon9800Pro-nál, és mert 0,13 mikronon lesz gyártva, hamarosan olcsóbb is, továbbá ha megoldódik a DDR-II ügye, akkor pedig még tovább gyorsul. -
Power
senior tag
A 0,13 mikronos gyártástechnológia nem kiforott???
Már az Itanium2-öt is azzal gyártják, nem beszélve a Power4-ről(itt még SOI isval kombinálva) ezekben több tranzisztor van, mint az NV3x bármelyikében.
A DDR-II-vel kapcsolatban annyi tény, hogy még drága.
Az nV-nél már ősszel lázasan dolgoztak a 256 bites memória buszon.
A 4*2-es architektúra és 128 bites busz az amit elcsesztek. A 0,13 vs NV30 pedig közösen hibáztak a TMSC-vel, amikor 0,18 mikronra tértek át az meg bejött, most nem, hát ez van. A DDR-II-öt pedig egyszerűen rosszul mérték fel, erről tehetnek a legkevésbé.
Nem hiszem, hogy az NV35 forradalmi változásokat hozna, azonkivül, hogy lehet majd kapni. :))
Remélem az 5900-as nem lesz olyan hangos :DD :DD :DD -
n4cr
csendes tag
Csak annyit teszek hozzá a cikkhez, hogy: :D
-
DcsabaS
senior tag
Kedves (#21) roadside!
Egyelőre nehéz megbecsülni, hogy a gyártástechnológia fejlődésével a DDR-II mikor lesz érettnek (és elég olcsónak) tekinthető. Az egyes architektúrák összehasonlítását egyébként ugyanazon a félvezető technológián volna érdemes megtenni, különben esetleg olyan előnyöket/hátrányokat hiszünk valamelyik oldalán, amelyek nem is az architektúrák különbözőségéből fakadtak. Az, hogy az nVIDIA hosszas küszködés után visszatérni látszik a DDR-I-hez, számomra azt mutatja: komolyak a nehézségek. (De hogy megtartják a DDR-II támogatást, az meg arra látszik utalni, hogy azért látszik az alagút vége...) -
MrSummer
aktív tag
Az NV35 szerintem jófajta lesz
-
roadside
csendes tag
Sajnos mindenki ködösít és még nem tudni, hogy DDR II vagy I lesz az NV 35-ön. Most úgy látszik, hogy az I-es verzió az igaz. DcsabaS, kösz mindenki nevében a kimerítő leírást, így talán már oszlik a köd mindenkinek. A DDR II valóban nem 2x gyorsabb a DDR I-nél, a sebességnövekedés 10-15 % körül van, de a nyers és jóval magasabb órajel azért odavág a DDR I-nek.
-
DcsabaS
senior tag
Kedves (#13) LordX!
A DDR-II NEM abban különbözik a DDR-I-től, hogy magasabb frekvencián lehet hajtani!
Az SDR, a DDR és a DDR-II memóriák között az az alapvető különbség, hogy azonos belső órajel mellett az I/O pufferek órajelenként 1-szer, 2-szer, illetve 4-szer is tudnak adatot továbbítani, vagyis:
SDR-nél: periódusonként 1-szer van átvitel,
DDR-I-nél: 2-szer (a fel és a lefutó éleknél is),
DDR-II-nél: 4-szer (90 fokonként eltolva egymáshoz képest).
Tehát a DDR-II normálisan QDR átvitelt valósít meg (mint a P4 rendszerbusza, ti. az is 4-szeresen pumpált), szemben a DDR-I-gyel, amely az Athlon rendszerbuszához hasonlít (amely csak 2-szeresen pumpált, azaz DDR).
Az előbbiek szerint azonos belső órajel és bit-szélesség mellett a DDR-II elméletileg 2-szer gyorsabb a DDR-I-nél. (Gyakorlatilag nincs ennyivel gyorsabb.) Van még olyan különbség is, hogy a DDR-II más feszültségeket és kissé több lábat igényel. Egyéb érdekességek pl. innen:
http://www.ece.umd.edu/courses/enee759h.S2003/references/DDR_II_evolution.pdf
A GeForceFX-szel az a különös helyzet állt elő, hogy bár DDR-II-es RAM-ot illesztettek hozzá, csupán DDR-I-es üzemmódban használják, igaz, magasabb fizikai frekvenciát kicsikarva. Az új NV35-höz normál esetben 256 bit-es DDR-I-es RAM-ot illesztenek, de állítólag meghagyják a DDR-II-es támogatást is.
*******
Kedves (#14) maniac!
Nem azt mondták, hogy ''a piac még éretlen'', hanem hogy a DDR-II és a 0,13 mikronos félvezető technológia az éretlen. -
JulWCZar
senior tag
Nem, az antialiasinghez a pixel pipelineokra kell gyúrni inkább.
Bár azt tudni kell hogy a textúrázóegységek száma attól is függ mennyire szűrik a Z-puffert, mert ugye minnél kevesebb nem láthat él kiszámolása, annál inkább közelít a vertexek textúrapixelmennyisége a képernyőn megjelenő pixelek mennyiségéhez.
Felmerül akkor a kérdés hogy minek adta fel az ATI a 2 textúrázó egységet, ha általában 3-4szer több a texel mint a pixel (ugyebár akkor lenne az arány 1:1 ha az összes vertex egy síkban állna a képernyővel és lefedné azt)? Nos egyszerű:
A supersampling (vagy már multisampling) FSAA az arányon ''javít'' azzal hogy a 8-1 es felállásból adódó vertex bottleneckehez igazítja a pixel kirajzolási teljesítményt, amely csak parlagon heverne. Pl.: 1600*1200 at supersamplinngel 3200*2400ban számol, amit megtehet, mert a fillratje a sok pixel pipeline miatt magasabb.
Itt bukik nV30: 4-2ben viszonylag jobb az arány, kisebb a bottleneck vertex téren ha nincs FSAA vagy csak minimális, de amint elkezd jobban simítani, a 4 pixel pipeline válik lassító tényezővel.
Szóval, az NV30 4-2je a régebbi FSAA mentes időkben logikus és várható lett volna, de manapság más idők vannak... -
JulWCZar
senior tag
Minden megéri ha tömegesen gyártják. Egyszerűen elbaltázták, lásd ATI: DDR1, 0.15 micron, R300. És üt. Technológiaileg, mert nem a leg hájtekebb cucc, és marketing szempotjából, mert senki sem hitte hogy ki tudják hozni, és láss csodát, kellemes meglepetés lett.
nVidia most izomból dolgozik: DDR II, 0.13 mikron, órajel az égben. Holott egy 256 bites busszal sokkal szebben muzsikált volna, és persze alacsonyabb órajel -> kisebb hűtés. Persze, kérdés hogy hogy paszírozták volna bele a plusz kivezetéseket a nyákba, ami így is 12 rétegű...
És azt ne mondja senki hogy most görcsöl az nVidia, mert akkor nem adtak volna ki egy ilyen FX5200 förmedvényt. Még túl magabiztosak, azt hiszik a hínevükkel mindent el tudnak adni, de SZVSZ az 5200-essel a lowcost szegmensben okoznak csalódást, az NV30cal meg a highend piacon. De ők tudják. -
Thom!
veterán
Ahogy én gondolom NV35 a nyers teljesítményt tekintve szinte 100% hogy leveri R9800Pro-t, ha igazak az órajelek. Nem mind1 hogy 4×2 v, 8×1 pipeline-t fog használni? De az AF és AA-ban vagy kicsivel múlja felül a R9800-at vagy közel azonos sebességbe lesznek. De a driverek közbeszólhatnak Det FX 50 vs. Cat 3.4 igen érdekes csata lesz, de majd minden az E3-on.
-
BiP
nagyúr
Nemtom mi ebben az eretlen piac.Nekem egyaltalan nem ugy jott le, mintha arra kente volna. Azt mondta, hogy a DDR-II es a 0,13 nem erett meg a sorozatgyartasra. Szerintem ezt technologiailag kell erteni. A rossz gyartasi kihozatal, az instabil DDR-II, nem sorozatgyartasra valo. Nem eri meg => visszalepnek a stabil, kiforrott, hasznalhato DDR-I-re, a savszelesseg potlasara meg muszaj a 256bit. Mi ebben az eretlen piac?
Viszont jo, hogy elismertek, hogy rossz iranyba nyitottak.
Tul nagyot akartak egyszerre lepni.
(mellesleg a 128bit tenyleg keves, de hat ezert kellett a gyors RAM - csak nem jott be.)
(Ami a 3DFX orokseget illeti (filmes effektek), erre talan meg tenyleg eretlen a piac. Nehany eve meg foleg az volt.) -
maniac
senior tag
Olvassátok el mág egyszer! Nem ismerték el, hogy a 128bites meminterfész a hibás csak annyit mondtak, hogy a piac még éretlen a DDR-II memekhez, és a 0,13-as gyártásra! Na ezt magyarázzák az idiotáknak. NIVIDA SUXX!
-
LordX
veterán
-
Cefa
senior tag
reggel még csak 850 mhz-s volt a memória :)
-
DcsabaS
senior tag
''(azért figyeljük meg, hogy Huang elegánsan az ''éretlen piacra'' keni a dolgot, és szót sem ejt például arról, hogy milyen súlyos hiba volt a 128 bites memóriainterfésznél maradni).''
HA bejött volna a DDR-II - 0,13 mikron kombináció, akkor az nVIDIA-nak nem lett volna szüksége arra, hogy 256 bit-es memória interfészt használjon, ugyanis 128 bit-en is (valamivel) gyorsabbat alkotott volna, mint a Radeon9700/9800.
Pechjükre, a felhasznált DDR-II-es RAM-ot csak DDR-I-es üzemmódban tudták (elég stabilan?) használni, így a felére esett sávszélességet az órajel emelésével voltak kénytelenek valamelyest növelni (ami viszont a termelt hőt is megemelte, lásd porszívó ventilátor). Szóval végül is teljesen igaza van Jen-Hsun Huang-nak, a baj a DDR-II-vel és a 0,13-mal volt.
Az NV35-tel kapcsolatos érdekes kérdés, hogy vajon a GeForceFX megjelentetése hátráltatta-e az NV35 megjelenését, vagyis az nVIDIA haladéktalanul megkezdte-e a RAM vezérlő áttérését DDR-I/256 bit-esre, vagy pedig egy ideig még abban ringatták magukat, hogy a GeForceFX is elég jó lesz. Ha volt ilyen késlekedés, akkor azért komolyan hibáztathatók. -
HiperG
addikt
Az a gond, hogy most már hiába jelentik be akkor is sok fant vesztettek :t :t :t
-
Genialis
aktív tag
Igen, valóban hiba volt. Ezt mindenki tudta eddig is, most csak megerősítettek minket hitünkben.
-
khalox
őstag
Azért anélkül, hogy különösebben magamra venném (mert nem tartozom azok közé, akik beleszámítanak az ő piacukba), az éretlen piac kifejezés kissé erős...
...inkább éretlen termékről kellene beszélnie. A piaccal nincs gond :). -
HiperG
addikt
Ha jólemléxem volt egy hír, melyszerint az nVidia új videokártyái 100-120 Wattot fogyasztanak. Ez az NV35-re vonatkozott, nem? :)
-
Zsiba
senior tag
Szép dolog, hogy beismeri a hibáit... amit végül is nem tett meg, hiszen másra kente :)
Az NV30-cal tényleg melléfogtak, de talán a 35 már nem csak papíron lesz jó! -
zsoltee10
addikt
:))
-
HiperG
addikt
Jujj :DD
Aktív témák
- PowerColor Red Devil AMD Radeon RX 6800 XT 16GB Garanciával!
- Asus DUAL-RTX5070-O12G nVidia 5070 12GB GDDR7 OC videokártya bontatlan dobozában eladó!
- GIGABYTE RTX 5080 16GB GDDR7 GAMING OC - Új, 3 év garancia - Eladó
- Gigabyte GeForce RTX 2060 6GB Garanciával!
- Gigabyte Geforce GTX 1070 G1 Gaming 8GB Garanciával!
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7700X 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
- BESZÁMÍTÁS! ASROCK B650M R5 7600X 32GB DDR5 2TB SSD RX 6900XT 16GB Zalman Z1 PLUS GIGABYTE 850W
- Bomba ár! Lenovo ThinkPad T490 - i5-8GEN I 8GB I 256GB SSD I 14" FHD I Cam I W10 I Garancia!
- DELL WD19S dokkoló + 130W töltő
- BESZÁMÍTÁS! 16GB (2x8) Patriot Viper Steel 4400MHz DDR4 garanciával hibátlan működéssel
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest