-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
A mesterséges részen azt értem, hogy a sík felület nem 20, hanem 10000 poligonból áll. Ennek látványbeli jelentősége nincs, mert a felület ugyanúgy sík.
8000 dollár egy 28 nm-es eljáráshoz tervezett bulk wafer a TSMC-nél. Mivel mindenki waferekért fizet, így ebből le lehet számolni, hogy egy lapka mennyibe kerül. ~600 mm2-en a költség óriási. A Fermi idején más volt az NV-nek nagy lapkát tervezni. Amint megjelent a GF100 megváltoztatták a szerződést jó lapkák utáni fizetésre. Ezzel az NV csak a megjelenést követő negyedévben terhelte meg magát anyagilag, ami veszteség is lett. Utána nem vették meg a TSMC-től a rossz lapkákat. 2012-ben ilyen nincs. A nagy igény miatt a wafereknek megvan az ára, ha kell vedd meg. Ha rossz a lapka, akkor valahogy old meg az eladását. Ezért skandálja folyamatosan az NV, hogy nagyon kellenek a 450 mm-es waferek, mert nem gazdaságos a 300 mm-es. Igazából a 450 mm sem lesz sokkal jobb, de tény, hogy jobb lesz. Az új gyártástechnológiák költsége viszont egyelőre exponenciálisan nő. Ez olyannyira rosszul áll, hogy a 20 nm már sok piacon irreleváns lesz, csak akkor éri meg átállni, ha az adott lapka csak így fér bele normális mérethatárokba, vagy kell az extrém magas teljesítmény. Más esetben a 28 nm gazdaságosabb marad, most sem annyira gazdaságos a 28 nm. A SoC-ok esetében simán jobb maradni a 40 nm-nél.
A stratégiát a piac diktálja. Ha kicsi a piac, akkor változik a stratégia is. Jelenleg az NV-nek a Tegra a legfontosabb konzumér szinten, mert annak a piaca nő. A Keplert elég erősen úgy tervezték, hogy lefelé is jól skálázható legyen, nem úgy, mint a Fermi. Tipikusan illik a Tegra 4-be ez az architektúra. Ez a priorítás. A VGA-k szempontjából pedig lesz, ami lesz. Ha tényleg számítana ez a piac, akkor az AMD sem így tervezte volna a GCN-t, semmi szükség egy normál VGA-ban MMU-ra (ez mondjuk még belefér), a nagyon erős context switch képességek (na ez az ami már kérdéses, mert a 8 MB regiszterterület a Tahitiben nagyon sok, és ez bizony eszi a tranyókat ... a Pitcairnben is van 5,12 MB, és a Cape Verdében 2,56 MB van, vagyis még mindig több, mint amennyi regiszterterület van GK104-ben), vagy a brutálisan hatékony cache szervezésre. Ezeknek a grafika csak ritkán veszik hasznát. Arra sincs szükség, hogy egy dedikált GPU natívan támogassa a C++ virtuális funkcióit, a kivételkezelés, a rekurziót, illetve nem kell ugyanazokat a 64 bites pointereket kezelnie, mint a CPU-nak (AMD64 architektúra). Az, hogy a GCN ezt mind tudja, csak az integrálás miatt valósult meg.
Ugyanúgy gondolkodott az AMD és az NV. A növekvő piacokra terveztek egy ideális architektúrát (ugye kinek mi volt a fontos, és mi az elérhető piac). A VGA-knál meg lesz, ami lesz. A piac aktuális mérete mellett jelentősége már alig van. -
Abu85
HÁZIGAZDA
Annak oka van, hogy a Tahiti ilyen lett. Egyszerűen jóval bonyolultabb az architektúra, mint a GK104-ben a Kepleré. Sokkal több tranyó megy el arra, hogy a rendszer jól kezelje a bonyolult számításokat. Azért ezek a mérnökök eléggé jártassak ebben. Ha tudnak valami általános infót, akkor órajelek alapján 5%-os pontosságra belövik a várható teljesítményt.
-
Abu85
HÁZIGAZDA
Ez most nem második hely. Persze jellemzően magas felbontáson és 8xAA-val gyorsabb a Radeon HD 7970 a GTX 680-nál, de alatta már nem. Nyilván az NV stratégiája csak a játékokra működik. Máshol a GCN-tól nagyon kikapnak. De egy játékosnak annyira nagy igénye nincs a Luxmarkra, meg az egyéb dolgokra. Jó, szép dolog lemérni, meg mi sem vetjük meg, mert értékes információ, de sosem vettük még be ezeket az eredményeket a tényleges értékelésbe. Azt meg eleve kizártnak tartom, hogy bárki gondolt arra, hogy a TSMC 2012-ben képes lesz nagy mennyiségben gyártani egy ~600 mm2-es lapkát.
A Kepler két dolog miatt volt fontos. És itt most nem a nagy Keplerre gondolok. Az egy speciális termék, amit a MIC ellen ki kellett gyúrni. A kis Kepler a játékokban jól teljesít. Átlagban persze, és leszámítva a komplex effekteket, de az átlag az jó. Emellett a rendszer eléggé skálázható lefelé. A Tegrába nagyon is ideális alternatíva (alaposan megvágva persze), és ez egy jóval fontosabb piac, mint a VGA-ké. Jóval több a növekedési potenciál, mert erre is gondolni kell. A VGA-piac már nem nő, hanem ellenkezőleg ... az eladások csökkennek. Egy darabig még értékes lesz, de egy idő után, már marad belőle egy méregdrága felsőkategóriás szint, ami kap fejlesztéseket és kész. A Tegra sokkal fontosabb, mert az az NV-nek a belépője a Win RT-s tabletekbe, vagy akár az ultravékony notebookokba is. Mindkét piac elképesztő értékes, messze felülmúlják azt a szinten, amit ma a VGA-piac képvisel. Logikus gondolkodás egy cégnél, hogy a fejlesztések alapjait oda pozicionálják, ahol sok pénz van. Az AMD a GCN-t azért nem tudja majd olyan egyszerűen skálázni. Azokat a CU-kat eléggé meg kell vágni, hogy egy tabletbe jó legyen. Látható is a tervekben, hogy 2013-ban a Temash APU még nem kap teljes HSA kompatibilitást. 3 wattba ez még nem fér bele. Lehet, hogy maradnak a VLIW4-nél, mert az jobban skálázható erre a szintre. -
Abu85
HÁZIGAZDA
Az NV ezt eleve így képzelte el. Kiherélik az alap Keplert a shared memory tempóban, mert ott sok tranyót lehet spórolni, és a játékok még annyira nem is érzékenyek erre. Terveznek mellé egy nagy Keplert, amit csak HPC-be és professzionális szinten dobnak be. Igazából más lehetőségük nem volt, mert a TSMC megszüntette a korábbi egyezményüket. Most már az NV sem tartozik külön bánásmód alá. Kifizetik a wafert, és a legyártott lapkákkal azt csinálnak, amit akarnak. Korábban az NV helyzete jóval egyszerűbb volt, mert fix összeget fizettek a TSMC-nek a lapkákért. Amelyiket nem kérték azt a TSMC kénytelen volt kukázni, ezzel lenyelve a veszteséget. Waferes árazás mellett öngyilkosság gyártani ~600 mm2-es lapkát a GeForce piacára. Maximum akkor, ha jó a kihozatal ... ebben az esetben úgy 1500 dolláros áron megfelelő lehet a helyzet, de kizárt, hogy egy ekkora lapka gyorsabb legyen két GK104-nél. Pláne nem olyan tranzisztorzabáló funkciókkal a vezérlésben, mint amiket a GK110-be beépítettek. A dedikált DP unitok sem segítenek, mert ezeknek is nulla jelentőségük van, és gyanítom ez nem változik meg gyorsan.
Ők is mérlegeltek azzal, hogy az AMD 2013-ban nagyot lép az integrálás szempontjából. Na most sosem éri a fontos projekteket úgy bedobni a mélyvízbe, hogy nem láttad mennyire működik jól. Logikus következtetés volt tehát anno pár éve az NV-től, hogy az AMD 2012-ben már olyan új architektúrára épülő GPU-kat dob majd piacra, melyek funkcionalitásban messze túlteljesítik azt, ami abban az időszakban egy GPU-ról elképzelhető. Ez így is lett. A GCN architektúra radikális lépéseket tett az általános számítások irányába. Nyilván a Keplerhez képest kb. négy-ötször gyorsabb shared memory, a rendkívül bonyolult cache-szervezés és a gyors context switch érdekében brutálisan megnövelt regiszterterületek (Tahitiben összesen 8 MB - a GK104-ben összesen 2 MB van) viszik a tranzisztorokat. Az NV ezt kihasználva inkább a játékokra koncentrált, és benyelték, hogy bonyolult általános számításban a GCN bucira veri majd őket (ray-tracing és más egyéb, nyilván ez látható az OpenCL-es progikban). Igazából a mai játékok szempontjából egyértelmű, hogy melyik az előnyösebb. A Metro 2033 és az AVP tartalmaz olyan effektet, ahol a GCN ilyen irányú felépítése komoly előnyként jelentkezik. Máshol ez már nincs meg.
A Kepler majd fontos lesz az integrálásnál, és nyilván 2014-ben a Maxwell APU-ba nem ez a rendszer kerül. A GK104 alapjait sem kell eldobni. Ott a Tegra. Mobil szintre úgy sem fog senki marha bonyolult rendszert tervezni oda ez így jó lesz egy pár évig. Persze néhol egy picit meg kell vágni ezt is, de ez a legkevesebb. -
Egyetértek azzal, amit elmondtál, de szerintem, nem mond ellent az én hozzászólásommal.
Az persze lehet, hogy nem csak a TSMC hibája ez az árverseny, hanem a jól sikerült GK104 eredménye is. Viszont ha a TSMC ontaná magából a GPU-kat 3 hónapja, és az emberek érdeklődése kezdene alább hagyni, mert már bevásároltak, akkor az nV megléphetné az árcsökkentést. -
tombar
senior tag
szerintem az egész piac egy nagy kartell. benyomják egy kicsit alá v fölé. árverseny 0, mondván szűkül a piac, viszont ez a mesterséges drágítás csak oda vezet h senki nem fog venni semmit. én kvázi a 8as széria óta gondolkodok egy friss rendszerben, de eddig mindig csak tologatnom kellett. (erre ugye még rátesznek egy lapáttal a nemzetközi pénzpiac és a kedves magyar kereskedők /megjegyzem, teljesen érthető módon/...)
-
TESCO-Zsömle
titán
Jaaa...

Arra gondoltam, hogy míg a piac ment, addig a felső-házban megengedhető volt például egy kártya veszteséggel történő árusítása. A legkisebbek viszik a hátán az egészet itt is. Akkor van nagy baj, ha azok veszteségesek és/vagy a kereslet csökken. Esetünkben utóbbi jelenti a VGA-piac szűkülését, mert a legnagyobb szeletet kitevő belépő-szintet elkezdték felfalni az APU-k. És ez gyorsabban megy végbe, mint az várható volt. Túl nagy ütemben csökken a kereslet a diszkrét VGA-k iránt. Mobil szinten már csak ott alkalmazzák, ahol feltétlenül szükséges, különben már ott is az APU IGP-je megy.
-
TESCO-Zsömle
titán
a 680 ugyanúgy 500 USD, mint eddig minden high-end egyGPUs VGA
A HD7970-es 550$-on indított.
semmi nem nyomta fel a 690 árát, egyedül az, hogy az nVidia szerint ennyiért is megveszik.
Végül is ja... Ezzel rövidre is zártad a dolgot... Csak hát ez nem igazán ad magyarázatot a dolog miértjére. Én is írhattam volna, hogy "mert ennyi az ára"...
az utolsó mondatot nem értem - ez hogy kapcsolódik a témához?
Például úgy, hogy egy ITX lapba nehezen építhető SLI. 690-el viszont áthidalható a probléma.
-
TESCO-Zsömle
titán
Azt felejted el, hogy ha a kis kártyák árát drasztikusan elemik, az arányosan nyomja fel a nagyok árát is. Egyrészt. Másrészt a nagyokon kieső profitot a fejlesztés költségeivel együtt a kicsiknek kell kitermelni.
(#9887) fatallerror: Biztos vagyok benne, de minek egy embertelen batár, ha elfér kcisiben is? Az sokkal mokányabb.
(#9888) KillerKollar: Nem mondtam, hogy baj, de ha már az ember egykártyás SLI-t vesz, és nem tervez mellé még egyet, akkor gondolkodhat kicsiben. A jó szellőzés és hűtés nem a méret függvénye, hanem a kialakításé.

(#9889) fatallerror: Szerintem már sokkal előbb fel lehetett volna zárkóznia a VGA-piacnak az Intel-féle CPU-árazáshoz. Nagy szerencsénk, hogy nem történt meg.
(#9890) KillerKollar: Na pont erre akartam utalni. Ha adott két rendszer, ami közel azonos árral és teljesítménnyel bír, akkor sokan a kisebbet/egyszerűbbet választják.
(#9891) fatallerror: A haszon bele van építve a 999$-os MSRP-be. Persze ettől el lehet térni, de ugye mindig lesz vki, aki vevőket akar csalogatni és inkább enged egy keveset. A sóherek úgyis elmennek a város másik felébe párszáz forintért.
(#9894) KillerKollar: Ha megfelelő lap van hozzá.
-
DemonDani
addikt
Ár humoros? ugyan már, ha tényleg van olyan oc lehetőség hogy 355Wra kinyomni a TDP-t (és a két 4pines szerint van) akkor benne lehet még a 100% is az alap 680-ra
másrészt ez a csúcs nem?
erre felé mindig túllövik, akinek kell az epenis fizessen
ilyeneknél inkább a racionális ár lenne már vicces. akinek ilyen kell az már úgyis kifizetett 300ezret montirokra pl 
(#9862) KillerKollar
de kétszer ennyi helyet foglalamúgy meg 499 1 680 ez meg 999$ lesz. pont annyi mintha vennél SLI-t.
gyorsabb lenne az SLI? ha igen akkor iszonyatos 5-10%kkal talán
de cserébe azért mégis csak csúnyább
ehhez még tudsz venni, ahhoz már nem csak ha 3as lapod van 
-
fatallerror
addikt
értem, csak vmelyik külföldi tesztnél nem is nagy hanem "csak" full hd felbontásban a bf 3 1,8 gb vramot evett és h ha most van olyan játék ami majdnem használ 2 gb ramot akkor 1 elég időtálló dx 11.1es kártyára rakhatnának többet szerintem (természetesen az árkategóriát figyelembe véve mondom)

nem biztos h jól emlékszem erre a tesztre
meg ez inkább csak szőrszálhasogatás h azért lehetne rajta több ennyi pénzért :]meg ha nem is annyira mint az a grafikon mutatta de szerintem nagyon jól sikerült a kártya ezért ez a nagy titkolózás, tuti h bőven lesz annyira jó h legyen árverseny a 2 gyártó között

#9042) byZsolt: elméletileg a jövő hét vége fele
-
Abu85
HÁZIGAZDA
Statikus jelenet mellett egy GF110 7-8 fps-re képes az NVIDIA ray-tracing motorjával. Dinamikus jelenetnél ugyanez a minőség, még mindig másodpercekben mérhető képkockasebességet jelent. Egyelőre nagyon messze vagyunk a valós idejű ray-tracingtől, ha a raszterizálással elérhető minőséget meg akarjuk közelíteni. Nem számítanék rá, hogy ez 3 éven belül megváltozik.
Az AA piszok nagy para lesz akkor is. A hibrid megoldások jelentik csak a lehetőséget. Az MLAA és a hasonló ötletek önmagukban csak a tűzoltásra jók. Driverben nagy ötlet, de egy motor esetében sokkal több lehetőséged van.
-
Abu85
HÁZIGAZDA
Sokban függ ez az algoritmustól. Jelenleg eléggé jó minőségre fókuszálunk. Ha azt forward szinten csinálod meg, akkor az több teljesítménybe kerül, mint ha Deferred Rendert alkalmaznál. Carmack volt oda nagyon a Forward Renderingnél, és lényegében úgy vallotta, hogy elég az árnyékokhoz G-Buffert használni, ahogy az UE3 teszi. Azóta a hardverek fejlődtek, és átértelmeződtek az elméletek. Most már a Lightning fázist is Deferred algoritmussal érdemes megoldani, mert a megkívánt komplexitás és a geometriai váz részletességének növelése a forward algoritmusok teljesítményét jelentősen rontja. Deferred Renderingból is vannak eltérő elképzelések. Három megvalósítást különböztetünk jelenleg meg. Defered Shading, amikor a G-Buffer kimenetek között akár 6 fázis is lehet. Ez nagyon sávszélesség-igényes, de lehetővé teszi az virtuális anyag indexelését, ami sok információ tárolását teszi lehetővé pixelenként. A Partial és a Full Defered Lightning kevesebb információt tárol, vagyis kevesebb a sávszélességigény, de a kevesebb információ miatt limitáltak a felületi variációk. Ha jól tudom, akkor a full, legjobb esetben 96 bit/pixel, míg a partial 64 bit/pixel. Nyilván a Deferred Rendering terepén, olyan 130-140 bit/pixel elég lenne sokmindenre, de nincs meg a sávszélesség.
Ugye ebben még nincs benne a Deep G-Buffer, amire az AA-hoz és az átlátszó felületekhez szükség van. Gyakorlatilag a sávszélességproblémákra jelent majd megoldást a Frostbite 2 motorban alkalmazott Tile-based deferred acceleration, amit DirectCompute 5.0-ban írtak. Kihasználják a Local Data Share előnyeit, ami nagymértékben csökkenti a sávszélességigényt. Ezzel lényegében megszerzed a szükséges pixelenkénti információt anélkül, hogy kicsinálnád a kártya memóriaalrendszerét. Persze az AA-val itt is trükközni kell, mert szintén sok lesz az információ. Valami hibrid megvalósítás ajánlott. Tulajdonképpen annyira sok lehetőséget kínál a DX11, hogy bármilyen megoldást lehet találni. Az MLAA adja magát, és innentől pedig csak subpixel információkra van szükség, amire a legjobb a Super-Sampling, de elég lesz csak a közeli objektumokra alkalmazni, így megfogható a teljesítményigény.
A Deferred Shading térnyerése egyre nagyobb, mert több érv szól mellette, mint ellene. Az, hogy ki milyen megvalósítást választ, az igényektől függ. A STALKER új verziós X-Ray motorja a hagyományos Defered Shading mellett dolgozik, a CryEngine 3 Partial Defered Lightningos. Ez tűnik egyébként jelenleg az arany középútnak a két véglet között, de a Tile-based deferred acceleration nagyon ígéretes, így könnyen befutó lehet hosszabb távon. -
Abu85
HÁZIGAZDA
Mert forward renderingnél több vertex és pixel opciód lesz. A geometriát nem csak egyszer kell leszámolni, hanem többször is, ha a lightning fázis is ekkor kerül fel. A Deferred Renderrel ezektől a többszöri számításoktól mented meg magad. Lesz más probléma (AA és átlátszó felületek), de a DX11-gyel gyakorlatilag minden gond kezelhető.
(#8260) DemonDani: Azért tervezték ilyenre a Caymant, hogy vigye a játékok többségét 3x Full HD-ben is. Masszívan erre az igénybevételre van az egész rendszer kialakítva.
Ne feled, hogy a Deferred fázisok miatt, a játékok egy részében az MSAA hibás, vagy egyáltalán nincs benne a motorban. Az MSAA már nem megoldás. A fejlesztőknek kell az AA-t megoldani, és a motor igényeihez szabni. A Crysis 2 is erre épül. Az MSAA masszív probléma Deferred Shading mellett. A motor három algoritmust használ az AA-ra. Az egyik a közeli felületeken végez edge detect szűrést, majd egy post process shader az adatok alapján dolgozik. A távoli részek temporális szupermintákkal dolgozik, ami képminőségben kielégítő és gyors. Az maradék felületet egy MLAA fogja kezelni. Persze utóbbi nem biztos, hogy benne marad, ha igaz, hogy az NV befizetett. -
Abu85
HÁZIGAZDA
A fejlesztők többsége nem ír SSAO algoritmust. A Crytek meg a nagyok talán megcsinálják, de a többiek elkérik az AMD HDAO vagy az NV HBAO algoritmusát, attól függően, hogy melyik felel meg jobban nekik.
A HDAO képminőségben nagyon erős. A HBAO már nem, de nem is eszik annyit. Persze a HDAO előnye, hogy Compute Shaderben írta az AMD, így a DX11-es kártyákon a sebesség 7-szer jobb, mint DX10-ben lenne. A HBAO egy shader modell 4-es megvalósítás.Csak a textúrázó és a ROP kapacitás nem nőtt teljesen arányosan. Nem beszélve a geometriai kapacitásról, ami gyakorlatilag tesszellálás nélkül minden kártyán egy háromszög/órajel. Egyedül a Cayman dolgozik két háromszöggel, míg a fermis GeForce-ot az NV mesterségesen korlátozza, ha nincs tesszellálás, nehogy a Quadro piacát veszélyeztesse a rendszer.
Ilyen körülmények között és a DirectCompute 5.0 lehetőségeivel egyértelmű, hogy a post process a nyerő. Ha nem erre mennénk akkor lehet, hogy mást látnánk, de a hardverek erre fejlődnek, és ezt le kell követni.(#8257) DemonDani: Eleve onnan indultunk ki, hogy ha veszel egy ilyen kártyát, akkor Full HD alá nem adod.
Ez egyszerűen tény. A felbontás nagyságával javul a minőség. Ha kisebb felbontású monitort választasz, akkor azonos mérteben gyengébb lesz a megjelenítés minősége. Gondolod ezek után, hogy ez alternatíva lehet azoknak a felhasználóknak, akik minimum félmillás hárommonitoros konfogikon gondolkodnak?
Volt már nálam IPS panel. Ég és föld a különbség a TN panelhez képest. Ha lenne anyagi keretem rá, rég nem TN panelt nyúznák.
Az IPS technológiája teljesen más, és ezért másak a késleltetési értékek. A technológia alapja, hogy minden váltás megközelítően egyenlő ideig tart. Ha 6-8 ms-ot látsz az IPS-en, akkor az nem egyenlő a TN és a VA 6-8 ms-ával. Sokkal jobb azoknál.Az gáz. Remélem ez a dinamikus kontraszt nem lesz állandóra alkalmazva. Felőlem fejleszthetnek erre, de legyen kikapcsolható.
-
Abu85
HÁZIGAZDA
Itt az a lényeg, hogy az SSAO sokkal kevesebb erőforrást követel, mint az AO. Ugyanez igaz máshol is. A post process zabálja az ALU powert és effekttől függően a VRAM-ot, de összességében jobban jársz, ha így oldod meg. Ebbe valamennyire belejátszik az is, hogy a mai GPU-knak az ALU kapacitása általánosan kihasználatlan.
-
Abu85
HÁZIGAZDA
Függ az alkalmazott rendertől, de kb. 3-7% közé lőném.
Mert a feldolgozás az algoritmusok bonyolultságának növelésével jobb hatással van a teljesítményre post process szinten. Johan Andersson nagyon bizakodó a Compute Shaderes Deferred Renderinggel kapcsolatban. A Frostbite 2 teljesen erre épül. Annyit láttam, hogy marha jól néz ki, de már hallottam, hogy nagyon gyors is. Persze zabálni fogja az ALU powert, de állítólag összességében jobb az eredmény, mert ALU powerből van kihasználatlan kapacitás.
-
Abu85
HÁZIGAZDA
4-6 ms eltérés elképesztően kicsi intervallum. Még az AFR is legalább buplaakkora eltérésekkel dolgozik, és láthatod, hogy mennyi embert nem zavar, ha a csúcsról van szó.

A mai modern játékokban a post process viszi a számítások jó részét. Nem mindegy, hogy hány pixelre dolgozik.

-
Abu85
HÁZIGAZDA
Nem tudom mire gondolsz a rángatás alatt. Még senki sem mért ki ilyet.
A HD 6950 egy butított Cayman. A GTX 560 Ti a teljes értékű GF114. Ha a Cayman ellen akar menni, akkor nem nyalogatni kell a butított verziót. Nem mellesleg a HD 6990 esetében a cél a Full HD feletti felbontások kiszolgálása, itt a GF114 már nem életképes, még 2 GB memóriával sem. Szűk lesz a setup motor 4/16 pixeles rasztere a 32 blendingre. A Cayman rasztere 32, pont annyi, mint a blending. Ezért tűri az a rendszert sokkal jobban a felbontás növelését. Tulajdonkéépen bevallottan az Eyefinityre készült a chip.
-
Abu85
HÁZIGAZDA
Én szeretnék. Nagyon bejön az energiahatékony működés. Végre lehet paraméterezni a fogyasztást. Hamarabb is megléphették volna. Bár csak most vált szükségessé.
A fizika ellen eddig egy meccset sem nyertek meg. Szerintem ez a jövőben sem változik majd meg.
A GF114 nem alkalmas a Cayman elleni versenyre. Ezzel a mérnökök nem tudnak mit kezdeni, szerintem nem is akarnak. Eldöntötték, hogy a HPC az első, aztán lesz ami lesz a VGA-piacon. A lényegen nem változtat úgy sem, mostantól platformra van szükség, ha az NV a harmadik helyről feljebb akar lépni a PC-s GPU-piacon. -
TomLion
tag
A képen GF100/110 van, de ha megcsinálják, kézenfekvő lenne a 2db GF114, még ha 2x2GB 256bites RAM megy is rá.
Persze, itt kérdéses, hogy verné-e a 6990-et, 300W alatt biztosan nem, de nem lenne tőle messze, és erősebb lenne, mit az 580, az tuti..
Meg kell várniuk, mit tud 300W-on az AMD, illetve nyitnak-e a magasabb fogyasztási küszöb felé -
Abu85
HÁZIGAZDA
Gyakorlatban úgy működhet, hogy az egységek négy órajel alatt dolgoznak fel egy háromszöget. Nyilván a GF104-en ez az érték két órajel. Ezt a limitációt nem nehéz driverből beállítani.
Gyanítom, hogy ennek üzletpolitikai szempontjai vannak. A tesszelláció a professzionális piacon szart sem ér, de a gyors setup az már sokat hozhat a konyhára, mert a modellek eléggé sok poligonból állnak. A Quadrokban nincs ez a limitáció. A játékok esetében, meg nem vesztenek 3-7%-nál többet ezzel az akcióval. Mondjuk az is igaz, hogy ez helyenként jól jönne.
A Crysis eredményeket ez amúgy nagyon magyarázná.
-
DemonDani
addikt
Egyik nagy kedvencem a STALKER előzetes 2003 környéki béta vagy alfa (nem tom már) volt... semmi felesleges dolog nincs rajta, simán szép textúrák meg alap effektek, és majdnem úgy hasított mint egy Quake 3... (najo kis túlzással, de azért közel nem voltak olyan jól menő gamek akkoriban szerény VGA-m körül, toltuk is LANon sokat...
-
Abu85
HÁZIGAZDA
Abszolút. Az asztali programokat úgyis fejlesztik folyamatosan. Én eleve nem tartom elképzelhetetlennek, hogy a fejlesztők elmennek az Android irányába. Elég csak abba belegondolni, hogy jövőre a tabletpiac elég nagy lesz. Ez nyilván csak nőni fog, szóval van benne lehetőség, az okostelefonok is egyre okosabbak, már ha lehet így fogalmazni.
Koránt sem biztos, hogy a PC gamingnek akkora jelentősége van. Mi hardcore felhasználók vagyunk, így másképp szemléljük a dolgokat, de a cég a tömegek igényét nézi. A tömeg casual fejlesztésekre vágyik, ebből a szempontból már a Tegra 2 is bőven kielégíti az igényeket. Az NV negyedévente egy AAA címet ígért, de ahogy elnézem a fejlesztéseket ennél sokkal több jön Androidra. Aztán ott a WebGL, amitől szintén sokat vár az NV. Az is egy univerzális platorm, mert az OpenGL ES 2.0-ra épül. Gyakorlatilag minden okostelefon és tablet képes ezeket az igényeket kielégíteni, sőt az AMD kivételével a PC-n senki sem támogatja a platformot. Mondjuk az NV szerintem fogja, de majd meglátjuk. Ha WebGL-re írsz játékot, akkor ahhoz egy megfelelő böngésző a követelmény, így elképesztő tömeg éri el a fejlesztésed. Hatalmas lehetőség ez is.
A hardcore fejlesztéseknek a cloud a lehetőség. Ebbe szintén komoly pénzt invesztál az NV. Persze ennek a jövője még nagyon kétséges, de a felhős modellel pusztán üzleti szempontból a kecske is jól lakik és a káposzta is megmarad.
-
rup1u5
nagyúr
Ha lesz belőle ilyen hűtős változat akkor sanszos, hogy 570 helyett inkább egy ilyen 560-ra fogom cserélni a 280-amat.
-
Abu85
HÁZIGAZDA
Átlag 3-4 sp az ötből. Ennél jobb nem lesz. A Bats azért jobb, mert a Dispatch processzor van megduplázva, plusz kevesebb sebességet vesz igénybe az interpoláció.
A GPGPU-ban ennél rosszabb a Radeon kihasználása. De ezt már áttárgyaltuk. Az AMD-nek elsősorban játék-GPU kellett, míg az NV-nek ez a rész csak másodlagos. Erre jó példa a dizájn eltérése. Ha az NV-nek kellene játék-GPU nem ilyenre tervezték volna a Fermit. El sem vesztették volna a leggyorsabb VGA címet. -
Abu85
HÁZIGAZDA
Ez a mondat úgy pontos, hogy adott tranzisztor-budgetből próbálták kihozni a legnagyobb ALU teljesítményt, amennyiben a kódban meglehetősen sok a függőség. GPGPU esetében ez számottevő szempont. A grafikánál ilyen kevés van, amire az AMD egy másik, grafikai számításokhoz jobban illeszkedő dizájnnal válaszolt.
Minden ettől függ, hogy mi volt a cél a chip tervezésénél. -
Oliverda
félisten
"...mert a Pentiumba qrva sok tranyó ment csak a magasabb órajel eléréséhez."
Northwood - 127 mm2 (55m trans.) , Newcastle - 144mm2 (68m trans.). A gyártástechnológia hasonló volt mindkettőnél (130nm). A Netburst jóval hosszabb piplene-t kapott, alapvetően egy "high frequency" design volt ami jórészt a gyártástechnológia miatt bukott el. A K8 ennek pont az ellentettje. Lényeg a lényeg a Netburst a K8-hoz képest egy kevésbé komplex design.
-
Abu85
HÁZIGAZDA
Ugyanúgy a GeForce architektúrájához is kellenek speedbumpok. Ezek a dizájn részei. Költheted másra is a tranyókat csak, akkor a magas órajelnek annyi. Kérdés, hogy mivel jársz jobban.
(#7796) tiborandras: Ez nem trükközés. A Furmark eleve egy értelmetlen alkalmazás. NEm is értem, hogy miért tulajdonítanak neki ekkora szerepet. Az meg világos, hogy egy cég védi a hardverét a meghibásodástól.
-
Abu85
HÁZIGAZDA
Ezért nem csinálnak már architektúra tesztet, mert nem tudod, hogy hol működik a két rendszer ugyanúgy. Az órajeleket kétféleképpen lehet állítani. A Radeon magját állítod az NV magjához, vagy az NV shaderét állítod a Radeon magjához. Egyikkel sem kapsz értékelhető eredményt, mert mind a két esetben elveszed a dizájn előnyeit a konkurenssel szemben. Hol a GeForce-nak, hol pedig a Radeonnak kedvezel.
Tekintve, hogy mára a dizájn szerves része a GPU-ból kifacsarható órajel, így a gyári adatok beállításával kapod a legjobb eredményt.
Ez hasonló dolog, mint a Pentium 4 és az Athlon 64 esete. Ha a Pentium 4 órajelét levitted az Athlon 64 szintjére, akkor az AMD szó szerint szarrá verte az Intelt, mert a processzor dizájnja úgy volt kialakítva, hogy egy órajelen belül a lehető legjobb teljesítményt adja le. A Pentium 4 helyzete pontosan ellentétes volt, de ezt kompenzálta, hogy sokkal magasabb órajelen volt képes működni, olyan magasan, amire az Athlon 64 akkor nem volt képes. Ezért nincs értelme már a clock-to-clock mérésnek, mert egyéni mérnöki döntés, hogy ki mit tart fontosnak. Már a tervezés fázisában alapvető kérdés, hogy a rendszer az órajelek szempontjából milyen utat járjon be. -
Abu85
HÁZIGAZDA
Elvi síkon érdemes erről beszélni, mert a Barts 900 MHz-re van a gyártó által specifikálva, míg a GF104 675-re. Hiába megy a két chip feszemeléssel 1 GHz-et, ha esetlegesen a specifikálási folyamaton megbuknak instabil működés következtében. Az NV-nek sokkal jobb lenne egy 800 MHz fölötti GF104, de egyszerűen gyárilag még sincs, mert valami megakadályozza őket az órajel elérésében. Annyi dolgon megbukhat egy kártya specifikálása, és helyenként igen extrém esetekben történik instabil működés, de ezek pont elegek ahhoz, hogy az OEM-ek ajtót mutassanak. Ezért kell úgy belőni az órajelet, hogy átmenjen a termék a tesztelésen. A dobozos termékek esetében sokkal könnyebb a helyzet, mert a partnereknek nem kell megfelelni, ők bátran dönthetnek úgy, hogy egy-egy nem stabil körülményt figyelmen kívül hagynak, és máris kész a gyári tuning. Ha esetleg évente egyszer befagy a kártya, akkor majd a júzer ráfogja a Windowsra.
A GPU dizájn annyira eltérő, hogy nincs értékelhető összehasonlítási alap azonos órajel mellett. Nem mellesleg az elérhető maximális órajel része a dizájnnak, tehát ha a Radeont a GeForce-hoz igazítjuk, vagy a GeForce-ot a Radeonhoz, akkor az egyik termék esetében eldobtuk a dizájn lehetőségeit.
-
Abu85
HÁZIGAZDA
Ezért kellene a memóriavezérlőt kijavítani, mert a belső teszteken 3600 a max, amint kihúznak belőle hiba nélkül. A menekülőutat a gyári tuning jelenti, mert a dobozos verziót kiadhatják a partnerek 4 GHz-es memória felett is.
Vannak ilyen termékminták a partnereknél. Egyet szerzett az EXPreview. [link] Gyakorlatilag kimondható, hogy a kártya 300 watton belül nagyon nem tömeggyártható. A legjobb chipeket meg kell hagyni a Quadro és a Tesla vonalra, mert ott 225 watton belül kell lenni.
-
priti
addikt
Én pont a hűtése miatt ugrottam át az X2-ről
Mondjuk ehhez tudni kell, hogy én annó egy EK blokkal vettem az X2-őt ami megdöglött a blokk alatt, mert nem feküdt fel rá rendesen, így volt egy cseréltetett új X2-őm meg egy 20k-s EK blokkom, amit nem mertem feltenni rá és hallgattam a porszívót. Rühelltem minden percét így hott ott a víz a gépben, a VGA blokk meg a polcon, az apróban meg alig írtak a blokkra, arra vártam, hogy végre mozdulhassak. Számomra az, hogy így bontható a refihűtése az 5770-nek tette tökéletessé ezt a CF-et. Ez így, hogy egy 1000Ft-os ordasi blokk tökéletes hozzá verhetetlenné tette, eladtam az X2-őt pillanatok alatt 55k-ért kifizettem az 5k különbözetet és megvettem két 1GB-os használt 5770-et 30k-ért drabját meg még két rongyot adtam a két ordasi blokkért és így kvázi 7k-ból bevizeztem az X2-őt hozó de gyakran verő VGA-t a 20k-s full cover blokk eladása mellett (közben elvitték) és még dx11-em is van és végre menet közben kuss van, boldogság van. Az 5850 szóba se került nálam. Azok is ilyen 60k körül mentek és most azért fizettem volna rá az X2 eladási árára, hogy legyen egy refi léghűtéses gyengébb kártyám? Á, labdába se rúgott nálam.(#6806) Bluegene
Egy-két játék akad csak amiben közelébe tud kerülni az 5850, a többiben hülyére veri, kiegyensúlyozottabb ja, kiegyensúlyozottabban gyengébb mindenhol.

-
Abu85
HÁZIGAZDA
Azt nem hiszem, hogy ennyire befolyásolja a felbontás. Én utolsónak tippelnék erre. Inkább a helyenként nem túl masszív kitöltési sebességben látom a gondot. A GF100-on azt látom, mint az R600-on és az R520-on. Nagyon a jövőbe készültek, és ennek a jelen játékaiban felmutatott sebessége issza meg a levét. Pont úgy ahogy az R600 és az R520 alatt. Bár az R520 annyira nem volt lemaradva az NV csúcsmodelljétől, de nem volt egy masszív rendszer.
-
Abu85
HÁZIGAZDA
A setup nem dupla akkora a HD 5870-nél. Ez kedvez a tesszellálásnak. Bár az igaz, hogy a játékokban nem ezen műlik majd a teljesítmény. Ami célszerűvé teszi a HD 5770-et, az a jobb Juniper mag jobb gyárthatósága. Sajnos a 40 nm-es TSMC gyártósorok miatt ez kiemelten fontos tényező lett. Az órajelekkel is lehet szépen játszani.
Továbbra is 32 batch a branching, hasonlónak kell lennie a hatékonyságnak. A baj inkább a pixel kitöltéssel van. Néhol eléggé gyenge. Mondhatni alig van előrelépés a GT200-hoz képest. Például a 4x Int8 formátumhoz képest a 3x FP10 alatt már fele olyan hatékony a sebesség, miközben a Cypress gyakoraltilag nem veszít itt tempót.
-
-
VinoRosso
veterán
hát igen, látszólag egyszerű a dolog, de valami oka csak van, hogy nem használják. PL a terrain tessellation-t máig egyetlen engine sem tudja( még a unigine sem ) oedig nem tűnik egy nagy etwasnak az implementálása:[link]
Talán majd ha több hardver lesz, vagy ha lesz idejük evvel foglalkoznia fejlesztőknek. IGazából ez csak egy feature, ami javarészt helyettesíthető mással, a vizuális hatások polírozása, optimalizálása meg általában egy játék fejlesztésének utolsó lépése, hacsak nem kifejezetten így indulnak neki a fejlesztésnek. -
VinoRosso
veterán
Úgy értettem azokban az esetkeben, amikor a textúrázók jelentik a szűk keresztmetszetet. De mivel nem csak ez a meghatározó, és gyorsabb is lesz a 64 TMU, ezért sokkal több FPSre lehet számítani. A karimmal very highban(dx10) 25-30 körül kapok AA nélkül 1680x1050ben, ugyanezek mellett 60-70 FPSre számítok a Fermi esetében.
-
Abu85
HÁZIGAZDA
Lehet, hogy rossz döntés ez az NV-től, de most már a Fermi és az Evergreen is hasonló ALU:Tex arányt használ, ezt a fejlesztők is látják, így ha gondolják tehetnek egy lápást ebbe az irányba. Aztán, hogy mi lesz, az majd kiderül ... Az eddigi DX11-es játékok alapján lépdelnek az ALU-erő felé.
Én is egyet értek abban, hogy az ambient occlusion nem egy nagy vaszizdasz, de a fejlesztők keményen rákaptak. Én már a DX10-nél keményen geometry shadereztem volna. Most szarrá tesszellálnám a játékot.
De ez én vagyok, ha a programozók ezekben valamiért nem látnak egyelőre komoly potenciált, akkor innen aligha lehet hatni rájuk. Természetesen megértem a GS és a tesszellátor kapcsán felmerült problémákat is, ha nem akarják komolyan használni, akkor lelkük rajta, a lényeg, hogy a lehetőség megvan. Annak viszont kifejezetten örülök, hogy a Compute Shaderre rákaptak. Ez mindenkinek jó lépés, jelentősen gyorsabb a programok írhatók a felületen. 
DigitXT: A TDU-ban van Porsche?
Vagy ez valami extra csomag? -
HW Junkie
tag
"szerintem érdemes lenne egy kicsit tájékozódnod, milyen ciklusidőkkel megy egy ilyen chip tervezése "
Pontosan. Egy éve még szó sem volt DX11-ről most meg már azzal izmoznak hogy milyen tuti a fermi rá. Tehát azért késik az egész, mert utolsó pillanatban gondolták újra az egész koncepciót.
-
ImpIon
csendes tag
Én azt nem tartom reálisnak, hogy megéri csinálni ilyen karit. Még ha alacsonyabb fesszel jobb teljesítmény/fogyasztás mutató érhető is el, akkor sem hiszem, hogy sokkal gyorsabb lesz az egy GPU-s változatnál, feltéve, ha igazak a 280-300W-ról szóló pletyik, és azonos stepping-re épül majd a két GPU kari.
-
VinoRosso
veterán
Arra értettem, amikor a Radeont hasonlítottad a Radeonhoz. Ez semmi másra nem lehet releváns, csak a Radeonra nézve. Se Dx10, se Nvidia, ezért ennek sak házon belül van érteleme. + még maga a játék sem mindegy, mert tele lehet pakolni egy motort olyan megoldásaokkal, amelyik kedvez valamelyik félnek( tökmind1 melyik ), meg lehet úgy is gondolkodni, hogy melyik jó a játék szempontjából, és elsősorban az utóbbit tartom relevánsnak, mint felhasználó. Persze a fejlesztés az már nem ilyen egyszerű, ha el akarod adni a játékodat, akkor nem nézheted azt, hogy most a játéknak mi a jó, mert pénzért dolgozol, nem játékért, a játékot meg el kell adni, és ha neadjisten a többség hardvere összefossa magát alatta, és nem hajlandóak olyanra cserélni, amin jól menne, akkor megszívtad. Kivétel ha leülsz a gyártóval, és megmondod neki, hogy ez és ez neked ekkora bevétel kiesést okoz, de ha megfizeti, akkor lehet róla szó. Akkor meg a gyártó elgondolkodik, hogy ha az ő égisze alatt jön ki a gém, akkor az mennyire fogja felnyomni az eladásait, amiből megelőlegezi neked a profitot. Ez sokkal inkább arról szól, hogy ki mekkora szeletet tud elmajszolni a máséból, minthogy mi mennyire jó technológiai szemszögből. És nincs ilyen, hogy az egyik vagy a másik ilyen csak, mert mindki pénzért dolgozik, a két szép szemedért nem fog senki megtenni semmit, max egy jó nagy mokkát ragaszt alá. Se a MS, se az NV, se az ATI se semmilyen gyártó soha nem tekintett és nem is fog figyelembe venni más érdeket, mint a sajátja. Szép is lenne, ha tulaj lennék egy cégnél, aztán odajönne hozzám a vezérigazgató, hogy figyelj haver, most elvesztettünk 1 millliárd dollárt(csak mondtam egy összeget, egy ilyen esetében valszeg sokkal többről van szó), mert jófejek akartunk lenni, úgyhogy hagytuk, hogy a versenytárs technológiája fölénk kerekedjen.
Ezért kell úgy nézni a dolgokat, hogy dx10.1 nem hoz semmi extát mert...és itt kell megemlíteni, hogy alapjaiban sem olyan, mint amilyennek az agyonjáratott marketing beállítja, + az nv leszarta, mivel üzletileg ez jobban megérte nekik, ezért ugyanúgy elhalt mint a dx10. Más lenne a helyzet, ha lennének vasak, lennének játékok, és akkor megkérdezhetnéd, hogy nem lenne e jobb ez a felhasználóak? De persze hogy jobb, de akkor már megint csak 1 oldalról személed a dolgokat, mert ugyanakkor jó lenne a CUDA is, jó a physix is, stb, hiszen ha számításba veszed az egyik oldal üzleti érdekét is, akkor oda kell mellé tenni a másikat is, és megnézni, hogy merre billen a mérleg nyelve, és itt pont ez lenne a lényeg. Nem az amit a média nyom, hogy ez jó lesz ezt vedd meg, mert ez a modern, ez a technológia a másik meg fúj gyökér, hanem nem hagyod magad befolyásolni, és megnézed, hogy neked mire van szükséged, és mit tudnak nyújtani a lóvédért. Kell ez neked, megér neked ez ennyit? Ezt senkisem kérdezi, csak mondja, mert ha valamit sokszor elmondasz, az előbb utóbb belemosódik az emberek agyába.
-
janos666
nagyúr
Jó, most kiragadtál egy megkérdőjelezhető címet a példaként hozott 4-ből, a lényeg itt amúgy is az volt, hogy a bejelentés/pletyka nem felelt meg a valóságnak, így a későbbre bejelentett Physx címektől is elvette az ember bizalmát (és kedvét).
Egyébként én nem vagyok benne biztos, hogy ne lett volna haszna. Mivel elég szokatlan játék, így elképzelni is nehéz, hogy mit lehetett volna kihozni belőle Physx effektek terén. (bár egy tippem lenne, hogy mikor belelősz földbe/kőbe, és száll a por és szilánk, akkor a célon is látszódhatna a lemorzsolódás, illetve ottmaradhatna a földön a lemorzsolt rész, míg odébb nem állsz, erre is rá lehetett volna küldeni utólag a hull shadert -vagy hoghy nevezik, amitől ilyen papírformát ölt minden...) -
VinoRosso
veterán
Még mindig nem érted az álláspontom. Én sz.rok arra, hogy melyik játék mennyire függ az nvidiától vagy az atitól, engem, meg szerintem a felhasználók nagy részét az érdekli, hogy mennyire éri meg használni az API-t. Elég görbe az a tükör, amiben csak az egyik oldal álláspontját látod. Én is teszteltem dx10.1ben meg dx10ben a clear sky-al, a benchmark 1 fps-t dobott, a játékban meg nem volt küldönbség, sőt Limanszkban lassabb volt dx10.1ben mint dx10ben. A látványban túl sokat nem vettem észre, mivel AA-t be se mertem kapcsolni a 3870-el, így is 26-27 fps volt az átlag. De hgoy teljes legyen a kép, 9600 GTvel meg 20-22 8800GTvel 30, 9800 GTX+-al meg 40. Volumetrikus fény + god rays kombó alatt meg a béka segge alatt volt, de az az érdekes, hogy a 4850 is és a 3870 is a 9600GT szintjére esett vissza ( 15 fps ) a 8800 GT/9800GTX meg csak 17-18ig. Ezért van még mindig 9800GTX +om, bár már akartam váltani többször 4870re, de valahogy sose jött össze, talán nem is baj. Ha majd valamiben gondom lesz vele, akkor húzok rajta ,és elleszek még vele egy darabig.
-
VinoRosso
veterán
Összesen 1 db játék volt ilyen, a többiben maginális különbség volt dx10 és 10.1 közt. De szvsz ati kártyához hasonlítani ati kártyát az nv vs ati viszonylatban nem értelmes dolog. Ennyi erővel mondhatná, hogy a physx a GPU-n mennyit hoz ahhoz képest, mikor a procival számoltatod a physix effekteket. Szerintem ha játék miatt valaha is szívott az nv akkor, akkor az inkább a CoJ volt, mert azt leglább játék, nem techdemo.
(#3406) Abu85 : Ja ja jaaa, tudom hogy van ez, pl most hogy kiderült, hogy sokkal jobb dx11ben a fermi, mint ahogy korábban azt sejtettem, már hirtelen nem is olyan fontos az a dx11, mert már nem fogják használni annyira a játákokban, meg bla bla bla, előtte meg így dx11 úgy dx11, csak tudnám mit fogsz most mondani, hogy miért innovatívabb az ati? Már sajnos nem marad más érv, mithogy "olcsó, takarékos" kártyákat gyárt, bár én azért az 5870et sem nevezném tuskó gazdaságosnak. Remélem a Cryengine 3 majd tesszallációt fog használni a terrainre, a vízre, a karakterekre, vegetációra, meg a jövő hétre is
Nem azért mert én az ész nélküli tesszalálás híve vagyok, csak ez olyan jó kis fricska lenne azoknak, akik oda voltak a dx11től csak azért, mert az atinak ebben volt előnye.(#3417) Abu85 : Akkor most megjelentek vagy nem? Fontos lesz bennük a dx10.1 vagy nem? Arra kéne visszagondolni, amikor meg lett itt mondva többször is, hogy a kutyát nem fogja érdekelni, és eezt jól tudja az nv is, ezért nem csinál rá külön káryát.
-
rocket
nagyúr
"szóval a fokozatosság fontos differenciáló erő lehet - szerintem főleg a developer relations-ön fog ez állni / bukni..."
Evek ota ezen mulik minden, ez ido alatt volt mindket gyarto az erem egyik, es masik oldalan, megis mindig az ATi/AMD jart rosszul (pontosabban a felhasznaloik), nem fogadnek arra, hogy barmi is jelentosen megfog valtozni, ugyanaz fog tortenni mint eddig.
-
Abu85
HÁZIGAZDA
Erre kell ráállni. De a fejlesztőnek is ott van a fülében, hogy az AMD már milliós nagyságrendben elhúzott a leszállított DX11-es kártyák piacán. Én nagyon lelkes voltam az R600 innovatív felépítésén és GS/stream out teljesítményén, és a fejlesztők is szép reményeket fűztek az újításokhoz, de ebből sajnos nem lett semmi. Esetleg most a STALKER: CoP, de ez már nem segít az R600-on.

Bár az NV-nek még mindig az idő a legnagyobb ellensége. Persze jó lenne beszervezni pár PhysX játékot is. -
Abu85
HÁZIGAZDA
Igen csak nem úgy néz ki, hogy szépen skáláznák a fejlesztők. Az AVP-ben is volt High meg medium beállítás tervezve, de mindkettőből visszavettek mert az a plusz amit az extra felbontás ad nem mutatkozik meg normál képkockán. Wireframe mellett meg senki sem játszik.
Még az is lehet, hogy a kisebbik felbontás marad, a másikat meg eldobják. Meg ugye ott van az egy síkban elhelyezkedő háromszögek visszabontásának lehetősége, amit a játékokban használni fognak, az rengeteg háromszögtől szabadítja meg a setup-ot. Persze az Unigine esetében nem használták, mert a terhelés volt a cél. 
-
rocket
nagyúr
Ugytunik most ok jottek elo egy jovobelatobb architekturaval, ami nem biztos a jelen, es a kozeljovo jatekaiban fog domboritani.
Mivel sokkal erosebbek a jatekfejlesztoi kapcsolataik, igy nagy valoszinuseggel tobbet fognak tudni kihozni ebbol helyzetbol, mint az AMD tette hasonlo helyzetben, kivancsi leszek lesz-e hasonlo hype, vagy most inkabb a csend fog honolni a temaban amikor 180 fokot fordult a kocka innovacioban az eddig megszokotakhoz kepest
#3320: Nem veletlen azt mutogatjak, valoszinuleg ott jott ki a jelenlegi legnagyobb kulonbseg, ilyenkor persze nem a Crysist vettek elo

#3326: 0 az esely, mert mindegyikben van GPU PhysX.
#3328: Az azert nem sok jot vetit elore, hogy szinte mindenhol a HD5870-hez hasonlitgatjak, mikor evek ota koztudott, hogy az AMD a csucson 2xGPU-val felszerelt teglaval versenyez, tehat az a leggyorsabb GF100 ellenfele, es hat tuti a a hivatalos slideokon nem a lassabbik kartyakat hasznaltak az osszehasonlitasnal, hanem a gyorsabbat ami lehet nem is lesz csak Q3 vegen legkorabban, szoval szokasos BS faktor megvan azert a hivatalos slideokon

-
Csak én érzem úgy, hogy nem véletlenül a FC2-t mutogatták?
A jósolt 70-80% plusz sebesség nekem gyanúsan sok, túl sok az optimizmusból.
Én is remélem, hogy erős lesz a Fermi, mert olcsón akarok Radeon-t venni, és már nagyon várok némi GPGPU tesztet is, ami valami vizuális dolgot ábrázol, és az 5870 is szerepel benne.

Kósza hírek a CG világából azt mondják, hogy bizonyos filmes RayTrace progik alpha verziói iszonyatosan szaladnak az 5-ös Radeonokon. Így egyre izgatottabban várom a Fermi ilyen teljesítményét is.
-
rocket
nagyúr
Azt a reszt arra ertettem, hogy mindenkivel elhitettek nem lesz US architektura a G80, erre kezd most a GF100 kapcsan a helyzet hasonlitani, a tesszellacio es a DX11 lejaratasa utan, a jelek arra iranyulnak, hogy jol megetettek mindenkit, aztan persze lehet rosszak a jelek

Emlekszem meg honnan indult a GF100 tortenete, nem volt se ROP, se TMU, se fix funkcios tesszellator egyseg, ehez kepest most van mar minden, vagyis inkabb ugy fogalmazok ugytunik minden a helyen van, aztan majd kiderul

-
Abu85
HÁZIGAZDA
Meglepődnék, de van egy csomó - grafikai számítások szempontjából - kihasználatlan Int ALU a Fermiben. Nem elképzelhetetlen.
VinoRosso: Persze a kis kártyák azok jöhetnek, de amíg csak nagy GPU van, addig anyagilag ez eléggé vesztes helyzet az NVIDIA-ra nézve. Na most ugye a kérdés, hogy mikor jönnek a kis Fermik. Ősznél hamarabb senki sem várja őket. Én nyár közepét tartom reálisnak, de őszre tuti kellenek, mert már most késésben vannak.
rocket: Csak az első lehetőség kivitelezhető normális mennyiségben gyártandó kártya esetén. PCI-SIG pecsét nélkül nincs OEM piac, mert a gyártók nagy többsége követeli a szabványos fejlesztéseket.
Uhh ... tényleg rosszul emlékeztem. Most megnéztem, hogy 12-14 hét a sil-spin. Thx. a korrigálást. Akkor a 6 hónapot helyettesítsük 3-3,5-tel. Persze ha minden a terveknek megfelelően halad.
Az biztos márciusra nincs más csak az A3. Amúgy nem hiszem, hogy rosszabbul sikerülne az A4, szvsz azért tapasztalt mérnökök ezek. Maximum nem teljesítik az elvárásokat, de rosszabb semmiképp sem lesz.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- PlayStation 5
- Lexus, Toyota topik
- Kormányok / autós szimulátorok topikja
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Metal topik
- GoodSpeed: Munkaügyi helyzet Hajdú-Biharban: észak és dél
- Bambu Lab 3D nyomtatók
- Milyen billentyűzetet vegyek?
- Telekom mobilszolgáltatások
- Gyúrósok ide!
- További aktív témák...
- EVGA GeForce RTX 3080 FTW3 ULTRA GAMING 10GB
- MSI Radeon RX 6700 XT MECH 2X OC 12GB használt videókártya számlával és garanciával eladó!
- MSI Radeon RX 5700 XT MECH OC 8GB használt videókártya számlával és garanciával eladó!
- ASRock Radeon RX 6700 XT Phantom Gaming D OC 12GB számlával és garanciával eladó!
- GIGABYTE GeForce RTX 2060 OC 6GB használt videókártya számlával és garanciával eladó!
- GYÖNYÖRŰ iPhone 12 mini 128GB Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3195, 95% Akkumulátor
- Új és használt laptopok , üzletitől a gamerig , kedvező áron. Garanciával !
- Azonnali készpénzes AMD Radeon RX 7000 sorozat videokártya felvásárlás személyesen/csomagküldéssel
- Mini Pc HP ProDesk 600 G2 G3 G4 /// 6-8. gen //// i3 / i5 /// garancia /// Budapest / MPL / Foxpost
- ÁRGARANCIA! Épített KomPhone Ultra 7 265KF 32/64GB RAM RTX 5080 16GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: BroadBit Hungary Kft.
Város: Budakeszi
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest


erre felé mindig túllövik, akinek kell az epenis fizessen
ilyeneknél inkább a racionális ár lenne már vicces. akinek ilyen kell az már úgyis kifizetett 300ezret montirokra pl
meg ez inkább csak szőrszálhasogatás h azért lehetne rajta több ennyi pénzért :]




Itt a reklámon van a hangsúly. Az AMD HD 6000-es címe a Deus Ex: HR. Abban van minden szar ... DX11, Eyefinity, 3D. Az kéne a HD 6990-nek, ha már áll benne az erőforrás, de ha nincs kész, akkor nincs kész.


De ez én vagyok, ha a programozók ezekben valamiért nem látnak egyelőre komoly potenciált, akkor innen aligha lehet hatni rájuk. Természetesen megértem a GS és a tesszellátor kapcsán felmerült problémákat is, ha nem akarják komolyan használni, akkor lelkük rajta, a lényeg, hogy a lehetőség megvan. Annak viszont kifejezetten örülök, hogy a Compute Shaderre rákaptak. Ez mindenkinek jó lépés, jelentősen gyorsabb a programok írhatók a felületen.




