-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Dark KillerX
addikt
Hát sztem nem igaz így ebben a formában,mert inkább az Nv miatt nem terjedt el,mert a játékfejlesztők nagy része TWINTBP szerződést kötött,ami nagyon megkötötte a játékfejlesztők kezét(Nv-re fejlesztették szinte a legtöbb játékot),másfelől pedig a Vista megjelenés idején még az Nv hadilábon állt a Vista support-tal(mind most a Win7-tel). ,ami megint csak hátráltatta a Vista elterjedését. és ezzel együtt a Dx10 elterjedését.
[ Szerkesztve ]
-
rocket
nagyúr
Ugytunik Charlie megint bal labbal kelt fel
Az biztos nagyon nagy a csend a 40nm-es GT2xx GPU-k korul ami nem jo jel szokott lenni.
A konkurencia nyomasa egyre nagyobb igy elkene hinteniuk nemi morzsat, hogy legalabb beszeljenek roluk, nem jellemzo az NV-re ez a fejuket a homokba dugjak strategia."A lower resolution generally means that there can be more quality per pixel."
-
Beowulf_78
addikt
Ennyi. Az nV is úgy gondolkodik ahogy én.
Kint lesz az ATi 5xxx szériája, meg kint lesz a COJ DX9 támogatással. Nah...ide aztán kell a DX11 támogatás. Tipikus..."kiadjuk de minek".Szakmai kérdésekkel ne pü-ben keress....használd a megfelelő topikot! A 4890 CF tesztet amit elkezdtem, nem fogom befejezni. Majd megcsinálja más. A meglévő nVidia-s cikkeimet pedig törölni fogom.
-
zuchy
őstag
Igen, GPGPU lesz, hogy nem csak grafikai számításokhoz legyen jó.
Nv mindig is ilyen volt. Mindig is felsőkategóriára mentek magas előállítási költségekkel és még magasabb eladási árakkal. Ha nem akarnak megint szívni mint a GT200-al, erősebbnek kell lennie a Radeonoknál.PC-STYLE.hu
-
-
R.Zoli
őstag
Közel 500 mm2 és 2,4 milliárd tranyó... Namost az R800-as széria pedig valszeg megáll 200 mm2-ben és valszeg elég szép órajelekkel fog hasítani... Nyílván ha tudnánk órajeleket a 2 architektről akkor az elmondana valamit de így is olyan érzésem van ,hogy ugyan az lesz mint ami a GT200 vs. R700-nál volt...
-
Abu85
HÁZIGAZDA
Semennyi. Az NVIDIA nem kevés extra tranyót használ a magas órajelek miatt.
Mondjuk ez a gyorsabb a Larrabee-nél hatalmas jóslat volt. Erre kristálygömb nélkül rá lehet jönni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
-
rocket
nagyúr
Kicsit korai azert ilyet kijelenteni.
Lehet megprobalnak mindenkit bevezetni a malnasba a kamu infokkal, hogy aztan hasonlo tortenjen mint az R600 vs G80 kapcsan, az R600-rol allandoan beszeltek mar a G80 megjelenese elott is, hogy mekkora kiraly lesz, mig a G80-rol annyit pletykaltak (meg hivatalosan kamuztak), hogy nem lesz unified shader architektura, azt meg ugye nem kell mar mondani mi is tortent valojabanEgy biztos az AMD elonyben van jelenleg a DX11-gyel, de meg bekavarhatnak a levesbe szoftver oldalon, pl. a M$ ugydont nem jon a Win7-tel egyutt a DX11, vagy a beharangozott DX11 jatekok "veletlenul" nem jonnek amig az NV-nek nem lesz DX11 kartyaja
Persze DX11 jatekok nelkul is sokat kaszalhat az AMD ha honapokkal megelozi az NV-t, es meglesz a jelentos teljesitmeny toblet a jelenlegi szeriahoz kepest, szoval az AMD sorsa jelenleg a sajat kezeben van, kiderul majd tudnak-e elni a lehetosegekkel amit nagynehezen osszehoztak maguknak.
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
-
Abu85
HÁZIGAZDA
Nem teljesen. Ezek tervezett chipek, de az új generációs High-End lapkára nem hiszem, hogy hatással lennének. Ha kész kiadják azt is. Itt elsősorban azt kellett figyelembe venni az NV-nek, hogy eddig lehetett bojkottálni a fejlődést. Az év végéig több DX10.1-et (és DX11-et) kihasználó játék jön, ezek egy részében komoly képminőség és teljesítménybeli hátrányt könyvel el a DX10 mód.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rocket
nagyúr
"Nvidia will also preach that it will take a while until DirectX 11 hits off"
Na mar kezdodik a szokasos magyarazkodas mint az ATi-nal a SM3.0/HDR kapcsan, meg az NV-nel a DX10.1 kapcsan
Slager lesz ez a dolog ha valora valnak a pletykak es az NV honapokkal levan maradva a DX11 GPU-kkal az AMD-tol, magyarazhatjak majd, hogy azert nincs meg DX11 hardveruk mert semmi szukseg meg ra. (kivancsi leszek megkornyekezik-e azokat a jatekfejlesztoket akik iden meg DX11 jatekot tervezne kiadni, hogy eltoljak a megjelenest, vagy megse legyen megjeleneskor DX11 tamogatas csak majd kesobb patch formajaban.)
"A lower resolution generally means that there can be more quality per pixel."
-
félisten
válasz Hakuoro #1306 üzenetére
Nekem leginkább az a furcsa, hogy alacsonyabb csíkszélesség mellett többet fogyaszt, mint a Radeon, és még lassabb is.
Talán, a driverek fejlődésével javul a helyzet.
Kiváncsi leszek, hogy a mostaniakkal összehasonlítható paraméterekkel rendelkező nagytesók gyorsulnak-e a dx10.1-es progikban a dx10 verzióhoz képest.Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
Abu85
HÁZIGAZDA
válasz Hakuoro #1332 üzenetére
Láthatóan 16 darab TCP-re épül, de ezek felépítése eltérő a régi rendszerhez képest. Mintha egy hosszú 16 utas feldolgozó lenne, vagy két 8 utas. Valszeg a két pötty a Dual-Issue-t jelenti, mint a G200 esetében. A kék pöttyök minden bizonnyal a dedikált DP feldolgozók. Egyelőre ennyit tudok kihámozni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
válasz Hakuoro #2336 üzenetére
Hakuoro, rocket, Abu:
240*1476*2. az extra MUL-t ne erőltessük, láttam egyetlen szintetikus tesztet, ahol valamit kiköhögött magából a 2flops / sp felett a GT200, az életben nem hiszem el, hogy a játékokban bármit ér.
amúgy meg a legtöbb játékban tex/rop uralom van, az ALU teljesítmény alig 1-2 helyen domináns..."... and with your wicked wishes we will rise again"
-
Abu85
HÁZIGAZDA
válasz Hakuoro #3327 üzenetére
Szokásos marketing. Most ár nélkül meg lehet játszani az 1 GPU vs 1 GPU összehasonlítás. Nyilván az ár mellett már oda kell rakni a HD 5970-et, de hát most az volt a cél, hogy várakozás módba állítsák az érdeklődőket.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Hakuoro #3329 üzenetére
Az teljesen jó, de hány játék fog 64x-es detail tesszellációt alkalmazni, felületskálázás nélkül? A fejlesztőknek figyelni kell a középrétegre is. Ha nem jön olyan igényes játék, mint az Unigine Heaven, akkor a tesszellátor motorba ölt tranzisztorok lényegtelenek lesznek, csak úgy, mint az R600 esetén a hihetetlenül combos Geometry Shader ölt teljesítmény. Sajna az R600 veszte az akkori játékteljesítményén múlott. Pedig sokkal több potenciál volt a rendszerben, de túl elterjedt volt már a G80, hogy ezeket ki lehessen használni. Ha a játékokban nem lesz meg a HD 5970, akkor az nem sok jót jelent. Én se mentem sokra a HD 3850-jeim mindenkit szétalázó Cube Map tömbre vonatkozó teljesítményével. Max annyi előnyöm volt, hogy a BattleForge-ot, meg a STALKER: CS-t DX10.1-ben nyomtam.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
ffodi
veterán
válasz Hakuoro #5333 üzenetére
És a legszebb ebben az, hogy az 5870-nek 188W a TDP-je.
Arra kiváncsi leszek azért, hogy milyen tuningpotenciállal fognak bírni az új NV kártyák, mert tudvalévő, hogy az 5850/5870-et nagyon lehet húzni, és viszonylag kis feszemeléssel megy 1ghz-en a GPU, és akkor a 10%-os előnyből valószínű hátrány lesz..
"A minőséget régen gyártották, ma már csak biztosítják." Magassy I. axiómája
-
Löncsi
őstag
válasz Hakuoro #8436 üzenetére
But the murmurs suggest Nvidia has been dedicating a lot of resources to get physics and fluid dynamics operating properly, which has so far, allegedly, taken half of its gaming engineers and six months to get right.
Húha, itt úgy néz ki érdekes dolgok fognak jönni, kíváncsian várjuk.
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
válasz Hakuoro #8436 üzenetére
Ez erős spekuláció szvsz, még többszöri olvasásra is nagyon kockázatos. Nem kérdés, hogy az Ageia hardvere anno jobb volt a fizika számítására. Sőt még ma is az, csak nem élvez terméktámogatást. A gond itt az, hogy megéri-e tranzisztorok százmillióit egy olyan egységre költeni, amit pár játék tud kihasználni. 2011-ben két olyan játék jelent meg, mely GPU-s PhysX-et támogat. A többi megjelenéshez viszonyítva, ez durván kevés. Ráadásul vedd hozzá, hogy az apple-to-apple összehasonlítás érdekében a PhysX-et szinte minden tesztben inaktiválják.
Az kétségtelenül tény, hogy manapság nagyon nehéz olyan GPU-t tervezni, ami minden egyes felmerült szempont szerint maximálisan megfelel a potenciális igényeknek. Ezek tipikusan a cGPU-k, amik hát olyanok, mint a GCN Radeon, vagyis a tranzisztor/teljesítmény aránya, sehol sem a legjobb, de szinte minden feladatban jó eredményt fog produkálni. Tipikusan grafikus számításra fejlesztett GPU-k a VLIW4/5 Radeonok. A Fermi valahol a kettő között van úgy félúton.
Nyilván a fejlesztések kihívása jelentős, mivel a mostani generációval olyan igényeket is le kell fedni, ami csak 2012-ben, vagy 2013-ban merül fel, és mindezt tedd meg úgy, hogy jó legyél grafikában, compute számításban, legyen a rendszer úgy ahogy gazdaságos, illetve készítsd elő az integrálásra. Na most ilyen elvi követelmények mellett én nem tartom jó ötletnek, hogy egy dedikált, kifejezetten egy adott körülményhez illesztet egység foglalja az értékes tranzisztorokat. Ha pedig ez csak a PhysX-et fogja gyorsítani, akkor egyértelműen pazarlás. Legalábbis a gamer szinten, mivel évente egy kézen meg lehet számolni az ezt támogató játékokat. A profi szinten a PhysX eléggé elterjedt, ott ennek nagy jelentősége lehet.
Azt tudom még elképzelni, hogy az NVIDIA már nem csak a PhysX-et veszi számításba, hanem a Bullettet is, amire egyre jobban építenek a konzolgyártók. Ez gyorsítható OpenCL-lel és DirectCompute-tal is (illetve a korábbi verziók mentek CUDA-n, talán ennek a beépítése nem megoldhatatlan feladat az új verziók esetében sem). Ennek viszont szerintem akkor lesz csak értelme, ha a CPU-magok mellé kerül be a GPU. Persze simán elképzelhető, hogy az NVIDIA a Keplerrel már erre készül, hiszen a VGA-k már nem számítanak nagy üzletnek. Sokkal fontosabb, hogy az integráció nagyon erős legyen. Ez opció lehet, csak nem biztos, hogy megéri most bevállalni, mert 2012-ben azért még elég nagy bevétele lesz az NV-nek a VGA-kból. Ok ... itt lehet azzal jönni, hogy a felsőkategória következmény nélkül feladható piac a maga 1-2%-os eladási rátájával, és ez igaz. Az is igaz, hogy főleg a notebookok piaca hozza majd a pénzt, de ott meg az IGP-k erősödése jelenti a kockázatot. Azt persze nem tudni, hogy az NVIDIA hogyan számolt a Tegrával, amikor a Keplert elkezdték fejleszteni. Lehet, hogy úgy kalkuláltak, hogy mára a Tegrának kellene eltartania a céget, de ez egyelőre nem történt meg. Tény, hogy növekszik a bevétel mobil vonalból, de nyereséget itt még nem láttak. A GPU-piac mondjuk abból a szempontból jól áll, hogy a nyereség zöme a 3D Visionből és az Intel negyedévenkénti komoly licencpénzéből van. Előbbi nehéz helyzetben van, mert az LG és a Samsung már nem támogatja, és kérdés, hogy a fejlesztők meddig fognak fizetni az SDK használatáért, látva, hogy egyre kevesebb olyan 3D-s monitor jelenik meg, ami kezeli a 3D Visiont, vagy esetleg felhozva a Windows 8-ban található Sztereó 3D SDK-t, mely egy szabványos megoldás. Itt érdemes feltenni a kérdést, hogy a 3D Vision meddig maradhat fizetős. Az Intel pénze persze megmarad.Egy szó, mint száz ... én ezt az Ageia integrálós dolgot nem tartom logikusnak. Megtörténhet, de nagyon sokat kellett inni a tervezés előtt, hogy a kockázatokról megfeledkezzenek a mérnökök.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz Hakuoro #8442 üzenetére
Röviden az a lényege, hogy ahol gyorsabb lesz ott gyorsabb lesz, ahol pedig nem ott nem.
Nem vagyok szenyó, így megmondom, hogy miről lehet tudni, vagy miről tudok. A Compalnak vannak kepleres MXM moduljai, amiket éppen tesztelnek. Semmi kép, vagy más infó. Illetve még az, hogy a tervek szerint GeForce GTX 660M és 675M lesz a termékek neve. Ennyi.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Videós, mozgóképes topik
- Mibe tegyem a megtakarításaimat?
- BestBuy ruhás topik
- Kerékpárosok, bringások ide!
- Intel Core i5 / i7 / i9 "Alder Lake-Raptor Lake/Refresh" (LGA1700)
- Router gondok
- Napelem
- Gondoskodik róla az EU, hogy az Apple felnyissa a rendszereit
- CPU léghűtés kibeszélő
- Politika
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen