Új hozzászólás Aktív témák
-
BenJoe
senior tag
válasz
Winner_hun #181 üzenetére
jaja.... A halk konfigurációkénál is levettek a porondos dumát...
-
Allien
veterán
Ez rendben is van (bár csóró vagyok, de 19-s tft-t vettem én is). Jelenleg Agp-s csere jöhetne szóba, persze nem jön, mert moncsi lett belőle.
Majd késöbb, talán karácsony környékén cserélem a 9600 XT-t. De, az Ati drivereivel nem vagyok kibékülve, bár lehet, az nvidia sem sokkal jobb ilyen téren. X800 tehát mivel pcie-s, sajna esélytelen.
De a kérdésem az, hogy milyen monitort használnak a tesztekhez?Csak kíváncsiság kedvéért, meg a teljesség igénye nélkül, persze.
[Szerkesztve] -
erdoke
titán
Pénzesebb (de nem krőzus) PC tulajok drágább 19-es TFT-vel nyomják. Ezek felbontása általában 1280x1024. Magyarul ennek a kártyának egyelőre kevés értelme van, mert ezen a felbontáson egy X800XL is jól muzsikál -- féláron. Talán 1600x1200-nál és fentebb jobban hasznosítható, nameg a hártomdémárk pontokra matyizáshoz is erős.
-
Allien
veterán
Bocsi, egy hüle kérdés. Minden szép, és jó, de a tesztkonfignál nem írtátok a monitort.
Azért, 1600x1200@ minimum 85 hz-t nem túl sok moncsi bír (ha jól sejtem, esettleg iiyama?), ráadásul, gondolom nem tft, hanem crt. Ergo, nekem speciel mindent cserélnem kellene, ha egy ilyen kártyát akarnék magamnak, ezért inkább nem akarok ilentet, túl csúnya, és savanyú a szöllő.
Megvárom az Ati válaszát. Bár, lehet, addig beszerzek egy Agp-s 6600 GT-t, vagy ha kijönne az X800 agp-s verziója.
Azzal még elmenne a konfigom a Battlefield 2-vel egy darabig.
-
Guruka
senior tag
Ha lesz belőle AGP-s és lemegy az ára jelentősen, akkor veszek egyet, bár nem használnám ki.
-
Raymond
titán
Miert ne tudnank meg ? Egy jo kiindulasi pont pl. ez:
Bővebben: link -
Pukii
senior tag
Nekem egész jol megy a a wow 1024 ben minden maxon AA és AF nélkul általában ,de néhány helyen elégé belasult és ezért egy-két csuszkát kozepesre raktam.ÉS mindezt gf ti 4200 vel.Szoval ha igaz lenne ez az osszeeskuvéselmélet akkor elvileg nekem játszhatatlanak kellene ilyen beálitásokall lennie.
Szoval nem értem ,miért ilyen lassu neked. -
Neck
veterán
Szegényke, mekkora problémái voltak. Nekem nincsenek örült kivánalmaim, legalábbis tekintve, hogy nekem SE AF + FSAA, SE csilló mpixeles felbontás nem kell, csak 1024x768 + maximum View Distance, mégse megy mindenhol. Na most ez valahol szégyen, ezt azért EGY darab 6600GTtöl elvárnám, nem 2 dbtól... Röhej.
De azért 3DMark05be súrolja a 7000 pontot alulról... Mindenesetre a következö karim játékra lesz, szal NO SLi
[Szerkesztve] -
fLeSs
nagyúr
Csak nem erről van szó?
So the NV40 and its derivatives in the GeForce 6 series are indeed limited to two-megapixel resolutions for Z culling. There are also ''features and performance optimizations'' on the NV40, beyond Z culling, that run out of steam at very high resolutions, although NVIDIA isn't willing to specify exactly what those features might be. NVIDIA aimed for a higher resolution design point for the G70, and sized its buffers (and perhaps caches) accordingly. That helps explain why the GeForce 7800 GTX shines so brightly at 2048x1536 compared to the competition.
Ez persze nme változtat a tényen, hogy a G70 ennyivel gyorsabb az NV40-nél. Kisebb felbontásban tesztelve meg a procilimit szólna közbe, úgyhogy erről ennyit, nem tudjuk meg, hogy a G70 valójában mennyivel gyorsabb az NV40-nél. -
Raymond
titán
Az egyik haver az SLI 6800GT-ven jatszott WoW-ot es egyszeruen nem akart neki rendesen menni 1920x1200 2xAA mellet. Aztan a mult heten megvette a 7800GTX-et es nem akart hinni a szemenek
Ket elonye szarmazik belole:
1) most mar nagyobb felbontas mellett is jatszhat (2048x1280)
2) nincs olyan meleg a hazban es igy ujra feljebb tolhajta a CPU-t
'' Azért nekem egy picinyt akkor is gyanús. Meg én azt vettem észre, hogy a 6os széria valahogy nem nagyon szereti az 1600as felbontást, úgy alapból....
Azt hiszem ez a cikk valaszt ad a kerdeseidre:
Bővebben: link
[Ne csak a szamokat nezd, olvasd el az egeszet...]
[Szerkesztve] -
Neck
veterán
No igen. Ezt én is tudom, hidd el, saját tapasztalatból ;)
Mert amikor a WoW 1024ben, a konfigomban szereplő kártyával stabilan 19FPSt nyomat, és nem a speedbug miatt, és le kell vennem a távolsági beállításokból, hogy ne szaggasson be a játék, akkor elmegy a kedvem ettől a sz@rtól, ami a gépemben van. Már bocsánat. (Hozzáteszem FSAA meg AF véletlenül sincs bekapcsolva ) Ilyenkor sírni tudnék. Mellesleg haver X800Pro-jával FSAA+AF + 1280*1024 + minden egyéb maxon, és szépen megy a játék. Na itt gurul el a gyógyszer. Pedig az ember nem kér sokat. Még FSAA+AF se kell, csak lássak messzire. Nagy kérés? Ja és majd elfelejtettem, elvileg SLi támogatott a játék, vagyis a SLIZONE-on rajta van.
Viszont akkor is két kártya bakker, és olyan tesztekben veri a 7800GTX amiben ment a SLi rendesen, és volt is sebességnövekedés tőle... Azért nekem egy picinyt akkor is gyanús. Meg én azt vettem észre, hogy a 6os széria valahogy nem nagyon szereti az 1600as felbontást, úgy alapból. Itt meg végig úgy volt tesztelve, tudom procclimitáltság az van rendesen, de sztem elég volt egy alig észrevehető kis 10fpses csökkentés a 6os széria javára, úgyis mindenki 1024ben vagy 1280ban gémel, tesztelők meg 1600ban tesztelnek... És már meg is van egy újabb kis marketing lóerő az eladások növelésére
Mondom, szerintem. Mondjuk mostanában szeretek összeesküvéselméleteket gyártani, szal kéretik elnézni, no offense
Az éljen nVidia-s hozzászólásokat meg nem értem. Jó, persze h az éppen aktuális többi csúcshardverrel kell letesztelni az új jövevényt, de azért a tarolás az túlzás, csúnya is lett volna ha nem veri el a többi karit, néhol viszont nem sokkal gyorsabb, szal nem vagyok hű de elájulva tőle. Hozta a kötelezőt, aztán kész. Majd kiderül a lényeg ha az ATi új kártyájával kerül összetűzésbe. Remélem nem csal a megérzésem, és jó kis csata lesz, nagy áresésekkel
Viszont ha ez is olyan lesz real life gémelés alatt mint az én kártyám, ami csak tesztekbe jó...
[Szerkesztve] -
Neck
veterán
Nem tudom, de azért ez nekem furcsa. Nem akarok flame-t inditani, meg semmi, csupán azt jegyezném meg: emlékszem még olyan tesztekre, ahol az X850XTPE alig pár FPSel verte el a 6800U-t, most meg ott vannak a 15 FPSek azért rendesen. Továbbá emlékszem olyanra is, hogy amint kijöttek az FXek utódai, a 6os sorozatú nV kártyák, hirtelen esett az FXek sebessége, nem volt értelme a hozzá kiadott új drivert használni. Kicsit úgy tünik ez nekem, mintha azért ez 7800GTXre lett volna optimalizálva... Lehet egyedül vagyok vele, meg minden, de azért furcsa volt látni, azért nem hiszem hogy ennyire brutál lenne ez a kártya, akármennyit is dolgoztak vele az nVsek, meg 24 pipa, meg magasabb órajel, de hogy egy 7800 verjen 6800U SLi -t, ez azért már gyanús. Szerintem meg: Nézd, ez szétveri az előző generációt, vedd ezt! c. meséről beszélhetünk, amire persze rásegitenek egy kis driverbabrálgatással is... Mondom, nem biztos, de én érzek egy csipetnyi ilyet is benne...
-
anaqer
veterán
-
Raymond
titán
válasz
Winner_hun #160 üzenetére
Nem igaz hogy meg mindig nem erted....
A csovezetek alja is termeszetesen arnyeban van. Az az amit ott latsz. De ez nem lehet elmosodott ket okbol:
1) az also resze es a fekete resz maga mar a cso masik oldala - remelem vilagos annak a szele miert nincs elmosva
2) a felso szele a fekete resznak pedig az atmenet a megvilagitott es arnyekos resz kozott. Ez azert nincs elmosva, mert az objektum tul keves polygonbol van igy az atmenetek elesek. Ha megnezed akkor latszik hogy kb. 6 oldala van. Foleg a bal szelen levo racsos resz korul lathato ez. Mivel igy az alja V alakban van, ezert van az eles atmenet.
Olvasd ezt el parszor ha nem erted es nezegesd a kepeket. Azt hiszem eleg volt a csovezetek diskurabol..... -
Florida
tag
válasz
Winner_hun #156 üzenetére
Nagyon egyszerű,a fölötte látható fal ''vastagságát'' látod.
Alulról,szögből látod a falat,és ezért látható az a csík. -
fLeSs
nagyúr
válasz
Winner_hun #156 üzenetére
te vak vagy.
az nem árnyék. az a vastag csővezeték alja. -
Winner_hun
félisten
Erről: Bővebben: link Itt az általad belinkelt képek alapján mostmár tom hgoy mi ez. Ez a nagy vastag cső árnyéka ami nincs softolva. Ha nem az akkor miaz?
[Szerkesztve] -
fLeSs
nagyúr
válasz
Winner_hun #154 üzenetére
Bakker, már nemtom miről beszélsz
itt ez a két kép
kép1: Bővebben: link
kép2: Bővebben: link
Ezeken a bal oldalon látható az a ''csővezetékhálózat'', ami ki lett nagyítva. Nézegesd őket. -
fLeSs
nagyúr
válasz
Winner_hun #152 üzenetére
a teljes képet nagyítsd ki, ne csak ezt a részletet.
-
Interceptor
addikt
Grat az Nvidiának,nem egyszerű a kártya.
-
TeeJay
félisten
jó lenne ha lenne alsókategóriás VGA is ebből a GPUból lebutítva vagy valami.
a lényeg hogy olcsóbb lenne meg mivel 0,11 mikronnal gyártják passzív hűtéssel is vígan elszaladna.
vagy nem? -
fLeSs
nagyúr
válasz
Winner_hun #146 üzenetére
ha megnéznéd a teljes képet, akkor látnád, hogy mi az, ami szerinted árnyék, és mégsem az.
-
orbano
félisten
válasz
Winner_hun #146 üzenetére
na jó de ne egy iylen 3 pixeles állókép legyen a mérvadó. fázisában nézve biztos látszik hogy az ott egy mennyezetről lelógó falszerűség...
-
orbano
félisten
válasz
Winner_hun #143 üzenetére
az nem árnyék. az valami tereptárgy alsó pereme
-
orbano
félisten
válasz
Winner_hun #142 üzenetére
google a te barátod: Bővebben: link
-
Winner_hun
félisten
Ez a Soft Shadows szép és jó de ezen a képen:Bővebben: link a legfölső árnyék nem lett softolva. Most ez még bugos?
-
orbano
félisten
válasz
Winner_hun #140 üzenetére
Mert nem megfelelően alakítják ki a jelenetet. Amúgy HDR-re a ''valóságban'' gyönyörű példa a Világok Harca. Az elején, az invázió előtti utcai jelenetekben gyönyörűen látszik, ahogy a ruhák szélén elmosódottan felvillan a napfény. Szerintem nagyszerű operatőri bravúr, nekem nagyon bejött
Amúgy visszatérve a játékokhoz: nézd meg ut2007-et. abban sokat számít. szinte észre sem veszed a HDR-t, mégis sokkal élethűbbnek néz ki a megvilágítás tőle... -
Winner_hun
félisten
Ahogy elnézem a HDR bekapcsolásakor sokkal rondább lesz a kép, nemtom hogy ennek mi értelme van? Miért jobb az hogy egy nagy fénypaca lesz a hold helyén és körülötte?
Eccerűen összemosódick a kép és ennyi
-
Florida
tag
Konklúzió:hála az égnek,hogy nem vettem két hónapja SLI konfigot..
-
sTERNI
senior tag
A megkülönbözteti-t inkább nem fordítom magyarra, szerintem így is világos. A sőt pedig azt sejtette volna, hogy nem 2, hanem 3 különböző frekvenciát tud használni a gpu. 2d, Low 3d és Performance 3d a három órajel, amit be lehet állítani a 6800-asnak. Low3d akkor megy, ha valami oknál fogva a molexről nem kap elég áramot, vagy esetleg, ha amúgy is túlterhelt a táp.
Itt épp a Performance(3D) van kiválasztva, de ott a többi is..
Aki nem hiszi, járjon utána.
szerk: a képen GT látható, de most jobb képet nem találtam
[Szerkesztve] -
sTERNI
senior tag
A megkülönbözteti-t inkább nem fordítom magyarra, szerintem így is világos. A sőt pedig azt sejtette volna, hogy nem 2, hanem 3 különböző frekvenciát tud használni a gpu. 2d, Low 3d és Performance 3d a három órajel, amit be lehet állítani a 6800-asnak. Low3d akkor megy, ha valami oknál fogva a molexről nem kap elég áramot, vagy esetleg, ha amúgy is túlterhelt a táp.
Itt épp a Performance(3D) van kiválasztva, de ott a többi is..
Aki nem hiszi, járjon utána. -
anulu
félisten
válasz
Winner_hun #130 üzenetére
a saját timedemoval nem érdemes vesződni
UMark: Bővebben: link
ajánlott a legfrisebb 2k4 patch-et felrakni! -
fLeSs
nagyúr
válasz
BobChemistry #134 üzenetére
nyilván kisebb a különbség, ehhez nem kell tesztelni.
-
BobChemistry
őstag
-
Raymond
titán
[I''Nagyobb memóriasávszélesség nem gazdaságos, maradnak a spec effektek. Amikhez persze szintén kell a memsávszél. Főleg ha a textúraolvasó egység 16x anisoval szűri neked a texeleket.''
Ha nem a ma hasznalatos szogfuggo anisot szeretned hasznalni hanem full aniso-t kompromisszum nelkul ahoz nem hogy valamivel tobb, hanem tobbszor annyi memsavszelesseg kene mint most. Ez ugyanolyan mintha azon sirnal hogy a CPU-nak miert nincs 50+ GB memszvszelessege lehetoleg olyan 10-20ns kesleltetes kozott es miert kell itt a L2 es L3 cache-el vacakolni. Ezen nincs mit fennakadni. Majd egyszer lesz az is.
''A jelenleginél nagyobb felbontású textúrákat meg már megint elfelejthetjük, pedig az egészséges fejlődésnek ez lenne az iránya (persze szigorúan a fejlettebb, rugalmasabb shaderek megjelenésével szinkronban).''
Itt a kompromisszum a kijelzok altal kinalt atlag felbontas alapjan lett megvalasztva. A fejleszto nem fogja az idejet 2K felbontasu texturak keszitesere pazarolni, amikor minden felhasznalo 1024 vagy 1280-as felbontast hasznal meg ha a kartya ugyanolyan gyorsan dolgozna veluk mint az alacsonyabb felbontasuakkal. Ezert valahol meg kellett huzni a hatart a chip-ekban is. Erdekes modon az ATI es az NV is mas nezoponton volt mi a hatarDe azert a manapsag hasznalatos 512-es texturak a jobb jatekokban eleg szepen teljesitenek. A laptopomon a HL2 1920x1200 2xAA mellett eleg impressziv.
''No meg itt van ez a shader dolog is. szerintem egyik szoftverfejlesztő sem kérte a VGA gyártókat, hogy félévente hozzanak ki egy újabb shader modellt. És azt sem kérték, hogy ezek chipgyártónként térjenek el picit egymástól.''
Hat a SM2.0 mar nem tegnap vagy tegnapelott jott ki, raertek fejleszteniCsakhat ott beutott a GeForceFX sajnos igy nem volt lehetoseg a PS2.0 komoly bevetesere mielott a PS3.0 megjott volna.
-
orbano
félisten
Na igen. Itt van a kutya elásva: a lehetőség határain belül. Nagyobb memóriasávszélesség nem gazdaságos, maradnak a spec effektek. Amikhez persze szintén kell a memsávszél. Főleg ha a textúraolvasó egység 16x anisoval szűri neked a texeleket. Akkor aztán igencsak spórolnod kell a mintavételezéssel. A jelenleginél nagyobb felbontású textúrákat meg már megint elfelejthetjük, pedig az egészséges fejlődésnek ez lenne az iránya (persze szigorúan a fejlettebb, rugalmasabb shaderek megjelenésével szinkronban).
No meg itt van ez a shader dolog is. szerintem egyik szoftverfejlesztő sem kérte a VGA gyártókat, hogy félévente hozzanak ki egy újabb shader modellt. És azt sem kérték, hogy ezek chipgyártónként térjenek el picit egymástól. De szerencsére jön a Longhorn az egységesített shader- (és gpu) specifikációval és akkor én is elkezdek megint 3D-zni...
De majd draga Graham Aldridge barátomat is megkérdezem, ő mennyire örülne jobban a memória sávszélesség növekedésének. Lehet hogy pofáraejtAztán nekem törik ki az összes fogam...
-
Raymond
titán
''... de ha az egészséges fejlődést néznénk, és a programozók dirigálnának,...''
Hat ha figyeltel volna az elmult par evben akkor latnad hogy a fejlodes pont az ellenkezo iranyba halad - a egyszeru single es multi texturingtol a bonyolult shader operaciokhoz. Es igen, a fejlesztok igenyei szerint is kerulnek bele a funkcioka chipekbe a lehetosegek hatarain belul. -
válasz
JagdPanther #106 üzenetére
Jajj. Én azt hittem, hogy az aktuális, piacon lévő termékek a hasonlítási alapok. Ha fél év múlva jön az R520, akkor ugyanezt mondod majd, csak mert az fiatalabb lesz?
Bírom ezeket a bölcseleteket. -
anulu
félisten
válasz
Winner_hun #126 üzenetére
szvsz pont az UT sorozatnál nem érdemes ezzel szenvedni. google: umark
-
fLeSs
nagyúr
válasz
Winner_hun #122 üzenetére
nincs.
mindegyik játékban máshogy kell elkészíteni, ha van leírás hozzá (ha találsz), akkor könnyű, ha nincs, akkor rá kell jönni.
wolf, doom3, hl2,fc,ut2k4, riddick - ezekben könnyű demót felvenni
traod, bf2 - ezekben nehéz (amíg nem jössz rá)
lomac - ebben beépített replay van. -
fLeSs
nagyúr
válasz
Winner_hun #121 üzenetére
nem.
olvasd el a szöveget, és utána mozgasd a képek fölé az egeret. -
Winner_hun
félisten
A Wolf ET, Doom 3, LOMAC, TRAoD, Splinter Cell, Half Life 2, Far Cry, UT2004, Battlefield 2, Riddick és Painkiller játékokban saját magunk által felvett demókat/replayeket használtunk fel
ezeket hogy kell elkészíteni? van speciális prog hozzá? -
Winner_hun
félisten
grat a cikkhez de a második oldalon nekem vmi nem stimmel. Az élsimításnál kétszer van a 8xAA az egyik esetleg nem 16xAA kéne hogy legyen?
-
Pipó
őstag
Javaslom, hogy az ATI új kártyájának a tesztelésekor az ''elképzelhetetlenül nagy sebesség''-et adjátok majd a cikknek. (Persze csak a hiperűrsebesség és a fénysebesség bekapcsolása után
)
Mert megérdemli.
Addig meg ez a legjobb, nincs vita. Ócseny harasó -
cocki
tag
Grat a cikkhez gyerekek nagyon tetszett látszik a nvidia most is rá tett egy lapáttal. Gondoltam hogy a 9800-om belépőszint lesz egy idő múlva na de ilyen gyorsan na mindegy. az szent ez a legjobb most a piacon de végre én is kiváncsi vagyok mit lép erre az ati?
-
Gomezz
senior tag
válasz
JagdPanther #113 üzenetére
Hogy ezek mindég reábaznak
Már majdnem sajna őket -
Gomezz
senior tag
És hól lehet kéttápos házat kapni hozzá?
Már majdnem olyan jó mint egy X850XT PE
De mi lesz ha kijön Szeptenberben az új SLI ATI?
Azért jó hogy van Nvidia is, legalább hajtja az ATI-t. -
eXodus
őstag
válasz
JagdPanther #106 üzenetére
Sőt a 6800u -t is x800xt-vel kell összehasonlítani. Nem ám az x850xt pe hiszen ez már egy másik kategória. Vagy méjobb csak x800xt x800xtvel lehet összehasonlítani.
A cikkben minkét gyártó legjobbjai voltak. -
faster
nagyúr
válasz
JagdPanther #104 üzenetére
Akkor mivel hasonlítsák össze? Az R520 meg ki tudja, mikor lesz, nem fognak rá várni örökké. Egyébként árban nem sokkal drágább az X850XT PE-nél.
-
JagdPanther
aktív tag
de mér kell mindig az X850XThez hasonlitani h hú annál mennyivel jobb persze h jobb szép is lenne ha nem lenne SOKKAL jobb. majd az R520chipre épülö Radeon... azal kell majd összehasonlitani.
-
Detonator
aktív tag
Nagyon tetszett a cikk és gratulálok hozzá!
Szerintem sokunkat érdekelte volna, hogy mekkora a tényleges teljesítménykülönbség kisebb felbontáson és gyengébb procival, mert a gyakorlatban kevesek kiváltsága ilyen brutál drága konfigba beruházni! Egy-egy alkatrész cseréje meg mégiscsak könnyebben kivitelezhető dolog lehet, ha az ember elég elvakult ehhez, még akkor is, ha ilyen borsos ára van! Szóval, érdekelt volna, hogy ezt miért írtátok: ''Azt jó előre leszögezhetjük, hogy akik 1024x768-as felbontásban játszanak, nem kell, hogy GeForce 7800 GTX-re költsék a pénzüket. ''
Arra pedig különösen kíváncsi lennék, hogy a mostani 6600-6800-ok mire lesznek jók a köv 1-2 év játékaival szemben...
Nekem nagyon tetszett, hogy a kari 2D-ben kisebb órajellel dolgozik, mint 3D-ben!
Kíváncsian várom az ATI új top kariját! -
Niquis
aktív tag
Mekkora összeescuvees nyomaira bukkantam! Fú, be sem merem rakni, csak linkként!
Bővebben: link -
anulu
félisten
megvan a 6600GT-m utódja. már csak pénz kérdése a dolog...
-
sTERNI
senior tag
Határozottan jó cikk. Egy megjegyzésem lenne csak hozzá.
''A GeForce 7800 GTX a GeForce 6800-assal ellentétben (és a GeForce FX-ekhez hasonlóan) 2D-ben és 3D-ben más-más órajeleket használ...''
A 6800-as is megkülönbözteti ezt a két módot, sőt. (2D, low 3D, high 3D)
De amúgy minden nagyon a helyén van, mihelyst lemegy az ára, és fúziós erőművek adják az olcsó áramot... már le is cserélem a mostanit egy (mit egy.. kettő) ilyenre.
-
bandi20
aktív tag
GrAT a cikkhez
biztos sok munka van egy ilyennel ha replikáztok ha nem
Csak nem tudom melyik boltba rendeljem meg a gtx et mert kettő kellene az sli miatt.
Sajna ez csak vicc
mégegyszer gartula -
dwiki
senior tag
Nagyon szomorú vagyok , hogy mostanában a PH elfogult AMD , ATI, NVIDIA, és
Intel irányába.
A tesztekbe soha nem veszik be az otthoni Trident 512 + Voodoo 1 kombobat, valamint Cyrix 486-os procimat.
Sőt a céges duálprocis G5-öm is ritkán látom itteni tesztekben, annál gyakrabban az íroasztalomon.
Követelem hogy mondjon le...! -
Nem túl régóta vagy PH-s fórumozó (ami még nem jelenti azt, hogy ugyanannyi ideje olvasol ''minket''), és lehet, hogy nem nézted át a régi cikkeket, ami alapján valószínűleg más véleményt alkotnál. Ugyanis ott (az akkori viszonyoknak megfelelően) a GeForce FX sorozat le volt húzva rendesen, míg az Ati megkapta a neki kijáró elismerést.
Jelen esetben a cikkíró úgy látja, hogy az Nvidia a jobb, és most is ugyanúgy a saját véleményét írja meg, amit akkor.
Na most akkor hol van az elfogultság? Bűn lenne talán a jobb eszköz mellett letenni a voksot? -
rup1u5
nagyúr
XFX-nek van szép, gyárilag túlhajtott 7800GTX-e 490/1300
Bővebben: link -
Egon
nagyúr
A véleményem röviden és tömören: jó a cikk, hajrá nVidia!!!
-
kowk
tag
az meg csak mero veletlen, hogy pont penyad van atival, ugye?
egyebkent gratula a cikkhez, korrekt munka lett, megerte varni ra. ujfent bebizonyosodott, hogy az nvidia elsoporte a fold szinerol az atit, bar azert meg megvarom azt azt 520as halvaszuletett produkciot a kajan rohoges elott -
stifi
senior tag
csak az a bajom a cikkel, hogy nem tudom mihez hasonlítani... 1600x1200?
szvsz egy benchmark elfért volna (3d2003 3d2005), csak hogy lehessen mihez viszonyítani a saját konfigom, mert bár játszom néhány játékkal a teszteltek közül, de nem 1600x1200ban, minden szűrővel -
Esmein
nagyúr
Méghogy amd meg nvidia fanok lennének a phsok. Ezt most nem is láttam
Végre a kövér embereké a marketing porondja, előre 7800 gtx ! -
-
orbano
félisten
jobbra fel
-
Amikor a Parhelia kijött, és láttam az órajelkülönbséget (220 vs. 250-300) a GF4 és R8500-höz képest, már felvetült akkor bennem, és hangot is adtam neki, hogy kellene egy azonos órajelen elvégzett tesztelés. Az, hogy Fless most csinálta meg, nem jelenti azt hogy máshonnan lopta volna az ötletet, neki is eszébe juthatott.
Mellesleg minden ilyen frissítésnél jól jönne egy CBC teszt, ami megmutatja, volt-e fejlesztés architektura téren, vagy csak optimalizálás és órajelnövelés volt (utóbbi érvényes pl. a 9700-9800 frissítés esetében). -
Niquis
aktív tag
Semmit sem csökkenti az érdemeiteket, de a tisztánlátás végett, a clock-by-clock és pipe letiltásos tesztek szvsz a digit-life-ról származnak. Bővebben: link A cikketek egyébként tetszett.
Ha már itt tartunk, miért nem lehet valami ilyen értékelést is csinálni? -
Scream007
őstag
válasz
(Kolombusz) #12 üzenetére
az egyetlen megoldás ez.
de bárcsak ne így lenne. -
#79470961
törölt tag
Mikor is lesz ebből valami XT, vagy LE verzió ~30e-ért?
-
t-shirt
veterán
Jó cikk egy jó kártyáról
Tuning nem volt, csak megcibáltátok kicsit? -
Horbal
őstag
3d-max-os közelítés, ők két részre bontották a poligont, maxban a két fészből álló négyszöget hívják így, amit egy alapból láthatatlan edge vág ketté (átló), ha a max úgy van beállítva, ettől még a face is poligon csak nem úgy hívják (max-ban)...úgyhogy nem vagy eltévedve, csak más a megközelítés...
-
Petya25
őstag
Tisztelem a PH-s cikkírókat, mert sok hasznos infót adnak közre, amit szívesen olvasok. Tudom elfogult vagyok, de már többször feltünt, hogy az AMD-t és az NVIDIA-t jobban nyomják, mint a rivális márkákat.
Ebben a tesztben is vannak érdekes dolgok. Az SLI-s GTX konfig teljesítmény felvétel különbsége telhelés alatt kisebb az egykártyáshoz képest, mint alapon.
''Nézzük azonos órajelen'', akkor talán kellett volna egy próbát tenni az ATI 540-es órajelén is. Így olyan volt, mint nyomjuk le a P4 3,6GHz-et 2,2-re mert a AMD64 ott jár (próbálnák meg fordítva, ). A SLI-s eredményeket nem tesszük közzé. Köszi, akkor minek a két kártya, ha részben nem hozza amit kifizettél.
Amúgy a GTX előnye nem kérdőjelezhető meg, ma ő a legjobb, csak megéri váltani?
[Szerkesztve] -
rocket
nagyúr
Egesz korrekt a cikk nagyobb reszben.
1-2 dolog azert van ami erdekes
''A MOHPA is igen erősen támaszkodik a shader-erőre, és ez az eredményekből is jól kivehető, élsimítás bekapcsolása mellett a 7800 GTX több mint kétszer gyorsabb a 6800 Ultránál. Itt az ATI kártyája is nagyon jól szerepel a konkurenciához képest, ami az arányokat figyelembe véve valószínűsíti, hogy az NVIDIA driverével van gubanc.''
MOHPA-nal ez mar ellett sutve parszor mint indok, honapokkal ezelott is, azota se javult, igy kizarhato a driver gond.
''legyőzhetetlen shader-sebesség,
legyőzhetetlen HDR-sebesség,
legyőzhetetlen sebesség játékokban,''
Eros tulzasok, ezek rudi szavainak tunnek igy lathatatlanba, amiket elsutott mar egy masik topicban
Ha legyozhetetlen lenne, akkor minek fejlesztenenek ujabb termekeket? -
faster
nagyúr
Én nem találtam, de majd lehet, hogy megnézem még egyszer. A beyond3d egyik topikjában azt írta valaki, hogy lényegét tekintve egy DX7-es játék, csak azért használ egy-két DX8-as dolgot, hogy gyorsabb legyen (kevesebb renderpass)
De lehet, hogy igazad van, és ezt pont shaderekkel éri el. -
Horbal
őstag
Más:
Gratula a cikkhez, egyre jobbak ezek a cikkek, miközben egyre kevésbé tudom felfogni azt amiről szólnak
Nagyon szép és nagyon jó ez a fejlődés, miközben egyre kevésbé érthető, hiszen sem a proccok sem a progik nem képesek lépést tartani a karikkal, nem is beszélve szegény júzerekről...és az a helyzet részemről, hogy valahogy ezek a bazi szuper grafikus motorok, csilli villi műanyagvilágok, valahogy nem nyújtanak olyan plusz élményt ami a ramaty, ötlettelen játékmenetet, lapos hangulatot pótolni tudná...szóval amig nem villant valaki olyan gámét amiért megvesznék, nem fogok milliókat ölni a szájbervilágba...
Megj.:
ATI forevör, de azért grat az NV-nak -
faster
nagyúr
válasz
BobChemistry #32 üzenetére
Tudtommal nincsenek benne shaderek.
-
Horbal
őstag
Attól függ mit értesz poligonok hajlásszöge alatt.
Ha mondjuk 3d Max-ban megnézel egy modelt (mesh model mondjuk) akkor annak vannak un subobjectjei amik a következők: poligon, face, edge, vertex.
A poligon: négy vertex által meghatározott felület a térben - téglalap a térben
A face: egy fél poligon - a poligont az átlójával elfelezve kapjuk - háromszög az az három vertex által meghatározott felület a térben.
Az edge: él két vertex összekötve - egyenes a térben...
A vertex: egy pont a térben... -
Köszönöm, hogy megtiszteltél a válaszoddal.
Hirtelen az jutott eszembe, hogy kéne csinálni egy 9800pro vs. x800pro/xt clock-by-clock összehasonlítást. Kíváncsi lennék, hogy az jönne-e ki eredménynek, amire gondolok? (Azaz csak a plusz pipeline miatt lenne sebességnövekedés?) -
Kain
senior tag
1 év múlva veszek egy ilyet.Addigra emberi ára lesz,meg játék is lesz hozzá.
-
viharhozo
addikt
A kartya erossege es relativ gyengesege szepen kibukik a 3d03 Mother Nature tesztjen. Van, ahol a 9800P sebessegenek a ketszereset sem eri el, van, ahol hatszor olyan gyors.
Egyebkent van arra vmi magyarazat, h miert nincsenek a piacon 1.6ostol jobb ramok? Ennyire lemaradt a teknikanak ez a resze? -
orbano
félisten
válasz
BobChemistry #35 üzenetére
A pixel sahder az laikus nyelve lefordítva a textúrázási folyamat felturbósitása speciális effektekkel (megvilágítás, tükröződés, miegymás).
A vertex sahder pedig a geometria (sokszögek) felturbósítása (ruhák, bőr, illetve egyéb fizikai effektek szimulálása). Ennyi. Ezek nélkül, illetve a mértéktartó használatával is lehet szépet alkotni, mivel elsősorban a vizuális élményt a modellezés (geometria és textúrák) határozza meg. A pixel sahderekkel ehhez hozzáadhatod az extákat: élethűbb felületek, élethűbb megvilágítás, árnyékok, stb...
Na ezt jól megaszontam. Mára elég is volt az észosztásból -
orbano
félisten
mondom fogják. azért mert a mostasni játékokban nem kell nagyobb sávszél. Persze hogy nem kell, mert erre optimalizálták. de ha az egészséges fejlődést néznénk, és a programozók dirigálnának, és nem az olcsó és gyors RAM hiánya, akkor bezony kellene a plusz memóriasebesség... de az okos nVidia megaszondja, hogy ugyanmár, a séder az mekora jó, és nem gáz, hogy az egész játékban van 3 alacsony felbontású textúra, meg 4 darab háromszög, de milyen überjó a HDR. Erre legjobb példa az Area 51. A szépségre, és a memóriasávszélesség szükségességére meg ott a másik irányzat, a HL2 és majdan a Stalker. Mert bizony nagyfelbontású textúrák nélkül hiába vakít el a HDR, ha közel mész egy falhoz és elmosódott vagy éppen pixeles...
-
Loretto
veterán
válasz
BobChemistry #35 üzenetére
Bővebben: link 3d ''fül'' olvasgass bele...
-
szatocs
őstag
Grat a cikkhez, nagyon kellett már.
Azért az nem semmi, hogy néhol egy 7800 GTX ''elbánik'' egy 6800 U SLI - vel, de az SLI 7800 GTX - ek is jobbak a vártnál asszem, mert sokan azt várták, hogy gyengébben fog szerepelni, mint a 6800 - asok. Jó kis kártya ez...
-
Szalma
őstag
válasz
BobChemistry #38 üzenetére
(Bővebben: link Elmélet. Jó cikkek. Olvasgass. Nem túl bonyolult.)
Szeretettel:
Szalma -
válasz
BobChemistry #35 üzenetére
A pixel az a keppont (a monitoron)
A vertex az egy pont a virtualis terben.
A shader meg egy kis program, ami a kartyan fut, ami mindenfele okossagot szamol ki, pl, hogy egy vizfelulet hogyan hullamozzon, meg ilyenek.
Van pixel meg vertex shader, ertelemszeruen az elso pixeleken, a masik meg vertexeken szamol dolgokat. -
fLeSs
nagyúr
válasz
BobChemistry #38 üzenetére
nézz utána, nem vagyok tanár.
-
fLeSs
nagyúr
válasz
BobChemistry #36 üzenetére
éppenséggel ha mondjuk 1024-ben vagy 1280-ban gondolkodsz, akkor meg tudod magadnak válaszolni a saját kérdésedet.
kisebb felbontásban már játszható lesz sm3.0 mellett is a játék. -
fLeSs
nagyúr
válasz
BobChemistry #35 üzenetére
a pixel egy képpont.
a pixel shader egy program, ami a képpont színét számolja ki. -
BobChemistry
őstag
ja igen, van itt még valami amit nem értek
SM3.0 mód alatt 1600x1200-as felbontásban a játék játszhatatlanul lassúvá válik
nem az a jó a geforce-okban hogy támogatják az SM3.0 módot?
mert ha így belassulnak közben, akkor nyilván az átlag user nem kapcsolja be, és akkor ott vannak ahol a part szakad
ennyi erővel ati-t is vehetnének nvidia helyett, vagy rosszul látom?
biztos russzul látom, remélem vki felvilágosít -
fLeSs
nagyúr
válasz
BobChemistry #32 üzenetére
mit kell rajta magyarázni? ez azt jelenti, hogy gyakorlatilag csak néhány van benne (de sikerült találnom a 3danalyzerrel
).
-
BobChemistry
őstag
a riddick az nálam is futott
9700pro 2000+ palomino 1GB ram 1024*768 -
BobChemistry
őstag
az UT2004 csak elvétve tartalmaz shadereket.
ezt megmagyarázná nekem valaki? -
Raymond
titán
''És SZVSZ a memória-sávszélességen el fogják bukni a dolgokat.''
Nem fogjak. Szerinted miert nem noveltek a ROP-ok szamat ? Mert a jatekok shader limitaltak lesznek.
Egyebkent nezd meg a 6600GT vs. 6800 eredmenyeket. A legtobb uj jatekban meg 1280x1024 mellett is fej fej mellett haladnak, pedig a 6800-nak 40% magasabb memsevszelesege van ugyanolyan fragment shader teljesitmeny mellett. -
Raymond
titán
Gratula a cikkhez !
Ket megjegyzesem lenne:
1) ''Itt az ATI kártyája is nagyon jól szerepel a konkurenciához képest, ami az arányokat figyelembe véve valószínűsíti, hogy az NVIDIA driverével van gubanc.''
Nem hinnem. Az itteni [L]http://techreport.com/etc/2005q3/hires-gaming/index.x?pg=1 megerositik a PH!-s teszt eredmenyeket - a GF6800 kartya meghal nagyfelbontas+AA+AF hasznalata mellett.
2) '' Az idő majd eldönti, hogy valóban a „shaderek mindenek felett” elv fog-e győzedelmeskedni, és így az NVIDIA-nak lesz igaza, avagy sem. ''
SZVSZ igenEgyebkent ez mar eldolt - lasd pl. a Riddick es a FEAR eredmenyeket.
-
Kain
senior tag
A várva-várt teszt!THX!
megyek is olvasni...... -
Adi
senior tag
''Csak'' 110W a fogyasztása?
Az én szememben ez egy újabb, fölöslegesen sok energiát zabáló szörnyeteg. Csak nekem tűnik föl, hogy az olajár folyamatosan drágul?
-
flinta
tag
furcsa, h nem működött a doom3-nál az sli, mikor a 6800-nál OK. mondhatni ez az sli húzómotorja a 3dmark-ot leszámítva.
[Szerkesztve] -
orbano
félisten
Na teljesen végigolvastam a cikket. Nem vagyok nagyon elájulva ettől a kártyától. Ahogy a mostani játékokat elnéztem, annyira azért nem dobott nagyot, mint mondjuk a gyíkforsz4 anno a 3-hoz képest. És SZVSZ a memória-sávszélességen el fogják bukni a dolgokat. A több pixelshaderhez több textúra kell. Mindig is ez volt a tendencia. A pixelszámítás komplexsége is nő, de emellett a textúrák mennyisége és minősége is. Van egy olyan érzésem, hogy az Ati nagyot dog dobni az új kártyájával. Gondolom nekik jóval átdolgozottabb architektúrájuk lesz, nem véletlenül álltak át új gyártástechnológiára szerintem. És ha a legalább hasonló szintű magot megspékelik valami komolyabb órajelú memóriával, akkor igen komoly harc lesz itt. Ami pedig csak nekünk jó
PErsze aztán az is lehet, hogy az Ati kiad egy sz*rt és elsírom magam
A teszt meg supcsi lett, bár kicsit túlzsúfoltak lettek szerintem a grafikonok... -
Gergello
addikt
Jó kártya, jó cikk! Grat hozzá, szép munka!
De én maradok a kispénzűek 6600-ánál. -
Sanya
nagyúr
engem nem győzött meg. annyival nemjobb...
ára? -
Szalma
őstag
(Egy rosszul beállított fókuszpont síkleképezésnél fokozott problémákat okoz, mert a gömbfelületű ''valódi'' konverzióhoz képest nem halszemoptikához hasonló logaritmikus torzulásokat okoz a képen, hanem lineris megnyúlásokat.
Nem minden ember érzékeny erre a dologra, de elég sokan. Genetikai adottság szerintem, atavizmus. Jobban érzékelik a perifériás látómezőt.
És valóban, modellezik a lencséket is.)
Szeretettel:
Szalma -
Loretto
veterán
Korrekt a cikk. Gondolom az élvezeti értéke is megvolt a tesztnek, ill a kártyának.
-
Fless, fogadd elismerésem, főleg azért, mert végre megcsinálta valaki a clock-by-clock VGA összehasonlítást, ami már a Parhelia 512 óta hiányzik nekem.
Gratula a teszthez! -
ciao
senior tag
és 16 futószalagos kártyát kaphatunk 50 000 forintért (ámen). a próféta szóljon belőled!
-
orbano
félisten
HA szarul van beállítva a sík leképzés fókuszpontja, akkor valóban idegesítő lehet a torzulás (serious sam, quake 3), de a legtöbb játékban tökéletes. én bazi sokat cs sourceozom és nem zavar
bár azért megnézném milyen. filmekben meg eleve a kamera lencséi is domborúak/homorúak (fú lehet hogy itt most melléfogok
), így gondolom ott jóval zavaróbb lenne, ha a lencsék által a filmre vitt képhez nem igazodnának az effektek...
-
overclk
tag
Grat a cikkhez, igazán színvonalasra sikeredett !
Szvsz azonban egy 1280x1024-es teszt is beleférhetett volna mert az még nem ad annyira CPU limitált eredményeket és azt sem hiszem, hogy annyira sokan játszanának (akár szűrők nélkül) 1600x1200-ban. Végső soron alaphelyzetben a cikk ''dolga'' az volt, hogy bebizonyítsa milyen előnyökkel jár egy ilyen kari az előző generáció csúcspéldányaival szemben és ehhez kell a teljesítményigényes teszt.
Kicsit keveseltem ''sima'' 1600x1200-ban az átlag 40%-os előnyt a 6800U szemben, bár lehet ezzel a véleményemmel a kisebbséghez tartozom. Nyílvánvaló, hogy ez a különbség 1280-ban csökkenhet akár 25 - 30%-ra is. Számomra ez a felbontás a mérvadó, hiszen ezzel játszom általában.
Összességében a GF7800 GTX az ATI csúcskártyájának és a 6800U (jelenlegi)árának (Leadtek GF7800 GTX ~ bruttó 130 000) figyelembe vételével kitűnő vétel, ennek ellenére nem válok meg a jelenlegi karimtól egy 7800GTX kedvéért -
Szalma
őstag
(Nohát! Aszongya: a szemfenék nem sík. Egy nagy sugarú (~80m) gömbcikk belső fele lenne az ideális 3D -> 2D konverzió esetében, sík monitort feltételezve. Ez valóban elhanyagolhatónak tűnik, de nagyon sok embernek komoly problémát okoz a perifériás látómezőben tapasztalható irreális torzítás a síkleképezésnél. Mert a látás tudattalan része ott a legaktívabb. Ez gyors szemkifáradásban, émelygésben, fejfájásban nyilvánulhat meg.
Értelme van, különben a komolyabb renderelő szoftverek sem alkalmaznák. Nézd meg a CGI trükköket egy filmen, nem fog torzulni a sarkokban a grafika... (Kivéve, ha akarják.)
Valahol itt némileg részletesebben értekeztem erről, meg kellene keresni.)
Szeretettel:
Szalma -
Scream007
őstag
jó kis teszt.
rámutat arra hogy a procigyártóknak ideje volna már felzárkózni, mert ATI meg NV picit elszaladt előlük
gyakorlatilag tényleg elmondható hogy ahol müxik rendesen az sli és nincs driver gond ott tényleg legalább 1.5x gyorsabb az elöző karinál szóval ez elég rendes gyorsulás.
már csak a az a kérdés ezek után ki fog 6800u sli-t venni, mikor egy 7800gtx is hozza ugyanazt???
remélem ettől elkezd majd zuhanni a 6800gt/ultrák ára, és akkor végre én is meg tudom venni.(ennek adok max 2 hónapot)
amugy az SLI még mindig nem teljesen hibátlan, hisz fizikai képtelenség hogy 6800u sli ''csak'' = x850xt pe-vel.
ha csak a 2x annyi pipát nézzük se lehetséges ez. -
Paqito
senior tag
Tengermély tiszteletem a Ph!-nak
, nagyon jó lett a cikk! Olyannyira, hogy az első oldal aljáig értettem is nagyjából....
Beszarás ez a kártya -
(Kolombusz)
veterán
Elismerésem a ph-nak és az nVidiának. Fölényes győzelem mindenhol, min a 6800 ultran, mind az x850en. Gratula.
-
Hun'reeth
őstag
Brutális a kártya ugyanakkor az Nvidia az sli-t is agyonvágja vele.
-
BenJoe
senior tag
válasz
sosperecek18 #2 üzenetére
Dehoygnem.... Csak egy A64 4000+ kelll hozzá...
MEg két giga CorsAir memória húzva.... -
Szalma
őstag
(Végre kezd normális kinézete lenni a realtime scene-eknek. A HDR és a soft shadows nagyon hiányzott már ezekből a cuccokból... Már csak a fránya 3D -> 2D síkleképezését kellene valahogy inverz gömbre váltani és máris elégedett lennék a dolgok folyásával...)
Szeretettel:
Szalma -
AMD Power
titán
Az első dolog az ,hogy szeretnék nektek gratulálni a cikkhez fiuk , nagyon jó lett!
A második dolog szeretnék gratulálni az nVidia-nak! Ez kártya tény , hogy nem az én világom ( Nem vagyok Hardcore gammer) de nagyon baba lett. Bár lehetne egy kicsivel rövidebb!Még 1x Grat a cikkhez....!
-
BenJoe
senior tag
Jöjjön? -jöjjön!
Szóval már teszztelünk is... Amúgy természetesen grat. a cikkhez!
Új hozzászólás Aktív témák
- Huawei Watch GT 6 és GT 6 Pro duplateszt
- Milyen routert?
- Apple asztali gépek
- Mozilla Firefox
- sellerbuyer: Mivel fotózz és videózz 2025-ben? Elég egy mobil vagy kell egy kamera?
- Folyószámla, bankszámla, bankváltás, külföldi kártyahasználat
- Milyen videókártyát?
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Vicces képek
- Miskolc és környéke adok-veszek-beszélgetek
- További aktív témák...
- BESZÁMÍTÁS! ASUS Z170 i7 6700K 16GB DDR4 512TB SSD RX 480 8GB DEEPCOOL D-SHIELD ADATA 600W
- BESZÁMÍTÁS! ASUS B760M i5 12400F 32GB DDR4 1TB SSD RTX 3070Ti 8GB Fractal Design R5 FSP 850W
- REFURBISHED - HP USB-C Dock G4 docking station (L13899-001)
- GYÖNYÖRŰ iPhone 13 mini 256GB Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3180
- BESZÁMÍTÁS! Sony PlayStation 4 PRO 1TB fekete játékkonzol garanciával hibátlan működéssel
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopműhely Bt.
Város: Budapest