Új hozzászólás Aktív témák
-
SirRasor
addikt
Azt hiányolom picit, hogy melyik mennyi wattot kajál. Gyanítom, hogy a 8800 GT-nek jóval magasabb étvágya van, mint a 4670-nek.
-
diegho
nagyúr
Jah, és Diegho, hogy látod, gyorsít valamit az SP3 az XP-én? Inkább a játékokban nyújtott teljesítményre lennék kíváncsi. Lehet kipróbálom.
mivel 2000 óta csak counter-strike-ot játszok és fix 100fps-re lőve (amúgy 2-3-4000 lenne) ezért nem tudok nyilatkozni gyorsulásról, vagy bármiről. Most már source-ozok is, de sp2-vel nem játszottam.
-
tzsolesz
nagyúr
Azt szeretném még kérdezni, hogy Vista alatt mennyiben lenne más helyzet?
Másképpen fogalmazva, vajon melyik kártya élvezne előnyt a fentiek közül?
Jah, és Diegho, hogy látod, gyorsít valamit az SP3 az XP-én? Inkább a játékokban nyújtott teljesítményre lennék kíváncsi. Lehet kipróbálom.

-
Abu85
HÁZIGAZDA
Hát a kiszivárgott beta alapján a Win 7 az gyakorlatilag SP2-es Vista lesz.
Emellett lesz benne egy halom új fícsőr, amit a felhasználók 90%-a nem fog kihasználni, illetve az új Aero felületet elvileg átírták DX10.1-be.
Az igazi előrelépés, hogy csak 64bit-es verzió lesz belőle. Ez fontos, mert a mostani driverek a 32bit-es kernelhez készülnek, így a 64bit-es Vistával csak a szopás megy. A 32bit-es Vista az SP1-gyel már teljesen jó.Mellesleg jövőre több olyan játékot is kapunk ami only DX10 (Stormrise), vagy a DX10 renderből lett készítve a butított DX9 mód (a Far Cry 2 is ilyen már). Utóbbi eset fennállása mellett gyorsabb lesz a Vista alatt ... nem is kevéssel. Sőt a Battleforge DX9 és DX10.1 módot fog csak tartalmazni és utóbbi sokkal szebb és gyorsabb lesz - legalábbis a fejlesztők szerint.
-
tzsolesz
nagyúr
Nem értem ezt a Windows 7 mizériát.
Most miért kell ezzel jönni itt. Előbb Vistát kellene használni, nem? akinek már az is szar, az a halálba fogja kívánni a W7-et.... 
Na már most ha az emberek még a vistát sem használják, kérdem én mikor fogják használni a windows 7-et??? Megmondom KB. 3-4 év múlva. Úgy ahogyan a Vista is csak most kezd már teret hódítani. Én már 1.5 éve Vistát használok, és a környezetemben is a USER-ek 60-70%-a használja.
A fejlesztőknek meg előbb normális DX10-es játékokat kellene gyártaniuk, nem hogy a DX11-ről egyáltalán álmodozni. A DX11 kb 5 év múlva fog teret hódítani szerintem. Most jöjjenek az igazi DX10-es játékok. Remélem 2009, és 2010-ben már lesz belőlük részünk rendesen.

-
a force-olt AA-nak abszolút nem vagyok a híve (kivéve az Oblivion-nál - de azt tudod, hogy miért
) - ezen nem is érdemes beszélni az UE3 esetén. azt viszont nem értem, hogy miért nem írtak egy saját edge detect szűrőt az árnyékokhoz - egy csak árnyékokból álló plane-hez nem lehet túl nagy művészet, főleg, hogy az árnyékszámítás "mellékhatásaként" ismertek is az élek...a color/depth dolgot értem, nem tudtam eddig, hogy van ilyen különbség - és a unigine-es képek elég meggyőzőek. csak ebből nekem az jött le, hogy a 9600GT-men vagy maradok XP-n, vagy lelkes rajongója leszek a -dx9 switch-nek - de ha a Far Cry 2-ből indulok ki, akkor ugyanez lenne a helyzet, ha Radeonom lenne...

PS: diegho, szólj, ha már nagyon offnak érzed a fentieket

-
rumkola
nagyúr
A vista 2 éves és jövőre pedig váltja a win7 vagy miatököm. Ennek fényében vicces a jóslatod. Jelen pillanatban a piacon lévő több ezer játékból talán kettő gyorsabb vista alatt 4gb rammal, mint xp alatt 2gb-al.
A DX10-nek NULLA a létjogosultsága, ez több száz tesztből és a sok user beszámolóból már kiderült. Mellesleg egy 10GB+ oprendszer - nálam - nagyon erősen vicc kategória, bár az utóbbi hetek hírei szerint most már a microsoft is ezen az állásponton van.
A vistára természetesen sok jót lehet mondani, csak azt nem, hogy a játékok gyorsabbak vele, mint nélküle. -
Az XP ideje igencsak lejárt, ugyanis a mai játékoknak már igencsak szűkös az a 2 giga ram, amit alkalmazásonként allokálni képes a 32 bites változat (64 bitest meg nem használ az, aki jót akar magának, a 3GB kapcsoló meg csak a PRO esetén működik). Szóval ha valaki a közeljövőben is megfelelő sebességgel akarja futtatni az új játékait, az kénytelen lesz átérni a Vistara.
-
tzsolesz
nagyúr
No csak a Grid-ben a 8xAA nem nagyon hatja meg az ATI karikat, míg az NV-ét pofán vágta kicsit. Ez jelent valamit. Ez mitől lehet???

-
Taranti
senior tag
Na, itt a lényeg, a hsz. első felével teljesen egyetértek. Én is xp-t használok, és nem tervezem vistára váltani. A hd3870-em dx9 alatt meg (eddig még) mindenre elegendő. Persze itt tmondhattam volna 9600gt-t is... És nem mellesleg a nagy játéknevek (ha-ha) jó része bughalmaz!
-
Abu85
HÁZIGAZDA
Én inkább pénzkérdést látok a dolgok mögött. Az a baj, hogy az NV a PC-s GPU üzletág fejlesztésébe közel sem pakol most annyi pénzt, mint a GF8800 idejében. Inkább a HPC rendszerek, a Tegra és a CUDA fejlesztésére koncentrálnak.
Jövő nyárra itt a Win 7, szóval ... öngyilkosság jövőre elkezdeni a DX11-re való átállást. Az NV-nek ez nem olyan egyszerű, mint az AMD-nek. Ők az R600-at úgy építették fel, hogy több generációig hetékonyan fejleszthető legyen. Ezért bukták be az első évet, de megérte, mert még jövőre ... sőt talán még 2011-ben is lehet ezekre az alapokra építkezni.
A G80 alapjai a G200-nál kifújtak, a G300-nak mindenképp új architektúra kell, vagy vége az egésznek. Persze ha azt nézzük, hogy mennyi pénzt vontak el az üzletágtól, akkor még az is elképzelhető, hogy ez így volt tervezve. Nyilván az Intel belépésével az NVIDIA nem kívánatos konkurencia lesz a piacon. A legvalószínűbb forgatókönyv szerint az NV ezt tudja és időszakosan gondolkodik, tehát bőven elképzelhető, hogy azért nincs DX10.1 támogatás, mert nem éri meg a befektetett összeget, mivel a PC-s GPU piac lapátra kerül és a HPC, SOC rendszerekben gondolkodnak a zöldek, amik a CUDA felületre támaszkodnak. Ezeket az elméleti terveket alátámasztja a Mental Ray és az Ageia felvásárlása. -
diegho
nagyúr
amúgy megmondom én neked, hogy miért nem töri magát az nv. Még mindig túl sok az xp használó ráadásul a vista közel sem olyan jó, hogy megérné áttérni rá. Az nvidia szerintem akkor csinálja jól, ha jövőre kezd bele egy új architektúra fejlesztésbe, mert a win 7-ig nincs igazán nagy szükség a dx 10.1-re.
-
Abu85
HÁZIGAZDA
De az AC-ben a DX9 módban az Animusnál más a deferred render fázisok keverése, ott nem kell az AA-hoz a Color infón kívül más. DX10-ben már kell a Z subsample is, így ott hiányzik az AA. Az DX10 a Deferred Shading alkalmazásánál egységesített keverési eljárásokat használ ... tulajdonképpen, ha csúnyán fogalmazunk az AC esetében DX10 miatt nincs AA. Erre jött a javítás a DX10.1-ben, amit a fejlesztők használtak, de ki is vettek időzítési problémák végett (amit pár perc lett volna javítani
).A GRID az nem téma, oda elég a color infó.
Az UE3 az spéci eset, mert az a motor Deferred Shadowing. Esetenként durván szopni lehet vele az AA-nál ... linkeltem shotokat a problémáról.
-
Abu85
HÁZIGAZDA
A kényszerített AA az félmegoldás, ami ezt eredményezi. Persze erre a problémára a Catalyst AI állítgatása megoldást jelent, csak az új problémákat vett fel. Ördögi kör ... Normálisan támogatott AA kell a játékokba, a fenti félmegoldásokkal nem jutunk előbbre.
Amúgy a 8.3 óta engedélyezve van a Catalyst alatt is az AA override az Unreal Engine 3 gamákra.
A hivatalos nyilatkozat értelmében azonban az AMD nem garantálja, hogy tökéletes és hibamentes lesz az eredmény, mivel a motor nem támogatja az MSAA eljárásokat. Mondjuk ezt az NV sem garantálja csak nem jelentették ki a dolgot, mert nekik probléma, ha az emberek rájönnek, hogy normális AA csak DX10.1-gyel lehetséges.A Far Cry 2-őn sincs normális AA DX10 alatt, mert kimarad a mélység mintavétel az átlátszóság infót hordozó textúrák mögül. Ezért lett beépítve a DX 10.1 mód, hogy ezt a problémát megoldják a fejlesztők. A sebességelőny pedig ez esetben azért marad el a DX10.1-es kártyákon, mert a mélység infó szerzést egy utólagos fázis irányítja, ez egy plusz fázist jelent majd a DX10.1-es Radeonoknak. Ezért nem fogjuk soha tesztelni AA mellett a Far Cry 2-őt, mert a fejlesztők rosszul írták meg a rendert, így a Geforce DX10-ben egy fázis előnyben van, ha ők is lenyomnák azt a fázist akkor -30% lenne sebességben a teljesítmény, csak a driver nem engedi a mélység infó mintavételt, mert úgy sem lenne eredménye.
Az Unigine motor elég jól fejlődik, csak a srácnak most sikerült eljutnia addig, hogy az AMD és az NV figyelmet szenteljen a motorjának a driver oldalról is. Ez majd megnöveli a licenszelők számát is. A press release alatt pedig szépen megmutatja, hogy mi a különbség a DX10 és a DX10.1 mód között, ha a kártya nem képes mélységinfót szerezni.
kepdx10 , kepdx10.1 -
Assassin's Creedben is teljesen jó az AA - DX9 alatt.
Egyébként ezzel a posttal azt akarod mondani, hogy a GRID (és az AC) nem használ semmilyen deferred technikát, vagy azt, hogy az említett engine-ek írói olyan bénák, hogy csak a DX10.1-ben biztosított új feature-ök segítségével képesek normális sebességű és minőségű élsimítást hozni?

Az UE3 motor amúgy kilóg egy kissé, ott a HQ postprocessing (vagy melyik játékban mi a neve) részben kiváltja az AA-t - nekem a Bioshock alatt egyáltalán nem is hiányzott...
-
rumkola
nagyúr
Természetesen egyetértek veled, mindenki szeretne AA-t, viszont nem értem az általad felsorolt játékok címeit és mennyiségét.
NV kártyával talán csak néhány UE3 játék alatt nincs AA (drverből ezeknél is kikényszeríthető), de XP alatt ATI-val sem működik ezeknél. A vicc az egészben az, hogy van olyan UE3 cím, ahol simán van NV-vel XP alatt is AA. Mellesleg most felsoroltál kb. 10 címet amik mellé én felsorolhatnék több ezret aminél semmi gond az AA-val NV-n (és igen, a Far Cry 2 is ezek közé tartozik).Én pont azt látom, hogy az AMD fáraszt az örökös ígérgetéseikkel és az általuk említett dolgokból semmi sem vált eddig valóra (800 ill. 1600 séderrel telepakolt GDDR5-ös VGA, DX 10.1-es támogatás már egy éve - amihez nulla darab szoftver van, stbstb.).
Amíg a szoftver fejlesztők nem fognak az ATi alá dolgozni, amíg a júzerek nem váltanak vistára addig ez mind-mind csak papíron létező dolog marad.
A fejlesztők pedig mint tudjuk, nem fognak valami olyat építeni a szoftvereikbe ami plusz munkával jár és nem mellesleg inkompatibilis lenne az NV-vel. Sajnos (vagy nem sajnos) ez a piac.Az X2 (bármelyik oldalról) és bármilyen CF vagy SLI megoldás pedig igazi nemnormális gyökérség. Mi sem bizonyítja jobban, hogy anno aki 3870x2-őt vagy hasonló NV-t vett, az fél éven belül fele áron sokkal jobb egychipes VGA-t vehet....
A Tropics demóról mi a véleményed?
-
Abu85
HÁZIGAZDA
Nem hiszem, hogy bárkinek jó, hogy az itt említett programokban nincs AA. Ez minden csak nem a felhasználó érdeke. Nekem a userek érdekeit kell néznem egyes értékeléseknél, a cégek érdekei hidegen hagynak. Sajnos manapság a legtöbben azt tapasztalják, hogy csak az AMD akarja visszahozni az AA-t a játékokba, és ezért van az a nagy NV ellenesség.
Az legtöbb tehetősebb embert nem érdekli, hogy egychipes vagy kétchipes VGA-t vesznek ... látják, hogy a tesztben a HD 4870 X2 bucira aláz mindent és ha van pénz rá akkor arra költenek. Az AMD is ezért húzta a HD 4850 X2 piacra dobását, mert nem számított rá, hogy állandó hiánycikk lesz a HD 4870 X2. Még az eredeti árat is megemelték 80 dollárral.
Az NV-nek én azt tudnám javasolni, hogy döntsék el mit akarnak ... ha szeretnének maradni a PC-s VGA piacon, akkor nyomjanak annyi pénzt a szegmense amennyit két éve, ha meg nem akkor felesleges fárasztani a népet az ígérgetésekkel. Egy szót nem szólnék, ha a G80 architektúrában lenne annyi potenciál, hogy versenyre kellhessen az R600 alapjaival, de egyszerűen ez a chipstruktúra a G200-zal nem ütőképes. 55nm-en és 40nm-en sem lesz az.

-
rumkola
nagyúr
Amíg a júzerek több mint fele XP-t használ, és az általad állított dolgok ATI-val még DX 10.1 alatt sem hoznak semmiféle gyorsulást, sőt mindenféle bugokkal, képminőségbeli romlással és lassulással járnak addig számomra ez az egész csak szócséplés. Gyönyörű szakszavakat használsz, de lassan 2 év eltelt már és még mindig semmi nem valósult meg ezekből a jóslatokból.Ez kb. olyan, mint amikor a politikus azt mondja a népnek, hogy jövőre majd jobb lesz. Csak az a baj, hogy már 20 éve mondják... Én is beszívtam 2x, hogy jaj de jó lesz majd nekem (3850,4850), aztán közben mégsem.
Jelen pillanatban még mindig a 280-as a leggyorsabb, legkompromiszum mentesebb egychipes vga a piacon.

-
Abu85
HÁZIGAZDA
Multisample Access-sel gyakorlatilag minimális teljesítmény deficit. Ezért reklámozza az AMD, hogy a HD3000 és a HD4000 karikkal teljesen működő AA-t lehet előállítani gyakorlatilag minden Deferred Rendering motorra 3-5%-os teljesítményveszteség mellett.
Én úgy gondolom, hogy a felhasználó érdeke, hogy ne kelljen a látványjavítókhoz kompromisszumokat kötni. Pl. ha bekapcsolom a Crysis Warhead-ban az AA-t, akkor a motor ne kapcsolja le az Edge Detect-et, vagy ha bekapcsolom az AF-et, akkor ne kelljen kikapcsolnom a POM-ot. Ezekre a problémákra van a DX10.1, amit az NVIDIA valamiért nem kíván elhozni nekünk ... Nyilván a G80 architektúra nem hatékony a további versenyre, a DX10.1 beépítése további 200 millió tranzisztor, ami az így is nagy méretet tekintve baromi nagy probléma.
Igazából nem igazán értem az NV mit akar ... folyamatosan nyilatkozza, hogy nemsokára bevetésre kész az 55nm-es G200 ... jó, és ha kész lesz akkor mi lesz? Továbbra is baromi nagy a chip, és továbbra is baromi drága lesz előállítani. A 40nm-es fejlesztet verzió meg 2009 Q2-re lesz itt ... kb. ekkorra érkezik az RV870 40nm-en. Most mindenki azt nézi, hogy 40nm lesz itt is ott is, így eltűnik a gyártási költség hátránya. Kérem szépen ... dehogy tűnik el. Az RV870 közel azonos teljesítményt sokkal alacsonyabb tranzisztorszámmal hozza ki, egyszerűen hatékonyabban fejleszthető az R600 architektúra. Ezzel továbbra is jóval olcsóbban tud, majd az AMD chipet gyártani. Az első támadási lehetőség a G300 lesz ... ott dől el minden. Ha új architektúra lesz akkor van esély javítani, ha a G200 átszabása, akkor ennyi volt a zöldeknek a VGA piacon ... a Larrabee előlép első számú konkurensé.
-
Abu85
HÁZIGAZDA
-
bennem azért vannak kételyek, hogy a "hibátlanul" működő AA mennyire fontos. nézd meg a tesztben is szereplő GRID-et, halál jól néz ki, és a 4xAA-t szinte meg sem érzi - és DX9-es. kicsit túl van lihegve ez az AA dolog, végső soron az élsimítás is egy a sok postprocessing effekt közül, ha értelmes kompromisszumokkal csinálja valaki, akkor jól fog kinézni, és nem kell hozzá atomerőmű sem.
-
Abu85
HÁZIGAZDA
Először olyan játékok kellenének ahol tényleg hibátlanul működik az AA. A tesztben a Crysis Warhead-ben például csak Edge detect Shader nélkül lehet AA-t számolni, tehát mondhatjuk, hogy a játék nem támogatja az élsimítást. A Far Cry 2-ben csak a DX10.1-es módban fut az összes fázis. A Geforce kártyák egy fázissal kevesebbet dolgoznak, ráadásul nem tudnak a textúrákból mélységinfót mintavételezni, tehát az AA mellett jobb a DX10.1-es Radeonok képminősége.

-
Abu85
HÁZIGAZDA
Nem látod a problémát ... a 8800GT nem támogat Multisample Access-t, így Deferred Rendering mellett nem tud AA-t számolni. Lehet akármilyen gyors AA mellett mélységinformációk nélkül null shadert fog futtatni. Ezért rakták bele a Far Cry 2-be és a STALKER Clear Sky-ba a DX10.1 támogatást ... a jövőre megjelenő játékok többségében nem lehet AA-t számoltatni DX10.1 támogatás nélkül.
-
Gyuri27
félisten
Nem mondta senki, hogy nem gyorsabb! A probláma ott volt, hogy ati kártyák új árát nézzük a jelentös drágulás után, mig a gt-t használtan nézzük alig vagy 0 garival.
Ha az új árakat nézzük 3850 512 vs 8800gt esetében akkor árban is megvan a 30% difi. Ennyit akartam mondani. Ezért nem volt jó a konkluzió 25-t használt vga-t vagy 25-t vatta ujjat még ha kicsit lassabb is (mondjuk egy 3870 gddr4 annyival azért nem lassabb).rumkola: válaszoltam.
tzsolesz:

diegho: állásról kérdesztelek ha jól emlékszem. Nem értem hogy jön ide? Az, hogy egy privát beszélgetés egyáltalán hogy jön ide pláne nem értem. Ezt fölhozni és úgy beállitani mint ha szakmairól beszéltünk volna és én akkor sík hülyének bizonyultam enyhén szólva is gusztustalan. Tehát lehet, hogy én szerinted okoskodom (bár nem hiszem), de gusztustalan nem voltam mint te.
További szép napot. -
diegho
nagyúr
új képek feltéve, kártyák adatai szintén, grid képek javítva, minden konklúzió törölve.
-
diegho
nagyúr
Mivel folyamatosan okoskodsz simán töröltethetem a hozzászólásaid innen, mert semmi témához fűződőt nem mondasz. Nem tudom hányszor használtál a tesztelt kártyák közül akár egyet is a saját gépedben, de ahogy priviben kérdezgettél a nyáron, kétlem, hogy bármelyiket is. Majd, ha a saját tapasztalataid tudod megosztani és nem csak linkelgetsz teszteket, akkor beszélhetünk róla. Pont az ilyen okoskodók miatt húzódott el ez a teszt eddig, pedig már szeptember közepén megcsinálhattam volna, de reménykedtem, hogy talán némi intelligencia szorul belétek ennyi idő alatt, de tévedtem... ha proci tesztet csináltam volna, akkor meg oda jönnél magyarázni, hogy hú, az intel nagyon nem éri meg stb.
-
Gyuri27
félisten
Lol. Ez egy fórum. Kirakatsz? Szintén lol (miért?).
"ráadásul 1680*1050-ben is használható" [link] nem úgy nézki, hogy a gt 1600x1200-s felbontáson oly nagyon elhúz. De igazad van. Érdemes 25k-ért használtan venni egy vga-t ami ugyanott kevés mint a 16k-s új 3850.
Vagy fless nem tud tesztelni. -
diegho
nagyúr
Azért egy kis agytréningre elmehetnél, mert látom nagyon nehéz a felfogásod. Miért nézzem az új árát? A legtöbb ember 20-25k között akar használható VGA-t vásárolni nálam. Hiába vesz meg használtan 16k-ért egy 3850-et, ha az alkalmatlan az AA-ra, viszont 25k-ból már kap használt 8800gt-t ami alkalmas rá, ráadásul 1680*1050-ben is használható. Ugyebár azt írtam, hogy akinek AA kell az inkább vegye a használt 8800gt-t. Nem tudom mi nem érthető ezen, de ha nem tetszik csinálj magadnak tesztet ott okoskodhatsz, innen meg kirakatlak, ha nem fejezed be.
-
diegho
nagyúr
mivel ezek a kártyát erre készültek, ezért ezen a felbontáson teszteltem, aki magasabb felbontást akar úgyse vesz ilyen kártyát, ha mégis, akkor majd rájön, hogy hülyeséget csinált. A 8800gt már jó 1680*1050-hez is, de az ati-k elvéreznek teljesen. Ráadásul crt-t használok, mert még mindig nem létezik olyan LCD amit használni tudnék és 100k alatt van.
-
FeRRaR1
őstag
Jó teszt, de magasabb felbontásban is tesztelhetted volna

-
Taranti
senior tag
Jó a teszt, és az látszik, hogy jelenleg a hd3870 éri meg legjobban
, csak most irreálisan drága. (Talán próbálkozni kellett volna 3850==>3870 tuninggal, de sztem így is látszik.)Amúgy én is új mellett tenném le a voksomat, persze [link] ki lehet fogni jót is viszonylag olcsón.
-
Kobaljov
senior tag
Nemrég a Tom's Hardware-en próbálták ki a régebbi procikat újabb kártyákkal, érdemes lehet elolvasni (volt egy korábbi része is, csak egymagos procival) + a havi videokártya/ár áttekintéseikben szokott szerepelni AGP-s kategória is ill. a legvégén egy összehasonlítható és kereshető táblázat a videokártyákra sok generációra visszamenőleg
A 4670-esre én is fenem már a fogam, de még várok kicsit, hogy kijönnek-e végre belőle gyárilag (garancia) passzív hűtős változatok (pl. amilyen a Sapphire 3850 Ultimate volt), mert csak alkalmanként menne rajta régebbi, 1280x1024-es játék, a legtöbbször csak sima netezős használat meg videók, és közben nem szívesen hallgatnék egy kis ventit. Az eddig kijöttekből talán az Asus hűtése a legkomolyabb (Artic Cooling?), ha nem lesz passzív 1-2 hónapon belül, akkor az marad (bár a newegg-en arról is voltak negatív vásárlói tapasztalatok).
+ itt is tesztelték nemrég a 4670 pár változatát, épp ma akadtam rá
-
-
Gyuri27
félisten
Nos a konkluzió szerintem sántit. Az, hogy az ati kártyák új árát nézzük az 8800-nak meg a használtat lol szvsz. [link] [link] itt ugye láthatjuk a 3850-4670 viszonyát. Árak: 3850, 3850 512, 4670, 3870. 8800gt 256 , 8800gt oc . Szóval szerintem így helyes és így megnézhető mennyi teljesitményt kapunk a pénzünkért.
Általad emlitett 8800gt pl használtan [link], de a 2 ill 3 év garit nem tudom a 8 hónaphoz hasonlitani sehogysem. Ezt meg csak úgy halkan jegyzem meg mint egy árban az új 8800gt-vel [link]. Persze annak amelyik nem a 4850-l van egy árban.
-
Kris87
aktív tag
Jó kis teszt, bár (nekem) a tuning hiányzik belőle, szívesen megnéztem volna úgyis a grafikonokat.
-
pengegyerek
aktív tag
Hali nagyon jó ez a teszt. Azért jó lenne ha valaki egy régebbi gyengébb VGA- val is tesztelne pl: Nvidia 8800 GTS 320 vs. HD 4670 vagy ennél gyengébb mert jó lenne tudni így tesztekből is, hogy mennyit fejlődtek a videókarik egy 8800 GTS- hez képest DX 10- ben is.
-
-bh-
aktív tag
végre vki letesztelte/leírta.. grat! jó ki teszt lett
(bár még UT3 engine-t és 1-2 nem nV-s gámát is tesztelhettél volna...de így is látni, h mekkora is a "differencia") -
diegho
nagyúr
No, a 8800GT-t azért írtam, mert jelenleg ez az a kártya ami használtan hasonló árban van, mint a két tesztalany újonnan, viszont annyival gyorsabb, hogy AA mellett is el lehet vele játszani a mai játékokkal is, akinek pedig AA kell nem igazán tud olcsóbban, vagy akár ezen az áron jobb kártyát venni.
-
Sweet Lou 6
addikt
Pedig nyár elején még gondolkodtam hogy a 256-ost vagy az 512-est vegyem 3850esből
Úgy látom jobb, hogy az utóbbi mellett döntöttem
Ja és köszönjük a tesztet, jó lett
-
Pala
veterán
"Meg hogy mennyi garancia van még rájuk, honnan származnak, stb... Meg hát hányszor volt már újrapasztázva, hűtőcserélve, moddolva stb...."
Na én pont ezek miatt nem veszek soha használt vga-t. Eddig is csak egyetlen egyszer történt ilyen (amit egyébként nem bántam meg, semmi gond nem volt vele), de jobb a tudat, hogy a boltból frissen hazahozott kártyának én vagyok az első tulajdonosa (remélhetőleg
). Nekem ez megér pár plusz ezrest, nem tudom ki hogy van vele. -
tzsolesz
nagyúr
válasz
Dr. Romano
#18
üzenetére
Lehet, de kíváncsi vagyok hogy milyen mennyiségű 25K-ós használt 8800GT van a piacon most. Kielégíti a jelenlegi VGA-t vásárló közösséget??
Meg hogy mennyi garancia van még rájuk, honnan származnak, stb... Meg hát hányszor volt már újrapasztázva, hűtőcserélve, moddolva stb....
Ez mind fontos tényező amikor az ember VGA-t vásárol. Én szeretem a kis 4670-esem, ráadásul DX10-ben nekem jobban megy mint a fenti tesztben az FC2. Tökéletesen játszható 1280x1024-ben High-on minden, és 2xAA-val.

-
Abu85
HÁZIGAZDA
A Crysis Warhead-on kívül egyik tesztelt játék sem használ Streaming textúrázást. Még szép, hogy jobb az 512MB-os változat ezekben az esetekben.
A mi cikkünkben a S.T.A.L.K.E.R. és a GRID tesztekben világos, hogy a 256 MB miatt nem szerepelt jól a HD3850 ... ezt mi sem tagadtuk, de a többi teszt eredményét tekintve nincs eltérés a memóriamennyiség közt.
A HD3850 és a HD4670 viszonya érdekes. A HD4670 jobb branching hatékonysággal rendelkezik, a HD 3850 viszont kétszer annyi fragmentet interpolál órajelenként. Az az igazság, hogy mindkét dolog fontos ... nem igazán lehet eldönteni, hogy melyik fícsőr éri meg jobban, viszont az Unreal Engine 3 nagyon épít az interpolálási teljesítményre, így a sok UE3-as (jövőben megjelenő) gamát nézve talán érdemes a HD3850 mellett maradni, amíg el nem fogynak a készletek.DX10 karival már lényegtelen az AA, csak a Multisample Access-sel lehet Z és Color infót mintavételezni ... Ehhez pedig DX10.1 támogatás kell. A S.T.A.L.K.E.R. Clear Sky és a Far Cry 2 fejlesztői is azért adták be a derekukat, mert egyszerűen nem lehetséges teljes funkcionalitású AA DX10 alatt. Most már lehet tudni, hogy aki Deferred Renderinget használ a programjában az DX10.1-re fog átállni.
-
luw2win
őstag
Nem Call of Duty 5 World at War hanem csak simán Call of Duty: World at War
Bár ez már csak szőrszálhasogatás
-
Pala
veterán
Amúgy jó a teszt.
Talán érdemes lett volna megnézni még a kártyákat Stalkerrel és valamilyen Unreal Engine 3-mat használó játékkal. Előbbiben a 4670, utóbbiban a 3850 jelentősen jobban teljesít vetélytársánál. -
tzsolesz
nagyúr
Nagyon jó lett, köszi szépen.
Én már láttam használtan 13K-ért 3850-est.
Érdekes hogy azt megemlíted, hogy a 8800GT mennyi használtan, viszont azt nem hogy a 3850 mennyi.
Mindjárt más a kép sztem, de ez csak mellékes. 
Jah, és úgy látom, hogy a GRID-nél sajnos nem ment az AA a 8800GT-én, legalább is a 8xAA az nem ment neki. Na meg ezek után ki tudja hol nem ment még neki....

-
diegho
nagyúr
hú köszi, lett volna cod4 is, de technikai problémák adódtak.
A GRID-ről annyit, hogy tényleg ennyit számít csak a 4x és 8x ati kártyáknál, nem tudom mitől van ez.
A kártyákról a táblázat majd holnap belekerül, meg kép is a dobozokról, de most kész vagyok, nincs energiám megírni a táblázatot.
-
Gordiann
őstag
És akkor 500-an lehurrogtak, amikor kifogásolni mertük az előző tesztnél használt 256-os 3850-et........heh

A jó kis érvelés, hogy a 256-os van elterjedve....meg hogy nem is számít igazán sehol...
-
PH-User
addikt
Üdv! Köszi a tesztet, de szerintem elírtad: "Call of Duty 4 World at War", szerintem ez Call of Duty 5 World at War.

-
#41133696
törölt tag
Illetve érdekes lehetne, a HD 3850-es 1GB-os verziója valamint a HD 3850 X2 is illetve, hogy milyen a HD 3850 AGP-n ?
Remélem, egyszer valaki ezeket is teszteli majd ;)
-
rumkola
nagyúr
Az utcsó 2 grafikon picit fura, ezen kívül korrekt és egyértelmű a teszt. Respect!
-
#41133696
törölt tag
Helló!
Jó az írás, de érdekelne, hogy Company of Heroes beépített benchmarkjával mi a különbség a 256MB-os és a 512MB-os HD 3850-es között pl?
Itthon a családi gépben nekünk is HD 3850-es van (256-os), de nem tudom pl 939-es 4200+-os X2-es procihoz érdemes, e HD3870-est venni?
Amúgy egy tesztet majd igyekszem eszközölni, mert a régebbi írásomban nem volt mérés.
-
diegho
nagyúr
No lassan de biztosan csak befejezem az irományt. Majd még javítom a hibákat.
Új hozzászólás Aktív témák
- Telefon felvásárlás!! iPhone 16/iPhone 16 Plus/iPhone 16 Pro/iPhone 16 Pro Max
- Windows, Office licencek kedvező áron, egyenesen a Microsoft-tól - Automata kézbesítés utalással is!
- Magyarország piacvezető szoftver webáruháza
- A Legújabb! Dobozos Új DELL XPS 13 9340/ULTRA 7-155H/32 GB Ram/1TB SSD/AI BOOST+INTEL ARC
- GYÖNYÖRŰ iPhone 13 Mini 256GB Midnight -1 ÉV GARANCIA - Kártyafüggetlen, MS4647, 100% Akkumulátor
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest




Emellett lesz benne egy halom új fícsőr, amit a felhasználók 90%-a nem fog 


).




