Új hozzászólás Aktív témák
-
halhatatlan
aktív tag
üdv.
-kérdésem az lenne ,hogy a 3 gigás verzió az mennyivel jobb mint a 2 gigás verzió?
illetve nálla is van az a bizonyos memoria kihasználási gond, vagy kihasználja mind a 3 gigát?
köszi előre is! -
snake888
tag
Üdv! Szeretnék egy GTX 660 -at venni. A kérdés az lenne, hogy MSI vagy ASUS? Illetve, hogy melyik boltot ajánljátok, ahol a garanciát komolyan veszik? Nem szeretném ha hónapokig húzódna ha valami baj van vele. Köszi a választ.
-
J.varga7
tag
Kedves fórumtársak, a segítségeteket kérem.
Fél éve vettem egy Gigabyte GTX660 TI videokártyát, egész pontosan ezt:. GV-N66TOC-2GD
A kártya minden eddig kipróbált új vagy régi driverrel 15-20 perc játék után (van, hogy előbb) fekete képernyő után kidob az asztalra, párszor még a driver üzenetet is dob, hogy összeomlott.
Ugyanez a konfig másik videokártyával ezt nem csinálta.Azt olvastam, hogy a GTX660Ti-k nem bírják a tuningot, márpedig ez a kártya gyárilag a köv. frekiken jár:
BASE: 1033 BOOST: 1111 Mhz és a RAM-ok effektive 6008 MHz-en.
A kérdésem az lenne, hogy más tapasztalt e ilyesmit és megoldaná-e a helyzetet az NVIDIA által ajánlott alap órajelek visszaállítása, illetve, hogy hogyan lehet ezt a legegyszerűbben megtenni?
Elvileg a Gigabyte-nak is van saját szoftvere erre a célra de ott a Voltage értékeket is utána kell/lehet állítani és nem igazán vagyok jártas a témában, nem tudom hogy kell-e feszültséget állítani.Kérlek segítsetek ha tudtok, mert így még becsülettel eladni sem tudom kártyát, nem, hogy használni.
Előre is köszönöm a segítséget.
Varga Jenő -
JoolsNOS
veterán
Sziasztok! Melyik 660ti-t érdemes venni? Van amelyiket kerülni kell? Hang is számít. Ne legyen túl hangos főleg idle. köszi
-
zezoka
őstag
Sziasztok!
Gainward GeForce GTX 660Ti kártyám van.
Van egy problémám: DVI-D portra a monitorom van kötve, ez az elsődleges. A HDMI portra az Onkyo TX-SR308 HDMI bemenetes hifim van kötve (ennek a kapcsolt HDMI kimenetére van kötve egy full hd tv). A DVI-I kábelre megy egy VGA átalakítóval egy Benq MW712 projektor.
Namármost az a problémám, hogy ha a VGA (tehát a projektor) rá van dugva, akkor bootoláskor nincs kép a monitoron (a hifin keresztül tv-n sem), csak mikor belép a Windowsba (Win7 64bit). Ha lehúzom a VGA-t akkor van kép bootoláskor. Szerencsére nem kell rendszerválasztóznom, biosba sem lépkedek be, de azért néha jól jön, pl csökkentett mód, telepítés. Csak az a megoldás, hogy lehúzom, ha kell a kép?
Akkor is ez van, ha a monitor az elsődleges, sőt még akkor is, ha a proji konkrétan le is van tiltva (de nincs lehúzva).
Tud valaki segíteni?
-
-
Formaster
addikt
én ezt néztem evga, gyàri tunningos, nem ref hütös és csupàn 50 chf a difi. SLI-ben nem gondolkodok egyenlöre. Inkàbb megveszem 415-ért, mint a 660-at 360-ért
-
TTomax
félisten
válasz
Formaster #522 üzenetére
Nincs az 30% még lehet 20% se nagyon...itt is az eVGA a legolcsóbb (UK)... viszont amit irsz az igaz, a ref 670-es nem sokkal drágább... csakhogy a ref 670 hütése viszonylag hangos... ad egy morgó hangot,amit én speciel nem birok... ha már nem ref 670est nézel az meg már kicsit drágább... akkor meg nem sokkal drágábban ismét csak kapsz ref680-at....
Jól ki van ez találva az biztos...
-
Formaster
addikt
Ez azt jelentené, hogy az evga nem 3 hanem 6 memoria vezérlöt pakol a kàrtyàjàra? Mert ha 3 lenne akkor drasztikusan csökkenne a sàvszél nem?
Azthiszem a szél lebegteti a szàmat
, nem a memoria vezérlö szàma, hanem az oszthatosàga itt a lényeg ha jol értem. Tehàt vagy màsfél vagy 3 gb-ot tud helyesen lekezelni egységesen.
De akkor miért csak az evga-nàl talàltam eddig 3 gb-os modellt? Valamint ebböl sem làtok otthoni polcokon, bàr nem is otthon venném.
-
TTomax
félisten
válasz
Formaster #517 üzenetére
Nem rosszul értesz...
mind a 3Gb elérhetö teljes sávszéllel... és ez a nem mindegy... igaz 3Gb nem fog kelleni erre a kártyára sosem ha nem megy SLI-ben több monitoron vagy nagy részletességgel... viszont a jövöben lesznek majd gondok mert a 1.5Gb már nem elég... már most nem elég,és a memóriavezrlö sebességéböl adódóan vagy 1.5,vagy 3Gb-t tudnak rárakni.. ez a 2Gb-os megoldás egy parasztvakitás,de jól mutat a dobozon... csak arról mélyen hallgatnak hogy másfél Gb VRAM használat felett keményen le fog térdelni a kártya...
-
Formaster
addikt
Létezik a EVGA-nak 660 ti kàrtyàja 3gb-os kiszerelésben. Azonban nem értem a cikk alapjàn, hogy mi értelme, hiszen elvileg gyàrilag a 2gb sem kihasznàlhato, csupàn 1500mb. Van értelme ilyet venni, vagy ez is csak 1,5-öt tud majd a 3-bol?
-
XharX
aktív tag
válasz
dangerzone #513 üzenetére
A tesztelt játékok miatt. PH!-n nem régen volt a tesztben játékok frissítése, és az újabb DX11-es címek egy része erősen támaszkodik a kártyák compute képességeire. Itt a kepler szépen elmarad a gcn mögött.
-
dangerzone
addikt
Srácok, az hogy lehet, hogy a techpowerup-os teszben a kártya a 7950 szintjén teljesít, itt meg 20%-kal kikap tőle? Élsimítás nélkül mérnek ott mindig, vagy mi ez a nagy különbség?Az ember nem tudja most, kinek higgyen.
-
Löncsi
őstag
Nade pont ezaz, ez miért jó az nV-nek.. ? Ez úgy lenne jó ha a 3DVision minden monitort támogatna és sztem el is lehetne várni... pl én is agyalok ilyesmin, mert van Win7-es + Geforce kombó gépem, és milyen jó lenne egy random, nekem tetsző 3D-s monitort venni és kész... de így, hogy csak bizonyos monitorokkal jó (amiket sztem már kapni se lehet), semmi értelme.
-
Abu85
HÁZIGAZDA
válasz
BullKoxa #509 üzenetére
Nem kell venni keretprogramot, ha az adott játék natív 3D-s. Manapság egyre több az ilyen.
A TriDef pedig ennél a monitornál mindenképpen kelleni fog akkor, ha nem natív 3D-s a program. És nem csak a Radeonra, hanem a GeForce-ra is, vagy esetleg Intelre. Ez a monitor nem működik 3D Visionnel, így az NVIDIA nem támogatja a 3D Vision keretprogrammal.(#510) Löncsi: Mert az NV-nek a 3D Vision matrica után fizet a monitorgyártó. Minden eladott monitorból részesülnek. A Samsung és az LG ezért mutatott be nekik. A Samsung mondta, hogy ha ingyenes lenne, akkor támogatnák, de pénzt többet nem adnak az NV-nek. Ez akkor került elő, amikor a Samsung kihozta az SA950 monitorokat. Ezek baromira jó minőségű sztereó 3D-t kínáltak, de amikor az emberek megvették, akkor borult a bili, hogy nem működik vele a 3D Vision szemcsi és az NV sem támogatja.
-
Abu85
HÁZIGAZDA
válasz
BullKoxa #506 üzenetére
Mivel kapsz hozzá szemüveget, így mindegy, hogy Radeon vagy GeForce. Ez az ASUS monitor gyártófüggetlen megoldás. De a 3D Visiont nem támogatja. Gondolom ők is térnek át az open megoldásokra és hagyják a zártakat.
Azt viszont nem látom, hogy az ASUS ad-e hozzá keretprogramot, szóval a natív 3D-s játékok és programok fognak menni, és kell egy TriDef a többihez. -
BullKoxa
őstag
Ha már a 3D-s moncsiknál tartatok! Lenne egy kérdésem a moncsi toplikja hallott. ASUS VG23AH ezen melyik kártya játékai fognak 3D-ben menni.NV vagy AMD? Köszönöm előre is a választ. A milyen monitort vegyek topikban semmit sem írnak erről az Asusról.
-
Abu85
HÁZIGAZDA
Hányszor mondjam el, hogy nem kell. A LG ad és a Samsung is a legtöbb terméket csomagként jellemzi (kivéve a régi 3D Visionost), vagyis ők is adnak! Benne van a monitor árában. De a legtöbb monitorgyártó ezzel manapság már így van, mert ha független 3D-t csinálnak, akkor a user nem tudja, hogy mit kell vennie még, tehát érdemes felrakni a keretprogramot a CD-re, mert az leegyszerűsíti a felhasználó életét. Régen volt olyan, hogy semmit sem adtak, és neked kellett bevásárolnod. Ma már csomagok vannak. Megveszed, hazaviszed és minden szükséges dolog benne van, ami kell a sztereó 3D-hez. Ez a gyártóknak is könnyebb, mert nem azzal terhelődik az ügyfélszolgálat, hogy most megvettem és nem látok semmit.
A 3D Vision esetében van úgy, hogy a monitorhoz esetleg még venni kell egy szemüveget is, de manapság már ott is terjed a csomag, mert ez egyszerűbb mindenkinek. -
Abu85
HÁZIGAZDA
Már hogy a fenébe ne kellene venned. Az NV ingyen adja a szemüveget? Nem. A 240 fontos szemüveg pedig túlzás. 100 font alatt is vannak aktív megoldások, és a Samsung elég nagy név, szóval a monitoraikkal biztos kompatibilis. És a 120 Hz is megvan. De amúgy az sem kizárt, hogy a Samsung ad kettőt a monitorjaihoz csomagban.
A 3D Vision megoldásnál csak olcsóbb konfigurációkat lehet venni. Ez abból ered, hogy az NV sarcát nem kell fizetni, ha nem kompatibilis a 3D Visionnel. -
TTomax
félisten
Azt mindig elfelejtik említeni az aktív megoldás mellett hogy 120hz-en üzemel(het)... bizony az nagyon nem mindegy 2Dben.
Igazából megmondom én mit akartam... 2D-ben egy 120Hz-es monitort amikor játszok,és néha ha úgy adódik akkor akkor a feleségemmel egy-két 3ds filmet megnézni,na ez utóbbi nem jött össze,mert nem adok 240fontot két szemüvegért,ez van,ugy hogy még vegyek 80 vagy 90 dollárért szoftvert is hozzá... ez az amit nem kéne megvennem ha annak idején amikor gtx670ért indulok nem lett volna akciós a 7970... -
Abu85
HÁZIGAZDA
A Samsung aktívot, míg az LG passzívot ad támogatással. Pont azért választotta így az AMD őket partnernek, mert ők kétféleképpen látják a jövőt, vagyis az igények szempontjából lefedik a piacot. Az LG azért megy a passzív felé, mert a felméréseik szerint sokan nem akarnak fejfájást az aktív villogásától, így inkább a passzívot választják. Igazából mindkettőnek megvannak a pozitív és negatív oldalai is, de a passzívnak az tényleg nagy előnye, hogy attól nem lesz fejfájásuk az embereknek. A hányinger persze előfordulhat, hiszen az nem az alkalmazott technikától függ, a szemfáradás pedig az szemizmok túlzott mederöltetése, ami a képalkotásból ered.
-
TTomax
félisten
De nekem nem kell LG/Samsung passzív szemüveg,ingyen sem...
Nekem aktív kell támogatással...ráadásul a monitor adott,abból nem engedek,nem fogok venni egy monitort ami 2d-ben nagy vacak amikor a felhasználási idő 905%-ban ott üzemelne..Csak 120Hzes monitor jöhet szóba.
Most a monitor adott... benq XL2420T,itt virít rajta a vision ready matrica,de mivel ez nem az XT igy szemüveget nem kaptam hozzá... milyen aktív szemüveget vehetnék hozzá,amihez driver támogatást is kapok egy 7970-el? -
Abu85
HÁZIGAZDA
Nem érted hogy működik. Az AMD az elsődlegesen LG-t és a Samsungot támogatja a sztereó 3D-ben. Ha veszel tőlük valamilyen monitort, akkor abban lesz egy-két szemüveg (az LG többet csomagol jellemzően) és keretprogram is (az LG biztos adja, mert írják, de szerintem a Samsung is, mert csomagként jellemzik). Az NV-nél 3D Vision Ready monitor kell (ők az Acerrel és az ASUS-szal partnerkednek) és hozzá megveszed az extra szemüveget, vagy esetleg ha van csomagban ilyen és akkor kifizeted a monitor mellett a szemüveget. Az AMD-nél az LG/Samsung jóval olcsóbban jön ki egyébként. Persze az NV-hez is veheted az LG/Samsung megoldását, és akkor ugyanolyan olcsón kijön, csak nem fog működni a 3D Vision.
Ugyanígy a játékoknál. Ha a fejlesztő nem fizet az NV-nek a 3D Visionért, akkor nem kapják meg a certifikációt. Ez régen gond volt, mert jöttek azok a játékok, amibe az AMD natív támogatást épített. A Deus Ex: HR volt a fordulópont, mert aki vett egy 3D Vision kitet egyszerűen nem tudott a játékon játszani sztereó 3D-ben, mert a fejlesztők nem fizették ki a 3D Vision licencet az NV-nek. Azóta a driver engedi azokat a játékokat is, ahol a fejlesztők nem fizettek, de egyik sem certifikált. A Win 8 ezeket a gondokat oldja meg. Az az SDK minden hardvert és szoftverkörnyezetet támogat, így nem kell választani, hogy az AMD ingyenes, vagy az NV fizetősét válasszák a fejlesztők. Lesz egy egységes ingyenes. Ugyanígy a monitorgyártóknak is egyszerűbb lesz, mert az MS a natív támogatás híve. Egyszerűen nem kell fizetni semmit az MS-nek a támogatásért. Szépen mindenki át fog állni erre, nem csak az LG és a Samsung.
Az NV ezt a zárt 3D Vision dolgot már ott elbukta, hogy az LG-t és a Samsungot elvitte az AMD saját partnernek a gyártófüggetlen sztereó 3D felé. Ők a monitorpiac urai az Acer és az ASUS csak másodhegedűsök. Szóval ez az egész az LG és a Samsung kihátrálásával már csak pénznyelő. -
TTomax
félisten
Tökmindegy,de ha AMD-vel akarsz 3Dben játszani akkor meg kell venned a szemüveget kifizetve az nv féle sarcot,aztán vehetsz még 50-80 dolcsiért keretprogramot,azt amit az nv driverböl tud...Tehát gyakorlatilag kétszer fizetsz,és a végeredmény is lehangoló,mert kb csak a nagyon fanatikusok költenek ennyit,ezért a keretprogram készítői közelébe sincsenek annak a támogatásnak amit az nv kínál.Gyakorlatilag ez odavezetett,hogy minden értelmes ember akinek igénye volt a 3Dre már nvre állt... Nem fogják kukázni az egész cuccot ha jön a win8,mert drága volt,és bizony az nv meg továbbra is nyújtani fog ilyen-olyan haszontalan szolgáltatásokat amivel árulhatja a cuccait.
Egyébként mivel a célvásárlói réteg elég vékony így én itt nem is várok árversenyt,még akkor sem ha az MS nativ támogatást akar kínálni a win8al .. azzal a win8al ami szerintem bukni fog a 3d se menti meg...
Az Nv lezárja a 3Dt?Persze,hiszen egy rakat pénzt öltek bele,én is ezt tenném,gyanítom még így se nagyon termel nyereséget.
A gond ott van,hogy az AMD nem kínál semmit,az nv megint belelógatja kezét előre ezzel kiépítve előre a vásárlói réteget.
Így volt a fizikszel is ami már kilyukadni látszik.Előbb- utóbb az 3D vision is ide fog jutni nem kérdéses,a kérdés csupán annyi,hogy mennyi borsot törnek addig a felhasználok orra alá,akik megunva nem fognak erre költeni.
Az egésszel az a baj,hogy egy olyan spirálra került amiből nagyon nehéz kitörni... -
Abu85
HÁZIGAZDA
Pontosan ugyanúgy meg kell vásárolni a 3D-t az NV-nél ahogy az AMD-nél is. Az NV-nél a driverbe épített keretprogramot a szemüveg megvásárlásával fizeted ki. Az AMD-nél használhatod azt a szemüveget, amit a monitorhoz adnak, de vásárolnod kell keretprogramot. Illetve az LG és Samsung monitorok ma már nem támogatják az NV 3D Visiont, így tulajdonképpen NV-n is csak keretprogrammal vagy képes használni a kijelzőt. Persze ilyenkor használható a kijelzőhöz adott szemüveg, ahogy az AMD-nél.
Az NV a 3D Visiont annyira lezárta, hogy a két legnagyobb monitorgyártó nem fizeti a licenceket az NV-nek, így támogatást sem kapnak. Úgyis jön az MS saját SDK-ja, ami szabványos lesz, arra készül már mindenki. Az a programokba natív 3D-t rak, vagyis a nem kell keretprogram, csak egy sztereó 3D-s monitor és a hozzá csomagolt szemüveg. -
TTomax
félisten
Az lehet hogy az AMD a fejlesztőknek ingyen adja,de az usereknek nem ad semmit,tehát egy 3rd cégtől kell szoftvert venni...
Egyébként tökmindegy kitől kérnek pénzt és kitol nem a végén úgy is a végfelhasználó fizeti ki cehet mindkét cégnél,azért 3Dben van mit behozni az NVhez képest... -
Abu85
HÁZIGAZDA
Nem. A 3D Visiont nem is jelzik. [link] - A fejlesztők beépített keretprogramon támogatják a sztereó 3D-t. Az AMD QuadBuffer SDK-jával csinálták. Az NV a Deus Ex után meggondolta magát és még sem kér pénzt a fejlesztőktől a 3D Vision licencért. Ugyanis az AMD ingyen kínálja a támogatást. Ezért tudják már az AMD QuadBuffer SDK-jával készült játékokat is sztereó 3D-ben futtatni. De a 3D Vision Ready certifikáció még mindig pénzbe kerül a fejlesztőknek. Ezért nincs a geforce.com-on 3D Visionnek jelezve a játék. Nyilván később ez az egész értelmét veszti, mert jön a Win 8-ban az MS saját sztereó 3D SDK-ja, szóval ezek a megcsapoljuk a fejlesztőket akciók eltűnnek majd. Természetes, hogy a fejlesztő a mindenki által támogatott MS SDK-t használják majd.
-
Abu85
HÁZIGAZDA
Nem. Az Intel és az NV egy árva kódot nem tett hozzá. Egyszerűen csak vásároltak egy logót a weboldalra. Ezt maguk a fejlesztők mondták nekem. A játékon csak az AMD emberei dolgoztak, senki mástól nem kaptak segítséget, de amikor látták, hogy milyen jó lett, akkor részt akartak venni a reklámkampányban.
-
Abu85
HÁZIGAZDA
Az NVIDIA kérte, hogy rakjuk be. Mivel jó játék, és lényegében a DX11 patch elég sok kezdeti gondot orvosolt, illetve UE3-as játékunk más nem volt, így beraktuk.
A minimum fps-eket tudjuk. Igen van a benchmarknak egy ilyen gondja, de az a lényeg, hogy kétszer-háromszor futtasd le és jó lesz az érték. Ez egy ismert és fejlesztők által elismert gond. Túl hosszú ideig pedig a bench nem tart, így lefuttatjuk kétszer és a másodikat nézzük.A DX11 az gyakorlatilag a patch után kimerül a tesszellációban és a szebb árnyékokban. Utóbbi nem nagy terhelés. Előbbi az, de ez is DX11 fícsőr. Az NVIDIA a jövőben úgysem használja majd nagyon másra a DX11-et, mert komolyabb compute shaderben lassú a Kepler, és eközben a GCN meg rohadt gyors benne.
Használhatnánk persze más UE3-as játékot is a Batman: AC helyett, de az meg a Blacklight Retribution lenne. Azzal jóval nehezebb mérni, de megoldható, viszont az megint egy Gaming Evolved cím. Az tény, hogy az AMD kétszer annyi DX11-es játékot támogat, mint az NVIDIA, ami nyilván látszik a tesztben is, de minden motorból nem rakhatunk be Gaming Evolved játékot. Most 3 TWIMTBP, 5 GE és egy független játékot használunk. Ez nagyjából tükrözi, hogy milyen arányban vannak DX10/10.1/11-es TWIMTBP és GE játékot a piacon. Illetve az egy független a függetlenek miatt. A függetlenek arányát ez az egy nem tükrözi, de azért illik képviseltetni őket, hogy lássák nem csak partnerprogramban létezik DX11-es munka. Persze az Ubisoftnak bazinagy tőkével könnyű függetleníteni magát. A játékok is úgy vannak válogatva, hogy minden komolyabb motorból legyen egy képviseltetve. -
TTomax
félisten
Hát igen tisztán látszik,hogy csak egy-két ficsör,és nem is igazán passzol az enginehez,illetve a játékhoz.Gyakorlatilag játék közben csak a mikrolagokból tudhatjuk,hogy mennek a dx11 nyalánkságok...
Na most én nem tudom ez mennyire szerencsés hogy be van válogatva a tesztjátékok közé,mert dx9-ben szerintem egy GTX460 megeszi,a dx11 meg nem tudom mennyire releváns a jövőt tekintve,illetve hát mennyire tudja összekeverni a grafikont a "random" minimum fpsek miatt.Elnézést az off miatt,lehet nem itt kéne kitárgyalni,csak érzésem szerint nem nagyon alkalmas a teszt a DX11-es kártyák teljesitmény mérésére... persze lehet tévedek... -
Abu85
HÁZIGAZDA
A DX11-et két hónap alatt dobták össze az NVIDIA kérésére. Szerintem világos, hogy ennyi idő alatt nem lehet normális kódot alkotni. A patch le is lőtt pár funkciót, mint a többszálú parancsfeldolgozás, amitől meg is lódult a sebesség.
Az NV szerint is többször kell mérni, és a legmagasabb minimumú számít. Ez egy ilyen program lett. -
tombar
senior tag
most is még nagyjából ott vannak. 285ös középárfolyamon van az evga 660 ti :S szerintem lassan lesz ajánlott fogyasztói árcsökkentés aztán már csak a nagykerektől meg a kiskerektől függ a dolog. az a gond h még mindig a sztereotípiát fizetjük meg a 300as msrp-nél
(#485) Manbal: az államadósság erősen szubjektív megítélés alá esik. az a gond h a "hozzáértők" megint hülyítenek. viszont a saját tehetetlenségüket átnyálazzák az euroválságra. hihetetlen szemetek tudnak lenni h palástolni kell a saját válságukat. kíváncsi vagyok mikor harapnak rá a kínaiakra, ha meg tudjuk fékezni az eu-s krachot.
-
TTomax
félisten
Nem semmit nem állítottam...egyedül a power tune van +20%-on.
(#482) Oliverda
Pontosan ez az ami nálam is van!Csakhogy harmadik vagy negyedik mérésre is tud produkálni nagyon kevés minimum fpst,szerintem nem megbízható mert ahányszor mérem annyiféle minimum fpst kapok 7-39ig... valami bug lehet ott a dx11 ficsörök között,mert anélkül gyönyörűen fut,és gyanítom nem a hbao vagy a tesselláció, kb mindegy high vagy normál,nem nagyon hatja meg a radeont... viszont az az mvss nekem kicsit gyanús... -
-
TTomax
félisten
Fiuk megkérdezhetem hogyan sikerült ilyen jó eredményt elérni a Batman AC tesztben,nekem sajnos a min. fps-ek a közelében sincsenek a garfikonon láthatóval, 12.8cata cap3, Ghz bios... nem 35, de még csak 29 is ritkán van meg,de volt már 26,meg 16 is.. kb ahányszor futtatom annyiféle eredmény... 1.01-es patch persze fenn van...
-
whiteman0524
aktív tag
válasz
Bugfix1984 #473 üzenetére
Ennek is csak 2 év garija van. A Sapphire kártyákkal csak az a baj hogy "kevés" rájuk a gari. Ezért is olcsóbbak általában az Asus-nál vagy az MSI-nál. Ha valaki engem kérdez, plusz 5-8 rugót megér az a plusz 1 év garancia. Nem beszélve arról hogy éppen ezért 1-2 év múlva jobban el lehet majd passzolni, ha esetleg lecserélnéd.
-
válasz
csucsbicep #471 üzenetére
Rendben én,ha amd-t vennénk biztos sapphire lenne!
-
tombar
senior tag
az egy dolog, de én most a launch priceról beszélek. annak is lazán megvolt a 90-105k kereskedőtől függően. szerintem bő egy hónap múlva ez is lemegy 70-75 kiló közé. meg azt se felejtsük el h a nagyközönség nemcsak ph!-t meg tomsot olvas, hanem mást is. ugye ott azért szépen kijön h nem maxra tekerve a 950essel is versenyképes. mondjuk ennyi csúszás után ez továbbra is csak a minimális elvárható szint. ez a hülye flex dinka megoldás másfél giga vram useage fölött. mondjuk a tsmc is akarva-akaratlanul betett a szériának. én továbbra is a 870 és a 950 w/boost közé sorolom a 660 ti-t, csak sajnos árban nincs annyira jó helyen.
-
csucsbicep
nagyúr
válasz
Bugfix1984 #470 üzenetére
Akkor itt az egyik legjobb 7870: [link]
-
válasz
csucsbicep #469 üzenetére
Mi a márkásabbakra gondoltuk,bár ezzel sincs bajom csak a gari lehetne 3év.
-
Kicsit várjatok még a gtx 660TI ítéletekkel.Nemsokára színre lép a 650 és a 660 egy időben,már nem kell sokat várni,akkor újra lesznek pozicionálva az árak és várhatóan a gtx660ti bruttó végfelhasználói ára 80000ft lesz.
-
Manbal
senior tag
110 ezer egy ilyen kártyáért? Kicsit mintha elszálltak volna a világ minden táján / terén az árak, úgy látszik a "kiválasztottaknak" semmi sem elég...
-
gabrielarky
tag
Köszi mindenkinek.
3 évente veszek általában VGA-t, a szeretném nyugdíjazni az MSI 4890 1GB OC-t mert már csak az a régi a konfigomban. Szóval nem nagyon szeretnék hozzányúlni jó darabig ha most kiválasztok egyet
Miót a monitort lecseréltem 19"-ről 24"-re novemberben, azóta BF3 is ugrott, aztán hogy lepasszoltam az AMD 6000X2 konfigot és intel core i5 2500K -ra váltottam 4G helyett 8G-vel, valamit javult a játék, de még igy is medium alja a beállítások, szóval most már csak az Ati 4890 OC-t kell cserélni. No nem mintha BF3 a mániám lenne, csak az rendesen megterheli a konfigot. Amúgy Diablo3 és Starcraft 2 -t tolok, utóbbi 4v4ben az intel procival is megtud dögleni ha 800 egység harcol egyszerre
-
Csabroncka
addikt
válasz
gabrielarky #460 üzenetére
Jó kérdés melyikkel járnál jobban. A driver támogatást én nem nevezném döntő érvnek, mindegyik gyártónál vannak hibák, ugyanakkor zömében megfelelő a támogatás.
A tuningról ismét megvan a véleményem, elsősorban játékmotor függő nagyon mivel akad össze!
Alapvetően kijelenthető, hogy jelen esetben egyik sem rossz választás.
-
mghltm
addikt
válasz
gabrielarky #460 üzenetére
7950 oc tulajkent egyertelmu a valaszom
-
gabrielarky
tag
Kiváncsi lennék, ki mit mond, én az új tuningolt Gigabyte 7950 Windforce-os karit néztem ki magamnak és akkor jön ez az Nvidia 660Ti
Most nem is a Borderlands mint extra miatt (azt ne vegyük bele), de nekem úgy tűnik hosszabb távon (és a driver fejlődésével + némi tuninggal) jobban járok az AMD-vel mint a 660Ti-vel.
Vagy rosszul látom? Nektek mi a véleményetek?
Ja és a konfigom:
Dell U2410 Monitor, 1920x1200
Intel Core i5 2500k
8GB Corsair 1866 Mhz memóriaLeginkább Starcraft 2, Diablo 3 megy, ősszel jön ki az Isten játék az XCOM: Enemy Unknown, meg a Borderlands 2 -t is előrendeltem már. Mellette Photoshoppolok ezerrel meg majd szeretnék videós témákkal is foglalkozni.
-
SimonYana
addikt
válasz
BullKoxa #457 üzenetére
Eltévedtél?
Ez nem a 7950-es fórum!GTX660 Ti + 3570K Build - Battlefield 3 test ULTRA settings - SLI is OFF
-
leonel
aktív tag
Sziasztok,
Leírnám a meglátásomat - más véleményére kíváncsi vagyok - viszont vitázni nézőpontokról nem szeretnék! Ha már más leírta akkor bocsánat - csak átfutottam a topicot.
A mostani felső- közép kategóriát nézve: 7870, 7950, 660, 670 akkor szerintem elmondható, hogy egy normális processzorral fullHd-ig bármelyik vga maximálisan megfelel a ma kapható játékokhoz. (És így a gamerek kb 90%-nak)
Ha azt az irányvonalat nézem, amerre a játékfejlesztések folynak akkor a jelenlegi állás szerint a GCN időtállóbbnak tűnik mint a Kepler. Ha ehhez még hozzáveszem az árakat és egyéb apróságokat mint pl. a zero core akkor az én értékrendszerem szerint ebből a kategóriából most magasan a 7950 a nyerő...
Ősszel építek új konfigot - legalább a vga eldőlni látszik. -
SimonYana
addikt
Üdv mindenkinek!
Látom van fórumja a 660-nak gondoltam megosztom veletek , hogy nakos kolléga most fogja tesztelni külön is és SLI-ben is! -
tombar
senior tag
mindenképp xfx 7970
vagy 240ért 7950, de rendesen meghúzva.
nV vonalon érdemesebb msi-t, vagy asust is nézni (esetleg még gigabyteot is), mivel az evga prémium márka, tehát néha jobban megkérik az árát, mint egy-eegy túlárazott dcu-s hűtésű asusnak. annyit javaslok h várj pár hetet (persze ha most nem sürgős a vásárlás) mivel a 660 ti az árához képest nem villantott akkorát, illetve a teszt oldalak is folyamatosan állnak át a compute terhelésű játékokra, amiben a keplerek nem igazán jók. szvsz biztos vagyok benne h csökkentik majd az árakat. -
denetol
csendes tag
Megfontolandó amiket írtok,de valahogy itt az árak (Anglia) kicsit másképp alakulnak.Leírom,hogy mit mennyitől vehetnék mert így még a 7970 is esélyes .Szóval evga 660 ti 243 font,Gainward gtx 670 290,Amd Sapphire 7950 240 font 323 fonttól pedig xfx 7970.A lényeg h nem 1 évre vennék karit szóval ha megéri az a plusz 50-80 font akkor vennék valami combosabbat.Ilyen árak mellett szerintetek melyiket kellene?Megéri-e a plusz zsetont a drágább kari.Amit találtam ma,bár nem tudom mennyire lehet ennek hinni az az,hogy tuning nélkül nvidia,amúgy amd.Másik,hogy játékra nvidia minden másra amd.Segítségeteket előre is köszönöm.
-
tombar
senior tag
ha nincs hozzá radiátorod, szivattyúd, pumpád stb, akkor elég gáz. meg amúgy sem olyan jó. ha nem akarsz mindenáron nV-t venni, akkor inkább 7950 egy normálisabb hűtővel. vagy ha keplert szeretnél, akkor vagy 670, de az ugye nem olcsó, a 660tire meg érdemes lenne várni 1-2 hetet, hátha bedől az ára. persze ha mindet csutkára tolsz és laggközelben akarsz játszani, akkor nemszoltam.
-
denetol
csendes tag
Talaltam ma meg 1 evga gtx 580 ast is vizhuteses verziot 280 ert.de gondolom az mar nem jatszik a 7950 ellen.Szerintetek?bocs angol bill rol irok perpill.
-
whiteman0524
aktív tag
A melyik gyártó kérdésre válaszolva, én vagy az msi-ra, vagy az asus-ra szavaznék. Nem azért mert a többi gyártó nem jó, csupán azért mert ezek általában 3 év garanciát adnak a kártyákra. De lehet hogy van még olyan gyártó aki 3 évet ad, de nekem most ez a kettő ugrik be hirtelen. Én személy szerint msi-t veszek már évek óta.
-
denetol
csendes tag
Msot tervezem a vga cseréjét.Amd 7950 induló ára 240 font és ugyan ennyi a 660 ti is.Van aki szerint mégis nvidia vonalon kellene válogatnom még mindig?Sose volt még Amd---Ati kártyám de ahogy elnézem az ár/teljesítményt ideje váltanom.Vélemény?Még valami, ha már Amd melyik gyártónál érdemes Msi,Asus,Xfx ?
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #441 üzenetére
Ha sok a capture point, akkor azt a tempó meg fogja érezni. Szóval ezzel is le lehet dönteni a VGA-kat a vállukról. De meggyőződésem, hogy a konzolok miatt választották ezt a megoldást, így valszeg nem lesz annyi capture point. A G80/GT200-at viszont kivégezheti a geometry shader, de szerintem ezt már nem tekintik problémának.
A DiRT Showdownban azért lassabb a GI, mert 1000+ virtuális pontfényforrással számol. Ennyi fényforrással a cube map tömbös megoldás jóval lassabb lenne.(#442) tombar: A Tegra az NVIDIA jövője. Minden más mellékes mellette.
Az AMD-nek már van tabletplatformja. A Z-01-es APU, de nyilván lesz újabb. -
tombar
senior tag
jaértem. nem hittem volna h ennyire alapoznak a tegrára. mondjuk ha a nexus beválik, akkor lehet h lesz egy komolyabb előrelépés twimtbp keretein belül is., főleg ha vmilyen jogi úton nem lövik le tegra progit. gondolom úgy lesznek vele h akkor mehet egy kicsivel több is a pc iparba.
amd készül a tablet piacra? -
huskydog17
addikt
Aha, köszi szépen. Amúgy ennél a Cube Map alapú Gi megoldásnál nem kell attól tartani majd, hogy a felére fog esni a sebesség? Csak mert korábban ugye többször is említetted, hogy a FC3 egy régi, de ugyanakkor nagyon gyors eljárást alkalmaz. Ez akkor azt jelenti, hogy minimális lesz a sebességvesztés, ha az ember bekapcsolja a GI-t a játékban? A Dirt Showdown-ban csúnyán leesett, de hát ott ugye egy teljesen más, egy jóval modernebb GI megvalósítás került bele, ami jóval lassabb is.
-
Abu85
HÁZIGAZDA
válasz
fatallerror #439 üzenetére
GHz Edition már van 7970-ből. Az lesz nemsokára. A 690-et nem tudom. Ha kapunk teszteljük, de igazából ezek az 1000 dolláros termékek túlmennek az ember ingerküszöbén. A kisebb piacokra alig hoznak, így mi sem vagyunk a GTX 690 fókuszában.
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #437 üzenetére
A capture pointok számától függ, mert az adatokat ki kell írni a memóriába. Itt lehet előnye a Tahitinek a 384 bites busz miatt, de csak akkor, ha nagyon sok a capture point. Olyan sokat viszont azért nem érdemes használni, mert sok lesz a memória terhelése, ami nem kedvező. A GI persze skálázható, de nem ideális skálázni. Inkább egy szintre be kell lőni, és azt jól kitesztelni.
-
huskydog17
addikt
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #435 üzenetére
A cube map tömbök szempontjából nem sok.
A Kepler alapvetően tud számolni, csak ha komplex a kód, akkor az nem ízlik neki. Minél komplexebb, annál kellemetlenebbül érzi magát.
A GCN abból a szempontból más, hogy ha komplex a kód, akkor azon kívül, hogy többet kell számolni nem hatja meg.
Az eddigi legnagyobb teher a GPU-knak játékokban a forward+ lighting, és szerintem ennél nagyobb teher nem is lesz.
A Tahiti és a GK104 helyzete ilyesmi:
DiRT Showdown: Advanced lighting nélkül - forward+ lighting - extra VPL-GI
HD 7970: 65 - 58 - 45 fps
GTX 680: 64 - 44 - 34 fps
Látható, hogy arányaiban a forward+ lighting, amitől a Kepler sokat esik. A GI az nagyon terhel, de arányaiban annyira nincs akkora különbség a két architektúra között. Ezért sem értem az NV-t, hogy miért ezzel van a bajuk. Nem itt esik össze a Kepler, hanem a forward+ lightingnál. -
Abu85
HÁZIGAZDA
Az nyilván meg volt előre beszélve, hogy a Keplert inkább a Tegrába tervezik, mint normális Fermi utódnak. Ez biztos, hogy vezetőségi döntés volt, hiszen látták, hogy az ultramobilpiac nő, míg a VGA-piac csökken. Ezeket az irányokat természetesen a vezetőség jelöli ki, illetve vannak a cégen belül emberek erre. A szoftveres támogatásról nem igazán a vezetőség dönt. Ők az anyagiakat biztosítják ehhez, amiből majd gazdálkodhat a partnerprogram. Nyilván persze le van adva, hogy melyik piac a fókusz, tehát világos, hogy ma jóval több pénz megy a Tegra támogatására. Az NVIDIA ezen a piacon jóval keményebb, mint a PC-n. THD jelzésű játékokat hoznak, amelyek feltételes elágazással kapcsolják be Tegra 3-on az extra effekteket. A régebbi Tegra és a többi OpenGL ES 2.0-s IGP is képes lenne a jobb grafikára, de az NV egy csomó pénzt adott a fejlesztőknek, hogy ne legyenek azok. Erre van a Chainfire3D, ami elhiteti a THD-s programmal, hogy márpedig a termékedben Tegra van.
Ide megy most a TWIMTBP programból a legtöbb pénz, mert ez konkrétan kizárás, szóval ezt be kell fizetni. -
Abu85
HÁZIGAZDA
Te is látod, hogy eltérőek a játékok. Nekünk pont jól jött ki, mert a régi játékokat lecseréltük újakra. Lehet, hogy másnak nem volt régebbről több eredménye, így maradt a régi játékoknál.
(#429) tombar: Szerintem ennek a vezetőséghez sok köze nincs. Az maximum a pénzt adja a részlegeknek.
-
Abu85
HÁZIGAZDA
DiRT Showdown jóval gyengébben nézne ki forward+ lighting és VPL-GI nélkül. Szóval ez egyszerű kérdés volt a fejlesztők számára. Sokat javít a grafikán, így mehet bele. Azért az EGO motor még mindig forward render, ott azért finoman kellett bánni régebben a pontfényforrások számával. A forward+ lighting erre a megoldás.
A Sleeping Dogs az inkább amolyan AVP/Nexuiz képet fest. Ott is elég erős a GCN, de nem DiRT Showdown arányokkal. Ebben a játékban főleg az AA ami terhelő. Az több post process átnyom a képen, mire kész lesz.
A Hitman: Absolution az deferred render. Oda max fortard+ tack on mehet OIT-vel. Az mondjuk előnyös az átlátszó felületekre nézve. EGO-féle Forward+ lighting biztos nem lesz
Az Aliens: Colonial Marines az UE3. Az alapvetően forward render deferred shadows résszel, szóval oda lehet forward+ lightingot rakni, ahogy a szintén UE3-as Bioshock Infinity esetében is lehetséges.
Az AMD szokta mondani, hogy mindig a legújabb driverrel és a legújabb CAP-pal teszteljünk. Ezt mindig kihangsúlyozzák. Azt viszont nem szokta mondani, hogy mivel ne teszteljünk. De azt jelzik, ha valami driverhiba miatt nem ment jól. Például most a Batman AC-nél írták, hogy a 11.7b+CAP az jó, mert korábban egy hiba miatt nem volt jó a sebesség. De ez normális, hogy felhívják ezekre a figyelmet. Ezt az NV is meg szokta tenni. Azért világos, hogy nem mindenki tud odafigyelni, hogy mi melyik patch-csel hogyan változott.Ki lehet adni egy patch-et a BF3-hoz, de nem hiszen, hogy van értelme. Egyébként HDAO helyett lett HBAO és az élsimításnál a deferred MSAA+FXAA lett, a korábban tervezett SRAA-val irányított DirectCompute MLAA, deferred MSAA és TrSSAA helyett. (valószínű, hogy utóbbinak inkább a sávszélhiány adta meg a kegyelemdöfést)
A DICE fő partnerprogramja a GE. Ez évek óta így van minden Battlefieldre. Az NV-nek az EA-vel van szerződése.
Nem a teljesítményigény itt a döntő, hanem a komplexitás. Ha nem komplex a kód, akkor az jó a Keplernek és a GCN-nek is, de a GCN igazán komplex kódnál tudja megmutatni, hogy mit tud. Például nemrég kikerült a SI ISA dokumentáció. Ez alapján a GCN a feltételes elágazást úgy kezeli, mint egy központi processzor. Ez volt eddig a GPU-k gondja, hogy az elágazásoknál hanyatt vágták magukat, de a GCN már nem teszi. -
Szeretném megkérdezni, hogy ebben a tesztben csak a kiválasztott játékok miatt lett az az eredmény, ami? Vagy milyen különbségek lehetnek még az ittenihez képest?
-
-
Abu85
HÁZIGAZDA
válasz
Sondi1986 #425 üzenetére
A szemétkedések ártanak az iparnak, a fejlesztőknek és a játékosoknak. Azért sikeresebb ma a GE mint a TWIMTBP. De utóbbi partnerprogram is jóval finomabb már. Tudják, hogy maguk alatt vágják a fát a kizárásokkal. Annyi jó TWIMTBP játék volt régen, de ma lehet látni, hogy GE-ből több van. A fejlesztők hátat fordítanak, ha nem a játékosok érdekeit nézi a partnerprogram. Ma már főleg arról szól az egész, hogy ez meg ez van, mit szeretnél belerakni. Azt jellemzően nem kérik már, hogy a vendor ID ellenőrzésével zárj ki pár effektet a konkurenciánál. Az, hogy xy effektet belerakatnak a játékba az normális. A Batman AC is TWIMTBP és mégis jobban fut AMD-n. Szóval ezek ma már nem meglepők.
-
tombar
senior tag
válasz
Sondi1986 #425 üzenetére
dicenak az a fontos h mindenkinek jó legyen. pl nVsként eszembe se jutna dirt showdownt venni, de nem csak azért, mert unalmas, hanem azért, mert kepler nagyon gáz alatta. mondjuk ha a hitman is ilyen szintű lesz, meg "neadjisten" a sleeping dogs is, ami már sokkal érdekesebb, az már gáz. ha meg a colonel marines is jó lesz, de pl az egora fog épülni, akkor egyenes tökön szúrom magam. na akkor már csak azért is warez lesz.
szóval húzócímeknél szerintem tipikusan az arany középútra törekednek majd. nem hinném h ilyen mértékű teljesítmény vesztést bevállalnának, csak azért h egy adott lapkán sokkal jobban menjen. mondjuk most már tudjuk h az nV tesz azért, h a kedves júzerek kakáljanak rá h vmi kepleren nem megy. showdownnál külön kérték h ne teszteljenek vele. ez kb olyan lenne, mintha az amd kérte volna a 12.7es cata előtt h létszi batmannel ne mérjetek. mondjuk lehet h kérték csak mi nem tudunk róla, de nem is érdekes.
(#424) Abu85: most h van már elég kepler, a dice ki tudna dobni egy patchet, amivel tovább tudnák optimalizálni a játékot, nem? jó lenne tudni h ezek a downgradek mennyire ölték meg a látványt. illetve tuti h csak reklámszerződésük van? meggyőzően fut kepleren és még a fermik is el-el kapják a gcneket. ez a tipikus eset, amikor a kisebb teljesítmény igényű eljárásoknál a nV jobb?
meg az is fura nekem h kevesebb élsimítással (meg kisebb mlaa2vel) a tesztek alapján a kepler szintén jó. viszont maxon meg kipurcan. ez a kisebb sávszélesség miatt van?
-
Sondi1986
addikt
Ha a DICE csinál egy játékot ami a Gaming Evolved támogat, mit érdekli hogy az nvidia jövőbeli chipjén hogy fog menni!
Érdekes módon amit az nvidia támogat játékot azon szarakodnak az AMD kártyák, nem megy a CF stb. AMD miért nem szól a játékfejlesztőknek hogy ők is csináljanak valamit!
-
Abu85
HÁZIGAZDA
válasz
Sondi1986 #423 üzenetére
A Battlefield 3 az Gaming Evolved játék. Az NV csak reklámszerződést kötött az EA-vel.
Azért ilyen jó benne az NV, mert a DICE szerzett leghamarabb tudomást arról, hogy a Kepler a Ferminél is gyengébb lesz komplex compute shader kódokban, és csökken a shared memory teljesítmény. Mivel senki sem tudta tesztelni a hardvert az elmúlt év őszén, így a DICE biztonságra játszott, és minden olyan effektet kivettek, vagy lecseréltek a játékban, mely LDS-t használt. Így a Battlefield 3 már csak a deferrend render gyorsításához használ compute shadert. Ez egy kellemetlen helyzet volt mindenkinek, mert a DICE arra a shared memory tempóra tervezett, amelyre a legyengébb DX11-es VGA-k, vagy IGP-k voltak képesek. Nyilván logikus volt azt gondolni, hogy a GCN és a Kepler is erősödni fog. A GCN erősödött is, de a Kepler gyengült ezen a területen, így gyakorlati tapasztalat nélkül muszáj volt kikímélni a játékot. Most már van Kepler, így lehet tesztelni, hogy mennyit bír ... amikor kész lett a BF3, akkor erre nem volt lehetőség. -
Keksz03
senior tag
pár hozzászólással feljebb linkeltem/írtam, olvasd el a cikket
de egyébként igen!
HD7850 1GB -
229$189$
HD7850 2GB -249$209$
GTX660 Ti - 299$
HD7870 -299$249$ + Sleeping Dogs kupon
HD7950 -349$319$biztos h olcsóbb lesz de kétlem h ennyivel olcsóbb az meg h nemsokára jönnek...én biztos nem várnék a sima gtx660-ra mert az legjobb esetben is max 7850 szintje lesz! ott meg nézd meg milyen kártyák vannak milyen árakkal, kétlem h oda úgy be tudják lőni a kártyájukat a zöldek h jó választás legyen!
-
Keksz03
senior tag
nem kizárt h nagyon viszik a 660 Ti-t csak ha most az AMD ilyen mértékben lecsökkenti az árakat az bizony nekünk nagyon nagyon jó és az nvidiának meg nagyon nem! mert 7950 30$-ral lesz olcsóbb, a 7870 meg 50$-ral plusz ezek mellé Sleeping Dogs kupon-t kapunk majd, azért ez nem kis árcsökkentés...tehát 2-3 hét múlva csak az elvetemült nvidia fanok fogják venni kivéve ha olcsósítanak a zöldek is de ilyen mértékben kétlem h csökkenteni fogja egy újonnan kihozott kártya árát magyarán az AMD minden szempontból jobb választás lesz a logikusan gondolkozó vásárlók szempontjából!
de persze ez magánvélemény, meglehet h nem értesz egyet! -
lenox
veterán
En ugy tudom, hogy minden gk104-et el tudnak adni azonnal, ami elkeszul, raadasul eggyel magasabb kategoriahoz tartozo aron. Most pont az amd-nel kisebb elvileg a haszon egy gpu-n (legalabbis ebben a kategoriaban), szoval szomorkodni nekik kellene, nekunk meg orulni, ha egymas toket szorongatjak...
-
Abu85
HÁZIGAZDA
válasz
huskydog17 #357 üzenetére
Az FC3 GI algoritmusa egy 8 éves alapra épül, így alapvetően másképp működik. A geometry shadert fogja terheli. Ennek a modernizálását is az AMD (pontosabban az akkor még nekik dolgozó Emil Persson) dolgozta ki az R600-hoz, de azóta az AMD már továbblépet a jobb minőséget adó, és hatékonyabban működő algoritmusok felé.
Ebben a videóban beszélnek arról, hogy a cube map tömbös GI hogyan működik (2:30 körül). [link] - ezt kapja meg az FC3
A DiRT Showdown és a Ghost Recon Future Soldier VPL-alapú GI-t használ (igaz eltérő mennyiségű fényforrással, illetve pár alapvető különbséggel, ami a renderből ered). A DiRT Showdownban használt rendszer működéséről ez a videó árulkodik (1:40 körül): [link] -
Keksz03
senior tag
válasz
polgi803 #400 üzenetére
Ismét olcsóbbá válnak az AMD kártyái
gtx660 Ti bekavart, szorongatja a 7870-et a ref, simán megszorongatja a 7950-et az OC-s változat, AMD meglépte amit kellett miután már jól megszedte magát, lecsökkenti az árakat, mindenki boldog kivéve az nvidia!
-
mghltm
addikt
válasz
BullKoxa #403 üzenetére
gyari ertekek: 1.093/900/1250
huzva: 1.149/1100/1575furmark alatt maximum 73 fok, jatekoknal egy tizessel karcsubb ( zart level 10 gts haz, sziv - elol 20-as oldalt 14-es, fuj - felul 22-es hatul 12-es venti, szobaban 27 fok van )
-
mghltm
addikt
válasz
Sondi1986 #408 üzenetére
ne egyetlen kepet ragadj ki a tesztbol, hanem az egeszet olvasd el es ertsd meg
-
-
MPowerPH
félisten
válasz
BullKoxa #403 üzenetére
Ezen az áron a legjobb választás a 7950.
Nem értem az okát annak, hogy a gyengébb NV kártyák miért jóval drágábbak, mint az erősebb AMD-k.
Lásd ezt, de mondhatnám a 7970 vs. GTX680-at is.
fatallerror: Is, bár mint tudjuk a profit mellékes. Sok olyan kártya létezett, ami veszteséges volt, vagy éppen kitermelte a gyártási költségét, de presztízs termék volt, így forgalmazták. Én a teljesítmény/árcédulára gondoltam.
-
BullKoxa
őstag
Én inkább 7950-t vennék,én is a 660 Ti-t vártam.Nagy csalódás a 2 GB-s verzió.
olta : Mennyire melegedett a 7950-d? Én referenciát vennék mert az kifele tolja a meleget.Nem a házban kering.
BMW001 : Szerintem érted mert nem ma kezdted a PCzést. A zöldek álltában drágábbak,most nagyon mellé nyúltak szerintem az árazással.Én tuti 7950-t veszek a mostani felállás szerint,ja és a jövőre nézve nem is beszélve.
-
olta
aktív tag
Van az olcsobban is. Aki venni akar, az 80.000 Ft-ert is kap bolti garancias 7950-et. En is most adtam el annyiert
Szerintem a jelenlegi legjobb ar/ertek aranyu kartya egy 7950-es 80.000 magassagaban. Amugy en meg 80.000 alatt vettem 1,5 ev iPon garanciaval
Új hozzászólás Aktív témák
- PowerColor Red Devil AMD Radeon RX 6800 XT 16GB Garanciával!
- Asus DUAL-RTX5070-O12G nVidia 5070 12GB GDDR7 OC videokártya bontatlan dobozában eladó!
- GIGABYTE RTX 5080 16GB GDDR7 GAMING OC - Új, 3 év garancia - Eladó
- Gigabyte GeForce RTX 2060 6GB Garanciával!
- Gigabyte Geforce GTX 1070 G1 Gaming 8GB Garanciával!
- Garmin Heart Rate Monitor HRM-Tri eladó (2db is van)
- 156 - Lenovo LOQ (15IRH8) - Intel Core i5-13505H, RTX 4060
- Eladó egy wittings steel hr sport hibrid okos óra dobozával töltővel
- HP EliteBook 840 G8 i5-1135G7 16GB 512GB 1 év garancia
- iPhone 12 Pro 128GB Pacific Blue - 1 ÉV GARANCIA - Kártyafüggetlen, MS3259,100% Akkumulátor
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest