Új hozzászólás Aktív témák
-
Zorel
senior tag
Újabb hírt nem láttam a 660-ról, van róla valami infó, hogy kb mikor jelenik meg?
-
kokov
tag
A mai világban, amikor pár kattintással moddolni lehet a VGA BIOS-t már gyakorlatilag csak egy referencia a vízválasztó szoftveres és hardveres hiba között rengeteg esetben.
Ha nem így lenne, akkor nem lenne jogalap az OC kártyákért felárat kérni. Volt már olyan OC kártyám, ami a gyártó által emelt órajelen hibázott, de az NV referencia értékeken viszont nem. Tehát az is javítható volt pár kattintással a gondolatmeneted követve, mégis hardveres hibának minősült a gondom és szó nélkül cserélték is.
Végeredményben egy referencián változtattak saját felelősségre. A végfelhasználónak ez nem okoz kárt, adatvesztéssel nem jár, a hibás termékét cserélik. Az más kérdés hogy ez esetleg magyar honban nem megy egyszerűen. Ezért kell megbízható helyen vásárolni, vagy közvetlen a gyártóval intézni a garanciális ügyeket.Amit abu mond azt bárki megteheti, én is megtehettem volna, hogy lejebbveszem az órajelet és azzal annyi. Használom úgy. Hála Istennek nagyon egyszerűen kideríthető ezzel a módszerrel (régi driver vissza), hogy a vonatkozó NV által elfogadott referencia alatt van e a VGA-d, ha alatta van akkor hardverhibás. Lehet cseréltetni.
Az más kérdés, ha magyar honban ezt nehéz ügyintézni, de meg lehet keresni közvetlen a gyártót is.
Az álláspontjuk arra vonatkozóan, hogy lezártnak tekintik az ügyet és elfogadtak egy referenciát ami alatt cserélik szerintem tök korrekt. Nekünk magyaroknak a webshopjainkkal valszeg nagyobb copás, de attól még EU színvonalon tök korrekt. -
Abu85
HÁZIGAZDA
Nem teljesen. Bár ez jóval bonyolultabb annál, hogy a CUDA mag vagy az órajel több. Vannak mindkettő mellett pró és kontra érvek. Az fontos volt, hogy a shader órajel sosem volt olyan szintre emelhető, amit az NV tervezett. Eredetileg a Fermi 2 GHz-en ment volna. Az órajel sem ingyen van. Konkrétan úgy kell tervezni az blokkot, hogy az adott órajelen stabil legyen. Azért elég sok tranyót elvit az, hogy a Fermiben a shaderek 1,5 GHz körül tekertek.
Jó ötlet volt anno a mag és shader szétválasztása, mert az első sorozatban nagyon működött, de az új gyártástechnológiákkal már nem.
Ha az elméletet nézed, akkor a Fermi és a Kepler SM blokkja is különbözik, feleannyi shaderrel kétszeres ótajelen a Fermi gyorsabb lesz, mint a Kepler. A különbség az, hogy a Keplerrel jóval több shader építhető be. -
Bukmop
tag
válasz
#00983040 #134 üzenetére
látom engem idéztél, hogy hogy működnek a VGA-k azt nem tudom, nagyjából annyit fogtam eddig fel, hogy más az AMD és az Nvidia elve ahogy tervezik őket; és hogy kis teljesítménynél az Amd jobb ár/érték arányú, jelenleg pedig az Nvidi ül a csúcson.
igazából nekem mindegy, lebeszélhetetlenül Nvidia párti vagyok! Pedig van itthon AMD és Nvidia is és az amdvel kevesebb volt eddig a gondom. (viszont azt nem értem, hogy miért kell 15 programot feltennem, hogy működjön.)
Egy szó, mint száz: kinek a pap, kinek papné. -
#00983040
törölt tag
[quote] Kepler miatt a cuda magok száma megugrott idén, de mivel a 600as széria váltja az 500ast, így a x60as kártyák egymás előd/utód modelljei, nem?! [/quote]
Sok lúd disznót győz alapon - inkább az AMD-t utánozták le ! Inkább több CUDA mag GPU -val azonos órajelen , mint jóval kevesebb mag dupla órajelen. A kétszer annyi mag fele órajelen jóval többet produkál mint a kevesebb CUDA mag magas órajelen . De ezt belátták s alkalmazták sikeresen
-
Abu85
HÁZIGAZDA
válasz
Flashback #131 üzenetére
[link] - Itt oldalakon át le van írva. A 285-ös driversorozat óta egyfajta random fagyás, olyan helyzetben, ahol sokat ugrál a GPU órajele ... jellemzően a Fermit érinti, de specifikus a probléma, így nem jön elő minden terméken. Ezt a Windows TDR funkciója helyreállítja. Az NV állítása szerint a 296.10-es driverben javították a problémát.
-
Abu85
HÁZIGAZDA
Túl komplikált, hogy mit tekintünk hardveres hibának. Azt nem szabad elfelejteni, hogy ez a TDR onnantól kezdődött, amikor az NV egyesítette a notis és az asztali támogatást. Az biztos, hogy az energiagazdálkodáson változtattak. Ez egy nagyon szerencsétlen helyzet, mert van egy termék, amit a megjelenéskor kiteszteltek egy energiagazdálkodási sémára. Ezzel nem is volt gond hónapokig, csak egyszer ez megváltozott, és a termékek elkezdtek fagyni. Ugye a TDR alapvetően egy fagyás. Csak kékhalál helyett a Windows Vista és 7 újraindítja a WDDM felületet. XP-ben ugyanez a probléma kékhalált dob. Most már ugye mindegy, ez így alakult, csak szerintem teljesen fölösleges a termék energiamenedzsmentjét megváltoztatni, amikor a korábbi bevált.
A hiba alapvetően nem hardveres, mert a 275.33-as driverrel megszűnik mindenkinek a gondja. Ezzel a kitesztelt menedzsmentre jó a konfiguráció, csak az új menedzsmentre jönnek elő a problémák. Itt sem általánosan, hanem termékspecifikusan. Akár ugyanolyan termék közül is lehet az egyik rossz, míg a másik jó. Az, hogy ezt szoftveres vagy hardveres hibának könyveljük el az nézőpont kérdése. Az biztos, hogy vannak még olyan termékek, ahol az új menedzsmentséma még mindig nem tökéletes. Ha ilyen előfordul, akkor jelen helyzetben a gari az egyetlen alternatíva. -
Abu85
HÁZIGAZDA
Elkanyarodott a téma ez tény. De majd visszakanyarodik.
Löncsi egy ideje zéró tolerancián van a folyamatos flame-keltési kísérleteivel. Őt már ismerjük. Jobban tenné, ha egy havi ban után meghúzná magát, mert úgy is maradhatott, hogy közben újraregisztrált, ami végleges bannal jár amúgy. -
-
Abu85
HÁZIGAZDA
A Keplert ne keverjük ide. Az más hardveres menedzsmentet használ, így a TDR ezeket a termékeket nem érinti. Ha mindenképpen indokot keresel, hogy miért jobb a Radeon, akkor a jóval erősebb compute képességeket hozhatod fel, vagy a teljesen hardveres megatextúrázás támogatását, ha a játékot nézed, gondolva a Doom 4-re. A TDR-t semmiképp, mert az specifikus gond ... a Fermit érinti.
-
vanye
senior tag
-
kokov
tag
Nem vitatom, hogy létezik a probléma, csupán azt kétlem, hogy miután specifikusan foglalkoztak vele ennyi embernél mégis megoldatlan maradt és ha megoldatlan maradt akkor ennek tudatában a hivatalos álláspont a lezárt státusz. Ha azt mondták hogy vidd vissza a kártyát garba (ergó "kifizetjük neked") akkor gyanítom nem egy szoftveres probléma miatt akarnak fizetni.
-
Löncsi
őstag
Másról se lehet olvasni itt,csak a TDR hibáról.
Meg többi hasonló hírben is kb.
-
vanye
senior tag
Könnyelműség lenne egy laza tápproblémával elintézni ezt a dolgot, amikor nálam az 560-as egy CX400-as mellett is folyamatosan TDR-be szaladt. Kell a jó táp, ez nem vitás, de azért egy ekkora failt ne varrjunk már a teszkós tápegységek nyakába!
Amúgy egyszerű, paraszti logika: ha korábban nem volt gond a VGA-val, csak drivercsere után, akkor mégis mi a fészkes fene okozhatja a problémát? Ja, hát biztos a táp... -
kokov
tag
Az a hiba biztos, hogy összefolyik 100 másikkal és a fele lázadó vásárló csak belekapaszkodik. Alapvetően táplálási probléma, de emiatt, hogy a fele vaklárma megértem az NV-t. Ott a rengeteg lovkosztos alaplap, de a feszültségszabályzó áramköri megoldásokról szó sincs.
Volt olyan asztali konfig ahol volt hasonló random fagyás és kiderült, hogy a tápegységben (delta chieftec) cseréltek ventit, hogy halkabb legyen és az volt túl alacsony fordulatú így valszeg a tápnál lehetett drop. Sosem derül ki már, de tény, hogy NV VGA-val produkálta akkor a driver nem válaszol történetet a konfig. (9800GX2-es kártya volt szóval nem tegnap) Amint a táp megkapta a jobb hűtést elmaradtak a fagyások. Ha ez most történne akkor vinnék a 9800GX2-őt gariztatni az 100%.
Lehet hogy csak mára öregedtek el a tápegységek sokaknál és az NV VGA-i érzékenyebbek, de nagyon jellemző, hogy a júzerek xarnak tápot cserélni, pláne xarnak a tápban ventit cserélni, ha cserélnek akkor halk ventit akarnak ami jellemzően alacsony fordulatú, de nem figyelnek a légszállításra, ha pörög akkor az jó is oda, holott a táp meg közben már 100% közelben van terhelve és javítani kéne a hűtésén nem rontani, de "bírja az a 450-es, minek nagyobb, márkás ez" szóval én is beintettem volna az NV helyében. Most hogyan szűrjék, hogy kinek van problémája a VGA-val és kinek van problémája mással? -
Abu85
HÁZIGAZDA
Persze, hogy jobban megy. Azért a HD 5850-nek van előnye a ROP és a sávszél oldalán. A BF3-ban ez számít, meg úgy általában a játékoknak. Azt tudjuk, hogy a GCN architektúra egy compute monster, ha számolni kell, akkor hatékonyságban nincs párja. Ezeket az előnyöket jól kihozzák a szintetikus tesztek, csak hát ezek nem játékok.
-
-
vanye
senior tag
Nekem a legfrissebb meghajtóval jelenleg problémamentes a GTX 560. (Kopp-kopp-kopp.
) Az egyel előttivel fagyott; először csak egy bizonyos videomegosztón, majd már sima böngészés alatt is.
Amúgy igazad van a Full HD-vel, ugyanis az Nvidia álláspontja így fest:
"The NVIDIA GeForce GTX 560 delivers the performance and power you need to game in full HD 1080p." Itt van rá a képi bizonyíték.
Más kérdés, hogy én se Full HD-ben, hanem 1280*1024-ben játszom - ahogy vélhetően még sokan mások. Ők (köztük én is) egyrészt nem akartak pénzt kiadni egy 1080p-s monitorért, ha a meglévő is rendben van, másrészt úgy gondolkodnak, hogy egy GTX 560 tovább nyújt használható teljesítményt kisebb felbontáson, mint Full HD-ben. -
Abu85
HÁZIGAZDA
Nézz be a GTX 560 topikba. Azért linkeltem, mert ott írják, hogy előjön még mindig. De nézheted azután is a TDR-es topikot, hogy kijött a 296.10-es driver, ami javította elméletben.
Nem tudjuk, hogy hány embert érint még. Azt tudjuk, hogy a 296.10-es driverrel az NV lezártnak tekinti az ügyet, és akinek még gondja van az vigye garira. Ezzel nem lenne gond, csak ezt a problémát nem olyan könnyű gariztatni. Egyébként én is erre bíztatok minden érintet felhasználót. Próbálja gariztatni, hátha sikerül. Ha nem, akkor a 275.33-ad driver jó. Ennél többet nem lehet tenni. -
Abu85
HÁZIGAZDA
Ez sovány vigasz azoknak, akiknek még van. Jellemzően az ilyen hibák specifikusak. Ha mindenkinél előfordulna, akkor gyorsan javítható lenne. Specifikus hiba viszont nehezebb ügy. Azt jóval problémásabb reprodukálni.
Sok megoldási javaslat van. Ami biztosan működik az az alapórajel csökkentése. Ami általában működik az a feszültség növelése. Ezek egyike sem elvárható egy terméknél, mivel így már nem azt kaptad, amiért fizettél. Persze törvény szerint a gari a meghajtó hibájából is jár, csak nem biztos, hogy sokan ki tudják tapasztalni, hogy hol lehet ezt reprodukálni.
Egy időben próbálkoztam a 275.33-as driverben a DX és OpenGL drivereket felfrissíteni, de nem igazán működik. Sajna az NV drivere komplikáltabban van összerakva, mint az AMD-é. -
Abu85
HÁZIGAZDA
[link] - ez a topik csak erről a problémáról szól. [link] - itt is van még róla szó.
Vissza kellene rakni azt az energiamenedzsmentet, ami a 275.33-ban volt. Ez lenne a megoldás csak, hogy ezt miért nem teszik meg, azt ne kérdezd miért. Most már az sem indok, hogy a mobil termékekre negatív hatással lenne, mert külön van a mobil driver. -
Abu85
HÁZIGAZDA
A monitorkérdésben nem jutunk előre. A mit dugnak a kártyáikra eléggé attól függ, hogy az ember milyen monitort vesz a boltban. Full HD-set fognak jelenleg.
Nem tudjuk, hogy mi lesz az eredménye, de a kérdés érdekes, így érdemes megnézni. Nyilván az új driverekkel. Aztán majd kiderül, hogy mi az eredmény. Persze a termékek erősen kifutó kategóriások, de hátha van még értelme.
Nem haragszom, de a probléma bizonyítottan a meghajtó hibája. Pontosabban az NV szerint csak volt, de sajnos ma is előfordul még. Az elfogultság ott kezdődik, hogy a saját tapasztalatodból kiindulsz, majd arra építesz. Ezzel egy időben ignorálsz egy gyártó által elismert problémát. Csak fel akartam nyitni a szemed, hogy a driver szempontjából nincs fehér és fekete. Szürkeség van, és ez mindkét oldalon ilyen színű.
Az éleknél olyan erős árnyékolás van, hogy az a realisztikusnak nem nevezhető. Persze driverből nem lehet jobban alkotni, mert nincs meg hozzá a kellő információ. A szebb viszont ízlés kérdése.
-
eight
senior tag
- Nem azon vitáztunk hogy mit lehet kapni a boltban, hanem azon hogy kiket céloznak a közép kategóriás kártyák és hogy mit dugnak rá az emberek otthon a kártyáikra.
- Tehát lehet hogy majd egy esetleges következő teszt esetleges AMD-re nézve pozitív eredménye alapján volt akkor a leírt álláspontod az hogy gyorsabb?
Az egész eddigi tegnap esti vitát, a teszteket, a piaci tényeket és statisztikákat tehát az összes pontot simán eldobtad (nem először) és írtál egy falat egy (ritka, de tényleg nagyon gonosz
) problémáról, (ami egyébként nem is bizonyítottan meghajtó hiba, csak annyit tudni hogy 273 elött nem jön elő az érintett kártyáknál)..... Már meg ne haragudj, de szerintem elfogult vagy.
-
Abu85
HÁZIGAZDA
A PhysX az egyéni igény kérdése. Tegnap olvashattál róla véleményt mástól is. Ha valakinek nem tetszik, akkor nem tetszik. De egyébként szerintem tetszik az mindenkinek, csak az ára sebességben nem éri meg. Jellemzően ez az elvárások kérdése.
A Dirt 2-3 ismert hibája, hogy DX11 módban befagynak a GeForce-ok a menüben. Nem tudni, hogy miért. Például nálunk sosem volt ilyen gond. Szerintem nem driverhiba ez, hanem a menü valamiért túlterheli a kártyát. Abból ítélve, hogy x kártyán megy, y-on pedig nem, ez inkább hardveres instabilitásra utal. Persze DX9-ben megy teljesen flottul. Azóta sem jöttem rá, hogy miért van ez.
A TDR probléma nem csak őt nem kerülte el. Ma is küzdenek vele, bár szerencsére már nem olyan sokat ,de közel sincs ez megoldva. Hidd el, hogy nagyon kellemetlen jelenségről van szó. Gondold el, hogy böngészel és pár másodpercre elmegy a kép, majd visszajön. Rossz esetben újra kell indítanod a böngészőben a munkafolyamatot. Annyit tudtam neki mókolni, hogy az alapórajel csökkentésével a jelenség megszűnt, de azért a termék pénzbe került, ne kelljen már 50-100 MHz-et csökkenteni, hogy ne legyen TDR. Inkább maradt a gari. Szerencsére nem volt akkora gond, mert pontosan leírtam, hogy miképp lehet reprodukálni, és fórumot is adtam hozzá, ahol erről írnak. -
Abu85
HÁZIGAZDA
Elég, ha ránézel egy árlistára, és láthatod, hogy nagyon nehéz Full HD-s natív felbontás alatt monitort találni. A piacon ez lett a szabványos felbontás. Egy terméknek ezt bírnia kell már. Az, hogy te mire használod, az más.
Mondom, szerintem újra meg lesz nézve, és akkor a melyik a gyorsabb vita is le lesz zárva. Új driverekkel, új játékokkal lesz ma a legkézenfekvőbb a helyzet.
A meghajtókat mondtam, hogy ne keverjük ide, amíg van TDR hiba a GeForce-okon. Erről van topik is. Iszonyatosan kellemetlen lehet, amikor a böngésző hirtelen lefagy. Ezért gariztattam a szomszéd GTX 460-ját, mert ő ezért tépte a haját. Persze valahol én is hibás voltam, mert én beszéltem le a HD 5850-ről anno a GTX 460 javára. Aztán csak problémája volt. A Dirt 2-3 a menüben fagyott DX11-ben. Ezért állandóan az én HD 5850-emet hajtotta, én meg megkaptam az övét. A 285-ös driver után hagyta rá, amikor naponta belefagyott a böngészésbe. Egy hónap volt, de sikerült cseréltetni a termékét. Azóta HD 6870-nel tolja. Az ő véleménye a meghajtókról jelenleg teljesen más. Mondtam neki, hogy nem a meghajtó a ludas, hanem az NVIDIA, mert átalakította az energiamenedzsmentet és számos kártya erre instabil működéssel reagált, de nem hatja már meg. Nyilván hatalmas hiba volt összevonni a mobil termékek támogatását, meg egy évvel egy termék startja után átalakítani az energiagazdálkodást. Egyszerűen azt úgy kell hagyni, ahogy anno kitesztelték, mert arra biztos stabil. Ha változtatsz, akkor lehet, hogy nem lesz stabil. Még ma sem tértek vissza a 275.33-as driver energiamenedzsmentjéhez, pedig az illik a Fermikhez. Akinek nem stabil a menedzsment az TDR-t kap, így nem tudja használni a legújabb drivereket, mert nem tud vele normálisan webet böngészni. Már én is kérdeztem, hogy ha már úgy sem közös a mobil és az asztali terméktámogatás, akkor miért nem rakják vissza a kitesztelt energiagazdálkodást. Erre csak annyi volt a válasz, hogy az NV lezárta a TDR ügyet. Ha baj van akkor a terméket garanciára kell vinni. Na most ezt elég nehéz egy olyan hibánál, ami valamikor egy hétig sem jön elő, valamikor pedig napi ötször. Szóval a helyzet annyi, hogy a 275.33-as driverrel jó és kész. Ezért mondtam, hogy a drivert ne hozd fel, mert attól, hogy te mit tapasztalsz még gyökeresen eltérő lehet mások véleménye. Ők a szerencsétlenül járt "kisebbség".
Különbség van az AO mellett, csak abszolút nem realisztikus.
-
eight
senior tag
De te mondtál olyan mondatokat hogy:
"A GeForce GTX 560 az lényegében egy GeForce GTX 460 v2 +100 MHz órajellel. Ezért nem teszteltük soha, mert nagy csendben jelent meg, és a gyártók sem küldözték jó szívvel a terméket, hiszen lassabb volt, mint a megcélzott HD 6850.""Manapság, amikor nem kapni Full HD-snél kisebb natív felbontású monitort, nincs olyan, hogy 1680x1050-re szabott gémer kártya. Egyszerűen Full HD-ben teljesíteni kell. Ez minimum elvárás."
Én csak ezekre reagálok ahogy bírom, idő hiányában nem tudok most visszakeresni az összesre, de teli van a topic olyan állításokkal amik egyszerűen nem állják meg a helyüket. Az emberek túlnyomó többsége nem FullHD-ben játszik, és a középkategóriás kártyák tényszerűen és értelemszerűen nem is arra készülnek, és nem is arra ajálják őket, sehol. Ezek mind tények.
A GF114 az egyik legsikeresebb chip a komoly játékosok körében, és nem véletlenül, vagy valami marketinges fondorlat miatt, hanem mert jó. Nem csendben jelent meg és soha sem volt lassabb mint a 6850. Igaz hogy sokat zabál meg drágább, de a gamereknek ezek csak egy egy (fontos!) szempontok a sok közül.
Mondtad hogy a 6850 a legdurvább extreme ultra beállításoknál már megelőzné. ami meg azért vicc kategória, mert középkategóriás kártya nem ultra beállφtásokra való, és egy gamer soha nem bohóckodik 20-30fps-el, FullHD-ben meg pláne nem, ahol sokszor még a csúcs kártyáknak is nagy falat az ultra. (Azért harmadikra #93-nál belinkeltem egy tesztet ahol ultrán nyomtak mindent fullhd-ban, és összesítésben ott is jó 10-15% gyorsabb volt az 560.)Egyébként én lennék a legboldogabb ha a 6850 olyan gyors lenne mint az 560 mert minél nagyobb a verseny, annál jobb nekünk, annak meg pláne örülnék ha olyan jó meghajtója lenne AMD-nek mint Nvidiának, mert az elmúlt évben egy csomó hajszálam megmaradt volna
ui.: Most megnéztem a Mirror's Edge-t ultra AO-val (amire hivatkoztál) és abban is ég és föld a külömbség. Nekem nagyon hiányozna pedig ott még előre is bele van sütve valamennyi AO a texturákba.
@Tibi86: sajnos AMD-s opengl nagyon bugos volt akkoriban, (mind 3D-s programokban, mind pedig játékokban), és ezek nem olyan becsúszott hibák voltak hogy visszamész 5 verziót és használhatod, hanem egyszerűen nem voltak rendesen megírva külömböző funkciók. A Rage kijövetele óta azért nagyon sokat javult a helyzet.
-
djculture
félisten
-
Abu85
HÁZIGAZDA
Viszont jól láthatóan a Full HD a legelterjedtebb. Figyelembe kell venni, hogy ha most veszel monitort, akkor sok más opció nincs.
Azért egy LCD-n én nem szeretem a natív felbontástól eltérőt. CRT-n ez nem volt baj, de LCD-n nem az igazi.
Nem, a Steam nem foglalkozik a termék mögötti jelöléssel. Ti, SE, Ti 448 az egy kategóriába megy. Ezeket gyűjti a GTX 560. Nézd meg az eredményeket. Nincs jegyezve SE, Ti és Ti 448 eladás, csak 560. Nyilván ha szétszednék, akkor az Intel HD Graphics 3000 lenne a legelterjedtebb. Ez finoman szólva is vicces lenne egy digitális játékdisztribúciós platform statisztikájára nézve.Nyilván okkal játszanak ezekkel az adatokkal. Persze a Steam is rosszul detektál, mert a GPU1 számít neki. Az IGP-vel rendelkező termékek esetében az IGP az elsődleges a rendszer értelmezésében. Ismerősöm Virtut használ, és neki is az Intel grafikáját ismeri fel. A mögötte álló Radeont, ami GPU2 már nem látja. Az pedig világos, hogy melyikkel játszik.
Nekem is ilyen volt egyébként. A GeForce GT 240 volt a detektált kártyám a Radeon mellett, pedig nem ezzel játszottam. Azóta persze kivettem, mert semmire sem használtam az utóbbi időben, de a Steam így méri ezt. -
eight
senior tag
Korrekt "játékos" statisztikával adós maradtam, szóval csak érdekesség képpen a steamet használók legutóbbi felmérése:
(egy monitor + 1% alattiak eldobva)
1024 x 768 5.54%
1280 x 800 4.28%
1280 x 1024 11.03%
1360 x 768 2.30%
1366 x 768 16.65%
1440 x 900 7.54%
1600 x 900 6.80%
1680 x 1050 10.68%
1920 x 1080 24.84%
1920 x 1200 3.69%tehát a 75% kisebb felbontást használ mint a fullHD, és az a ~25% akinek FUllHD-je van annak is csak az a natív felbontása, és nem biztos hogy abban is játszik. Egyébként azt hiszem hogy amióta tavaly az AMD sírt, azóta szétszedik a Ti-t az SE-t meg a normal 560-ast és még mindig ebben a legújabb áprilisi felmérésben is az - említésre sem méltó - GTX560 a legtöbbet használt kártya.
-
eight
senior tag
768-as 460-nál gyorsabb a 6850 sajna
, kb egy túlhúzott 1Gb-os 460-nal van partiban értelmes beállításokkal. Ahogy abu85 is írta, akkor kezd el megtáltosodni ha fullHD-ban feltekersz mindent csumára, mert akkor a 6850 sokkal gyorsabb lesz és mondjuk az adott játékban a 460 el fog érni 27fps-t a 6850 meg 37-et. De ki az aki kiad egy rakás pénzt videokártyára hogy utánna 27 vagy 37 fps-el játszon? Annak mi értelme van? De most komolyan?
-
Abu85
HÁZIGAZDA
A compute-game iránynak ehhez sok köze nincs. Itt inkább a tesszellátorral való játék volt a lényeg. Az NVIDIA azóta is a brute force megoldást tartja jónak, ezzel szemben az AMD és ahogy a Gen7 IGP-t elnézem az Intel is a "többet ésszel, mint erővel" elvet követi. Ezek koncepcionális eltérések.
(#96) MrCsiT: Elég sok NFS van a piacon, ezzel sok adat nem derült ki. De amúgy, ha a felbontás alacsony azt a GeForce jobban tűri. Magas felbontáson hátráltató a szűkös raszter.
A szürkehalál a HD 5000-nál volt, de az javítva lett. A Giga trehánysága nem ide sorolható. Ott volt egy hibás széria.
-
MrCsiT
addikt
Erősen szubjektív, de nálam már AMD x2@x4 proci mellett, pl. NFS -ben egy 768MB-s 460 is odaverte a 6850-et - azaz, jóval kiegyensúlyozottabban ment. Lehet, hogy a 6850-nek magasabb max.fps-e volt, de a min. elmaradt, ráadásul , a 6850 nálam akkor mikrolagos is volt - és nem érdekelt, mint usert, hogy ez a "csomag" driverhiba vagy mi miatt teljesít gyengébben, az nV jobb volt, és kész.
Azt is sokan írták VGA topic-okban, hogy a 6870-et meg szabad venni, az már megy, de a 6850-et jobb elkerülni. (főleg az annó szürkehalálozó Giga modelleket.. ) Ez sem lehet véletlen..
-
Abu85
HÁZIGAZDA
Nem. Ez szimplán így alakult. Az NVIDIA a Fermivel nagyon szétvágta a rasztermotort. Korábban ezt úgy tervezték, hogy egy raszter egység volt a rendszerben, ami annyi pixelt dolgozott fel, ahányra szükség volt a blending oldalán. A Fermi ezt több részre vágta azért, hogy párhuzamosan dolgozzon a rendszer. Ezzel a raszter motorokat az NVIDIA a GPC-khez kötötte. Mindegyik GPC blokk motorja 8 pixelt dolgozott fel. Mivel a GF1x4-ben két blokk volt, így ez 16 pixelt jelentett 32 blendingre. Egyszerűen az architektúra tervezéséből eredt ez az egész aránytalanság. Ez volt az egyik oka annak, hogy a Fermi relatíve sokat esik a felbontás növelésével. A Kepler esetében a GK104-nál az NVIDIA már ügyelt az 1:1 arányra. Ezzel ez a rendszer már valamivel jobban tűri a felbontás növelését. Értsd kevesebbet esik a teljesítmény, mint amennyit a Ferminél esett.
-
Abu85
HÁZIGAZDA
Semmi extrém beállítás nincs itt. A mai középkategóriás kártyák bírják a Full HD-t.
Az FXAA az nem rossz, csak be kell építeni a játékba. Az effekt minőségét sokan driverből engedélyezett paraméter alapján ítélik meg. Ez nyilván nem lesz jó, mert a számításra van a végső képkocka és kész. Egy programban extra információkkal is lehet etetni, ami sokat számít a végeredmény szempontjából. Nagyon jó példa a Barman FXAA-ja. Az tényleg jól meg van csinálva.
Jó. Szerzünk egyet újra és a nyári ubiszezonban lemérjük. Ezzel meg van oldva a kérdés. Mindenből a legfrissebb driver, legfrissebb játékok és kész.
-
eight
senior tag
Amiket írsz azok már olyan extreme beállítások amik még a gtx680-nak is nehezen mennek fullhd-ban. FXAA az na például a tipikus mintapéldány esete az ocsmány postprocess effektnek, és nem az ultra AO. Jobb is hogy nem kapcsolták be, az nem gamernek hanem vakoknak való.
A crysis2 -ben ami azután jön, ahhoz már SLI kell (dx11 DOF, etc), akár csak a Metróban, aminél lassabb kódot talán csak a Rockstar tud írni.Egyébként most csak bedobtam a TH-s linket, én sem szeretem őket (ha már szubjektív vélemények is érdekesek), de előtte meg egy Anandtech-es linket dobtam be (akik viszont nagyon régi kedvenceim) amivel meg az volt a baj hogy nem is igazi 560.
Nem is értem hogy hogy lehet ez az egész téma, sehol a világon még csak hasonlót sem halottam hogy valaki az 560-at a 6850-el hasonlítaná össze.
szerk.: de extreme beállításoknál középkat-nál nem játszol hanem diafilmet nézel, itt játékos kártyákról van szó.mit számít az hogy mit csinálnak ezek a kártyák extreme beállításoknál ha játszahatlan?
-
Abu85
HÁZIGAZDA
Nézd a teszteket külön. Pár helyről szedi össze a nagy előnyt. A Crysis 2-ről, ahol egy hibás benchmark programot használtunk. Azóta próbáltam keresni megoldást erre, de nem sikerült. A program azóta kikerült, mert külső program nélküli mérés nehézkes. Egyes területeken a Radeonok verik péppé a GeForce-okat míg máshol fordítva. Ezzel így le is tettünk erről a tesztről, hiszen a külső benchmark rossz, belül pedig nem találtunk értékelhető helyet, ahol jól lehetnek mérni, és az eredmények is helytállóak lennének. Nyilván annak semmi értelme, hogy döntünk, hogy melyik gyártó verje agyon a másikat. A másik hely a Batman, ahol nem jól működött az AA a Radeonokon akkor.
A másik, hogy a 8xAA-t nem adtuk ár az F1-re és a Dirt 3-ra, amit ezek a kártyák bírnak, csak 2xAA-ról voltak eredmények. Nyilván nem mindegy, hogy hányszoros az AA sem.A HD 6850 és a GTX 560 viszonya általánosan úgy írható le, hogy alacsony terhelésen a GTX 560 gyorsabb, míg magas terhelésen átveszi a vezetést a HD 6850. Ez általánosan megfigyelhető volt a Fermi architektúránál, mert a rasztermotor az elméleti blending teljesítmény felével dolgozik, míg a Radeonon 1:1 az arány. Minél jobban növeled a felbontást, és az AA terhelést, annál előnyösebb lesz az, amikor a raszter képes etetni a blending egységeket.
-
Abu85
HÁZIGAZDA
Alog van játék maxon.
A BF3-ban a High után vagy ultra lépcső. FXAA-t kihagyták.
A Crysis 2-ben a Very High a második szint. Ezután még van két minőségi opció.
A Metro 2033 mediumon vicc, de a 4xAA-t azt rárakták, ami helyett sokkal többet ér, hogy high a textúrák részletessége.
A Dirt 3-ban nincs AF ráadva.
A The Elder Scrolls V: Skyrim esetében hanyagolták az FXAA-t. Ráaádsul ez a játék alkalmatlan mérésre, mert hiába rakod a vertikális szinkront off-re számos GPU-n ezt figyelmen kívül hagyja. Persze magas felbontáson úgy nézem ez annyira nem számít, mert így sincs 60 fps fölött a sebesség.
WoW az tényleg maxon van. Az eddigiek láttán meglepő.A TH munkája kritikán aluli már évek óta. Teljesen logikátlan döntéseket hoznak.
-
Abu85
HÁZIGAZDA
A TH-t hagyjuk. Sosem rakják maxra a játékok grafikáját. Nem tudjuk, hogy miért, pedig pont ez lenne a lényeg.
Ezzel egyetértek. De ez már eleve azt eredményezi, hogy a driveres AO sosem lesz olyan minőségű, mint a beépített. A 2D-s glow pedig sokszor csúnya dolgokat is csinál. Például a hivatalosan támogatott Mirror's Edge alatt. AO Off - AO on Látható, hogy az AO az éleknél nagyon erős. A realisztikustól ez nagyon messze áll.
Dehogy kell azoknak csökkentett beállítás. Simán bírják a Full HD-t, csak jól optimalizált játék kell. Mindenesetre semmi gondja nincs ezeknek a kártyáknak a Full HD-vel.
Ne vegyünk olyan statisztikát elő, ami a mobil termékekből is táplálkozik. Ott eleve ki van zárva az asztali VGA. Természetesen mobil szinten más a helyzet.(#81) Löncsi: Az soha. Ahhoz túl gyenge a HD 6750 és a GTX 680 túl erős. Itt igazából a HD 6870 - GTX 560 Ti helycserét sem teljesen a driverek okozták, hanem a DX11-es játékok. Ezek más terhelést fejtenek ki, mint a DX9-es programok. Mi már ugye csak DX10/11-es játékokkal tesztelünk.
-
eight
senior tag
System Software And Drivers
Operating System: Windows 7 Ultimate 64-bit
DirectX: DirectX 11
Graphics Driver: AMD 8.932.2 (For Radeon HD 7770 and 7750) AMD Catalyst 12.1
Nvidia GeForce: Release 285.62szerk: egyébként bár nincs az 560-nak szüksége rá, de a 300-as driverrel még nagyobb lesz a külömbség (szerintem), egyszerűen az a gyorsabb kártya, föleg a játékos szempontjából aki rányomja egyből az ultra beállítást.
szerk2: pont hogy ultran vannak a játékok, azért ezt a tesztet linkeltem be. (statisztikát nem találtam jobbat sajna, a Mirror's Ege-ben meg holnap majd felrakom ultra-ra az AO-t azt megnézem.
-
tombar
senior tag
mondjuk ez annyira nem gáz, igazság szerint nehéz pártatlannak lenni. pl én márkahűségből nV-t vennék, persze ha egy kicsit is súrolja az ésszerűséget.
ezért is reménykedek abban h aug elejére jönnek a nem refes példányok, nagyon fáj már a szívem egy friss ropogós konfigért.
-
Abu85
HÁZIGAZDA
Ezért kellene megnézni, hogy miképp alakul most a helyzet. Legutóbbi tesztünkben láthattuk, hogy a HD 6870 gyorsabb lett a GTX 560 Ti-nél. Ekkor a legújabb driverek voltak fent. Azóta is eltelt pár hónap, szóval megfordulhatott a helyzet. Úgyis lesz még nyári ubiszezon, ha sikerül egy GTX 560-at szerezni, akkor rálesünk.
Azt biztos nem érdemes használni, amit a kártyához adnak, mert az az esetek többségében régi. A Win 7 azt a drivert teszi fel az update-en keresztül, ami az MS-nél a legfrissebb. Ez nem feltétlenül egyenlő a ténylegesen legfrissebb driverrel. Szóval érdemes manuálisan letölteni a legújabbat.
-
eight
senior tag
Idei (februári) teszt referencia órajeles kártyákkal a TH-ról. Sandrában meg Luxmarkban jobb a 6850, de játékban van úgy hogy még a 460 is elveri.
A 2D-s glow természetesen soha nem lesz olyan mint a 3d-ben kiszámolt shaderes highlight cucc, de ez nem jeletni azt hogy ne lehetne minden esetben a mintavétel felbontásának emelésével javítani a minőségén. Ez ugyanígy igaz a screen space ambient occlusion-ra és a többi post dologra is, és én ezt és csakis ezt állítottam, semmi többet. Most megnéztem gyorsan COD4-ben ahol volt rá kritika, és ultrára felnyomva már igenis szinte olyan mintha belevarták volna.
Mindegy hogy milyen szabvány a fullhd, mi akkor nem erről beszélgettünk. A középkategóriás kártyák csak csökkentett beállításokkal képesek azt a felbontást lekezelni. Ha körbenézel a weben található tesztekben, látni fogod hogy ezeknél a középkat-os kártyáknál igenis nézik a 720p- a 768p meg az 1050-p-t is, mert ezek a kártyák arra valók, arra készültek és nem a fullhd-re. Egyébként a rendelkezésre álló statisztika szerint jelenleg a világban a 768p a legelterjetebb felbontás, tehát ere sem kéne hivatkozni. FullHD-ra csúcs kártyák kellenek, a kisebbre meg elég az 560, Physx-el AA-val AF-el meg AO-val együtt.
@(#69)kokov: 448-as 2011.dec-ben jött ki a legkésöbb az 560-asok között
-
zazahoho
őstag
Jó kis kártya lesz ez,300 dolcsi meg fél év alatt 200-230-ra is lemegy.
-
válasz
fatallerror #66 üzenetére
De ördögi lene..., mint a mosoly ami mellette van..
-
Abu85
HÁZIGAZDA
Tudjuk. Az év végén volt egy boost a HD 6000-re. Az AMD is jelezte, hogy gyorsítottak.
Az 560 esete alapvetően nem csalás, mert technikailag a név elkülönül. Még ha apró betűkkel is, de az 560 esetében a Ti vagy/és a 448 jelzés biztos ott lesz a dobozon. Az már a vásárló hanyagsága, hogy nem figyel oda. Mindannyian tudjuk, hogy a cégek ott vernek át minket ahol tudnak, így lassan meg kellett volna tanulni odafigyelni a részletekre.
-
kokov
tag
A 7xxx sorozat első drivere előtti driverrel nézd meg a 6xxx-et. Azzal a driverrel a 6870-em jobb eredményeket hoz, mint a referencia 5870, ha trixx-ben odébbhúzom az órajelet nem is kicsit veri meg. Csak lestem. Ahhoz képest, hogy sokan többre tartják árban az 5870-et a mai napig, teljesítményben gyakorlatilag már egál, de a 6870-en ott az 1.4-es HDMI no meg persze 6 monitort is támogat szóval elszállt az idő az 5870 felett mégis akár drágábban is el lehet adni, mint a 6870-et. Ebből látszik, hogy hatalmas ereje van pár fals táblázatnak a neten. Hiszen a driverek miatt minden táblázat fals adatokat közöl, de senki nem veszi figyelembe, hogy elavulnak az adatok. Egyszer lemérik a megjelenéskor xy verziójú driverrel és a nagyközönség szerint az onnantól annyi és kész.
Az 560 esete már-már csalás. 3db VGA-t adni ugyanazzal a névvel... ejnye.
560 < 560Ti < 560Ti 448
(#68) eight
Én úgy emlékszem, hogy pont nem és a 448 hamar kijött, de utána lehet nézni könnyen, én perpill most lusta vagyok. -
eight
senior tag
Az értem hogy én hülye vagyok, de te most komolyan azt mondod hogy a Anandtech meg a többi oldal nem tudja megkölömböztetni a GF114-et a GF104-től meg a GF110-től?
Egyébként ha jól emlékszem a 448-as jött ki legkésőbb amikor az NV elkezdte kiseperni a nem jül sikerült GF110-it az 560ti-kbe. -
Abu85
HÁZIGAZDA
Lényegében semmi. Megemelték az órajelet és kész. Ilyet az NVIDIA szokott csinálni. Ez is egy stratégia, ahogy a GTX 560 Ti 448 CUDA maggal. Ugyanaz a célja, vagyis tartani a lépést a Radeonokkal. Jó példa a HD 6870, ami amikor megjelent a GTX 560 Ti, akkor lassabb volt, míg a legutóbbi tesztünkben gyorsabb lett. A GTX 560 Ti 448 viszont azt a látszatot kelti, hogy továbbra is megmaradt a különbség a két termék között. Azért nem GTX 565 lett az új termék neve, ami jobban illet volna rá. Ugyanez a v2-es GTX 460-nál. Mára a Radeon HD 5850 eléggé lehagyta, de anno, mikor megjelent még nem volt ekkora a különbség. A v2 verzióval a különbség látszata megmaradt. Ez egy régóta megfigyelhető stratégia az NVIDIA-nál. Az adött sorozat termékciklusának végére készül egy ugyanolyan nevű gyorsabb termék.
-
Abu85
HÁZIGAZDA
Érdemes lenne megnézni az új játékokban az új driverekkel, mert a régi tesztekben az 560 Ti is elverte a Radeon HD 6870-et, míg mára ez megfordult. [link] - Gyanítom, hogy a modern DX11-es terhelésre ugyanígy reagált a GTX 560 és a HD 6850 is, hiszen maga a lapka ugyanaz. Na de majd ha lesz teszt, akkor megnézzük.
Az FP16 szűrés kb. számít a Codemasters EGO motorjában. Ott persze nagyon.
Az AO profilja motorhoz köthető ugyan, de a minőség nincs garantálva. Az ENB az sem általános megoldás. Vannak játékra optimalizált verziók. Pontosan azért, mert az AO és ezek az algoritmusok nem az igaziak, ha minden optimalizáció nélkül ráereszted. Még játékra tervezve sem lesz olyan az eredmény, mintha be lenne építve a motorba.
A Full HD az a felbontás, ami úgymond szabvánnyá vált. A régen az nem számít, hiszen most vásárolsz. Ezért döntöttünk úgy nemrég, hogy a 200 dollár feletti kártyákat nem fogjuk Full HD alatt tesztelni, mert minimum elvárás, hogy ennyit bírjanak.
-
válasz
fatallerror #63 üzenetére
én is orülnék egy erősorrendet tükroző/árnyaló 0 módosítáanak, a végeken inkább..
De azt is el lehetne rontani..
-
-
Löncsi
őstag
válasz
fatallerror #58 üzenetére
Lehet, de megnézed elég sok ilyen "casual" gém is van steamen, nem lennék meglepve ha az alap laptopos userek adnák ezt a részt. Vagy csak csevegésre használják.
-
kokov
tag
mindig nézd a cikk dátumát emiatt:
(#52) kokov -
eight
senior tag
Egyáltalán nem kevertem össze semmit semmivel, a 6850 nem gyorsabb az 560-nál, a Ti-nél meg pláne nem. A respektáltabb szakmai oldalak (pl Anandtech) referencia és hajtott verziókat is teszteltek, és az alap is gyorsabb volt a 6850-nél vagy esetleg ritkán "csak" ugyanolyan gyors. EVGA nem a gagyi kategória, és pl ők is 169-ert adják..
Az 500-as széria teljes sebességű FP16 szűréssel jött ki a 400-as széria "feleséhez" képest, ami pont hogy a játékoknál fontos, játékos szempontból ez nem egy elhanyagolható tényező, szvsz megért volna egy misét, bár ez csak szubjektív vélemény.
Amint írtam az AO motorokkal megy és nem egyes játékokkal (pl a játékok nagy többségében használt Source vagy Unreal motorral), és screen space alapú, tehát a minőség minden esetben finomítható. Csak be kell tudni állítani és ritkán van vele gond, nagyon szép lesz tőle minden. Nekem inkább az ENB (szintén postba rádobott) algoritmusa szokott rossz minőséget produkálni.
A játékosok általában TN alapú monitorokat vásároltak, gamerek legtöbbje a 120-as 1680x1050-eseket (samu 2233rz) vagy a 2209Wa-t vette akkoriban. Hála az égnek nálunk a PH-nak köszönhetően inkább a FullHD-s u2311h ment el, de ez messze nem volt jellemző az egész bolygóra.
A kepler tényleg sokkal jobb lett, igazi gamer chip és végre nem zabál annyit, de a Fermi is nagyon jó mind csúcs mind pedig középkategóriában. (akár még a 460-at is fel lehetne ide hozni a maga idejéből, nem volt az egy rossz vétel akkor, de az 560 és az 580 (enthusiast szempontból) szerintem kifejezetten tetszetős kis portéka lett)
A "kevesebbet esznek" természetesen a jelenlegi 560-ast érintő felhozatalra értettem és nem általánosságban, hiszen abban a szövegkörnyezetben is volt leírva, minthogy a 7000-esken abban a szegmensben még nincs a piacon a Kepler megfelelője.
-
Löncsi
őstag
válasz
fatallerror #53 üzenetére
Jelenleg ez a legmegbízhatóbb felmérés.
Itthon a családban is az Intel-IGP hódít.
Abu85
Nem azt mondtad, hogy az IGP a jövő? -
Abu85
HÁZIGAZDA
Félreérted. Nálunk merült feledésbe, mert nem kaptunk tesztterméket, és nem is nagyon érdekelt minket, hogy leteszteljünk egy nagyobb órajelen üzemelő GTX 460-at.
Biztos, hogy egy olyan eredményre akarod alapozni a GTX 560 értékét, ahol az Intel HD Graphics 3000 a második.
Ez maximum azt mutatja, hogy a kasszáknál jól teljesített, de nem a teljesítménye adta el.
(#52) kokov: Értem, a mondandód lényegét, de ez egy üzleti stratégia. Amióta a VGA-piac esik össze azóta nagyon erős lett a marketing szerepe. Akár durvább formában is.
(#53) fatallerror: Összevonta korábban a steam az 560 és az 560 Ti statisztikáját.
-
kokov
tag
"nem szabad összekeverni az 560 Ti kártyával. Máig nagyon sokan megteszik."
Ami a legdurvább, hogy az 560Ti-ből van GF110 is és az jött ki asszem elsőnek ami pár shader-t leszámítva egy GTX570-es VGA, tudod a 448-as, persze annak elterjedt a teszttáblázata a neten és mivel akkor nem volt még más 560 csak annyit írtak a táblázatokba, hogy 560ti vagy még a "ti" is lemaradt és csak 560 szerepel.
A júzer persze megtalálja guglival, mert azóta sem szedték le, beájul, hogy "ú milyen erős az 560" aztán otthon meg nézeget, hogy ez mégse egy 570vagy a mégrosszabb, hogy be sem látja és nekiáll oltani mindenkit, hogy eeeez az 560 mindent visz, mindent aláz, űbergamer
-
Abu85
HÁZIGAZDA
Játékokban. A GeForce GTX 560 az lényegében egy GeForce GTX 460 v2 +100 MHz órajellel. Ezért nem teszteltük soha, mert nagy csendben jelent meg, és a gyártók sem küldözték jó szívvel a terméket, hiszen lassabb volt, mint a megcélzott HD 6850. Aztán végül feledésbe merült. Konkrétan sajtóanyagja sem volt. Egyszerűen csak megjelent kb. egy évvel ezelőtt. Ez a termék története. Agyon fontos, hogy nem szabad összekeverni az 560 Ti kártyával. Máig nagyon sokan megteszik. Emellett a termék specifikációi sincsenek kőbe vésve. Valaki csinált 950 MHz-es verziót is, közben a referencia 810 MHz. Ezeket persze nem 170 dollárért adják, hanem 210-ért. Jellemzően a tesztekre viszont gyárilag tuningolt terméket küldtek.
Az AO az tipikusan nem olyan effekt, ami nem jól általánosítható a játékokban. Az NVIDIA nem véletlenül köti ezt játékokhoz, mert sokszor nagyon csúnya dolgokra képes. Konkrétan ahhoz a pár játékhoz külön profil van írva, amit hónapokig tesztelnek, hogy ne legyen grafikai anomália. Ezeket ki kell szűrni, mert az AO működése nem olyan, hogy azt minden program csak úgy támogatni fogja jó minőséggel.
Manapság, amikor nem kapni Full HD-snél kisebb natív felbontású monitort, nincs olyan, hogy 1680x1050-re szabott gémer kártya. Egyszerűen Full HD-ben teljesíteni kell. Ez minimum elvárás.
A Fermi a legkevésbé volt gémer architektúra. A skálázhatósága is csapnivaló volt. A Kepler már más. Az tényleg eléggé gémer irányt vett, amiért az NV beáldozta a GPGPU-s sebességet. A Kepler skálázhatósága is elég jó, bár ez várható volt, hiszen a Tegra igényei is számítottak.
A kevesebbet esznek általánosítás sem jó. A Keplernél nem ehet kevesebbet, mert az AMD GCN architektúra sokkal komplexebb. Az, hogy a Tahitiben négyszer annyi regiszterterület van, mint a GK104-ben, eléggé rányomja a bélyeget a fogyasztásra. Cserébe persze a context switch sebessége sem egy kategória.
Maradjunk annyiban, hogy a Fermi volt nagyon zabagép, de ez az architektúra jellegéből adódott. Általánosítani ezt viszont nem szabad. -
eight
senior tag
Hol lenne már gyorsabb az 560-nál?
A PhysX már tényleg nevetséges egy kicsit, de oda ahová végül is berimánkodta az NV elég jól sült el (Batman, Maffia, stb). AO meg elég sok játékban bekapcsolható saját felelőségre, csak hivatalosan nincs támogatva. Egyébként állítható a minősége (Inspectorban akár magasabbra is teheted mint a driverből) és 50-60 cuda mag már elég neki tehát az 560-on értelmes felbontásban belefér (prociból is többet kér), a vizuális külömbség meg egyszerűen ég és föld, még az olyan régi motoroknál is mint a Source, Unreal3, Gamebyro vagy az IW 3.0.
Az 560 az 1680x1050-hez való gamer kártya, és azt a felbontást tökéletesen ki is szolgálja AO-val vagy nélküle.A csúcs kártyák FullHD-ra meg feljebb kellenek.
Nem vagyok Nvidia rajongó, a legendák meg nem érdekelnek, de szerintem most a Fermi meg különösen a Kepler a jobb kártya gamer szempontból, de abban viszont igazat adok neked hogy az ár/érték versenyt az AMD nyeri
, Sokkal olcsóbbak és kevesebbet is esznek, csak hát az nem a teljes történet, csak egy két nagyon fontos szempont a sok közül.
-
Abu85
HÁZIGAZDA
Legyen, de ettől még mindig drágább, mint a gyorsabb HD 6850. A drivert nem biztos, hogy érdemes felhozni, amikor máig panasz van erre. [link] A legendák korát pedig már kinőttük.
Az Ambient Occlusion és a PhysX nagyon kevés játékban működik, és a sebességet is nagyon lezabálja mindkettő. Ahol értékesek ezek azok a csúcskártyák. Az Ambient Occlusion ráadásul driveres megoldás. Sokszor nagyon rossz a minősége. -
fatallerror
addikt
örülnek ha az év végéig kitudják adni az összes kártyájukat, vicc
nem tudom h lesz itt hd8000es meg gtx 700as idén, annyit csúsztak h szerintem átállnak a tavaszi frissítésre bár mintha az amd-nél elkészültek volna időben magukkal a kártyákkal csak a tsmc miatt csúsztak ők is tehát lehet h készen lesznek az újak év végére és már lesz kapacitás és megjelennek a megszokott időben az új kártyák
-
Abu85
HÁZIGAZDA
Nem marad. Ott a GK107 mint alternatíva, csak nincs meg a gyártókapacitás.
(#41) RECSKA: Sansza nincs a régi generációnak az újjal szemben. A GTX 560 pedig egy 180-210 dolláros termék. Köze nincs a 100-150 dolláros kategóriához. Ide a GTX 560 SE van, de az lassabb és drágább mint a Radeon HD 7770. Az SE az sosem jó jel.
-
válasz
PC-rev-RM #36 üzenetére
így van.
256bit drága mulatság. 384 mégdrágább lett volna, ezért is lett a 680 256-os. Bőven elég ez is...
Alsó-Középkategóriába elég lesz a 128, mint a 7770 esetében is. Sajnos kicsit eltolódtak a határok, mert biztos sokan vagyunk, akiknek egy 80eFt-os videókártya már nem középkategória... -
100$-150$-os kategóriában már nem terveznek új kártyákat?
-
márpedig épp ezzel tudják a sávszélességet olcsón növelni. olcsóbb ( és egyszerűbb ) gyors DDR5-öt rakni a kártyára, mint mondjuk 256bitesre megtervezni. Különben is, ezek a 5-6GHz-en járó DDR5-ök, 128biten is kellően nagy sávszélességet nyújtanak pl egy GTX460 körüli GPU teljesítmény kiszolgálására. De jön majd Abu, és ha akarja, megindokolja, miért...
Nézd a HD7770-et. Nekem volt otthon, és fullHD-ben sem lassabb egy HD6850-nél. Pedig az 256bites... Sőt, DX11-ben Tesszellállásal kb.15%-al gyorsabb!!!
-
fatallerror
addikt
a 7850 ellen meg ami jön arról mi "info" van? legutóbb amit olvastam h 192 bites 1,5 gb vram lesz
-
Abu85
HÁZIGAZDA
Az AMD a ROP szervezésével és a memóriavezérlőben eléggé máshogy dolgozik. A GCN ROP blokkjai az L2 gyorsítótár partícióihoz kötődnek és nem a memóriavezérlőhöz. Ilyen módon jóval egyszerűbb kiegyensúlyozott GPU-kat fejleszteni. Az NV hasonló fejlesztéseket még nem vetett be. Ők a rasztermotort is sok részre szeletelik, és a ROP is a memóriapartíciók része. Ez a fejlesztések szempontjából kötöttebb helyzet, mert a 192 bites memóriabusz 24 blendinget eredményez, ami nincs összhangban a 16 pixelt feldolgozó rasztermotor összteljesítményével. Ezek bonyolult kérdések. Meg lehet persze csinálni, de akkor a rendszerben csinálsz egy szűk keresztmetszetet is. Azt azért az AMD-nél is láthatod, hogy a 384 bites busz ellenére nem raktak 32 blendingnél többet a Tahitibe, mert a két raszter motorjuk ennyit bír etetni.
Most egyszerűbb a memória órajelével játszani. Azért manapság 5 GHz-es effektív órajel nem téma. De lehet 5,5 GHz is. 6 GHz az talán sok, mert sokat fogyaszt, de az is megoldható.
Ugorj HD 7850-re. Az elég jó fejlesztés. Esetleg várjál egy HD 7830-at. Az AMD csak azért nem dobta még be, mert nincs rá szükség. -
.mf
veterán
128 és 256 között azért még a 192 is ott van, ami azért csak másfélszerese a 128-nak -- most már az AMD is használ nem tisztán 2 hatványút, a 79xx 384 bites, tehát akár 192-es is lehetne a termékpalettán.
Jelenleg egy 4890-esem van, azután a 640 ill. 77xx szerintem nem lesz egy olyan hű de nagy ugrás, főleg, hogy idővel nagyobb felbontású monitort is szeretnék. -
Shing
őstag
Vajon mikor lesz kapható Mo-n?
-
Iomega
addikt
Azt tudom, hogy van. Én a Lenovo Y580-ra várok, kíváncsi vagyok, hogy abban miként fog muzsikálni.
#1 Blindmouse:[link]
"Organized by TAITRA and TCA, COMPUTEX 2012 will lasts from 5 Jun 2012 to 9 Jun 2012. Every year there are lots professional visitors attending COMPUTEX 2012 in Taipei Taiwan (China), so, it is the best practices for capturing sales leads from this Computer Hardware & Software trade shows.Read to get latest updated information about COMPUTEX 2012,asus computex 2012,computex fair in taiwan june 2012 now."
-
atti_2010
nagyúr
válasz
Blindmouse #1 üzenetére
Az ég szerelmére beírod a Gógliba hogy Computex 2012 és meg is van, még különböző infókat is lehet olvasgatni ha érdekel.
-
eight
senior tag
Nem tudom megmagyarázni hogy miért (és a logika is ellene szólt), de én valahogy arra számítottam hogy kavarnak egy kicsit az áramkörökön a mester urak, és kihozzák az egészet 100-110W környékére.
-
icon
senior tag
Szerintem le kéne már szokni a középkategóriában a 128 bitről... ha régebben ment a 8800GT-nél és utódainál, most sem kéne akkora problémának lennie.
-
M@trixfan
addikt
Na végre valami hír a GTX 660-ról! Meg kéne újúlni játék fronton, de nem vagyok hajlandó ebben az átmeneti korban 150 ezreket kiadni egy VGA kártyáért. Lehet nem várok semmire és veszek inkább egy 7850-et, a PhysX miatt lenne esetleg jó a Geforce néhány játékban.
-
Iomega
addikt
Reméljük, hogy a laptopokba kerülő GTX 660-as is szépen teszi majd a dolgát.
-
Abu85
HÁZIGAZDA
120-150 dollárba biztos nem jön olyan, ami 256 bites memóriabuszt használ. 128 bit max, ami belefér. A régi termékeket ne nézd. Ez a VGA-piac más, mint volt másfél éve. Most jelentősen kevesebb a vásárló, és az új gyártástechnológiák is jóval drágábbak.
Egyébként, ami te vársz az a GK107. Mobilban már van, de nagyon kevés. Valszeg GeForce GT 640 néven lesz asztali termékként is, majd valamikor ősszel. 384 CUDA magja lesz és 128 bites memóriabusza. A Radeon HD 7700 ellen lesz. -
[CS]Blade2
addikt
350$ a HD7870 a newegg-en, aminek teljesítményben a GTX570 és a GTX580 van a környékén, ha jól emlékszem. Valahol a kettő közé kell érkeznie. Ha csak 300$ környéke lesz, akkor elég a HD7850 és 7870 közé.
Lehet, hogy lesz 1152 cuda-s is (660ti), és 960 cuda-val egy sima 660 a HD7850 ellen.
.mf: Elég oda 128bit is, ha effektív 5-6Ghz-es ramokat pakolnak rá, mi is jobban járunk, mert az egyszerűbb nyák olcsóbb is.
-
baraksumoron
csendes tag
[link]
Computex :2012 június 5-9.
Tehát nincs messze. -
.mf
veterán
$300 (90kHUF), oké, de mikor jönnek végre épkézláb, nem felismerhetetlenségig szétcsonkolt és megnyomorított versenyzők is a $120-150 (35-45kHUF) kategóriába? Ez alatt elsősorban értem a nem 128-bites membuszt, mert fHD mellett és felett már kezd kevés lenni, és régebben is belefért ilyen árkategóriás kártyákba.
-
Tényleg kellett volna,hogy mikor lesz a computex,így kicsit bonyolultá vált a hír megértése számomra.
Remélem,hogy annyira nem lesz elcseszve ez a kari,és lesz legalább akkora hírneve és tábora,mint a 680-nak lett.Vagy nagyobb. -
Ł-IceRocK-Ł
veterán
Na erre kíváncsi leszek
-
Tibor_560sec
aktív tag
Siessetek ... meddig várjunk még ...
-
walkmanboy
tag
Bár úgy lenne !
-
tombar
senior tag
na csak nyugodtan behozhatják 300 della alá.
vmi adat h a 800as széria mennyire fogyott, így h nem volt ellenfél?
tesztpéldányok csurrannak cseppennek, vagy tényleg nem tud senki semmit? -
Bukmop
tag
Kepler miatt a cuda magok száma megugrott idén, de mivel a 600as széria váltja az 500ast, így a x60as kártyák egymás előd/utód modelljei, nem?!
Igaz az átnevezéssel sikerült nagyon megkeverni a szálakat az Nvidiának! (gondolom nem akartak lemaradni a fejlesztésben, de mivel most a keplerekre öszpontosítanak, így kihasználták az átnevezésből fakadó hype előnyt.=olcsó "új" kártyák)
Úgy várom már mint a Messiást ezt a kártyát, csak aztán nehogy csalódás legyen a vége (pl. csak 192bit, aránytalan ár - eleinte mondjuk biztos az lesz-, na meg a késés! csak az ne legyen!)
-
dahneey
tag
kíváncsi vagyok mennyi lesz a teljesítménykülönbség gtx660 meg gtx670 között. szerintem a memória vagy 192bites lesz azonos órajelen vagy 256os alacsonyabban. ha meghagynák az eredeti állapotban akkor megint csak maguk alatt vágnák a fát.
gondolom a gtx/gts650hez már menni fog egy gk106
-
Solten
őstag
válasz
Blindmouse #1 üzenetére
Június 5 - 9.
-
brian1987
tag
Na végre, remélem h az ár cédulák egyre lejeb mennek a nagy harcban.
Csak így tovább. -
LiPi006
tag
na ez majd rendezi a vga piacot!
-
-
vanye
senior tag
A számozás kissé félrevezető. Ennyi CUDA-maggal ez már nem a GTX 560/560Ti közvetlen utódja lesz, az is biztos.
-
Blindmouse
senior tag
Oké. De a computex mikor lesz?
Új hozzászólás Aktív témák
- Okos Otthon / Smart Home
- Milyen széket vegyek?
- Apple asztali gépek
- Samsung Galaxy A54 - türelemjáték
- sziku69: Fűzzük össze a szavakat :)
- Apple Watch Sport - ez is csak egy okosóra
- Vezetékes FÜLhallgatók
- Formula-1
- Egyéni arckép 1. lépés: ARCKÉPHEZ VALÓ JOGOSULTSÁG
- HiFi műszaki szemmel - sztereó hangrendszerek
- További aktív témák...
- ÁRCSÖKKENTÉS MSI Z77 MPOWER Alaplap eladó
- BESZÁMÍTÁS! ASUS H87I-PLUS H87 chipset alaplap garanciával hibátlan működéssel
- Windows 10 / 11 Pro Retail aktiváló kulcs Azonnal szállítással, számlával, garanciával!
- Vállalom Xiaomi Okoskamerák szoftveres javíttását
- Samsung Odyssey G5 S27CG554EU 27 QHD 165Hz Ívelt Gaming Monitor 6 hó garancia Házhozszállítás
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest