Új hozzászólás Aktív témák
-
daneeeeee
aktív tag
A Eurogamer-nek 3 napja jelent meg cikke a gtx 960-ról [link]
A cikkben összehasonlító videók is vannak illetve a frame time-ot is mérték. A méréseik alapján az R9 280-nak nem származik előnye a 3Gb Vram-ból, mondjuk a 285-höz vagy a gtx 960-hoz képest (amik ugye 2Gb-osak) még 1440p-ben sem.
A tesztelt játékok pedig maximális vagy ahhoz közeli beállításon futottak.Szóval szerintem 2 Gb mondjuk 1080p-ben még ha nem is bőven de elég.
-
Loha
veterán
Kb. minden játékban benne van, és még jó ideig benne is lesz a 2GB-os kártyákhoz passzoló textúra beállítás.
Ja, hogy az nem a maximum beállítás? Csúcskártya még a 680?
Egyébként 4GB RAMmal vinne mindent maxon 60fps körül?
3GB VRAM mindenre elég? 
Mondjak mindkét gyártótól egy olyan friss kártyát ami kb. 680 teljesítményszint és 1080p-re szánták őket 2GB RAMmal?560$ a nyitó ára volt a 4GB-os 680-nak, miközben a 3GB-os 7970 GHz 500$ volt, és akkor még sehol nem volt a 780.
-
Loha
veterán
Keplerből is csak a kicsikkel voltak fenntartásaim. El is avultak végül a 7970 vetélytársuk mögül a 680-ak, igaz, nem a Fermihez képesti butítások, hanem végül a 2GB ram miatt, de a végkifejleten nem sokat változtat.
TPU friss tesztje szerint a 680 1080p-ben pont úgy teljesít mint a sima 7970, a 770 pedig mint a 7970 GHz, szóval pont ott vannak most is ahova anno szánta őket az NV.
-
sajna nem emlékszem pontosan, mennyi volt a 4GB-os 680, de az rémlik, hogy annyival volt drágább, mint a 7970

haaaaalt!
senki nem beszélt a Tonga GPU-ról, az R9-285-ről van szó. ha építenek a Tongára egy fasza 370-est, akkor örülünk. de attól a 285 még az marad, ami.(#2941) Laja333: nincs elképzelésed, hogy mi fog történni, csak hajtogatod, hogy szerinted nem. gondolom azért, mert az iparági tudásod nem túl erős. ez nem baj, csak akkor nem kéne ilyen stílusban...
amúgy az indoklásom roppant egyszerű - a 380-at várom a 970 játszópajtásának, és az determinálja a többit is:
370: ~200 USD
370X: ~250 USD
380: 300-350 USD
380X: 400+ USD -
El is avultak végül a 7970 vetélytársuk mögül a 680-ak, igaz, nem a Fermihez képesti butítások, hanem végül a 2GB ram miatt, de a végkifejleten nem sokat változtat.
néhány konkrét sarokesetben ez valóban jogos
bár aki ezen aggódott, az tudott 4GB-os 680-at venni.de azért ha ránézel a két cuccra, meg a specifikációkra, azért na...
durvának tűnik a különbség a unitok száma alapján, viszont nézz rá az órajelekre is - mindkét domainban közel 30% (!) a 960 előnye. az sem kicsit durva.
(#2938) Laja333: mondom - ne azt írd le, hogy miben kételkedsz, hanem hogy mit gondolsz... amúgy simán benne van a pakliban, hogy a 370 egy átnevezett Tonga lesz.
-
ha választhatnék a 960 és a 285 között, akkor mindkét cégnek azt üzenném, hogy 200 USD-ért dugják a seggükbe a csodálatos kreálmányukat

nem azonosítalak senkivel, ne vedd személyesnek a dolgot. egyszerűen csak arról van szó, hogy minden egyes generációnál előjön az elavulós kérdés. most éppen Te mondod ezt a Maxwellről, korábban más mondta a Keplerről / Fermiről / G9x-ről. eddig egyszer sem jött be
(#2934) Laja333: tessék konstruktívan érvelni - mondd meg, szerinted hová fogják pozícionálni - a "nem tudom, de nem oda, ahová te mondod" nem érvényes válasz

-
kb. 7 éve megy ez az "nVidia hamar elavul" propaganda a pH!-n. ehhez képest:
- a 9600GT-m két év alatt nem lassult le a konkurenciához képest.
- a GTX460-am két év alatt nem lassult le a konkurenciához képest.
- a GTX660-am két év alatt nem lassult le a konkurenciához képest.nem vélsz felfedezni valamiféle mintát a fentiekben?

-
daveoff
veterán
És Te mégis honnan tudod, hogy a jövőben hogy fog teljesíteni egy Maxwell, vagy egy Hawaii? Honnan a fenéből tudod, hogy melyik fog jobban teljesíteni? Egyébként is, nekem nem olyan videokártya kell, ami majd egyszer lehet - vagy mégse, vagy igen, nem tudom - , hogy jobb lesz. Szerintem felső kategóriában mindenki olyan kártyát vesz, ami éppen a legmegfelelőbb az adott játékokhoz.
-
Egon
nagyúr
Én (nagyrészt) érvelek, ti személyeskedtek: elfogytak az érvek?

1. Daveoff kolléga hatodszor magyarázza a tesztet, nyilván véletlenül nem reagálsz rá. Benézted, ez van. "Csak úgy süt a hozzáértés..."

2. A kolléga jött az "AMD nem akar butítani" szöveggel. Ezzel egészen pontosan ki is jár jól? Hol is tudod kihasználni azt a bizonyos nagyobb tudást? Abban a három és fél Mantle-s játékban? Vagy vegyük hozzá a két és fél TressFX-et használó játékot is (bár ez utóbbi fut nV-n is)? Hogy is áll most az AMD ezzel az üzleptolitikával? Nem túl jól... (Érdekesség, hogy az Intel negyedéves eredményéről szóló hírt lehozta az itcafe, ellenben ha az AMD szócskára rákeresek, a negyedéves eredmények vonatkozásában csak a dicső múlt jön elő...).
3. A három megjelent nagyobb Maxwell 128 illetve 256 bites is tartja a lépést (sőt) a konkurenciával. A kollégának persze hogy nem hiányzik egy 128/256bites Hawaii: gondolom a hideg is kirázta a gondolattól, hogy mennyire véreznének el az ilyen megoldások a Maxwellek ellen...
Ami pedig a jövőt illeti: nem először fordulna elő, hogy mire a többlet tudást kiahsználó programok özönleni kezdenek, és/vagy bizonyos szűk keresztmetszetek problémákat okoznának, már a konkurencia megoldásai is elvéreznek, mert mondjuk több kraft kellene az adott (X év múlvaa megjelenő) játékokhoz...Summa summarum: a tények makacs dolgok, ha tetszenek ha nem.
Szerk.: azért azon is érdemes lenne elgondolkodni, hogy ha egyszer (Abu szerint legalábbis...
) vagy száz cég érdeklődik a Mantle iránt, és tutibiztos abban fog fejleszteni, akkor miképp lehetséges, hogy lassan másfél évvel a megjelenés után, még mindig kb. egy kézen meg lehet számolni a Mantle-s játékokat???
No mindegy, részemről a vitát lezártam. Ahogy fentebb írták, nincs értelme. -
daveoff
veterán
Várjunk, igaza van, vagy nincs igaza? Persze, hogy igaza van! Számít bármit is a 256bit, vagy a szerintetek lebutított GPU........kurvára nem, mert még így is határozottan gyorsabb mindennél. Számít valamit a fogyasztás.......nagyon is, sokkal hűvösebb, hatékonyabb működést eredményez, mindamellett, hogy kevesebbet fogyaszt! Szerintem ez nem trollkodás, ezek a tények.
És akkor kilyukadtunk megint egy olyan témához, amit nincs értelme folytatni......
-
Egon
nagyúr
Mellesleg egy pillanatig se zavarjon, hogy az általad csupa nagybetűvel, vastagon, aláhúzva írt, azaz minden lehetséges módon kiemelt megállapítás, mindössze 0,5 SZÁZALÉKOS azaz FÉL SZÁZALÉKOS, ismétlem 0,5 AZAZ FÉL SZÁZALÉKOS eltérésre mutatott rá, aminél nagyobb különbségeket is mérési hibának vesz bárki a világon...

Még szerencse, hogy te maximálisan elfogulatlan vagy...
-
daveoff
veterán
Köszi a magyarázatot, hasznos volt......ja nem. A min/max fps pillanatnyi állapot az egész benchmark során, nem sok köze van az avg fps eredményhez, ezt Te is tudod, és akár lehet bugos is az egyik scene, hogy ennyire hasonló a min fps. Tudod, nekem 290x volt előtte, és ebben a tesztben nagyon határozott az előrelépés, arról meg inkább nem is beszélek, hogy mennyivel simábban fut le a bench, mint AMD-vel. Most nem általánosságokról beszélek, még mielőtt nekem estek, csakis kizárólag a Sniper Elite V2 benchről.
-
-
a játékélmény rovására felpumpált FPS-értékekről volt szó - ott is pontosan az volt a helyzet.
a "hardcore gamer" a témával kapcsolatban pedig idézet, nem tőlem származik
(#2781) Abu85: nem kell frame pacing, de a lassabb framerate ugyanúgy magasabb input laggal jár.
egyébként ennek sem itt, sem a frame pacing esetében nincs jelentősége, csak a reprezentációk közötti eltérésre mutattam rá. -
Abu85
HÁZIGAZDA
Nincs igazán köze ehhez az XDMA-nak. Annyiban segít, hogy sokkal könnyebben paraméterezhető a CF vele, mint a hidas megoldással. De amúgy erre is ugyanúgy meg kell írni a profilokat, tehát az alapprobléma megmarad. Azért vezette be az AMD ezt a rendszert, mert megnövekedett az az adatmennyiség, amit a két kártya között másolni kell, és arra már nem volt elég a hidas megoldás sávszélessége. Ezért annyira erős a CF 4K-ban. Szimplán megvan a sávszél a PCI Express kapcsolaton keresztül.
Az XDMA igazából azoknak a fejlesztőknek fontos, akik nem a driverre bízzák magukat a multi-GPU-nál, hanem írnak egy saját megoldást Mantle-ben. Az XDMA-val ezt sokkal egyszerűbb megtenni, mint a hagyományos hidas összeköttetéssel. -
-
odorgg
addikt
Bugokkal nekem sincs, a monitoros dolgot leszámítva, de az is inkább driver hiba. Persze nálam ezért, 10 perc után aludni megy a gép. Így az sem gond. De sokféle hibát olvasni, játékokkal kapcsolatban. Én csak pár gammel játszok, szóval a véleményem ezekre korlátozódik.
Lényeg az, hogy supportot a saját vásárlóinak nyújtson, mert lássuk be, van még mit javítani/optimalizálni.
(#2676) Laja333
Tudom én, hogy általában ott sincs kolbászból a kerítés. Épp azért van hol egyik, hol a másik gyártó terméke a gépemben

-
daveoff
veterán
Miért szerinted nem ez a normális, ha konkurenciáról van szó. Jó, tudom egyik sem normális, két végletről beszélünk, lepacsizni meg sosem fognak egymással.
De ez szerintem nonszensz, hogy megveszek egy AMD kártyát, és az AMD-s játék bugosabb, és lassabb rajta, mint a konkurencia hasonló teljesítményű kártyáin. Nincs igazam? -
#Morcosmedve
veterán
-
nem vitatom a potenciális előnyöket, viszont jelentős kockázatot hordoz egy ilyen technológia bevezetése - várhatóan az első ráépülő termékek igen sokba fognak fájni gyártáskor, + csúszások. én most az AMD helyében mielőbb kidobnék egy 380X-et, ami gyorsabb a 980-nál, és a flagshipben kísérletezgetnék a memóriával - ha egyáltalán 2015-ben.
(#2621) Malibutomi: nem feltétlen áll vissza. a 970/980 egy elég érdekes piaci húzás miatt volt ennyire zajos siker - remélem, az AMD is képes egy ilyenre, de egyáltalán nem vagyok benne biztos.
(#2623) Habugi: passz, nem szoktam ennyire belemászni a számokba. annyit tudok mondani, hogy a meglódulások nem igazán kötődnek a csúcskártyákhoz, ha valaki meg tudja lepni a piacot (jó irányban - nem a Titan Z-re gondolok
), akkor el tud csaklizni pár %-ot az ellenségtől. -
És ha tényleg ilyen idilli állapotokat teremtene a HBM, akkor gondolod, hogy az nvidia nem ülne fel ugyanígy a vonatra? Ez a HBM megint egy olyannak néz ki, mint az AMD megannyi űrtechnológiája, ami papíron még szuperül fest, de aztán a gyakorlat mégsem jön össze... De bár ne így lenne ezúttal is.
-
daveoff
veterán
Na újra itt vagyok, és akkor itt a kért videó, lehet elemezni, erősebb rántásoknál van egy kis lag, de csak kilassítva látszik, szabad szemmel esélytelen meglátni.
BF4 multi 720p@60fps fájlmegosztón (szerintem még ez sem az igazi elemzésre)
[link]Jöhet egy ilyen Mantle-el is....valakitől.

-
messi6502
tag
Igen, akkor jól értettem.
Nvidia a magas fps-sel kompenzál, az amd meg az apival.
Csak míg az amd megoldása jó a 260x-re is pl, addig a gtx 760 nem éri el a 100 fps-t, ezáltal elméletileg ott feltűnőbb jelenség lehet, mint a vele egyszintű versenytárson.
Nekem az amd megoldása így szimpatikusabbnak tűnik, meg a fejlesztőknek is ha minden igaz.
Valamivel tartósabb lehet az amd kártya az idő múlásával, mert hiába csökken lassan az fps az újabbnál újabb játékoknál, ha mégis simának tűnik a játék, addig a user nem érzi úgy, hogy cserélnie kellene. (Főleg az 1bites user, aki nem is tudja mi az az fps, csak, hogy laggol-e vagy sem.)daveoff: Szerintem az amd nemigazán fektetett bele annyi időt és pénzt a dx11 implementációba, mint az nvidia.
Egyrészt a mantlet is le kellett programozni, másrészt nem is terveznek már vele hosszú távon. -
19:09 - Ami az AMD-s DX implementációt illeti, nem hinném, hogy drasztikusan rosszabb lenne, ha pedig mégis, akkor nyilván már rég kiszaglászták volna, az Nv-é miért jobb, és megcsinálták volna ők is....
20:54 - AMD DX-szel ott különösen rossz a helyzet a Shanghai mapon, a torony ledőlése után
hmmmmm...
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
daveoff
veterán
Ezen nem látni, hogy mikor nyomom meg ténylegesen a gombot, és mikor jelenik meg a torkolattűz, meg Abu szerint különben sem ér semmit az egész, úgyhogy ebből ne is számolgass semmit szerintem. A lényeg, hogy szabad szemmel nem látható a lag, a különbség a mantle-hez képest meg mégúgy sem, ezen nincs mit szépíteni.
Na, akkor ha végre sikerült ezen a lag kérdésen túllépni, akkor erre adjon valaki választ....
[link] -
#1: igen, ha nem egyformák az FPS-ek, akkor külön kell számolni.
azt szívesen megnézem, amikor egy vakteszten különbséget teszel 49ms és 83ms input lag között
#3: nem tudom, ez mennyi lehet, de nem hiszem, hogy a frame delivery idejével azonos síkon mozog.
Bármi miatt is érzékelhető a különbség, van. Márpedig ha a DX okozza, nem is a prerenderer, akkor ott az Nv-k is érintettek, nem csak az AMD-k szvsz.
ha az AMD DX-implementációja okozza, akkor az nV-k nem érintettek...
-
három lehetséges kimenetele van a mérésnek:
1. nVidia oldalon az input lag (4 * 1000 / FPS ) mseccel nagyobb, mint AMD oldalon. ebben az esetben az látszik, hogy a megnövekedett input lag még nem lép át egy olyan mértéket, ami a játékosok többsége számára érzékelhető.
2. a két input lag között kisebb a különbség. ez esetben a Mantle-lel kapcsolatos információ fals.
3. a két input lag között nagyobb a különbség. ez esetben az nVidia még 5-nél is nagyobb prerenderrel dolgozik. ez kevéssé valószínű.pontot egyik kimenetel sem tenne a kérdés végére, bár valóban érdekes lenne látni.
(#2529) HSM: ha látod a különbséget az 1 és a 3 között, az sokkal valószínűbb, hogy a DX renderer valamilyen egyéb problémája miatt van, nem a prerender miatt.
-
nem a zöld szemüvegtől nem látják (ill. nem látjuk
), hanem attól, hogy nincs mit látni. csak a duma megy arról, hogy micsoda hűde dolgokra lennének képesek az AMD kártyák a Mantle API-val, de mindig van valami kifogás, hogy éppen most miért nem. vagy ha éppen most igen, akkor azt valami furcsa módon a másik oldalon is meg lehet valósítani. legyen olyan kedves az AMD, és tegyen már valamit le az asztalra, amivel az nVidia nem tud versenyezni... -
Abu85
HÁZIGAZDA
Ezek a dolgok nagyrészt kapcsolódnak a DX11 API-hoz.
A Capcom beszélt erről egy hete a Panta Rhei kapcsán, hogy az aktuális PC-s kódjukban ez a motor képkockákként 3 interakciót képes kezelni, miközben a PS4-en nem okoz gondot a 30 fizikai interakció sem. És ez nagyrészt a DX11-re vezethető vissza. Hiába nincs köze az API-nak a fizikai motorhoz a Panta Rhei PC-s portjában le kell butítani a fizikát, mert túl sok az API többletterhelése. Az AI-t is ezért kell butítaniuk PC-re.
Masaru Ijuin azt is mondta, hogy PC-n, DX11-ben nagyon korlátozott a gyakorlatban is hozzáférhető processzorteljesítmény. Hiába terjedtek el a 100+ GFLOPS-os procik, DX11-ben nincs mód a teljesítményük kinyerésére. -
nyilván időzítésbeli okai vannak, de nem feltétlen jelenti azt, hogy sehol nincsenek vele. ha úgy érzik a HPC piacon, hogy most kell az erősebb cucc, akkor nem fognak vele 2-3 hónapot sem várni. a legrosszabb, ami történhet, hogy a vevő 6 hónap múlva upgrade-el a Maxwell alapúra

-
daveoff
veterán
Már miért ne lenne jobb, ha 290@DX-el játszhatatlan, GPU kihasználtság durván ingadozik, FPS droppok, a 980@DX-el ugyanazon a helyen 2x annyi FPS, és a GPU kihasználtság kiszögezve 100%-ra. Ugyanazon konfig, ugyanazon beállítások, csak a kártya más. Akkor ez mi? Ezt mondja meg nekem valaki....
Én ebből csak arra tudok következtetni, hogy az NV driverből megoldja azt, amihez az AMD-nek Mantle kell.
[link] -
daveoff
veterán
Na akkor ezt a 3 vs 5 képkocka preender elméletet követve........Ha az 5 képkocka preender ennyire jó, mert jó, és a 3 nem jó, mert nem az, akkor az AMD miért a 3-at használja? Egyébként ha Abu ezt a félmondatot nem ejti el, akkor szerintem Te sem hoznád fel érvként ezt...

Én úgy gondolom, hogy a DX 12 lesz a Mantle halálos ítélete, legalábbis a jelenlegi állás szerint én közel sem látok akkora jövőt előtte, mint amekkorát az AMD jósol neki...
(#2450) HSM : Nekem meg 3770k megy 4,7GHz-en, meg 4x4GB 2133MHz CL9 RAM, szerintem nálam se beszélhetünk CPU-limitről, mert nincs is, CSAK akkor ha AMD-t használok DX-el......érdekes, nem?
-
HSM
félisten
Lejárt a szerkesztési idő... 4*4GB ram, természetesen. A procit nem is nagyon láttam 100%-on, a maximum 90% körül volt, az átlag 80 körül, 64 fős pályákon, mindig megsasoltam a HWiNFO-t a játék végén.

Ez pl. egy BF4 alatti mérés a CPU-ra, a diagrammon a legeslegvége kivételével éles játék van: [link]
Felül látszik a GPU-usage-nél, meddig.
-
daveoff
veterán
Volt nekem ASUS 290 DC2, és MSI 290X Lightning is, azokkal sem volt jobb. Egyébként ott kezdődött, hogy eleve egy szenvedés volt a Mantle megjelenése, folyamatosan csúszott a megfelelő driver, és a BF4 patch, aztán nagy nehezen elérhetővé vált, és gyönyörű szépen laggolt vele a játék, nem kicsit. Nem is használtam sokáig, mert teljesítményben amúgy sem volt nagy ugrás. Aztán később elkezdtem használni, mert megszűntek vele a problémák, és egy ref 290 került hozzám, annál már számított minden egyes plusz FPS. Na a 290-el volt az, hogy egy proci igényesebb pályán komoly különbség volt DXvsMantle között. Viszont a játék direktségében nem volt különbség, szerintem csak akkor ér valamit, ha gyengébb proci van alatta. És itt jön az, hogy az NV meg tudja csinálni driverből, hogy DX alatt is satbil, és direkt legyen a játék, még procilimites helyzetekben is, nekik miért nem kell a Mantle, hogy jól menjen a játék?
-
Casanova*
veterán
hát,de nem? még az amd-sek is megmondták,hogy nagyon melegednek.
mi meg azt nem értjük,hogy neked minden amd kártya tökéletesen működik. nem melegszik,nem fogyaszt sokat,nem hangos,príma a driver,stb... ha neked amd kártyával tökéletesen fut és stabil 91 fpssel az advance warfare játék. adok neked 1 millát. 
-
daveoff
veterán
Hát elárulom neked, hogy a BF4 nekem a 980-al még közvetlenebbnek tűnik, mint a Mantle-el volt.
Folyamatosan javul a statom mióta NV-m van, valami köze csak lehet hozzá. Na ezt az 5vs1 képkocka preendert ne kezdjük el megint...
NV-vel sokkal stabilabb a játék nálam, és a 980-al komoly teljesítménybeli előrelépés történt 290x@Mantle-hoz képest, mindez egy kifejezetten AMD-s játékban, és nem győzöm hangsúlyozni, hogy ez saját tapasztalat, nem mindenféle találgatás!
Na engem ez dühít, hogy az AMD nagy ígéretéből én ennyit kaptam......egy nagy semmit. -
Abu85
HÁZIGAZDA
A shader átírás nem egyedi dolog. Mindenki csinálja. Az AMD is szokta, ahogy az Intel is. A képminőséget ez nem befolyásolja, mert csak optimalizálás történik. Az NV azért csinálja sűrűbben, mert kevés regisztert építenek a hardvereikbe, így mindenképpen optimalizálni kell az übershadereket, hogy elég regiszter legyen.
Semmi gond, ha egy patch javít a shaderen. Ettől a driver még lecserélheti továbbra is. Ha nem kell, akkor egy új driverben kikapcsolják a cserét.A fogyasztásra gyúrnak, így meg kell hozni az áldozatokat a működésben. Mivel ez csak a DX11-et érinti ennyire durva eredménnyel, ami amúgy is elavult, így ez bevállalható.
Igazából terjed a GameWorks, csak nem ott ahol szeretnék, hogy terjedjen. A legtöbb top stúdió elzárkózik előle, ami érthető, hiszen évekig küzdöttek azért, hogy kiirtsák a rendszerből a fekete dobozokat, erre az NV hoz nekik egy fekete dobozt az új rendszerekhez.
-
annyi ROP-ja van a 770-nek is
viszont a Radeonoknál a blending egy csomó adattípuson fullspeed, nVidián meg csak INT8 mellett, a többi esetben halfspeed.
az AA nélküli eredményben a high end kártyák platform-limitesek (vagy a játékban van FPS-limit), azt nem érdemes nézni - a 780Ti ugyanúgy "elhullik", mint a többi. -
edari
őstag
Zerocore nekem is, páromnak is rossz. És még sok mindenkinek. Sajnos.
Nekem meg a HDMI soha nem csinált még galibát
Többlet szolgáltatás pl.: Shadowplay. Igaz, aki ezt nem használja, annak ez is fölösleges mint procikban az igp dvga mellett.
Bocsánat, rosszul fogalmaztam: Nem frissít magától, csak ha van új, akkor szól. Eldönthetem hogy akarom-e telepíteni, vagy nem.
Hubba12: Azt hiszem a legjobban a tuning potenciál fog tetszeni benne.
-
Abu85
HÁZIGAZDA
Inkább úgy mondanám, hogy hasonló számban nincs jelen. Nagyon tipikus dolog lett önmagában már a fekete képernyő miatt is a GPU-t hibáztatni. Mi mástól lehetne, hiszen arra van kötve a monitor ... de nem?

A garanciára BS-sel visszaküldött kártyák zöme ebből a téves alapból születik meg, mert a szerviznél ugyan nem jön elő, de nyilván a user mondhatja, hogy rossz és ragaszkodik ahhoz, hogy ezt megvizsgálják. Ilyenkor megy a gyártóhoz. Sokáig tart, de teljesen normális és jogilag indokolt ügyintézés ez. A gyártó meg vagy visszaküldi, vagy utasítást ad, hogy cseréljék ki, és az amúgy jó kártyákra raknak egy új sorozatszámot és megy újra a piacra. Utóbbi szimplán kedvezőbb, mert egyszerűbb és olcsóbb nem visszaküldeni a terméket. -
Abu85
HÁZIGAZDA
Pontosan. Eleve a gyártók nem is tesztelik az ilyen hibákat kereskedelmi forgalomban kapható alaplappal. Van egy direkt erre kialakított tesztgépjük, amivel minden hardver összeférhetetlenségi gond kizárható, és csak arra koncentrálnak, hogy a VGA hibás-e. Egy mezei szerviznek ilyen berendezésre se pénze, se szakképzettsége.
-
the_mad
aktív tag
-
Attix82
addikt
A mikrolagg mástól lehet, amikor felrakom a windowst frissen + VGA drivert akkor mikrolaggokat látok én is, aztán ahogy rakom fel a programokat úgy az is megszűnik....tehát valami ütközés lehet valamivel és vár valamire abban a pillanatban. Csak még nem tudtam rájönni mi az ami megjavítja ezt a dolgot

Amúgy vaj simán fut az AMDn is a játék.
BF4 Mantle: meglepően nagyon simán fut a 290-el, a 280xel annyira nem jött be (állítólag arra még nem írták meg) . Viszont szükség is van rá, mivel valami korlátozás lehet DX alatt mert 290-sel is be be esett az FPS 48ra is akár (280Xnél is ), se a CPU se a GPU nem ment 100%on....
Bekapcsolod a Mantlet rögtön kisimul és az FPS se esik be

-
jani04
aktív tag
Szia.Nekem asus 7850 volt.Életemben annyit nem szívtam kártyával mint azzal.Mikrolagtól kezdve a driver hibákon át volt minden.Engem leginkább a mikrolag idegelt.Az öcsém nem veszi észre a laggot.Azt mondják nem mindenki érzékeny rá.Átadtam az öcsémnek a kártyát és vásároltam egyasus gtx 660 ti-t.Azóta ilyen gondom nem volt.Szóval annak ellenére,hogy vonzó árcédulája van nekem egy esetben lesz még egyszer amd kártya a gépemben.Ha az nvidia bedől.Akinek megfelel az amd vegyen azt.
-
SetCHOO.
aktív tag
Igen, a pénz és az igények az nagyúr!
Egy átlag pc-s felhasználónak tartom magam és ebből a szempontból nézve nekem a R9 270x jön ki jobban. FullHD-ban pl nekem nem igényem az élsimítás. Azon a felbontásom nekem szépnek tűnnek az élek. (ízlések és pofonok)
A lóvé az meg olyan, hogy ha lenne, se lenne elég. Szóval középkategóriában 50e egy VGA-ra számomra bőven jó!(Jobban vennék én is egy R9 280-at, de akkor a nyári dugi bulizós pénzemet ölném bele. Na azt már NEM!)

-
daneeeeee
aktív tag
Mások az igények (melyet nagy részben szab meg pénztárcánk mérete) így szerintem nem érdemes előhozakodni azzal, hogy mi mire elég illetve mire nem.
A 270X különben egy tisztességes teljesítményű kártya el lehet vele játszadozni fullHD-ben. Nem lehet majd mindent maxmax-ra állítani, ez igaz.
De szerintem kompromisszum mentes megoldás amúgy sem létezik. Használtam én is 7970-et (volt hogy kettőt is) és ott is volt kompromisszum.sethonore: Ha a teljesítményt nézzük a 760 jobb illetve mivel az gigabyte 3 év gari vonatkozik rá ellentétben a Sapphire 270X-el. A 4GB VRAM pedig tök felesleges egy ilyen kaliberű kártyánál csak a Mántlis-játékokban lehetne esetleg profitálni belőle, különben nem nagyon.
-
szasanyi
félisten
A billentyűzeted elkopott az előző - sztem fölösleges - díszkörökben, és láthatóan nem volt könnyű eljutni eddig a mondatig. De mivel annyira ismerlek már nem lepődtem meg, csak sztem még Zorel PH!órumtárs nem "beszélgetett" veled.
Beleolvasva a topikba, többnyire itt is ez megy: az enyém jobb... nem, az enyém... sztem pedig ez jobb... stb. 
Ezt csak azért írtam le, mert ha vki tényleg kíváncsi az miért nem korrekt, hiteles adatokra épülő összehasonlításokat tesz? Enélkül a topik címéhez hozzá kell ígyni, hogy ... oltogatós topik. Azonos teljesítménykategóriájú termékeket boti br árukkal, teljesítmény / teszt adatokat összehasonlítva ugye, mellőzve a fölösleges technoblablát és csak a látható valóságot értékelve tehát korrekt módon kell összehasonlítani. Azt itt hadd jegyzem meg, hogy a vörös oldal képviselőinek a zászlólengetéshez nem ártana kipróbálni azt a rondazöldet is.
Ti. a légből kapott, esetleg fals infókon és tesztadatokot alapuló vélemények nem érnek sokat, márpedig felhasználói tapasztalat nélkül (esetleg nem is elfogulatlanul) érvelvi vmi mellett és erről vitatkozni és/vagy győzködni bárkit...
Hozzáteszem, és vice versa érvényes! -
Zorel
senior tag
Értelek és ahogy írtam is csak a tapasztalatom osztottam meg, úgy ahogy most Te is. A lényeg, hogy ezekre nem kell egyből ugrani és lebaromságozni, mert ezek a tapasztalatok viszonylag szubjektívek. Örülök, hogy elégedett vagy és használd egészséggel jó sokáig!!

(#2065) daneeeeee: Ezt támogatom.
Leginkább a BF4 miatt, mivel elég erősen AMD-s játék kíváncsi lennék a különbségekre... -
Zorel
senior tag
Hihetetlen a fanatizmusod, de lehet, hogy csak én vagyok már öreg ezekhez. Ami a biztosítékodat illet félreértetted. Azt a kiinduló pontra értettem miszerint a kérdés az volt, hogy megéri a 780Ti?!. Mindenki tudja, hogy erősebb mint a 290x viszont az utóbbi olcsóbb nála, de ez igaz a házon belüli 780 vs 780Ti vagy a 290 vs 290x-re is. Ennek ellenére sokan a "kistestvért" választják, mert "beérik a kevesebbel is."
Visszatérve arra, hogy miben több. Rengeteg kártyám volt itt is ott is,de nem szeretnék senkit untatni ezzel, szóval csak röviden a nem olyan régről. Aki ismer itt tudja, hogy volt 7970 CF-em, majd single 7970-em is. CF első naptól fogva használhatatlan volt. Driver hiba, rengeteg microlag BF3-tól elkezdve mindenhol...Egy kártyával microlagok, illetve random driver összeomlások. Eladtam őket, 1 hétre amíg nem tudtam mit vegyek bekerült a gépbe egy single 7850. Az feltette az i-re a pontot, random BS még sokszor böngésző alatt is. Gar csere, a következőnél már csak pár óránként jelentkezett játékok alatt. Aztán vissza NV-re 670-re esett a választás. Stabil, erős, elégedett voltam vele, aztán jött hozzá a tesója SLI-be. Soha nem gondoltam volna, hogy annyira hibátlanul tud működni egy kétkártyás rendszer, CF után egy álom volt...Szóval nálam továbbra is fontos a megbízhatóság a gondtalan, micralag mentes játékélmény.

-
Abu85
HÁZIGAZDA
Valójában nem a hardverekkel volt a gond. Az API korlátozta a lehetőségeket. Később, ha elterjednek a modernebb API-k, akkor vissza lehet térni az eredeti koncepcióhoz. Esetleg next gen konzolokra meg lehetne csinálni az extrákat, de az UE4 fő terepe inkább az ultramobil piac lesz, tehát ennek rendelik alá a fejlesztéseket is. A licencelést is ennek megfelelően lőtték be.
Egyébként mindegyik nagy motorlicencelésre szakosodott cég a mobil irányba megy el. Egyszerűen a napnál is világosabb, hogy a nagy kiadók házon belül fejlesztik a motorokat. A megszokott területeken kvázi megszűnt a felvevőpiac. -
Abu85
HÁZIGAZDA
Meglehet érteni őket. Azért az nem jó dolog, ha hirtelen összeomlik a rendszer és sötét lesz a játék. [link] - itt van a különbség. Sajnos nem stabil az effekt, és hát láthatod, hogy ha leáll, akkor az fáj a színekre nézve.

A Sony csinálta meg egyedül az Voxel Cone Tracinget stabilan, valós időben. Az tényleg jól működik, persze ők nem az Octree-re mentek rá, hanem eleve a PRT-re. PS4-en ez lesz a brutáleffekt az érkező exkluzívokban. -
Abu85
HÁZIGAZDA
Elég sok a bugreport, szóval van benne programhiba. Majd idővel javítják.
Amúgy túl sok értelme nincs a tesztnek, mert az Elementalban olyan effektek és eljárások vannak, amik már nem alapértelmezettek a motorban. Azóta ezeket újakkal cserélték. SVOCT-vel lett volna értelme, de azt kivették sajnos. Látható, hogy visszaesett a minőség az eredeti videóhoz képest. -
Firestormhun
senior tag
Megauploados linkről töltöttem le, de szerintem mindenhová az került fel, mivel egy ember fordította le a demót editorból.
Nálam úgy megy Fraps-szel, hogy letöltöttem legújabb vcredist x64/ x86-ot és az órajelek beállítása után kilőttem MSI AB-t, mert a kettő együtt összeakadt.
(#2042)hpeter10: Abban a 780Ti-ben szerintem még van +150 MHz GPU oldaláról, legtöbb elmegy 1241/1254 körül.
-
daneeeeee
aktív tag
Ez a CoH2 tényleg nagyon érdekesen (a szó rosszabbik értelmében) lett megírva. Ennyit az AMD partnerségről

A beépített bench pedig szórja az eredményeket most legutóbb például min:38, avg: 50 dobott.
Mondjuk a feloldozáshoz ez is kevés, jó 20%-lemaradásban vagyok a Te rendszeredhez képest.
A többi eredmény szerintem okés, ott elégedett vagyok az FX-el."Kíváncsi leszek, ha valaki megméri FX-el, és 290-essel, neki mi fog kijönni" Igen, gyertek legyen minél több eredmény!
-
deadwing
addikt
Ebben a formában nem. Szerintem. Gondolj már bele, ez rengeteg kép... Első hszbe kéne beleírni, hogy kell a tesztet csinálni, kijelölni egy admint egy mailcímmel aki gyűjtené az adatokat, aztán ha már elég van, csinálni egy táblázatot ami x naponta frissítve lenne.
Van az a ph-s tuning táblázat, na olyasmi kéne nekünk is szerintem.
-
Még egyszer megkérdezem, röviden, velősen: hallottál ár 680 óta nv ref hűtést? Mert nem úgy tűnik.
Egyébként szép meg jó amiket leírtál, be nemtom mit akarsz elmagyarázni velük. Nekem a kis kockában is 1000rpm-es 12cm-es AP15-ök vannak, hangtalanul. Procira kis víz van, lazán elfér, szintén nincs hangja. A GPU fan meg olyan fordulatra megy amire akar... sose hangos. Ez a kábelrendezős sznobéria is azoknak lehet csak szempont, akinek mutogatós ablakos házuk van. Abban jól néz ki persze. Az enyém meg be van építve a szekrénybe, így a kutyát nem érdekli mi van belül

-
Ilyen megkötésekben az gondolkodik, aki még nem vágott bele...
Évek óta microATX kockában üzemel a gépem, alig van benne hely még a kábeleknek is, és csodák csodájára semmi gond. Amíg hagyományos hűtős kártyám volt, addig a winyok meg kb minden 5-10 fokkal is melegebb volt, mint mióta a hátra fújós 670FTW van. És egyáltalán nem hangos. Szal ideje átgondolni az AMD által kinevelt sztereotípiákat
Eszem ágában sincs többé hodály házat venni, aminek a fele üres.. minek. Persze ha 90 fokot okádó VGA-m lenne, akkor lehet hogy szükségszerű döntés lenne... -
maross
nagyúr
msigigabyte 480-amat nem lattam soha 94 fokon -
norb55
őstag
Én 80%-os ventivel 80fokon tartottam őket SLI-be. 800MHz-es GPU tuningal.

Első SLI-m, amivel nagyon megvoltam elégedve. Az volt a baja, hogy gyárilag lomhák voltak a ventilátorjai, későn kapcsoltak magasabb fordulatra. De a radeonnál, ha magasabb fordulatra kapcsolod, a szomszéd átszól,hogy nembír aludni.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Autós topik
- HiFi műszaki szemmel - sztereó hangrendszerek
- Amazfit Helio Strap – képernyőmentesen
- Azonnali fáradt gőzös kérdések órája
- Sorozatok
- Bambu Lab 3D nyomtatók
- Kormányok / autós szimulátorok topikja
- A fociról könnyedén, egy baráti társaságban
- Kertészet, mezőgazdaság topik
- Amlogic S905, S912 processzoros készülékek
- További aktív témák...
- Hp NVidia RTX 2070 Super 8Gb Videokártya - HP L84981-001
- Gainward Phoenix 3080 10G golden sample
- GigGigabyte RX 9070 XT Gaming OC Ice 16G (Bontatlan)
- MSI Radeon RX 6950 XT GAMING X 16GB DDR6 Videokártya! BeszámítOK
- PC bontás - Thermaltake ház, Fsp 650W, GIGYBYTE AB350M, AMD RYZEN 5 1600x, 16GB DDR4 3000, GTX 1080
- REFURBISHED - Lenovo ThinkPad 40AF Dock (DisplayLink)
- AKCIÓ! Asus ROG STRIX Z490-G Gaming WiFi alaplap garanciával hibátlan működéssel
- HP 24" IPS LED FULL HD monitor 24fh 4HZ37AA
- Eredeti Microsoft Windows 10 / 11 Pro OEM licenc Akciós áron! 64/32 bit Azonnali kézbesítéssel
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X 16/32/64GB RAM RX 7600 8GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Egyébként 4GB RAMmal vinne mindent maxon 60fps körül?

bár aki ezen aggódott, az tudott 4GB-os 680-at venni.
Ezzel szemben a Hawaii maga a tökély.....

Ami pedig a jövőt illeti: nem először fordulna elő, hogy mire a többlet tudást kiahsználó programok özönleni kezdenek, és/vagy bizonyos szűk keresztmetszetek problémákat okoznának, már a konkurencia megoldásai is elvéreznek, mert mondjuk több kraft kellene az adott (X év múlvaa megjelenő) játékokhoz...






Most jöhetnek a nagy tudományos magyarázatok.
Hozzáteszem, és vice versa érvényes!


