Új hozzászólás Aktív témák
-
Asszem, ez a post leginkább az utolsó mondatomra válasz - a hangulatkeltés a cél

Szakmai akkor lenne a dolog, ha 1-2 játék pár effektjével kimutatnád, hogy a Kepler ütemezőjére való rájátszás hogyan rombolja a teljesítményt. Ha ezt megtennéd, vagy legalább arra vennéd a fáradságot, hogy utánagondolsz egy kicsit, akkor rájönnél, hogy ez 5-15%-ot jelent FPS-ben, és azt is csak akkor, ha a shader-kapacitás a szűk keresztmetszet, ami számos újabb játékra eleve nem is igaz.
-
Továbbra is ott tartunk, hogy hónapokig teleszemeteltél számos topikot egy olyan állítással, amit nemhogy bizonyítani nem tudsz, de még példát sem tudsz mondani rá. Most, hogy ez a helyzet már nem fenntartható, próbálsz átaraszolni a GameWorks-ről a TWIMTBP-re, és hogy erről eltereld a figyelmet, megvádolsz engem, hogy egyetértek azzal, amit az nVidia csinál. Mondhatjuk, hogy ez vérlázító pofátlanság?

Egyébként a dolog pikantériáját az adja, hogy a TWIMTBP-vel kapcsolatban ezt az állítást én egy játékban kielemeztem, és az jött ki, hogy a játék szintjén 10-15% extra optimalizációt kapott a Maxwell (minden más architektúrához képest), a driver szintjén pedig 5-10%-ot (értelemszerűen a Keplerhez képest). Taplóság ez az nVidia részéről? Ezen számok alapján mindenki döntse el magának, én nem akarom senkire ráerőszakolni a saját véleményemet.
Lehet, hogy bennem van a hiba, de ezt a megközelítést lényegesen professzionálisabbnak tartom, mint a konkrétumok nélküli sátánozást meg a 128-bittel való dobálózást. Persze, ha a hangulatkeltés a cél, nem pedig az, hogy az emberek értsék, minek mi az oka, akkor nem szóltam
-
Á, réponse á lá politico
Ma már majdnem azt mondod, amit én eddig, és úgy teszel, mintha mindig ez lett volna a véleményed, és bónuszként cáfolsz valamit, amit nem is mondtam.
Viszont tekintettel arra, hogy most már kb. ugyanazt mondjuk, felesleges tovább csavarni a szavakat
Persze, mondtál példát. Arra, hogy az nVidia a Kepler visszafogására használja a GameWorks-t, hoztál példaként egy olyan játékot, ami nem GameWorks-ös. Én kérek elnézést, hogy belekötök

-
válasz
daveoff
#13057
üzenetére
Hogyne tesztelték volna, csak valószínűleg az utolsó fullos tesztkör után még belenyúltak valamibe, ami igényelt volna egy újabb teljes tesztet, amit idő és / vagy erőforrás hiányában nem csináltak meg, inkább optimisták voltak.
Ennyi ez a sztori, mindkét cég csinált már hülyeségeket, ennek is véget kellett volna érnie azzal, hogy megjelent a javítás.
-
A komplett overdrive modulról volt szó, ugyanis a hiba is oda kapcsolódott, nem konkrétan a tuninghoz. Fenntartom, hogy aki egy komplett szoftvermodult nem tesztel, az totálisan igénytelen és ostoba, és kizártnak tartom, hogy az AMD ennyire hülye legyen.
Egyébként nem szokásom, de ezekhez az állításokhoz most már kérek bizonyítékot, mert erősen az a gyanúm, hogy ez egy ugyanolyan légbőlkapott fantazmagória a részedről, mint hogy a GameWorksöt a Kepler kriplisítésére használja az nVidia (amire aztán nemrégiben nemhogy bizonyítékot, de még példát sem tudtál hozni).
-
Arra is mérget vehet bárki, hogy a tuningot a jövőben sem fogja senki ellenőrizni.
99% valószínűséggel elképzelhetetlennek tartom, hogy ez igaz legyen - van egy komplett modul a driverben, amit nem tesztelnek? Kizártnak tűnik. Ha mégis, akkor az AMD szoftveres csapata színvonalban alatta van a szomszéd sufniban munkálkodó Pista Bt-nek.
Ha erre tudsz valami bizonyítékot mutatni, akkor megígérhetem, hogy az életben többet nem veszek AMD VGA-t

-
A ventivezérlés is működik. Tuningnál nem működött, de azt senki sem ellenőrzi soha és sosem fogja, mert benne van az EULA-ban, hogy elfogadod a hiba lehetőségét.
Ne terjeszd már ezt a marhaságot itt is
Csúnyán elb***ta a driveres team, rettentően amatőr dolog volt. Mindenki számára világos, egyedül Te próbálod utolsó mohikánként megmagyarázni a bizonyítványt, ráadásul egy ilyen égbekiáltó hasbaakasztással. -
-
Ők már megoldották a GPUOpennel.
Máris április 1. lenne?
A GPUOpen egy nagyon aranyos kezdeményezés, ami rövid- és középtávon az égvilágon semmit nem fog megoldani. Ettől még értékelendő, nekem tetszik is, de a súlya nagyon csekély.Megoldást az nVidia kvázi-monopol helyzetének megszűnése hozna. Dear AMD, tessék már felbukkanni egy ütős középkategóriás VGA-val a 150-170 USD-s ársávban (vagy egy nagyon ütőssel 200 USD körül). Vagy felőlem lehet Intel is, bár jobb volna, ha a CPU-VGA síkon 3 értelmes gyártó mozogna folyamatosan.
Aztán a csúcson lehet reszelni az e-péniszt, hogy kinek nagyobb 2 FPS-sel 8K alatt... -
Mivel engem utoljára 18-20 éve érdekelt, hogy kimaxoljam a beállításokat (ill. akkor még a felbontást meg képernyő méretét
), ez a kérdéskör sokkal kevésbé izgat, mint itt sokakat. Ha a játék jó, akkor közel bármilyen vizuális kompromisszumra hajlandó vagyok. Ráadásul nálam art style >>> technológia.
A GW effektek kitűnő jelöltek arra, hogy az első körben repüljenek, úgyhogy ezekkel a minőségi problémákkal csak akkor találkozom, ha célzottan tesztelek
-
míg GE címek mind gyönyörűek és kellőképpen optimalizáltak
Ez azért elég költői túlzás, de valóban van nem kevés különbség a GE program javára. Ennek több oka is van, de miután játékosként ugyanannyit fizet az ember mindkét típusú játékként, ezek az okok értelemszerűen nem érdeklik.
sayinpety hozzászólásait én nagyon kedvelem, egy olyan aspektust mutat a VGA-k világáról, amit a szaksajtóból nem tudsz begyűjteni. Az, hogy fejlesztőként jobban szimpatizál az AMD-féle iránnyal, az teljesen természetes, egyenesen következik a két cég piacpolitikájának a különbségéből. A helyében már minden bizonnyal megtapostam volna pár nVidia kártyát

-
válasz
#85552128
#12877
üzenetére
Az aszinkron compute egy kitűnő ingyen sebességnyerési lehetőség - elméletben. Gyakorlatilag kell hozzá pár dolog:
- Stateless végrehajtási mód a VGA-n (ugye ekörül van gond a Maxwellben)
- Ütemező, ami komplex feladatcsomagok esetén is hatékonyan bepakolja az üres helyekre a compute feladatokat - anélkül, hogy a következő grafikai feladatokat hátráltatná
- Olyan szoftver, ami úgy "lövi el" a grafikai és compute programokat (itt már neccesnek érzem shaderről beszélni), hogy ténylegesen lehessen őket párhuzamosítani
- És végül, csak akkor van értelme az egésznek, ha a futási sebességben az ALU-limitáció dominánsAz 1. pontról van némi információ, a 2-esről nem tudunk semmit egyik gyártó esetében sem, a 3-asra és a 4-esre a válasz pedig az Oxide-nál van.
Szóval csak az látszik, ami szokott - új dolgokhoz hosszú tanulási folyamat tartozik. Ettől még az a-c lehet baromi jó.
-
válasz
#35434496
#12779
üzenetére
Nem értem, miért erőltetik ezt. Kit akarnak megtalálni ezzel a marketinggel, ki a célközönség? Ha egyáltalán találnak olyat, aki egyfelől tudja, mit jelentenek ezek a felbontások, másfelől meg nincs képben, melyik kártya mennyit teljesít, akkor annak esetleg eladnak egy kártyát - hogy aztán a következő 2-3 generáció alatt az AMD-nek még a nevét se akarja majd hallani. Tényleg nem értem, mi a marketingstratégia az ilyen überkamu slide-ok mögött...
-
Sávszélre gondoltam, nem a busz szélességére - gondolom, van egy rakás lehetséges kombináció, de az nVidia úgyis igyekszik majd minél kevésbé széles buszt csinálni. El tudom képzelni, hogy a 106-osnak marad a 128-bit, a 104-esnek meg a 256. 384 ebben az esetben nem is kell.
-
A saját személyes véleményedet próbálod univerzális igazságként eladni. Lehet, hogy a BF vagy a Ryse leképzője sokkal fejlettebb, mint a Witcheré vagy a Project Cars-é (we only have your word for it
), de ez a látványból korántsem "kétségtelen". A Ryse ráadásul teljesítmény terén is erősen challenged.
(az Order meg nincs PC-n, úgyhogy azzal nem tudok mit kezdeni) -
-
-
Aha, fejlődünk. Júniusban még az volt, hogy azért jó most kiadni a 300-as szériát meg a Fury X-et ebben a formában, mert 1 éven belül 25-30 low level AAA játék lesz, ami masszívan profitál a GCN-ből. Most már nem lesz ennyi, és ezek egy része is olyan lesz, hogy csak az API neve lesz más, amúgy teljesen ugyanazok lesznek az erőviszonyok, mint DX11-ben. Kíváncsi leszek, Q1 végén hol fog tartani ugyanez a téma

Ja, és a VR. Azt is várjuk szeretettel - majd, egyszer...
-
Hacsak nem úgy gondolod, hogy egy több tízmilliós budgetű játék-projektet pár százezer dollárral le lehet fizetni, akkor bizony volt

Az biztos, hogy a Thief fény-árnyék hatásokban verhetetlen jelenleg.
Says who? Mondjuk Te? Akkor az egy szubjektív vélemény, nem pedig "biztos".
Hangulatosságon azt értem, hogy a vizuális világ nagyon sokat hozzátesz a játékélményhez. És pont azért nem jó példa a Thief, mert ebben erős, nem pedig a "technikai szépségben".
A W3 lehetett volna szebb is, de így is szebb, mint a példaként felsorolt "szuperoptimalizált" játékok. És 30 FPS mellett (köztudottan kriplisített GTX660, fullHD + High beállítás) is teljesen normális játékélményt nyújt, ami a "szuperoptimalizáltak" többségéről nem elmondható. Akkor most mi van? Ez szar?

Felőlem a GW kaphatja a sarat, rászolgált. Viszont butaság emiatt akár a GW-t használó játékokat, akár az egész middleware-koncepciót általánosságban leszarozni.
-
Ki mondta? Olvasd vissza, amit írtál, és amire írtad

A Thief nagyon hangulatos vizuálisan, de nem különösebben szép, a Dirt Rally meg még csak nem is hangulatos. Hasonlítsd már össze bármelyik játékot a Witcher 3-mal vagy a Dying Lighttal - amik mellesleg a sokadik patch után szintén szépen mennek.
A Gameworks-szel már sokadszor megy ugyanaz a csúsztatás - a GW problémák miatt az egész játék van leszarozva technikailag. Unalmas már mindig felhívni rá a figyelmet.Amit a middleware-ekről írsz, az általánosságban egyáltalán nem törvényszerű, még akkor sem, ha a GW-re specifikusan igaz. Ez is egy tanulási folyamat, és rengeteg lehetőség van benne - lehet, hogy csak évek múlva lesz tényleg jó eredménye. Mindenesetre mostanra annyira drága lett AAA játékot csinálni, hogy valami kitörési pontra szükség van - ez egy ilyen lehetőség.
-
válasz
nonsen5e
#12468
üzenetére
Iszonyú egyszerű: olcsóbb így betenni ezeket az effekteket, mint kifejleszteni. Persze értem, hogy ez így kevéssé romantikus, és még sátán sincs benne, de sajnos a nagy költségvetésű termékek már csak így működnek.
(#12470) Abu85: köszöntjük körünkben Mihály arkangyalt az ő lángpallosával
Nyilván számos valóságfragmens van abban, amit leírtál, de ahogy általánosítottad és kiszínezted, azt tanítani kellene. Csak matek: ha minden Gameworks címért leperkálna az nVidia többmillió dollárt, akkor vajon hol lenne az a profit, amit negyedévről negyedévre virítanak?
Ill. szuperoptimalizált játékként felhozni a Dirt Rally-t meg a Thiefet, aztán meg minden Gameworks címet lerakásszarozni... Komolyan nem érzed, hogy ez mennyire nem objektív?
-
Last warning: ez itten nem egy pszichológiai topik, ahol az üldözési mániákat, ill. a másik tábor lelkének elemzését kell kitárgyalni. A folytatásban az ilyen jellegű hsz-eket törölni fogom.
-
válasz
jacint78
#12399
üzenetére
Akkor most írok valami rettenetesen meglepőt: ez egy szakmai topik. Nem a "Fáradt gőz" területen, hanem a "Fórumok -> Videokártyák" útvonal alatt lelhető fel. A témából adódóan nem lehet a trololo faktort teljesen kiküszöbölni, de azért próbáljunk meg elsősorban a videokártyákra és a cégek tevékenységére, eredményire koncentrálni.
(#12395) tailor74: ez kompletten azt jelenti, hogy lehet custom resolutiont csinálni? Ennek én pl. örülök, 2 éve ilyet a CCC nem tudott.
(#12400) daveoff: igen, és igen (és igen). de ne erre koncentráljunk

(#12402) Ghoula:
De persze nv-ről jót vagy semmit.... és ezeket az üldözéses teóriákat is lehetne hanyagolni. Mindenki tisztában van vele, hogy az utóbbi időben nVidia oldalon is voltak driveres gondok.
-
válasz
velizare
#12390
üzenetére
Nem. A probléma gyökere az, hogy az AMD hülyeségeket ígérget (vagy nem is ígérget, csak a fanok álmodnak valamit), és abból rögtön jönnek a "lealázzuk az nVidiát" okosságok. Ezek meg igencsak inspirálják a troll kategóriás kommenteket a másik oldalról. Azokat sem helyeslem (ezért is írtam a 12389-et), de a problémát elsősorban az oldaná meg, ha nem érkeznének a piros felhős álomvilágból a frankómondások.
És most, hogy ezt ilyen jól kitárgyaltuk, beszéljünk inkább arról, hogy a kiszivárgott Crimson kinek mit hozott a konyhára

-
válasz
huskydog17
#12293
üzenetére
És így már az AMD is nyújtani fogja azt a lehetőséget, hogy 10% extra teljesítményért 25%-os felárat fizethetsz. Ezek után érdekes lesz, mit ad ki válaszul az nVidia - a GM206-ot nemigen lehet ennyire felpörgetni, a GM204-et meg nehéz lesz ennyire lebutítani. Mondjuk ha úgy csinálnák, hogy sok benne a unit, és alacsony az órajel, az szimpatikus lenne

-
válasz
TTomax
#12196
üzenetére
Generálkomment a linkelt tesztekkel kapcsolatban - mindenkinek. Nyilván minden oldal tesztjei hiányosak valamilyen szempontból. Lehet mindegyiket b***ogatni, de sokkal jobb megoldás, ha linkel az ember olyat, amit ő korrektnek érez. Miután az AOTS teljesítményét mindenki árgus szemekkel figyeli, talán nem csak az orosz oldalnak van új tesztje - ha valaki ismer másikat, ne tartsa vissza

-
-
válasz
hszilard666
#12087
üzenetére
Ne viccelj, a Crysis 3-ban akkora nyitott terek voltak, mint az állat, mitől lenne gépigényesebb a Fallout? Ill. High beállítások mellett nagyon szépen elfut a 660-asomon, nincs szó extrém gépigényről.
-
Lehet a részecskerendszereket tesszellálni? Nem lehet. Hát akkor? Na...
... vagy mégis lehet?![;]](//cdn.rios.hu/dl/s/v1.gif)
Az overdraw meg fájjon a Fury tulajoknak, mert minden másban bőven elég ROP van

Elnézést, kissé dekadens vagyok ma...
Na, komolyabban, szerintem kellene valami kitörési pont a jelenlegi raszterizáció-alapú mocsárból, mert amennyit az elmúlt évben szépültek a játékok, az jellemzően csak refinement. Szeretnék már valami húb**meg kinézetű gémet látni, de az utóbbi időben ezt csak art style oldalról sikerült elérni...
-
válasz
Yllgrim
#12024
üzenetére
Mesélj már egy kicsit arról a szubkultúráról, ahol a kutya f***án a szőrre való hivatkozás óvatos kritikának minősül

Amúgy ja, veheted kritikának. A föld alatti óceánnak is nagy rajongója voltam anno, ráadásul azt ki sem lehetett kapcsolni. Ezeken meg röhögök egy jót, és a játékban az első dolgom kihajigálni őket. Pedig a 660-am úgy tesszellál, mint az állat

(#12026) huskydog17:
Bontsuk ketté ezt a kérdéskört.
Specifikusan, az FC2-ben lévő godrays túl mély nyomot nem hagyott bennem. A hasonkorú STALKER: Clear Sky effektje igen, viszont az ette is durván a GPU-t. Szóval ez az effekt annyira azért nem olcsó.
Általánosan, manapság az összes effektnek túlzott az erőforrás-igénye. 2007-2008-ban ügyes kompromisszumokkal érték el számos effekt esetén, hogy normálisan fusson az akkori hardvereken. Most már elég erősek a GPU-k ahhoz, hogy ezeket a kompromisszumokat ki lehessen iktatni - egy fullscreen effektnél többször annyit számol a GPU (ld. pl. SSAO), miközben a látványbeli különbség csak állóképek összevetésével állapítható meg - vagy úgy sem. Az utolsó játék, ahol a legmagasabb és a második legmagasabb minőségi beállítás között jelentős különbséget láttam, talán a METRO 2033 volt. -
válasz
huskydog17
#12010
üzenetére
Nincs ezzel komoly gond szerintem, ahogy elnézem a tesztet, bekapcsolt GW mellett a 390X közelebb van a 980-hoz, mint nélküle. Úgy tűnik, a God Rays az új Lens Flare, anélkül nem is élet az élet...
Az sokkal izgalmasabb új vívmánya a technológiának, hogy már a fénysugarakat is tesszeláljuk. Mi jöhet még? Kutya f***án a szőrzet? Ja, hogy az már megvolt a Witcherben
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
Nekem úgy tűnik, hogy arra alapoznak, hogy a Bulldozerben a dispatch / scheduler erőforrások meg vannak herélve, és vannak olyan szituációk, ahol a végrehajtókat nem tudja a frontend etetni. Ezt meglehetősen hanyag módon írták le, viszont tényleg lehetnek ilyen helyzetek, ezért van legalábbis elvi alapja a keresetnek. Vigyázni kell az ilyenekkel, különösen azért, mert az USA precedens alapú jogrenddel operál, és ha egyszer egy bíró igazat talál adni egy efféle keresetnek, akkor biz' nyílik Pandora dobozocskája...
-
És mi köze a józan észnek az USA ítélkezési gyakorlatához?

Egy ilyen vád alátámasztásának a "was led to believe..." c. toposz a legegyszerűbb módja. A vád felsorakoztatja, hogy mi alapján hitt mást az "áldozat", mint a valóság, a védelem pedig igyekszik bebizonyítani, hogy az "áldozat" szimplán hülye volt, és nem volt szűkségszerű, hogy félrevezesse saját magát. Hogy ebből melyik fél kerül ki győztesen, az legalább annyira függ a résztvevő jogászoktól, mint bármi mástól. Miután a CPU nem úgy nyolcmagos, ahogy a Phenom II négymagos volt, a vád azért formálisan nem légből kapott - ahhoz, hogy az erejét felmérjük, kéne ismerni az AMD-s reklámokat meg mondjuk az ott forgalmazott doboz feliratait. Nem érzem én sem erős ügynek, de ha egy kellőképpen vaskalapod bírót fognak ki, akkor nem feltétlen reménytelen. Sajnos.
-
Nem is tudtam, hogy ennyire otthon vagy az USA bírósági gyakorlatában
Ezek szerint akkor anno a mikrosütők whitepaperjéből nem derült ki egyértelműen, hogy macskaszárításra csak bizonyos korlátozásokkal alkalmasak?
Pedig a használt hullámhosszokból ezt látnia kellett volna Gizi néninek...Komolyabban, a fogyasztók félrevezetésével foglalkozó pereket aligha whitepaperrel kell megnyerni. Szerintem sem erős a case, mert tényleg benne van a chipben 8 (integer) mag, de olyat általánosítani, hogy az ilyen pereket nem lehet megnyerni... hát azért az bátor dolog.
-
A cégeknek meg azt kellene megérteni, hogy az emberek ezt nem fogják megérteni, mert lesz**ják. Konkrétan amúgy ez szerintem sem egy jól sikerült kísérlet, meg sajnálom is, hogy a vicces nevű ürge pont az AMD-t találta meg (az nVidiának és az Intelnek szélesebb a háta
), de azt el kell fogadni, hogy amikor marketingben feszegeti az ember a határokat, akkor néha valaki morcos lesz, mert átb***va érzi magát. -
válasz
velizare
#11795
üzenetére
Nem a játék single thread, hanem a DX kommunikáció - azért az nagy különbség.
Az überultrahigh beállításon is megvan a 40%+ különbség a Fury X meg a 290X között, a legtöbb játékban még kevesebb is ez. Hidd el, a Radeonok nem CPU-limitáltak.(#11798) Abu85: ha jól látom, a fő különbség az, hogy a legmagasabb beállításon dinamikusabb a megvilágítás. Egy ilyen plán képen az nem sokat számít, de közelebbi képeken, meg napszakok változásakor igencsak jó is lehet akár. Muszáj lesz megnézni élőben
(screenshotok és youtube nem játszik) -
Köszönjük az infokat, bár az nem teljesen áll össze, hogy az UltraHigh beállításon, ami elvileg szarul fut mindenen, ami nem GCN, miért látjuk majdnem ugyanazt a status quo-t, mint minden más játékban. A játék jellegéből adódóan fullHD-ben a felsőkategóriás kártyák éppencsak elégségesek, WQHD-ben meg a 980 alatt minden felejtős, szóval a legtöbb kártyán az eggyel lejjebb lévő beállítási szint a nyerő. Nagyon kíváncsi leszek, ténylegesen mekkora a minőségi különbség a két beállítás között, a screenshotok elég tetszetősek.
Ui: ez itt az "én megmondtam, hogy VGA-limites" helye

-
válasz
sayinpety
#11771
üzenetére
CPU oldali multithreadingről van akkor szó? Az (számomra) nem magyarázza a mért eredményeket - a 2 magra (HT nélkül) konfigurált CPU-val is 30%-kal gyorsabb a 980Ti, mint a Fury X, ill. az AMD-s kártya a 3.5GHz->4.4GHz húzásra 0.5%-kal gyorsul. Szóval én azt látom, hogy totál a VGA oldalán van a limit - de szólj, ha valami fölött elsiklok.
Btw. @all, ha VGA-oldali limitről beszélünk, az biztosan utilizációs limit, nem hardware-plafon.
-
válasz
FollowTheORI
#11719
üzenetére
Ha a kártyák közötti különbségek így alakulnak, akkor nincs CPU-limit, tehát nem lenne gyorsabb erősebb CPU-val egyik sem. Gyengébbel lehet, hogy a Fury X már lassulna - ha épp a limit határán van.
-
válasz
FollowTheORI
#11713
üzenetére
Ha a Fury X a 390X-et 34%-kal előzi meg, a 380-ra pedig rádupláz, akkor ott nem nagyon beszélünk CPU-limitről.
-
válasz
FollowTheORI
#11711
üzenetére
Nem CPU-limites a teszt, adott architektúrán belül teljesen az ismert erőviszonyok szerint állnak fel a kártyák.
-
válasz
imi123
#11705
üzenetére
Az Anno 2070 is nagyon szerette a Maxwellt, úgyhogy az eredmények csak részben meglepőek, ráadásul a GeF kártyák többsége gyári OC-s.
Gondolom, Radeon oldalon is elkelne egy kis extra driveres támogatás, akkor nem lenne ilyen szakadék.(#11707) Gertrius: jah, köcsög Blue Byte, már a 2012-ben megjelent motorban is a Maxwellre gyúrtak
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
Windows témát pls más topikban folytassátok. Muchos gracias.
-
válasz
Laja333
#11545
üzenetére
Jah, mert a MGS:V, a Project Cars, az ARK:SE vagy a KF2 az mind shitty, nemde?

(#11544) Yllgrim: just for the record: az "nVidia a sátán mozgalom" a lokális AMD próféta szavaiból van politikailag inkorrekt módon szintetizálva

Viszont a griff szőrével pont az ellenkezőjét mondod az eddigi érveknek. Ha szép, és nem glitches, akkor az egy többedik szempont, hogy eszi az erőforrást. Kapcsolja az be, akinek elég erős a cucca.Marketing - ezekkel mind egyet tudok érteni, csak azt nem értem, hogy ezen miért bírtok rugózni. Az élelmiszeripari és a gyógyszeripari cégekhez képest az nVidia kismiska ilyen téren, és azok a termékek épp csak egy hangyányit komolyabb hatást gyakorolnak az életedre, mint egy videokártya.
-
@Abu85, @Yllgrim: Srácok, odafigyeltek egyáltalán arra, hogy miről beszéltek?
Laja elrontott játékokat emlegetett, Ti meg azt próbáljátok a számba adni, hogy védem a GameWorksot. Védi a rossebb, nVidia tulajként az első dolog, amit kikapcsolok. Ettől még pl. a Witcher 3 k***a jó játék.@Abu85, ez az egész sztori csak süketelés, akárhány ember nyomatja a fórumokon. Szeretném (komolyan) azt látni, hogy ez az egész "nVidia a sátán" mozgalom végre azt eredményezi, hogy az AMD részesedése ne 3%-ot csökkenjen, hanem 3%-ot nőjön egy negyedévben. Akkor tudok hitelt adni ezeknek a mondásoknak - addig csak duma...
-
válasz
Yllgrim
#11531
üzenetére
Javaslom, nézz utána a "csúszós lejtő" névre hallgató jelenségnek
Vagy, ha egy rossz effekt miatt Neked már az egész játék rossz, akkor nem szóltam...(#11533) Laja333: szó nincs 70%-ról. Ill. ld. előző válasz második fele. Ill. ha Te 51%-tól már feltételezel valamit, ahelyett, hogy utánanéznél, az egy másik típusú probléma...
(#11529) Abu85:
Az a baj, hogy ez az általános megítélésAz AMD fanclubokban biztosan

-
-
válasz
Yllgrim
#11440
üzenetére
Engem a "komoly játékos" duma nem érdekel, én azt nézem, hogy minek van értelme. A meglévő 8350-es konfigokkal különösebb gond nincs, bizonyos játékokban szarul teljesítenek (további fájás, hogy főleg AMD VGA-k mellett), de nem nagyon, mert az órajel valamennyire kompenzál. A gond azzal van, hogy ha valaki játékra venni akar, annak abszolút nem lehet jó szívvel ajánlani, max. ha 1-2 specifikus cím nagyon a célkeresztben van. És ez szomorú.
-
válasz
Yllgrim
#11427
üzenetére
Összehasonlítottam az aktuális legfrissebb középkategóriás VGA-hoz való CPU-t a két gyártótól. Zavar-e, hogy az egyik 3 éves, játékban lassabb, drágább és sokkal többet fogyaszt? A legkevésbé sem. Zavarja azt, akinek ez a terméke, és aki nem adott ki 3 éve újabbat. Engem az érdekel, hogy van-e bármi érv arra, hogy játékra a 8350-et vegyem. Az, hogy 3 éves technológia, nem éppen az...
Ui: Le kellene már arról szokni, hogy a vitában éppen kialakult álláspontunk érdeke szerint össze-vissza keverjük a műszaki és a vásárlói szempontokat.
-
Nem tartunk még ott, hogy ezt értékelni lehessen. Ha a 4. és az 5. lépcsőben is sikerül érdemit letenni az asztalra, akkor lehet megnézni, hogy ezt lehet-e cash-re váltani. Egyébként ha a negyedikben igen, akkor az egy súlyos hiányosság befoltozása, ami még éppen csak nem borult a fejükre (de már majdnem - ld. Project Cars), tehát ebből nem extra bevétel lesz, hanem további veszteségek elmaradása. Ha az ötödikben is jók lesznek, abból lehet extra pénz, de ha "megvárják" vele az első Pascal kártyákat, akkor abból sem...
(#11404) -Solt-: a felsoroltak nem sikerek, hanem katalizátorok. Ja, mindenben van potenciál, csak előbb-utóbb azt kell tudni pénzre váltani.
-
válasz
schawo
#11384
üzenetére
Lehet, nem vagyok nagy RTS játékos. Logikus, amit mondasz, de lehet, hogy más tudna jó érveket felhozni a sok egység mellett.
(#11388) -Solt-: a Mantle egy potenciális sikertörténetnek kb. a 3. lépcsője az ötből. Az eddigi kísérleteken az látszik, hogy a negyedik lépcsőfok (kisebb CPU-igény) már csak félmagas, az ötödik (jelentős extra perf) pedig még mindig álom.
-
-
válasz
Sir Ny
#11309
üzenetére
Ill. a távolira is, hacsak be nem következik valami erősen diszruptív jellegű esemény. Gondolom, az AMD arra bazíroz, hogy valamelyik most-még-nem-de-két-év-múlva-talán technológiával előbb-utóbb bankot robbant. Sajnos az utóbbi 3-5 év közege egyre kevésbé kedvez az innovációnak...
-
Szeretném felhívni a figyelmet, hogy ez az "AMD vs NVIDIA" topik, nem pedig a "Crytek gépet (nem) vesz" topik. Alapvetően rühellek hsz-t törölni, de ha így megy tovább, akkor muszáj lesz...
-
Ó, lehetőséget kaptam, hogy alátámasszam, amit sosem mondtam? How very generous
(ld. még szalmabáb).A GameWorksnek is az a célja, hogy megkönnyítse a fejlesztők dolgát. Annyira, hogy még az optimalizálás terhét is leveszi a vállukról
Meg az is, hogy az nVidia kártyákon jobban fussanak az effektek. Meg az is, hogy az újabb nVidiákon még jobban fussanak. Ezt mind tudjuk. Viszont azt állítani, hogy a GW-nek az utolsó egyedüli célja, az nettó marhaság, hiába csavarod a szavakat bármilyen irányba. -
(sóhaj) Szépen részletesen leírod, hogy mi a fontos különbség a GW és az AW között (ie. a GW-nek van olyan része, amit nem szeretnének nyilvánosan mutogatni), és ebből előre levonod a teljesen rossz következtetést, miszerint a GW semmi másra nem való, csak arra, amit takargatni akarnak benne.
Nyilván, a zárt rendszernek az a célja, hogy teljes kontroll legyen felette. Ebből sehogy nem következik, hogy ez az egyetlen célja. Számos hasznos vonása van a GW-nek - csak kár, hogy a manipulációs eszközökkel árukapcsolva kapod. -
válasz
Gainka
#11157
üzenetére
Akkor szelektíven olvasol, sajnos. Folyamatosan van valami topik, amiben az AMD 3-4 hónap múlva alázni fogja az nVidiát. Tavasszal a Fiji GPU volt, utána nagyon rövid ideig a DX12, most pedig a VR. Persze az alázós dumákat jellemzően nem ugyanazok nyomatják, akiknek most nem tetszenek az nVidiás megnyilvánulások, de azért jellemzően nem 0 az átfedés...
(#11160) Abu85:
Alapvetően emiatt vezették be a GameWorksöt, ha jön egy új architektúra, akkor szoftveresen képesek legyenek mesterségesen kivégezni az előzőt.Talán korrektebb lenne azt írni, hogy ez az egyik mozgatórugó a GameWorks mögött. Nyilván ez is benne van (ha nem is ennyire élesen), de van pár egyéb célja is a rendszernek.
-
Kérnék mindenkit, hogy az erőviszonyok pár %-os mozgásából ne kerekedjen se farokméregetési verseny, se temetkezési vállalkozás

A grafika még a videokon is baromi jól néz ki, több, mint két éve ez az első játék, amire emiatt vagyok kifejezetten kíváncsi élőben. Ehhez képest szépen simán szalad, és a leggyorsabb kártyákkal akár még 4K-ban is játszható (bár azért nem 60fps-sel). A sávszélességet láthatóan szereti, úgyhogy ez ad egy kis előnyt a Radeon campnek, de semmi drámai - egyedül a 960 küszködik kissé. Én örülnék, ha ilyen lenne a következőkben a trend az AAA játékokban...
-
válasz
Malibutomi
#11117
üzenetére
Szereti a sávszélt, úgy fest.
-
válasz
proci985
#10694
üzenetére
Igazából nem sokkal rosszabb az a kártya, mint a 950, 20 dollárral olcsóbban akár meg is érné, de az AMD valahogy úgy áll hozzá, mintha saját maguk is szégyellnék. Ennél még az is jobban menne, ha kiadnának egy 7850 nosztalgia editiont (still going strong, vagy valami hasonló nyálas dumával), és akkor még égni sem kellene...
-
válasz
TTomax
#10667
üzenetére
Az első bekezdéssel nagyjából egyetértek, nem minden játékban elég a High fokozat a 60 FPS-hez (bár elég sokban igen) - csak azért írtam, mert nekem igazából onnantól kezdődik a kompromisszum, hogy a High-ből engedek. Játéktól függően akár az FPS-ből is, de mostanság a DoF és az AO elég gyorsan repülni szokott - néha nem is a teljesítmény miatt.
A méreteknél kissé félrecsúszott a dolog - azért mondtam a 27"-et és a 48"-et, mert olyat láttam már élőben. 32"-nél talán, 36"-nél meg biztosan erősen számítana már a PPI differencia nekem is. Inkább az a kérdés, hogy egy 32"-es screent idetennék-e az orrom elé monitornak - a 27"-es játszani jó volt, de desktopnak nem volt igazán komfortos. Lehet, hogy nekem az ideális célfelbontás a WQHD, még nem vagyok 4K-Ready

-
válasz
TTomax
#10653
üzenetére
Lehet, hogy nem pont ugyanazt látjuk nagy különbségnek
Futólag láttam 4K-s kijelzőt 27" vagy 28" méretben, annyira nem nyűgözött le - 48-50"-on annál inkább. Ill. a legtöbb játékban a High és a Very High fokozatok között nem sok különbséget látok - míg az FPS különbség akkora, hogy a WQHD-4K különbségnek legalább a felét megugorja, ha nem többet. -
válasz
TTomax
#10645
üzenetére
Pontosan erről beszélek,akkor minek a 4K?
Természetesen annak, hogy a jelentősen nagyobb PPI sokkal jobb képminőséget jelent...het. Persze ez függ a kijelző méretétől - 27-28"-en lehet, hogy nem hoz annyit, mint egy jó soft shadow implementáció. Mondjuk ebben a méretben eleve nem sok értelmét látom WQHD-nél nagyobb felbontásnak.
-
Szeretnék többeket megkérni, hogy a következő post megírása előtt legalább 30-cal csökkentsék a vérnyomásukat

Egyrészt a kártyákkal kapcsolatban próbáljunk tárgyilagosak maradni, másrészt egymás személyére vonatkozó megjegyzéseket kéretik mellőzni. Utóbbiakat különösebb ceremónia nélkül törölni fogom.
-
Még mindig ugyanaz a gond, ami februárban - egy olyan problémából építesz Nagy Zöld Apokalipszist, ami az emberek nagy részét egyáltalán nem érdekli. A dolognak 3.5 éve nincs semmi gyakorlati látszata (ugyanis az a "GCN is king" mozgalom a Kepler megjelenése óta megy) - a jövővel kapcsolatban pedig van, aki azt gondolja, hogy ha lesz is probléma, akkor az első körben kevés esetben fog felbukkanni, van, aki hisz a 82% meggyőző erejében, és van, aki azzal sem foglalkozik, mi lesz holnapután. Szóval AMD tulajként azon problémázol, hogy milyen gondjai lesznek a Maxwell tulajoknak, akiknek a nagy részét ez az egész egyáltalán nem is érdekli. Szerintem ez nagyon humoros

(#10126) HSM:
Ilyen szemétrevaló hulladék alsókategóriás gagyi tápra...Öööööö.... whut?
Konkrétan mi is a nagy gond a CTG-500-zal? Teljesen jó táp, egyetlen "bűne", hogy kétágas, azaz 200-210W-nál többet fogyasztó VGA-t nem feltétlen tanácsos rátenni. Lehet, hogy elviszi, lehet, hogy időnként restartol. Én egy kevésbé eleresztett 970-et vagy 980-at simán rákötnék, a Hawaii GPU-s kártyákat már inkább nem. -
válasz
TTomax
#10088
üzenetére
Ez mind szép, és hosszabb távon igaz is, de abból a szempontból, amit írtam, semmi jelentősége. Amikor megjelent a 980, akkor annyiba került, mint a 780Ti, és sebességben kicsivel volt jobb. Vették, mint a cukrot? Igen. Az nVidia vonzóvá tette a kártyát, az emberek pedig megvették. Ennyi.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Huawei P30 Lite / 4/128GB / Kártyafüggetlen / 12Hó Garancia
- Dell és HP szerver HDD caddy keretek, adapterek. Több száz darab készleten, szállítás akár másnapra
- BESZÁMÍTÁS! 64GB (2x32) Samsung 3200MHz DDR4 memória garanciával hibátlan működéssel
- Telefon felvásárlás!! iPhone 11/iPhone 11 Pro/iPhone 11 Pro Max
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7500F 16/32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest

Ma már majdnem azt mondod, amit én eddig, és úgy teszel, mintha mindig ez lett volna a véleményed, és bónuszként cáfolsz valamit, amit nem is mondtam.
Csúnyán elb***ta a driveres team, rettentően amatőr dolog volt. Mindenki számára világos, egyedül Te próbálod utolsó mohikánként megmagyarázni a bizonyítványt, ráadásul egy ilyen égbekiáltó hasbaakasztással.
![;]](http://cdn.rios.hu/dl/s/v1.gif)
), de ez a látványból korántsem "kétségtelen". A Ryse ráadásul teljesítmény terén is erősen challenged.





