Új hozzászólás Aktív témák
-
jacint78
addikt
válasz
#00137984 #96 üzenetére
Amúgy én 6GB ram-al 2GB GTX 760-al is magas beállításon játszom, némi kompromisszummal (általában AA nélkül, nem hiányzik) és ez már nem is mai középkategória... Fogalmam sincs miről beszélsz, megint ugyanazt mondtad, hogy meglep téged, az, hogy 8 magos FX kell egy idézem komolyabb játékos gépbe.. Nem értelek...
(4K még a felsőházban is megterhelő most)
Tehát a FHD még mindíg elég jó középkategóriának, megint magadellen beszélsz.
Mostantól ezek sem tekinthetők elégnek egy komolyabb játékos gépbe, mert néhány játék AMD FX 8350 nyolcmagos CPU-t irányoz meg
Hogy mit irányoznak meg, az egy dolog. Egy középkategóriás processzor sosem tudott felsőkategóriban menni, az, hogy az egykori felsőkategória mára középpé vált, eléggé természetes, annó a 3GHz P4HT a csúcs volt, ma már netezni is kínlódás egy ilyennel, mégis mit vársz???
GTX560ti-vel necces volt annó a FHD, a GTX580-al ment. Akkoriban sem volt semmi másképpen és mivel a FHD-nál nagyobb felbontásokkal olykor még mindíg kínlódnak a felsőkategóriás kártyák, effektíve még jobbak is a középkategóriás VGA-k mint annak idején, mert a FHD-t a legkevésbbé sem okoz gondot nekik. Vagy talán középkategóriás kártyával akarsz 3 kijelzőn isten tudja mekkora felbontással játszani és i3-al ráadásul magas beállításon??? Fel nem tudom fogni, hogy gondolod ezt..
-
#00137984
törölt tag
Középkategóriának is voltak normái, amiket eddig jól teljesitettek és ezért elég volt FullHD-re. Nem nagyobb 2560x1440 felbontásra (4K még a felsőházban is megterhelő most) és 144Hz-es frissitésű gamer monitorokhoz. Nem az Ultra és a kimaxolt beállitásokra, csak magas beállitáson és alacsony élsimitásra (valahol a legalacsonyabbak közül, amelyik még nem annyira gépzabáló élsimitás). Itt most hónapról-hónapra csúsztak le az alsóbb osztályba olyan népszerűnek nevezhető videókártyák mint a HD7850 és HD7870-es, majd az R9 270X következett. Ebből a szempontból most az R9 280X tulajok jártak szerencsésen, mert ez a 384bit-es 3GB-os videókártya elég még egy ideig FullHD-re. Ez még egy másik fontos PC összetevőt is érint még: a CPU. AMD Phenom II X4-ek és ebben a teljesitménykategóriában tanyázó FX-ek és az Intel i3-as processzorok még eddig a szintig elboldogultak a VGA-k kihajtásával (a kevés CPU igényes játéktól eltekintve). Mostantól ezek sem tekinthetők elégnek egy komolyabb játékos gépbe, mert néhány játék AMD FX 8350 nyolcmagos CPU-t irányoz meg (FX 8320 azért még beleférhet). A hatmagos FX-ek ideig-óráig még elégnek bizonyulhatnak. Persze aki néhány évre tervez vagy most készül gépet fejleszteni annak i5-öt ajánlanak és legalább 8GB RAM-ot mellé, de inkább 16GB az ajánlott.
-
Abu85
HÁZIGAZDA
Az első GCN óta voltak fejlesztések. Nyilván ez volt az alap.
A GCN2 számos fejlesztést kapott. A legfontosabb az új ACE, ami nem egy, hanem nyolc parancslistát támogatott. Emellett megjelent az AMD64 címtér elérése, illetve az eszköz egységes címzése, így az adott kernel az LDS-t és a videomemóriát egyetlen címezhető memóriaként látja.
A GCN3 szintén kapott egy rakás fejlesztést. Többek között a durvaszemcsés preempciót finomszemcsés váltotta, vagyis nem kellett megvárni, hogy egy wavefront lefusson, azt akármikor meg lehetett manuálisan szakítani. Kapott még DPP utasítást és SDWA-t, illetve az ACE-t részben kiváltotta a HWS, amely támogatja a HSA QoS-t. -
Abu85
HÁZIGAZDA
válasz
#32839680 #86 üzenetére
Éppenséggel ajánlhatnak. Az AMD64-féle 64 bites Long mode teljes mértékben az AMD-é. Annak licenceli, akinek akarja. A konzolra érkező játékok csak ezen a módon futnak. A PS4-en az összes többi mód szimplán le van tiltva.
(#90) morgyi: Semennyire. A CUDA ott jelent előnyt, hogy a Hyper-Q nem követel resource barrier támogatást. De ezt egyénileg meg kell írni a szabványos kód mellett.
Igen ezt jelenti az async compute. De ez a GeForce-on nem igazán lehetséges DX12-ben, mert csak a fő parancsprocesszor támogat resource barriert, míg az MGU-k nem.
A stateless csak azt jelenti, hogy a compute feladatok nincsenek hardverállapothoz kötve. Erre vonatkozóan a DX12-nek nincsenek követelményei, mert ez a hardver belső működése. Ha jót akarsz magadnak, akkor stateless lesz a hardver. -
jacint78
addikt
válasz
Meteorhead #87 üzenetére
De 2015-ben pont azt kell hozni, hisz működik. Majd néhány év múlva, ha lesz valami a nagy jövőből, akkor lesz más.. Az AMD fejlesztett bármit is GPU téren az elmúlt "3generációban", vagy csak "jövő" várják? Jólmegy nekik?
-
Meteorhead
aktív tag
Értem én, hogy fanboy vagyok, csak kicsit elegem lett már a népbutításból.
Politikai analógiával élve: attól még, hogy van egy diktátor, attól még nem lesz jó minden ötlete. A Maxwell azért tud sikeres lenni, mert nagy a piaci részesedése. De ahányszor szóba elegyedem Nvidia képviselővel (konferenciákon), abszolút megerősítik azt, hogy egy iszonyat erős, eltipró politikát folytatnak, csak mert megtehetik. Pénzzel, és nem tudással nyomják le a konkurenciát. Van kolléga, akinek elege lett, és egyszerűen átment az AMD-hez, mert elege lett a xar lapátolásból, hogy az Nv driveren belül milyen hernyóságok vannak. NDA miatt konkrétumokat nem mondhatott, de elég volt ahhoz, hogy a lelkiismerete elhajtsa onnan.
A Maxwellnek iszonyat jó perf/watt mutatója van avval a feature szinttel, amit tudni hozni. De 2015-ben nem azt kéne hozni.
-
Abu85
HÁZIGAZDA
Azt valóban írtuk, hogy az AMD furcsán magas áron nyerte el mindkét bizniszt, de nem őrülten magas áron. Nyilván a furcsán magas ár megmagyarázható azzal, hogy az AMD vitte a kockázatokat is a hátán, tehát a fejlesztést a Microsoft és a Sony nem pénzelte nagyon. Gondolom hagyományos licencelést az AMD nem vállalt. Majd a következő kör lesz az izgi, amikor az Imagination is értékelhető ajánlatot tesz.
-
Abu85
HÁZIGAZDA
Maximum az ES APU-k, amiket a fejlesztőknek szállítottak a gépek megjelenése előtt. De a végleges gépekbe az AMD az elején 100 dollárért szállította az APU-k darabját. Ma már inkább 70 dollárért. Ez így is elég drága, mert például a Sony a PS3 esetében az RSX GPU-ért az NVIDIA-nak az egész gép életciklusa alatt 400 millió dollárt fizetett. Az AMD-nek a PS4-ből már van legalább 1,5 milliárd dollárja, és még hol az életciklus vége. Ha az AMD 250 dollárt mondott volna, akkor maradt volna a Cell.
-
Abu85
HÁZIGAZDA
De a DX12 nem új koncepció. Az AMD ezt már kiadta két éve, és másfél éve elérhető rengeteg fejlesztőnek. A tanulási idő már megvolt és a motorok strukturális módosítását már a DX12 elérhetősége előtt elvégezték egy csomóan. Persze nyilván ezt még nem tesztelték minden hardveren, de akkor sem nulláról zajlik a munka, hanem sokkal kedvezőbb szintről. Másképp aligha jöhetne itt több mint két tucat low-level játék egy éven belül, hiszen az átállás sokáig tartana, ha csak nyár óta lenne elérhető ez a koncepció.
-
Nem kezdem, azóta ezt mondom, amióta elindult a DX12 hype engine
Amit nem veszel / vesztek figyelembe, az a gyökeresen új koncepciók tanulási görbéje. Még ha el is hinném a semi-official pH! mantrát, hogy innentől gyakorlatilag csak DX12-es játékok jönnek, az első fecskék lényegében DX11-es filozófiával készült motorok lesznek, csak már az új API-n keresztül. Kihasználják a CPU-GPU kommunikációban rejlő előnyöket, sz**nak egy csomót azzal, amit a DX11 a seggük alá tett, a DX12-ben meg nekik kell megcsinálni, ill. remélhetőleg spórolnak a tesztelésen / finomhangoláson, aztán ennyi. A shaderek gyökeres átalakítása elég komoly munka, és esetről esetre át kell gondolni, megéri-e az időbefektetést, vagy esetleg egy következő komolyabb engine-revízióban fognak vele foglalkozni. Biztos lesz 2016-ban is pár játék, ami elkezdi feszegetni a határokat, de csak nagyon óvatosan - pontosan a magas Maxwell-penetráció miatt.
Aztán talán 2017-ben már jobban átfordulnak az új API-ra, és szaporodni fognak az olyan helyzetek, ahová kelleni fog a rugalmasabb ütemezés. Ilyenkor persze még lesz egy csomó Maxwell kártya a piacon, de akinek fontos lesz a nagy teljesítmény, az megveszi a Pascalt vagy az új Radeont. Aki meg marad Maxwellen, az megköt pár kompromisszumot. Szóval lesz Maxwell, csak nem lesz jelentősége. -
jacint78
addikt
válasz
#00137984 #69 üzenetére
középkategóriás 2GB-os videókártya FullHD-s felbontáson magas beállitásokkal és élsimitással játszhatatlan.
Gondolkodj már egy kicsit. A középkategóriától várod a magas beállítást? Ez egy kicsit ellentmondás, vagy inkább baromság. Mire lenne jó a felsőkategória, ha a középkategória is képes arra, amire a felsőkategóriát találták ki...
xRagna
Na persze, de az eredeti céljuk nem csak a konzol volt... A programozásról és a kihasználásról pedig annyit amennyit szídják a 900p-t és a jó esetben 30FPS-t.
Vagy egy szar, vagy még mindíg nem tudják annyira megprogramozni, ha utóbbi az főleg gáz, mert már nem tegnap kezdték.. De tudjuk, majd sok év múlva lesz ez jó, mert ismerjük már a sok jövőbeszóló szöveget...
Tegyük fel, hogy megveszel egy autót, ami 400lóerős... Lesz majd két év múlva, mert addigra lesz olyan benzin.. Ez jól hangzik. Az emberek a mában élnek és tlejesen jogosan magasról leszarják, hogymajd 5 év milyen jó lesz az, amit Most megvettek..
-
jacint78
addikt
Érdekes, hogy egyesek szerint az NV rosszul csinálja és nem a jövőben él. A valóság viszont úgy működik, hogy aki ezt teszi az épp a csőd szélén ál. Nem furcsa ez egy kicsit? Az AMD elkezdte az APU-kat erőltetni, de a kutya nem akar rájuk programozni így belebuktak abba is, ami szintén nagy jövő volt ugyanmár...
-
#00137984
törölt tag
válasz
Blindmouse #65 üzenetére
Most jelenleg úgy dolgoznak meg egy konzolport játékot, hogy az Nvidia videókártyával jobban menjen és AMD-n ne is legyen egyből jól játszható. Némelyik játékfejlesztő idővel készit javitást hozzá, vagy nem. Ez igy nagyon nem jó. Mostanság odáig elfajultak a dolgok, hogy egy középkategóriás 2GB-os videókártya FullHD-s felbontáson magas beállitásokkal és élsimitással játszhatatlan. Visszavehetsz még a beállitásokból, de akkor meg a Next Gen látványnak oda. Ha meg játszani szeretnél a mesterségesen megnövelt gépigényű játékkal, még mélyebben kell a zsebedbe nyúlni. Az olcsó Gamer gépeknek igy annyi lett és a játékosok lesznek igy csődben (remélem azért nem csöndben és kellő helyeken hangot adnak nemtetszésüknek).
-
Abu85
HÁZIGAZDA
válasz
#32839680 #66 üzenetére
A full bindless hiánya csak azt jelenti, hogy a Maxwell valamivel több processzoridőt von el az alkalmazástól, mert a bekötés nem a multiprocesszorba, hanem a mintavételezőbe történik. A stateless hiánya azt jelenti, hogy compute és grafikai feladat nem futhat egymás mellett, de a DXKG megköveteli a resource barrier támogatását, így NV GMU-kkal eleve nem futna párhuzamosan két feladat. Async copy a két DMA miatt van.
Az, hogy mit tiltanak le az NV-től is függ. Az AotS esetében is kaptak alternatív utat a Maxwellnek. Például a TressFX 3.0 esetében sem lesz jó a mutex zárolás, így megkérhetik a fejlesztőket, hogy legyen egy PPLL mód is, vagy szimplán ne lehessen bekapcsolni a TressFX-et GeForce-on, ahogy a Lichdom esetében kérték.
Async compute egyébként lehetséges a CUDA alól (Hyper-Q). -
gtamate2
veterán
Az a helyzet hogy az aots tesztben nem szerepelt olyan rosszul az nv mint sokan várták ill. az új BF alatt is (a 960-on kívül) szépen futottak a maxwellek. Ezek alapján pedig nyilván nem lesznek olyan rosszak dx12 alatt sem, viszont amire valóban itt lesz a játékdömping már a piac fele új kártyával fog rendelkezni. (Az hogy ez itt Mo,-n, ahol az embereknek nincs rá annyi pénze és 2x meggondolja mit vegyen nyilván másként fog alakulni)
-
Blindmouse
senior tag
válasz
Televan74 #49 üzenetére
Konzolportokat ne is hozzanak PC-re. Elég az hogy vagy hányingerem van egy ID játéktól vagy órákat túrom a beállításokat ini fájlokban hogy játszható legyen.
Most úgy áll a helyzet, hogy dologzni kell egy kicsit a PC portért. Ez jó.
Az meg hogy évek mulva mi lesz a videókártyámmal... teszek rá. Ha nem lesz jó megyek és veszek egy másikat. Valszeg nem AMD-t mert épp pénzügyi csődben lesz. -
Abu85
HÁZIGAZDA
Az Oculus nem méri a timewarpot, mint tényezőt. Anélkül ajánl mindent. Ettől függetlenül egyáltalán nem rejtik el az előadásokon azt, hogy az Intel, az AMD és az NV preempció támogatása milyen. Erről itt beszél például David Kanter: [link]
Egyébként a VR-t ugyanúgy lehet butítani, mint a normál grafikát. A GameWorks VR csomag alapvető technikája az, hogy a képkocka jelentős részét a natívnál kisebb, felezett vagy negyedelt felbontásban számolja. Attól függ melyik részről van szó. Ilyet például az AMD LiquidVR csomagja nem tud, mert az AMD szerint a Radeonok meg tudják oldani a problémát natív felbontáson is. Olyan ütemezővel, amit a GCN használ ez valószínű is. -
Habugi
addikt
Miből gondolod hogy ezt feltételezem?
Ebben a témában én még egyszer sem nyilatkoztam meg sehol egészen egyszerű oknál fogva, nem értek hozzá annyira hogy a specifikációit alapul véve előre látni véljek bármit is ezzel kapcsolatban, találgatásokba pedig nem szívesen bocsátkozom.
A cikkhez tartozó hozzászólások feszegették innen-onnan ennek kérdését vagy lehetőségét, én nem.
Pusztán némiképp megkérdőjelezhető módon () az ominózus hozzászólásod egy részét ragadtam ki/idéztem, mert rengetegszer olvasom és már falnak futok tőle, egyébiránt semmi személyes csak ezt a Maxwell addigra sehol nem lesz hülyeséget már kidobja az immunrendszerem.
Kis túlzással az NV konkrétan begyalulta a dVGA piacot a Maxwellekkel, "normál" esetben is necces lenne egy ilyen kijelentés hogy mire a DX12 komolyabban jelen lesz már sehol nem lesznek ezek a kártyák, de egy ilyen sikerrel/darabszámban értékesített architectúra esetében finoman fogalmazva is égbekiáltó ökörség. -
gtamate2
veterán
Akkor miért ajánlották a 970-eseket is szintén a 290-el együtt?
-
Abu85
HÁZIGAZDA
Szerintem ne beszéljünk így a DX12-es játékokról. A Maxwell egy helyen vérzik nagyon az pedig a preempció megvalósítási formája, amit lényegében az ultramobil igényekre szabtak, vagy már arra sem, mert az új Adreno és PowerVR sorozat is desktop szintre fejlődött ebből a szempontból. Ennek a grafikai futószalagokkal nem lesz jelentős hatása, mert ezek DX12 alatt is annyira kiszámíthatók, mint a más API-val, persze a DXKG némileg felborítja az erősorrendet. Ahol a Maxwell tudásbeli hiányának nagy jelentősége van az a VR. Már eleve az a helyzet kellemetlen, hogy a fejlesztőnek kell ügyelnie arra, hogy mindig pont jókor induljon a timewarp, és baromira nehéz megmondani, hogy mikor van az a pont jó alkalom.
-
Habugi
addikt
Ne kezd Te is kérlek, ennél sokkal okosabb és sokkal szakmailag hozzáértőbb vagy, szeretem olvasni a postjaidat topic függetlenül.
Meggyőzhető vagyok hogy 3év múlva indul a DX12 dömping csak nem lesz egyszerű feladat.
Az egész "koncepció" ott bukik akkorát mint Rottenbiller, hogy azon a feltételezésen alapszik hogy senki nem használ vagy vesz másfél - két évnél öregebb dVGA-t/architectúrát.Qrvasok Maxwellt eladtak idén, nagyon komoly hányadát adva a részesedésnek, mégis hova az úristenbe tűnnének ezek a kártyák jövő év végére vagy 2017 első felére és akkor most csak bő másfél évről beszélünk.
Akik nem képezik a kemény mag részét és nem cserélgetik a dVGA kártyájukat 1-2 évente most azok is nagyon nagy többségükben Maxwellt vettek a kimagasló teljesítmény/fogyasztás mutató miatt, olyan szépet villantott, ráugrottak mint gyöngytyúk arra a bizonyosra..
Náluk sem fog természetes úton lebomlani a gépházban az említett időszakon belül. -
gtamate2
veterán
És miből gondolod hogy kompromisszumokkal egy 970 nem lesz untig elég 3 év múlva? Nyilván arra értettem hogy mire itt lesznek a dx12-es játékok nem mindenki a mostani generációs kártyákkal fog rendelkezni főleg az a réteg aki a felsőkategóriából válogat, na ők nagyjából 2 évente lecserélik a kártyáikat és megveszik az újat.
A jelenlegi tesztekből pedig nem az jött le hogy nagyon elmarad a maxwell a dx12-ben. /Nem mintha az aots egy értelmes teszt lenne rá/ Szóval kár temetni előre a maxwellt hogy nem fog működni.
A tahiti pedig nyilván elég nagyjából kompromisszumokkal, de egy csúcskártyáról beszélünk. A fejlődés pedig azóta valahogy nem volt olyan hatalmas szóval el is várható hogy menjen rajta minden. (Mert egy gtx 680 is ugyan annyira elég)
Azt pedig hogy a boltokban 1-2 év múlva ott lesz a jelen gen. maxwell, hát próbálj meg 7870-et újonnan venni akkor -
Abu85
HÁZIGAZDA
Először kellene egy DX12.1 is, hogy azzal bármi kompatibilis is legyen. Egyelőre ennek a specifikációja még tervezőasztalon sincs, és gyaníthatóan a következő két évben nem is lesz róla szó. Valószínűleg a mostani API-val nem lesz ilyen .1-ezés.
(#17) morgyi: Attól, hogy a konzolos effekteket nem lehet áthozni, még maga a motor rohadtul resource leak-es lesz, csak annyi a különbség, hogy konzolon még bizonyos effektek szempontjából szebb is marad. Önmagában eleve oltári nagy baromság egy kifejezetten a játékhoz kialakított effektet valami külső csomagra cserélni. Ennek a minősége sosem lesz olyan jó, mint a direkten a játék dizájnjához tervezett effekté.
-
Tigerclaw
nagyúr
Nem értek a téma mélységeihez, de nem bánnám, ha megmaradna a jelenlegi Maxwell "filozófia" mellett, legalább a belépő-középkategóriás gamer PC-s termékeknél. Az nem érdekel, hogy a szuperszámítógépekbe, meg a csúcs gamer vasakba mi kerül. A VR megoldások tömeges elterjedésére szerintem még vagy 5 évet kell várni, és talán annak is a nagy része a konzolokhoz fog fűződni, nem a PC-khez. A hagyományos PC-s játékok esetén viszont jól jön, ha a videokártya 100W-al kevesebbet fogyaszt/fűt, miközben hasonló végeredményt kapok a monitoron. Miért baj, ha játékra van opimalizálva egy játékra szánt videokártya chipje? Akinek nem az kell, az vesz másfajtát. A VR pedig még évekre van és talán az is 3D sorsára juthat, ha kiderül a nagy hype után, hogy az elképzelés jó, csak technikailag még nem tartunk ott, hogy igazán jó legyen...ráadásul nagyon mélyen kell majd a pénztárcába nyúlni hogy megfelelő vas legyen mögé.
-
Rendben, bár nem ezt írtátok, de értsük úgy. Egy fontos dolgot azért ne felejtsetek el - a Maxwell előnyösebb fogyasztása korántsem csak a kispórolt DX12 feature-ökből származik, hanem egy csomó fogyasztás-orientált optimalizáció is van a chipben, amiket nem két perc volt kitalálni, kitesztelni, finomhangolni (már csak azért sem, mert egy részük még a Keplerből indul). Ezek szépen mennek tovább a következő generációba is. Valószínűleg azonos teljesítmény mellett akkora nem lesz a fogyasztás-különbség, mint a 980 és a 390X között, viszont vélelmezem, hogy nagyobb lesz, mint a 980Ti és a Fury X között, tekintettel arra, hogy a Fury X-nél már a HBM is erősen belejátszik a jobb fogyasztásba.
(#52) sb: mitől?
(#54) Habugi: onnan, hogy a DX12 dömpingnek az a hulláma, amikor már komolyan kellene a DX12 tudás, még igen messze van...
-
Habugi
addikt
"Mire itt lesz a dx12 dömping már mindenkinek az aktuális generációs kártyái lesznek és sehol nem lesz a maxwell."
Ezt a hülyeséget honnan szeditek állandóan?!
Ha annyi hajszálam lenne ahányadik alkalommal ez a marhaság most elhangzott nem kopasz avatart választottam volna.
FHD-re kisebb kompromisszumokkal még mindig untig elég mindenhez egy nyomorult Tahiti, hány éves is?!Sehol nem lesz a Maxwell.., miért hova tűnik? Pascallá változik?
Még a boltokban is bőven ott lesz, nemhogy majd mindenki ész nélkül rohan lecserélni, hagyjuk már ezt pls. -
#52815360
törölt tag
Jó a maxwell, helyes hogy megtartják.
-
#00137984
törölt tag
válasz
#32839680 #46 üzenetére
A 45nm és 28nm ugrás kapcsán is fogyasztáscsökkenést vártam, és hát éppen ellenkezőleg alakult. HD7000-es széria megjelenése óta eltelt időben a 28nm-es gyártástechnológia is jól kiforrta magát, és az optimalizált GPU architekturának köszönhetően növekedtek a tranzisztorszámok (5 milliárd van egy Tonga r9 380-ban) és a GPU és GDDR5 órajelek is jó magasak. Kedvező esetben megegyező vagy alig magasabb fogyasztással akár 2-3x gyorsabb videókártyákat kaptunk... de jó játék akkor is kevés van.
-
Televan74
nagyúr
válasz
Blindmouse #45 üzenetére
A fejlesztők nem adnak ki PC -s platformra játékokat, ha marad továbbra is a 0DX11.Ezt kellene már megérteni.Pár év után feldughatnád te megadnak a drága NV kártyádat.Amúgy nem véletlenül fejleszt az NV is DX12 -re.Ő sem akar lemaradni.
-
Amúgy azt nem értem, miért írják többen, hogy odalesz a teljesítmény-fogyasztásbeli hatékonyság. Két lépést ugrunk csíkszélességben a Maxwellhez képest, az azért nem keveset fog számítani..
Értsd úgy, hogy nem lesz akkora gap az AMD és NV kártyák között perf/watt szinten, mint amit most látsz egy 980 Ti és egy Fury X között. Mert hogy az eddig "kispórolt" egységeket be kell építeni, és az többletfogyasztással jár. A csíkszélesség ebben a tekintetben irreleváns.
-
Blindmouse
senior tag
"nV miatt nincs érdemi jövőkép a sw fejlesztők számára"
Aha, ott ülnek, és vágják fel csoportosan az ereiket. Haggyuk már ezt a dumát, hogy az NVidia kártyák nem működnek jól, de csak holnaptól. Látjuk, hogy egy fejlesztő nem engedheti meg magának, hogy olyan játékot adjon ki, ami nem fut jól a hardverek nagy részén.Megy a 8-900-as széria szidása, mert ugye annyira nyilvánvalóan sokkal jobban sikerült, mint amit az AMD kiizzadott magából. De bírom, hogy egy HPC hírt sikerült Abunak úgy megírnia, hogy egyesek már temetnék az nVidiát. Nevetséges.
-
válasz
#65675776 #31 üzenetére
A G80-leszármazottak nem fogtak vissza semmit, mindkét gyártó kihozott egy második generációt ugyanarra az architektúrára, úgyhogy pariban voltak. A GTS250 volt az egyetlen, ami még egy generációval túlélte magát, annak meg már nem sok jelentősége volt a 260 és a 280 mellett.
A Maxwellre sokkal inkább igaz az állítás, de lényegesen rövidebb időhorizonton, mint azt a pH!-n lelkesen prófétáló népek szeretnék gondolni. 2016 lesz vszleg az az egyetlen év, ahol ezt érdemileg érezni lehet majd.
Amúgy azt nem értem, miért írják többen, hogy odalesz a teljesítmény-fogyasztásbeli hatékonyság. Két lépést ugrunk csíkszélességben a Maxwellhez képest, az azért nem keveset fog számítani...
-
#00137984
törölt tag
A látvány akkor lehetne gyönyörűnek nevezhető, ha az AMD GCN architekturára optimalzálnák a játékokat. Shader intenziv felhasználással a konzolszintet elérő effektszám egyidejű felhasználása jelentene előrelépést. Ehez még az IGP és APU teljesitményét is felhasználhatnák és elérhetnének valami olyat ami elvárható egy Gamer PC-től. AMD hardvereket már felkészitették ilyen használatra, de Nvidia-nak erőltetnie kell a DX11-et.
-
Olajka02
aktív tag
Ezt nem értem?
A 780TI még ma is egy meglehetősen erős VGA-nak számít meglátásom szerint.
Ugyan úgy, ahogyan pl egy R9 290x (vapor-x)-is amit a melegedés és nagy fogyasztás miatt sokan lenéznek.
Ilyen és olyan (NV és AMD) kártya is van a házunk táján és eddig mindenki mosolyog játékok alatt. -
Olajka02
aktív tag
Én nem azt mondom, hogy rendben van, hogy hátráltatja, de ez van.
Aki a prímást fizeti, az kéri a nótát szokták mondani.
Sajnos a piac az ilyen, aki vezet, az diktál és az AMD-nek nem sikerült még olyan játékot letenni az asztalra, ami az ő kártyáik erejét kihasználva sokkal több mindent tudott volna láttatni, megjeleníteni a képernyőn, ha már a kihasználatlan energiaforrásokról és egyéb energia és architectura igényes effektekről beszélünk.
Lehet hogy DX12 alatt fordul majd a kocka...
Lehet.
De csodák és tündérmesék manapság ritkán vannak.
Én azt mondom, hogy majd élőben meglátjuk.
Csak ne jósoljunk. -
-
#00137984
törölt tag
Közel majd egy éve alig kaptunk olyan jó játékokat, amire ezeket a videókártyákat fejlesztettük. The Witcher 3 az egyik kiemelkedő játékcimként hozta a 2015-ben elvárható szintet és a Batman meg éppen ellenkezőleg teljesitett. Mad Max és a többi már meg sem erőltette magát. Némelyiknek elég jól túlment a gépigénye és ehez a megfelelő látvány meg jól elmaradt és erre még néhol patch sem érkezik. Néhány területen az Nvidia videókártyák teljesitménye kevésnek mondható, mert a felső házas Nvidia GTX 980 egy szinten teljesit mondjuk egy R9 380-as videókártyával. Természetesen ezért nem is célja Nvidia-nak a játékmotorok lehetőségeinek teljes kihasználása és ezzel a látványvilág és az effektek nővelése, mert ez nem fekszik nekik.
-
Olajka02
aktív tag
válasz
#65675776 #31 üzenetére
Itt megint csak azt tudom felhozni még ha igazat is adok neked, hogy árban ma ugyan azt az élményt nyújtja nekem az NV a 980-nal, mintha vennék egy 390x-et, vagy egy Fury-t.
Árban ugyan az, a cím amivel játszom megy...ultrán...a látvány gyönyörű.
Ha egy év múlva valami jelentősen változik, akkor majd cserélek VGA-t (évenként egyébként is szoktam), de ebben nem hiszek, mármint a drasztikus változásban. Jelen pillanatban nem.
De a hardver az meg így működik, használod amortizálódik, csökken a teljesítménye, eladod, kidobod és jön a következő ami mást tud, máshogyan. -
Televan74
nagyúr
Tehát akkor a Pascal is a HBM2 -vel a top(200.000+) kategóriába érkezik.
Lehet eladni a TX és a 980Ti -ket és új kártyákat venni.Mondjuk a másik oldalon sem lesz jobb a helyzet.
Egy kis hegyitroll beszéd. Az NV -s üti a tamtamot a dx11 -es harci dobon,míg a másik oldal rózsafüzérrel a kezében mormolja a dx12 -es imákat.
De nem is kell az alsóbb kategóriában a Maxwellt leváltani. DX12 -es lesz az is csak alacsonyabb szinten.
-
Olajka02
aktív tag
válasz
#32839680 #30 üzenetére
Bármi előfordulhat és igen, a jelek azt mutatják, hogy a GCN jobban fog muzsikálni DX12 alatt, de élő tesztek, még nincsenek, vagy maximum elvétve egy-egy kirakat teszt, hogy majd milyen jó lesz ez és milyen szar lesz az, de ez nekem nem sokat mond.
Várjuk meg, hogy mit hoz a jövő.
Biztos vagyok benne, hogy az NV-nél sem ülnek ölbe tett kézzel a fejlesztők és sóhajtoznak, hogy nekünk végünk itt a DX12.
Nem is engedhetik meg azt - meglátásom szerint - hogy pl egy 980TI presztizse és így a cégé nagyot csorbuljon.
Lehet hogy vér fognak hugyozni, hogy ezt megoldják, de ilyen nagy piaci részesedéssel és tökefölénnyel a htuk mögött meg is kell tudni oldani.
Várjuk ki a mérhető végeredményt. -
#65675776
törölt tag
A probléma az, hogy nem első alkalom, hogy az nV miatt nincs érdemi jövőkép a sw fejlesztők számára. Anno az FX-ek miatt nagyon vonakodott mindenki a shaderintenzív motorok írásától. A már említett G80 és folyományai is erősen visszafogták a fejlődést. Most ugyanez lehet a Maxwell miatt is. Az nV akarva, akaratlanul de visszaél a piaci erőfölényével.
-
Olajka02
aktív tag
Ne haragudjatok, de nem arról beszélünk, hogy DX 12 alatt nem fog működni és képet adni egy Maxvell-es kártya.
Hanem arról, hogy kevesebb FPS-t fog produkálni a lassabb feldolgozás miatt.
Ezt várjuk már meg, hogy az életben és élőben milyen lesz, ne jósolgassunk mint a Gandalf, meg a Szürke Szaruman.
Az élő teszteken minden ki fog derülni idővel és akkor majd lehet szarozni az egyik, vagy másik oldalt. -
sb
veterán
Attól függ honnan nézed.
Ha pl. a jelenlegi Maxwell belassul valóban akkor annak a kiváló aránya is ugrik.Mondjuk én még ezt megvárnám mert egyelőre még DX12-ben sem maradt le a Maxwell abban amit eddig láttunk. Persze jöhet még változás... valószínűleg fog is, ha a tervezésben erre vették az irányt.
Aztán, hogy a tyúk vagy a tojás lesz-e előbb az meg majd kiderül... -
MongolZ
addikt
Most téged nem érdekel, de majd ha pl. fél év múlva a te kártyád már alig tudja futtatni az éppen aktuális címeket, míg a konkurenciá még bőven jó, és neked emiatt kell majd új kártyát venned, akkor majd érdekelni fog.
Egyszóval: ami ma jó, az holnap lehet már sz*r.
Kisarkított példa, nem belekötni.
-
-
Olajka02
aktív tag
Ezt valahogy én is így látom.
Mindig mindenki a jövőről, meg arról beszél, hogy az NV mekkora szar, mert nem tervez előre, és elavult technológiai háttérre épít...stb.
De felteszem újra a régi kérdést EZ KIT ÉRDEKEL, mikor a mai játék szépen s jól futnak rajta.PL.: Star Wars B. Beta WQHD-n ultra grafikai beállítások mellett gtx 980-cal fix 60 FPS és szemkápráztatóan gyönyörű!!! (mai most megjelent és fejlesztett játékról beszélünk, nem egy 5 éves cuccról)
Kérdezem én még egyszer...
KIT ÉRDEKEL, hogy milyen az a rütvás architectura, ha engem a jelenben, azaz ma kiszolgál?
Rádadásul hangtalanul, melegedés nélkül. -
gtamate2
veterán
válasz
#32839680 #14 üzenetére
Mire itt lesz a dx12 dömping már mindenkinek az aktuális generációs kártyái lesznek és sehol nem lesz a maxwell. Lehet itt várni a gcn-el hogy majd akkorra erősebb lesz, de addig még kijön kb 2 generáció kártyákból és lesz bőven választék. Az amd meg várhat és remélheti hogy minnél hamarabb jöjjenek a dx12-es játékok tucatjai, de ha a múltból indulok ki is kellett 2-3 év mire átálltak, itt pedig még élesebb váltásról van szó mint egy dx9->10->11-el kapcsolatban.
-
"ugyan radikálisan egyszerűbb ütemezést jelenet" => ugyan radikálisan egyszerűbb ütemezést jelentett
-
Fiery
veterán
válasz
Meteorhead #2 üzenetére
"Egyre inkább azt gondolom, hogy a zöldeknek fel kellene hagyni a hardver tervezéssel. Ha Maxwell tényleg megmarad, méghozzá a PC-s piacon is (bár ultramobilban is el kellene tűnnie), az katasztrófa."
Aham, nyilvan az nVIDIA CEO-janak a helyeben Te is behintened soval a teljes GPU tervezo reszleget, mikozben a globalis dGPU piac 76+ %-at (!) magaenak tudja a ceg. Az eladott rengeteg dGPU-nak pedig jelentos resze "szutyok" Maxwell alapu.
A GT420-at pedig mar egy ideje nem gyartjak.
-
gtamate2
veterán
válasz
Meteorhead #2 üzenetére
A piac 80%-a az övék, végülis a csúcson kell abbahagyni, nem?
-
Egon
nagyúr
válasz
Meteorhead #2 üzenetére
LOL, ezt az "elfogulatlan" hozzászólást...
Apró pici pontosítás: a Tegra 3 nem 2014-ben, hanem 2011-ben érkezett, azaz nem egy, hanem négy éves architektúra - a többi agymenésedre inkább nem is reagálnék... -
Asszem ugrik a kiváló pref/watt arány a felsőházban, ami most a Maxwell mellett nagyon sokat nyom a latba.
-
cheatergs
senior tag
válasz
Meteorhead #2 üzenetére
Vsz ezzel rengeteget spórol a tervezésen.
Másfelől ez nagyon nem idegen az NV-től, már az Gef4 idején is meglépte, amikor MX-eknek turbózott Gef2-eseket vetett be. Ez rendesen hátráltatta a piacot, miközben egy évvel korábban a Gef3 már támogatta a támogatta a DX8-at.
V uez volt a G80->G92->G92b-vel is, amikor szerencsétlen Gef8800 csak évekkel később tűnhetett el.
Viszont engem a Pascal érdekel, mert hátha ez végre teljesen DX12.1-es lesz, akárcsak szintén remélhetőleg a kövi Radeon is. Jó lenne még egyszer akkora ugrást látni, mint a Gef 6 és 8 idején volt.
-
Meteorhead
aktív tag
Egyre inkább azt gondolom, hogy a zöldeknek fel kellene hagyni a hardver tervezéssel. Ha Maxwell tényleg megmarad, méghozzá a PC-s piacon is (bár ultramobilban is el kellene tűnnie), az katasztrófa.
Evvel a stratégiával évekkel lehet hátravetni a piacot. A faxért kell 2016-ban grafikára kigyúrt architektúrát nyomatni?? Ez kb. olyan, mint Tegra 3, ami 2014-ben (vagy mikor) még mindig fix funkciós vertex és pixel shaderekkel érkezett. Szerencsére nem is épült rá sok hardver, így a fejlesztők pont letojták. Viszont PC-ben azért a feature-t igencsak hajszolni kéne, mert ott sajnos elég nagy részesedésük van, és amíg az ő vasuk nem tud valamit, addig ott lesznek a work-aroundok a kódokban.
Attól még, hogy valami az alsó házban indul, nem jelenti hogy nem lesz compute-ra befogva. Értem én, hogy a nyomorék pixel hajszoláshoz egyszerű architektúra kell, és a GT420-at majd a 4K-s tabletekbe akarják berakni desktop renderre, de ezt megszívták, mert oda Kaby Lake már pont elég lesz. Játszani egyikkel sem lehet majd, akkor meg minek egy dGPU? fogyasztásban jobb lesz az integrált. Akkor már lenne egy rendes compute-ra is befogható dGPU...
-
shteer
titán
Lefordítom: k***vadrága lesz
Új hozzászólás Aktív témák
- ASRock RX 5700 XT 8GB GDDR6 Phantom Gaming Elite Eladó!
- ASUS TUF Gaming GeForce GTX 1660 Ti OC 6GB GDDR6 192bit
- 3 hónapos Sapphire NITRO+ AMD Radeon RX 7900 XTX Vapor-X 24GB, még 33 hónap garanciával
- Asus Rog Strix RX 6800 XT LC 16 GB - GARIS (ritkaság)
- ASUS ROG STRIX RTX 4070 Ti O12G 2026.10.24-ig alza garis.
- ÁRGARANCIA! Épített KomPhone Ryzen 7 9700X 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7800X3D 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
- Lenovo ThinkPad L15 Gen 2 - 15.6" FullHD IPS - i5-1135G7 - 8GB - 256GB SSD - Win11 - MAGYAR
- ÁRGARANCIA! Épített KomPhone Ryzen 5 7600X 32/64GB DDR5 RTX 5060Ti 8GB GAMER PC termékbeszámítással
- BESZÁMÍTÁS! MSI B450 TomaHawk R5 5600X 32GB DDR4 512GB SSD RTX 3060 XC 12GB Rampage SHIVA 600W
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest