Új hozzászólás Aktív témák
-
#85552128
törölt tag
-
#85552128
törölt tag
"És a Vulcan az mi? A Mantle egyenesági utódja kb. "
Állítólag a DX12 is az, hivatalosan egyik sincs "elismerve" tehát maradjunk annyiban, hogy van amit átvettek a Mantle-től van amit máshonnan. Nyilván ahhoz hogy multivendor legyen eléggé át kellett dolgozni mindkettőt. Függetlenül attól, hogy miből született ugyanolyan jó példa, nem etalon többé a DX mint az OpenGL-es időkben. Ha a Sony beállna mellé komoly konkurencia is lehetne, mert két platformra már érdemes Vulkant is támogatni.
Az overheadtől nem lesz játszhatatlan, tehát teljesíthet az egyik "szépen" a másik pedig "még szebben". Mondjuk a 4690k is képes elég magas órajelre boostolni alapból hát még ha OC-t is kap.
-
#85552128
törölt tag
Ugyanilyen magyarázatot fellehet hozni a Kepler - Maxwell kapcsolat esetében is, architéktűralis eltérések miatt jobb lehet az újabb architektúra, de nem mindig és ez történt/történik most is.
A GCN DX11 jól működik a benchmarkokban, de annak aki nem a csúcskategóriában vásárol nem is az aktuális HEDT i7 proci van a gépégben, 4+ GHz-re húzva hanem egy non-k i5/i3 vagy Isten ments valamelyik Bulldozer ott pedig egy GCN minden gépigényesebb játéknál többet veszít mint a konkurens termék.
Éppen ezért lenne már ideje legalább a <1070 szintű VGA-k esetében valami hétköznapibb konfiggal is tesztelni az újabb játékokat. -
Solymi81
aktív tag
Mik azok a dolgok amik azt jelzik, hogy a játékostársadalomnak jobb lenne a GCN illetve milyen játékok lehettek volna emiatt? Értem én, hogy jó a GCN és mindenki örülne ha már használhatóak lennének ezek az újdonságok, de erre jó lenne pár példa, mert senki se tudja, ahogy Ren Hoek írta, egy demo sincsen rá, hogy miért lenne jó, csak technoblabla.
Ráadásul a sok majd 2-3-4-5 év múlva beérik az nem elfogadható válasz, ugyanis a játékosok nem 2-3 évvel későbbre vesznek kártyát, hanem mostanra.
Lehet valami teljesen új, előremutató, de ha nem tud elterjedni akkor olyanná válik mint azok a dolgok amik meghaladták a korukat. Lásd pl. A Citroen kormányzással együtt forduló fényszóróját, amit már 1967-ben piacra dobtak.
Egyszerűen az AMD nem volt képes arra, hogy nagymértékben befolyásolja a piac fejlődését, ezért nem látunk eddig semmit belőle. Lehetséges, hogy 1-2-3 éven belül beérik, de ott van még az Nvidia is, ők se ülnek tétlenül.
A jelenlegi helyzetre talán jó példa a GTX1060 vs RX480 kérdéskör.
Legyen egy 1060-an ami most jól teljesít és várhatóan 1-2 évig még jól fog, viszont DX12 alatt nincs gyorsul, habár a driverek változtathatnak rajta vagy esetleg legyen egy RX480 ami DX11 alatt nem igazán jó, de DX12 alatt látható a gyorsulás és valószínű még fog is, ami lehetséges, hogy időtállóbbá teszi. -
Asbee
veterán
Én a te hozzászólásaidon szakadok, ahogy erőlködsz állandóan. Magyarul, akkor szerinted mindenki hülye, mindenki csak a marketinget nyalta be. Nem, az nvidia a jelenre dolgozik, a mr alulórajelezőkre mint te meg ott az amd megoldása.

Te milyen jövőállóságról beszélsz? Már a 970-nél is ezt trollkodtad mindenhol, mégis mai napig ott van a piacon normálisan. Csak egy példa. A játékok nagyon nem fejlődtek akkorát mint ahogy jósoltátok. Magyarul az NV jobban pozicionált a jelen helyzetre. Úgy beszélsz mintha 5-10 évre vásárolnának az emberek átlagosan vga-t.
Élmény? Jó végeredmény?
Hát persze, az csak AMD-vel van.
Ideje lenne végre elfogadni, hogy a többség megveszi a vga-t beteszi a gépébe és használja. Ebben jelenleg még mindig az NV a jobb. Elhiszem, téged az tölt el örömmel, ha alulfeszelhetsz, órajelezhetsz, ventivel hűtheted pluszban a kártyát. Nincs is ezzel baj. Biztos eljön majd az az idő, amikor az AMD a technikai főlényéből nagyot kamatoztat, de ezt még mindig nem látjuk. Ezért nem a másik oldalra kéne fújni és eszeveszetten magyarázni az ellenkezőjét.(#24220) lezso6:
csak az NV-nek a marketingja sokkal jobb, ennyi.
Ez azért elég erős és fals kijelentés. De valóban igaz, hogy marketing téren, a semminél jobbat nem nehéz. -
Petykemano
veterán
(#24173) HSM
Szerintem egyetértünk
(#24172) VTom
Nem azért nem indítanak a csúcskategóriában semmit, mert arra várnak, hogy majd a közepes is elég lesz, ha beérnek a konzol-örökségek.
Hanem mert nincs pénzük. Nincs pénzük jót fejleszteni.
A) Nincs pénzük fejleszteni, ezért a fejlesztéseiket hozzáigazítják a konzolok fejlesztéséhez, és így az egészet mással fizettetik meg, vagy ugyanazon kétszer próbálnak keresni (egyszer konzol IGP-ként eladva, egyszer pedig saját diszkrét vagy integrált VGA-ként)
B) Nincs pénzük jót fejleszteni. Van egy irány, ami felé elindultak és talán elvből, de vélhetően forráshiány miatt sem szándékoznak letérni erről azért, hogy egy épp megfelelően jót fejlesszenek. Viszont az idő nekik dolgozik. Jelenleg. Vagy legalábbis jelenleg úgy tűnik. A verseny nincs megnyerve, egyáltalán nincs kőbe vésve, hogy a versenytársak nem lékelhetik meg az elképzelést, vagy nem csinálhatnak ellentámadást.Szerintem nem cél, hogy kizárólag mainstream vga-kat forgalmazzanak.
Ha adott esetben elkészültek volna egy Fiji porttal Polaris alapokon, akkor az dobott volna a fury X teljesítényén kb 40%-ot. Ami szép. De nem érte volna el - akkor - se összteljesítményben, se hatékonyságban talán még az 1080-at se. Ugyanúgy "mindenki" Pascal-t vett volna, aki ebben a szegmensben nézelődik. Elszenvedve a presztízsveszteséget valószínűleg dollárszázmilliókat takaríatottak meg azáltal, hogy nem versengtek egy számukra nem jó terepen, és a későbbi fejlesztést kifizettethetik a MS-tal.Ugyanakkor szerintem cél, hogy kisebb egybetokozott lapkákkal oldják meg a magasabb teljesítményt. A multiadapter ezt a célt szolgálja. Azt, hogy a játék két v több gpu-t ne frame-enként váltakozva, hanem a képernyőt akárhány részletre felosztva együtt tudjon használni.
Ez egyelőre még nem látszik. Még nincsenek ilyen játékok, vagy kevés van. De szerintem a terv az, hogy a VR farvizén elárasztani a piacot 2-4 lapkás gpu-kkal, amire aztán majd szépen megszületnek a multiadapteres adaptációk.(#24183) Ren Hoek
Azt értsd meg és építsd be a gondolkodásodba, hogy az apik nem valami külső környezeti adottságok, hanem az ökoszisztéma része, amire a sikeres üzlethez hatással kell tudni lenni.
Az nem úgy történt, hogy az AMD álmodott egy nagyot, de hát mivel a környezet, a piac rajta és mindenki máson kívül csak úgy véletlenül mégse úgy alakult, ahogy az AMD álmodta, ezért elszúrták és kukában a helyük. Elszúrták. De nem azt, hogy álmodtak egy nagyot és csináltak egy valamilyen architektúrát. Hanem, hogy az ökoszisztéma bizonyos részeit nem sikerült kellő mértékben, vagy időben vagy irányban befolyásolni.Az NV tökéletesen jól csinálta. De nem csak azt, hogy épp annyi fícsőrefjlesztést hajtott végre az architektúrán, ami pont kellett. Hanem azt, hogy az architektúráját és a drivereit és az api környezetet is sikeresen tartotta kézben, sikeresen terelte a számára kedvező irányba.
A fasat-path-ok beépítését, amiket Abu említett akkor engedheted meg magadnak, ha a másik oldalról biztos vagy, de legalábbis minden megteszel annak érdekében, hogy az api környezet, amire építed az architektúrád gyors és hatékony működését nem fog megváltozni.Tehát mégegyszer: azt értsd meg, hogy nem pusztán az történt, hogy az AMD és az nvidia is fejlesztgette szépen a kis architektúráját és az AMD túl nagyot álmodott, mellélőtt, stb, az nvidia meg betalált. Az nvidia is és az AMD is nyilván mindent megtett annak érdekében, hogy a környezetet (api, middleware, stb) az architektúrájának optimális irányba terelje. Ezt korábban az nvidia sikerrel hajtotta végre. Az átmenetnek, ahogy az AMD épp formálja a maga képére ezt a környezetet most vagyunk szemtanúi. Persze a meccs nincs lejátszva. Az, hogy az AMD kikényszerítette, vagy kikényszeríteni látszik egy API fejlődést még nem jelent egyértelműen piaci sikert is. Holnap az nvidia előállhat egy olyan architektúrával, amelyiknek sokkal jobban fekszik a DX12, mint a GCN-nek. Ha politikusokról beszélnénk, azt mondanám: pont ezt fogja csinálni és úgy fogja előadni a DX12-t, mintha ők akarták volna eredetileg is.
(#24187) HSM
Szerintem 2005-2006-ban, amikor lerakták a bulldozer első építőköveit még nem látszott az, hogy a többszálúsítás hol és mikor fog kifulladni. Épp akkortájt jelentek meg az első Core2-k. Szerintem racionális volt azt gondolni, hogy 1-2 év leforgása alatt a szoftveres környezet adaptálódik a növekvő magok számához és 2010-2011 környékén már igény lesz a 4-nél több szálat kezelni képes processzorokra. A bulldozer egy olyan olcsósított architektúra volt, ami ugyan nem sikerült jobbra mint a korábbi K10 magok, de alkalmas volt a további skálázódásra. Terv szerint jött volna a Vishera után a 10 magos Komodo.
Szerintem itt se pusztán az történt, hogy elkalkulálták magukat. Persze a versenytás keresztülhúzta a számításait. Az intel minden tőle telhetőt megtett annak érdekében, hogy a saját architektúrája előnyösebbnek tűnjön. Az bizonyos hogy az intel compilere bizonyos műveleteknél egy nem intel processzor esetén a biztonság és kompatibilitás érdekében inkább nem a hatékonyabb, gyorsabb utasításra fordította a programot. Tette ezt egészen addig, míg le nem bukott és míg behozhatatlan előnyre szert nem tett IPC tekintetében, amikor már az IPC magáért beszélt.(#24192) Loha
A Core2-ig csak frekvencia és IPC volt. Onnantól számított a magszám is és utána már e három tényező optimális arányáról kellett gondolkodni. Ahogy fentebb is említettem, szerintem 2005-2006 környékén jogosan gondolhatta, hogy 4-5 év múlva jobban fog számítani az 1-2 évente duplázható magszám, mint az 1-2 évente 5-15%-ot emelkedő IPC vagy frekvencia.(#24209) Ren Hoek
A GCN egy stratégiai terv. Ami egyelőre nem hozta meg a piaci siker gyümölcsét. Ezzel együtt egyáltalán nem biztos, hogy lenne még AMD, ha akkor nem ezt az utat járják.
A GCN nagyjából egyidős az első x86 konzolokkal. Abu mintha mondott volna ilyesmit, hogy a GCN tudása soktekintetben azt tükrözi, amit akkor a konzolgyártók kértek.
Ahogy HSM kolléga is mondta, hogy a GCN-nel együtt házalt az AMD a Mantle ötletével.
Ahhoz képest, hogy az AMD az egyik legkisebb cég ezen a piacon, elég szépen haladgatnak a stratégiai terv végrehajtásával:
Fejlesztettek egy nagytudású, rugalmas architektúrát. Megszerezték a konzol piacot hardver tekintetben, amivel jókora piaci részesedést szereztek az architektúrájuknak a gamer piacon. Készítettek hozzá egy apit, ami ma már gyakorlatilag standarddé vált. A konzol piac megszerzésével rákényszerítették a fejlesztőket a GCN ismeretére és a GCN-hez való kódolásra.Nem látom gyümölcsözően sikeresnek én se. De vajon hol lenne az AMD a GCN, mint stratégiai terv nélkül? Milyen perspektívák állnának előtte?
Azzal egyébként egyetértek, hogy az újrakiadott nem csúcskártyákat, amiket csak átcímkéztek, igazán kiherélhették volna. Egy nem csúcskártya semmiképp sem lesz időtálló, akkor meg már inkább fogyasszon kevesebbet, legyen kisebb és olcsóbb.
-
Sose fogják (akarni?) megérteni miről beszélsz. Alapvetően a mai helyzetet veszik alapnak, hogy az NV-nek nagyobb a piaci részesedése, így csak az az út lehet jó, amit az NV jár. Az is baj, hogy az AMD nem elég pszichopátiás működésű cég, inkább jövőtálló, rugalmas architektúrát csinál, ami a fejlesztőknek kedvez, stb. Ha pedig minden érv elfogyott, akkor jön a primitív hozzáállás: nem érdekel a jövő meg a technoblabla, most jó minden NV-n, kit érdekel az AMD?
-
Loha
veterán
Nem járt jó úton az AMD, nem volt logikus amit csináltak, tudhatták előre, hogy a DX11 sokáig marad, ahogy előtte a DX9 is, meg a nem is a DX11 probléma, hanem a GCN. Az NV nem vár az MS-ra vagy játékfejlesztőkre, olyan újításokat hoznak, amihez nem kell harmadik fél, mint pl. a DCC, GPU Boost, vagy a Tile Based Rasterization a Maxwellnél.
-
cyberkind
félisten
Ez mind szép és jó, de ha annyira szar lenne a végletekig polírozott gyertya, akkor gyanítom nem a mostani piaci helyzet állna fent vga téren. Szóval ahogy nézem sokkal többen vannak azok akiket kicsit se érdekel mi mennyire előremutató a konkurenciánál (feltéve ha tényleg az), és csak játszani szeretnének (köztük én is), esetleg ezt kompromisszum nélkül 1440p-4K-ban, de az utolsó állítás inkább a szoftveren múlik mostanság.
-
Ren Hoek
veterán
És mit tett le az AMD az új API terjedése érdekében? Miért nem ontotta magából a működő fullos Mantle -> DX12 demokat, bencheket, játszható sceneket stb, ami el se indul kb NV hardveren...
Kb csak egy gagyi bughalmaz BF patch jött annak idején... aztán nagynehezen megszülték a 2009-es játékok által is megalázott Asses of Fingularity-t. Nem jelezték előre, hogy nem is olyan könnyű összehozni egy új API-s játékot 2015-re kb... ? Persze az NV meg a piac, meg a userek hibája, hogy nem terjedt az új API... aki nem szopta be a meséket, az mind jól tudta, hogy nem lesz egyszerű a váltás és maradunk még sokáig a biztonságos DX11-en.
Most 2017 lesz hamarosan, és még mindig nagyon kevés a meggyőző eredmény, hiába akar a PH átállni tesztcsomaggal. A jóslatoknál is rosszabb a felhozatal.
Még mindig nincs olyan álleejtős techdemo amire azt mondom frankó. (NV (lol) hozta azt a szexi DX12 boszorkányt tavaly
) -
Loha
veterán
Nem volt túltervezve a Fermi, csak egyszerre akartak jó teljesítményt általános számításokban és grafikában is. Csak a teljesítményre koncentráltak és nem figyeltek a hatékonyságra.
Az AMD akkori csak grafikára kihegyezett GPUi ellen ez hosszú távon nem volt versenyképes, ezt akkor ott az NV-nál felismerték és változtattak, ebből lett a Kepler, miközben az AMD meg nekiállt a "Fermi 2" -nek konkurenciát tervezni, ebből lett a GCN, mert nem ismerték fel az AMD-nél, hogy pont a jó úton jártak addig...
-
Loha
veterán
Az Intelnél a Pentium 4 idejében rájöttek, hogy az IPC -t semmiért sem szabad beáldozni, dobták is architektúrát teljesen...
Nvidiánál az első Ferminél már rájöttek, hogy a fogyasztás fogja limitálni a jövőben a teljesítményt, és a Keplernél már arra gyúrtak...
Az AMD meg mit csinált mindeközben?

-
Ren Hoek
veterán
"ha kihasználatlanul maradnak a képességek, amiket generációról generációra beépítenek az újabb és újabb GCN verziókba."
Ez megint a sales tervezés problémája. Olyan dolgokat építenek bele, ami a jósolt jövő szerint elkélhet... talán... de vége az, hogy fejlesztői réteg nem használta. Magyarul nincs igény rá az adott termékciklusban. Egy CEO-val beszéltem legutóbb, ő pont ezt mondta. A szuperjó ötletüket elkezdték szakmai/mérnök szemmel piacra dobni, és majdnem csődbe ment a spinoff cégük, mert olyan terméket csináltak aminek egy sor képességére nem volt szükség. Rengeteg fejlesztésre felvett hitel elfolyott, és majdnem vége volt a dalnak. Az mentette meg őket, hogy lecserélték az eladási részleget mérnökökről valódi üzletkötőkre és piackutatókra..., felmérték a piacot és most már önerőből van pénzük az újabb generáció kifejlesztésére. Néha ez kell, ki kell venni a mérnökök kezéből a döntést. (Raja?)
Az NV ezt tökéletesen jól csinálta, csak annyit tett bele a termékeibe amennyire szükség lehet, azt viszont profin tálalva. Eddig a felhasználókat semmiféle kár nem érte emiatt, mert gyors VGA-t kaptak, hűvöset és teljes arzenált 100K HUF felett. Az AMD stratégiájával jelenleg az a baj, hogy önmagába harapó kutya. Nincs új kártyájuk, és nincs elég market share-jük sem, hogy rátudják venni gyorsan a piacot a váltásra. A fejlesztőket meggyőzni még csak-csak meglehet, de a usereket is meg kell, hogy DX12-re csak AMD-t szabad venni és ez a "jövő". Amíg csak egy 480-t tudnak felmutatni, addig esélytelen... (DX12-ben nem egy hűde nagy szám az sem, hiába az ultramodern technológiáknak. Megnéztem pár DX12 tesztet, kb úgy skálázódik amennyi az ára, és amennyit a buta 390/390X tud az SP-k alapján - ennyi erővel a Hawaii-t rányomják 14 nm-re 8 GB-al, már lenne kint egy erős kártya)
-
Abu85
HÁZIGAZDA
Ez nem ilyen egyszerű. És ez alapvetően félre van értve.
A GCN azért tud jól alkalmazkodni ezekhez az explicit API-khoz, mert van a multiprocesszorokon belül egy elég sokat tudó skalár egység. Ilyen nem nagyon szokott lenni a GPU-ban. A CPU-kban alap, de a GPU-kban inkább úgynevezett branch egység van, ami nem tud annyit, mint a GCN-nek a skalár egysége. A legfőbb különbség a konstans puffer és a erőforrásleíró hardver között van. Az AMD nem fixfunkciósat használ ezekből, hanem programozhatót. Ez lehetővé teszi, hogy bármelyik API-hoz tökéletesen alkalmazkodjon az architektúra, és teljesen mindegy, hogy az adott API milyen bekötési modellt ír elő. Egyszerűen azt a modellt leprogramozzák a meghajtóban, és az erőforrásokról az aktuális képet a memóriában tárolhatják. Ezért van az is, hogy az AMD a Mantle, a DirectX 12 és a Vulkan API-ra is ugyanazt a PAL réteget használja a meghajtóban, mert egyszerűen a felszín alatt mindegyik API-t pontosan ugyanúgy kezelik. Erre a PAL rétegre pedig fel van húzva egy ICD réteg, ami az adott API specifikus jellemzői szerint dolgozik. A modell előnye, hogy bármit is optimalizálnak a PAL rétegen belül az mindhárom API-ra pozitív hatással van, és nem mellesleg három helyett csak egy meghajtót írnak, vagyis az x mennyiségű humán- és pénzbeli erőforrást háromszor hatékonyabban költik el. És ennek az egésznek az a skalár egység az alapja a multiprocesszoron belül. De akkor most már járjuk végig ezt, és az a skalár egység azért jóval robusztusabb, mint egy szimpla branch egység, amit a konkurensek használnak. Ez magával hozza azt, hogy romlik az energiahatékonyság, mert egy fixfunkciós motor egy kialakított feladatra hatékonyabb, mint egy programozható rendszer. Ezt talán nem kell magyarázni, hogy miért. Ezért is van az, hogy a GCN energiahatékonysága rosszabb, mint a többi architektúra energiahatékonysága. Persze itt most kössük generációkat, tehát ne jöjjön senki azzal, hogy a GCN4 jobb, mint a Kepler/Maxwell.
Az AMD konstrukciója annyi volt, amikor megtervezték a GCN-t, hogy kiszámíthatatlan lesz az API-k fejlődése, amiben valljuk be, hogy nagyon igazuk volt, hiszen jelenleg két új szabványos API van, és mindkettő más bekötési modellt követel. Ha megtartják a klasszikus értelemben vett branch egységet, akkor vagy az egyikben lettek volna jók, vagy a másikban, vagy leginkább egyikben sem. A programozható skalár egységgel viszont nincsenek a hardvernek direkt limitációi, úgy fog működni, ahogy azt a meghajtóban leprogramozzák. Jöhet egy harmadik vagy negyedik API is, arra is rá lehet illeszteni a GCN-t, egyszerűen csak kódolás kérdése az egész.
Az NV és az Intel ma különböző képességű branch egységgel dolgozik. Az Intel azért érdekes (erre kitérhetünk), mert ők brute force megoldással próbálnak az API-k után menni. Egyszerűen nem léptek át a skalár egységre, hanem csúnya szóval hardveresen emuláltak egy memóriaalapú architektúrát. A Gen9 valójában nem az, de a programozó felé pontosan úgy viselkedik. Ezt úgy érték el, hogy a korábbi 255 bejegyzéses erőforrás-kezelésüket leváltották több, kétmillió bejegyzéses megoldásra. Ez ilyen furcsa öszvér megoldás. Nem tudják programozni, de a DX12 bekötési modelljét maradéktalanul kielégíti a legmagasabb szinten. Viszont zabálja a tranyót, mert nyilván azt a több szintre lebontott, szintenként kétmillió bejegyzést tárolni kell. De itt is trükköznek, mert nem tárolják az összes szintet, hanem csak mindig egyet, és a többi szintet lementik a memóriába. Ezeket a szinteket cserélgeti a hardver ezért mondható emulált memóriaalapú architektúrának (persze, ha valójában nincs annyi bejegyzés, akkor mind befér a lapkán belülre is). Ennek nyilván az az előnye, hogy amit most a DX12 megkövetel formátum és erőforrás-kezelés gyanánt, azt a Gen9 megoldja, de ha a Microsoft mondjuk úgy dönt, hogy bevezet egy új puffert vagy formátumot, akkor nem tudnak utánamenni, míg az AMD-nek egy ilyen újítás támogatása csak egy meghajtófrissítésbe kerül.
Az NVIDIA branch egysége sokkal inkább klasszikus, tehát nem AMD-féle programozható rendszerről van szó, vagy nem Intel-féle öszvér modellről, hanem a klasszikus konstans puffer és erőforrásleíró hardver köszön benne vissza, abszolút fix limitációkkal, különállóan minden egyes pufferre és formátumra. A fenti két megoldáshoz képest ez a leghatékonyabb, ha a fogyasztásról van szó, de messze ez a legbutább, ha a működésről. Ezért van az NV-nek a DX12-vel az a problémája, hogy nem tudják támogatni a legmagasabb bekötési szintet, miközben az AMD és az Intel tudja, illetve pusztán ez a klasszikus modell vezetett oda is, hogy a Microsoftnak Root Signature ajánlásai sem jók az NV-nek. A klasszikus modell miatt a GeForce-ok alkalmaznak úgynevezett fast pathokat. Ezek a DX11-ből maradtak meg, mert ez az API sokkal limitáltabb volt az erőforrások bekötése szempontjából. Egyszerűen voltak tipikus feladatok, és arra vonatkozóan tipikusan tudni lehetett, hogy a fejlesztő milyen puffert és milyen formátumot fog használni. Ennek az oka, hogy a DX11-es modellben általában egy tipikusan jól működő megoldás volt az egyes problémákra és kész, minek kell több ugye?
Az NV ezekre a tipikus megoldásokra csúnyán mondva gyorsabb feldolgozást épített be a hardverbe, így az javított a teljesítményen. Na most a DX12-ben a Microsoft ott rontotta el ezt a játékát az NV-nek, hogy lényegesen nagyobb szabadságot adott a fejlesztőknek a erőforrás-kezelés szempontjából, és ennek az alapja az, hogy a Root Signature-be csak pointereket ajánlott helyezni, amelyek leírótáblákra, root konstansokra és puffer pointerekre mutatnak. Ugyanakkor a Root Signature végeredményben elfogadja, ha direkt puffereket is rak bele a fejlesztő, de akkor ezek a pufferek különféle limitációkat kénytelenek elszenvedni, például nem támogatják az össze formátumot, illetve teljesítményvesztés is lehet a vége. Az NV azért megy szembe a Microsoft ajánlásaival, és biztatják a fejlesztőket, hogy rakjanak puffereket is a Root Signature-be, mert azzal néhány formátum erejéig elérik a hardverbe épített fast pathokat, de ha a fejlesztők a Microsoft ajánlásait követik, akkor ezek a fast pathok kihasználhatatlanok lesznek. A legtöbb DX11-DX12 váltásnál az NV hardverek sebessége ezért csökken, egyszerűen elvesztik a hardverbe épített fast pathok használatának lehetőségét. Az NV-nek a DX12-ben ez a legrémisztőbb, hogy minél inkább használják ki az API-t a programok, annál több fast pathot buknak el a hardverben. Ma még ez nem annyira kedvezőtlen (bár BF1-ben azért már erősebben látszik), de ha a programok átváltanak bindlessre, akkor minden fast path odalesz, és az ezzel nyert 20-25%-os extra teljesítmény is.A másik dolog a hsz-edből az API-k fejlődése. Na most az nem igazán baj, ha az API diktálja a tempót. Azért lássuk be sok területen nagyon le van maradva a rendszer az aktuális hardverdizájnoktól. Tehát mindenképpen egy nagy lépést kell tenni ebben az ügyben. Részben ezt meg is tették az érintettek. És végre figyelnek a shader nyelvre is. Mikor is volt utoljára nagy váltás? Kb. 10 éve a shader model 4.0-val. Azóta átment alattunk pár architektúra, és az újak nagyon nem úgy működnek, mint 10 éve. És persze óriásit lépünk majd előre, ami látva például a cross lane operációkat még a GCN-en belül is le fogja szakítani a GCN1/2 hardvereket a GCN3/4-től, de ez a lépés fontos a fejlődésben. Ezt le fogják követni a hardverek, mert a konzolon már ma használják a programozók az újításokat. És nem azért használják, mert mazochista mind, hanem azért, mert olyan újítások, amelyek nélkül nem igazán jó élni.
-
Petykemano
veterán
Nem ástam el magam az apik történetében, csak feltételezem, hogy magától (csak szoftveres irányból) nem nagyon születik semmi. Feltételezem, hogy az apiban egy feature akkor és úgy jelenik meg, ha legalább egy hardvergyártó támogatja, akarja és kellően képes befolyásolni az api fejlődését ahhoz, hogy tényleg bele is kerüljön.
Ha tehát abból indulunk ki, hogy ha a hardvergyártók nem akarják, úgy nem újhodik meg az api, akkor a meg nem újhodó apihoz racionális igazítani az architektúrát.
A status quo akkor borul, ha egy hardvergyártó új képességet tesz a hardverébe, amit idővel az api támogatni kezd, mert attól jobb lesz. (Legalább annak az egy hardvergyártónak)
Azt mint látod, sokan vitatják, hogy jobb lett-e így, mintha minden hardvergyártó méginkább a meglevő API-hoz igazította volna az architektúráját (most tekintsünk el attól, hogy az AMD-nek más tervei és lehetőségei voltak)
(#24168) TTomax
Nincs kint, és biztos nem örülnek ennek ők se. Feltétlezem, hogy erőforrás hiányában.
Úgy tűnik, hogy a konzol biznissz nem anniyira mint kiemelkedő bevételi forrás számított az AMD életében, hanem mint hullám, aminek farvizén evezhetnek. A közvetlen pénzügyi hatáson túl teljesen nyilvánvalóan látszik, hogy a hardverfejlesztéseiket hozzáigazították a konzolokhoz. Akkor lett Polaris, amikor jött a PS4Pro. És olyan is. És akkor lesz Vega, amikor jön a XB Scorpio. Ezt biztosan nem kiszúrásból csinálják, hanem költséget igyekeznek minimalizálni. Nem biztos, hogy jó stratégia, mert minimális költség lehet ugyan, de közben elúsznak a lehetőségek. Lehet, hogy a P10 nem került szinte semmibe, egy külön nagyobb lapka tervezése meg soktízmillióba lett volna, de így biztosan bukták a felsőházat ebben az évben. lehet, hogy a vega nem került szinte semmibe, de ki tudja jövőre mivel kell versenyeznie? Mert lehet, hogy nem az 10X0 szériával.
Ugyanakkor - még mindig az AMD szemszögéből vizsgálva az eseményeket - az is igaz, hogy az idő nekik dolgozik: csak meg kell várniuk, amíg beérik a szoftveres oldal (Dx12, Async C, Shader intrinsics, meg az új mantra a Shader Model 6). és közben nulla hardveres befektetéssel képesek versenyképesek (20%) maradni. Jobb lenne, ha küszködnének ilyen Furyszerű szörnyekkel, amiket aztán ezért-azért-amazért mégse venne senki? Lehet, hogy kiszámolták, hogy nem. Mindeközben fel-felbukkannak olyan címek, ahol a Fury X kitesz magáért.Abban igazad lehet, hogy DX12 olcsóbbá tette a portolást. Azt nem tudom megítélni, hogy ha nem lenne DX12, akkor mi lenne. Drágábbak lennének a portolt játékok? Vagy később készülnének el? Vagy el sem készülnének? Vagy csak kevesebb pénz maradna a kiadónál?
Annyi előnye mindenesetre van talán, hogy az egyszálas teljesítményben gyengébb többmagos processzorokon jobb lett.
(#24169) #Morcosmedve
Én nem mondtam, hogy az AMD húsz lenne.
Az, hogy nincs 100k feletti AMD alternatíva mit bizonyít, vagy mire utal? -
Ren Hoek
veterán
Mondok egy példát: Te etikátlannak tartod a Titán verzió megjelenését, mert utána jött a Ti, és kb féláron adták. Vagy etikátlannak tartod, mert a Founders edition nyílt lehúzás...
Ez megint csak senki mást nem érdekel, csak az AMD fanokat, meg etikán pörgőknek. Ugyanis aki megvette a Titánt, vagy a Founderst, vagy volt pénze és leszarta, vagy tudta hogy lehúzás de megvette. Persze ez az NV-nek combos bevételt hozott, ahogy most a túlárazott 1080 is.
Viszont így megengedhet magának egy komoly fejlesztési büdzsét, és azt is, hogy ne kapkodva teszteletlenül kelljen kókányolt munkát kiadni, hanem egy nagy mérnökcsapattal kitesztelt szétoptimalizált gyártástechnológiás chipet fog piacra dobni. AMD-nek is nagy a fejlesztési keret, de azt vagy hitelből termeli ki, vagy nem tudom.. de ha nem jön be elég profit, akár lopásból, csalásból, hazudásból, akkor nem lesz Navi..és/vagy ebből jönnek az egy éves csúszások össze...
... de ne aggódj talán megjött az AMD esze, és kihasználja a GCN konzol - GPUOpen lapot amivel szépen szétszakíthatja úgy a piacot, hogy külön-külön kell majd optimalizálni... vagy épp az NV-t belekényszeríti, hogy csináljon zöld GCN-t. Akárhogy is, de ez nem a PC-s vásárlók érdeke igazából, mert az univerzális szabványos dolgok helyett egyre specializálódnak a HW/SW-k.
-
TTomax
félisten
Én is megpróbálom neked utoljára megmagyarázni,hogy piszkos trükköket már az AMD is vetett és vet is be be szép számmal,akkor hogyan is lehetsz tudatos?
Szerk: Hát az FX-ek éppen DX12 sem szárnyalnak,nem huzta ki senki alóluk a talajat,de ha már itt tartunk 144Hz-ez 1440pben TE mit használnál?Hát 4Kban?Na hát ez itt a gond...
-
TTomax
félisten
Ne haragudj,ha nincs idöm rágódni ezen,maradok én egy egyszerü user aki berakja a vgat (minnéltöbbfps) és élvezi az eredményt.Ez a kesergés és máshova mutogatás már fárasztó,dehát ugyanez megy évek óta cpu fronton is... na majd...na majd most...áhh mégse... mert...mert...mert mindenki hibás csak az AMD nem.Egyébként jópofán rá tudtok csodálkozni ahogy a kapitalizmus müködik...
-
Ren Hoek
veterán
Miért az most kinek jó, hogy brutális minimum 9 hónapos (ha nyártól 2017 februárt veszem) lemaradás lesz a közép-felső, felső és csúcs szegmensben? Valahol valaki, valamit benézett ennyi. Talán meg kellett volna elégedni a Fijivel, és 1:1-ben rányomni az új node-ra. Vagy kitalálni valami egyszerűbb megoldásokat és kijönni egy áthidaló de versenyképes termékkel. Ez aztán tényleg jó a játékosoknak, hogy elszállnak az árak, mert monopol helyzetben van a másik cég. A kutatás-fejlesztést finanszírozni kell iszonyú sok pénzzel, és ehhez olyan kutatás-fejlesztési parancsot kellett volna kiadni, amit el lehet adni termékként. - ha nem lehet eladni, akkor egyszerűen nem lesz következő termék. Ez egy spirál, amiből láthatóan baromi nehéz kijönni kis halként...
-
-
Ren Hoek
veterán
Az esetleg nem jutott eszedbe, hogy pont az üzletpolitika miatt jutottak ide? Álmodozó termékekkel nem a valós piaci igényekre koncentráltak. Nincs profit, nincs fejlesztésre pénz, ezért lesz 7-8 hónapos késés a konkurenciára.
Pont ez van a hi tech eszközt fejlesztő cégünknél, ahol mi vagyunk az AMD. Kb világszinten a mi eszközünk a legfejlettebb (iszonyú sok anyagi és szellemi tőke belement)... mégis a nagy gyártóhoz képest nincs elég árbevétel. Most cserélték le az üzletpolitikát, egy sokkal agresszívebb salesre és marketingre. Eladni eladni és eladni minden áron, minél több profitért, mert egyszerűen a következő ciklusra nem jut pénz a fejlesztésre és végünk.
Szóval az agresszív üzletpolitika profitot szül, amit visszaforgatva viszont tud fejlett konkurens terméket kiadni... ennyi...
-
Ren Hoek
veterán
Ne légy naív... ha AMD lenne vezető pozícióban volna, hülye lenne gatyaletolós árakon adni a kártyákat, szépen behúzná a hasznot. Mit gondolsz angyalkák ülnek az AMD vezetőségében + a mögötte lévő részvényesek csak úgy lemondanának a profitról a játékos kedvű felhasználókért?
Nincs konkurencia, és ez az AMD sara.
(#24110) Szaby59 válasza: A polírt nem fikának szántam. Jelenleg szuperül bejött megint az NV elképzelése, hogy egy finom iparos munkát végeznek a Maxwellel. Nem Abu jóslata jött be, hogy tarolni fognak a DX12 szuper játékok, hanem az NV-é, hogy ráérnek, mert kb tákolmány szarok jelennek meg Dx12 címszó alatt és felesleges sietni egy fullos DX12 arch-al. Ha viszont AMD kijön egy hasonló de DX12-re gyúrt arch-al, akkor nyilván a fejlettebbet érdemes választani... de most úgy tűnik ettől nem kell tartanunk. (1070/Fury X szinten)
Abu hsz-e fényében a korábbi AMD-s predikció is natív bullshit volt, hogy szépen le lesz skálázva a Vega minden ársávra... majd menni fog a sikálás, hogy "Nem lehet letiltani annyit, mert túl drága lenne a chip meg bla bla bla, meg jön a Polaris reload majd jó későn azellen stb..."
Az AMD a fantázia foci ligában játszik
míg az NV a valódiban... -
Ren Hoek
veterán
120-130-ért hol kapsz autót?
Aki erőt akar az fizessen 200 felett. Ez normális.
Aki meg performance kártyát, 1080p/1440 felbontásokra, annak elég egy 120-130K-s kártya, ami a 290x/970/980 árait takarta anno. Ennyit még ki tud pengetni bárki, aki erős gépet akar. Nagyon sokan vannak ilyenek...
Az AMD töketlenkedésének hála ennyi ez a kategória, lehetne olcsóbb is. Valamilyen product line tervet elszúrtak, ha nem tudnak kijönni ezzel... ezen nincs mit szépíteni. Kötve hiszem, hogy ez az ársáv lenne a legkorábbi Vega...
-
Ren Hoek
veterán
Aki egyszer ráérzett a pénz ízére, annak nem elég egy, vagy kettő státusszimbólum, mert mindig van jobb és több... egyszerűen miért fejlesztenének több tartalmat, ha ezt a sz.rt is megveszik (még olcsóbban is...)?
Jön a következő profitot termelő konzolos project. Mert rájöttek, hogy fizetnek ezért is. Sőt inkább fizet a sok birka egy új csilivili skinért, páncélért, meg fegyverdizájnért DLC-ben, vagy mikrotranzakcióban mint az igényes tartalomért. Mi úgy fogunk fel egy játékot, mint egy kor műalkotása amivel heteket töltöttünk..., pl a C&C. Ők meg képesek lennének mikrotranzakciós szart, meg DLC-ket ráhúzni, mert jobban megéri. Ezzel lőttek is a nosztalgiának. Nem baj, a mai gyerekek ezeken nőnek fel, mi kiöregszünk... és el se tudják képzelni majd, milyen volt az amikor egy teljes alapjátékkal el lehetett tölteni hónapokat és még csak online se kellett lenned.Ez lesz a norma onnantól...
-
Ren Hoek
veterán
"akkor minőségibb tartalom tehető bele azonos költségvetésből,"
Aha persze, aki dolgozott bármilyen kapitalista cégnél, az tudni fogja, hogy nem a minőségibb tartalom születik meg ebből, hanem a nagyobb sportkocsi, meg a yacht a CEO-knak és a holdudvarnak.
Ezek ma már rég nem a játékélményről szólnak, hanem a lehúzásról. Komolyan kevés olyan alkotás van ma már, ami tényleg a 'játékművészetről' szólna. Nem véletlenül nyomulnak DLC-kkel, lehúzott rókabőrökkel, multis lövöldözős játékok N-edig itercáióival, mikrotranzakciós agyf...sszal, mobiljátékokkal... Mert jobban megéri. Sokkalta több hasznot termel, mint 5 évig nagy költségvetésből kihozni egy minden tekintetben igényes játékot szívvel lélekkel. (Witcher 3 volt talán ilyen). Miközben műfajok halnak ki, amivel anno nagyon sok játékórát eltöltöttünk. Pl RTS, nagyszabású űrstratégia stb... Baromira nem attól függtek ezek, hogy DX12-ben hány egység jeleníthető meg, és Ashes-ben besüpped az az ocsmány terrain 1 pixel mélyen, 6 magos CPU-t zabálva... miközben nincsenek roncsok meg romok stb... sorolhatnánk az igénytelenségeket. Egyszerűen nem éri meg igényes játékot fejleszteni manapság, a nagy kiadók ráéreztek az egyszerűbb lehúzásra.
(#24010) Szaby59: +1, ...megelőztél, épp írtam

-
keIdor
titán
-
Loha
veterán
Egyáltalán nincs felfújva a dolog, a PCIe slot 12V-on 66W-os terhelhetősége (5 x 1,1A x 12V = 66W) a csatlakozó fizikai korlátja is, nem csak a PCIe szabványé, miközben a PCIe 6 tűs tápkábel csatlakozójának a fizikai korlátja 8A érintkezőnként, ami 2 db 12V-os tüske esetén (2 x 8A x 12V) = 192W.
Nem lenne téma az egész, ha csak a 6 tűs PCIe tápcsatlakozón lépén túl RX 480 a 75W -ot, mert több mint kétszeresen túl van biztosítva, de a PCIe foglalat nincs!
Nem is értem, hogy miért nem 2/3 -ad arányban a PCIe tápcsatlakozót terheli a kártya a jelenlegi 1/1 helyett, mert úgy biztonságosan elmehetne kb. 200W-ig.
-
bobalazs
nagyúr
Ja? Erről én nem tudok semmit. Az biztos hogy az első, Elpida ramos volt, amiről nekem régóta megvan a véleményem (kevésbé tuningolható), nos, az ram hibás lett, ergó csíkozott. A csere kártya hynix ramos szerintem nem ramhibás, más bibi lehetett ott mert ott egy az egybe lekapcsolt a kijelző és nem posztólt többet. Egyébként MSi, ami szerintem marha jó hűtéssel rendelkezik.
-
bobalazs
nagyúr
Nem is OCztál? Nekem beállt a crimson driverrel kezdődően a memória órajele, sőt, az órajelek sem reagáltak a terhelés csökkentésre.
Nem mellesleg, de vgak sem jellemzően döglöttek meg a kezem között, mostmégis, másfél éves vga megdöglött R9 270, lett is cserélve, majd másfél hónap! alatt megdöglött a csere is! Kicsit elvesztettem a bizalmamat!
A régi kártyáimmal viszont sosem volt semmi gond!
Mondjuk, túlhajtás, sem a 60 fps akkoriban nem érdekelt... -
Loha
veterán
AMD szerint nem picivel volt lassabb a korábbi GUI,
és használhatóságán is javítottak:"10x faster start up, and 3X Faster initialization of the display than with the AMD Catalyst driver. It also has new and more intuitive navigation"
Tesztelésre is sokkal komolyabban rágyúrtak, de akkor úgy tűnik teljesen szükségtelenül:
"Compared to AMD Catalyst Omega driver, we had:
2x more Automated Test Cases
25% more Manual Test Cases
15% more Various System Configurations"Szerk. Pug: "nem stability"

-
Loha
veterán
-
mcwolf79
veterán
Hát nekem az elmúlt pár évben volt 290-em, utána 970-em, utána 390X-em, most pedig 980 Ti-om.
NV kártyával valahogy sosem volt gebasz, AMD VGA-val azért sokszor jelentkezett a „A képernyőillesztő nem válaszolt, és utána helyreállt” probléma. Drivertől függően hol gyakrabban, hol ritkábban. Nem olyan borzasztó gond, de azért néha idegesítő tud lenni. Ha meg a Chrome hardveres-gyorsítása be volt kapcsolva, akkor ez hatványozottan jelentkezett.
Szóval nem urban-legend az "AMD VGA-k szoftveresen szarok". Nem olyan borzasztó,mint egyesek beállítják (leginkább akiknek sohasem volt ATI/AMD VGA-juk, és csak a net bizonyos bugyraiból gyűjtik az infókat), de létezik, és gyakoribb probléma, mint az NV kártyáknál. -
Puma K
nagyúr
Egy másik gyártó monitorjánál is szintén ugyan ilyen hiba merült fel. Ilyenkor a monitor gyártója nézte be az EDID-et?
Mitől függ, hogy egyszer működik egyszer nem?Honnan vagy miből tudja az Nv driver hogy mit kell kikényszerítenie?
Internetről tölt le kiegészítést, vagy a VGA driver-ben van benne adott lista amiből betölti a megfelelőbbnek véltet?Ha ez egy működő eljárás ami problémamentesebbé teheti a monitor és a VGA összekapcsolását akkor miért nem használja minden gyártó VGA driver-ből és miért nem működik minden esetben?
Mindezekre a Windows alapból nem képes Windows Update-en keresztül?
Természetesen a gond mentes használatot szeretem, de az ilyen váratlan problémák is a kedvemre valóak, mert megoldást kell keresni az előállt helyzetre.
Viszont ha nem megoldható a felmerült helyzet, mert azt a birtokomban lévő vagy pluszban gyűjtött információk alapján sem tudom megoldani, akkor szomorúan emlékszek vissza ezekre az időkre.
Ezek szerint esetedben azokra az időkre visszaemlékezve nem úgy kezdődnek a mondatok, hogy "Régi szép idők... mikor volt egy HD4890 a gépemben..."

"Nem tudom, hogy csináltátok..."
Csak használni szeretnénk a birtokunkban lévő eszközt

-
Laja333
őstag
Azért elég meredek rámondani mindenre, hogy hibás.

Mindenesetre egyelőre nálam is több a nyűg a Intel+NV notebookkal mint anno volt a CrossfireX-essel.
Ez a szemét minden NV driver frissítéskor elfelejti, hogy a játékokat ne a nyomorult Intel IGP-n indítsa már el, hanem a dedikált Geforce-on. Állandóan kézzel kell beállítanom, hogy így tegyen.
Aztán nekem sem lenne muszáj mindig frissíteni, csak zavaró a felkiáltójel az óra mellett.
-
Általában én is az FMCG-t szoktam felhozni, amikor a gonosz nVidiáról van szó, de abban konkrétan van igazság, hogy egy kétszereplős piacon egy kicsit a vásárlónak sem árt odafigyelni. Nem azért, mert szeméthazug az egyik fél, hanem azért, mert egy 80-20-nál eltoltabb arány már a vásárlónak is rossz. Mondhatnám, hogy erre láttam májusban 700 zöld okot, de azóta láttam még 1700 kéket

Aztán persze túlzásba sem kell esni - az odafigyelés nálam pl. addig fog tartani, hogy adok egy esélyt Raja-éknak. Ha ugyanolyan bajaim lesznek a cuccal, mint a 7770-nel, akkor megy szépen vissza.
-
joysefke
veterán
Én úgy gondolom, hogy a korábban egyszálra optimalizált AMD driver miatti bizonyos fajta extrém terheléseken jobban leeső FPS-t általánosan beállítani, mint rosszabb frametime-ok, hát minimum sok ponton vérző állítás. Ami egyébként az újabb kiadású drivereikben már ugyanúgy többszálasított tudtommal.
Ha ez tényleg így van, hogy többszálúsították a DX11 drivert akkor én arról lemaradtam, mindenesetre dicséretes dolog. Van hozzá linked? mert ez hozzám még nem jutott el...
J.
-
#65755648
törölt tag
Pedig igazán vehetted volna a fáradtságot hogy bizonyítsd az igazad.
Íme: [link]
2 percembe telt.
Szépen kattintsátok végig a különböző játékoknál a frame-time analíziseket.
Tökéletesen látszik hogy teljesen játékfüggő, hogy mikor az NV, mikor az AMD viselkedik jobban, és nagyon szoros az összefüggés azzal, hogy az adott játékot melyik vga-gyártó "támogatta" jobban.
PL. AoS, Hitman, stb. a Geforceok dobálják nagyon frameket,Tomb Raider-nél az AMD-k.
Olyan is van ahol kisebb felbontásban egyik, nagyobban a másik gyártó a stabilabb (pl. Witcher3).
Fentebb is hozott két, vagy több kolléga is személyes tapasztalatokat, hogy mikor volt az AMD-n kevesebb a mikrolag.
Úgyhogy nagy marhaság azt állítani hogy általánosságban egyik vagy másik gyártó rosszabb ilyen szempontból. Ez egyszerűen NEM IGAZ.
Az pedig pláne hülyeség hogy: "Érdekes, tök mindegy milyen játékról van szó, ha készül frametime mérés, akkor a grafikonok mindig ezt mutatják, mint ebben a tesztben."
Hát nem. Nagyon nem.(#17201) joysefke: "Az pedig hogy valaki Radeonról Geforce-ra vált és simább lesz a játékélmény elég gyakori, a miértje is elég jól ismert"
Hát persze hogy ismert: a marketing, a nyájszellem és a placebo ereje.

-
Habugi
addikt
Többek közt ezért írtam én is azt amit és úgy ahogy..
(#17199) daveoff:
Eljátszhatnánk most a szokásosat, miszerint megkérlek rá olvasd el mégegyszer amit írtam és ha utána még mindig nem tiszta valami akkor az előzményeket. Sehol a postban nem szólítottalak meg vagy vettelek elő, pedig HSM oAcido-nak adott válaszára ezt reagáltad: [link] a "keresgélésre" való "felkérésed" apropóján említettem.
Ezek után pedig Te legyél már olyan kedves de ne írjál már nekem ilyet:
"na neked megint be kellett szólni valami okosat."
Ide megint beszúrható lenne a fájlalt postom utolsó tagmondata..

Béke!
-
joysefke
veterán
Nem azért linkeltem be a tesztet, hogy flémelés legyen belőle, hanem inkább, mert nem nagyon illik bele a mainstream dx11 szar, Vulkan/Mantle etc jó világképbe.
A szerinted flémkeltő válaszommal arra próbáltam célozni, hogy ez így általánosságban leírva nem igazán szalonképes. Ugyanúgy előfordulhat fordítva is, ha az ember olyan játékokkal játszik
Előfordulhat fordítva is, de alapvetően jóval ritkábban fordul elő a fordított helyzet, hogy a Geforce frametime-ja ugrál, Radeonnal meg sima. (Az én szubjektív fórumos tapasztalatom alapján)
Az pedig hogy valaki Radeonról Geforce-ra vált és simább lesz a játékélmény elég gyakori, a miértje is elég jól ismert, az AMD DX11-es driverében keresendő. Ezt a tényt annyival elmaszatolni, hogy "játéka válogatja" nem túl korrekt.
-
imi123
őstag
Nekem volt szerencsém anno kipróbálni 290X-en a BF4-et.Utána váltottam Nv-re.Ég és föld.Sokkal simábban futott Nv-n.Pár hónapja kipróbáltam ismét egy AMD-t.Egy ASUS 290-et tesztelgettem.Le a kalappal az AMD előtt.Nagyon sokat javult a driver. Sok ember hozzám hasonlóan anno csalódott a Radeon-ban. Nekik üzenem hogy a jó öreg Radeon megérdemel még egy esélyt.

-
oAcido
aktív tag
Volt 280x-em és 290x-em is, BF4 játszhatatlan volt velük számomra. Aztán GTX 980-ra váltottam és érdekes mód sokkal "smoothabb" lett a játék (pedig az fps nem változott, 144-re volt rögzítve).
Akkor mégis milyen játékkal kellett volna játszanom, ha már egy AMD-s címnél is mikrolaggolt?
-
oAcido
aktív tag
TPU-nál tesztpadon mértek vagy Mini-ITX házban, ahova az AMD a Nano-t szánta? Megnézném azért utóbbinál mit művel a kártya 2-3 óra játék alatt hőmérséklet/ventilátor zaj/órajel terén.
AMD Radeon R9 480 3DMark11 benchmarks
Hát nincs közel a 980Ti-hez, Fury X-hez ahogy korábban volt róla szó. De azért ott van a Fury seggében.
-
A jelenlegi trendek alapján viszont egyáltalán nem baj, hogy van benne bőven ALU kapacitás tartalék.
Valóban, mert amikor majd a retromúzeumban kiállítva nézegetjük, akkor látni fogjuk, hogy mennyivel jobb

Szerintem majdnem pont egy éve írtam, hogy mire ezek a különbséget számítani fognak, addigra megjön a csíkszélességváltás, és ezek a kártyák hirtelen átmennek dinoszaurusz-státuszba. Mit ad Isten, ez a mondás jött be, és nem a 25-30 AAA DX12-es játék...
-
keIdor
titán
Én meg még emlékszem azokra az időkre, mikor nyugtatgatták a népet, hogy senki ne aggódjon a HD2900 XT majd nagyon el fogja verni a 8800 GTX-et, főleg DX10-ben, de DX9-ben is. Nem történt meg, egyébként akkoriban vásárolták fel az ATi-t, nem kellett volna, ezeknek nem.
A HD 7970 nagyon megelőzte a korát és ezt azért mondom, mert mikor kijött akkor driveresen elég nagy bajok voltak vele, azon nyugodtan ülhettek volna még pár hónapot. Úgy találtak abban a kártyában azt hiszem BF3-ban +30-40%-okat, hogy nem is arra fókuszáltak, nem is azt keresték. A mai napig ugyanazt a GCN-t használják kisebb finomítások mellett, elhiheted, hogy a másik oldalon is lehetne ezt csinálni.Azért azt is említsük már meg ilyenkor egyébként, hogy az AMD is nagyon hamar kukázta a HD5 és HD6 családot.

Érdekes amúgy, hogy a Forza 6 Apex DX12 és mégis jobban kezdtek a Maxwell-ek, mint a GCN. Mesélni nagyon tud az AMD.
Egyébként volt HD4890, HD5870, HD7970-em, mindhármat szerettem, még utóbbit is, pedig voltak vele nem gyenge anomáliák, de valahogy utóbbi óta nagyon nem az igazi a vörös oldal... 290X a hűtési problémái miatt tántorított el, a Fury meg későn jött, a 4GB megöli. Bár nem hiányzik a csíkozódás meg egyéb anomáliák, de a Vega-ra érdemes lehet figyelni. Ez a mai napig ott van a szekrényben a dobozában és működik. Megmaradt.

-
oAcido
aktív tag
-
mcwolf79
veterán
ÖÖÖ... Hát igen a Fury előtt is jöö a megváltó duma, hogy mekkora Istencsászár lesz fogyasztásban, mert HBM!!!!
[ez már akkor sem jött be] -
schawo
titán
Azért ez a Fijinél sem volt ilyen pofonegyszerű. De legyen igazad.
Bár engem az a kategória abszolút nem érdekel. Nálam a 100-120k felső limit, de inkább szeretnék 80-ból valami normálisat találni. Szóval ez úgy fog történni, hogy nyár végén 70-120k között (optimális esetben a 1070 bele fog férni ebbe, de ha nem, hát nem) készítek egy ár érték mutatót egy csomó teszt és piaci árak alapján. Ha találok valamit, ami kiugró, és nem fogyaszt agyon, akkor, megveszem, ha nem, mert minden belesimul a tömegbe, akkor megveszem, ami 80-85 között kapható. Ha ez AMD, akkor az, ha zöld, akkor az. 7970 megérett a cserére.
-
schawo
titán
Szerinted 175W-os lesz a legnagyobb AMD? Meglátjuk, úgy legyen.
(#17029) gbors
300 dollárért a specifikációk alapján inkább nagy polarist venném, azt 300 alá igéri az AMD (gondolom ez annyit fog jelenteni, hogy 299).A 980 $499 volt, a 960 (ami szintén 980/2) pedig $199 (40%-a)
A 1080 $599, ez alapján simán lehet $239 is (40%). Mindenestre a $299 áron sok a polcon fog maradni. -
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Eladó Apple iPhone 14 Pro Max 128GB / 12 hó jótállás
- 365 NAPRA RÉSZLETRE BANKMNETES KAMATMENTES , GAMER PC ,LAPTOPOK , GAMER SZÉKEK , GAMER MONITOROK
- Corsair T3 RUSH gamer, irodai szék
- GYÖNYÖRŰ iPhone 15 Pro Max 1TB Black Titanium -1 ÉV GARANCIA - Kártyafüggetlen, MS3939, 100% Akku
- 35" ASUS ROG Swift PG35VQ curved GAMER monitor
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: NetGo.hu Kft.
Város: Gödöllő
![;]](http://cdn.rios.hu/dl/s/v1.gif)


Hát persze, az csak AMD-vel van.
)










