Új hozzászólás Aktív témák
- 
			
			
						Egon
nagyúr
A Ni no Kuni 2 a Game Critics Awards és a Gamescom "legjobb RPG" díját is elvitte tavaly. Ezeket nem adják oda csak úgy.
Hja, nyilván nem mérlegelnek, tutira a legjobbnak adják a díjat, még sosenem fordult elő olyan, hogy egyéb szempontok domináltak volna...
 Nem azért, de az első linken kb. minden második díjat Nintendo Switch-re írt játék nyert, gondolom ki kellett hozni valami nyertest PS4-re is, különben sz*rul nézett volna ki a lista... ![;]](//cdn.rios.hu/dl/s/v1.gif)
Amúgy a játék videóit megnézve, valóban nem hasonlítanám pl. a Witcher 3-hoz. Sportszerűtlen lenne...
![;]](//cdn.rios.hu/dl/s/v1.gif)
 - 
			
			
						FLATRONW
őstag
Konkrétan a versenyjogi törvény ezen része teljesen felesleges és hibás.
Remélem az NV kihasznált minden kiskaput amit lehetséges volt, a Kyle gyereket pedig remélem jól megszopatják a vádaskodásért.(#33259) fules
: Ha nem lesznek megelégedve a minőséggel, akkor majd vehetnek kártyát a Sapphire-tól, mint kizárólagos AMD partnertől is. Azért ez már valahol az AMD hibája is, hogy a partnerek képesek bele menni egy ilyen NV-s ajánlatba. - 
			
			
						#00137984
törölt tag
Most még egyszerűbb a helyzetük. Egy mostani középkategóriás konfigra optimalizálni a játékokat nem jelenthet gondot... Ha csak nem akarnak elég pénzt, időt és fejlesztőket alkalmazni ezért. Ilyen jó PC-s hardverek eddig még sosem voltak, mert a 4-6-8 magra és 8-16GB RAM-ra, meg a 8GB VRAM-ra minden számitási kapacitás elég lenne FullHD vagy 1440P felbontásig. Nekem az Intel i5 CPU-m 4GHz-en megy, amikor néhány éve 1-2 magra alig tudtak ekkora órajelet. Egy szálra elérhető teljesitmény viszonyban is fejlődtek, és mára a párhuzamos munkavégzés a játékfejlesztésben alapkövetelménynek számit. Ha itt valami nem egyszerű az a fejekben van.

 - 
			
			
						huskydog17
addikt
Azt valahol meg lehet nézni, van arról bármiféle publikus leírás, hogy melyik motor, illetve játék hány rajzolási parancsot használ? Csak azért kérdem, mert vannak olyan játékok, melyek szerintem szebbek, mint a Wolf 2, de gond nélkül működnek DX11-ben jó sebesség mellett.
Bár igaz, hogy a "szép" nagyon szubjektív, de érdekelne, hogy más motor és játék hány drawcall-t használ.#33211 ->Raizen<-: Szerintem rengeteg játék rég messze lehagyta látványban a Crysis első részét. Mára az a játék igencsak kopottas, csúnyácska. Az idő ugye megszépít mindent. Hirtelen több játékot is meg tudnék említeni, melyeknél tátva maradt a szám, pedig DX11-ben futnak. Na persze minden embernek más az ízlése és mindenkinek mást jelent a "szép".
 - 
			
			
						TTomax
félisten
 - 
			
			
						darkhorse
tag
Az OK hogy 10x több draw call van benne mint amivel a korábbi API-k megbírkóznak, de ez miben nyilvánul meg? Több/részletesebb objektum, fizika, bármi, mit kell nézni? Szép meg jó játék volt a wolf de én nem vettem észre semmi olyasmit amit korábban ne láthattunk volna, persze lehet csak elsiklottam felette.
 - 
			
			
						TTomax
félisten
Próbálj már meg egyszer gyakorlatias lenni.
 Értem én hogy 30X meg 30K,de az egyszerű halandó játékos tapasztalata egészen más.Mit is ad a DX12 manapság a játékosoknak?Mi az amit el lehet nekik adni?Mi az amitől hardvert fognak vásárolni?Mert ez hajtja a piacot,a jelenlegi helyzet csak átmeneti állapot,a bányászláz nem tart örökké.A végén mégiscsak majd a pc gamereknek kellene eladni valamit,csak nem igazán látom hogy mi az ami itt pénzt ér.A játékok nem szebbek,cserébe nem futnak jobban,sehol jobb fizika,vagy AI,közben a gépigények kúsznak felfelé,és még mindig nem néznek ki jobban mint egy 11éves Crysis.Én nem látom a saját szemszögemből hogy ez akkora siker lenne,ami piacot teremt,még akkor sem ha terelik a népet,mert sokan inkább akkor letesznek erről a hobbyról,ugyanis ez nem létszükséglet.Ha valami ki tudja nyírni a pc gaminget az pont ez,a helytelen DX irány és nem bányászok,vagy gyártók kartellezése ami mondjuk ismét megér egy misét. - 
			
			
						TTomax
félisten
Az lehet,hogy technikailag nagy dobás a Wolf2,de nem éppen DX12,és egyébként nem tudod mihez hasonlítani ha jól tudom csak Vulkan van.Egyébként pedig nálam játszhatatlan volt,azon egyszerű oknál fogva mert a game engineben a fizika 60fps felett meghülyül.Gyakorlatilag 120fpsnél 2X gyorsabb a játék,még szerencse hogy nem adtam pénzt érte.
 - 
			
			
						Yutani
nagyúr
Ez az irány nem egy eldöntendő kérdés, hanem már el van döntve. Egyébként persze megtarthatnak bizonyos mennyiségű PCI Express csatornát a dedikált GPU-knak, de őszintén szólva minek.
Messze van ez még, sok millió egységet el fog adni az NV, mire bekövetkezik. Ha egyáltalán. Tudod, ez megint egy olyan jóslat (az IGP értelmetlenné fogja tenni dGPU-t, eltűnik a süllyesztőben), ami miatt pellengérre szoktak téged itt állítani.

 - 
			
			
						Petykemano
veterán
Miért olyan biztos az, hogy az amd és az intel együtt es egyszerre megszüntetik ezt a lehetőséget, miközben a versengő stratégia - a nagyon keresett nvidia márka hátán - nagy volumenű eladással kecsegtet. Az intel ezen persze nyílván most nem sokat nyerhet, mert így is ő ad el szinte mindent. Intelnek akkor lesz érdekes, amikor a gput is saját maga akarja belerakni. Abban a pillanatban az amdn fog múlni, hogy ő is meglépi és saját gput próbálja nyomni és a gpu eladásból profitál, vagy nyitva hagyja a kaput az nvidiának, hátha annak farvizén több cput adhat el. Szerintem ez ma még nem egyértelmű.
 - 
			
			
Köszi, tényleg így lehet, és mintha az Eidos Montreal már segített volna a TR-ekben korábban! Viszont ha motort váltanak, a szuper hó gondolom ugrott. A Foundation Engine havánál jobbat még sehol se láttam. Remélem, meg tudják majd oldani ezt a minőséget a Dawn alatt is valahogy!
A másik meg, amit nem tudom, mennyire tudna megvalósítani a Dawn, az a messzire, bármilyen szögben kilőhető, és később a karakter által mászható -utat csináló- köteles nyílvessző, amit még arra is lehet használni, hogy magunkhoz húzzunk vele dolgokat. Ezt is tudja a Dawn? Csak mert bár remek ötlet és megoldás, a Mankind Divided hasonlót nem mutatott, bár talán csak azért, mert a problémák megoldása másként is kivitelezhető volt benne a futurisztikus körítés miatt.
Néztem egyébként draw limites helyen is, és sehol nem verte a DX11-et a DX12, bár nem követtem végig az egész játékot így összehasonlítgatva mindenütt. Talán legjobb esetben 1x-2x a DX12 pontosan elérte a DX11 alatt kapott fps-számot, de egyszer sem haladta meg. Általában pedig 2-3% előnye volt a DX11-nek, néha több is. Mondjuk ha Dawn lesz, akkor talán már jó lesz a DX12.
 - 
			
			
						HSM
félisten
"A középső rétegből nem feltétlenül muszáj speciálisat alkalmazni, a default mód problémamentesen viszi, csak buknak vele egy rakás teljesítményt."
Jah, nehogy már a piros kártyák egy játékban gyorsabbak legyenek... Vége lenne a "Hol a GCN előny pedig DX12" magabiztosságnak. - 
			
			
						Crytek
nagyúr
Egyik cég se jótékonysági alapítvány. Az nvidia (de egyik cég sem..) nem nézi kinek mi a jó. Ők a profitot nézik ami a fenti hírt olvasva van bőségesen. Egy piacot mindig az határoz meg van-e rá kereslet és mivel a G-Sync tomból él és vírul nincs miről beszélni.. Ha nem lesz ilyen monitor csak 600k-ért akkor azt is meg fogják venni..Ha tetszik ha nem ez a piac így müködik. Ez olyan mint a játékipar ha nem veszik a **arjaidat mehetsz a süllyesztőbe. Nos a G-Sync nem megy sehova... Spúr csóró vagyok köztudott modon ,de szem ágában sincs egy másodpercig se hogy a köv 2-4k monitor ne G-Synces legyen hiába van "ugyanolyan" amd-s fele áron....
 - 
			
			
 - 
			
			
						Asbee
veterán
Nem kell mégegyszer leírni, mert nem erről volt szó. Tudom ezzel jól lehet terelni róla. Te szándékosan csinálod ezt vagy komolyan ennyire érthetetlen vagy? Mindenféle bántó szándék nélkül kérdezem. Mintha valami automatával beszélne az ember, tök mindegy mit mond, a magáét hajtja.
Tök, jó hogy ezt így leírod a G-Syncről, meg hasznos, csak nem ez volt a "kérdés". Nem is értem akkor minek reagálsz rá... - 
			
			
						Asbee
veterán
Bla, bla. Semmi köze a kijelentésedhez, amit a fórumtárs említett. Terelés, semmi több. Kapható vagy nem kapható Lg G-synces monitor? Ezt tedd hozzá ahhoz, amit annó mondtál. Ennyire egyszerű.
El is mentettem, a Kaby G-ről szóló hsz-t is. Kíváncsi leszek mi fog ebből megvalósulni. Bár ha 1060-ig jó max teljesítményben, és nagy % ezt a teljesítményszintet használja, nem tudom ki fogja kidobni a vga-ját, ugyanazért vagy kisebb teljesítményért. Aki meg fejleszteni akar, arról nem is beszélve. Gyanítom még most sem fog eljönni ez a korszak. Csak durván zsebbe kell majd nyúlni.
 - 
			
			
						Asbee
veterán
 - 
			
			
						Petykemano
veterán
"És a Doomban a +40-50% az intrinsics függvényektől az mióta kevés a csíkokra nézve?"
A szám nem kevés, de ez csak egy játék. a +40-50%-ot hozó játék darabszáma kevés. Tehát egy ilyen példa nem fogja jobb helyzetbe hozni az AMD-t (ez pedig a verseny és a jó árak miatt érdekes és fontos a közösségnek)
"Miért gond az, ha a shader modell 6-tal ennek az iránynak az általános, és nem csak AMD-specifikus alkalmazását propagálom? Ez a sebesség mindenkinek jár. Vagy ha nem ennyi, akkor kevesebb, de mindenképpen extra tempót lesz belőle."
Azzal nincs gond, ha az SM6-tal általános és nem AMD specifikus irányát propagálod. Valószínűleg tényleg jobb az általános, mint a gyártó-specifikus.
A "gond" az általánossal az, hogy általános. hogy az nem fog változtatni az erőviszonyokon.
(Ennek megfelelően a közösség jelenleg jobban örülne egy gyártó-specifikus megoldásnak, amitől az AMD hardver megtáltosodik, mégha ez nem szabványos, egyedi, szakmailag rossz megoldásokból is ered.)
De erről Te nem tehetsz. Amiről viszont igen, az az, hogy ha egy újfajta általános megoldás, vagy általánássá váló azzá kinövő megoldás az AMD hardvernek esetleg jobban fekszik (mint most az a compute culling a primitive shader helyett), akkor nem csak a megoldás előnyeit emeled ki, hanem hozzáteszed azt is, hogy a teljes kép(kocka) tekintetében annak a méltóságot parancsoló 100-1000-10000x-es előrelépésnek pontosan mekkora szerepe is van. Erre gbors is mindig rákérdez. Meg most én is ezt igyekeztem belőled kihúzni. - 
			
			
						Petykemano
veterán
Nekem ez nem szakmám, tőlem nem elvárás, és nem elvárható az, hogy ne keverjem a dolgokat.
Neked ez viszont szakmád, tőled, mint médiamunkástól igenis és nagyonis elvárható a hiteles tájékoztatás. A pártatlanság nem, de az objektivitásra törekvés szintúgy elvárható.Sok olvasó gyártói szempontból figyeli és követi nyomon az eseményeket: a többség videokártya vásárló fogyasztó. Ez a szempont nyilván nem lehet kizárólagos, de attól még valid. Ez a közösség tudatában van annak, hogy mi történik egy monopol piacon, ezért elkeseredetten kívánja, hogy az underdog AMD erőre kapjon, versenyre kelljen és jobb és jobb terméket, jobb és jobb áron lehessen elérni a piacon. Amikor ezt - már sokadjára - ne sikerül elérni, ez a közösség elkeseredik.
Ezt az elkeseredést szoktad megtörni az underdog AMD dícséretében olyan technikai újítások belengetésével, amelyek ebben a gyártói szemszögből néző közösségben reményeket keltenek. Megítélésem szerint házigazdaként van felelősséged abban, hogy ezekkel ne kelts hiú reményeket, hogy elmondd - a gyártói szemüvegen át nézve is -, amit most is, hogy ez mit fog jelenteni a versenyre, a csíkokra nézve.
Köszönöm a tájékoztatást.
 - 
			
			
						Petykemano
veterán
Nem annyira érteni akarom, mint inkább a ködös, de lelkesítő technocentrikus megfogalmazásaidból (vagy twchnocentrikus lelkesedésedből) konkrét értékekben mérhető hatás-becslést kicsikarni.
Látod? Például itt ez a 10-30%, ami jó lesz 10-nek is, ha, Ha minden jól összejön. Értem, hogy a mélyén nézve óriási előrelépelések és gigantikus fejlődés, orgazmikus előrehaladás, de a csíkot végül csak 10%-ban emelheti. Ez is jó, minden plusz jól jön, de kezeljük helyén a dolgokat.
Tehát ha megjön a shader model 6 akkor a radeon minden más körülmény változatlansága esetén erőlködés nélkül 10-30%-kal zárhatja a különbségeket. (Azt, ahol a vega
64 jobb esetben az 1080-nal verseng, szélsőséges esetben még az 1060 is előzi) - 
			
			
						Petykemano
veterán
Tehát akkor azt állítod, hogy ezzel az egész mókolással, az AMD azt nyeri, hogy automatikusan, optimalizáltságot nem igénylően gyors kódot kap a radeon hardver. Ehhez képest más hardveren az általános kód optimalizálásával, meg gémvörkszökkel lehet próbálkozni, de az ezerszer lassabb, vagyis ezerszer kevesebb fps-t jelent (+10% ha optimalizálnak is)
Így?
 - 
			
			
						Petykemano
veterán
AZT értjük, hogy ez miért jó a fejlesztőknek.
De miért jó ez az amdnek?
Úgy tűnik, hogy ahelyett, hogy a konzol port abból állna, hogy flegmán áthozzák a gcnre optimalizált kódot és azt mondják, higy gcnen jól fut, mindenki más meg cserélje le a zöld kártyáját (vagyis hogy gcnre optimális kódot fognak át, mindenki más meg le van ejtve), úgy tűnik, hogy ezzel a lépéssel az amdt lesz leejtve: áthozzák a kódot, gcnre lesz l, amilyen lesz, minden másra meg optimalizálnak. Hiába, higy pont radeonhoz van debugger.
Ebben így mi a biznissz? Eddig nem tűnt úgy, hogy az áthozott kód olyan penge lenne, legalábbis az alfa és bétá változatokban még jó, aztán ráoptimalizálnak az nvidiára és a radeon alul marad. Ez így mire jó?Például:
- A fejlesztők az optimalizálást nem végzik ingyen. Az mvida keményen fizet ezért, az AMD így ezt megspórolja
- ez valójában kármentés. Ha ez nem lenne, még annyi optimalizációt se kapna az AMD.
- kármentés/védekezés a gameworks middleware susimusi trükkjei ellen - 
			
			
						Petykemano
veterán
AZT értjük, hogy ez miért jó a fejlesztőknek.
Se miért jó ez az amdnek?
Úgy tűnik, hogy ahelyett, hogy a konzol port abból állna, hogy flegmán áthozzák a gcnre optimalizált kódot és azt mondják, higy gcnen jól fut, mindenki más meg cserélje le a zöld kártyáját (vagyis hogy gcnre optimális kódot fognak át, mindenki más meg le van ejtve), úgy tűnik, hogy ezzel a lépéssel az amdt lesz leejtve: áthozzák a kódot, gcnre lesz l, amilyen lesz, minden másra meg optimalizálnak. Hiába, higy pont radeonhoz van debugger.
Ebben így mi a biznissz? Eddig nem tűnt úgy, hogy az áthozott kód olyan penge lenne, legalábbis az alfa és bétá változatokban még jó, aztán ráoptimalizálnak az nvidiára és a radeon alul marad. Ez így mire jó?Például:
- A fejlesztők az optimalizálást nem végzik ingyen. Az mvida keményen fizet ezért, az AMD így ezt megspórolja
- ez valójában kármentés. Ha ez nem lenne, még annyi optimalizációt se kapna az AMD.
- kármentés/védekezés a gameworks middleware susimusi trükkjei ellen - 
			
			
						nonsen5e
veterán
Szerinted igaz lehet az, hogy ezt tényleg a semmiből építették fel külön PC-re?
Mr. Producer ezt mondogatja, de ahhoz képest elég konzolport szagú trehányság érződik a benchmarkon.
Esetleg a Gameworks miatt tényleg újra kellett írniuk az egészet?---
Intruder2k5:
 - 
			
			
						Shing
őstag
"A Battlefront 2 a PC-n is 40 játékost enged. Az oka ennek a balance."
A BF Bad Company is ilyen volt, aminek az első része csak konzolra jelent meg, aztán hiába jött a BC2 PC-re is, nem tudták megnövelni csak úgy a pályák méretét és játékosszámot. A BF3-t már az elejétől úgy készítették, hogy a PC-s 64 fős igényeknek is megfeleljen a játékmenet.
Battlefront II-nél valószínűleg úgy gondolták, hogy nem éri meg 1 platform miatt áttervezni tervezni a játékot... ebben ennyi van. Ha a konzolok bírták volna, akkor csináltak volna egy ambíciózusabb multis játékot.Igen, rengeteg mindent pakolnak át CPU-ról GPU-ra. Egy 10 éves quad szériás proci elég egy rakat dologhoz, de igazodni kell a konzolos hardverhez. Másrészt pedig nem rakhatnak át mindent GPU-ra, mert akár felesleges is lehet, hiszen ott csücsül a proci 100%-ra terhelés alatt, ami értelmetlen.
 - 
			
			
						HSM
félisten
"mert sokkal rosszabb hatásfokú egy processzormag egy multiprocesszornál"
Azért gondolom az megvan, hogy ez attól függ, milyen jellegű az elvégzendő feladat. Mindkét hardveregységnek megvannak azok a kódtípusok, amiken sokkal hatékonyabb a másiknál. Ha nem így lenne, nem létezhetnének egyás mellett és csak GPU lenne a számítógép. - 
			
			
						Shing
őstag
ND-s előzeteseket erős fenntartásokkal kell kezelni. Nem értem miért kell mindig túlhájpolnod ezeket az előzetesek. Tudom, hogy te a Robinson: The Journey teaser látványát is elhitted, aztán nem lett belőle semmi. De az első UC4 teaser is ilyen volt. Utána az E3-as trailerek tipikusan hozták azt a megvilágítást amiből nem lett semmi, de legalább közelebb volt a véglegeshez.
"Nem érted, hogy miért választották azt a CPU-t konzolba"
Nyílván megvoltak a technikai előnyei az AMD-s hardvereknek, de ettől még nem változtat a tényen, hogy gyenge a processzor. Nem véletlenül lett a Battlefront 2 is max 40 játékossal játszható a csúcs motor ellenére.Így még épp megvan a stabil 60FPS konzolokon, kisebb droppokkal. Legalább sikerült feljebb lépni az előző generációs csodaoptimalizált konzoloktól, amik max 32 játékost bírtak el a Battlefield-ekben. Ez ilyen, a konzolokhoz kell igazítani a játékmenetet. Köv. genben majd lesznek komolyabb játékok.
 - 
			
			
 - 
			
			
						huskydog17
addikt
"Egyáltalán nem természetes a vegyes értékelés."
A legtöbb agyonhype-olt játék megosztó volt, ahogy ez is.
Emlékszel még a Battlefield 4 esetében a kezdeti multis gondokra.
Soha nem érdekelt a BF4 multi, így nem.
"A PUBG fejlesztőinek a legkisebb gondjuk is nagyobb annál, hogy új UE4 verzióra álljanak át."
Nem is a játék fejlesztőiről volt szó, hanem az AMD-nek jönne jól a frissítés.
A többihez:
Az a baj, hogy te szokásodhoz híven csak és kizárólag technikai szemmel nézed a játékot, valamint kizárólag a saját tapasztalod veszed figyelembe és emiatt jellemzed olyan szavakkal, amiket írtál. Sok millió másik játékosnak érdekes módon nincs problémája vele. Ha tényleg egy játszhatatlan fostenger lenne, akkor nehezen szedett volna össze kb. 25 millió játékost. Szerinted ha játszhatatlan fostenger, hogy lett mégis a legnépszerűbb PC-s játék a világon?
Több kollégám is rendszeresen játszik vele, eddig nem volt hálózati problémájuk érdekes módon.
Bár nem értem, hogy a VGA teljesítményhez hogyan jön a netkód.

 - 
			
			
						huskydog17
addikt
Ez mind szép és jó csak teljesen lényegtelen, ugyanis azt a több tíz millió játékost a legkisebb mértékben sem fogja érdekelni ezek az információk, ők kizárólag azt fogják figyelembe venni, illetve veszik figyelembe, hogy NV kártyával jobban fut a játék és mivel most AMD kártyát amúgy is nehéz beszerezni, még többen vesznek NV kártyát, azaz a világ legfelkapottabb PC játéka nem hogy semmit nem segít az AMD-nek piacszerzés szempontjából, de pont a zöldeknek kedvez.
A vegyes értékelés teljesen természetes egy olyan játéknál, amit több tíz millióan tolnak világ szerte.
Az AMD helyében én inkább a PUBG fejlesztőivel kötöttem volna egy szerződést, hogy itt hozzák ki a VEGA előnyeit. Ezzel szemben ebből a játékból ismét csak az NV fog profitálni. Nézd meg hogy bedarálta az AMD-t a kínai piac, ott brutális NV dominancia van.
Az AMD helyében én adnék embert vagy pénzt a PUBG készítőinek, hogy álljanak át UE4 4.17-re vagy 4.18-ra, hogy jobb legyen a Radeonok kártyák teljesítménye. Ennél a játéknál sokkal-sokkal nagyobb lényege lenne egy ilyen lépésnek, mint egy Prey vagy Wolfenstein 2 esetében.
 - 
			
			
						Petykemano
veterán
Remek összefoglaló. Azért remek, mert szuperül bele tudok kérdezni.
Szögezzük le, konyhanyelvre úgy lehetne leegyszerűsíteni, amit mondtál, hogy van egy olyan hardverünk, ami 4 magos, és általában a jelenlegi programok 4 magot használnak de jöhetnek majd olyan überprogramok, amik több szálat szeretnének használni és akkor bajban leszünk, de a vega 8 magos és elbírkózik az überprogram-használattal.
A kérdések tehát:
1.) Azt mondod, tipikus mai eset, hogy 20/80 és "9 és 2 blokk/wave" és 8 wave futhat egymás mellett
Mitől és mikor jönne "két-három dispatches übershader", meg LDS, ami akár 7blokk/wave és amely esetben már csak 2 wave-t tudna futtatni a 20/80-as hardver?Nem gondolod, hogy ezek az übershaderes izé nem fog jönni, amíg a 20/80-as hardver piaci részesedése 90%-os? Természetesen valahol el kell indulni és a fejlesztők biztosan szeretnének több blokk/wave-et használni, de ha a piacon megvásárolt és megvásárolható hardverek az ilyen terhelésttől befosnak, akkor nem fogják meglépni, hiába van 1-2 olyan készülék, ami bírná.
2.) Ennek megfelelően persze érthető, hogy amikor a volta is felzárkózik ebben a kiváló technológiai csúcsteljesítményben a vega mellé, és ezt követően 1-2 évvel megérkeznek azok a szoftverek, amik már akár 7 blokk/wave-et is megengednek maguknak (merthát a piacon kaphatók emberi áron olyan hardverek, amik ezt bírják, tehát a rendszerkövetelménybe írt hardver széles körben elérhető, mindenki más meg lejjebb veszi a grafikát), akkor persze a pascal és a polaris az ilyen programokban már lehet ,hogy földbe áll. De a kérdés mindig is arra vonatkozott , hogy az AMD mit nyer azzal, hogy ezt a képességet már az nvidia előtt beépiti a hardverébe bonyolítva azt, pazarolva a tranzisztorokat - azon kívül persze, hogy lehet házalni a fejlesztőknél, hogy tessék itt az általatok várt hardveres tudás prototípusa, ezen lehet gyakorolni, próbálkozni.
Világos, hogy a koncepció az, hogy ha Józsi ma vegát vesz, Béla meg pascalt, akkor 2 év múlva érkező programban a pascalnál valamivel nagyobb lassulás lesz tapasztalható, mint a Józsi vegájánál. (nyilván a kérdés soktényezős, és ez csupán egy szempont, de a szokásos megvásárláskor nvidia vezet, 2 évvel később amd előfordulhat.) Csakhogy Béla 1-másfél év múlva meg fogja venni a következő nvidia kártyáját, ami még gyorsabb lesz neki. Ez persze neki így többe kerül összességében, de boldog így.3.) Oda lyukadunk ki, hogy ez a képesség fölöslegesen van benne a vegában. Ma még nem kihasználható, tehát a vásárlónak ez Ma nincs hasznára, miközben fizet érte. Olyanért fizet ma, ami majd csak 2 év múlva válik majd hasznára. De akkor ráért volna az AMD 2 év múlva is implementálni ezt a képességet az akkori architektúrába. Akkor a mai vásárló is boldogabb, hogy nem kell kifizetnie a két év múlva hasznosított képességet, helyette kaphat mást, vagy kaphatja olcsóbban. És a 2 év múlva vásárló is boldog, mert olyat kap, ami hasznos.
Természetesen az az érv érthető, hogy de ha az AMd ezt nem lépi meg a vegában, akkor nem a vega, hanem a volta érkezését követően 1-2 évvel lettek volna csak olyan programok, amik ezt kihasználják és addig az AMD ilyen tudással nem rendelkező lapkája hátrányba kerül.... de várjunk csak! Az előbb is azt mondtam, hogy a volta érkezését követően 1-2 évvel jönnek az első ilyen programok. Jé de fura, mintha az AMD hiába csinálná meg ezeket a dolgokat, semmivel nem tudja gyosrabbá tenni ezeknek a beépülését, és egyáltalán nem fog előfordulni, hogy ilyen programok úgy jelennek meg a pascalt földbe állítva, hogy a vega abból piaci hasznot tudna húzni. És nem azért, mert pont jókor jön a voltában is ez a képesség, hanem mert ennek a képességnek a kihasználtsága semmiképpen nem következne be a volta megjelenése nélkül/előtt.Tehát senki nem kérdőjelezi meg, hogy ez szuper képesség. De miért jó az AMD-nek, hogy ezt 1 évvel az nvidia előtt beépíti és piacra dobja, amikor bőven ráérne az nvidia ilyen képességeket hozó hardvere után fél-1 évvel kidobni a sajátját? Ugye nem azt akarod mondani, hogy azzal, hogy az AMD előre beépíti ezeket a képességeket valójában korlátok közé zárja és terelgeti azt, ahogy az Nvidia kénytelen a saját architektúráját fejleszteni?
Csak mert persze elméletben lehetséges, de hát úgy tűnik, hogy az nvidia ilyetén módon történő kényszerpályára állítása inkább az nvidiának hajt profitot. - 
			
			
						HSM
félisten
Én ezt értem, ez a SIMT architektúra lényege. Már a legelső GCN fejlesztési dokumentációiban benne volt, hogy ésszel a regiszterekkel.
Én azt próbáltam mondani, hogy mivel ez egy nagyon régóta ismert dolog, így az optimalizáció első körében esik ki minden shader, amivel rossz lenne a hatásfok, mert olyan programot nem adhatnak ki, ami a piacon lévő GPU-k 98%-át kétvállra fekteti.
Én ezt próbáltam mondani, hogy tuti még jó idő el fog telni, mire kellően sok hardver lesz kinn, amire egyáltalán ki lehet majd adni olyan shadert, ami a régi architektúrákon borzalmasan futna a túlzott regiszterhasználat révén. Tehát a Vega ilyen jellegű fejlesztéseinek még egy jó ideig nem lesz látható jótékony hatása.

 - 
			
			
						HSM
félisten
Persze, én tökéletesen értem mit írsz, csak azt akarom mondani, hogy amíg a piac 98%-a olyan hardver, ami ennyi regiszterhasználattól megdöglik, akkor az optimalizáció első körében fog kukázódni az a shader, és senkit nem fog érdekelni, mennyivel lett tőle csúnyább az alkotás.
Ebből pedig az fog következni, hogy sehol nem lesz 3X gyorsabb a Vega, amíg ez így van, mint akár egy Polaris, hiába lenne meg rá a képessége. - 
			
			
						Petykemano
veterán
1) Nézhetjük így is: az eddigi gyakorlat alapján az érkező Volta/Amper XX80 gyorsabb lesz, mint a jelenlegi pascal 1080Ti. Úgy is mondhatjuk, hogy ha nem történik csoda (NGG fast path, primitive shader, dsbr, HBM pseudo-channel, stb), akkor az RX Vega 64 az XX60-es kártyával fog versengeni (Ez a ma a 100eFt-os 1060) Az eddig várt csoda megtörténte esetén is az XX70-es (~1080Ti) kártya lesz a versenytárs. (Ez ma a 140eFt-os 1070)
Persze nagy kérdés, mikor lesz Volta meg Ampere, ezt most még nem tudjuk, csak reméljük a tavaszt.
Én egyébként egy percig sem vontam kétségbe a Vega architekturális képességeit.De azon kérdésen, hogy az AMD a következő évben is az 1080Ti szinttel fog küzdeni nem változtat az, hogy ezt a szintet egy pascal 1080Ti, vagy egy volta 1070 fogja-e hozni. Természetesen lehetséges, hogy 2 év múlva az RX Vega 64 már meg fogja előzni az 1080Ti teljesítményszintjét. De ezek a limitek amiket emlegetsz egészen addig nem lesznek elérve, míg jelentős a pascal piaci penetrációja.
Amit mondasz csupán azt jelenti, hogy most a jelen technológiai kihasználtság mellett bár elvérzik a pascal ellen a leadott teljesítményben, a volta ellen az akkori techniógiai kihasználtság ellen technológiailag nem, de várhatóan nyers erőben ugyanúgy vagy még jobban elvérzik majd. (a gaming piacon ez a 64 CU-s 4 SE-s implementációja a vega architektúrának)
 - 
			
			
						HSM
félisten
"a Vega legalább háromszor gyorsabban futtatja ugyanazt a kódot"
Lemaradt a kisbetűs rész: HA AZ VALAMILYEN LIMITBE ÜTKÖZIK A KORÁBBI GENERÁCIÓN.
Tehát ebből majd akkor láthatunk valamit, ha erre lesz optimalizálva a cím. Addig meg azt látjuk, hogy kullog szegény Vega a sima 1080 környékén.
 - 
			
			
						Petykemano
veterán
1) Pontatlanul fogalmaztam.
A téma az volt, hogy az AMD idén is legjobb esetben is az 1080Ti-vel fog harcolni. A kijelentés értelemszerűen nem valamilyen hollywoodi stúdióra volt értendő, hanem a gamer piacra. Lehet, hogy 8k video szerkesztésben (ami tekinthető HEDT grafikának) a Vega10 verhetetlen konstrukció, de nem erről volt szó, hanem a gamingről.
Nagyon leegyszerűsítve: a Vega10 nagyon sok pozitív tulajdonságával sok piacot le tud fedni, de - szerintem - nem volt primér fókusza a gaming piacon az 1080Ti verő cím elérése egy nagy lapkás implementációban, vagy legalábbis nem sikerült. És úgy tűnik, hogy nem is jön semmi ebbe a szegmensbe.2) Ebben egyetértünk: a vega20-ból nem lesz a gaming piacon az RX vega 64-et váltó 1080Ti verő újdonság.
 - 
			
			
						Petykemano
veterán
1) Szerintem nem, vagy legalábbis nem HEDT grafikai fókuszú. De ezt mondtam: mobile és compute.
Ennek megfelelően én arra számítok, hogy az APUkban és legalább az intelnek szállított megoldásban a vega meg fogja csillogtatni azt, hogy miben és mennyivel jobb lett, mint a polaris ugyanezen a terepen. Csak ezt az egészet így nem lehet feltekerni a HEDT szintre. Csak a CU-k skálázódnak, a frontend és a RBE nem.
Az lehet, hogy ezt a megfelelő szoftveres eljárásokkal trükközésekkel ki lehetne küszöbölni és akkor a hardvernek nem kéne tudnia skálázódni, de jelenleg az a helyzet, hogy a hardver nem skálázódik, és bár a szoftveres megoldásokra fel van készítve, a szoftver nem úgy készül, hogy a gyorsított utakat használja.2.)
Lehet, hogy a VEga20 sokban fog különbözni, de nem olyan dolgokban, hogy a gamer piacon az 1080Ti-t módszeresen földbe tiporja.
gamer piac szempontjából, vagyis vs 1080ti:
natív DP - haszontalan, de drágítja a szilikont, talán még a fogyasztást is emeli
PCIe 4 - haszontalan - nem limitáló tényező a pcie
GMI - haszontalan
duplázott sávszél - ez csak akkor hasznos, ha valójábn a vega nagyon sávszélesség limites. De itt valaki bedobott egy számot: 15-17%.-os mem OC-re 5-6%-kal reagál. - 
			
			
"viszont PCI Express 4.0 lesz, ami egy nagyon fontos lépés. Iszonyatosan korlátozó a 3.0 is manapság."
Ilyen kijelentésekkel óvatosan, mert az emberek hajlamosak úgy félreérteni, hogy a 4.0-val csodával határos gyorsulás jön minden játékban.
 Egyébként konkrétan mire lehetne használni a nagyobb sávszélt? Vagy esetleg valami egyéb PCIE 4.0 feature lehet hasznos? - 
			
			
						->Raizen<-
veterán
Na ma is bugozott a rendszer, win10 topicba olvastam hogy a chrome simán okozhat problémát. Edge alatt hallgattam a zenéimet youtube miközbe forzáztam és nem jött elő a brutál minden belassulós történet. Na meg letiltottam a gyári víruskeresőt is mert az is tekerte a háttérben néha a cpu-t.
 - 
			
			
						->Raizen<-
veterán
Nem tudom hogy szerver oldali e a probléma, vagy a gépem érintett, de a patch óta a biztos beállításomnál dadog a game ezerrel. Próbálom majd a single-t is. Monitorozom a cpu-t gpu-t is és nem melegszik túl egyik sem. Cpu 59 fok a legmelegebb mag vga 54 fok max. Nincs tuning.
 - 
			
			
						Pipó
őstag
A 0,1 % az minden ezredik vga-t jelenti. Ha felszorozzuk az 5000 darabbal, akkor 5.000.000 - azaz ötmillió - eladott AMD vga-ra elég ez a most biztosított mennyiség. Mennyi idő kell ennyi AMD vga eladásához?
Akár be is fejezhetik a gyártást. Komolyan kérdezem: tudja valaki, mennyi darab vga-t adtak el idén AMD gpu-val? - 
			
			
						Egon
nagyúr
Nyomsz egy technoblablát, és teszel egy állítást:
A lényeg annyi, hogy az egyes architektúráknak van egy életciklusa. Ez akkor is tart, amikor már nem tudod őket megvásárolni a boltokban, és a gyártók nézőpontjából okvetlenül fontos, hogy erre az életciklusra rá legyen tervezve a hardver.
Aztán ezt az állítást indokolni próbálod olyan "érvekkel", aminek minimális köze sincs az állításhoz:
És láthatóan nem egy gyártó gondolja így, mert ha úgy lenne, akkor csak egy cég vezette volna be az utasítás-előbetöltést, a dinamikus LDS allokációt, a wave-ek szoftveres kontrollját, de mit ad az ég lényegében mindegyik újítást minimum két gyártó kínálja már legalább egy, ma elérhető hardverben.
Mit is mondhatnék erre?
 Boldog karácsonyt! ![;]](//cdn.rios.hu/dl/s/v1.gif)
 - 
			
			
						Petykemano
veterán
Hát persze, hogy a megjelenésen lovagolok. Lehet, hogy úgy tervezik, hogy a vega termék támogatott életciklusa 2019-ig tart. De szerinted ki fog még 2019-ben vegát venni? Legalábbis a 2017-ben kiadott vegát.
A kiindulási alap továbbra is az ugyebár, hogy az AMD termékek esetén a megjelenéskor olyan problémákkal is megbírkóznak, amelyek a megjelenés pillanátban még nem jelentkeznek, hanem majd az életciklusuk közben.
A hiba ebben az, hogy így az életciklusuk egy részét úgy töltik, hogy kihasználatlan képességeket vonultatnak fel, amelyek konkurens termékekkel szemben nem jelentenek semmilyen előnyt ebben az időszakban. A probléma felmerülésének időponjától pedig azért nem, mert akkor már a konkurens termék is tudja.Viszont, ha úgy nézzük, hogy itt nem is a 2017-ben termékként kiadott vegáról van szó, akkor az pont azt jelenti, hogy 2017-es termékpalettában még nyugodtan szerepelhetett volna olyan termék, ami a 2017-ben még meg nem jelent problémákat nem orvosolja. Annyival is egyszerűbb lehetett volna. Persze ha a probléma felmerül 2017-ben, akkor előnyt jelenthetne kihozni 2017-ben egy megoldást nyújtó hardver kidobása. De így nem.
De ezt írod te is, hogy a pascal és a polaros már rég az életciklusuk végén leszek, mire ezek a problémák megjelennek.
A fejlesztő oldalán igazából a Vega megoldását nem kell támogatni?? De hát most jelentették be, hogy például a primitive shader nem lesz csak driverből támogatott képesség, hanem fejlesztőknek kell használatba venni. Vagy most csak az LDS-re vagy mi a fenére gondolsz? Hát lehet. De sajnos azt kell mondjam, hogy miközben a primitive shadert várhatóan a néhány partnercégen kívül senki nem fogja használni - kivéve, ha az nvidia is lehozza ugyanezt a megoldást -, addig más vonatkozásban és akár ebben is elvárható (lett volna) az, hogy fejlesztői közreműködés nélkül menjen. Nem is elvárás, hanem ha ez nem így van, akkor a piaci erőviszonyok miatt nagyon kis mértékben foglalkoznának vele. Ellentétben hiába, hogy az nvidia voltájára optimalizált kódot kell készíteni külön. Ezt a fejlesztők vagy megteszik majd maguktól, mert akarják, hogy jól működjön a piaci domináns gyártó kártyáin, vagy maguktól nem tennék, de az nvidia megfizeti őket és ezért hajlandók.
Ja igen. Amit akartam még mondani. Hogy ha a probléma majd csak 2018-ban jelentkezik. Azt mondod, azért kell már a 2017-es kiadású terméknek tudnia, mert annak valójában az életciklusa 2019-ig kitart. Namost mi van, ha a megoldást csak a 2018-as termékedbe teszed bele és a 2017-es termék a probléma 2018-as megjelenésekor belassul, szenved, vagy esetleg nem teljesít olyan jól? Na mi? Hát a vásárló látja, hogy az új programokban mennyivel jobban teljesít az új hardver és besétál a boltba és megveszi az új hardvert.
 - 
			
			
						Petykemano
veterán
Hol vetették be? Titán V?
És mely programokban/piacon jelentett a vegának a fél évvel előbbi megjelenése az LDS problematika kezelése előnyt?Én nem láttam semmilyen előnyt. Azt azonban igen, hogy a vega ezt tudja, és ez nem a vegának jelent fél évea előnyt, hanem a fejlesztőknek egy bétatesztelési lehetőséget. Aztán ha már tudják a programok, letesztelték a cuccot a vegán, akkor kikerülhet a kísérleti fázsból, ha jön a volta.
A probléma tehát az, hogy az nvidia arch életciklusa elején jelenik meg a probléma széles körben, amit kezelni hivatott, az amd esetén meg a végén.
 - 
			
			
						do3om
addikt
Fogalmam sincs miről beszélsz.
 
Annyit tudok hogy a Polaris nagyon is eladható, méghozzá azon az áron amiért a megjelenéskor adták.
Nem tudom milyen stratégia az ami miatt nem akarnak még többet eladni miközben van rá vevő. Azt sem tudom milyen stratégia az ami a vegat nyomná amit szintén nem tudnak kiszolgálni, csak itt még ha akarnák sem. Szóval ami menne azt nem nyomják mert nekik régi, ami új azt meg nem tudják.
Ez igazi AMD stratégia, ezek után azt várom a beszámolókba hogy mennyi a veszteségük.![;]](//cdn.rios.hu/dl/s/v1.gif)
 - 
			
			
						Petykemano
veterán
"Az új generáció mindig arról szól, hogy a generáció élettartama alatt előtérbe kerülő problémákra a hardver már azelőtt reflektáljon mielőtt az rendkívül limitáló lenne."
Csak az AMD-nél.
Az nvidia általában megvárja, míg a fejlesztők kikísérletezgetk magukat az AMD hardverén, és csak utána dobja be a saját megoldását. Az AMD-nek nem sikerül úgy összelőnie a hardverének és a limitációknak a megjelenését, hogy a limitáció úgy jelenjen meg, hogy az ő hardvere ne sokéves- felsleges - előnnyel tudja, de a konkurens hardveren limitációt jelentsen.Itt van például amit mondasz, hogy a vega meg a volta. A vega lassan fél éve kapható a piacon. Ha mondjuk az nvidia ebdobja a voltát tavasszal, akkor a vegának pont háromnegyed éve volt a piacon úgy, hogy semmilyen limitációt nem oldott meg korábban, mint az nvidia nextgen architektúrája. Ebből a szempontból az, hogy a GV100 kapható tavasz óta, meg most már Titan V formában is, mindegy.
mindegy, legyen igazad és 2018-ra álljon össze egy csak vegákból álló termékpaletta, feküdjenek rá a vega driveres támogatására, minden mást helyezzenek örök nyugovóra, hogy ne kelljen 5 féle architektúrát ugyanúgy kiemelten támogatni. És legyen jó. Meg tánc és zárcsökkentés.
 
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Valami baja van a tápomnak
 - Minőségi ugrást hozhat a One új médiaboxa?
 - exHWSW - Értünk mindenhez IS
 - iPhone topik
 - Mindenki bukja a Blackwell chipeket, ha bejön Trump terve
 - Rendkívül ütőképesnek tűnik az újragondolt Apple tv
 - Renault, Dacia topik
 - Intel Core i3 / i5 / i7 8xxx "Coffee Lake" és i5 / i7 / i9 9xxx “Coffee Lake Refresh” (LGA1151)
 - Vezeték nélküli fejhallgatók
 - Kamionok, fuvarozás, logisztika topik
 - További aktív témák...
 
- Bomba ár! HP EliteBook 745 G6 - Ryzen PRO 5 I 8GB I 256GB SSD I HDMI I 14" FHD I Cam I W10 I Gari!
 - Új FULL HD webkamera + Számla
 - HIBÁTLAN iPhone 13 mini 128GB Pink -1 ÉV GARANCIA - Kártyafüggetlen, MS3050, 96% Akkumulátor
 - BESZÁMÍTÁS! ASRockB450M R5 5600X 16GB DDR4 512GB SSD STRIX RTX 2070 SUPER 8GB GameMax Aero Mini 700W
 - Bomba Ár! Lenovo ThinkPad E15 Gen2 AMD - Ryzen 5 I 8GB I 256SSD I 15,6" FHD I HDMI I W11 I Gari
 
Állásajánlatok
Cég: NetGo.hu Kft.
Város: Gödöllő
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
								
							
 Nem azért, de az első linken kb. minden második díjat Nintendo Switch-re írt játék nyert, gondolom ki kellett hozni valami nyertest PS4-re is, különben sz*rul nézett volna ki a lista... ![;]](http://cdn.rios.hu/dl/s/v1.gif)
								

								
								
 ez az Mester 
								
								
: Ha nem lesznek megelégedve a minőséggel, akkor majd vehetnek kártyát a Sapphire-tól, mint kizárólagos AMD partnertől is. Azért ez már valahol az AMD hibája is, hogy a partnerek képesek bele menni egy ilyen NV-s ajánlatba.
								
								
								
								
								
								
 
								
								
								
								
								

								
								
								
 Egyszereplős a VGA piac.
								
								
								
								
								
								
								
								

								
								
								
