Új hozzászólás Aktív témák
-
Petykemano
veterán
válasz
Crytek
#27993
üzenetére
Ezt a játékot úgy/annyira optimalizálták - eddig . hogy 1080Ti@4K elérje a 60fps-t. Az nvidia kártyáira a megszokott módon szépen skálázódik, tehát fekszik az architektúrának. Az AMD nem skálázódik, ezért annak valószínűleg nem. Persze magas felbontáson nem ér el kellően magas fps-t, ami azért nem jó. Reméljük innen csak felfelé megy az út.
-
Petykemano
veterán
válasz
MiklosSaS
#27975
üzenetére
Ugyanazon az oldalon a Stock és akciózás mértéke alapján az intelt se veszik. Ugyanúgy akciós és fullra töltött árukészletet jelez.
Legalább annyira megbízható Bennfenntes info a mindfactory.de forgalmáról is van: spreadsheet
A legutolsó adat 5. 16.Másodszor mondom el neked, hogy nem volt igaz, bármennyire szerette volna Abumester állítása, hogy senki nem fog intelt venni, ami nyilvánvaló volt, hiszen még akkor se lehet a régi beidegződéseket, márkahűséget egyik napról a másikra lebontani, ha tényleg minden vobatkozásban jobb lett volna a ryzen. Azonkívül raktárkészlet miatt a Nagykerek, kiskerek, webáruházak érdekeltek lehetnek abban, hogy a fogyasztók előbb a felhalmozott raktárkészletet vigyék el, mielőtt ráugranak az újra, jobbra. Tavaly az nvidia pont ezért fizetett vissza pénzt a disztibútoroknak, mert a pascal felkészületlenül érte őket és a készleten levő termékeket csak veszteséggel tudták volna értékesíteni.
De az se igaz, hogy senki nem vesz ryzent. A mindfactory.Dr adatai szerint a vizsgált árszegmensben az eladások 45%-át a ryzen teszi ki. Az intelnél persze toronymagas az i7 7700k és i5 7600k
-
Petykemano
veterán
válasz
Yutani
#27909
üzenetére
Vajon ha az AMD kártyája ugyanannyiért jobb, és nem is fogyaszt többet, vagy ugyanannyi, ugyanolyan, de kevesebet fogyaszt, akkor meddig kúszna fel ez az érték?
(Jójó, persze, tudom, bilibe lóg a kezem, ilyen sose lesz. Az AMD mindig lassabb lesz, vagy nagyfogyasztású, vagy mindkettő. És szar a driver. És pofátlanul reklámoznak. És még el is ejtik a kártyát... Nevetséges banda.) -
Petykemano
veterán
válasz
Malibutomi
#27751
üzenetére
Jóleredményesen működik a primitive discard funkció -
Petykemano
veterán
a HBCC-vel, a kikupált geometriával, és más szűk keresztmetszetek befoltozásával szerintem az AMD ép lép el az olyan szoftverfejlesztési irányt igénylő technológiai megoldásoktól, mint az Async Compute, a low level memory management, stb, amelyek kiváló elméleti elgondolások voltak, de a gyakorlatban láthatóan nem váltak be. Nem nem lett volna jobb, csak nem sikerült átvinni a piacon.
-
Petykemano
veterán
válasz
Laja333
#27659
üzenetére
Az avfst a következőkkel promózták:
Minden lapkát túlfeszelnek azért hogy váratlan feszültség imgadozás esetén is a beállított frekvenciához szükséges tartományban maradjon.
Az avvfs abban segít, hogy váratlan veszoltségesés esetén csökkenti a frekvenciát, hogy ne hibázzon a hardver. Így csökkenthető a biztonsági.feszültség sáv. Alacsonyabb lehet a beállított feszültség, vagy valamivel magasabb az órajel.Egy ilyen rendszer, ami le tudja húzni a frkvenciát a rendelkezésre álló feszültséghez a stabilitás érdekében, éezékelnie kell, hogy mikor áll fenn instabilitás és mikor nem.
Egy ilyen rendszernek eképp szerintem tudnia kéne érzékelnie és kezelnie azt is, hogy egy általa adagolt feszültség stabil-e a kívánt frekvenciával, és nem lehúzni a frekvenciát, hanem adagolni a feszültséget, ha futja a tdp keretből.
Lehet, hogy csinálja ezt, csak akkor nem elég precíz.
-
Petykemano
veterán
válasz
Euromail
#27657
üzenetére
A.reddites linken erről biztos több info van.
Ez egy webshop statisztikája (elvileg)
Ebben a boltban a vizsgált árszegmensben az amd R5 és R7 48%-os részesedést ért el. Eddig.
Nem igaz, hogy ryzentől senki se vesz intelt, de az se, hogy a kutyának se kell, csak áll a polcon. Hogy az amd várakozásainak megfelelnek-e az eladási számok, azt tőlük kell megkérdezni. Ha jól megy, talán kérkednek a számokkal május 16. FaD alkalmával. -
Petykemano
veterán
Akkor itt még lehet találni wattokat, ha az AVFS figyeli és figyelembe veszi az xyz és xvu programok által a lapkára helyezett workload jellegét. Így egyik programban lehet csökkenteni a fogyasztást, a másikban esetleg nem, persze a lényeg, hogy legnagyobb terhelést jelentő program alatti viselkedésre állítsák be a TDP-t és ahhoz képest lehessen jobb, ha ügyes az AVFS, vagy buborékok keletkeznek a program futásában, amit Async Compute nem használ ki.
-
Petykemano
veterán
válasz
schawo
#27611
üzenetére
Igen, pont ezt akartam hozzátenni, hogy azért ekézem az amd megoldását, mert
1.) Az amd megoldását fényezi abu, az nvidiáét halkan leszólja, miközben látható, hogy utóbbi csöndben jó.
2.) Eközben az AMD van lemaradásban a ppw mutatókban
3.) Az nvidia megoldása tud frekvenciát növelni, turbózni, stb. Az amd lapka úgy kap túlfeszültséget, hogy a jobb lapkák se nem tudnak belőle magasabbra turbózni, és ugyanígy az avfs sem veszi lejjebb a feszültséget, hogy legalább kevesebbet fogyasszon.Lehet, hogy az amd megoldásával kisebb a variancia, de ez azt is jelenti, hogy az összes lapka egységesen a potenciál alatt működik. Lehet, hogy az nvidia megoldásában több a variancia és nem biztos, hogy a te példányodban ugyanannyi turbótartalék van, mint máséban. De cserébe nincs is bereklámozva, hogy az nvidia xfr a turbó felett is turbózik, ha szerencséd van. Ehhez képest az avfsről azt mondták, hogy ez kipréseli a kártyából a maximumot, holott nem. Nyilván van vagy volt olyan lapka, aminél a beállított magasabb feszültség indokolt. Nekem inkább úgy tűnik, az amd beáldozta a Rx480 fogyasztását (110W vs 150W), hogy több gxengébb lapkát tudjon akként eladni ahelyett, hogy alacsonyabb frekvenciával rx470-ként kéne. És lehet, hogy az rx470 fogyasztása is be van áldozva, hogy a gyengébb lapkák is vigyék a kijelölt frekvenciákat.
Ezzel egyébként nem lenne semmi baj, lehetne mondani, hogy pipe cleaner, majd finomodik, stb. Nem lenne semmi baj, ha a az avfs korrigálná a gyártási varianciát és gyengébb lapka esetén magasabb feszültséget állítana, jobb lapka esetén alacsonyabbat és kellemesebb fogyasztást adna. Ahogy javul a gyártástechnológia, úgy csökken a szerencsések fogyasztása.
Ezt vártam. Így történt?
-
Petykemano
veterán
Ha számol, akkor még nem elég jól. Ha a user tudja alulfeszelni, ezt az avfs is meg tudná tenni. Most persze erre mondhatod, hogy de a gyári megoldásnak 100%-ig mindenhol stabilnak kell lenni, de ez akkor azt jelenti, hogy van valamekkora biztonsági tartalék, amivel az avfs magasabbra teszi a szükséges feszültséget, mint bizonyos körülmények között szükséges volna.
A lényeg, hogy ennek a rendszernek a finomításával llehetne még találni 20-30W-ot a p10-ben. -
Petykemano
veterán
Én nem azt várom, hogy az AMD az én kártyámra, az én otthonomra, az én programomhoz szabott gyári profilt adjon, ami 100%-osan stabil.
Azt várom, hogy egy olyan adaptív feszültség és frekvencia skálázó algoritmust adjon, ami képes a legnagyobb szükséges és elérhető frekvenciát és az ahhoz szükséges minimális feszültséget adaptívan, működés közben, a hardverbe épített érzékelők visszajelzései alapján beállítani.
Amit mondasz, az nem ez.
A dvfs az, hogy a gyárban állítják a táblát. És olyan táblát állítanak be, hogy mindent lapkaminőségen minden környezetben stabil legyen.
Az avfs pedig lényégében az, hogy a gyárban beállított táblázatot offszetelik az aktuális környezeti paraméterekkel, aminek az eredménye az, hogy egy sarkköri környzetben alacsonyabb feszültségen tud működni, mint a trópusokon.De nem számol a lapka tulajdonságaival, viselkedésével. Ugye nyilván nem minden lapkát lehet ugyanannyira alulfeszelni. De ezzel az avfs egyáltalán nem kalkulál, nem feszeli alul a kártyát, nem teszteli, hogy mit tud, nem adaptálja a feszültséget az adott lapkához. ISO környezetben minden lapka ugyanakkora túlfeszültsget kap, hogy a gyengébb és a jobb lapka is tuti stabil legyen. Ebbe az avfs nem szól bele. Jól értem?
-
Petykemano
veterán
Használjon akkor program profilokat, ahogy a driverben most is létre lehet ilyet hozni. Állítsa be, korrigálja a táblázatot mindig a mindenkori időjárási viszonyoknak és a programnak megfelelően és ennél biztosan sokkal több körülményt kell figyelembe venni működés közben, vigyen ugyanez a rendszer droppolja a frekvenciát váratlan feszoltségesés esetén. Erről is volt szó. Ha instabilitást érzékel, akkor korrigálja a táblázatot, hogy adott szituációban az a feszültség kevés.
Amiről Te beszélsz, abból nekem az jön le, hogy ez az adaptivitás a bekapcsoláskor egyszer lezajlik, akkor egy a szobahőmérséklettől függően egy algoritmus által kalkulált táblázat elkészül és onnantól az van érvényben. Adaptív csupán abban az értelemben, hogy nem a gyárban állítják be a táblázatot úgy, hogy -10 és 50 fokos szobahőmérsékleten is stabil legyen, hanem ezt a mimdenkinel a helyszínen az algoritmus offsetteli.
Nem adaptív viszont abban az értelemben, hogy a rendszer nem méregeti, nem figyeli a stabilitást. Nem kalkulálgatja a legkisebb szükséges feszültséget, és működés közben nem adaptálja a feszültséget a frekvenciához. Az előre kikalkulált táblázatban így továbbra is túl kell adagolni a feszültséget, mert működés közben már semmilyen önkorrekcióra nem képes.Csak akkor nem értem, hogy csinálja, hogy működés közben váratlan feszültségesés esetén korrigálja a frekvenciát, hogy a rendszer stabil maradjon?
Ha viszont ez mégis így van, akkor működés közben miért nem keresi meg a frekvenciához a szükséges minimális feszültséget adott játékban, adott körülmények között.? -
Petykemano
veterán
Az első bekapcsolás után, használat közben miért nem próbálgatja saját magát a lapka? Amit a felhasználó elvégez tuningolást, miért nem csinálja meg a lapka? Az avfs? Az volna a lényege, hogy frekvenciához feszültséget társít. Ezt akkor tudja próbálgatni is.
Persze ha ez környezeti változóktól függ, pl hőmérséklettől, páratartalomtól, akkor a táblázatba, amit készít, és amit folyamatosan korrigál, önszabályoz, legyenek benne ezek a fontos információk.Biztos nem egyszerű, de nem így tudná kihozni a maxiumot a lapkából a minimális fogyasztással? Ez akármilyen nehéz is, az ezzel agyonpromózott polaris esetén is úgy tűnik, hogy nem működik. Most mindegy, hogy én félreértettem és az nem is úgy van. A marketingből nekem és sokaknak az a működési elv jött le, amit fent vázoltam és mivel nem úgy működik, úgy tűnik, hogy nem működik.
Ez azért 30-50W-ot jelent az Amdnek. -
Petykemano
veterán
válasz
->Raizen<-
#27478
üzenetére
Ez a kamuhír a.chiphelltől vótmá?
-
Petykemano
veterán
válasz
#85552128
#27473
üzenetére
Egyet kell értsek. Se a bónapokkal előre tízelés nem jó, sem az overpromising, underdelivering. Utóbbi a sok konkrátum nélküli szivárgásra alapuló okoskodás miatt létezhet. Az nvidia nem jelenti be a fejlesztéseket, higy aztán azon 1 évig agyalhasson a közönség, milyen jó lesz. És egyébként a szivárgás pillanatában tényleg jó is lenne. De a megjelenésig eltelő év alatt már nem nagy szám.
Abu meg olyan, mint egy politikai tudósító, akik beszélgetnek a tévében. Narratívákat beszél el. Az biztos, hogy nem pusztán okoskodik, mint más youtuberek. De azt nem tudom, hogy vajon kajakra bekajálja a marketing dumákat, amik részben marketing dumák, másrészről meg a cégek tervei, elképzelései, víziói. Ezeket tolja le abu a cikkeiben és kommentjeiben. Vagy még az lehet, hogy az amd direkt szivárogtat ki fals információkat, és figyeli, hogy hol jelenik meg. És abu ezeket is bekajálja.
Azt értem, hogy ha volt bf1 indulás terven, akkor az amd egy be nem jelentette termék esetén nem fogja bejelenteni a késést. De abu tényleg nyomon követhetné saját állításait és offban korrigálhatná saját korábbi állításait. Legalább annyival, hogy téves volt. Nem jött be.
-
Petykemano
veterán
Write in Edge
steam://takesurvey/1
steam://takesurvey/2
steam://takesurvey/3
steam://takesurvey/4Ez működik?
-
Petykemano
veterán
válasz
#00137984
#27361
üzenetére
Számomra is csalódás volt az amd előző négyedéves eredménye. Vagyis a növekedés mértéke. A ryzentől nagyobb hatást vártam.
Ha mondjuk azt mondjuk hogy 300m dollár jött a ryzenből az első hónapban, akkor 400 dolláros átlagárral számolva eladtak 750000 példányt. Hát az elég kevés ahhoz képest, hogy a megjelenés előtt azt számolgattuk, hogy elég lesz-e a GF gyártókapacitása, miközben ez csak max 4-5000 wafer. Nyilván persze sok volt a selejt.A magam részéről azt vártak, hogy a ryzen minimum megduplázza az amd bevételeit.
Az igazsághoz persze többminden hozzátartozik:
- Itt most csak az első hónap DIY top tier szeletének bevételeiről beszélünk
- a mainstreamnek számító R5 még csak majd most következik
- állítólag a Nagy OEM gyártók nem forgalmazzák a ryzent. Még. Mert egyszerűen ki akarják várni - bölcsen - a kezdeti hibákat. Mert esetükben egy BIOS frissítés óriási költség.
- tudjuk, hogy a piac nagyobb része ma már a mobil. A raven ridge, amit a mobil piacon szintén ütőképes produktumnak várnak, sokat nyomhat majd a latba. Persze ez is az OEM gyártókon fog múlni.
- a nagy profit nyilván a szerverpiacról jön.Hát kiváncsian várom. Igazság szerint a projektált 17% nem áll párhuzamban azokkal, amiket felsoroltam, kíváncsi vagyok az AMD realizmusának okára
-
Petykemano
veterán
válasz
Yutani
#27261
üzenetére
Ezzel csak egy baj van. Mármimt ha nem lesz gyorsabb, csak olcsóbb. Olyan elképelhetetlenül kicsinek és mocskosul alacsony fogyasztásúnak kell lennie, hogy arra azt lehessen mondani, valójában ezért pofátlanul magas árat kér az amd, miközben kevesebbért árulja ugyanazt a teljesítményt, mint az nvidia. Hogy a volta se gyalulja le. Mert azt lehetett sejteni, hogy az intelnek nincs csodafegyvere és csak pár százalékos játéktere van. De a gpuk esetén nem ritka a generációnkénti 30-50%-os teljesítménynövekedés.
-
Petykemano
veterán
Az a szomorú ezekben a technológia-fogyasztás-ár kérdésekben, hogy a HBM(2) a maga alacsony fogyasztásával pont oda, az alsóbb szegmensekbe nem jut le, ahol mind a méret, mind az alacsonyabb fogyaztás miatt illetékessége lenne - az ára miatt.
Mit gondolsz, a GDDR6 elterjedésével - ha ahogy mondod olcsóbb lesz, mint a HBM2 -, lejuthat a HBM2 az alacsonyabb árszegmensekbe? Mobil gpu-knál, illetve miniPC-k esetén indokolt is lenne, mégha drágább is. Lehet-e ezzel piaci előnyre szert tenni?
-
Petykemano
veterán
válasz
füles_
#27137
üzenetére
Nem tudom persze, csak tippelem, hogy úgy lehetez 3rd edition, hogy ez az AMD harmadik eresztése a GF 14LPPn nodeján. (1st: P10+P11, 2nd: Ryzen) Nyilván a GF sem tétlenkedik, hanem finomít, korrigál. A Polaris pipe cleaner volt. Eléggé azt a benyomást keltette, hogy túlbiztosították a jó kihozatal végett, amitől meg nem értek el magas frekvenciákat. Akkoriban még beszélték is, hogy hamar hozni kéne egy új steppinget a javuló hibaarányra, amiből kigyepálják a redundáns tranzisztorokat és akkor az lökhet egy kicsit az elérhető frekvencián meg javíthat a fogyasztáson.
Szerintem Abu pont ezekre gondol, hogy "kisírta" a közönség.A fogyasztási adatokat persze még várjuk meg, de az 1400/1266 = 1.1, vagyis 10%-os növekmény nem egy gigantikus olyan arány, amit egy generációváltáskor várni szoktunk - mégha az "átnevezés"/ újrahasznosítás része is az AMD történelmének. Így a nagy promózást - egyelőre - nem értem. A kis reszelgetést, kicsit jobb fogyasztást, kicsivel magasabb frekvenciát a 200-as és a 300-as szériánál is megcsinálták az "átnevezésekre", miközben promózták az új generácós chipeket (Hawaii és 260X, valamint Tonga és Fiji)
De mi lehetne még a háttérben? Új szuperfunkciókat nem rakhattak bele, meghát látszódnia kellene a teljesítményen. Ami még ezekután érdekes lehet az csak a fogyasztás - amit Abu is mondott. (És ezzel együtt a tuningpotenciál)
Lehet, hogy új 15nm-es finfet GDDR5 chipeket raktak rájuk, ezért a memória rendszer 40W helyett 20W-ot fogyaszt. -
Petykemano
veterán
válasz
#85552128
#27030
üzenetére
Nem érzed úgy, hogy ez a még három megahertzel gyorsabb, és 11.4Gz RAM, letiltás nélkül.... hogy ez olyan preemtív izzadságszagú? Hogy megpróbálnak mindent kisajtolni a kártyából (Pont úgy, ahogy a Polarisból az AMD az 1266Mhz-cel, és akkor húhú, 20, meg 40Mhz-cel gyorsabb az AIB kártya)
-
Petykemano
veterán
válasz
Euromail
#26988
üzenetére
A kép, amit megosztottál azt bizonyítja, hogy a Far Cry Primal játékban Ultra, stbstb beállítások mellett az i5 3570K 4,2Ghz húzva jobban kihajtja a Fury X-et, mint a R7 1700. (3Ghz alap és 3.7Ghz-es turbó órajel)
A cikk nem arról szólt, hogy a Ryzen jobban kihajtja az AMD kártyákat.
Hanem arról, hogy hasonló teljesítményű AMD és NVidia kártyákat véve a Ryzen bottleneck lehet az Nvidia kártyának a driver működése miatt, az AMD driver viszont nem. És ugyanahhoz az nvidia gpuhoz egy intel cpu sem.
Akkor lenne tiszta a kép, ha az általad hivatkozott grafikonok mellé tudnánk tenni mondjuk egy 980Ti-t is ugyanezzel a két cpu-val meghajtva. És még akkor sem az lenne a cikk tartalma szerinti kérdés, hogy jobb-e a 980Ti+3570K, mint a 1700+FuryX, hanem hogy nagyobb különbség van-e a 980Ti-vel használt 3570K és 1700 között, mint a FuryX mellett használt 3570K és 1700 között.
Aztán az eredményből azt is ki kell szűrni, hogy a tesztelt program mekkora terhelést tesz az elsődleges program szálra. Mert ha sokat, az eleve bottleneckezheti az AMD drivert (DX11-ben) és akkor a két proci teljesítménye közötti különbség AMD kártya esetén inkább magyarázható az egyszálas teljesítménnyel.
Végülis eljutottunk a lényeghez: DX11-ben AMD GPU esetén az egyszálas AMD DX11-es driver okozhat CPU bottlenecket. Ha egyszálas teljesítményben jobb intel CPU-val hasonlítjuk az AMD cpu-t, akkor ezért maradhat alul. (Pontosabban ez attól függ, hogy a játék mekkora terhelést tesz az elsődleges szálra)
Nvidia kártya esetén pedig azért, mert az nvidia driver sokat kommunikáltat CCX-ek között és ez jelent bottlenecket.Mindkét esetben az intel CPU jön ki győztesen.
Szerintem így a cikkben található megállapítás nem mond ellent a grafikonodnak.(egyébként a tesztben nem RX 480 8GB-ot használtak?)
-
Petykemano
veterán
válasz
távcsőves
#26964
üzenetére
Nem teljesen.
Azt meséli el, hogy az nvidia a fermivel vezette be a hardveres ütemezőt, de sokat fogyasztott, ezért a keplerrel váltott vissza szoftveres ütemezőre. Az AMD pedig a gcnnel váltott hardveresre és még nem adta fel.
Akkoriban a játékok csak 1-2 magot fogtak be beleértve a draw callokat is. Dx11 esetém az elsődleges programszál kezeli le ezeket. Az nvidia a civ5 példájából tanulva talált módot arra, hogy a szoftveres ütemező feladatait szétterítse a kihasználatlan magok között egy pici többletterhelés mellett. Így az nvidia driver több cput használ, de nem az elsődleges programszálat terheli, ezért az nem jelent bottlenécket. Ellentétben az amd esetével, ahol nem tudtak/akartak "trükközni" szoftveresen, mert hardveres ütemező van. Ezért minden draw call művelet az elsődleges szálat terheli.A pénz ott jön képbe, hogy ha akarom, lehet úgy programozni a játékot, higy az elsődleges szál tehermentesített (ez kedvez az amdnek), meg úgy is, hogy nem. Ez meg rossz az amdnek. Ez önmagában az nvidiának senem jobb, senem rossszabb.
Két dolog válroztatott a hélyzeten. Technikai értelemben persze. Az egyik, hogy a programok elkezdtek több szálat használni. És amikor a program már azokat a szálakat is befogja, amelyeket eddig.csak az nvidia driver terhelt, akkor ott is jelemtkezhet CPU bottleneck. Hovatovább ha az elsődleges szál tehermentesített, hogy az amdnek is feküdjön, akkor nvidia esetén előbb is jöhet CPU bottleneck, mert alapvetően az nvidia driver ezen tööbszálúsított működése több cput használ. Erről abu is sokat anekdotázott, csak sose magyarázta el így.
A másik dolog pedig a dx12, ami lehetővé teszi az összes programszálnak, hogy draw call műveleteket küldjön. Ezeket a gcn hardware ütemezője szépen kezeli is. Ezzel a az amd megszabadult az elsődleges szálhoz való kötődéstől és annak szűk keresztmetszetétől. Az nvidia driver viszont továbbra is több cput használ, mert a pöpéc ütemezés szoftveres és ezért hamarabb ütközik CPU limitbe. Abu erről is írt párszor, de akkor emulációkról beszélt, ezért senki nem értette.
Egyik megoldás sem jobb a másiknál, csak más.
A pénz ott jön képbe, hogy az nvidiának van, tudja befolyásolni azt, hogy milyen prűgramozásban kerülnek portolásra a konzolos játékok. Az amd meg igyekszik hardveresen kiküszöbölni azokat a csapdákat, amiket az nvidia állít. Pl tesszeláció vs primitive discard engine. És hogy ezt a Vegának folytatnia kell.
A ryzen ott jön képbe, hogy az nvidia driver mivel sok cput használ, ezért optimalizálni kellhet a ryzenre. A sok szál sokat kommunikál egymással, ez meg a ryzen gyengéje. Ezért is szerepelhet gyengébben a ryzen az Intel procikkal szemben. Mert az nvidia driver sokat kommunikála ccxek között. Ellenben amd driver esetén ilyen nincs, ezért amd gpu esetén nem jelentkezik hátrány az Intel CPU-val szemben.
-
Petykemano
veterán
-
Petykemano
veterán
-
Petykemano
veterán
Nem mondtam, csak a "sokkal drágább gyártás" mögé tettem kérdőjelet. De attól hogy én kérdőjelet tettem mögé még lehet, hogy tényleg sokkal drágább. Mert mondjuk az AMD egy 500 mmˇ2-es lapkával tudja csak térdre kényszeríteni a GP104-et és azt is csak úgy, hogy 600mm^2 interposerrel és lehet, hogy a HBM is drága.
Ugyanakkor mégiscsak olcsóbbnak kell lennie. Hiszen a piac 80%-a az nvidiá az nvidia vásárló meg csak akkor vesz AMD-t, ha kétszer akkora teljesítmény kap fele áron. Vagy legalább vagy-vagy.
Magyarul ha el akarják adni, kénytelenek olcsóbban adni. -
Petykemano
veterán
Azt tudjuk, hogy
- hogyan viszonyul egymáshoz árban az amd gyártása a gf-nél és az nvidia gyártása a tsmc-nél?
- mennyivel olcsóbb nagy pcb-vel és huzalozásokkal, esetleg árnyékolással a gddr5x, aminek egyedüli vásárlója az nvidia, mint a hbm interposerrel?
Tudható-e, hogy itt egy 500-600 dolláros kártya esetén meghatározó költségdifferenciáról van-e szó. Mondjuk 50-100, nem pedig 10-20? -
Petykemano
veterán
válasz
Petykemano
#26592
üzenetére
Amit eddig láttunk? Az alapján a vr lufi mellett a cloud gaminget célozza a Vega.
Ha sikerül korábban letenniük olyan hardvert, megelőzve nvt amely nem egy, hanem 5-10 felhasználót is ki tud szolgálni egyszerre, akkor milliós megrendelésekre számíthatnak -
Petykemano
veterán
válasz
Yutani
#26122
üzenetére
Nekem úgy tűnik, legalábbis most így már, hogy azért vesz Amdt ,hogy biztosan legyen mit szidni. Mert amíg amdt vesz, addig mondhatja, hogy na már megint becsapták, mégvezették, rossz döntéshez félreinformálták, mármint persze az amd, és nem azt kapta, amit ígértek.
Az nvidia kártya megvásárlása után sem lehetetlen persze ez az álláspont. Ez Ren Hoek álláspontja, aki ha elégedett is a jelentősen drágábban kapott teljesítménnyel, az AMD-t szidja azért, mert nem juthatott hozzá jóval olcsóbban. És ez akkor is így lenne, ha történetesen lenne az árkategóriában amd versenytárs, hiszen annak olcsóbbnak kéne lennie. -
Petykemano
veterán
Nos, akkor Poor Volta 12nm-en?
-
Petykemano
veterán
válasz
velizare
#25910
üzenetére
Ez már hányadik újramérés? Semmi baj, Edison se adta fel. Olyan ez, mint mikor addig módosítod a modelled, amivel a valóságot akartad tesztelni, amíg azt az eredményt nem adja, amit vársz. Sikerült, helyreállt a világrend. A lényeg, hogy ilyen amds trükköket ki kell kapcsolni. Mert úgy nem fair. Maxon tesszelálni meg erkölcsi minimum, hiszen úgy jön ki melyik kártya mire képes.
-
Petykemano
veterán
Ennek több oka is lehetséges azon kívül vagy attól függetlenül, hogy melyik könnyebb, vagy "jobb" technológia (Abu szerint).
- az 2xNvidia kártya felállás piaci penetrációja nagyobb, mint a 2xAMD kártya piaci penetrációja, ezért előbbit érdemesnek tartották a fáradtságra, utóbbit nem.
- Nvidiától kaptak pénzügyi, szoftveres támogatást a megvalósításra és így még a jól dokumentált, könnyű CF-nél is könnyebb és olcsóbb volt.
- Nvidiától vagy más szponzortól kaptak videokártyákat a fejlesztéshez, teszteléshez, vagy kedvezményesen jutottak hozzá.
- Saját maguk vásároltak fejlesztéshez, teszteléshez több Nvidia kártyát, mert az "igazgató" úgy döntött, hogy az a jobb vétel és abból tudtak SLI konfigurácókat összedobni, AMD-ből meg nem.
- Driver támogatás szükséges a CF működéséhez, ami még nincs kész (Az tisztán látszik, hogy nem gyengén működik, hanem egyáltalán nem működik a CF) -
Petykemano
veterán
válasz
->Raizen<-
#25815
üzenetére
Szerintem igen.
1.) A variable length SIMD egységekkel elintézték, hogy ne égjenek üresen, alacsony kihasználtsággal. Ezzel biztosan energiát tudnak spórolni. Legalábbis ha a lapkában rejlő potenciális compute kapacitás nincs kihasználva. Márpedig generációk óta ez a helyzet, hogy az amdnek 15-20%-kal nagyobb elméleti compute kapacitás van az azonos teljesítményű kártyáiban. Ez a többlet pl a Doomban ki is jön és a kártyák teljesítménye a névleges compute kapacitásaiknak jobban megfelelően állnak sorba.
Ez így tehát minimum 20% energiaspórolást jelent. De akár többet is. Legalábbis compute részen.2.) A kicsit a compute részhez tartozik a fiji miatt a geometria, amit elméletileg 2.75x (a polaris példa alapján konzervatívan 2x) erőteljesebbre fejlesztették. Ez a fijinek mindenképpen hátráltató tényezője, szűk keresztmetszete volt. Szintén a Doomban látható, mire képes, ha kijön belőle a compute.
A továbbfejlesztett geometria lehetővé fogja tenni, hogy a lapkában rejlő compute képesség megmutatkozhasson.3.) Az amd is tett egy lépést a tile based rendering irányába. A kisebb képi egységek renderelése (jobban) belefér a cache-be. Emiatt egyfelől csökken a késleltetés (frametime) és a memória sávszélesség igény, mert kevesebbszer kell kinyúlni. Nyilván ennek az önmagában pozitív alacsonyabb sávszélesség igény mellett a memória alrendszer terheltséget és fogyasztását is jótékonyan befolyásolja.
4.) A HBC elgondolás, amit ha jól értettem, a fejlesztőknek alkalmazásba kell venni az előnyök kiaknázásához további előnyökkel kecsegtet a memória alrendszer terheltségére, sávszélesség igényére és fogyasztására nézve. Eddig ugyanis a fedélzeti memóriába szükséges volt betölteni olyan dolgokat is, amiket a program nem is feltétlen használt. A HBC esetén tényleg csak a használt dolgok kerülnek be. Ezzel - hosszútávon - spórolni lehet a kapacitáson és a sávszélességen
-
Petykemano
veterán
Jó, a GDDR5 órajelet csak betippeltem, mert azt gondoltam, folyamatosan emelkedtek. Benéztem.
Tonga kisebb lapka lett volna
Igen, egyetértek. Talán ha 20mn-en jött volna ki, akkor feltehetőleg magasabb órajelen jött volna 384bites memóriával és komoly teljesítménye lett volna. Igazi 290X utód.
De nem lett. És így összességében ha nem is fogyasztott semmit, minimum holt teherként cipelte magával. És ki kellett fizetni a méretét.
Nyilván azért csinálták úgy, ahogy, mert a 384bites memória már csak közvetlen a 390 alá gyorsította volna, oda meg minek, amikor ott voltak a még kiváló hibás hawaii chipek.butább, de optimalizált chip
Értem a hátrányokat. A serpenyő másik felében meg az van, hogy a középkategóriás chip nagyobb és drágább és melegebb, mint kéne és még áron alul adva se fogy olyan jól. Középkategóriát még a felső szegmensnél is gyengébban adják el szerintem a technikai ígéretek. A polarist például szerintem sokkal kevésbé az adja el, hogy tudja a shader model 6-ot, hanem az, ahogy a DOOM-ban teljesít.Polaris
De meghozták ezt a döntést az órajelekről és ugyanezen az áron nem biztos, hogy már ugyanolyan vonzó lett volna a valamivel magasabb hatékonyságjavulás ellenére. VAlószínűleg ugyanaz történt, mint a fijinél. Nézzük a jó oldalát: ezúttal nem mondták, hogy overclockers' dream. De mondom, a polaris szerintem egész jól sikerült. A videocardz-on bemutatott profi termék roadmap alapján az alsó profi szegmensben a P10-et a vega11 fogja váltani. Kiváncsi vagyok a két szóbanforgó fejlesztés hoz-e további komoly hatékonyságbeli előrelépést. -
Petykemano
veterán
Igazad is van, meg nem is
Igazad van abban, hogy sok vizet nem zavartak. Tényleg minden újítás alig foglalt el több tranzisztort és volt olyan is, ami hasznosult, pl a DCC, ami lehetővé tette, hogy 384bit helyett csak 256bites memóriabusszal dolgozzanak (meg persze a magasabb GDDR5 órajel)
Csak a két termék között eltelt 2 év. És két év alatt ugyanakkora lapkamérettel, tehát semmivel sem olcsóbban mint az addigra elinflálódott tahiti kínáltak ugyanakkor sebességet 60W-tal kevesebb TDP-vel.Úgy, hogy de ez egy újabb lapka és ez fejlettebb. Ami igaz, és látszanak is ma már. Van, ahol a tonga még helytáll 20-30fps-sel, a tahiti meg a földbe.Értem, hogy ha a középkategóriából kivágod az előremutató technológiákat és csak optimalizálod, akkor azzal hátráltatod a technológiára építő szoftverek fejlődését. De ez csak akkor tud működni, ha tudod terjeszteni, mert az idejét megelőző technológia nem hátráltatja a termékedet az aktuális piaci versenyben. Szerintem ez a tongára és a fijire nem volt igaz. Persze értem és tudom, hogy ezeket eredetileg 20nm-re tervezték és így sikerültek kicsit halványabbra. Szerintem nem terjedt volna kevésbé az idejét meghaladó technológiát (Async, finomszemcsés preempció) alkalmazó szoftver, ha a középkategóriás tonga jobban ki van herélve és fogyasztásban és lapkaméretben (gyártási költségek) terén versenyképesebb. Így a tonga egy 2 éves helyben toporgás lett.
A vega "túlbonyolítottsága" nekem is tetszetős. Ha megnézed azt az ábrát, hogy mi mindent újítottak a Polarisban és attól mi mindent vártunk... ha nem is hozta végül a beharangozott 2.7x-es hatékonyság emelkedést, de azért a a tonga féle helyben toporgás helyett szép előrelépést hozott a sok sárga NEW feliratú csillagocska. Ha a vegánál jelzett sok újítás legalább ennyi előrelépést hoz, akkor az szuper lesz. Nem állítom, hogy behozhatja az nvidiát, de legalább annyira versenyképes lesz, mint a polaris.
A vega két nyilvánvaló problémát orvosol, ami tünetként jelentkezik a fijinél és ami magyarázatot adhat arra is, hogy miért nem született nagyobb polaris. Én legalábbis azt várom a vegában debütáló geometriai újításoktól, hogy feloldják a fijit kínzó szűk keresztmetszetet egyrészt, másrészt pedig hogy a mindig túltömött (és nem hasznosuló) compute teljesítmény fogyasztása drasztikusan csökkenjen.
A HBC-n kívül nem tudom van-e még olyan a vegában, ami kifejezetten a jövőnek szól.
-
Petykemano
veterán
Abban sajnos igazuk van a srácoknak, hogy feleslegesen volt fejlettebb, mert gyakorlatilag semmi nem hasznosította a tongában a preempciót és a 16bites képességeket. Ha ezek a képességek úgy lettek volna benne, hogy nem zavarnak sok vizet, akkor persze nem lett volna semmi gond. Csak valószínűleg azért nem így volt. Ha nem lettek volna benne, akkor talán kevesebbet fogyasztott volna, vagy kisebb lett volna és olcsóbb, vagy erősebb.
Erre persze lehet azt mondani, hogy de hát az AMD-nek így volt jó, mert kipróbálhatta a technológiáit. És a vevő is vállalta a kockázatot.
Ha ezek a képességek egy furyban lettek volna, mint ahogy pl súlyos compute képességek maradtak is benne, akkor arra lehet mondani, hogy idővel beérik. A tonga, mint középszerű kártyában viszont abból a szempontból is feleslegesen voltak benne képességek, hogy mire a képességek használatához szükséges szoftveres környezet előáll, addigra már a kártya kiöregszik.
Pislákolva látszik, hogy a FuryX esetén a beépített csodatechnológia hosszútávon kifizetődik. Fury X tulajként 1 év múlva talán elmondhatod majd, hogy hurrá, nekem feleannyiba került, mint aki a 980Ti-t vette, mert neki meg kellett venni az 1070-t is, hogy szinten tartsa a kártyája erejét.
Én azt hiszem, hogy talán most a vegával egy helyesebb irányt fognak venni. Talán. A nagy vega egyértelműen HPC cuccnak látszik, amit a költségek terítése végett kiadnak a gamer piacra is. De ha minden jól megy, akkor középkategóriában nem fognak vacakolni a csoda újításokkal, amiket még nem fog használni senki.... mert most őszintén. 3 éve DX12-őzünk és async compute +5-9%. Itt 20-30%-os gyorsulásokról volt szó (most valaki biztos meg fogja kérdezni, hogy ugyan hol, meg ki mondta) De egyébként a geometria, meg culling, meg egyéb ilyen mérésekből az derül ki, hogy a GCN kártyák compute teljesítményéből tényleg ennyi kihasználatlan, csak ezt önmagában a AC nem tudja kiaknázni.
Szóval ha minden jól megy, akkor azt kéne látnunk, hogy a nagy vega az böhöm nagy és csomó olyan cucc van benne, amit majd talán 1-2 program 1-2 éven belül elkezd használni. De a kisebb kártyák a bevezetés állapotában levő technológiai sallangtól mentesen, letisztulva, teljesítményre optimalizálva kerülnek kiadásra.
Persze előre látom, hogy lesz egy vega11, ami nem ilyen lesz, mert azt is a profi piacra szánják. Őszintén remélem, hogy a Vega10 sokkal brutálisabb teljesítményre lesz képes annál, mint amit eddig láttunk belőle és hogy ez alá érkezik a vega11, a jelenleg 1070-nel tetőző mainstream és alsó performance szegmenst (ahol már 10-20 dollárok is számítanak) pedig letisztult, újragondolt, finomított Polarisszal fogják lefedni.
Egyébként...
Emlékeztek a FuryX "overclockers' dream" kijelentésre? Akkor nekem volt egy olyan érzésem, hogy olyan, mintha a marketing lemaradt volna a valóságtól. Mintha lett volna egy koncepció, amit betanultak, amibe beleélték magukat és aztán elfelejtették a kreatívot hozzáigazítani a közben bekövetkezett események valóságához.
Na.Ez a vega video bennem pont ilyen érzést kelt. Mi van, ha ez a Vega video már 2 éve elkészült? Akkor, amikor még mindenki azt hitte, hogy a Maxwell után jön a Volta. Nekik meg jön a Vega (terv szerint ugye 2016 közepe-vége) és Poor Volta. Ami nem Volta, hanem pascal, sőt lassan Pascal Refresh. Lehet, hogy megint leadtak egy olyan marketinget, amit elfelejtettek hozzáigazítani az eltelt évek eseményeihez? Mert a demózott vega egyelőre egyáltalán nem tűnik még Pascal verőnek se. (tudom, tudom, a driverek...) -
Petykemano
veterán
válasz
#45185024
#25508
üzenetére
Igen.
De az originnek is van előfizetéses konstrukciója, meg a playstation now is ilyen. És a géforce now is ad ingyen pár játékot. Persze nyilván nem a legújabbakat, hanem azokat, amelyikre önállóan már nincs vásárló kereslet.Ne úgy nézd, hogy neked most így játékra alkalmas géped. Hanem úgy, hogy van egy 6-7 éves c2őd, 4GB RAM, meg valami korabeli középkategóriás gpu. És szeretnél játszani a {×××××ש®}-vel, aminél i5 8GB a minimum és i7 16GB az ajánlott.
Mit csinálsz?
Veszel 300e-ért egy gépet?
Vagy veszel 100óra játékidőt? -
Petykemano
veterán
válasz
->Raizen<-
#25491
üzenetére
Egyetértek, hogy drága jelen formájában.
Azon kívül az se biztos, hogy ha úgy döntesz, hogy franc se fog két kilót beletolni egy gépbe, ami fullhd ultrán viszi a játékokat, hogy aztán nagyrészt csak álljon, akkor bérelve tényleg megkapsz egy olyan gépet, ami fullhd ultrán viszi a játékot, amit épp játszani szeretnél.Merthogy a geforce now sem nagy kaland. Kapsz egy virtuális gépet előtelepített steam, origin, stb alkalmazásokkal és hajrá.
De a potenciál nagy. A nagy felhőszolgáltatók dömthetmek.úgy, hogy gpu számítási kapacitást is bérbe adnak felhőben. Mennyiből tartana a 64 magos ryzen proceszzorral és 2-4 Vega gpuval szerelt vasra egy olyan virtuális gépet osztani, amin történetesen egy Windows fut és játszani lehet rajta?
A Google most is kínál gpu számítási kapacitást.
Biztos vagyok benne, hogy a lényegében bebukott steam machines után a steam is fog valamikor ilyen felhőt csinálni. Nem nagy kaland. Elindítod az alkalmazást, amiben elindul egy távoli virtuális gép képet. Stream. Ugyanez működik már most is a másik irányba: hogy saját gépen fut a program és százak nézik a streamet.
Persze a latency és lag probléma, ez igaz, nyilván nem fogsz tudni hardcore fpst tolni. De valószínűleg azon kívül nagyon sok olyan játékot lehet játszani, aminek van komoly grafikai/CPU/ram igénye, de nem fontos a 150fps és a 0 latency.
Biztos drága lesz, és aki sokat játszik, biztos jóideig meg fogja érni inkább megvenni a hardvert. De attól szerintem az irány még adott.
-
Petykemano
veterán
Én sokkal inkább abban látom az elpártolást, hogy az nvidia partnerei látják a sanyarú jövőjüket.
Mit is csinál az nvidia? Gyakorlatilag lefölözte/lefölözi a piacot az elsőkézből értékesített 1070/1080 founders edition és titan XP kártyákkal. Ebből csak az nvidia profitál. Megvan a piaci és marketing ereje ahhoz, hogy közvetlenül értékesítse a portékáját közvetítők és disztrubútrorok nélkül. Ez bizonyára nem fog változni. 5-10 éve még lehet, hogy az ilyen kártya gyártókra voltak utalva a lapkagyártók, de ma az nvidia igényt tart a bvételnek arra a részére is, amit eddig a gyártók tettek zsebre. Nem elég, hogy az egész piac szűkül, még magával a lapkagyártóval is osztozni kell a lz eladott kártyák piacán. Egyrészt.Másrészt ott a geforce now. Az nvidia egyértelműen abba az irányba megy, hogy felhőben játszassa a felhasználókat. A felhőbe pedig simán le tudja gyártatni magának a kártyákat, a többi pedig marketing, ami megy nekik. Ha ez beindul, még inkább szűkülni fog a piac, hisz egyre kevesebben fognak casual gamingre új videokártyát venni. A geforce node, mint streaming végpont valószínűleg bármin elfut, még egy tableten is.
Innentől kezdve még kevesebb babér jut.Minimum arról lehet szó, hogy amd.kártyákat is be akarnak húzni, hogy szélesedjen a paletta.
-
Petykemano
veterán
válasz
#00137984
#25246
üzenetére
Nem úgy hasonlították egymáshoz, hogy a maga korában melyik milyen érzetet hozott árához képest.
Hanem egymáshoz: 470 Perf/TDP / 270X Perf/TDPDe természetesen értem, hogy érted.
Nem vagy könnyű helyzetben, fogalmazzunk úgy, nem kedveznek neked a csillagok állásai, mert magasakaz elvárásaid ahhoz képest, amennyit jószívvel kiadnál egy kártyáért.
A 270X is a maga korában a már kellően drága, de nem csúcskategória volt és a 470 is a kellően drága, de nem csúcskategória szintet képviseli. Ez a tier, amiért még nem sajnálod a pénzt, számodra valószínűleg mindig is csalódást fog okozni.Mondanám, hogy nyergelj át nvidiára, hátha több szerencsével jársz, de én úgy látom, nem kifejezetten az AMD-el van problémád. De lehet, hogy jobban esne a lelkednek, ha nem AMD-s módra szembesülnél a kártya korlátaival, hogy "hát eleinte nem annyira penge, később beérik, de persze villám nem lesz már 1-2 évesen, csak szépen öregszik, kompromisszumokkal később is kiválóan használható", hanem olyan nvidiásan, hogy "nagyon penge, csak bepattintottam és minden a legmagasabb beállításokkal ment, aztán hát már 1-2 éves, megöregedett, venni kell egy újat."
Máskülönben tényleg nincs más lehetőséged, mint elfogadni, hogy ha képtelen vagy a kártya teljesítményével kompromusszumokat kötni, akkor kicsengeted azt a többletpénzt, amibe az a kártya kerül, amivel teljesítmény tekintetében elégedett lehetsz.
-
Petykemano
veterán
Mit gondoltok, abban hogy az nvidia fejlesztési aiánlatot adott a 980ti tulajoknak 1080ti-re mennyire lehet benne, hogy le akarja kötni az enhusiast réteget egy potens Vega érkezése előtt?
Korábban volt ilyen akció/kampány/lehetőség? Vagy a számok beszéltek magukért? -
Petykemano
veterán
válasz
Ren Hoek
#24826
üzenetére
Ne felejtsd el, hogy a pascal sokkal kevésbé sávszélesség érzékeny, mint a gcn. Az nvidia ilyen szempontból jó döntést hozotttl, hogy rop igényes architektúrát épített, aminek számát, hatékonyságát és fogyasztását Kézben tudja tartani. Ellenben a memóriával: a fury is s hbm miatt csúszott, és vélhetően most is a hbmre kell várni. A gddr5 fogyasztása egekben, a gddr5x meg lehet, hogy készlethiányos és drága volt.
De a lényeg, hogy úgy tűnik, az nvidia könnyebben főzött Zrt a rendelkezésre álló memóriakínálatból.Nem tudom, hogy vajon a polaris mennyivel lett volna drágább, ha hagyományos hbm memóriával látják el, mint a furyt. De valószínűleg a frekvencia se jött össze, de ha összejött volna, akkor ugyanúgy kevés lett volna, mint most a furyn. Ettől eltekintve a polaris 10 gyönyörű lett volna normális frekvencián normális fogyasztással hbm-mel. Volt egy ilyen pletyka, hogy úgy is képzelték, csak az élet közbeszólt.
Nem tudom, mennyi idő lehet egy kész architektúrát mutálni. De legkésőbb akkor elkezdték készíteni a polaris12-t és a p10Xt2-t, Amikor nyilvánvalóvá vált, hogy csúszik a hbm2.
Bár abu azt mondta, az AMD nem fog gddr5x-es kártyát készíteni, azért bízzunk benne, hogy ha ezek érkeznek, gddr5x-szel érkeznek. Egy p10-nél másfélszer nagyobb 384bit gddr5x-És kártya szépen mutatna. Úgy vélem 320mm^2-be beleférne.
Ugyanakkor kérdés, hogy mit tudna ez felmutatni? Csak egy 1070-et befogó kártya nem elég. Annál többet kell nyújtani és olcsóban, különben nem fogja megvenni a közönség. Szerintem ezért nehéz ügy. -
Petykemano
veterán
válasz
Yutani
#24634
üzenetére
Bocsánat.
Én nem akartam senkit sem szemellenzősnek nézni. A kérdésem épp arra irányult, hogy vajon mi lehet a a nyilvánvalóan összetett ok, amit összefoglaló néven "szemellenzősségnek" hívunk.Sokminden lehet. Mármint ami az ember esetleg nem is tudatosul.
- kinek a logoja van kint a boltokban
- kinek a reklámját látom a játékokban,
- kinek a termékeit látom a polcokon.
- kiről olvasok cikkeket. Pl olyan címekben, amik nem feltétlenül tech jellegűek, szélesebb körök is olvassák.
stb(#24635) Peat

Ne a mostani helyzetből indulj ki. Ha megnézed a részesedési grafikont, akkor a ma ismert helyzetet az tükrözi. Igen. a Polaris nem kiemelkedő teljesítmény a konkurenciához képest. De a cikkben is erről volt szó: mára már lemaradt az AMD. És igen, a 290X meg hangos volt az akkora már magát összeszedő keplerhez képest. De ez is látszik a grafikonon. A kérdés az, hogy ezt megelőzően, még a GCN előtt, vagy legföljebb hajnalán, a fermi idején, vagy még előtte, amiről az AdoredTV újságírója egyértelműen azt mondta, hogy primér technikai értelemben (méret, teljesítmény, fogyasztás, ár) egyértelmű volt az AMD előnye, akkor sem tudott ebből eladást generálni, pénzt csinálni.(#24636) FLATRONW
Teljesen igazad van abban, hogy nehéz brandet építeni.
Hagyjuk a 200-as szériát. Mindenki tudja, mindenki ismeri. Teljesen nyilvánvaló, hogy az Nvidia A keplerrel beérte, a Maxwellel lehagyta az AMD-t és ez a kialakult piaci arányokat magyarázza.
A kérdés az, hogy előtte mi volt.
A HD 2-3000 volt az a több év szerencsétlenkedése, ami után a HD 4-5(-6-7) fényeskedése már nem tudott korrigálni? Csak azért kérdezem, mert az AdoredTV szerint az nvidia pedig a HD4-5-6-7 ideje alatt szerencsétlenkedett gyengébb/drágább termékekkel, amely éveket a Fermi tetőzte be és mégse billent ki a részesedés. Ami arra utal, hogy a vásárlásoknak csak relatív kis részében, vagy nem elsődlegesen/kizárólagosan meghatározó tényezője a primér technikai jellemzők.Akkor mi lehet? A primér technikai fölény ellenére az olcsóság inkább a szekunder technikai silányságból fakadt? Zümmögött, meg ilyenek?
Márkahűség, driver, kisebb-nagyobb problémák. Igen, ezek előfordulnak. Csak nekem úgy tűnik, hogy ezek piactorzító hatása az AMD-re nézve működnek, az nvidiára nézve nem.
- márkahűség HD4-5-6-7 széria alatt az nvidia irányában kitartott a Keplerrel záródó szerencsétlenkedés ellenére. Amikor az AMD kezdett szerencsétlenkedni, rögtön bezuhant az eladás.
- driver, kisebb nagyobb problémák: lehetne ezzel magyarázni, hogy a szoftveres körítés miatt vesz meg valaki gyengébb hardvert, de driver hibák az nvidiánál is előfordulnak és kisebb nagyobb fiaskók is és mégse törik meg az eladása megbízhatatlansági okok miatt. Ha az AMD esetén elfogadható az a magyarázat, hogy a driver miatt nem vagyok hajlandó a jobb primér technikai paraméterekben (jobb teljesítmény, alacsonyabb ár, stb) jobbnak látszót megvenni, az nvidia esetén meg elsikálódik azzal, hogy de hát működik, meg a drivert majd kijavítják, akkor mégiscsak valami másnak kell a háttérben lennie, ha egyik esetben tolerálhatatlan, másik esetben bocsánatos bűn.Ezek alapján nagyjából ez lehet a recept:
- legalább kicsivel jobb teljesítmény a konkurenciánál a versenyző termékek esetén
- legjobb teljesítmény
- érezhetően jobb fogyasztás (OC potenciál)
- versenyképes ár - lehet akár drágább is, de amennyivel drágább annyival jobbnak is kell lennie
- minőségi érzet megteremtése a jó minőséggel ÉS a silány minőségű olcsó variánsok legalább a nevesebb szegmensekből való tiltása
- fejlesztők támogatása kisebb-nagyobb pénzösszegekkel + middleware - ezek hírének eljuttatása a presshez.
- press meggyőzése valahogy arról, hogy a termékedről jót írjanak. Persze ez könnyű, ha megérdemli a dícséretet, melós, ha nem triviális dolgokat, vagy nem triviális okokból kell domborítani.
- kiskereskedelmi jelenlét, rebate, szponzoráció, tesztpéldányok ajándékozása, stbA felsorolásból csupán egy-kettő és talán nem is abszolút értelemben vett legfontosabb elem a kártya milyensége.
Kifelejtettem valamit? -
Petykemano
veterán
válasz
Ren Hoek
#24750
üzenetére
20-30%-os részesedés mellett köhögő Kepler és Maxwell kártyával rendelkezők közül van honnan vásárlónak jönnie, aki Doomozni akar. Underdogként nem feltétlenül saját vásárlóit kell az új kártya megvásárlásáról meggyőzni.
De valószínűleg egy kimagaslóan jó Vega teljesítménye sem lenne erre elegendő. Merthogy ugye a vásárlások többsége nem azon múlik, hogy épp melyik gyártó terméke hogy szerepel a benchmarkokban.
-
Petykemano
veterán
válasz
wjbhbdux
#24631
üzenetére
A videoban azt mondja az ürge, hogy hiába volt a hd4, hd5 nagyon ütős, nagyon eltalált, és határozottan jobb, mint az nvidia kínálata, mégse sikerült kasszasikert elérni vele (széles tömegeket nem, csak technikai részletekre fogékony réteg nagy részét)
Tehát amikor az AMD teljesített kimagaslóan, széles tömegek akkor nvidiát vásároltak. Ezt persze lehet magyarázni korábbi szériák hibáinak rossz szájízével. De aztán amikor meg az nvidia szerencsétlenkedett (fermi) széles tömegek akkor is nvidiát vásároltak. Nem maradt a hibával magyarázható rossz szájíz.
Olyan, mintha az eladás részben vagy egészben független lenne attól, hogy technikai értelemben (teljesítmény, hatásfok, képminőség, stb) mikor melyik gyártó terméke hogy teljesít.
Jelen esetben például úgy festene, hiába gurítana az AMD bődületesen nagyot egy új szériával, hiába adna jobb kártyát ugyanazon az áron, vagy ugyanolyan teljesítményt olcsóbban, jobb hatásfok mutatókkal, ez csak azt a 10%-ot fogná meg, aki ezekre érzékeny. A maradék vásárló nagy egy része örülne annak, hogy na végre olcsóbb lesz az nvidia kártya, amit már rég meg akart venni.
-
Petykemano
veterán
adoredtv : the end of gpu wars
Megnéztem ezt az értekezést. Elég érdekes.
A lényege, hogy az ati megvásárlását követően technikai fölénye ellenére (kisebb és relatíve gyorsabb kártyákat adtak ki jellemzően olcsóbban, elvileg bestbuy, mindenki által cukorkaként kellett volna hogy fogyjon) pénzügyileg elvesztették a harcot. Okként azt nevezik meg, hogy az AMD akkori technikai fölényét az enthusiast réteg ki is aknázta, de a techikai fölényre (akkor még nem csak ígérgetés, hanem több fps azonos áron, vagy akár legtöbb fps) süket és vak a többséget kitevő vásárlói réteg az AMD legjobb pillanataiban is megfontolás nélkül nvidia terméket vásárolt. Ezért az AMD pénzügyi számai legjobb pillanataiban is alacsonyabbak voltak, aminek hatására szép lassan elvesztették technikai előnyüket és inkább hátrányba szorultak.Az adoredtv a jelenség hátterében a mindshare fogalmát nevezi meg. Ami persze sokmindent jelenthet és sokmindentől alakulhat: királytermék, hibás termék, driver, kinek a logóját látod a játékokban, tesztek, stb.
Nekem az jutott eszembe, vajon az ati felvásárlását követően at ati mint ismert márkanév eltűnése a polcokról nem okozhatta-e azt, hogy a cikkben megnevezett technikai dolgokban nem járatos average Joe egyértelműen az nvidia felé fordult?
-
Petykemano
veterán
-
Petykemano
veterán
válasz
Ren Hoek
#24364
üzenetére
Szerintem Ma már a dx12-t kell nézni. Mármint egy új csúcskártya esetén. Jó persze aki pont ma vesz, men nézheti a dx11-et is. De régi dx11 játékokat új dx11-ben esetleg gyengébb kártya is pengén el fog vinni.
Szerintem olyan nagyot nem kell varázsolni.
Ámít számolgattam vs fury x:
+12% architektúra
+20% órajel (1050->1266)
+6% többlet memóriasávszélességből nyerhető teljesítmény
summa +42%Ez a polaris technológiai szintje fiji paraméterekkel szűk nadrágban (64rop, 2csatornás memvezérlő)
Ez lett volna kihozható 250w-bólLehet, hogy tényleg kár lett volna beleölni a pénzt
Napvilágra kerültek azonban olyan pletykák. Amelyek a cba 10-nek 12tflops számítási kapacitást jósoltak. Ha ezt változatlan shader mennyiséggel éri el (a fijihez képest), akkor ahhoz 1500MHz körüli órajelre van szükség, ami mintegy 20%-kal magasabb, mint a poláris szintje.
Ezen kívül konkrétan a p10-re mondják, hogy bandwidtg starving. Abu meg azt állítja, hogy a gcn szűk keresztmetszete a memóriasávszélesség. Felteszem lehet ennek alapja, ha azt nézzük, hogy ki az új memória techonlógiák szekértolója.
Ha nem spórolnak a hábéemekkel, akkor még abból is csurranhat-cseppenhet.Az is köztudott, hogy milyen mértékben volt kiegyensúlyozatlan architektúra a fiji: összességében alig teljesített jobban, mint a 390X. Remélhetőleg az ilyen jellegű problémákat az utasítás-előbetöltés nevű okosságok orvosolhatják.
És szintén remélhetőleg a poláris energiahatékonyságán is sikerül javítani az eltelt 1 évben.
Szóval amit számolgattam 40% a fijihez képest, az szerintem az alja, a minimum.
De van mégegy mankó arra nézve, hogy mit fog tudni az érkező Vega : ez pedig kiolvasható a hamarosan érkező 1080Ti paramétereiből.
Hogy ez mennyibe fog kerülni? Jóég tudja. Versenyképes Áron lesz. Ami azt jelenti, hogy nem lehet majd féláron megkapni.
Viszont azt gondolom, hogy az 1070 konkurenciája a Vega 11 lesz. 7tlops, ami kicsit kevesebb, mint a már most is közel 1070 szinten levő Fury x.
Ami legalább ennyire érdekes, hogy mivel készül az nvidia?
-
Petykemano
veterán
(#24173) HSM
Szerintem egyetértünk
(#24172) VTom
Nem azért nem indítanak a csúcskategóriában semmit, mert arra várnak, hogy majd a közepes is elég lesz, ha beérnek a konzol-örökségek.
Hanem mert nincs pénzük. Nincs pénzük jót fejleszteni.
A) Nincs pénzük fejleszteni, ezért a fejlesztéseiket hozzáigazítják a konzolok fejlesztéséhez, és így az egészet mással fizettetik meg, vagy ugyanazon kétszer próbálnak keresni (egyszer konzol IGP-ként eladva, egyszer pedig saját diszkrét vagy integrált VGA-ként)
B) Nincs pénzük jót fejleszteni. Van egy irány, ami felé elindultak és talán elvből, de vélhetően forráshiány miatt sem szándékoznak letérni erről azért, hogy egy épp megfelelően jót fejlesszenek. Viszont az idő nekik dolgozik. Jelenleg. Vagy legalábbis jelenleg úgy tűnik. A verseny nincs megnyerve, egyáltalán nincs kőbe vésve, hogy a versenytársak nem lékelhetik meg az elképzelést, vagy nem csinálhatnak ellentámadást.Szerintem nem cél, hogy kizárólag mainstream vga-kat forgalmazzanak.
Ha adott esetben elkészültek volna egy Fiji porttal Polaris alapokon, akkor az dobott volna a fury X teljesítényén kb 40%-ot. Ami szép. De nem érte volna el - akkor - se összteljesítményben, se hatékonyságban talán még az 1080-at se. Ugyanúgy "mindenki" Pascal-t vett volna, aki ebben a szegmensben nézelődik. Elszenvedve a presztízsveszteséget valószínűleg dollárszázmilliókat takaríatottak meg azáltal, hogy nem versengtek egy számukra nem jó terepen, és a későbbi fejlesztést kifizettethetik a MS-tal.Ugyanakkor szerintem cél, hogy kisebb egybetokozott lapkákkal oldják meg a magasabb teljesítményt. A multiadapter ezt a célt szolgálja. Azt, hogy a játék két v több gpu-t ne frame-enként váltakozva, hanem a képernyőt akárhány részletre felosztva együtt tudjon használni.
Ez egyelőre még nem látszik. Még nincsenek ilyen játékok, vagy kevés van. De szerintem a terv az, hogy a VR farvizén elárasztani a piacot 2-4 lapkás gpu-kkal, amire aztán majd szépen megszületnek a multiadapteres adaptációk.(#24183) Ren Hoek
Azt értsd meg és építsd be a gondolkodásodba, hogy az apik nem valami külső környezeti adottságok, hanem az ökoszisztéma része, amire a sikeres üzlethez hatással kell tudni lenni.
Az nem úgy történt, hogy az AMD álmodott egy nagyot, de hát mivel a környezet, a piac rajta és mindenki máson kívül csak úgy véletlenül mégse úgy alakult, ahogy az AMD álmodta, ezért elszúrták és kukában a helyük. Elszúrták. De nem azt, hogy álmodtak egy nagyot és csináltak egy valamilyen architektúrát. Hanem, hogy az ökoszisztéma bizonyos részeit nem sikerült kellő mértékben, vagy időben vagy irányban befolyásolni.Az NV tökéletesen jól csinálta. De nem csak azt, hogy épp annyi fícsőrefjlesztést hajtott végre az architektúrán, ami pont kellett. Hanem azt, hogy az architektúráját és a drivereit és az api környezetet is sikeresen tartotta kézben, sikeresen terelte a számára kedvező irányba.
A fasat-path-ok beépítését, amiket Abu említett akkor engedheted meg magadnak, ha a másik oldalról biztos vagy, de legalábbis minden megteszel annak érdekében, hogy az api környezet, amire építed az architektúrád gyors és hatékony működését nem fog megváltozni.Tehát mégegyszer: azt értsd meg, hogy nem pusztán az történt, hogy az AMD és az nvidia is fejlesztgette szépen a kis architektúráját és az AMD túl nagyot álmodott, mellélőtt, stb, az nvidia meg betalált. Az nvidia is és az AMD is nyilván mindent megtett annak érdekében, hogy a környezetet (api, middleware, stb) az architektúrájának optimális irányba terelje. Ezt korábban az nvidia sikerrel hajtotta végre. Az átmenetnek, ahogy az AMD épp formálja a maga képére ezt a környezetet most vagyunk szemtanúi. Persze a meccs nincs lejátszva. Az, hogy az AMD kikényszerítette, vagy kikényszeríteni látszik egy API fejlődést még nem jelent egyértelműen piaci sikert is. Holnap az nvidia előállhat egy olyan architektúrával, amelyiknek sokkal jobban fekszik a DX12, mint a GCN-nek. Ha politikusokról beszélnénk, azt mondanám: pont ezt fogja csinálni és úgy fogja előadni a DX12-t, mintha ők akarták volna eredetileg is.
(#24187) HSM
Szerintem 2005-2006-ban, amikor lerakták a bulldozer első építőköveit még nem látszott az, hogy a többszálúsítás hol és mikor fog kifulladni. Épp akkortájt jelentek meg az első Core2-k. Szerintem racionális volt azt gondolni, hogy 1-2 év leforgása alatt a szoftveres környezet adaptálódik a növekvő magok számához és 2010-2011 környékén már igény lesz a 4-nél több szálat kezelni képes processzorokra. A bulldozer egy olyan olcsósított architektúra volt, ami ugyan nem sikerült jobbra mint a korábbi K10 magok, de alkalmas volt a további skálázódásra. Terv szerint jött volna a Vishera után a 10 magos Komodo.
Szerintem itt se pusztán az történt, hogy elkalkulálták magukat. Persze a versenytás keresztülhúzta a számításait. Az intel minden tőle telhetőt megtett annak érdekében, hogy a saját architektúrája előnyösebbnek tűnjön. Az bizonyos hogy az intel compilere bizonyos műveleteknél egy nem intel processzor esetén a biztonság és kompatibilitás érdekében inkább nem a hatékonyabb, gyorsabb utasításra fordította a programot. Tette ezt egészen addig, míg le nem bukott és míg behozhatatlan előnyre szert nem tett IPC tekintetében, amikor már az IPC magáért beszélt.(#24192) Loha
A Core2-ig csak frekvencia és IPC volt. Onnantól számított a magszám is és utána már e három tényező optimális arányáról kellett gondolkodni. Ahogy fentebb is említettem, szerintem 2005-2006 környékén jogosan gondolhatta, hogy 4-5 év múlva jobban fog számítani az 1-2 évente duplázható magszám, mint az 1-2 évente 5-15%-ot emelkedő IPC vagy frekvencia.(#24209) Ren Hoek
A GCN egy stratégiai terv. Ami egyelőre nem hozta meg a piaci siker gyümölcsét. Ezzel együtt egyáltalán nem biztos, hogy lenne még AMD, ha akkor nem ezt az utat járják.
A GCN nagyjából egyidős az első x86 konzolokkal. Abu mintha mondott volna ilyesmit, hogy a GCN tudása soktekintetben azt tükrözi, amit akkor a konzolgyártók kértek.
Ahogy HSM kolléga is mondta, hogy a GCN-nel együtt házalt az AMD a Mantle ötletével.
Ahhoz képest, hogy az AMD az egyik legkisebb cég ezen a piacon, elég szépen haladgatnak a stratégiai terv végrehajtásával:
Fejlesztettek egy nagytudású, rugalmas architektúrát. Megszerezték a konzol piacot hardver tekintetben, amivel jókora piaci részesedést szereztek az architektúrájuknak a gamer piacon. Készítettek hozzá egy apit, ami ma már gyakorlatilag standarddé vált. A konzol piac megszerzésével rákényszerítették a fejlesztőket a GCN ismeretére és a GCN-hez való kódolásra.Nem látom gyümölcsözően sikeresnek én se. De vajon hol lenne az AMD a GCN, mint stratégiai terv nélkül? Milyen perspektívák állnának előtte?
Azzal egyébként egyetértek, hogy az újrakiadott nem csúcskártyákat, amiket csak átcímkéztek, igazán kiherélhették volna. Egy nem csúcskártya semmiképp sem lesz időtálló, akkor meg már inkább fogyasszon kevesebbet, legyen kisebb és olcsóbb.
-
Petykemano
veterán
Nem ástam el magam az apik történetében, csak feltételezem, hogy magától (csak szoftveres irányból) nem nagyon születik semmi. Feltételezem, hogy az apiban egy feature akkor és úgy jelenik meg, ha legalább egy hardvergyártó támogatja, akarja és kellően képes befolyásolni az api fejlődését ahhoz, hogy tényleg bele is kerüljön.
Ha tehát abból indulunk ki, hogy ha a hardvergyártók nem akarják, úgy nem újhodik meg az api, akkor a meg nem újhodó apihoz racionális igazítani az architektúrát.
A status quo akkor borul, ha egy hardvergyártó új képességet tesz a hardverébe, amit idővel az api támogatni kezd, mert attól jobb lesz. (Legalább annak az egy hardvergyártónak)
Azt mint látod, sokan vitatják, hogy jobb lett-e így, mintha minden hardvergyártó méginkább a meglevő API-hoz igazította volna az architektúráját (most tekintsünk el attól, hogy az AMD-nek más tervei és lehetőségei voltak)
(#24168) TTomax
Nincs kint, és biztos nem örülnek ennek ők se. Feltétlezem, hogy erőforrás hiányában.
Úgy tűnik, hogy a konzol biznissz nem anniyira mint kiemelkedő bevételi forrás számított az AMD életében, hanem mint hullám, aminek farvizén evezhetnek. A közvetlen pénzügyi hatáson túl teljesen nyilvánvalóan látszik, hogy a hardverfejlesztéseiket hozzáigazították a konzolokhoz. Akkor lett Polaris, amikor jött a PS4Pro. És olyan is. És akkor lesz Vega, amikor jön a XB Scorpio. Ezt biztosan nem kiszúrásból csinálják, hanem költséget igyekeznek minimalizálni. Nem biztos, hogy jó stratégia, mert minimális költség lehet ugyan, de közben elúsznak a lehetőségek. Lehet, hogy a P10 nem került szinte semmibe, egy külön nagyobb lapka tervezése meg soktízmillióba lett volna, de így biztosan bukták a felsőházat ebben az évben. lehet, hogy a vega nem került szinte semmibe, de ki tudja jövőre mivel kell versenyeznie? Mert lehet, hogy nem az 10X0 szériával.
Ugyanakkor - még mindig az AMD szemszögéből vizsgálva az eseményeket - az is igaz, hogy az idő nekik dolgozik: csak meg kell várniuk, amíg beérik a szoftveres oldal (Dx12, Async C, Shader intrinsics, meg az új mantra a Shader Model 6). és közben nulla hardveres befektetéssel képesek versenyképesek (20%) maradni. Jobb lenne, ha küszködnének ilyen Furyszerű szörnyekkel, amiket aztán ezért-azért-amazért mégse venne senki? Lehet, hogy kiszámolták, hogy nem. Mindeközben fel-felbukkannak olyan címek, ahol a Fury X kitesz magáért.Abban igazad lehet, hogy DX12 olcsóbbá tette a portolást. Azt nem tudom megítélni, hogy ha nem lenne DX12, akkor mi lenne. Drágábbak lennének a portolt játékok? Vagy később készülnének el? Vagy el sem készülnének? Vagy csak kevesebb pénz maradna a kiadónál?
Annyi előnye mindenesetre van talán, hogy az egyszálas teljesítményben gyengébb többmagos processzorokon jobb lett.
(#24169) #Morcosmedve
Én nem mondtam, hogy az AMD húsz lenne.
Az, hogy nincs 100k feletti AMD alternatíva mit bizonyít, vagy mire utal? -
Petykemano
veterán
válasz
Ren Hoek
#24151
üzenetére
Nagyon nehéz objektívan megfogalmazni egy átformálódó piacon azt, hogy mi az etikátlan.
Rövden persze mindenki azt nevezi etikátlannak, amivel a szívéhez bármilyen értelemben közelebb álló fél alól látszólag kihúzza a versenytárs a biztos talajt, a hazai terep előnyét azáltal, hogy unortodox lépésekhez folyamodik.
Ez például az AMDnek nem sikerült a bulldozerrel. Ott az unortodox lépés a magszám duplázása lett volna, de nem sikerült körbebiciklizni a piacot.
Hogy miért nem, arra nem csak a hardver a válasz, hanem a szoftveres környezet is: Megfelelően skálázódó programok mellett a húzás akár be is jöhetett volna.Azt ne felejtsd el, hogy nem csak kiváló mérnökcsapatra és kiváló architektúrára van szükség. Ez szerintem már nagyon régóta így van. A sikerhez a kiváló architektúrán kívül (ami ne felejtsük el mindig egy meghatározott módon működik optimálisan) szükség van driverekre, api támogatásra, (dokumentációra) szoftverfejleszőknek adott segítségre, supportra, hogy ott üljenek mellettük, és/vagy middleware-re. Stb. A kiváló architektúrán kívül és túl ez mind szükséges lehet a sikerhez.
Képzeld el ezt úgy, mint a curling: kell egy jó golyó, egy kiváló célbataszajtó, de hogy tényleg jó legyen, szükségesek a sikálók is.
Az Nvidia nagyon ügyesen rakta össze ezeket a komponenseket az elmúlt években. Szétoptimalizálták a driverüket a piacon elérhető apikhoz, az archtektúrájukat hozzáigazították ezen apik működéséhez, és middlewarek formájában támogatást nyújtottak a fejlesztőknek azzal a nem titkolt céllal, hogy a végeredmény a saját hardverükön azért jobban fusson. Minden klappolt ebben a környezetben, ebben a felállásban.
Az AMDnek volt egy álma. a GCN. Ami másféle módon működik optimálisan, mint más architektúrák. Írt hozzá egy apit, ami az ő architektúrája számára optimálisabb és amit különböző piaci manőverekkel sikeresen elterjesztett, szabványá tett, és ugyanezen piaci manőverekkel a saját architektúrájának ismeretére kényszerítette a szoftverfejlesztőket és persze számos program keretében beült melléjük segíteni.
És Te most ezt nevezed etikátlannak, de minimum a felhasználónak rossznak: azt, hogy nem veszi környezeti tényezőnek az architekúrán kívül/felül álló dolgokat, hanem az architektúrától a fejlesztőkig gondoskodik a piaci sikerhez szükséges tényezők számára kedvező alakulásáról.
Az csak látszólagos, hogy az nvidia egy kiváló architektúrával, egy csodálatos mérnöki produktummal beült a jóba, valójában mindezt a vertikális munkát az nvidia is (el)végezte.Csak épp most annak vagyunk szemtanúi, hogy az AMD változtatja meg az nvidia megszokott hazai terepét. Legalábbis nála van a kezdeményezés. Aztán hogy siker lesz-e belőle, a kérdéses. Nyilván az nvidia sem ül karbatett kézzel.
Téged, mint felhaszálót miért érdekel az, h univerzális v szabványos? V hogy külön kell optimalizálni?
Ha jól tudom, az nvidia üzletpolitikája is azt preferálta, ha mindig megvetted az újat, a drágát. Etikusság tekintetében ez nem változott . -
Petykemano
veterán
Létezhet, hogy 2017-ben Pascal refresh érkezik és nem Volta?
-
Petykemano
veterán
válasz
schawo
#22701
üzenetére
schawo FLATRONW core i7
2015Q2
Titánverő Overclockers dream FijiFury.
Aztán az nvidia fogta a titan lapkát, tálalta úgy, hogy épp a Fury X teljesítményszintje felett legyen 5-8%-kal (brutálisan agyonveri, szétcincálja, megeszi reggelire, elgyepálja, otthagyja) és 980Ti néven $650 árra belőtte, aminél olcsóbban a Fury X se jöhetett, sőt még biztos inkább drágábban szerették volna adni.Elfelejtettétek?
Ha az nvidia megint jolly jokerként szeretné felhasználni a X10ti nevet, akkor megint oda (5-8%-kal fölé) lövi teljesítményben és árban ahová a AMD új architektúrája érkezik.
Ez persze nem biztos, de ez alapján a logika alapján, ha tudjuk mit tud a 1080Ti, tudjuk mit tud a kis Vega.
-
Petykemano
veterán
-
Petykemano
veterán
AMD grows market share woot?
-
Petykemano
veterán
válasz
Yutani
#22625
üzenetére
bukó az, ha megveszem 100 petákért és másnap kijönnek az új eszközök és a tegnap/múlt héten 100 petákért vett cucc 70 petákot ér.
Az, hogy fél-egy év elteltével (beleszámítva a részlegesen felhasznált garanciális időt is) ilyen árkülönbség van egy használt eszközön, az miért bukó?
-
Petykemano
veterán
válasz
MiklosSaS
#22346
üzenetére
Olvass a sorok között anélkül, hogy igyekeznél mindenképp cáfolni Abu mondanivalójának saját interpretációját.
Amit abu technohalandzsázik fényezve az AMD frekvencia-feszültség stabilizációs és modulációs képeségeit, valójában nem mást jelent, mint azt, hogy az nvidia chipek valójában sokkal jobbak, csak a variancia miatt kénytelenek a leggyengébbhez készíteni a specifikációt. De valójában sokkal jobbak, mint amiylennek látszanak.
Az AMD chipjei pedig a technobűvészkedéssel sokkal jobbnak igyekeznek látszani, mint amilyenek lennének technobűvészkedés nélkül.Fordítva tehát úgy nézne ki, hogy pl a Polaris jóval alacsonyabb órajelre lenne specifikálva, mert sokkal kisebb arányban érnék el a chipek azt az órajelet, amit most. De pl egy 980ti a jelenlegi órajelek helyett megkaphatta volna 1400-1500Mhz-et is a specifikációban. Tehát igen, ezzel a technológiával a 980Ti pont olyan erős lenne névlegesen is, mint amit most csak OC-vel lehet elérni.
-
Petykemano
veterán
válasz
schawo
#22131
üzenetére
Ha az arányok nem változnak az optimalizálás során, akkor az azt jelentené, hogy
- egy fiji utód kisvega a számításaim szerint még dx11-ben is megelőzné az 1080-atValamint ha az ilyen jellegű trendek maradnak (ahogy az idő telik, úgy érkeznek olyan játékok, amelyekben a furyx mászik az 1070 nyakára), akkor érthető, miért nem érdemes kapkodni - pr szempontból - a vegával. Nem egyszerű, ha elkapkodják, nem lesz gyorsabb,.mint a konkurencia és lebőgnek. Ha tétováznak, az nvidia könnyen tromfolhatja valami újjal, korábban, és lebőgnek.
Kicsit hasonlít a szitu az 980ti piacra vezetésének idejére
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- ASUS RTX 5090 32GB GDDR7 ROG ASTRAL OC - Új, Bontatlan, 3 év garancia - Eladó!
- ASRock RX 9060 XT 16GB GDDR6 Challenger OC - Új, Bontatlan, 3 év garancia - Eladó!
- GeForce RTX 4070 SUPER GAMING OC
- SAPPHIRE RX 9060 XT 16GB GDDR6 NITRO+ - Új, Bontatlan, 3 év garancia - Eladó!
- Gigabyte AORUS GeForce RTX 5080 MASTER ICE 16GB GDDR7
- GYÖNYÖRŰ iPhone 13 mini 256GB Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3904
- Telefon felvásárlás!! Samsung Galaxy S23/Samsung Galaxy S23+/Samsung Galaxy S23 Ultra
- 157 - Lenovo LOQ (15ARP9) - AMD Ryzen 7 7435HS, RTX 4060
- GYÖNYÖRŰ iPhone Xs Max 256GB Black -1 ÉV GARANCIA - Kártyafüggetlen, MS3537, 100% Akkumulátor
- GYÖNYÖRŰ iPhone 13 mini 256GB Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3180
Állásajánlatok
Cég: NetGo.hu Kft.
Város: Gödöllő
Cég: Promenade Publishing House Kft.
Város: Budapest


![;]](http://cdn.rios.hu/dl/s/v1.gif)



