-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Alogonomus
őstag
Teljesen egyértelmű, hogy megint az AMD marketingosztálya bénázott nagyot azzal, hogy kihangsúlyozta a kimaradó RDNA 1-2 optimalizálásokat. Elég lett volna csak hallgatniuk a kimaradó optimalizációkról, és megúszták volna a jelenlegi felzúdulást.
Valószínűleg a Geforce kártyákból is főleg csak az utóbbi két generációhoz érkeznek valós optimalizációk, de azt nem hangsúlyozzák ki, így nincs belőle zúgolódás. -
Alogonomus
őstag
Remélhetőleg most nem spórolják le azokat az elemeket a nyákról, amikkel kezelni lehet a 12VHPWR szabványú csatlakozók lappangó hibáját. Az 500 ezres kártya esetén csak nem azon a pár száz forinton akarnak majd spórolni a gyártók.
-
Alogonomus
őstag
Miért az AMD-nek kellett volna kezelnie a hibás szabványra épülő csatlakozó tökéletlenségét?
Az AMD nem kényszeríti az AIB gyártókat a hibás csatlakozó használatára, viszont az Nvidia tényleg kötelezően előírta a komolyabb kártyái esetén, szóval ha valamelyik szereplőnek saját hatáskörben meg kellett volna oldania a problémát, az pont az Nvidia, aki viszont már a második generációt adja ki a kezeletlen hibaforrással.
Az AMD szabad kezet adott az AIB gyártóknak a tápellátás csatlakozója kapcsán, így amelyik gyártó a problémásabb csatlakozót választja, az lesz szíves kezelni a csatlakozó problémáját, ha nyugodtan szeretne aludni a cégvezetése. -
Alogonomus
őstag
Bizonyítottan nincs védelem a csatlakozóban annak elkerülésére, hogy az a "400W alatti" tápellátás akár egyetlen vezetékszálon próbáljon áthaladni. Úgy pedig még egy belépő szintű kártya fogyasztása is bőven kritikus hőmérséklet fölé fűtheti az érintett csatlakozási pont környezetét.
-
Alogonomus
őstag
válasz
huskydog17
#71827
üzenetére
Aki Radeon kártyából a közismerten tervezési hibás 12VHPWR csatlakozóval szerelt változatok közül választ, pedig lehetősége lett volna a nagyságrendekkel üzembiztosabb PCI-E csatlakozóval szerelt valamelyik modellt választania, az valójában csak magára lehet dühös.
Geforce esetén legalább elfogadható védekezés, hogy a komolyabb modellek csak a veszélyesebb csatlakozóval kerülnek forgalomba. -
Alogonomus
őstag
Egyre valószínűbbnek érzem, hogy az FSR4 forráskódjának a kiszivárgása nem is annyira véletlen volt, hanem valamennyire tudatos lépés. Lényegében ingyenesen tesztelők ezreitől érkeznek az eredmények a különböző konfigurációs gépekről, plusz a híroldalakon is gyakran megjelenik az FSR-rel kapcsolatos hír. Amenyniben pedig előfordul valami hiba a programokban, akkor az AMD simán mondhatja azt, hogy ez még munkaközi állapot, ami csak úgy kiszivárgott.
-
Alogonomus
őstag
válasz
DudeHUN
#71770
üzenetére
"A konzol piac eddig sem segített sokat a PC dGPU eladásoknak."
A 100-150 milliónyi eladott PS5/Pro és XBOX X/S – meg az AMD architektúrák ellenében programozó, és emiatt a megszűnés szele által erősen megcsapott CD Projekt RED esete – minden bizonnyal nagyon komoly hatással van arra, hogy többek között az UE5, id Tech, Snowdrop, IW grafikus motorok már aktívan használják az RDNA architektúrák képességeit, és nem az folytatódott 2020 után is, hogy a számítási teljesítmény terén gyengébb Geforce kártyák a játékokban mégis aránytalanul jól teljesítsenek a Radeon konkurenciához képest.
-
Alogonomus
őstag
Venni vették az RX 7000-es szériát, azért is volt kénytelen az Nvidia behozni a Super szériát 10-25%-kal kedvezőbb ár-érték arányúként.
Az másik kérdés, hogy az előző generáció során prebuilt gépeket túlnyomó részben csak RTX 4000-es kártyával lehetett megvenni, így az RX 7000-es kártyák csak a kicsi DIY szektorban tudták kamatoztatni a sikerességüket.
Azért is volt nagy gond az Nvidia számára az RTX 5000-es kártyák év eleji jelentős gyártási megakadása, mert így valószínűleg már egyre több prebuilt gépbe is RX 9000-es kártyát szereltek, hogy a gép valahogy készre szerelhető legyen. -
Alogonomus
őstag
válasz
szarnyasdino
#71621
üzenetére
Ez főleg attól függ, hogy a jelenlegi RTX 50 kártyák árát "öröklik"-e majd az RTX 50 Super kártyák. Abban az esetben nyilván az RX 90 kártyák árát is az új helyzethez kell(ene) csökkenteniük a kereskedőknek.
Valamelyest valószínűleg mindenképpen csökkenni fognak a 9070-9070XT árak az év további részében és jövőre is, mert az idő előrehaladtával egyre többen megveszik már a kinézett kártyát, így egyre kevesebb érdeklődő marad a valószínűleg egyre több kártyára, hiszen az AMD pedig állítólag pont a piaci részesedését szeretné feljebb tornászni minél több legyártott és eladott kártyán keresztül. A bővebb kínálat pedig automatikusan az árak csökkenését okozza.
-
Alogonomus
őstag
válasz
S_x96x_S
#71568
üzenetére
Eleve még a fejlesztés kezdeti szakaszában jegelték a dolgot, miután látták, hogy az emberek a mindshare miatt inkább vették 800 dollárért a 12 GB-os 4070 Ti-t, mint a 20 GB-os 7900 XT-t.
Kitesztelt verziótól még nagyon messze állt a talán 2x2 elrendezésű Navi 41 és 3x3 elrendezésű Navi 4X, amikor a fiókba tette az elképzelést az AMD vezetése. Inkább a Navi 44 és Navi 48 minél jobbá fejlesztésére csoportosították át az erőforrásokat. -
Alogonomus
őstag
Elméletileg érkezett volna MCM gaming GPU ebben a generációban is, csak végül inkább jegelték a Navi 4X/4C kódnevű fejlesztést, mert az AMD szűken két évvel ezelőtti általános megítélése alapján nem érezték biztosítottnak, hogy a vásárlók jelentős számban megvennének egy majdani csúcs Blackwell szintjét elérő kártyát a Blackwell kártya árának 2/3-áért.
Akkortájt aki rászánt 1000 dollárt a kártyavásárlásra, az már általában hozzátette a másik 1000 dollárt is, és vett egy RTX 4090-et. -
Alogonomus
őstag
Az RT kapcsán még nagyon sok megvalósítási formátum versenyez egymással.
Ugyanúgy van a Geforce kártyáknak kedvező verzió, ahogy a Radeon kártyáknak kedvező is. A két német oldal a vizsgáltba bevette a Radeon kártyáknak kedvezőtlen módszert használó játékokat, mint az AW2, CP, DL, Indy, Witcher, R&C, míg a Radeon kártyákon erős RT teljesítményt nyújtó játékokat, mint az Avatar, vagy például a friss Doom, de friss UE5 játék sincs a vizsgált címek között, amivel erősen egyoldalúvá tették a tesztet. -
Alogonomus
őstag
válasz
yarsley
#71037
üzenetére
A memória hőmérséklete állítólag pont abban a 70-100 fok közötti tartományban kell legyen ideális esetben. Szóval a cikkben szereplő "temperatures exceeding 85°C under heavy load, nearing the critical threshold for component safety" kijelentés ugyanakkora öncélú hisztériakeltés a 130 fokos tényleges kockázatos értékhez képest, mint a 95 fokos Zen4/5 miatti pánikolás.
-
Alogonomus
őstag
válasz
Yutani
#70976
üzenetére
Sokáig én is úgy tudtam, de az április 15-ös debütálásuk kapcsán már GDDR7-et írnak.
Már a TPU is GDDR7-et jósol.Mondjuk logikus is, hogy a Blackwell kártyák azonos memóriaszabványhoz készültek.
-
Alogonomus
őstag
válasz
yarsley
#70973
üzenetére
Amennyiben Abu nagyon szűkös – legalább 28 Gbps szintre képes – GDDR7 kapacitással kapcsolatos feltételezése igaz, akkor a bármilyen RTX 50-es kártya legyártható darabszáma nagyon korlátozott lehet csak, és ha már keveset lehet csak gyártani, akkor ami GDDR7-es memória elkészül a Samsungnál, azt is inkább a lényegesen komolyabb hasznot biztosító 5080/5090 kártyákhoz használják fel. Így pedig az 5070-ek és 5060-ak továbbra is nagyon kis számban kerülnek a boltokba, mert még a prebuilt gyártók lekötött rendeléseit is a DIY szektor előtt kell teljesíteniük.
Amennyiben pedig az RX 90-es kártyáknak legfeljebb valamikor az év vége kell megküzdeniük érdemi mennyiségű RTX 50-es kártyával a vásárlók kegyeiért, akkor nyár végéig abszolút egy határozott piaci hiány fenntartása áll a custom gyártók érdekében, hogy az árakat minél magasabban tartsák.
Ráadásul ha 2025 Q3/4 magasságáig sem sikerül az SK Hynix vagy Micron számára a minimális szintet megugraniuk a GDDR7-es moduljaikkal, akkor akár 2026 elején is még szabadon arathatnak érdemi mennyiségű konkurencia hiányában az RX 90-es kártyák gyártói.Amíg az RTX 50-ekből ne készül havi sokszázezer darab, addig az RX 90-ek árai is magasan maradnak, bár nem annyira, mint az RTX 50-ek árai.
-
Alogonomus
őstag
válasz
yarsley
#70962
üzenetére
Csak abból kiindulva, hogy az Overclokers eladott csak az indulási napon 5000 kártyát, a bolygót tekintve az a 200 ezres szám durván alulbecsült érték lehet. Főleg azt is beleszámolva, hogy a Trump tarifa miatt elsődlegesen az USA piacára szállítottak minél több kértyát, és ennek is volt köszönhető, hogy a Micro Center boltok ajtajaira kitették a boltonkénti 500+ RX90-es készletekről értesítő papírokat. És a Micro Center csak egy az amerikai kiskereskedelmi bolthálózatok közül.
Az AMD nem akarja segíteni a piaci konkurenciát a pontos számok közlésével, de az garantálhatóan meghaladja a 200 ezres számot. Főleg a mostanáig leszállított kártyákat illetően, ha az első hetes eladások esetleg még nem is haladtál azt meg jelentősen.
-
Alogonomus
őstag
Mivel az AMD deklaráltan a kártyaeladásai jelentős mértékű felfuttatását tűzte ki célul ebben a generációban, így az kizárható forgatókönyv, hogy nem biztosított hozzá elegendő gyártókapacitást. Arra persze valószínűleg az AMD sem számított, hogy egyedül kell majd lényegében a teljes piaci igényt kielégítenie.
Ezzel az új helyzettel viszont valószínűleg csak a tavalyi év legvégén szembesült az AMD, amikor a mindkét (mindhárom) chipgyártóval szerződésben levő AIB partnerektől érkezhettek a szivárgások arról, hogy az Nvidia december legvégéig nem szállított a B200-akban hibákat produkáló GB100 kijavítását követően GB200 elnevezésre váltó Blackwell 2.0 chipekből.
Az AMD még ha január végén a katasztrofális Nvidia rajtot látva azonnal át is csoportosított a befoglalt 4 nm-es TSMC waferek közül sokat a Radeon kártyák chipjeinek gyártására, akkor is van egy hosszabb átfutási idő, amire a TSMC gyárából kikerült chip a bolt polcán kártyaként visszaköszön. -
Alogonomus
őstag
Még egy 4090 "future proof"-sága is nagyban függ attól, hogy az Nvidia a hosszabb távú terveiben valójában mennyire gondolja komolyan a PC gaming szektor elengedését. Amennyiben már nem fogja jelentősen támogatni a játékstúdiókat az Nvidia, miközben a konzolokban AMD hardverek vannak, és a gaming PC-k is az AMD processzorok mellett egyre gyakrabban AMD kártyákat is fognak tartalmazni, akkor a játékmotorok is egyre inkább az AMD hardverek erősségeihez lesznek igazítva, és 2-3 éven belül a PS6 megjelenésekor a 4090 valóban ugyanúgy egy középkategóriás 70-es UDNA-s AMD kártyával lesz egy szinten, ahogy a 2080 Ti is már egy 7700 XT vagy 4060 Ti szint, pedig a mostanában megjelenő játékok túlnyomó többségének a fejlesztésére állítólag még jelentős összegeket áldozott az Nvidia.
Ami ma csúcs, az holnap még jó, holnapután pedig már csak átlagos. A 3090 Ti is már csak körülbelül 4070 Ti szintet jelent. -
Alogonomus
őstag
válasz
Quadgame94
#70836
üzenetére
A PC gaming a magas szinten mindig megmarad, mert egy konzol nem fog 400 wattot fogyasztani, mert akkor már túl nagy és túl hangos lenne. Egy gamer PC viszont tartalmaz 600+ wattnyi hardverelemet, amik hiába nem annyira összehangoltan működnek, akkor is bőven erősebb opciót jelent a gamer PC, mint egy konzol.
Ráadásul még ha egy konzol a kiadásakor közel is lenne játékélményben egy akkori gamer PC-hez, a konzol 5+ éves termékciklusa alatt a gamer PC-k ugyanúgy elhúznának tőle, ahogy az az eddigi összes konzolgeneráció során is történt.A PC gaming jövőjét valóban fenyegető veszélyt a felhőalapú játékszolgáltatások jelenthetnék, mert az azok mögött álló szervereket tudják folyamatosan fejleszteni a legújabb generációs képességekkel, és mivel folyamatosan használja valamilyen személy valamilyen játék futtatására a szerverek hardvereit így a hardverek folyamatosan termelik vissza a költséget a szolgáltatónak, vagyis a játékosok egy otthoni gép beszerzési költségénél sokkal olcsóbban tudnak játszani, mert nem napi mondjuk 4 órában hoz hasznot egy hardver, hanem napi 24 órában.
Az egyetlen igazi gond a felhőalapú játékszolgáltatásokkal a ping magas értéke, ami miatt lényegében ideális esetben is csak egy 60 fps szintű játékélményt tudnak jelenleg nyújtani az ilyen szolgáltatások. Amíg nem sikerül stabilan 5 ms környékére csökkenteni a ping értékét ezeknél a szolgáltatásoknál, addig viszont csak a gyors reakciót sehol sem igénylő játékokhoz lesz jó választás a felhőben játszás. -
Alogonomus
őstag
válasz
deathcrow42
#70611
üzenetére
A vásárlók azt köszönik meg, hogy a 900-1200 dolláros 5070 Ti helyett jobb teljesítményt kapnak 650-750 dollárért, vagy a 800-1000 dolláros 5070 teljesítményét 600 dollár körül megkapják. És kiemelt hangsúly van a megkapják-on , mert a zöld kártyákból még azokon az emelt árakon sincs általában készlet.
-
Alogonomus
őstag
válasz
deathcrow42
#70601
üzenetére
AMD köszönettel elfogadja, ha első napon el is kapkodnak többször annyi RDNA4 kártyát, mint amennyi Blackwell kártya összesen elkelt a teljes utóbbi 2 hónap alatt.
-
Alogonomus
őstag
válasz
sz.mich
#70583
üzenetére
A kérdés megválaszolásához nagyon fontos azt eldöntened, hogy előreláthatólag az RT/PT mennyire lesz fontos a játékválasztásaidnál. Vonz az RT, vagy inkább csak erőforrás-pazarlásként gondolsz rá? Látványt tartod többre, vagy a képkockasebességet? Valamint az is fontos kérdés, hogy a jövőben valószínűleg egyre inkább az UE5 felé fordulnak a stúdiók, és az UE5 szoftveres-hardveres hibrid RT megoldása látszólag jobban fekszik a 7900 XTX-nek. A 9070 XT igazából csak a Geforce kártyák adottságaihoz igazított játékokban jelent komoly előnyt a 7900 XTX-hez képest, de az olyan játékok száma messze elmarad a gyártópreferencia nélküli játékok számától.
Leginkább abban nyújt(hat) többet a 9070 XT a 7900 XTX-hez képest, hogy az FSR4 felskálázás minden valószínűség szerint lényegesen hatékonyabban fog működni az újabb kártyán.
Leginkább az dönthet a két kártya között, hogy egyik szempontból a 7900 XTX idővel kifogy a boltokból, valamint ha a 9070 XT lényegesen olcsóbb, akkor az olcsóbb kártyát célszerű választani. -
Alogonomus
őstag
válasz
deathcrow42
#70397
üzenetére
Ahogy most kinéz a készlet a különböző RTX 50 kártyákból, a 9070 msrp áron egyáltalán nem lesz DOA, mert 550 dollárért raszterben a 7900GRE +20% az egy 7900XT, RT-ben pedig a 7900GRE+20% az egy "16 GB-os" 4070Super. Az a teljesítményszint a jelenlegi piacon 650-700 dollárért érhető el, amihez képest az 550 dollár jó ár.
Amennyiben az Nvidia a "titkos fiók-raktárából" nem tud ezzel a héttel kezdődően stabilan heti százezres nagyságrendben sima 5070-eket a boltokba küldeni, akkor a sima 9070 valódi konkurencia nélkül mindent visz majd.
A hírek ráadásul arról szólnak, hogy az 5070FE-ből is éppen csak a tesztelőknek elég mennyiség készült el, és leghamarabb majd március végén érkezhet először talán megvásárolható sima 5070FE. Több országból olyan hírek is érkeztek, hogy egyáltalán nem kaptak a nagykereskedők egyetlen darab akármilyen sima 5070-est sem.
-
Alogonomus
őstag
Hát a 9070 XT fogyasztása nem tűnt annyira kedvezőnek a HUB grafikonján... A 304 watt látszólag kicsit "meghízott".
Persze az mellékes kérdés lesz, ha cserébe kiemelkedő ár-értéket és körülbelül 4080-as szintet hoz 600-700 dollárért. -
-
Alogonomus
őstag
válasz
Callisto
#70264
üzenetére
Igazából a beépített CPU-k darabszámában még valószínűleg bőven az Intel vezet, mert konténerszámra ontja magából a prebuilt gyártók felé az egyszerű irodai és otthoni gépekbe még elég Celeron és Pentium termékeket maximum 1 P-maggal és 4 E-maggal. Szóval számszerűleg az Intel valószínűleg több CPU-t ad el, mint az AMD, de azoknak a nagy része az abszolút belépőszintű kategóriába tartozik, mint például az Intel 300. Otthoni netezős gépnek, vagy titkárnőnek "passziánszozásra" nem is kell több, de annál többre nem is alkalmasak azok a gépek. Cserébe olcsóak, de az Intelnek sincs érdemi haszna rajtuk, hiszen a prebuilt gyártó is hasznot szeretne még látni a gépeken.
-
Alogonomus
őstag
A JPR elmezések "szakmai mélységéről" egyébként is jó képet kaphattunk, amikor kiderült, hogy az Intel Arc GPU-k market share értékét úgy számolták ki, hogy az Intel pénzügyi jelentésében szereplő GPU bevételt leosztották a "sarki pc-bolt" Arc kártyáinak az árával.

Az is csak azért bukott ki, mert az Intel valamiért az aktuális HPC gyorsítóiból származó bevételeket is a GPU bevételek közé számolta, és azzal látszólag kiugró eredményt értek el, ami már mindenkinek feltűnt, és kutatni kezdtek az okok után. -
Alogonomus
őstag
válasz
deathcrow42
#69901
üzenetére
Köszönöm. Ez így tényleg nem rossz konfiguráció. Mondjuk a ROG STRIX elnevezést kicsit félrevezetően használják, de hát ez van.
-
Alogonomus
őstag
Az elnevezés alapján ROG Strix, szóval annyira remélhetőleg nem bóvli alkatrészeket tartalmaz, de azért jó lenne tisztán látni az ügyben, mert úgy lehetne érdemben összehasonlítani.
Itt-ott spórolással simán lehet a 850 ezerből akár 200 ezret is megspórolni valami 2666 CL22 memóriával, meg "vargáné és társa" táppal, meg olcsó laposacél gépházzal, meg sata2-es SSD-vel, és így tovább. -
Alogonomus
őstag
válasz
deathcrow42
#69890
üzenetére
Célszerű lett volna linkelned a helyet, ahol ez elérhető, mert ASUS oldalán rákeresve speciel nem találtam ROG Strix 5070 Ti prebuilt rendszert, pedig érdekes lett volna, hogy az a DDR4-es RAM például milyen képességű, az SSD vajon NVMe vagy SATA, CPU hűtő milyen, ház milyen, oprendszer jár-e hozzá, stb. Hahakocka példájából mindez kiderült.
-
Alogonomus
őstag
válasz
deathcrow42
#69860
üzenetére
Illetve:
Február 28
AMD beadja a derekát, és hivatalosan 550 dollár lesz a 9070 XT, hiszen úgysem a hivatalos ár számítMárcius 5/6
A tesztek nagyon pozitív kicsengésűek lesznek az 550 dolláros és 5070 Ti-t túlteljesítő 9070 XT kapcsánMájus végétől
Első verzió:
A boltokban 700 dollártól kínált 9070 XT intenzíven fogy, mert a 10 millió lakosonként érkező heti 30 darab 5070 Ti ára viszont változatlanul 1200 dollár környékétől indul. A 9070 XT árával a vásárlók nagyjából már megbarátkoztak, miközben kígyót-békát kiáltanak az 5070 Ti profitéhes 1200 dolláros árazása miatt. Az Nvidia valami oknál fogva továbbra sem tud jelentősebb mennyiségű GB203 és GB205 GPU-t gyártani. Idővel Jensen megunja az Nvidia renoméját erodáló 5070/5060 kapcsán megjelenő negatív híreket, és inkább visszavonul a konkurencia nélküli enthusiast piaci szegmensen belülre az 5080/5090 gyártásban hagyásával. Ennek következtében pedig a 9070 XT az 1700 dollártól induló 5080 szintje alatt már ellenfél nélkül szerepelhet, amit nyilván további áremelkedését okozza a boltokban.
Második verzió:
Eddigre előkerülnek az árak felhajtása érdekében korábban rejtegetett 5080/5070/5060 modellek, és beáll egy normális piaci helyzet, ahol 30%-os ár/érték előnnyel már szépen fogynak a 9070/9060 kártyák. -
Alogonomus
őstag
"Ha az AMD magasabb árat ad meg, akkor ugyanúgy végük van, hiába bénázik az NVIDIA."
Csak jelenleg úgy áll a helyzet, hogy a papíron 1000 dolláros 5080 1700 dollárért kapható, a papíron 750 dolláros 5070 Ti pedig 1200 dollárért. Sőt még a kamuként belistázott "msrp" modellek is az msrp árnál lényegesen drágábban vannak belistázva.
A hivatalos árral kapcsolatban én is régóta azt mondom, amit a GamersNexus és a Hardware Unboxed is, hogy a release review-k kapcsán hatalmas lehetőséget bukik el az AMD azzal, hogy a bevezetéskori valós bolti árat adja meg msrp árként, nem 20-40-70 százalékkal alacsonyabb árat, mint ahogy azt az Nvidia csinálja sok generáció óta. Az egyszeri érdeklődő sok hónap múlva amikor megnézi a teszteket, akkor a Geforce kártyáknál egy túlértékelt eredményt lát, míg a Radeon kártyáknál egy alulértékelt eredményt lát, ezért a Geforce kártyát választja, amit aztán a boltban már 20-40-70 százalékkal drágábabn is megvesz, mert már nem akarja újra bújni a teszteket.
-
Alogonomus
őstag
válasz
ggbuffon1897
#69817
üzenetére
A hiányzó ropos kártyákat is majd akkor tudják cserélni, ha érkezik új szállítmány, amivel remélhetőleg már nem hibás termékek érkeznek.
Generációs teljesítményugrásnak pedig az 5090 25-30 százaléka sem valami nagy szám 40 százalékkal magasabb fogyasztásból. Az 5080 és 5070 Ti 10-11 százaléka pedig lehangoló, bár legalább némileg takarékosabb is lettek. Az már csak extra, hogy RT-ben/PT-ben több játékban még fejlődést sem hozott a két kisebb kártya.
Ezekben bénáztak/bénáznak.Előzetesen mindenki 50+ százalékos ugrást várt az 5090-től, és a kisebb kártyáktól is 30+ százalék javulást. Az RDNA4 eredeti árazását ezekhez lőhette be az AMD, de azóta alaposan újra kellett gondolniuk az árakat.
-
Alogonomus
őstag
Az 5080-ra kerülnek az asztali Blackwell generáció legmagasabb minőségű memória chipjei. A többi kártyára "csak" 28 Gbps memóriák kerülnek, míg az 5080 30 Gbps memóriákat igényel. Az állítólagos 290 dolláros különbség kialakulásában valószínűleg komoly szerepet játszik a magasabb minőséget képviselő 30 Gbps GDDR7 modulok magasabb bekerülési ára.
-
Alogonomus
őstag
válasz
deathcrow42
#69721
üzenetére
Abba a 200 dollárnyi különbségbe valószínűleg beleszámítódott a GDDR7 használatához szükséges egyéb extra áramköri elem is, meg a magasabb adatsebesség stabil kiszolgálásához valószínűleg szükséges komplexebb PCB.
-
Alogonomus
őstag
válasz
Devid_81
#69715
üzenetére
Hát a 9070 XT értékei is inkább a 7900 XT-hez közeli értékek, a pixel fillrate pedig gyanúsan nagyon alacsony. Az 5070 Ti értékeihez képest viszont szép értékek.
A 7900 XTX esetleg az erős AI képességek bevetésével lehet a tuningoltabb 350+ wattos modellek számára ellenfél. Komoly szintű sugárkövetés esetén persze várhatóan nem az RDNA3, hanem a Lovelace/Blackwell lesz a leküzdendő cél. -
Alogonomus
őstag
válasz
deathcrow42
#69654
üzenetére
Csak szólok, hogy az Nvidia is ezt csinálja, amitől a legutóbbi generációban is az 1600 dolláron bejelentett 4090 végül 2500 dollárért volt kapható a boltokban, vagy a hivatalosan 1000 (1200) dolláros 4080 boltban már 1500 dollár volt, és így tovább a létrán lefelé.
Pert persze bárki indíthat, de mivel az msrp-ben az "s" csak "suggested", ezért jogilag nem jelent kötöttséget. Egyedül talán akkor lehetne némi eséllyel perelni, ha a gyártók felé már a BOM-kitet is az msrp értékét meghaladó áron árusítaná az AMD.
-
Alogonomus
őstag
válasz
Devid_81
#69648
üzenetére
Azt valóban megteheti az AMD, hogy faarccal bejelenti az egyébként is nagyon sokáig keringő 499 dolláros árat a 9070 XT-re, meg 399 dolláros árat a sima 9070-re, ahogy az Nvidia is teszi minden esetben, így az első napos értékelések nagyon kedvezőek lesznek, aztán pedig az AMD nyugodtan moshatja a kezét, ha a "pénzéhes" boltok mondjuk 650 dollárért adják majd a 9070 XT-t, meg 550 dollárért a sima 9070-et. Az AMD a gyártóknak úgyis annyiért adhatja majd el a BOM-kitet, amennyiért megveszik azok, szóval az AMD nem jár azzal érdemileg rosszabbul, ha a várható bolti árnál lényegesen alacsonyabb árat közöl msrp árként.
-
Alogonomus
őstag
válasz
deathcrow42
#69645
üzenetére
Nem az 5070 Ti ára a fő gond, hanem a jelenleg és jövőben elérhető mennyiség. Hiába száll le akár 750 dollárra egy 5070 Ti ára, ha a 100 egységnyi 9070 XT készlettel szemben 3 egységnyi 5070 Ti készlet lesz, de azokon felül már a 9070 XT marad csak a polcokon, és jobb híján a Geforce kártyáért betérő is csak azt tud majd venni.
Az 1500 dolláros 4080-at is megvették a 900 dolláros 7900 XTX helyett, mert volt a boltokban a Geforce kártya. A 900 dolláros 5070 Ti is jól fogyhatna, ha lenne készlet, de nincs, így nincs mit megvenniük a Geforce kártyát keresőknek.
-
Alogonomus
őstag
válasz
Devid_81
#69641
üzenetére
A "drága" jelző eléggé relatív, mert a 900 dolláros 5070 Ti mellett egy mondjuk 650 dolláros 9070 XT nem számítana majd drágának. Főleg akkor nem, ha a 7900 XT – 5070 Ti – 4080(S) – 7900 XTX teljesítménykategóriában a 9070 XT lenne még 650 dollárért is a legolcsóbb, de minden valószínűség szerint messze nem a leggyengébb opció.
Így pedig aki az új generáció 70-es, felsőközép-kategóriájában gondolkozik, annak új kártyaként a 9070 XT lenne a racionális opció, hacsak nem jelennek meg a piacon egy hónapon belül milliós nagyságrendben 5070 Ti modellek, amik már valóban 750 dollár körüli áron és nagy számban elérhetőek is lennének.
-
Alogonomus
őstag
Hát ez így már eléggé kétélű fegyverré vált a HUB számára, mert ha egy centtel is 550 dollár fölött lesz a 9070 XT adók nélküli bolti ára, és mégis komoly eladásokat ér el, akkor akár évekre ugyanolyan gúnyszöveg alapját adhatja ez az eset, mint a szintén esetükben, de ellenkező előjellel megszületett "editorial direction" ügy. Hogy ne említsem az Apple "rosszul tartja" ügyét.
Pedig ha az 5070 Ti vagy a 900 dolláron maradó ára, vagy a továbbra is országonként havonta 15-25 kártyás mennyisége miatt nem tud majd komoly konkurenciát állítani a 9070 XT-vel szemben, akkor 550 dollárnál biztosan drágábban fog a boltokban elkelni a 9070 XT. Akkor pedig a HUB folyamatos gúnyolódások céltáblája lesz. -
Alogonomus
őstag
válasz
Quadgame94
#69567
üzenetére
A jelek szerint 7800 XT-ből még van jelentősebb készlet, ahogy 7900 XT és XTX is van még bőven a raktárakban.
Amennyiben pedig igazak a hírek a 9070-ek teljesítményéről és az 550/650 árazás is nagyjából helyes, akkor a megmaradt 7800 XT-k $400 körüli, valamint 7900 XT $500 körüli áron lenne csak eladható, míg a 7900 XTX legfeljebb a lényegesen bővebb memóriakapacitása miatt maradhat $600 fölött.
Ezek alapján az "akciózott" 7800 XT lehet a 7600 XT váltója az idei gépekben, a 7900 XT és XTX pedig a 7800 XT és 7900 GRE váltója lehet változatlan áron. -
Alogonomus
őstag
válasz
deathcrow42
#69488
üzenetére
Hát az, hogy látszólag még a hibás GPU-kat is gyártásba küldte az Nvidia, plusz hogy a tesztelőknek kiküldés határideje előtt pár nappal a CES-en még csak dummy cardok formájában voltak az RTX 50-es kártyák, egyre nehezebben hihetővé teszi azt a forgatókönyvet, hogy az Nvidia kivárásra játszva az RX 90-es kártyák érkezésére időzítve sokszor százezres nagyságrendű Blackwell kártyával fogja a piacot elönteni a szerződött partnerein keresztül...
-
Alogonomus
őstag
válasz
huskydog17
#69405
üzenetére
Külön írták a videocards cikkben, hogy az árral ne is törődjünk, az folyton változik. Plusz ezek tényleg olyan tuningváltozatok, mint egy Strix, Nitro+, Red Devil, Aorus, Suprim, vagy a régi FTW-k.
Annak viszont nem örülök, hogy az XFX is beadta a derekát, és a korábbi letisztult Merc design helyett ilyen rgb kavalkád lesz az ő kártyájukon is. -
Alogonomus
őstag
Mivel a leakerek eléggé egybehangzóan 500 dollár fölé, de bőven az 5070 Ti 750 dolláros ára alá jósolják a 9070 XT árát, valamint szintén nagyon egybehangzóan a 7900 XT és 7900 XTX közé jósolják a teljesítményét, így a megállapításod legfeljebb úgy lenne helyes, hogy: "Kivéve, ha egyhuzamban másodszor tévedne hatalmasat szinte minden leaker az AMD érkező kártyagenerációjával kapcsolatban."
-
Alogonomus
őstag
válasz
Busterftw
#68743
üzenetére
Az 5090 esetén jogos a megállapításod, mert az egy külön teljesítménykategóriát jelent. Az 5080 viszont annyira kis fejlődést hozott az előző generációhoz képest, hogy egy az egybehangzó pletykák alapján 4080 teljesítményét 600 dollárból kínáló 9070 XT mellett már az 1000 dollártól kapható 5080 nem igazán lesz vonzó opció, hát még az azóta 1200 dollárra emelt árával.
-
Alogonomus
őstag
válasz
deathcrow42
#68703
üzenetére
Ezeknél sokkal fontosabb kérdés, hogy mekkora mennyiségben kerül a boltokba majd az 5070 Ti a következő hónapok során. Az 5070 Ti ugyanúgy GB203-as GPU-t használ, és ugyanúgy GDDR7-et, mint a folyamatosan hiánycikk 5080.
Ha az 5070 Ti is országonként csak pár száz példányban lesz elérhető, akkor a 9070 XT márciusban valós konkurencia hiányában automatikusan sikeres lesz, ha lesz belőle elég a szivárgások alapján maximum 4070 áron, de legalább 4070 Ti teljesítménnyel és persze 16 GB memóriával.
Az alapján, hogy állítólag a januári CES-en bemutatott custom kártyák egyikében sem volt még működőképes (vagy bármilyen) Blackwell GPU, miközben az AMD élőben demózta a 9070-es kártyák működését, egyre valószínűbbnek tűnik az a forgatókönyv, hogy a tavaly ősszel kiderült Blackwell tervezési hiba talán nem csak a GB100-at érintette, hanem a legyártott asztali Blackwell chipeket is a darálóba küldte, és persze először a már megrendelt és kifizetett B200-ak GB100-as chipjeinek az újragyártása történik, aztán következhet érdemi mennyiségben a GB202, GB203 és majd egyszer a GB205 is. És ezért nem volt chip a CES-es kártyákban, valamint ezért nincs a CES után egy hónappal sem érdemi mennyiségű 5090 és 5080 a boltokban.
-
Alogonomus
őstag
válasz
S_x96x_S
#68550
üzenetére
"az ilyen boltok akkor tönkre fognak menni."
Inkább akkor megy tönkre egy bolt, ha a 300 ezres 7900 XT-k vagy örökre a raktárában ragadnak, vagy a veszteség mérséklése érdekében a márciusi RDNA4 rajthoz igazítva 300 ezer helyett még gyorsan eladja mondjuk 200 ezerért, mert a 9070 XT-k mondjuk 220-250 ezerért erősebb kártyák lesznek.
Nem zárható ki az sem, hogy a 9070-ek halasztott kiadása mögött az is ott van, hogy lehetőséget ad az AMD a boltoknak, hogy még az új generáció érkezése előtt adják el amit tudnak némi akciózáson keresztül. Viszont ott is az a kérdés, hogy ki állja az akciózás költségét? A boltnak veszteséget okoz, ha a 7900 XT-ket a könyvelésben szereplő értékénél olcsóbban kell eladniuk.Ha ár/érték arány alapján vásárolnának az emberek, akkor az Nvidia és Intel kártyák labdába sem rúghattak volna, vagy maximum a 4090, plusz esetleg az RT-t nézve a 4070 Ti fölötti kártyák. Akinek viszont a "barátja" azt mondja, hogy Nvidia kártyát vegyen, az Nvidia kártyát is vesz, kerül amibe kerül.
-
Alogonomus
őstag
válasz
Woodcutt3R
#68544
üzenetére
Az akár a Radeon sorozat bukását is okozhatná, ha a 9070 XT nem hozná a 7900 XT teljesítményszintjét a 7900 XT fogyasztása mellett. Tehát azt valószínűleg ki lehet jelenteni, hogy bármennyi is lesz a 9070 XT hivatalos msrp ára, amennyibe az adott boltban a 7900 XT kerül éppen, annál nem fogja olcsóbban adni a bolt a 9070 XT-t, hiszen egyébként minden 7900 XT a bolt nyakán maradna.
Pesszimista jóslatok is valahova a 7900 XT és 4080 közé várják a 9070 XT-t, míg optimistább jóslatok valahova a 4080 és 7900 XTX közé. Szóval 7900 XT-nél olcsóbb 9070 XT-re nem érdemes szerintem számítani, mert a boltok az első időszakban úgyis legalább a 7900 XT szintjéig felhúzzák majd az új kártya árát. -
Alogonomus
őstag
válasz
Yutani
#68514
üzenetére
Na azért kettőt ne ugorj a létrán, mert a sima 7500 párja a 6600 lehetett volna. és a 7600 XT a 6700 XT párja lehetett volna az összehasonlításban, nem a 6800. De igen, az előző generációban általában az AMD "eggyel magasabbra számozott" kártyái voltak versenyben az Nvidia kártyáival. Persze ár/érték tekintetében sokkal jobb ajánlatot képviseltek a 7000-es kártyák, és az számít, nem a modellszámozás.
Az XTX pedig ott volt enthusiast kártyának, csak kivételes esetektől eltekintve nem a legerősebbként. -
Alogonomus
őstag
válasz
ReSeTer
#68503
üzenetére
"Ha RT-t nézzük nem ellenfél.
... Miért venne 7700xt-t ha a játékok elkezdik használni az RT-t most már."Az RT-helyzet valójában úgy áll, hogy amelyik játékban az RT csak kevés plusz terhelést okoz, mint például a Far Cry 6, vagy Resident Evil 4, vagy az újabb Lumen-es UE5 címek, azokban a 7700 XT már jelenleg is ott van a 4060 Ti szintjén, egyes játékokban előtte is. Elborult PT-s címekben pedig bár van érdemi különbség a két kártya teljesítménye között, de valójában a mondjuk 16 fps a 4060 Ti esetén sem jobb, mint a 10 fps a 7700 XT esetén.
Nézd nyugodtan végig az eredményeket, komoly különbség nincs a két kártya eredményei között. -
Alogonomus
őstag
-
Alogonomus
őstag
A GTA VI szinte biztosan rendelkezni fog dinamic resolution és PSSR vagy hasonló felskálázási lehetőséggel, mert 2025 végén a 30 fps az egész játékot eláshatná. Hasonlóan ahhoz, ami a Cyberpunk esetén történt 2020 végén a PS4-es gyenge teljesítménye következtében.
Amelyik játékban vezetni és lőni is kell, abban a 30 fps kínszenvedés. Lassú ütemű játékban nem akkora gond a 30 fps. -
Alogonomus
őstag
válasz
Quadgame94
#68401
üzenetére
Az adózás előtti profitról írtam, hogy azt inkább szeretik elhasználni bármire, csak ne az állam feneketlen kondérjába kelljen befizetniük.
-
Alogonomus
őstag
válasz
S_x96x_S
#68397
üzenetére
Azért az is hozzátartozik a 7,7-ből megmaradó 0,5 sztorijához, hogy egyik cég sem szeret komoly mértékű profitot kimutatni, mert annak jelentős részét aztán fizetheti is be adóként. Inkább – legalább könyvelés szerint – elkölti bármire, mint hogy az államkasszát gyarapítsa vele.
-
Alogonomus
őstag
válasz
Kajoszbobber
#68371
üzenetére
Hát a CES keynote kimaradt RX 9000-es bemutatójának pótlásaként elvileg különálló RDNA4 és különálló FSR4 bemutatót és fejtágítást ígért az AMD.
-
Alogonomus
őstag
válasz
parandroid
#68355
üzenetére
Akik 100 ezer környékén keresnek kártyát, azok valószínűleg egyébként is jobban járnának egy már használt de jó állapotú 4060 Ti, 3060 Ti, 6750 XT, 3070 Ti, 2080 Ti, vagy egyéb hasonló teljesítményű kártyával. Már egy használt 6800 is egészen olcsó a teljesítményéhez képest.
-
Alogonomus
őstag
válasz
Kajoszbobber
#68349
üzenetére
Mást jelent a 80-100 ezres különbség 300 ezres ár alatt, és mást jelent 400 ezres ár fölött.
Az 5070-ek és a 9070-ek is az árérzékenyebb középkategóriát célozzák be. -
Alogonomus
őstag
válasz
parandroid
#68341
üzenetére
Ha 800 euróért terveznék kiadni a 9070 XT-t, akkor már kaidták volna, ahhoz nem kellene márciusig további kártyákat leszállítva jelentős raktárkészletet felhalmozni. A boltokban a fotók alapján már január közepe óta ott van a több polcnyi 9070 XT.
A nagyjából 220 dollárért gyártható 9070 XT mondjuk 500-550 dolláros msrp esetén custom kártyaként is elérhető lenne mondjuk 600 dollárért, és úgy is jelentős hasznot termelne a 750 dolláros 5070 Ti teljesítményét kínálva. Főleg úgy, hogy az 5070 Ti 750 dolláros msrp árból következően legalább 800-850 lenne a custom kártyák árcéduláján.
-
Alogonomus
őstag
válasz
Busterftw
#68259
üzenetére
Akkor nem értetted meg a hozzászólás lényegét. A 600 dolláros 12 GB-os kártya és az 1000 dolláros 24 GB-os kártya összehasonlításáról szólt.
Egyébként bár 1440p-ban még tartja magát a 12 GB Nvidia, de nézd meg 4K-ban az eredményeket, és meglátod a 16 GB értékét. Egy ideig segít a textúra "butítása", a "texture swapping", meg egyéb "mágiák", de 4K-ban már kiütközik az elégtelen memória következménye.
Ráadásul az Nvidia egyre inkább a framegen fokozásában látja a teljesítményproblémákból kivezető utat, viszont a framegen maga is további memóriahasználattal jár. -
Alogonomus
őstag
A gondolatmenetedet továbbvezetve, a 600 dolláros Nvidiás kártya és 1000 dolláros konkurens kártya azonosnak érzékelhető RT teljesítménye addig valósul meg, amíg az adott szoftver fejlesztője kiemelt figyelmet fordított arra, hogy az alkalmazott grafikai megoldások memóriaigénye a 600 dolláros Nvidiás kártyának nehogy problémát okozzanak. A Silent Hill például jó példa az "elég memóriás" helyzetre. Az új Spider-Man esetén már látszik némi probléma. Az Avatar már határozottabban jelzi a problémát, míg a Star Wars Outlaws kapcsán már egyértelműen látszik a kevés memória hatása.
Az idő előrehaladtával pedig csak még egyre nehezebb lesz, egyre több kompromisszumot igényel majd egy program memóriaigényét a 12 GB-os határ alá szorítani, így egyre kevesebb játékban érhet majd el a 600 dolláros kártya olyan teljesítményt, mint az 1000 dolláros kártya, vagy akár egy újabb mondjuk 500 dolláros kártya, amin viszont van 16 GB memória. -
Alogonomus
őstag
válasz
hahakocka
#68246
üzenetére
Nagyon fontos szempont, hogy milyen árszintre érkezik egy adott kártya. A felskálázás óta technikailag a legtöbb új kártya használható 4K kártyaként, miközben nem 4K kártyának szánták.
A 12 és 16 GB, de még a 8 GB sem önmagában jelent problémát, hanem az adott kártya árának a fényében. Ha egy kártyát az ára és/vagy teljesítménye egyébként is belépő szintre predesztinálja, akkor a 8 GB elfogadható lehet mondjuk 250 dollárért. A problémát az jelenti, amikor a 800 dolláros kártya is csak 12 GB-ot kap, vagy az 1200 dolláros kártya 16 GB-ot, mert egy 800 dolláros kártyával jogos elvárás legalább az élvezhető 1440p, ahogy az 1200 dolláros kártyával is a tisztességes 4K.
Az AMD 'csak' 16 GB-ja az előzetes tippek alapján nagyjából 400-450 és 500-600 dollárért érkező kártyákon nem lesz kevés, hiszen az áruk alapján az alsóközép- és felsőközép-kategóriába érkeznek majd. Az pedig szerencse, hogy az új Geforce kártyák nagyon gyenge előrelépést produkáltak, ezért a teljesítménykategóriák érdemben nem tolódtak el az előző generációhoz képest, így míg a korábbi 800 dolláros kártyán a 12 GB kevésnek számított, addig ugyanaz a 12 GB egy már mondjuk 450 dolláros kártyán elfogadható mennyiség, a 16 GB pedig bőven kielégítő. Ugyanígy a 16 GB az előző generáció 1200 dolláros kártyáján kevés volt, de az előző generáció és jelenlegi generáció 600 dolláros kártyáján rendben levő kapacitás. -
Alogonomus
őstag
válasz
hahakocka
#68244
üzenetére
Nagyon kellemetlen volt szembenézniük a Geforce kártyát választóknak azzal a ténnyel, hogy a középkategóriás 8 GB-os és felsőkategóriás 10-12 GB-os kártyáik "ekézése" igazolást nyert.
A 8 GB elégtelensége nagyjából 2022 végén, a 12 GB szűkössége pedig legkésőbb 2024 vége felé vált nyilvánvalóvá. A 8 GB főleg a 400-450 ezerért vett 3070-esek tulajdonosai esetén volt keserű pirula, a 12 GB pedig lényegében a 4070 Ti Super szintjénél kisebb zöldkártyások esetén, miközben a kártyájuk számítási teljesítménye alapján még jó lett volna a kártyájuk, de a kevés memória miatt vagy szaggatott náluk a játék, vagy alacsony minőségű elmosódott textúrákkal kényszerültek játszani. -
Alogonomus
őstag
Az Nvidia Image Scaling első bevetését illetően tényleg igazad van, mert az Nvidia tényleg előbb tette be a lehetőséget a driverébe, mint hogy az AMD betette volna a saját beígért képességét. A gyors reagálás attól viszont még nem volt sikeres az Nvidia oldalán, hiszen látványosan gyengébb képminőséget produkált a NIS, bár tényleg hamarabb vált elérhetővé.
Mint a viccben:
– Mennyi 2x2?
– 5!
– Nem jó a válasz!
– De legalább gyors voltam! -
Alogonomus
őstag
Hát az RSR vs. NIS esetében ez a gyors reagálás nem igazán sikerült, pedig igazán próbálkozott az Nvidia.
-
Alogonomus
őstag
válasz
A.Winston
#68199
üzenetére
A PTX, mint használt programozási nyelv bizonyított, de hogy milyen "vason" fejlesztették és futtatták, az csak spekuláció és szóbeszéd szintjén kering a neten. Egyes szóbeszéd szerint jelenleg például a Huawei Ascend "vasán" fut a DeepSeek.
Lényeg a lényeg, ezek szerint nem kizárólag Nvidia "vas" nyújthat optimális teljesítményt az AI szektor számára. -
Alogonomus
őstag
válasz
S_x96x_S
#68194
üzenetére
Vajon eddig tartott az AI CUDAsikeres időszaka, és ahogy az USA korlátozásainak hatására alternatív megoldást kerestek, a CUDA utáni időszakban az AMD kártyái is elkezdenek majd "élni"?
Mindenesetre érdekes fejlemény, és így kezd az is érthetővé válni, hogy hogyan tudhatták megvalósítani a DeepSeek működtetését a visszatartott Nvidia eszközök helyett alternatív eszközökkel. -
Alogonomus
őstag
válasz
Devid_81
#68108
üzenetére
Inkább csak az RDNA3 órajelét tervezték magasabbra, de végül valamiért nagyjából 3 GHz magasságában éles játékok esetén már hibákat kezdett produkálni a chiplet valamelyik része, és ezért visszavették az alapértelmezett frekvenciát a még biztonságos határig. Nem concept art volt szerintem a 7900 XTX fölé szánt változat, hanem egy laza szándék, hogy a hírekben általában 7950 XTX néven szereplő változat majd a golden sample Navi 31-eket használja még magasabb frekvencián, meg talán GDDR6-ból is valami golden sample került volna rá.
Végül a golden sample Navi 31-ek is a normál 7900 XTX-ekbe kerültek felhasználásra, és akik szerencsések, azokhoz olyan kártya került, ami elmegy 400 watton 3,3-3,5 GHz-ig a szintetikus tesztekben, míg "atombiztos" 2,8-2,9 GHz esetén 320-350 wattal megelégednek, amivel még úgy is ott vannak 10-15 %-kal a 4090 alatt, és 5-10%-kal a 4080 fölött. -
Alogonomus
őstag
Az AMD legfeljebb annyira tapogatózott sötétben, mint előző generációban az Nvidia, aki az AMD-től való félelem miatt a 4090-et szükségtelenül erősre és így drágára is tervezte, a 4080 árát totálisan elmérte, a 4080 12 GB-ot pedig az utolsó pillanatban kellett 4070 Ti-ra átneveznie, míg a 4060 Ti memóriáját szintén vészüzemmódban kellett dupláznia.
Most az AMD-t érte váratlanul a januárban kiderült új helyzet. Látszólag most az Nvidia húzta meg azt a lépést, amit korábban az AMD a Raphael->Granite Ridge, vagy még korábban például az Ellesmere->Polaris kapcsán. Most az Nvidia adott ki egy minimálisan javított architektúrát, amihez a teljesítményjavulást az emelt fogyasztásból biztosítják.
Nem csoda, hogy az AMD ezek fényében átalakítja a terveit, hiszen sokkal kompetitívebb Nvidia termékekre számítottak. -
Alogonomus
őstag
válasz
Busterftw
#68073
üzenetére
Az állítólagosan vészesen alacsony számú 5090 és 5080 készletek alapján kérdés, hogy az 5070 Ti készletek hogyan alakulnak majd. Ráadásul míg az 5090 és 5080 esetén az országonkénti egy-két számjegyű készlet a kevés, addig az 5070 Ti esetén a készletnek minimum négy számjegyűnek kell lennie, ha nem egyenesen öt számjegyűnek a rajtra, ha komoly érdeklődést remélnek a termék iránt.
-
Alogonomus
őstag
"ők mennyit lépnek előre a 7900XTX hez vagy az Ada-hoz képest?"
Hát azért az állítólagosan 300 wattból 4080 szint és 220 wattból 4070 TI Super szint eléggé jelentős előrelépés lesz az RDNA3-as eredményekhez képest. Már persze, ha a majdani tesztek is visszaigazolják ezt a pletykát. -
Alogonomus
őstag
válasz
Busterftw
#68051
üzenetére
Egyértelműen elhalasztották a launchot, pedig a kártyák ott vannak már a kiskereskedők raktáraiban.
Olyan találgatások merültek fel, hogy az AMD arra játszik, hogy amennyiben a mai 5090 és a jövő heti 5080 értékelések is arról szólnak majd, hogy szégyenletesen gyenge fejlődést hozott csak az új Blackwell architektúra, akkor az egész techsajtó attól fog zengeni egész februárban. Ráadásul valószínűleg raktárkészlet sem lesz az RTX 50-es kártyákból.
Ennek az általános hangulatnak a fényében pedig a valószínűleg február végén érkező RX 9070 értékelések sokkal jobb színben tüntetik majd fel az új AMD kártyákat.
Nagyon megy most a 4D-sakkozás, és valamelyik oldal nagyon ráfázik majd. -
Alogonomus
őstag
Az Nvidiánál a teljes Gaming kategória bevétele teszi ki a bevételek 15%-át, nem önmagukban a Geforce kártyák.
"Our products for the gaming market include GeForce RTX and GeForce GTX GPUs for gaming desktop and laptop PCs, GeForce NOW cloud gaming for playing PC games on underpowered devices, as well as SoCs and development services for game consoles"Annak a kategóriának a relatív hozzájárulása peedig a teljes cégcsoport bevételéhez képest intenzív ütemben csökken. Néhány negyedévvel korábban még majdnem 30% volt, ami most 15%. Az Nvidia elkormányozta a hajóját a gaming irányból a szerverekbe szánt gyorsítók irányába.
Az Nvidia valóban könnyen – sőt a teljes bevételre vetítve csökkenő arány miatt egyre könnyebben – kompenzálni tudná a gyártópartnerei BOM-kit miatti magasabb gyártási költségeit, de a bejelentett 550 és 750 dolláros árat nem tudná semissé tenni, csak legfeljebb a gyártópartnerek 150% memóriát tudnának kínálni változatlan áron, ami pedig ahogy írtam is, a kártyák teljesítményére vajmi kevés pozitív hatást gyakorolna.
-
Alogonomus
őstag
"Nvidia lejjebb viszi az árat. miért ne?"
Nem véletlenül a Super és/vagy Ti verziókkal "csökkent" árat az Nvidia, és nem az eredeti termékek árát viszi lejjebb. Egy árcsökkentés mindig árt a gyártó/termék megítélésének, hiszen akkor az eredeti árán nem fogyott. Egy generáción belüli frissítésként tálalt megoldással viszont a negatív következmények jelentős része elkerülhető. Ahogy Jensen önérzete azt sem bírná el, hogy valaki nála erősebb terméket kínáljon, úgy valószínűleg arra sem bólintana rá, hogy valamelyik terméke árát hivatalosan és jelentős mértékben megvágja a piaci kereslet fenntartása érdekében.
"Egyből engedélyezi a gyártóknak a 18 gigás 5070 és /vagy super verziót."
Még ha rendelkezésre is állna elég 3 GB-os GDDR7 modul, azok akkor is jelentősen drágábbak lehetnek, mint a sima 2 GB-os modulok, vagyis a másfélszeres memóriakapacitású kártyák vagy még drágábbak lennének, vagy a gyártóknak kellene lenyelniük a jelentős extra költségeket, amivel valójában még gyorsabbá sem válna az 5070, csak a memóriavész alól szabadulna ki. Az 5070 Ti pedig még annyit sem nyerne a memória 24 GB-ra növelésével, hiszen a 16 GB még kényelmesen elég, ha nem 4k+PT+FG+egyéb fut egyszerre. -
Alogonomus
őstag
A 9070-es tesztek attól még kimehetnek az 5070-es tesztekkel nagyjából egyidőben, szóval a vásárlók megismerhetik az állást, csak a bolti árusítás indul el márciusban. A kártyák már a tesztelőknél vannak, a PH is megkapta már a kártyákat, és Abu arra is utalt, hogy az a többi médiumhoz képest mintha viszonylag későn a történt volna meg.
-
Alogonomus
őstag
Azért ha a február eleji tesztek alapján kijön egy akár 40% ár/érték előny a 9070-ek javára az 5070-ek ellenében, akkor valószínűleg sokan kivárják majd a márciust.
Az 5070 Ti 4070 Ti-hoz képest +20%-a 750 dollárért még a 4080 szintjét sem éri el, míg a 9070 XT állítólag ott lesz a 4080 szintjén és 500 dollár körüli árat jósolnak hozzá.
Az 5070 4070-hez képest +20%-a 550 dollárért pedig elmarad a 4070 Ti szintjétől, míg a 9070 állítólag ott lesz a 4070 Ti/7900 XT szintjén és 400 dollár körüli árat jósolnak hozzá.
Az egyedüli komoly kérdés az, hogy a friss helyzetet látva az AMD felemeli-e az új kártyái árát, vagy továbbra is az "eredeti" árakon küldi azokat a versenybe, amivel hatalmas ár/érték előnyt tudna felmutatni. -
Alogonomus
őstag
A februárról márciusra tolt megjelenés mögött akár az is lehet, hogy a váratlanul gyenge RTX 50-ek és vártnak megfelelően csábító RX 9070-ek alapján a vásárlói érdeklődés jelentősebb lesz az új Navi48-as kártyák iránt, amire szeretnének felkészülni, hogy egy készlethiány nehogy végül mégis egy RTX 5070/Ti irányába terelje a vásárlókat.
A hírek szerint RTX 5090/80 sokáig csak mutatóban lesz a boltokban, amennyiben pedig a februári teszteken az RTX 5070/Ti tényleg negatív értékeléseket kap, míg a 9070/XT ajánlott plecsniket szerez, akkor valószínűleg március elejéig várnak majd a vásárlók a jobb kártya piaci startjáig, és márciusra lesz már elég kártya a boltokban.
-
Alogonomus
őstag
válasz
Devid_81
#67918
üzenetére
Na az mondjuk tetszene, ha az AMD szoftvermérnökök trollkodásból betennének egy olyan opciót az FSR4 FG beállításba, hogy "NV+1", és fixen a DLSS4-ben beállítottnál eggyel több "hamis" képet tenne be a két "valós" kép közé. Esetleg lehetne az is a neve, hogy "Our's is bigger"
-
Alogonomus
őstag
A jelenlegi pletykák alapján inkább a nagyobb Geforce kártyák esetében merült föl az a forgatókönyv, hogy nem tudtak komoly számú működőképes példányt összerakni és a boltokba kiszállítani az árusítás kezdetéig. Egyes pletykák egyenesen Q2-re csúszó szállításokról beszélnek.
-
Alogonomus
őstag
De te is kifelejted azt, hogy a 300 wattos 6800 XT helyett egy 250 wattos és így kisebb/könnyebb kártya volt a 7800 XT, ami ráadásul az AV1 enkóderen túl kicsit raszterben is erősebb volt, RT teljesítményben pedig a 6900 XT-t is felülmúlta.
"Mezei felhasználó ezért nem rohan váltani, ha már volt egy 6800-asa vagy 6800XT-je.
Azok nem rohantak, viszont akik még Polaris/Pascal/Vega/Turing/RDNA1 kártyával nyomták, azoknak komoly vonzerőt képviselt, ha a 12 GB-os Geforce kártyák helyett valami 16 GB-os kártyát kerestek, de 12 GB-os Geforce kártya árban és teljesítményben. -
Alogonomus
őstag
válasz
Quadgame94
#67817
üzenetére
Nagyon keverni kezdted most az helyzetet. Eleve a 7800 XT és 6800 XT ár-érték viszonyáról volt szó, te pedig most belekevered a 7700 XT és 6800 helyzetét azzal, hogy te mennyiért tudtál 6800-at szerezni, és ahhoz képest mennyibe került boltban a 7700 XT.
"Ezt nem tudom értelmezni."
Első körben a 7900 XT és XTX árát valószínűleg az alapján lőtték be, hogy a 4070 Ti és 4080 hol helyezkedett el hozzájuk képest teljesítményben, és az nem bizonyult jó megoldásnak.
A 7800 XT árát már az annál gyengébb 4070 ára alá lőtték be, az annál sokkal gyengébb 4060 Ti árával egyezően, hogy ahhoz képest csak magasabb legyen majd a piaci ár, amit úgyis a kereslet-kínálat határoz majd meg, de legalább kedvező értékelésekkel indul a kártya útja. És kedvező is volt a kártya fogadtatása.A 9070 XT várhatóan 450-500 dollár közötti ára nagyon komoly alávágást is jelent majd a hasonló teljesítményszintet képviselő 750 dolláros 5070 Ti-hoz képest.
-
Alogonomus
őstag
válasz
Quadgame94
#67811
üzenetére
Az 500-550 dolláros RX6800 XT helyett egy kicsit erősebb, érezhetően takarékosabb, plusz az új generációs képességekkel már felvértezett kártyát lehetett kapni, ami így az 550-600 dolláros árszintre igazodott be.
A 7900 XT és XTX fiaskóból egyértelműen tanultak, azért adták ki 500 dolláron a 7800 XT-t.
-
Alogonomus
őstag
válasz
Quadgame94
#67803
üzenetére
Hát speciel a 7800 XT 500 dolláros ára annyira nem volt "gyalázatos", hogy szinte azonnak 600 dollár közelébe emelkedett, mert annyit is megadtak érte a vásárlók.
Az AMD valószínűleg most is ugyanezt a taktikát fogja követni, és az állítólag 220 dollárból kijövő 9070 XT-t bedobja mondjuk 450 dolláros áron, aztán a piac majd beárazza valahova mondjuk 450 és 650 dollár közé a teljesítménye alapján.
Sima 9070 esetén is az AMD bedobja egy olyan áron, amin már megéri az AMD számára, megvan rajta az elvárt haszon, és majd a piac meghatározza, hogy annál mennyivel többet hajlandóak adni érte a vásárlók. Sokkal vonzóbb a vásárlók szemében az a kártya, aminek ára növekszik, nem csökken.A 7900 XT és 7900 XTX is sokkal jobban indított volna, ha nem 900 és 1000 dolláron indulnak, hanem a jelenlegi 600-650 és a 800-850 dollár környéki árukon, ami még mindig abszolút megfelelő hasznot jelent az AMD számára.
-
Alogonomus
őstag
válasz
S_x96x_S
#67759
üzenetére
A szavak lényegesek lehetnek. Azt írta, hogy does support, nem azt hogy does utilize.
Az simán elképzelhető, hogy a már sok éve fejlesztett RDNA4 architektúra eredetileg PCIe Gen5-öt használt volna, hiszen csak bő egy éve döntött úgy az AMD, hogy elengedi a legfelsőbb kategóriát, és a Navi4x meg Navi41 költségkeretét is a Navi44 és Navi48 csiszolására fordítja. -
Alogonomus
őstag
válasz
S_x96x_S
#67750
üzenetére
A PCIe állítólag 4-es lesz.
Az persze elképzelhető, hogy a chip képesség szempontjából megfelel az 5. generáció igényeinek. Némileg öngól is lenne, ha az optimális működéshez a PCIe 5 kellene, hiszen eleve kevés alaplapon áll rendelkezésre olyan kártya bővítőhely, és egyébként sem a legfelső kategóriára céloz most az AMD, a felsőközép-kategóriás gépek alaplapjain pedig valószínűleg még kevésbé gyakori adottság a PCIe 5 kártyahely, csak legfeljebb az m.2 bővítőhely. -
Alogonomus
őstag
Nem a jelenlegi állapotra utaltam, hanem arra, hogy az AMD kártyapiaci részesedése abban a 2006-2007-es időszakban indult el a lejtőn, amikor az Intel eladásai az Intel Core szériának köszönhetően megtáltosodtak, és minden prebuilt gyártó Intel Core gépeket akart kiadni, amihez viszont feltételként szabta meg az Intel az aktuális Nvidia kártya felhasználását, hogy azzal gyengítse az AMD pénzügyi helyzetét. Az Nvidia az egyezségből következő fix és jelentős keresletre alapozva tudott szintén megtáltosodni, mert a prebuilt gyártóknak még felár mellett is inkább megérte Nvidia kártyát beépíteni, csak ne veszítsék el az Intel processzort a gépükből.
Az Nvidia többek között valószínűleg pont azért is nyitott a CPU-tervezés irányába pont most, mert az Intel bukdácsolásainak következtében egyre inkább kacsintgatnak az AMD felé a prebuilt gyártók – az addig Intelhez kimondottan hűséges DELL megjelenése az AMD bemutatón például kimondottan komoly sajtóvisszhangot generált –, és még azelőtt kellene az AMD CPU-k teljesítményét megközelítenie az Nvidia CPU-nak, mielőtt az AMD végérvényesen elhúzna az Inteltől, vagy az Intel magába roskadna, és így az AMD szintén megjátszhatná azt, hogy amelyik prebuilt gyártó AMD CPU-hoz AMD GPU-t társít a gépeiben, az a prebuilt gyártó kapja kiszámíthatóan az X3D, Threadripper és Epyc szállítmányok jelentős hányadát, így pedig a piacon a termékei versenyképesek maradnak. You scratch my back I scratch yours.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- AMD Navi Radeon™ RX 9xxx sorozat
- Bambu Lab 3D nyomtatók
- Kerékpárosok, bringások ide!
- AMD GPU-k jövője - amit tudni vélünk
- Spórolós topik
- Kormányok / autós szimulátorok topikja
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Háztartási gépek
- Vigneau interaktív lokálblogja
- Milyen routert?
- További aktív témák...
- iKing.Hu - HONOR 400 Lite 5G Velvet Grey Vékony, könnyű, AI-kameragomb 8/256 GB- 2027. 07. 01
- GYÖNYÖRŰ iPhone 11 Pro 256GB Midnight Green -1 ÉV GARANCIA -Kártyafüggetlen, MS3370,94% Akkumulátor
- LG 55G2 - 55" OLED evo - 4K 120Hz 1ms - 1100 Nits - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1
- QNAP TS-870U-RP 8 lemezes Rack NAS
- HIBÁTLAN iPhone 13 Pro 128GB Sierra Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3667 100% Akkumulátor
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: NetGo.hu Kft.
Város: Gödöllő


