-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Alogonomus
őstag
válasz
yarsley #71037 üzenetére
A memória hőmérséklete állítólag pont abban a 70-100 fok közötti tartományban kell legyen ideális esetben. Szóval a cikkben szereplő "temperatures exceeding 85°C under heavy load, nearing the critical threshold for component safety" kijelentés ugyanakkora öncélú hisztériakeltés a 130 fokos tényleges kockázatos értékhez képest, mint a 95 fokos Zen4/5 miatti pánikolás.
-
Alogonomus
őstag
válasz
Yutani #70976 üzenetére
Sokáig én is úgy tudtam, de az április 15-ös debütálásuk kapcsán már GDDR7-et írnak.
Már a TPU is GDDR7-et jósol.Mondjuk logikus is, hogy a Blackwell kártyák azonos memóriaszabványhoz készültek.
-
Alogonomus
őstag
válasz
yarsley #70973 üzenetére
Amennyiben Abu nagyon szűkös – legalább 28 Gbps szintre képes – GDDR7 kapacitással kapcsolatos feltételezése igaz, akkor a bármilyen RTX 50-es kártya legyártható darabszáma nagyon korlátozott lehet csak, és ha már keveset lehet csak gyártani, akkor ami GDDR7-es memória elkészül a Samsungnál, azt is inkább a lényegesen komolyabb hasznot biztosító 5080/5090 kártyákhoz használják fel. Így pedig az 5070-ek és 5060-ak továbbra is nagyon kis számban kerülnek a boltokba, mert még a prebuilt gyártók lekötött rendeléseit is a DIY szektor előtt kell teljesíteniük.
Amennyiben pedig az RX 90-es kártyáknak legfeljebb valamikor az év vége kell megküzdeniük érdemi mennyiségű RTX 50-es kártyával a vásárlók kegyeiért, akkor nyár végéig abszolút egy határozott piaci hiány fenntartása áll a custom gyártók érdekében, hogy az árakat minél magasabban tartsák.
Ráadásul ha 2025 Q3/4 magasságáig sem sikerül az SK Hynix vagy Micron számára a minimális szintet megugraniuk a GDDR7-es moduljaikkal, akkor akár 2026 elején is még szabadon arathatnak érdemi mennyiségű konkurencia hiányában az RX 90-es kártyák gyártói.Amíg az RTX 50-ekből ne készül havi sokszázezer darab, addig az RX 90-ek árai is magasan maradnak, bár nem annyira, mint az RTX 50-ek árai.
-
Alogonomus
őstag
válasz
yarsley #70962 üzenetére
Csak abból kiindulva, hogy az Overclokers eladott csak az indulási napon 5000 kártyát, a bolygót tekintve az a 200 ezres szám durván alulbecsült érték lehet. Főleg azt is beleszámolva, hogy a Trump tarifa miatt elsődlegesen az USA piacára szállítottak minél több kértyát, és ennek is volt köszönhető, hogy a Micro Center boltok ajtajaira kitették a boltonkénti 500+ RX90-es készletekről értesítő papírokat. És a Micro Center csak egy az amerikai kiskereskedelmi bolthálózatok közül.
Az AMD nem akarja segíteni a piaci konkurenciát a pontos számok közlésével, de az garantálhatóan meghaladja a 200 ezres számot. Főleg a mostanáig leszállított kártyákat illetően, ha az első hetes eladások esetleg még nem is haladtál azt meg jelentősen.
-
Alogonomus
őstag
Mivel az AMD deklaráltan a kártyaeladásai jelentős mértékű felfuttatását tűzte ki célul ebben a generációban, így az kizárható forgatókönyv, hogy nem biztosított hozzá elegendő gyártókapacitást. Arra persze valószínűleg az AMD sem számított, hogy egyedül kell majd lényegében a teljes piaci igényt kielégítenie.
Ezzel az új helyzettel viszont valószínűleg csak a tavalyi év legvégén szembesült az AMD, amikor a mindkét (mindhárom) chipgyártóval szerződésben levő AIB partnerektől érkezhettek a szivárgások arról, hogy az Nvidia december legvégéig nem szállított a B200-akban hibákat produkáló GB100 kijavítását követően GB200 elnevezésre váltó Blackwell 2.0 chipekből.
Az AMD még ha január végén a katasztrofális Nvidia rajtot látva azonnal át is csoportosított a befoglalt 4 nm-es TSMC waferek közül sokat a Radeon kártyák chipjeinek gyártására, akkor is van egy hosszabb átfutási idő, amire a TSMC gyárából kikerült chip a bolt polcán kártyaként visszaköszön. -
Alogonomus
őstag
Még egy 4090 "future proof"-sága is nagyban függ attól, hogy az Nvidia a hosszabb távú terveiben valójában mennyire gondolja komolyan a PC gaming szektor elengedését. Amennyiben már nem fogja jelentősen támogatni a játékstúdiókat az Nvidia, miközben a konzolokban AMD hardverek vannak, és a gaming PC-k is az AMD processzorok mellett egyre gyakrabban AMD kártyákat is fognak tartalmazni, akkor a játékmotorok is egyre inkább az AMD hardverek erősségeihez lesznek igazítva, és 2-3 éven belül a PS6 megjelenésekor a 4090 valóban ugyanúgy egy középkategóriás 70-es UDNA-s AMD kártyával lesz egy szinten, ahogy a 2080 Ti is már egy 7700 XT vagy 4060 Ti szint, pedig a mostanában megjelenő játékok túlnyomó többségének a fejlesztésére állítólag még jelentős összegeket áldozott az Nvidia.
Ami ma csúcs, az holnap még jó, holnapután pedig már csak átlagos. A 3090 Ti is már csak körülbelül 4070 Ti szintet jelent. -
Alogonomus
őstag
válasz
Quadgame94 #70836 üzenetére
A PC gaming a magas szinten mindig megmarad, mert egy konzol nem fog 400 wattot fogyasztani, mert akkor már túl nagy és túl hangos lenne. Egy gamer PC viszont tartalmaz 600+ wattnyi hardverelemet, amik hiába nem annyira összehangoltan működnek, akkor is bőven erősebb opciót jelent a gamer PC, mint egy konzol.
Ráadásul még ha egy konzol a kiadásakor közel is lenne játékélményben egy akkori gamer PC-hez, a konzol 5+ éves termékciklusa alatt a gamer PC-k ugyanúgy elhúznának tőle, ahogy az az eddigi összes konzolgeneráció során is történt.A PC gaming jövőjét valóban fenyegető veszélyt a felhőalapú játékszolgáltatások jelenthetnék, mert az azok mögött álló szervereket tudják folyamatosan fejleszteni a legújabb generációs képességekkel, és mivel folyamatosan használja valamilyen személy valamilyen játék futtatására a szerverek hardvereit így a hardverek folyamatosan termelik vissza a költséget a szolgáltatónak, vagyis a játékosok egy otthoni gép beszerzési költségénél sokkal olcsóbban tudnak játszani, mert nem napi mondjuk 4 órában hoz hasznot egy hardver, hanem napi 24 órában.
Az egyetlen igazi gond a felhőalapú játékszolgáltatásokkal a ping magas értéke, ami miatt lényegében ideális esetben is csak egy 60 fps szintű játékélményt tudnak jelenleg nyújtani az ilyen szolgáltatások. Amíg nem sikerül stabilan 5 ms környékére csökkenteni a ping értékét ezeknél a szolgáltatásoknál, addig viszont csak a gyors reakciót sehol sem igénylő játékokhoz lesz jó választás a felhőben játszás. -
Alogonomus
őstag
válasz
deathcrow42 #70611 üzenetére
A vásárlók azt köszönik meg, hogy a 900-1200 dolláros 5070 Ti helyett jobb teljesítményt kapnak 650-750 dollárért, vagy a 800-1000 dolláros 5070 teljesítményét 600 dollár körül megkapják. És kiemelt hangsúly van a megkapják-on , mert a zöld kártyákból még azokon az emelt árakon sincs általában készlet.
-
Alogonomus
őstag
válasz
deathcrow42 #70601 üzenetére
AMD köszönettel elfogadja, ha első napon el is kapkodnak többször annyi RDNA4 kártyát, mint amennyi Blackwell kártya összesen elkelt a teljes utóbbi 2 hónap alatt.
-
Alogonomus
őstag
válasz
sz.mich #70583 üzenetére
A kérdés megválaszolásához nagyon fontos azt eldöntened, hogy előreláthatólag az RT/PT mennyire lesz fontos a játékválasztásaidnál. Vonz az RT, vagy inkább csak erőforrás-pazarlásként gondolsz rá? Látványt tartod többre, vagy a képkockasebességet? Valamint az is fontos kérdés, hogy a jövőben valószínűleg egyre inkább az UE5 felé fordulnak a stúdiók, és az UE5 szoftveres-hardveres hibrid RT megoldása látszólag jobban fekszik a 7900 XTX-nek. A 9070 XT igazából csak a Geforce kártyák adottságaihoz igazított játékokban jelent komoly előnyt a 7900 XTX-hez képest, de az olyan játékok száma messze elmarad a gyártópreferencia nélküli játékok számától.
Leginkább abban nyújt(hat) többet a 9070 XT a 7900 XTX-hez képest, hogy az FSR4 felskálázás minden valószínűség szerint lényegesen hatékonyabban fog működni az újabb kártyán.
Leginkább az dönthet a két kártya között, hogy egyik szempontból a 7900 XTX idővel kifogy a boltokból, valamint ha a 9070 XT lényegesen olcsóbb, akkor az olcsóbb kártyát célszerű választani. -
Alogonomus
őstag
válasz
deathcrow42 #70397 üzenetére
Ahogy most kinéz a készlet a különböző RTX 50 kártyákból, a 9070 msrp áron egyáltalán nem lesz DOA, mert 550 dollárért raszterben a 7900GRE +20% az egy 7900XT, RT-ben pedig a 7900GRE+20% az egy "16 GB-os" 4070Super. Az a teljesítményszint a jelenlegi piacon 650-700 dollárért érhető el, amihez képest az 550 dollár jó ár.
Amennyiben az Nvidia a "titkos fiók-raktárából" nem tud ezzel a héttel kezdődően stabilan heti százezres nagyságrendben sima 5070-eket a boltokba küldeni, akkor a sima 9070 valódi konkurencia nélkül mindent visz majd.
A hírek ráadásul arról szólnak, hogy az 5070FE-ből is éppen csak a tesztelőknek elég mennyiség készült el, és leghamarabb majd március végén érkezhet először talán megvásárolható sima 5070FE. Több országból olyan hírek is érkeztek, hogy egyáltalán nem kaptak a nagykereskedők egyetlen darab akármilyen sima 5070-est sem.
-
Alogonomus
őstag
Hát a 9070 XT fogyasztása nem tűnt annyira kedvezőnek a HUB grafikonján... A 304 watt látszólag kicsit "meghízott".
Persze az mellékes kérdés lesz, ha cserébe kiemelkedő ár-értéket és körülbelül 4080-as szintet hoz 600-700 dollárért. -
-
Alogonomus
őstag
válasz
Callisto #70264 üzenetére
Igazából a beépített CPU-k darabszámában még valószínűleg bőven az Intel vezet, mert konténerszámra ontja magából a prebuilt gyártók felé az egyszerű irodai és otthoni gépekbe még elég Celeron és Pentium termékeket maximum 1 P-maggal és 4 E-maggal. Szóval számszerűleg az Intel valószínűleg több CPU-t ad el, mint az AMD, de azoknak a nagy része az abszolút belépőszintű kategóriába tartozik, mint például az Intel 300. Otthoni netezős gépnek, vagy titkárnőnek "passziánszozásra" nem is kell több, de annál többre nem is alkalmasak azok a gépek. Cserébe olcsóak, de az Intelnek sincs érdemi haszna rajtuk, hiszen a prebuilt gyártó is hasznot szeretne még látni a gépeken.
-
Alogonomus
őstag
A JPR elmezések "szakmai mélységéről" egyébként is jó képet kaphattunk, amikor kiderült, hogy az Intel Arc GPU-k market share értékét úgy számolták ki, hogy az Intel pénzügyi jelentésében szereplő GPU bevételt leosztották a "sarki pc-bolt" Arc kártyáinak az árával.
Az is csak azért bukott ki, mert az Intel valamiért az aktuális HPC gyorsítóiból származó bevételeket is a GPU bevételek közé számolta, és azzal látszólag kiugró eredményt értek el, ami már mindenkinek feltűnt, és kutatni kezdtek az okok után. -
Alogonomus
őstag
válasz
deathcrow42 #69901 üzenetére
Köszönöm. Ez így tényleg nem rossz konfiguráció. Mondjuk a ROG STRIX elnevezést kicsit félrevezetően használják, de hát ez van.
-
Alogonomus
őstag
Az elnevezés alapján ROG Strix, szóval annyira remélhetőleg nem bóvli alkatrészeket tartalmaz, de azért jó lenne tisztán látni az ügyben, mert úgy lehetne érdemben összehasonlítani.
Itt-ott spórolással simán lehet a 850 ezerből akár 200 ezret is megspórolni valami 2666 CL22 memóriával, meg "vargáné és társa" táppal, meg olcsó laposacél gépházzal, meg sata2-es SSD-vel, és így tovább. -
Alogonomus
őstag
válasz
deathcrow42 #69890 üzenetére
Célszerű lett volna linkelned a helyet, ahol ez elérhető, mert ASUS oldalán rákeresve speciel nem találtam ROG Strix 5070 Ti prebuilt rendszert, pedig érdekes lett volna, hogy az a DDR4-es RAM például milyen képességű, az SSD vajon NVMe vagy SATA, CPU hűtő milyen, ház milyen, oprendszer jár-e hozzá, stb. Hahakocka példájából mindez kiderült.
-
Alogonomus
őstag
válasz
deathcrow42 #69860 üzenetére
Illetve:
Február 28
AMD beadja a derekát, és hivatalosan 550 dollár lesz a 9070 XT, hiszen úgysem a hivatalos ár számítMárcius 5/6
A tesztek nagyon pozitív kicsengésűek lesznek az 550 dolláros és 5070 Ti-t túlteljesítő 9070 XT kapcsánMájus végétől
Első verzió:
A boltokban 700 dollártól kínált 9070 XT intenzíven fogy, mert a 10 millió lakosonként érkező heti 30 darab 5070 Ti ára viszont változatlanul 1200 dollár környékétől indul. A 9070 XT árával a vásárlók nagyjából már megbarátkoztak, miközben kígyót-békát kiáltanak az 5070 Ti profitéhes 1200 dolláros árazása miatt. Az Nvidia valami oknál fogva továbbra sem tud jelentősebb mennyiségű GB203 és GB205 GPU-t gyártani. Idővel Jensen megunja az Nvidia renoméját erodáló 5070/5060 kapcsán megjelenő negatív híreket, és inkább visszavonul a konkurencia nélküli enthusiast piaci szegmensen belülre az 5080/5090 gyártásban hagyásával. Ennek következtében pedig a 9070 XT az 1700 dollártól induló 5080 szintje alatt már ellenfél nélkül szerepelhet, amit nyilván további áremelkedését okozza a boltokban.
Második verzió:
Eddigre előkerülnek az árak felhajtása érdekében korábban rejtegetett 5080/5070/5060 modellek, és beáll egy normális piaci helyzet, ahol 30%-os ár/érték előnnyel már szépen fogynak a 9070/9060 kártyák. -
Alogonomus
őstag
"Ha az AMD magasabb árat ad meg, akkor ugyanúgy végük van, hiába bénázik az NVIDIA."
Csak jelenleg úgy áll a helyzet, hogy a papíron 1000 dolláros 5080 1700 dollárért kapható, a papíron 750 dolláros 5070 Ti pedig 1200 dollárért. Sőt még a kamuként belistázott "msrp" modellek is az msrp árnál lényegesen drágábban vannak belistázva.
A hivatalos árral kapcsolatban én is régóta azt mondom, amit a GamersNexus és a Hardware Unboxed is, hogy a release review-k kapcsán hatalmas lehetőséget bukik el az AMD azzal, hogy a bevezetéskori valós bolti árat adja meg msrp árként, nem 20-40-70 százalékkal alacsonyabb árat, mint ahogy azt az Nvidia csinálja sok generáció óta. Az egyszeri érdeklődő sok hónap múlva amikor megnézi a teszteket, akkor a Geforce kártyáknál egy túlértékelt eredményt lát, míg a Radeon kártyáknál egy alulértékelt eredményt lát, ezért a Geforce kártyát választja, amit aztán a boltban már 20-40-70 százalékkal drágábabn is megvesz, mert már nem akarja újra bújni a teszteket.
-
Alogonomus
őstag
válasz
ggbuffon1897 #69817 üzenetére
A hiányzó ropos kártyákat is majd akkor tudják cserélni, ha érkezik új szállítmány, amivel remélhetőleg már nem hibás termékek érkeznek.
Generációs teljesítményugrásnak pedig az 5090 25-30 százaléka sem valami nagy szám 40 százalékkal magasabb fogyasztásból. Az 5080 és 5070 Ti 10-11 százaléka pedig lehangoló, bár legalább némileg takarékosabb is lettek. Az már csak extra, hogy RT-ben/PT-ben több játékban még fejlődést sem hozott a két kisebb kártya.
Ezekben bénáztak/bénáznak.Előzetesen mindenki 50+ százalékos ugrást várt az 5090-től, és a kisebb kártyáktól is 30+ százalék javulást. Az RDNA4 eredeti árazását ezekhez lőhette be az AMD, de azóta alaposan újra kellett gondolniuk az árakat.
-
Alogonomus
őstag
Az 5080-ra kerülnek az asztali Blackwell generáció legmagasabb minőségű memória chipjei. A többi kártyára "csak" 28 Gbps memóriák kerülnek, míg az 5080 30 Gbps memóriákat igényel. Az állítólagos 290 dolláros különbség kialakulásában valószínűleg komoly szerepet játszik a magasabb minőséget képviselő 30 Gbps GDDR7 modulok magasabb bekerülési ára.
-
Alogonomus
őstag
válasz
deathcrow42 #69721 üzenetére
Abba a 200 dollárnyi különbségbe valószínűleg beleszámítódott a GDDR7 használatához szükséges egyéb extra áramköri elem is, meg a magasabb adatsebesség stabil kiszolgálásához valószínűleg szükséges komplexebb PCB.
-
Alogonomus
őstag
válasz
Devid_81 #69715 üzenetére
Hát a 9070 XT értékei is inkább a 7900 XT-hez közeli értékek, a pixel fillrate pedig gyanúsan nagyon alacsony. Az 5070 Ti értékeihez képest viszont szép értékek.
A 7900 XTX esetleg az erős AI képességek bevetésével lehet a tuningoltabb 350+ wattos modellek számára ellenfél. Komoly szintű sugárkövetés esetén persze várhatóan nem az RDNA3, hanem a Lovelace/Blackwell lesz a leküzdendő cél. -
Alogonomus
őstag
válasz
deathcrow42 #69654 üzenetére
Csak szólok, hogy az Nvidia is ezt csinálja, amitől a legutóbbi generációban is az 1600 dolláron bejelentett 4090 végül 2500 dollárért volt kapható a boltokban, vagy a hivatalosan 1000 (1200) dolláros 4080 boltban már 1500 dollár volt, és így tovább a létrán lefelé.
Pert persze bárki indíthat, de mivel az msrp-ben az "s" csak "suggested", ezért jogilag nem jelent kötöttséget. Egyedül talán akkor lehetne némi eséllyel perelni, ha a gyártók felé már a BOM-kitet is az msrp értékét meghaladó áron árusítaná az AMD.
-
Alogonomus
őstag
válasz
Devid_81 #69648 üzenetére
Azt valóban megteheti az AMD, hogy faarccal bejelenti az egyébként is nagyon sokáig keringő 499 dolláros árat a 9070 XT-re, meg 399 dolláros árat a sima 9070-re, ahogy az Nvidia is teszi minden esetben, így az első napos értékelések nagyon kedvezőek lesznek, aztán pedig az AMD nyugodtan moshatja a kezét, ha a "pénzéhes" boltok mondjuk 650 dollárért adják majd a 9070 XT-t, meg 550 dollárért a sima 9070-et. Az AMD a gyártóknak úgyis annyiért adhatja majd el a BOM-kitet, amennyiért megveszik azok, szóval az AMD nem jár azzal érdemileg rosszabbul, ha a várható bolti árnál lényegesen alacsonyabb árat közöl msrp árként.
-
Alogonomus
őstag
válasz
deathcrow42 #69645 üzenetére
Nem az 5070 Ti ára a fő gond, hanem a jelenleg és jövőben elérhető mennyiség. Hiába száll le akár 750 dollárra egy 5070 Ti ára, ha a 100 egységnyi 9070 XT készlettel szemben 3 egységnyi 5070 Ti készlet lesz, de azokon felül már a 9070 XT marad csak a polcokon, és jobb híján a Geforce kártyáért betérő is csak azt tud majd venni.
Az 1500 dolláros 4080-at is megvették a 900 dolláros 7900 XTX helyett, mert volt a boltokban a Geforce kártya. A 900 dolláros 5070 Ti is jól fogyhatna, ha lenne készlet, de nincs, így nincs mit megvenniük a Geforce kártyát keresőknek.
-
Alogonomus
őstag
válasz
Devid_81 #69641 üzenetére
A "drága" jelző eléggé relatív, mert a 900 dolláros 5070 Ti mellett egy mondjuk 650 dolláros 9070 XT nem számítana majd drágának. Főleg akkor nem, ha a 7900 XT – 5070 Ti – 4080(S) – 7900 XTX teljesítménykategóriában a 9070 XT lenne még 650 dollárért is a legolcsóbb, de minden valószínűség szerint messze nem a leggyengébb opció.
Így pedig aki az új generáció 70-es, felsőközép-kategóriájában gondolkozik, annak új kártyaként a 9070 XT lenne a racionális opció, hacsak nem jelennek meg a piacon egy hónapon belül milliós nagyságrendben 5070 Ti modellek, amik már valóban 750 dollár körüli áron és nagy számban elérhetőek is lennének.
-
Alogonomus
őstag
Hát ez így már eléggé kétélű fegyverré vált a HUB számára, mert ha egy centtel is 550 dollár fölött lesz a 9070 XT adók nélküli bolti ára, és mégis komoly eladásokat ér el, akkor akár évekre ugyanolyan gúnyszöveg alapját adhatja ez az eset, mint a szintén esetükben, de ellenkező előjellel megszületett "editorial direction" ügy. Hogy ne említsem az Apple "rosszul tartja" ügyét.
Pedig ha az 5070 Ti vagy a 900 dolláron maradó ára, vagy a továbbra is országonként havonta 15-25 kártyás mennyisége miatt nem tud majd komoly konkurenciát állítani a 9070 XT-vel szemben, akkor 550 dollárnál biztosan drágábban fog a boltokban elkelni a 9070 XT. Akkor pedig a HUB folyamatos gúnyolódások céltáblája lesz. -
Alogonomus
őstag
válasz
Quadgame94 #69567 üzenetére
A jelek szerint 7800 XT-ből még van jelentősebb készlet, ahogy 7900 XT és XTX is van még bőven a raktárakban.
Amennyiben pedig igazak a hírek a 9070-ek teljesítményéről és az 550/650 árazás is nagyjából helyes, akkor a megmaradt 7800 XT-k $400 körüli, valamint 7900 XT $500 körüli áron lenne csak eladható, míg a 7900 XTX legfeljebb a lényegesen bővebb memóriakapacitása miatt maradhat $600 fölött.
Ezek alapján az "akciózott" 7800 XT lehet a 7600 XT váltója az idei gépekben, a 7900 XT és XTX pedig a 7800 XT és 7900 GRE váltója lehet változatlan áron. -
Alogonomus
őstag
válasz
deathcrow42 #69488 üzenetére
Hát az, hogy látszólag még a hibás GPU-kat is gyártásba küldte az Nvidia, plusz hogy a tesztelőknek kiküldés határideje előtt pár nappal a CES-en még csak dummy cardok formájában voltak az RTX 50-es kártyák, egyre nehezebben hihetővé teszi azt a forgatókönyvet, hogy az Nvidia kivárásra játszva az RX 90-es kártyák érkezésére időzítve sokszor százezres nagyságrendű Blackwell kártyával fogja a piacot elönteni a szerződött partnerein keresztül...
-
Alogonomus
őstag
válasz
huskydog17 #69405 üzenetére
Külön írták a videocards cikkben, hogy az árral ne is törődjünk, az folyton változik. Plusz ezek tényleg olyan tuningváltozatok, mint egy Strix, Nitro+, Red Devil, Aorus, Suprim, vagy a régi FTW-k.
Annak viszont nem örülök, hogy az XFX is beadta a derekát, és a korábbi letisztult Merc design helyett ilyen rgb kavalkád lesz az ő kártyájukon is. -
Alogonomus
őstag
Mivel a leakerek eléggé egybehangzóan 500 dollár fölé, de bőven az 5070 Ti 750 dolláros ára alá jósolják a 9070 XT árát, valamint szintén nagyon egybehangzóan a 7900 XT és 7900 XTX közé jósolják a teljesítményét, így a megállapításod legfeljebb úgy lenne helyes, hogy: "Kivéve, ha egyhuzamban másodszor tévedne hatalmasat szinte minden leaker az AMD érkező kártyagenerációjával kapcsolatban."
-
Alogonomus
őstag
válasz
Busterftw #68743 üzenetére
Az 5090 esetén jogos a megállapításod, mert az egy külön teljesítménykategóriát jelent. Az 5080 viszont annyira kis fejlődést hozott az előző generációhoz képest, hogy egy az egybehangzó pletykák alapján 4080 teljesítményét 600 dollárból kínáló 9070 XT mellett már az 1000 dollártól kapható 5080 nem igazán lesz vonzó opció, hát még az azóta 1200 dollárra emelt árával.
-
Alogonomus
őstag
válasz
deathcrow42 #68703 üzenetére
Ezeknél sokkal fontosabb kérdés, hogy mekkora mennyiségben kerül a boltokba majd az 5070 Ti a következő hónapok során. Az 5070 Ti ugyanúgy GB203-as GPU-t használ, és ugyanúgy GDDR7-et, mint a folyamatosan hiánycikk 5080.
Ha az 5070 Ti is országonként csak pár száz példányban lesz elérhető, akkor a 9070 XT márciusban valós konkurencia hiányában automatikusan sikeres lesz, ha lesz belőle elég a szivárgások alapján maximum 4070 áron, de legalább 4070 Ti teljesítménnyel és persze 16 GB memóriával.
Az alapján, hogy állítólag a januári CES-en bemutatott custom kártyák egyikében sem volt még működőképes (vagy bármilyen) Blackwell GPU, miközben az AMD élőben demózta a 9070-es kártyák működését, egyre valószínűbbnek tűnik az a forgatókönyv, hogy a tavaly ősszel kiderült Blackwell tervezési hiba talán nem csak a GB100-at érintette, hanem a legyártott asztali Blackwell chipeket is a darálóba küldte, és persze először a már megrendelt és kifizetett B200-ak GB100-as chipjeinek az újragyártása történik, aztán következhet érdemi mennyiségben a GB202, GB203 és majd egyszer a GB205 is. És ezért nem volt chip a CES-es kártyákban, valamint ezért nincs a CES után egy hónappal sem érdemi mennyiségű 5090 és 5080 a boltokban.
-
Alogonomus
őstag
válasz
S_x96x_S #68550 üzenetére
"az ilyen boltok akkor tönkre fognak menni."
Inkább akkor megy tönkre egy bolt, ha a 300 ezres 7900 XT-k vagy örökre a raktárában ragadnak, vagy a veszteség mérséklése érdekében a márciusi RDNA4 rajthoz igazítva 300 ezer helyett még gyorsan eladja mondjuk 200 ezerért, mert a 9070 XT-k mondjuk 220-250 ezerért erősebb kártyák lesznek.
Nem zárható ki az sem, hogy a 9070-ek halasztott kiadása mögött az is ott van, hogy lehetőséget ad az AMD a boltoknak, hogy még az új generáció érkezése előtt adják el amit tudnak némi akciózáson keresztül. Viszont ott is az a kérdés, hogy ki állja az akciózás költségét? A boltnak veszteséget okoz, ha a 7900 XT-ket a könyvelésben szereplő értékénél olcsóbban kell eladniuk.Ha ár/érték arány alapján vásárolnának az emberek, akkor az Nvidia és Intel kártyák labdába sem rúghattak volna, vagy maximum a 4090, plusz esetleg az RT-t nézve a 4070 Ti fölötti kártyák. Akinek viszont a "barátja" azt mondja, hogy Nvidia kártyát vegyen, az Nvidia kártyát is vesz, kerül amibe kerül.
-
Alogonomus
őstag
válasz
Woodcutt3R #68544 üzenetére
Az akár a Radeon sorozat bukását is okozhatná, ha a 9070 XT nem hozná a 7900 XT teljesítményszintjét a 7900 XT fogyasztása mellett. Tehát azt valószínűleg ki lehet jelenteni, hogy bármennyi is lesz a 9070 XT hivatalos msrp ára, amennyibe az adott boltban a 7900 XT kerül éppen, annál nem fogja olcsóbban adni a bolt a 9070 XT-t, hiszen egyébként minden 7900 XT a bolt nyakán maradna.
Pesszimista jóslatok is valahova a 7900 XT és 4080 közé várják a 9070 XT-t, míg optimistább jóslatok valahova a 4080 és 7900 XTX közé. Szóval 7900 XT-nél olcsóbb 9070 XT-re nem érdemes szerintem számítani, mert a boltok az első időszakban úgyis legalább a 7900 XT szintjéig felhúzzák majd az új kártya árát. -
Alogonomus
őstag
válasz
Yutani #68514 üzenetére
Na azért kettőt ne ugorj a létrán, mert a sima 7500 párja a 6600 lehetett volna. és a 7600 XT a 6700 XT párja lehetett volna az összehasonlításban, nem a 6800. De igen, az előző generációban általában az AMD "eggyel magasabbra számozott" kártyái voltak versenyben az Nvidia kártyáival. Persze ár/érték tekintetében sokkal jobb ajánlatot képviseltek a 7000-es kártyák, és az számít, nem a modellszámozás.
Az XTX pedig ott volt enthusiast kártyának, csak kivételes esetektől eltekintve nem a legerősebbként. -
Alogonomus
őstag
válasz
ReSeTer #68503 üzenetére
"Ha RT-t nézzük nem ellenfél.
... Miért venne 7700xt-t ha a játékok elkezdik használni az RT-t most már."Az RT-helyzet valójában úgy áll, hogy amelyik játékban az RT csak kevés plusz terhelést okoz, mint például a Far Cry 6, vagy Resident Evil 4, vagy az újabb Lumen-es UE5 címek, azokban a 7700 XT már jelenleg is ott van a 4060 Ti szintjén, egyes játékokban előtte is. Elborult PT-s címekben pedig bár van érdemi különbség a két kártya teljesítménye között, de valójában a mondjuk 16 fps a 4060 Ti esetén sem jobb, mint a 10 fps a 7700 XT esetén.
Nézd nyugodtan végig az eredményeket, komoly különbség nincs a két kártya eredményei között. -
Alogonomus
őstag
-
Alogonomus
őstag
A GTA VI szinte biztosan rendelkezni fog dinamic resolution és PSSR vagy hasonló felskálázási lehetőséggel, mert 2025 végén a 30 fps az egész játékot eláshatná. Hasonlóan ahhoz, ami a Cyberpunk esetén történt 2020 végén a PS4-es gyenge teljesítménye következtében.
Amelyik játékban vezetni és lőni is kell, abban a 30 fps kínszenvedés. Lassú ütemű játékban nem akkora gond a 30 fps. -
Alogonomus
őstag
válasz
Quadgame94 #68401 üzenetére
Az adózás előtti profitról írtam, hogy azt inkább szeretik elhasználni bármire, csak ne az állam feneketlen kondérjába kelljen befizetniük.
-
Alogonomus
őstag
válasz
S_x96x_S #68397 üzenetére
Azért az is hozzátartozik a 7,7-ből megmaradó 0,5 sztorijához, hogy egyik cég sem szeret komoly mértékű profitot kimutatni, mert annak jelentős részét aztán fizetheti is be adóként. Inkább – legalább könyvelés szerint – elkölti bármire, mint hogy az államkasszát gyarapítsa vele.
-
Alogonomus
őstag
válasz
Kajoszbobber #68371 üzenetére
Hát a CES keynote kimaradt RX 9000-es bemutatójának pótlásaként elvileg különálló RDNA4 és különálló FSR4 bemutatót és fejtágítást ígért az AMD.
-
Alogonomus
őstag
válasz
parandroid #68355 üzenetére
Akik 100 ezer környékén keresnek kártyát, azok valószínűleg egyébként is jobban járnának egy már használt de jó állapotú 4060 Ti, 3060 Ti, 6750 XT, 3070 Ti, 2080 Ti, vagy egyéb hasonló teljesítményű kártyával. Már egy használt 6800 is egészen olcsó a teljesítményéhez képest.
-
Alogonomus
őstag
válasz
Kajoszbobber #68349 üzenetére
Mást jelent a 80-100 ezres különbség 300 ezres ár alatt, és mást jelent 400 ezres ár fölött.
Az 5070-ek és a 9070-ek is az árérzékenyebb középkategóriát célozzák be. -
Alogonomus
őstag
válasz
parandroid #68341 üzenetére
Ha 800 euróért terveznék kiadni a 9070 XT-t, akkor már kaidták volna, ahhoz nem kellene márciusig további kártyákat leszállítva jelentős raktárkészletet felhalmozni. A boltokban a fotók alapján már január közepe óta ott van a több polcnyi 9070 XT.
A nagyjából 220 dollárért gyártható 9070 XT mondjuk 500-550 dolláros msrp esetén custom kártyaként is elérhető lenne mondjuk 600 dollárért, és úgy is jelentős hasznot termelne a 750 dolláros 5070 Ti teljesítményét kínálva. Főleg úgy, hogy az 5070 Ti 750 dolláros msrp árból következően legalább 800-850 lenne a custom kártyák árcéduláján.
-
Alogonomus
őstag
válasz
Busterftw #68259 üzenetére
Akkor nem értetted meg a hozzászólás lényegét. A 600 dolláros 12 GB-os kártya és az 1000 dolláros 24 GB-os kártya összehasonlításáról szólt.
Egyébként bár 1440p-ban még tartja magát a 12 GB Nvidia, de nézd meg 4K-ban az eredményeket, és meglátod a 16 GB értékét. Egy ideig segít a textúra "butítása", a "texture swapping", meg egyéb "mágiák", de 4K-ban már kiütközik az elégtelen memória következménye.
Ráadásul az Nvidia egyre inkább a framegen fokozásában látja a teljesítményproblémákból kivezető utat, viszont a framegen maga is további memóriahasználattal jár. -
Alogonomus
őstag
A gondolatmenetedet továbbvezetve, a 600 dolláros Nvidiás kártya és 1000 dolláros konkurens kártya azonosnak érzékelhető RT teljesítménye addig valósul meg, amíg az adott szoftver fejlesztője kiemelt figyelmet fordított arra, hogy az alkalmazott grafikai megoldások memóriaigénye a 600 dolláros Nvidiás kártyának nehogy problémát okozzanak. A Silent Hill például jó példa az "elég memóriás" helyzetre. Az új Spider-Man esetén már látszik némi probléma. Az Avatar már határozottabban jelzi a problémát, míg a Star Wars Outlaws kapcsán már egyértelműen látszik a kevés memória hatása.
Az idő előrehaladtával pedig csak még egyre nehezebb lesz, egyre több kompromisszumot igényel majd egy program memóriaigényét a 12 GB-os határ alá szorítani, így egyre kevesebb játékban érhet majd el a 600 dolláros kártya olyan teljesítményt, mint az 1000 dolláros kártya, vagy akár egy újabb mondjuk 500 dolláros kártya, amin viszont van 16 GB memória. -
Alogonomus
őstag
válasz
hahakocka #68246 üzenetére
Nagyon fontos szempont, hogy milyen árszintre érkezik egy adott kártya. A felskálázás óta technikailag a legtöbb új kártya használható 4K kártyaként, miközben nem 4K kártyának szánták.
A 12 és 16 GB, de még a 8 GB sem önmagában jelent problémát, hanem az adott kártya árának a fényében. Ha egy kártyát az ára és/vagy teljesítménye egyébként is belépő szintre predesztinálja, akkor a 8 GB elfogadható lehet mondjuk 250 dollárért. A problémát az jelenti, amikor a 800 dolláros kártya is csak 12 GB-ot kap, vagy az 1200 dolláros kártya 16 GB-ot, mert egy 800 dolláros kártyával jogos elvárás legalább az élvezhető 1440p, ahogy az 1200 dolláros kártyával is a tisztességes 4K.
Az AMD 'csak' 16 GB-ja az előzetes tippek alapján nagyjából 400-450 és 500-600 dollárért érkező kártyákon nem lesz kevés, hiszen az áruk alapján az alsóközép- és felsőközép-kategóriába érkeznek majd. Az pedig szerencse, hogy az új Geforce kártyák nagyon gyenge előrelépést produkáltak, ezért a teljesítménykategóriák érdemben nem tolódtak el az előző generációhoz képest, így míg a korábbi 800 dolláros kártyán a 12 GB kevésnek számított, addig ugyanaz a 12 GB egy már mondjuk 450 dolláros kártyán elfogadható mennyiség, a 16 GB pedig bőven kielégítő. Ugyanígy a 16 GB az előző generáció 1200 dolláros kártyáján kevés volt, de az előző generáció és jelenlegi generáció 600 dolláros kártyáján rendben levő kapacitás. -
Alogonomus
őstag
válasz
hahakocka #68244 üzenetére
Nagyon kellemetlen volt szembenézniük a Geforce kártyát választóknak azzal a ténnyel, hogy a középkategóriás 8 GB-os és felsőkategóriás 10-12 GB-os kártyáik "ekézése" igazolást nyert.
A 8 GB elégtelensége nagyjából 2022 végén, a 12 GB szűkössége pedig legkésőbb 2024 vége felé vált nyilvánvalóvá. A 8 GB főleg a 400-450 ezerért vett 3070-esek tulajdonosai esetén volt keserű pirula, a 12 GB pedig lényegében a 4070 Ti Super szintjénél kisebb zöldkártyások esetén, miközben a kártyájuk számítási teljesítménye alapján még jó lett volna a kártyájuk, de a kevés memória miatt vagy szaggatott náluk a játék, vagy alacsony minőségű elmosódott textúrákkal kényszerültek játszani. -
Alogonomus
őstag
Az Nvidia Image Scaling első bevetését illetően tényleg igazad van, mert az Nvidia tényleg előbb tette be a lehetőséget a driverébe, mint hogy az AMD betette volna a saját beígért képességét. A gyors reagálás attól viszont még nem volt sikeres az Nvidia oldalán, hiszen látványosan gyengébb képminőséget produkált a NIS, bár tényleg hamarabb vált elérhetővé.
Mint a viccben:
– Mennyi 2x2?
– 5!
– Nem jó a válasz!
– De legalább gyors voltam! -
Alogonomus
őstag
Hát az RSR vs. NIS esetében ez a gyors reagálás nem igazán sikerült, pedig igazán próbálkozott az Nvidia.
-
Alogonomus
őstag
válasz
A.Winston #68199 üzenetére
A PTX, mint használt programozási nyelv bizonyított, de hogy milyen "vason" fejlesztették és futtatták, az csak spekuláció és szóbeszéd szintjén kering a neten. Egyes szóbeszéd szerint jelenleg például a Huawei Ascend "vasán" fut a DeepSeek.
Lényeg a lényeg, ezek szerint nem kizárólag Nvidia "vas" nyújthat optimális teljesítményt az AI szektor számára. -
Alogonomus
őstag
válasz
S_x96x_S #68194 üzenetére
Vajon eddig tartott az AI CUDAsikeres időszaka, és ahogy az USA korlátozásainak hatására alternatív megoldást kerestek, a CUDA utáni időszakban az AMD kártyái is elkezdenek majd "élni"?
Mindenesetre érdekes fejlemény, és így kezd az is érthetővé válni, hogy hogyan tudhatták megvalósítani a DeepSeek működtetését a visszatartott Nvidia eszközök helyett alternatív eszközökkel. -
Alogonomus
őstag
válasz
Devid_81 #68108 üzenetére
Inkább csak az RDNA3 órajelét tervezték magasabbra, de végül valamiért nagyjából 3 GHz magasságában éles játékok esetén már hibákat kezdett produkálni a chiplet valamelyik része, és ezért visszavették az alapértelmezett frekvenciát a még biztonságos határig. Nem concept art volt szerintem a 7900 XTX fölé szánt változat, hanem egy laza szándék, hogy a hírekben általában 7950 XTX néven szereplő változat majd a golden sample Navi 31-eket használja még magasabb frekvencián, meg talán GDDR6-ból is valami golden sample került volna rá.
Végül a golden sample Navi 31-ek is a normál 7900 XTX-ekbe kerültek felhasználásra, és akik szerencsések, azokhoz olyan kártya került, ami elmegy 400 watton 3,3-3,5 GHz-ig a szintetikus tesztekben, míg "atombiztos" 2,8-2,9 GHz esetén 320-350 wattal megelégednek, amivel még úgy is ott vannak 10-15 %-kal a 4090 alatt, és 5-10%-kal a 4080 fölött. -
Alogonomus
őstag
Az AMD legfeljebb annyira tapogatózott sötétben, mint előző generációban az Nvidia, aki az AMD-től való félelem miatt a 4090-et szükségtelenül erősre és így drágára is tervezte, a 4080 árát totálisan elmérte, a 4080 12 GB-ot pedig az utolsó pillanatban kellett 4070 Ti-ra átneveznie, míg a 4060 Ti memóriáját szintén vészüzemmódban kellett dupláznia.
Most az AMD-t érte váratlanul a januárban kiderült új helyzet. Látszólag most az Nvidia húzta meg azt a lépést, amit korábban az AMD a Raphael->Granite Ridge, vagy még korábban például az Ellesmere->Polaris kapcsán. Most az Nvidia adott ki egy minimálisan javított architektúrát, amihez a teljesítményjavulást az emelt fogyasztásból biztosítják.
Nem csoda, hogy az AMD ezek fényében átalakítja a terveit, hiszen sokkal kompetitívebb Nvidia termékekre számítottak. -
Alogonomus
őstag
válasz
Busterftw #68073 üzenetére
Az állítólagosan vészesen alacsony számú 5090 és 5080 készletek alapján kérdés, hogy az 5070 Ti készletek hogyan alakulnak majd. Ráadásul míg az 5090 és 5080 esetén az országonkénti egy-két számjegyű készlet a kevés, addig az 5070 Ti esetén a készletnek minimum négy számjegyűnek kell lennie, ha nem egyenesen öt számjegyűnek a rajtra, ha komoly érdeklődést remélnek a termék iránt.
-
Alogonomus
őstag
"ők mennyit lépnek előre a 7900XTX hez vagy az Ada-hoz képest?"
Hát azért az állítólagosan 300 wattból 4080 szint és 220 wattból 4070 TI Super szint eléggé jelentős előrelépés lesz az RDNA3-as eredményekhez képest. Már persze, ha a majdani tesztek is visszaigazolják ezt a pletykát. -
Alogonomus
őstag
válasz
Busterftw #68051 üzenetére
Egyértelműen elhalasztották a launchot, pedig a kártyák ott vannak már a kiskereskedők raktáraiban.
Olyan találgatások merültek fel, hogy az AMD arra játszik, hogy amennyiben a mai 5090 és a jövő heti 5080 értékelések is arról szólnak majd, hogy szégyenletesen gyenge fejlődést hozott csak az új Blackwell architektúra, akkor az egész techsajtó attól fog zengeni egész februárban. Ráadásul valószínűleg raktárkészlet sem lesz az RTX 50-es kártyákból.
Ennek az általános hangulatnak a fényében pedig a valószínűleg február végén érkező RX 9070 értékelések sokkal jobb színben tüntetik majd fel az új AMD kártyákat.
Nagyon megy most a 4D-sakkozás, és valamelyik oldal nagyon ráfázik majd. -
Alogonomus
őstag
Az Nvidiánál a teljes Gaming kategória bevétele teszi ki a bevételek 15%-át, nem önmagukban a Geforce kártyák.
"Our products for the gaming market include GeForce RTX and GeForce GTX GPUs for gaming desktop and laptop PCs, GeForce NOW cloud gaming for playing PC games on underpowered devices, as well as SoCs and development services for game consoles"Annak a kategóriának a relatív hozzájárulása peedig a teljes cégcsoport bevételéhez képest intenzív ütemben csökken. Néhány negyedévvel korábban még majdnem 30% volt, ami most 15%. Az Nvidia elkormányozta a hajóját a gaming irányból a szerverekbe szánt gyorsítók irányába.
Az Nvidia valóban könnyen – sőt a teljes bevételre vetítve csökkenő arány miatt egyre könnyebben – kompenzálni tudná a gyártópartnerei BOM-kit miatti magasabb gyártási költségeit, de a bejelentett 550 és 750 dolláros árat nem tudná semissé tenni, csak legfeljebb a gyártópartnerek 150% memóriát tudnának kínálni változatlan áron, ami pedig ahogy írtam is, a kártyák teljesítményére vajmi kevés pozitív hatást gyakorolna.
-
Alogonomus
őstag
"Nvidia lejjebb viszi az árat. miért ne?"
Nem véletlenül a Super és/vagy Ti verziókkal "csökkent" árat az Nvidia, és nem az eredeti termékek árát viszi lejjebb. Egy árcsökkentés mindig árt a gyártó/termék megítélésének, hiszen akkor az eredeti árán nem fogyott. Egy generáción belüli frissítésként tálalt megoldással viszont a negatív következmények jelentős része elkerülhető. Ahogy Jensen önérzete azt sem bírná el, hogy valaki nála erősebb terméket kínáljon, úgy valószínűleg arra sem bólintana rá, hogy valamelyik terméke árát hivatalosan és jelentős mértékben megvágja a piaci kereslet fenntartása érdekében.
"Egyből engedélyezi a gyártóknak a 18 gigás 5070 és /vagy super verziót."
Még ha rendelkezésre is állna elég 3 GB-os GDDR7 modul, azok akkor is jelentősen drágábbak lehetnek, mint a sima 2 GB-os modulok, vagyis a másfélszeres memóriakapacitású kártyák vagy még drágábbak lennének, vagy a gyártóknak kellene lenyelniük a jelentős extra költségeket, amivel valójában még gyorsabbá sem válna az 5070, csak a memóriavész alól szabadulna ki. Az 5070 Ti pedig még annyit sem nyerne a memória 24 GB-ra növelésével, hiszen a 16 GB még kényelmesen elég, ha nem 4k+PT+FG+egyéb fut egyszerre. -
Alogonomus
őstag
A 9070-es tesztek attól még kimehetnek az 5070-es tesztekkel nagyjából egyidőben, szóval a vásárlók megismerhetik az állást, csak a bolti árusítás indul el márciusban. A kártyák már a tesztelőknél vannak, a PH is megkapta már a kártyákat, és Abu arra is utalt, hogy az a többi médiumhoz képest mintha viszonylag későn a történt volna meg.
-
Alogonomus
őstag
Azért ha a február eleji tesztek alapján kijön egy akár 40% ár/érték előny a 9070-ek javára az 5070-ek ellenében, akkor valószínűleg sokan kivárják majd a márciust.
Az 5070 Ti 4070 Ti-hoz képest +20%-a 750 dollárért még a 4080 szintjét sem éri el, míg a 9070 XT állítólag ott lesz a 4080 szintjén és 500 dollár körüli árat jósolnak hozzá.
Az 5070 4070-hez képest +20%-a 550 dollárért pedig elmarad a 4070 Ti szintjétől, míg a 9070 állítólag ott lesz a 4070 Ti/7900 XT szintjén és 400 dollár körüli árat jósolnak hozzá.
Az egyedüli komoly kérdés az, hogy a friss helyzetet látva az AMD felemeli-e az új kártyái árát, vagy továbbra is az "eredeti" árakon küldi azokat a versenybe, amivel hatalmas ár/érték előnyt tudna felmutatni. -
Alogonomus
őstag
A februárról márciusra tolt megjelenés mögött akár az is lehet, hogy a váratlanul gyenge RTX 50-ek és vártnak megfelelően csábító RX 9070-ek alapján a vásárlói érdeklődés jelentősebb lesz az új Navi48-as kártyák iránt, amire szeretnének felkészülni, hogy egy készlethiány nehogy végül mégis egy RTX 5070/Ti irányába terelje a vásárlókat.
A hírek szerint RTX 5090/80 sokáig csak mutatóban lesz a boltokban, amennyiben pedig a februári teszteken az RTX 5070/Ti tényleg negatív értékeléseket kap, míg a 9070/XT ajánlott plecsniket szerez, akkor valószínűleg március elejéig várnak majd a vásárlók a jobb kártya piaci startjáig, és márciusra lesz már elég kártya a boltokban.
-
Alogonomus
őstag
válasz
Devid_81 #67918 üzenetére
Na az mondjuk tetszene, ha az AMD szoftvermérnökök trollkodásból betennének egy olyan opciót az FSR4 FG beállításba, hogy "NV+1", és fixen a DLSS4-ben beállítottnál eggyel több "hamis" képet tenne be a két "valós" kép közé. Esetleg lehetne az is a neve, hogy "Our's is bigger"
-
Alogonomus
őstag
A jelenlegi pletykák alapján inkább a nagyobb Geforce kártyák esetében merült föl az a forgatókönyv, hogy nem tudtak komoly számú működőképes példányt összerakni és a boltokba kiszállítani az árusítás kezdetéig. Egyes pletykák egyenesen Q2-re csúszó szállításokról beszélnek.
-
Alogonomus
őstag
De te is kifelejted azt, hogy a 300 wattos 6800 XT helyett egy 250 wattos és így kisebb/könnyebb kártya volt a 7800 XT, ami ráadásul az AV1 enkóderen túl kicsit raszterben is erősebb volt, RT teljesítményben pedig a 6900 XT-t is felülmúlta.
"Mezei felhasználó ezért nem rohan váltani, ha már volt egy 6800-asa vagy 6800XT-je.
Azok nem rohantak, viszont akik még Polaris/Pascal/Vega/Turing/RDNA1 kártyával nyomták, azoknak komoly vonzerőt képviselt, ha a 12 GB-os Geforce kártyák helyett valami 16 GB-os kártyát kerestek, de 12 GB-os Geforce kártya árban és teljesítményben. -
Alogonomus
őstag
válasz
Quadgame94 #67817 üzenetére
Nagyon keverni kezdted most az helyzetet. Eleve a 7800 XT és 6800 XT ár-érték viszonyáról volt szó, te pedig most belekevered a 7700 XT és 6800 helyzetét azzal, hogy te mennyiért tudtál 6800-at szerezni, és ahhoz képest mennyibe került boltban a 7700 XT.
"Ezt nem tudom értelmezni."
Első körben a 7900 XT és XTX árát valószínűleg az alapján lőtték be, hogy a 4070 Ti és 4080 hol helyezkedett el hozzájuk képest teljesítményben, és az nem bizonyult jó megoldásnak.
A 7800 XT árát már az annál gyengébb 4070 ára alá lőtték be, az annál sokkal gyengébb 4060 Ti árával egyezően, hogy ahhoz képest csak magasabb legyen majd a piaci ár, amit úgyis a kereslet-kínálat határoz majd meg, de legalább kedvező értékelésekkel indul a kártya útja. És kedvező is volt a kártya fogadtatása.A 9070 XT várhatóan 450-500 dollár közötti ára nagyon komoly alávágást is jelent majd a hasonló teljesítményszintet képviselő 750 dolláros 5070 Ti-hoz képest.
-
Alogonomus
őstag
válasz
Quadgame94 #67811 üzenetére
Az 500-550 dolláros RX6800 XT helyett egy kicsit erősebb, érezhetően takarékosabb, plusz az új generációs képességekkel már felvértezett kártyát lehetett kapni, ami így az 550-600 dolláros árszintre igazodott be.
A 7900 XT és XTX fiaskóból egyértelműen tanultak, azért adták ki 500 dolláron a 7800 XT-t.
-
Alogonomus
őstag
válasz
Quadgame94 #67803 üzenetére
Hát speciel a 7800 XT 500 dolláros ára annyira nem volt "gyalázatos", hogy szinte azonnak 600 dollár közelébe emelkedett, mert annyit is megadtak érte a vásárlók.
Az AMD valószínűleg most is ugyanezt a taktikát fogja követni, és az állítólag 220 dollárból kijövő 9070 XT-t bedobja mondjuk 450 dolláros áron, aztán a piac majd beárazza valahova mondjuk 450 és 650 dollár közé a teljesítménye alapján.
Sima 9070 esetén is az AMD bedobja egy olyan áron, amin már megéri az AMD számára, megvan rajta az elvárt haszon, és majd a piac meghatározza, hogy annál mennyivel többet hajlandóak adni érte a vásárlók. Sokkal vonzóbb a vásárlók szemében az a kártya, aminek ára növekszik, nem csökken.A 7900 XT és 7900 XTX is sokkal jobban indított volna, ha nem 900 és 1000 dolláron indulnak, hanem a jelenlegi 600-650 és a 800-850 dollár környéki árukon, ami még mindig abszolút megfelelő hasznot jelent az AMD számára.
-
Alogonomus
őstag
válasz
S_x96x_S #67759 üzenetére
A szavak lényegesek lehetnek. Azt írta, hogy does support, nem azt hogy does utilize.
Az simán elképzelhető, hogy a már sok éve fejlesztett RDNA4 architektúra eredetileg PCIe Gen5-öt használt volna, hiszen csak bő egy éve döntött úgy az AMD, hogy elengedi a legfelsőbb kategóriát, és a Navi4x meg Navi41 költségkeretét is a Navi44 és Navi48 csiszolására fordítja. -
Alogonomus
őstag
válasz
S_x96x_S #67750 üzenetére
A PCIe állítólag 4-es lesz.
Az persze elképzelhető, hogy a chip képesség szempontjából megfelel az 5. generáció igényeinek. Némileg öngól is lenne, ha az optimális működéshez a PCIe 5 kellene, hiszen eleve kevés alaplapon áll rendelkezésre olyan kártya bővítőhely, és egyébként sem a legfelső kategóriára céloz most az AMD, a felsőközép-kategóriás gépek alaplapjain pedig valószínűleg még kevésbé gyakori adottság a PCIe 5 kártyahely, csak legfeljebb az m.2 bővítőhely. -
Alogonomus
őstag
Nem a jelenlegi állapotra utaltam, hanem arra, hogy az AMD kártyapiaci részesedése abban a 2006-2007-es időszakban indult el a lejtőn, amikor az Intel eladásai az Intel Core szériának köszönhetően megtáltosodtak, és minden prebuilt gyártó Intel Core gépeket akart kiadni, amihez viszont feltételként szabta meg az Intel az aktuális Nvidia kártya felhasználását, hogy azzal gyengítse az AMD pénzügyi helyzetét. Az Nvidia az egyezségből következő fix és jelentős keresletre alapozva tudott szintén megtáltosodni, mert a prebuilt gyártóknak még felár mellett is inkább megérte Nvidia kártyát beépíteni, csak ne veszítsék el az Intel processzort a gépükből.
Az Nvidia többek között valószínűleg pont azért is nyitott a CPU-tervezés irányába pont most, mert az Intel bukdácsolásainak következtében egyre inkább kacsintgatnak az AMD felé a prebuilt gyártók – az addig Intelhez kimondottan hűséges DELL megjelenése az AMD bemutatón például kimondottan komoly sajtóvisszhangot generált –, és még azelőtt kellene az AMD CPU-k teljesítményét megközelítenie az Nvidia CPU-nak, mielőtt az AMD végérvényesen elhúzna az Inteltől, vagy az Intel magába roskadna, és így az AMD szintén megjátszhatná azt, hogy amelyik prebuilt gyártó AMD CPU-hoz AMD GPU-t társít a gépeiben, az a prebuilt gyártó kapja kiszámíthatóan az X3D, Threadripper és Epyc szállítmányok jelentős hányadát, így pedig a piacon a termékei versenyképesek maradnak. You scratch my back I scratch yours.
-
Alogonomus
őstag
Azért a felsorolásból az se maradjon ki, hogy stratégiai partnerségre lépett egymással az Intel és az Nvidia az AMD kiszorítására, és az Intel CPU mellé szinte minden esetben Nvidia GPU-t kellett tenniük az olyan nagy prebuilt gyártóknak, mint a DELL/HP/LENOVO/IBM és társaik. És ez a szövetség csak mostanában kezd repedezni a Zen-éra berobbanásának és az Intel mélyrepülésének a hatására.
-
Alogonomus
őstag
Jelenleg még a most kifutó generáció számít egyedül olyan viszonyítási pontnak, amihez képest lehet meghatározni az új kártyák játékokban elvárható teljesítményét. Raszterben a Radeon kártyák a viszonyítási pont, sugárkövetésben pedig a Geforce kártyák. Egyik területen egyikhez mérik, másikban másikhoz.
-
Alogonomus
őstag
válasz
ggbuffon1897 #67706 üzenetére
A 4080-as szint azért gyenguszkának egyáltalán nem nevezhető.
Főleg úgy nem, hogy a CES-en bemutatott grafikon alapján a DLSS4-el egyedüliként nem megkavart Far Cry 6-ban az 5090 csak nagyjából 25%-kal volt erősebb, mint a 4090, szóval a fele annyi "magot" és egyebeket felvonultató 1000 dolláros 5080 valószínűleg nagyjából a 4090 szintjét érheti el nyers erőből, míg az ezek szerint raszteres és RT teljesítményt együtt nézve nagyjából átlagosan a 4080-as szintet elérő 9070 XT állítólag 500 dollár környékén érkezhet, miközben a 750 dolláros 5070 Ti-nál aligha lesz gyengébb 2/3-ad árért.
Szóval gyenguszkának egyáltalán nem nevezhető, hiszen a leváltásra kerülő generáció 1200 dolláros felsőkategóriájával és az új generáció 750 dolláros felsőközép-kategóriájával van egy szinten, ráadásul várhatóan körülbelül 500 dolláros áron. Gyenge sem lesz, az ár/érték mutatója pedig kimondottan kellemesnek várható.Esetleg a 9070 tekinthető a vártnál gyengébbnek a sugárkövetésben jósolt lemaradása miatt, bár érdemi sugárkövetést már most is inkább csak a 4070 Ti Super és 7900 XTX szintjétől érdemes bekapcsolni, ha nem kapcsol mellé valaki Performance felskálázást 1080p mellé, de úgy pedig a játék képi világ romlik le. Raszteres teljesítményben pedig a 7900 XT szintje a pletykált 400 dollárért egyáltalán nem rossz ajánlat, hiszen jelenleg egy 4060 Ti 8 GB kapható olyasmi áron, míg a 16 GB-os verzió már inkább 450-500 dollár, és az 550 dolláros sima 5070 is állítólag "csak" a 4070 Ti szintjét fogja hozni.
-
Alogonomus
őstag
MLiD tegnapi Patreon videójában elhangzottak szerint egy állítólag hozzá került decemberi AMD belső helyzetjelentés alapján 5 RT-s és 10 raszteres játékban tesztelve:
9070 XT 300 watt TBP esetén:
- raszterben 7%-kal 7900 XTX alatt, 4080 szintjén.
- RT-ben 4070 Ti – 4070 TI Super magasságban.Sima 9070 250 watt TBP esetén:
- raszterben 5%-kal 7900 XT alatt.
- RT-ben sima 4070 szintjén.Végre egyértelmű értékek, nem csak kisebb/nagyobb jelek a modellek között.
Ezek alapján a combosabb 330+ wattos custom 9070 XT modellek raszterben majdnem elérhetik az alap (MBA) 7900 XTX szintjét, míg sugárkövetésben a 4080 egészséges előnyben marad, de azért már látótávolságban lesz.
A sima 9070 pedig lényegében egy 7900 XT 15%-kal takarékosabban és 4 GB-tal kevesebb memóriával. -
Alogonomus
őstag
MLiD is 15-e környékéről tud, mint a bemutató várható időpontja.
-
Alogonomus
őstag
válasz
hahakocka #67640 üzenetére
Ezen a héten valószínűleg csak az elmaradt RDNA4 bemutató érkezik, plusz esetleg az állítólag különálló FSR4 bemutató. Azokból még nem fogunk sokat megtudni a kártyák tényleges teljesítményéről pár benchmarkprogramban elért eredményen kívül, plusz talán az FSR4-et elsőként alkalmazó Black Ops 6 eredmények is bekerülnek, hogy natívhoz képest mennyit segít az FSR4.
-
Alogonomus
őstag
válasz
hahakocka #67627 üzenetére
Nem lesz a 4080 500 ezres ára közelében a 9070 XT, de a 7800 XT bő 200 ezrénél is drágább lesz, ha hozza a 4080 teljesítményét. Szerintem valahol a 7900 GRE és 7900 XT környékén 300 ezernél lesznek a tuningolt AIB modellek, és kicsivel 250 ezer fölött lesz az alap reference kártya.
-
Alogonomus
őstag
válasz
Busterftw #67595 üzenetére
Félreértetted a hozzászólásomat. Az volt a hozzászólásom lényege, hogy még ha az AMD valóban be is jelentené mondjuk 500 dollárért a 9070 XT-t, a kiskereskedelmi boltokban akkor is bőven annál drágábban, a 4080-as teljesítményszintet képviselő kártyákhoz hasonlóan lenne árazva, mert azoknál lényegesen kedvezőbb ár esetén csak elkapkodnák a 9070 XT-t a sokkal kedvezőbb ár-érték aránya miatt, vagyis a kiskereskedelmi bolt megszerezhető hasznáról mondana úgy le, mert adhatta volna drágábban is a kártyát.
Előző generációban is bár 500 dollárért jelentette be a 7800 XT-t az AMD, a tesztek alapján nyilvánvalóvá vált, hogy átlagosan határozottan jobb képességekkel rendelkezik, mint a 600 dolláros 4070. Ebből következően pedig szinte a kezdetektől fogva nagyjából azonos áron kínálták/kínálják a boltok a 7800 XT-t és a 4070-et, mert amennyit az Nvidia mindshare segít a 4070-nek, annyit a 7800 XT kompenzál a teljesítményelőnyével."az átlag user épp csak annyit tud, a xx80 "jobb/több" mint a xx70"
Ha ez így teljesen igaz lenne, akkor mindenki 2080-at vett volna a 3070 helyett, meg 3080-at a 4070 helyett. Nem ez történt.
A 9070 XT az ideje nagy részében egyébként is az 5070 Ti-al fog versengeni, nem a 4080-al. -
Alogonomus
őstag
Valójában teljesen fölösleges a bolti árakról tippelgetni, mert azok úgyis igazodni fognak a többi modell ár/érték arányához. Ha valóban 4080 Super szintű lesz a 9070 XT, akkor az ára a boltokban is ahhoz lesz közel . Ha pedig a 9070 XT a 4070 Ti szintjén teljesít, akkor ahhoz lesz közel. Az AIB-k és a boltok is abban érdekeltek, hogy megtalálják azt a maximális árat, amin a termék még elkel.
A kártyák hivatalos msrp ára főleg csak azért számít, mert abból lehet következtetni arra, hogy a kártya legyártási és leszállítási költsége hogyan viszonyulhat a konkurencia hasonló teljesítményű kártyájának a bekerülési költségéhez. -
Alogonomus
őstag
" Nálad jobb troll tuti nincs."
Iparkodnia is kell, hogy "bászter" vagy például Albus_D/Emilió/Sbig_x aktuális megjelenési formája nehogy leszorítsa a dobogó legfelsőbb fokáról.
-
Alogonomus
őstag
válasz
huskydog17 #67498 üzenetére
"Ha mondjuk én vettem volna 1000 dolláros 7900 XTX-et és egy évre rá az 500 dolláros RDNA4 sokkal sokkal jobb képminőséget hoz, hát lehet hogy igencsak idegese lennék finoman fogalmazva, főleg annak fényében, hogy korábban mindig azzal reklámozta az AMD az FSR-t, hogy mindennel kompatibilis."
Ez szinte minden generációváltáskor jelentkező helyzet, és eddig is jól túltették magukat az emberek azon, hogy a 700 dolláros 1080 Ti szintjét hozta az 500 dolláros 2070, az 1000 dolláros 2080 Ti szintjét hozta az 500 dolláros 3070, a 2000 dolláros 3090 Ti szintjét hozta a 800 dolláros 4070 Ti, és így tovább. Aki csúcskategóriát vesz, az számoljon azzal, hogy intenzív lesz az értékvesztése, de addig is élvezheti a csúcsteljesítményt biztosító csúcskategóriát, és a későbbiekben is hasznára válik majd a csúcsmodellel járó több VRAM előnyös hatása.
-
Alogonomus
őstag
válasz
Raymond #67486 üzenetére
Arra gondolok, hogy a DLSS3 framegen az Nvidia állítása szerint kizárólag a 4000-es kártyákon tudott működni, aztán kiderült, hogy megy korábbi kártyán is.
Na az FSR4 esetén is valószínűleg lesz funkció, ami simán megy majd korábbi kártyán is, lesz funkció, ami korábbi kártyán nyögvenyelősen megy, és talán lesz olyan funkció is, ami tényleg csak 9000-es kártyával lesz elérhető.
Amennyiben ez nem így lenne, akkor a keynote után nem azt mondta volna David a meghívott szakújságíróknak, hogy semmi olyan nincs az FSR4-ben, ami egy típuson kívül minden más számára elérhetetlenné tenné a használatát. Valamint a friss interjú kérdésére is egyszerűen annyit válaszolt volna Frank, hogy az FSR bármelyik funkciója szigorúan megköveteli egy RDNA4 kártya rendelkezésre állását. -
Alogonomus
őstag
Csak ködösítenek, mert addig is folyamatosan új cikkek születnek az FSR4-ről, ami nekik tiszta haszon.
Korábban is csak úgy fogalmazott az AMD-s ember, hogy bár az FSR4 az RDNA4 képességeihez lett fejlesztve, de attól még nem kizárólag csak azon a típuson tud működni. "David stated that there’s nothing about FSR4 that makes it exclusive to a specific model - the RDNA4 updates include better MLOps that makes technology like FSR4 a lot better than it would have been."
A mostani nyilatkozat sem egy egyértelmű "nem" volt, mert nem azt válaszolta a cikk szerint Frank Azor, hogy az FSR4 semmilyen mértékben nem lesz elérhető, ha nem RDNA4 kártya van a gépben. Most is a machine learning képességek kapcsán mondta csak, hogy azért szükséges az FSR4 technológia kiaknázásához az RDNA4. Ahogy a DLSS3 is elment egyes 3000-es kártyákon, csak kevésbé hatékonyan, néhány funkciót kihagyva, úgy az FSR4 is el fog menni mondjuk egyes 7000-es kártyákon, csak szintén csökkentett funkcionalitással.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Lenovo ThinkBook 14 G2 - 14"FHD IPS - i5-1135G7 - 12GB - 256GB SSD - Win11
- Xiaomi Mi 11 8/256GB HIBÁS!
- Telefon felvásárlás!! Samsung Galaxy A16, Samsung Galaxy A26, Samsung Galaxy A36, Samsung Galaxy A56
- Bomba ár! Lenovo X1 Yoga 4th - i5-8GEN I 8GB I 256SSD I 14" FHD Touch I W11 I CAM I Garancia!
- Samsung Galaxy S24 128GB,Újszerű,Dobozával,24 hónap garanciával
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest