-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
paprobert
őstag
válasz
Petykemano #71433 üzenetére
Sosem fogják kockáztatni piaci részesedés vagy piaci népszerűség reményében a terveket, a marzsot, vagy a túlvállalás / túltermelés kockázatát (itt nem szükségszerűen veszteséges értékesítésre kell gondolni.
Lényegében most sem versenyzik az AMD eléggé, amikor minden ehhez szükséges körülmény összeállt. Pl. önmagához képest még hatékony az architektúra, és last-gen VRAM-mal a szokásosnál is olcsóbban megúszható a BOM.
(kicsit mélyebben a technikai részletekbe merülve persze a konkurenciához képest kompromisszumos a perf/W, perf/area, és skálázási gondok is vannak bizonyos CU szám felett).A jövőre vonatkozóan érdemes lenne belegondolni, hogy valamennyi szilíciumot biztosan költeni kell a compute képességek visszahozatalára, tehát mindenképpen romlani fog a perf/area hányados.
Vajon visszatér az, hogy esetleg +50%-kal nagyobb lapka fog kelleni a zöldek azonos teljesítményéhez?
Akkor akar majd árversenyezni az AMD? Vagy az a nagy terv, hogy addigra prémium branddé válik, és már nem is fog kelleni... -
paprobert
őstag
válasz
S_x96x_S #71401 üzenetére
És változott valami a (neveken kívül), ami miatt feltételezhető lenne, hogy más lesz a végkimenetel, mint az elmúlt 10 évben?
Miben reménykedsz konkrétan?#71400 Busterftw
300-350 dolláros 9070XT, és $200 alatti 8GB-os, $200 környéki 16Gb-os 9060XT kellett volna ide a 40%-hoz.
Ez aggresszív lenne.
Ehelyett az AMD megint azzal próbálkozik, hogy a kecske is jóllakjon, a káposzta is megmaradjon, miközben valamennyi műszaki- és szoftverökoszisztémás lemaradást cipel magával. -
paprobert
őstag
Ez elég jól leírja a helyzetet. Európa önuralmat gyakorol.
#71395 S_x96x_S
persze meglátjuk - hogy mennyire sikerül.
Mit látunk még meg? Itt vannak az árak. Egyértelműen látszódik, hogy túl kevés túl későn. Kicsit gyorsabb kicsit olcsóbban.Ez nem az a termék és ár, amiért felhívod éjjel 2-kor a cimborádat, hogy mondja le a nyaralást, és az összegből vegyen inkább AMD kártyát.
Vaknak kell lenni, hogy ne lásd, hogy ez nem 40%-os stratégia. Ha pedig az AMD irodáiban azt hiszik, hogy ez az, akkor azonnali elbocsájtást kell eszközölni, mert nem tudják mit csinálnak.
-
paprobert
őstag
válasz
S_x96x_S #70844 üzenetére
én nagy tétet tennék a "játékon belüli LLM-ek" -re
Ha 10x gyorsabb lesz (nem lesz) a PS6, az sem lesz elég teljesítmény játékon belüli LLM-re.
Persze, amíg böfögi fel a szöveget a játék, addig 2D-s háttérképeket fogunk nézegetni, nem?Csak annyi kerül be, aminek van értelme. Ha pedig az erőforrások 20%-ánál többet kell elkölteni rá, akkor halott ügy, marad minden előre generált.
Az RT-re is ez vonatkozott konzolon a PS5-ös címekkel, itt pedig egy játékmechanikát akár el is rontó funkcióra ez hatványozottan érvényes.A "berakunk egy NPU-t, majd csak lesz valami" és a "hozzáad a játékélményhez a mindig másképp reagáló AI" között kilométeres a szakadék, és gyakorlati példát nem láttunk az utóbbira, főleg nem filléres NPU-n.
-
paprobert
őstag
válasz
bjasq99 #70251 üzenetére
Teljesen jól értelmezed. A throughput és a kihasználtság csökken, elkerülhetetlenül, amint elkezdődik az erőforrás shuffling.
Cserébe a choke pointok csökkennek, ha egy wave valami oknál fogva kétszer akkora regiszterterületre szeretne terpeszkedni, és a további konkurens feldolgozás függött ennek az eredményétől.
Más értelmezésben:
A jövő regisztermennyiségével dolgozhat az adott shader a ma hardverén. Vagy kevesebb HW-es regisztermennyiség is elég lehet ugyanolyan branchelés mellett.Vagyis nincs ingyen ebéd, az univerzalitása viszont nő a hardvernek.
-
paprobert
őstag
válasz
bjasq99 #70243 üzenetére
A compiler által előállított kód hint-eli a parancsmotort az allokációról. Én egyedül így tudom elképzelni.
így is sokkal nagyobb mint a geforcoké és nyilván azért a fejlesztők nem hagyják megdögölni a geforce implementációját, (hisz övék a piac)
A fejlesztők kényelmét (is) szolgálja, indirekten a szoftver-kompatibilitást növelheti, és az AMD driver költségeiből faraghat. Ebből a szempontból nyerő fejlesztés, de valóban, ettől még nem a farok fogja a kutyát csóválni.
-
paprobert
őstag
válasz
bjasq99 #70232 üzenetére
Csak tippelek, de szerintem van egy hardveres QoS modul, ami kiegyensúlyozza a dolgot, valószínűleg a parancsmotorban.
Ez nekem egy lassan beérő fejlesztésnek tűnik amúgy.
Mikrobenchmarkban lehet villogni vele, hogy kétszámjegyű az előrelépés XY együttállása esetén, de valójában ez egy csendben, háttérben dolgozó funkció, ami a nagy képet nézve nem állítja a feje tetejére a papírformát. -
paprobert
őstag
Tehát a 9070 XT nagyjából 220 dolláron van nullszaldón.
De hát a PS5 Pro-nak 800 eurón KELLETT nyitnia, nehogy csődbe vigyék a gonosz vásárlók a szerencsétlen Sony-t. Tudjuk ugyanis, hogy csodagyárból érkezett, csodatervező cég által megálmodott csodachip van abban a konzolban...
/s
Végre egy reálisnak tűnő szám, és nem kell bizonyításhadjáratba kezdeni az ellenkezőjéről, mint korábban minden egyes új node-on érkező terméknél.
-
paprobert
őstag
Igazából lehetetlen egy vákuumban beszélni az AMD GPU-król.
Előbb-utóbb kelleni fog a valósággal = környezettel találkozó kapaszkodók megemlítése, hogy el lehessen helyezni az értelmezéseket.
Ez elkerülhetetlenül érv ütköztetéssel jár, ami kicsit hasonlít a vs. topicban is sokszor látható acsarkodásra.De ez a topic alapvetően nem egy fekete-fehér-igen-nem játék, ahol a tiltott szavak le lettek cserélve NV-Intel-Geforce-ARC-ra, és ha leírod, akkor jön a kitiltás...
Ha nálad pavlovi reakciókat vált ki egy egyébként flame és személyeskedés nélküli beszélgetés, akkor állíts az algoritmusodon, mert lehetetlen az elvárásod.
-
paprobert
őstag
válasz
S_x96x_S #66960 üzenetére
Nagyon nem kell aggódni az Intel miatt, de vajon mekkorára fog hízni az új architektúra, ha visszalapátolják a korábban feleslegesnek ítélt compute képességeket, és egy felokosított TMU helyett lesz valódi RT gyorsítóstruktúra?
Mid range perf, midrange++ mérettel? Az bárhogy is nézem, kb. Intel szint.
Azt kellene észrevenni, hogy most sem arról diskurálunk, hogy hogyan lesznek a zöldek befogva, hanem hogy az Intel elé vagy mögé fog esni az AMD technológiailag, ha nincs többé lehetőség megúszni a feature-öket, mert kispórolás nélküli hardvert kell piacra dobni.
-
paprobert
őstag
A chiplet nem okozott lassulást.
Szilíciumban routolni az adatot hatékonyabb, mint kívül megutaztatni. Ez akkor is igaz marad, ha az AMD csinálja.
A legjobb kimenetel esetén is felesleges fogyasztástöbbletet okozott, rosszabb esetben sávszél-éhezést.Az AMD-nek azt kell kitalálnia sürgősen, hogyan miként fog RT és ML teljesítményt rakni egy olyan architektúrába, ami éppen befogásra került a gyengébbik konkurrens által mobilban(perf/area/W), és közel kétszeresen pazarlóbb egységnyi szilíciumra vetítve az erősebb versenytársnál.
Vissza GCN-esíteni az RDNA-t, miközben műszaki szempontból csúszik a versenyképesség a béka ánusza alá... érdekes mérnöki kihívás lesz.
-
paprobert
őstag
válasz
Petykemano #66906 üzenetére
A 7600-XT tökéletes példa erre. 6nm-es, tehát egyáltalán nem kellene spórolni vele.
Ehelyett összenyomorították a lapkát, és a legagresszívebb boost algoritmust engedték rá, aminek a vége, hogy kétállású kapcsolóként vagy 180W-ot fogyaszt, vagy lassú lesz mint a dög, de legalább nem is adják elég jó árban.Nem akarok vs.-t kezdeni, de protestvásárlásként Battlemage-et kell venni, hátha tanul az AMD.
-
paprobert
őstag
válasz
Devid_81 #66884 üzenetére
330Wattig taposni...megint a +5% FPS
Olyan nagy ár ez a 40%-os piaci részesedésért cserébe?
Sajnos a "fiduciary duty" része, hogy megpróbálják eladni egy kategóriával magasabban, ha képes rá a szilícium. Ők nem a csendes-hűvös PC-ért dolgoznak.
Majd utólag kell mérlegelni vásárlóként, hogy a kézzel visszavett teljesítmény, és gyárilag emelt ár mellett is jó üzlet-e a kártya. -
paprobert
őstag
Kérdés, hogy haza akarja-e küldeni a GPU-s piacról az Intelt az AMD?
Ha akarná, csak bevágná $250 alá a 16GB-os 7600XT-t, azzal gyakorlatilag el is intézné az ARC B580-at.
De jó eséllyel a vágott kisebb RDNA4-es GPU is ebbe a szegmensbe fog érkezni, szóval rengeteg a lehetőség.Jack vezetésével ez lesz az első launch, érdekes lesz látni, hogy mennyi valódi szerénység maradt a korábbi szövegelésből, és mennyi volt csak PR.
-
paprobert
őstag
"azért az nagy kérdés, hogy a dual-issue feldolgozást mennyire jó egy olyan konzolcsaládra elhozni, ahol az alap konzol ezt nem támogatja. Ezt biztos csak limitekkel engednék, mert sok parát okozhat egy ekkora eltérés az ALU-knál."
Most már tudjuk, hogy a leírása alapján ~16TF lett a PS5 Pro, vagyis nem lett dual issue a dizájn.
-
-
paprobert
őstag
válasz
S_x96x_S #66241 üzenetére
Azért abban egyetérthetünk, hogy egy spekulatív következtetéshez érdemes nem figyelmen kívül hagyni a jelent.
Nekem az a benyomásom támad az írásaiddal kapcsolatban sokszor, mintha a legfinomabb szűrés nélkül csak bedobnád a megjelenő gondolataidat, ami kicsit RNG/chatbot érzetet kelt...
Így persze nem hagysz ki semmit sem, de felhígul a mondandód, és keresni kell benne a megfoghatót. Talán erre utalhatott Pumba.Ettől eltekintve szerintem adsz hozzá a diskurzushoz, szóval ne vedd ezt támadásnak. Peace.
off vége
-
paprobert
őstag
válasz
S_x96x_S #66231 üzenetére
Ne aggódj, nem lett leírva a PSSR, de ez volt az első teszt, és nem az előzetes állítások alapján várt-sugallt eredmény jött ki.
Tisztán látszódik hogy előrelépés az FSR-hoz képest, és akár meg fejlődhet is, akárcsak a másik két AI felskálázó tette azt az első 1-2 évben.
Az előre megígért csoda maradt csak el, van helyette egy jónak tűnő, good enough megoldás.
-
paprobert
őstag
válasz
S_x96x_S #66223 üzenetére
Füles információ volt a "pár százalék az AI a DLSS-ben", és a "PSSR mindent alázni fog mert full AI" is, elhintve itt a fórumon a 2-3 GPU-s topikban.
Ez a két információ felfest egy végeredményt (azaz hogy a PSSR (és emiatt talán az FSR4.0 is) sokkal jobb), aminek épp a szöges ellentétét bizonyította a DF a mostani videóban.
Valahol kilóg a lóláb, mert a végeredménynek nem ennek kellett volna lennie a két állítást igaznak elfogadva.Szerintem eléggé egyértelmű Pumba álláspontja, nem szorul semmi sem magyarázatra a margón.
-
paprobert
őstag
Akkor a "luxus ár/érték arány" a cél, ha jól veszem ki a soraidból. (Van egyáltalán ilyen célcsoport?
)
Tartok attól, hogy jelenlegi stratégia a 40% helyett az elvárt eredményeknek csak a felét tudja majd szállítani... karakterileg. Azaz 4 vagy 0 százalékot...
Persze túlzok, de lefele tart a grafikon.
-
paprobert
őstag
Érthető, ott tényleg fontos a perf/W.
Nem én gondolkodok lehetetlenül. Jack Huynh beszélt ár/érték arányról, "elérhető" tömegtermékről, 40%-ról.
A 40% tudod mit takar?
Ahhoz néhány generáción keresztül Steam HW survey chart-ot kell vezetni, azaz nem árt egy 1060-nál, 3060-nál, 4060-nál nagyobb népszerűségű kártyával érkezni.Ezeknek a kártyáknak a popularitása erősen annak (is) köszönhető, hogy 200-300 dollár körül lebegnek.
Nem luxuscikk. Vagy ha az, akkor nem 40%. El kellene dönteni.
-
paprobert
őstag
Mindez egy középkategóriás kártyánál (a valamivel rosszabb perf/watt sem okoz végzetes fogyasztást), drágább node-on, csúszással, és ez fogja a 40%-os marketshare-t hozni...
Jól értem, hogy nem értem az AMD-t?
Továbbra is tartom, hogy egy kb. $300-os, RDNA4-re felokosított 7800XT-utóddal lenne esélye az AMD-nek a 40%-ra. Akár maradhatna egy cutting-1 node (Samsung?), mert belefér, és lehetne tarolni.
Minden más csak az eddigi vesztes stratégia folytatása.#66169 mozesapo
Az eddigi hírek alapján RX480-5700XT-7800XT kaliberű modell lesz a maximum ebben a generációban. Azaz "optimum" kártya, HALO product nélkül.
Nem sebességről beszélünk. -
paprobert
őstag
válasz
Yutani #65695 üzenetére
"Nvidia ... ugyanaz az uarch megy konzumerbe és professzionálisba. Hogyhogy nekik sikerül?"
Megmondom őszintén, nem tudom hogy ez az NV-nál hogyan fér bele.
Emlékszem, Abu szapulta is a zöldeket ezért, hogy gyak. feleslegesen kidobott pénz a GPU jelentős hányada,"haha, bezzeg az RDNA".
Hát, most visszatalált a régi tervezési elvhez az AMD. Persze hogy a reddit is a GCN-t emlegeti a hír alatti kommentekben.Én egyébként nem emlékszem, hogy bárki is negatívan ítélte volna meg 2019 környékén az RDNA leválasztását. Sőt, sokan az akkor-új arch. közelítése mögött ezt látták kiváltó okként.
Szerintem is hozzájárult a kisebb felzárkózáshoz, és nem látom, hogy az egybeolvasztás bárhogy is segítené a gaming versenyképességet a jövőben. -
paprobert
őstag
válasz
S_x96x_S #65690 üzenetére
"az egységes UDNA-GPU chipletek nagy tömegű gyártása és alacsony költsége sok mindenre gyógyír lehet."
Még nem láttunk ilyen megvalósítást a gyakorlatban - de ha a chip 25%-a totálisan felesleges dolgokra foglalja a helyet, akkor az chipletekkel is egy 25%-kal gyengébb kártya.
#65691 proci985
Ezt mondom én is.
Nem akarom előre temetni, de most pont azt ecseteli az AMD, hogy súlyokkal a zsebében fog világrekordot futni...A szkeptikusságom ellenére érdekes a fickó hozzáállása, kíváncsian várom hogy mi fog kisülni belőle.
#65693 Petykemano
"A régi mondás szerint a fejlesztői gépek hozzák/húzzák magukkal a szerver hardvert."
A legjobb fejlesztői gép pedig az, ami már egyébként is ott van mindenki keze ügyében. A szerver x86 azért terjedhetett anno, mert mindenki PC-n berhelt otthon. -
paprobert
őstag
válasz
S_x96x_S #65685 üzenetére
Az első gondolatom az, hogy az egyesítés a gaming-nek nagy eséllyel ártani fog.
Pont azokat a dizájn shortcut-okat nem lehet majd megtenni, ami a gaming-re hegyezett GPU-ban a hatékonyságot hozta.
Oda a célirányos fejlesztés, és a fontossági sorrendben előrébb lesz pl. egy FP64-re gyúrás, mint a rélytrélyszing.De az egyetlen dizájnteam fizetésben olcsóbb lesz a cégnek, az garantálható...
GCNDNA 2
-
paprobert
őstag
válasz
S_x96x_S #65614 üzenetére
"Talk is cheap", hiszem ha látom.
Szólnék az AMD menedzsereinek, hogy egy 400-500 dolláros kártyával nem fognak 40%-ot elérni.
Maximum $300, 256 bit, 16GB VRAM, és a félidős konzolnál(PS5Pro) valamivel több teljesítmény.
Ez az első lépés a 40% felé vezető úton.A csúcs Battlemage is hasonló osztályba érkezik, vagyis ha igaz Hyunh terve, akkor nagy öldöklés fogja kezdetét venni az Intel és az AMD között.
-
paprobert
őstag
Olyan jó ez az egyedi szó, bármit jelenthet, és még vitatkozni sem lehet vele.
1. A konzol GPU-jának megfeleltethető AMD VGA-hoz viszonyítva +-15% körül teljesítenek a konzolok az életciklusuk nagy részében.
A Digital Foundry készített összehasonlító videókat, PC-s hardverrel szimulált OneX-ről, szimulált PS5-ről a konzolokkal összevetve stb. Nagyon alapos és logikusan levezett nyomozás, javaslom megnézésre.
A videók alapján az általad beleképzelt teljesítményt érintő egyediség szinte nem létezik.2. Tudtommal a custom-ség a backwards compatibility-t jelenti, fejlesztői kényelmi funkciókat, az APU-ságot, és néhány apróbb feature-t.
Ez a néhány apróbb feature kerül(het) kiaknázásra az életciklus közepe-vége felé jó fejlesztői kezekben.
(Néhány hete ezt vetettem fel neked, amikor temetni kezdted a PS5-öt:
A Sony konzolja esetén még csak a teljesen alap, RX6700-hoz hasonló teljesítményt látjuk a legtöbb esetben, mikor lesz a mély optimalizáció is látható? Mivel azt jelenleg szinte sehol sem látni még, ezért korai temetni.)De hát biztos a Wikipedia is rosszul tudja, a Microsoft és a Sony támogatja a félretájékoztatást, a Digital Foundry is rosszul mért mindent, a képkockaszámlálók pedig biztosan hazudnak, mert mint tudjuk, annyira-de-annyira egyediek ezek a csodamasinák...
-
paprobert
őstag
"Az alaparchitektúra sosem változott a köztes frissítéseknél."
Volt példa mindkettőre. A PS4pro alig változott, a japánok olcsón, kicsit bután oldották meg.
Ezzel szemben az XBOne és OneX között minőségi fejlesztés is történt, az utóbbi teljesítmény-karakterisztikája, és feature listája szorosan lekövette a Polaris-t.PS4- GCN2
PS4Pro -széles GCN2
PS5- RDNA1-2
XBO - GCN2
OneX - GCN4
SeriesX- RDNA2De az állítás továbbra sem az, hogy az újabb konzol mindig a friss AMD arch-ból származik, hanem hogy a gyümölcs mindig közel esik a fájához, bármi is volt a fa.
Valamint az általad felnagyított customizáció alig kimutathatóan változtat a teljesítményen.
Vagy te látsz valami óriási kiugrást az eredeti arch-okhoz képest a testreszabás által?Jelenleg az egy teljesen eldöntetlen kérdés -csak utólag lehet majd kielemezni-, hogy léptették-e az architektúrát a félidőben, vagy sem.
-
paprobert
őstag
A PS5 Pro a sorban 4. AMD-dizájnelemekből építkező megoldás lesz a Sony háza táján a modern időkből.
A korábbi 3 alkalommal egyszer sem esett túl messzire egymástól teljesítményben az AMD-s alaparchitektúra, vagy az abból származtatott konzol.
(A Microsoft-ról nem is beszélve, ahol az XBOne X egy kiköpött Polaris)Most miért lenne másképp?
-
paprobert
őstag
"mindegyik cím next-gen optimalizált. Úgy jó 2-3 éve"
Nem kerestem statisztikát, de érzésre nem sokkal több, mint 2 kéz kell azonak a címeknek a megszámolásához, ami PS5 kifacsarásának a közelében jár.
Az első két év a "próbáljuk meg nextgen-nek eladni a felpimpelt PS4 játékot"-ról szólt. Legtöbbször magasabb base resolution-nel, vagy 30 helyett 60 fps-re felengedve.
Mostanában kezdtek el / kezdenek potyogni az érdekesebb címek.Egy hasonlattal élve a PS5 egy negyvenes éveiben járó embernek felel meg, miközben te épp a koporsójának a színén tanakodsz.
-
paprobert
őstag
válasz
hahakocka #65450 üzenetére
Nagy általánosságban a közép-felsőkategóriás AMD kártyák az életciklusuk végén (starttól számított 4-5+ év) a nagyobb VRAM mennyiség miatt még megengedhetnek egy szinttel magasabb textúrarészletességet, de a teljes életciklus alatt kissé szenvednek a feature-ök hiányától, vagy szimplán lóerőhiánytól.
Kérdés, hogy a "ráhúzhatok még 1-2 évet a használatra mielőtt kidobnám/lecserélném" vagy a "a használat első pár éve legyen érezhetően jobb" a fontosabb a vásárlónak.Szerintem engedd meg, hogy másnak lehessen eltérő a véleménye. Ezek a csapongó wall of text-ek eléggé nehezen követhetőek.
#65451 Abu85
"Mivel a konzolgeneráció végét járjuk"?????
Ne ijesztgess már, 2024 nyara van, még alig vannak itt a PS5-optimalizált címek. -
paprobert
őstag
Túl lassú a gyorsítatlan szoftveres út, hiába flexibilis. A lassúságból következően a gyakorlatban kivett minőség alacsony részletességű, pontatlanra butított.
Az AMD saját maga állítja, hogy a most bemutatott tanulmány "unfeasible" a jelenkor kártyáin.
Mondjuk ki, a te elképzelésed szerinti RT gyorsuláshoz arra kell várni, hogy természetes úton gyorsuljanak a GPU-k.Hány év kell ahhoz, hogy duplázódjon a memóriasávszélesség a GPU-kon?
6-7 év kb.
A compute képesség duplázódáshoz? Nagyon hasonló.
És ez csak duplázás... ennél sokkal több kellene.Évi 15%-os fejlődés mellett előbb leszünk eltemetve, mint hogy jól fusson gyorsítatlan szoftveres RT-t.
-
paprobert
őstag
A Digital Foundry-tól Alex Battaglia elismerően nyilatkozott az AMD legutolsó prezentációjáról a DF Direct 172-ben.
https://gpuopen.com/download/publications/DGF.pdfTLDR:
TLDW:
Ő azt feltételezi, hogy idővel az AMD hardverekbe bekerül egy BVH építő részegység.
A mostani szoftver/compute megoldásokhoz képest gyorsabb lenne, és Nanite szintű geometriával is meg tudna birkózni, még magasabb rélytrészing minőséget hozva.Örül, hogy végre az AMD (is) dedikált hardvert hoz a különböző folyamatok gyorsítására.
Várja az ezekre alapozó új DXR verziót, hogy ne gyártóspecifikus implementációk legyenek párhuzamosan. -
paprobert
őstag
-
paprobert
őstag
"A Navi 33 gyorsabb, ezért drágábban adják"
Lefordítom a válaszodat:
A mesterséges termékszegmentáció fenntartása több pénzt hoz az AMD-nek, mint ami a költségcsökkentett termék előtérbe helyezésével megspórolható a költség oldalon.
Hogy lehetne ez "megszórjuk a milliárdos nagyságrendű piacot" stratégia, ha egyértelműen nem a volumen van előtérben? A Navi23 fellépő sámlinak van használva a Navi33-hoz, miközben csak rontja a versenyképességet.
Egy letámadó stratégiában az AMD két kézzel tenyerelne a Navi33 gyártógombján."emellett másik node gyártókapacitását terheli. És az mindegy, hogy olcsóbban gyártható, mert nem ugyanazt a gyártósort használja."
Nincs kapacitásgond 6nm-en, és tudtommal szabadon válthat az AMD.
Vagy szerinted valamilyen 7nm vásárlási kötelezettségbe ragadt bele a cég? -
paprobert
őstag
Tehát az Ubi egyedüliként beletalált, összejött egy elviselhető metszéspont a látvány - sebesség grafikonokon.
Mindenen fut, nem a legjobb látvány, de 2024-es szemmel nagyjából oké a minőség.Hol a többi kiadó motorja?
Hol vannak az indie-k?
Hol vannak a bér-endzsinek?Ha a rákérdezett entitások közül senki más nem tud váltani tudás/pénz hiányában, akkor nem alternatíva a programozhatóság.
Kényelmes - gyors - olcsó - jó minőség. Látszólag ezekből egyiket sem tudja az Ubi rendszere.
Ez arra utal számomra, hogy az egyetlen járható út a fix HW-es bekötés, mert az legalább működik (és hármat - 3.5-öt kipipál a listából).Valamint ha az Avatar a ma hardverén elérhető maximum minőség, akkor újra egy limitációba ütköztünk, és csak a HW-es shortcutoktól várhatjuk a minőségbeli fejlődést...
-
paprobert
őstag
A programozhatóság folyamatosan úgy van előadva, mint valami kívánatos dolog, miközben nincs kimondva:
A buta brute force van felmagasztalva.Mintha az Epyc-et azzal reklámoznád, hogy a 128 magját használni videóvágáskor tekinthető HW-esen gyorsított videóenkódolásnak, és az milyen jó, milyen nagy szabadságot ad.
Eléggé kifordított logika.Tizenöt év múlva, amikor az RT hardver már teljesen máshogy fog kinézni, fallback layerként jó lesz a programozható réteg. Addigra a VGA-k is párszor erősebbek lesznek.
Addig viszont érdemes lenne sebességben és minőségben is előrébb tartani, és nem szurkolni a mindenen egyenlően sz*rul futó irányzatnak. -
paprobert
őstag
Mert ASP emelésen, per termék margin emelésen dolgozik az AMD.
Teljesen mindegy hogy milyen filléres a gyártása. A költséghatékonyságból Neked, kedves vásárló, nem jár semmi.A 7600-7600XT kártyák, a 7700XT és a 7800XT "aládúcolására" vannak rossz árban tartva.
Jobban megéri elrontani a belépőt, és terelni a parasztokat a 2x annyiba kerülő VGA-k fele.
A kis kártyákra vonatkozólag valamilyen külső erőtől várják, hogy meglódul a kereslet, addig csak a várnak, mint horgász a halra.Az AMD nem akar jó áron belépő VGA-t adni.
Ők döntöttek úgy, hogy RX 460 kaliberű VGA-t árulnak RX 480-nak hazudva. Sok sikert nekik. -
paprobert
őstag
válasz
Petykemano #64232 üzenetére
Ha ezt tényként vesszük, akkor két dolgot tudok elképzelni mögöttesként.
1. Vagy arra számít az AMD, hogy versenyképtelen lesz az Intel, és simán perf. win lesz a sűrű magokkal is.
2. Vagy a desktop magok irgalmatlanul fogyasztanak (a top frekvenciáért). Azaz mobilra csak ez lesz jó.
Nem akarom elhinni, hogy már megint csak a fillérb*szás lenne az ok.
-
paprobert
őstag
válasz
Alogonomus #64163 üzenetére
Milyen másik oldal, b+, ez nem focidrukkerség.
Amit olvastál az vagy egy messziről jött ember fotelből szakértése, és akkor zárójelbe lehet tenni a mondandóját. Vagy egy ezzel foglalkozó szaki, aki leírta a tapasztalatát.
A tények azt bizonyítják, hogy az utóbbi eset áll fenn, azaz leveheted az alusapkát, ez nem egy anti-AMD összeesküvés újabb felvonása...
Vagy ha igen, akkor mondjuk ki, már az AMD drivert is Nvidia által pénzelt fejlesztők írják... -
paprobert
őstag
válasz
Alogonomus #64161 üzenetére
A fickó repója sem elég bizonyíték a szavahihetőségére, Alogonomus detektív úr?
-
paprobert
őstag
-
paprobert
őstag
válasz
Petykemano #64094 üzenetére
Passz.
2 másik gyártóval gond nélkül lefut a kódja. Emiatt feltételezem, hogy a szoftvercsomagja nem alien dialektusban íródott.Az AMD számára negatív hírverés ide vagy oda, a leghasznosabb a működő GPU lenne, akár teljesen zártan is, mert az csak részletkérdés.
-
paprobert
őstag
válasz
Petykemano #64091 üzenetére
Szerintem geohot sem kedvtelésből találta ki, hogy szükséges turkálni az AMD GPU-k firmware-ében, hanem mert a standard API-n bekötött projektek crashelnek egy olyan rétegen, amihez nincs hozzáférés. Ennek működnie kellene.
Ilyenkor nem lehet mást tenni, minthogy vagy az AMD megoldja (látszólag nem akarja/tudja), vagy az, hogy Hotz a saját kezébe veszi a dolgot, és megpatkolja házilag. Ehhez sírt forráskódért (betekintésért)."hírnévrontással való fenyegetéssel zsaroljon ki az AMD-ből neki kedvező módosításokat"
Egy nem működő hardverről kimondani hogy nem működik, szerintem csak az igazság. Azt is mondhatnánk, hogy az AMD káros a saját hírnevére. Csak működnie kellene a HW-nek.Na, de lassan már több energiát rakunk a témába, mint az AMD maga...
-
paprobert
őstag
válasz
Petykemano #64087 üzenetére
*Kimondja hogy műthetetlen vagy, mert páciensként nem vetted be az előírt előkészítő gyógyszereket. (mulasztás)
Tessék bevenni őket, ami pénzbe kerül.
Rövid távon ijesztő az igazság, felfogható negatív PR-nak, de ettől az tény marad, hogy az AMD hatáskörében van a sürgős teendő.
-
paprobert
őstag
válasz
Petykemano #64081 üzenetére
Egy műtét is fájdalmas, de ha a végén gyógyulás lesz, akkor megéri. Ugyanez igaz az AMD szoftverkörítésére is.
Az AMD-nek is érdeke mikroprojektekre alkalmassá tenni a desktop szegmenst, hogy a csóró főiskolások el tudjanak kezdeni játszani kicsiben vele, hogy aztán pár év múlva...
-
paprobert
őstag
válasz
Raymond #64011 üzenetére
Effektíve termék nélkül áll a "vállalkozás".
Olcsó, jó perf/$ alapú AMD-re alapozva nem lehet terméket készíteni,
az Intel lassú,
NV-val pedig nincs versenyelőnye az ötletnek.A saját chip tényleg mint egy tini álmodozása, üres szavak, VC etetés.
Ettől függetlenül ha ki tud kényszeríteni valamilyen változást a sereghajtóknál, lehet net pozitív a vége. -
paprobert
őstag
https://www.phoronix.com/news/Tiny-Corp-Drops-AMD-Again
Összefoglalva:
Kedves az AMD support, de bugos black box az AMD firmware, debuggolhatatlan dolgok történnek a GPU-n belül, szemben a Tenstorrent nyílt termékeivel.
Emiatt tesztelik az Intel alapú termék lehetőségét, az RTX 4090 alapú termék lehetőségét. -
paprobert
őstag
Azt kellene eldönteni, hogy ezek a rendszerek itt kopogtatnak az ajtón, vagy tizen-huszon+ éves víziókról beszélünk? Szerintem inkább az utóbbi, és ezért érzem túlzónak már a kijelentő mód használatát is.
A DLSS jelenleg "liszt szórás a tetejére" szinten tartalmaz AI-t, ezzel szemben a Ryzen AI esetében tényként van kezelve egy széles körben elterjedt, összetett AI generatív pipeline, miközben mind hardver-, mind szoftvertechnológiailag sehol nem vagyunk jelenleg.
-
paprobert
őstag
"Az AMD megoldása a Ryzen AI-t fogja ehhez használni, tehát az analitikai pipeline-t felváltja egy valós AI pipeline, de csak akkor, ha van a processzorodban Ryzen AI és mellette Radeon dolgozik."
És ez működik is, vagy csak meg lett előlegezve hogy ez valóság lesz? Ráadásul első generációs, lassú hardveren...
Én értem, hogy NPU-t rakni a CPU mellé újdonságnak hat PC-s szinten, és ebben az AMD veri az Intel-t, de a leképzők valós idejű AI generált tartalommal való házasítása egyelőre sci-fi álomkép, IMHO.A Digital Foundry korábban mutatott "better than native" példákat a DLSS 2 környéki elemzésekben, azaz valahonnan jött "generált" prediktív tartalom. Apró részletek csak, de megkérdőjelezhetetlen, és ennek már több éve.
Ha "csak analitikai" kód fut, honan jön az extra információ a szebb háttér részletekhez?Kíváncsi vagyok hogy mi történne, ha extra sebesség helyett, natívval azonos képkockaszám mellett az extra részletességre lenne elköltve a DLSS tudása.
(bár ha jobban belegondolok a ray reconstruction már erre halad) -
paprobert
őstag
válasz
Alogonomus #63775 üzenetére
5 perce gondolkodom, de nem tudom hogy mit írjak egy ekkora fa**ságra.
#63778
sajnos
-
paprobert
őstag
válasz
Alogonomus #63723 üzenetére
Olvasd vissza a Zen2 megjelelenése (2019) körüli beszélgetéseket a chipletezés áráról. Itt a PH-n is.
Akkoriban a "$200 alá nem tud menni chiplet CPU" mantra ment. Lózung volt. Most ezt te folytatod a GPU-kkal.Ha a több komponensre hivatkoznál, még talán egyet is értenék, de a semmire épített légvár, a "biztos komplexebb, mert új generációs" nem tűnik megalapozott érvnek.
*Visszatérve: A GPU chiplet akkor jön létre, ha
1. pénzt spórol vele az AMD
2. a reticle limit kikerülésre használja az AMD.De úgy tűnik, hogy
1. a covid utáni olcsó node-ok mellett nem spórol vele eleget az AMD.
2. a felfele nem skálázódó architektúrával pedig a reticle limitet sem tudja elérni.
A bónuszok között pedig ott van, hogy monolitikusan a chipletek közötti adatjáratás 40-60? wattját órajelre el lehet költeni, gyorsabb a piacradobás stb.*ha igaz a monoltikusságra való visszaváltás
-
paprobert
őstag
válasz
Alogonomus #63698 üzenetére
Szóval Ian még olcsóbbra becsülte, nagyszerű.
Tehát lazán belefér a chipletezés, csak a VGA-król alkotott világképed akkor áll egyensúlyba, ha a VGA gyártás egy kevésbé ismert részét 10-20x-as költségszorzóval kalkulálod.
-
paprobert
őstag
válasz
Alogonomus #63681 üzenetére
"$300-400, 600, $1000"-be már nem fér bele a chipletezés"
A te elméletedben mennyibe kerül a chipletezés?Megjegyzésképp, a Zen CPU-knál manapság már csak 15 dollár. Extra komplexitással itt valamivel több kell hogy legyen.
Kijöttünk a COVID-ból, a klasszikus IT eszközök piaca pang, a node-ok ára nem szállt el úgy, mint ahogy azt a negatív forecast jósolta 4 éve.Én azt feltételezem, hogy a node-on sprólható összeg nagyon megközelítette a packaging árát (kb. $25), azaz innentől csak rontja a termék versenyképességét az energiaigénye miatt.
-
paprobert
őstag
Azt kellene megtippelni, hogy a konzolok szintje feletti PC-s grafika a jövőben inkább compute-heavy vagy VRAM heavy lesz.
Ez nincs eldöntve, és akár mindkettő történhet egyszerre.Az RT, PT inkább compute és regiszter, de tetszőlegesen magas textúra minőséggel be lehet zabáltatni majd akár 32GB-ot is.
Emlékszünk a RadeonVII idejében marketingelt "kötelező" 16GB-ra...Túl korán jött az az üzenet.
Szerintem a játékfejlesztői lustaság, az engine default elvárásai, és a hardvergyártók pénzeskoffere fogja eldönteni, hogy mi lesz a konzol+++ gépigény.
És mivel aránylag nagy szabadsággal lehet emelni rajtuk, ezért nincs jó válasz. Mindenből a több a jobb, de ezzel sajnos nem sokat mondtam. -
paprobert
őstag
válasz
arabus #63441 üzenetére
For games of today and tomorrow.
Végülis őszinték... becsülendő hogy közvetlenül a marketing anyagba írják, hogy meddig lesz elég a kártya. Holnapig.
Érdekes, hogy a gyártók imádnak az elégtelen shader core count mellé elég VRAM-ot rakni, vagy elég gyors GPU mellé túl keveset. (4060Ti 16GB, RTX 3070)
-
paprobert
őstag
válasz
Alogonomus #63401 üzenetére
"vagy a 7600 és 4060 is a "futottak még" kategóriát képviselnék a 3060 társaságában."
Márpedig pontosan ez a helyzet, ha az elvárás az, hogy "tartsunk lépést a konzolokkal".
Nem képesek rá.#63402
Igen, lehet, hogy emiatt egyfajta Finewine lesz a vége. -
paprobert
őstag
A videót még nem volt időm megnézni, úgy írom:
Ez az idővel, és címenként változik. Ha jól emlékszem a DF eleinte 2060S-re taksálta a konzolokat a konzol quality és sebesség megtalálásakor, mostanában már inkább a 2070S-hez hasonlítják.
Szóval ez nem teljesen kőbe vésett.Hasonlóan a PS4 eleinte 750Ti-hoz volt párosítva, de később elmászott a gépigény.
-
paprobert
őstag
Amit nem láttam megemlítve lehetséges okként, az a driver-only és a full Radeon Software telepítés közötti különbség.
1-2 éve teszteltem, és akkor az jött ki, hogy majdnem 0.5 GB-tal több VRAM maradt a játékoknak ha a Radeon Software nem volt telepítve a gépen.
Ennyi már bőven elég ahhoz, hogy egy kártya kifusson a VRAM-ból, és átessen a határon.Gondolom a QT alapú csillogó felhasználói felület, a webböngésző, overlay, teljesítménymetrika stb. összeadódik.
-
paprobert
őstag
válasz
Alogonomus #63388 üzenetére
A 6600 nem népkártya.
1, A konzolok teljesítményét se tudja.
2. PS4-re jött címek futtatására kiváló, PS5 címekre nem jó.
3. Ráadásul mivel 3-4szeresre fújt MSRP-vel érkezett, még ennyi leárazás után sem ott van az ára, ahova való.Műszakilag a népkártya minimuma a 6700XT-nél kezdődik és a 7800XT-vel záródik. Egy ilyen kártya elviszi nagyon hasonló, vagy kicsivel magasabb szinten a modern címeket, mint a minőségnek az alsó határát jelentő konzolok.
Népkártya áron csak last-gen minőséget kapsz, valódi népkártyát csak kétszeres áron.
-
paprobert
őstag
válasz
Petykemano #63352 üzenetére
Igen. Így, hogy az RDNA3 nem szólt akkorát mint ahogy eredetileg várni lehetett, egy RDNA3 feature levelre felpumpált középnagy 6nm-es chip költséghatékonyabb lett volna valószínűleg.
De nem gondolom hogy álmatlanul éjszakáznak az AMD-nél a packaging költsége miatt, jó a profit így is. Emellett így már rendelkeznek egy olyan know-how-val, ami értékes a jövőre nézve.
-
paprobert
őstag
válasz
Raymond #63201 üzenetére
Pontosan. Az itteni kommentelés nincs alárendelve annak, hogy virális hírértéke legyen.
Azt meg kell adni MLiD-nek, hogy az Intelre vonatkozó információk az elmúlt 2 évben, kódnevekkel, pl. tűpontosak voltak.
De ez ritka, mint a fehér holló, a tartalom java részét a letagadhatóság határán táncoló tippelgetése teszi ki. -
paprobert
őstag
Érdekes, hogy a shader compilation stutter a szabály, és a sima futás a kivétel. Annak ellenére, hogy lassan egy évtized volt arra, hogy az ezt megelőzendő lépések best practice-szé alakuljanak.
Egyáltalán miért ez a végeredmény a default. Én az Epic-et hibáztatnám inkább.
-
paprobert
őstag
válasz
Petykemano #63057 üzenetére
Igen, ma a közértben mellettem beszélgetett AdoredTV Jim és MLID Tom, és épp meghallottam hogy miről diskuráltak.
Az infó 100%-ig megbízható: még idén jön a spatiális QSR 1.0 (Qualcomm Super Resolution), és az architektúra neve AdrenoDNA 3, röviden ADNA3 lesz.Szerk.: megkéstem a hülyeséggel
https://www.qualcomm.com/news/onq/2023/04/introducing-snapdragon-game-super-resolution
-
paprobert
őstag
válasz
Petykemano #63055 üzenetére
"Kérdés, hogy a Qualcomm ezt a teljesítmény mekkora lapkaméretből hozza és az AMD ilyen irányú bővítése nem jelentene-e túl (gazdaságtalanul) nagy lapkát."
Igen, ez fontos metrika lesz a megítélésben.Plusz az is, hogy a feladatok hány százalékára lesz alkalmatlan az SDXE GPU-ja a mobilos származás, a különbözőség miatt.
-
paprobert
őstag
válasz
Petykemano #63053 üzenetére
A prezentáción kívül nincs sajnos információforrás.
Én sem ástam magam bele, de felületesen nézve, a többi mobil architektúrával úszva, a desktop architektúráktól években mérhetően lemaradva, tipikusan kivékonyított, erősebben clusterezett, cache hiányos, osztott erőforrásos, fogyasztásoptimalizált dizájnt hoztak eddig ők is.
Rossz analógiával élve, a Qualcomm mobil megoldása 4db kés a svájcibicskáról, míg az AMD architektúrája egy kisebb machete.
Krumplit tisztítani 80%-kal gyorsabb a bicskákkal, miközben el sem fárad a kezed, de dzsungelben susnyást kaszabolni csak a machete lesz jó.Ha ehhez most hozzányúltak(nem hiszem), akkor lehet meglepetés.
De ha csak egy nagyobb engine-t építettek ugyanezekből a LEGO kockákból, azaz csak felskáláztak, akkor nem fogja megváltani a világot. -
paprobert
őstag
válasz
Petykemano #63050 üzenetére
Anélkül hogy lefikáznám QC IGP-jét, hozzá kell tenni, hogy egy nagyon régi Radeon dizájn ük-ükunokáját fejlesztgeti a Qualcomm. Lásd, Radeon - Adreno anagramma
Nem azt mondom hogy lehetetlen ilyen helyzeti hátrányból megverni a fővonalas AMD lineup-ot, de a megválasztott teszt nagyon számít, még a CPU-knál is jobban.
Tetszőlegesen lehet úgy tesztszoftvert választani, hogy valami papíron veszítsen vagy épp nyerjen. -
paprobert
őstag
válasz
Petykemano #63009 üzenetére
A probléma súlyossága miért a kommentelő sajnálkozásától / álsajnálkozásától függ?
VAC-bannolás jár a gyártó legjobb feature-éért. Akár bukod a 20 éves, tiszta Steam accountodat, mert bekapcsoltad az AMD cool, exkluzív feature-ét.
Ha pontszámot kéne adnom, ez 9/10 blama. -
paprobert
őstag
válasz
Alogonomus #63000 üzenetére
Na, akkor már a Valve is szándékosan szaboltája az AMD-t, istenem...
Lassan már mindenki felelős lesz az AMD problémáiért, csak az AMD nem, de építsd csak a konteódat...1. A Valve és az AMD egymásba kapaszkodnak évek óta, de különösen a Steam Deck megjelenése óta.
2. A Valve több pénzt keres az AMD tulajok Steam Market-en történő üzleteiből levont százalékkal, mint egy egyszeri, általad kitalált "lezsírozással". A bannolásuk anyagilag káros, mert marketről letiltást is jelent.
3. A Valve nyilatkozta, hogy az AMD-nek bele kell raknia a driverbe a fix-et először, és ha ez megvan, utána tudják elkezdeni unbannolni az érintetteket.Azaz nem utalásra, hanem driveres fix-re vár a Valve...
-
paprobert
őstag
A játékon belüli FSR3 framegen, és driveres FMF egyszerre bekapcsolható, azaz a képkocka duplázást duplázza.
Itt 25 fps-ből 87-et csinál: [link]Nem jó a végeredmény, de már látom magam előtt, hogy a legnyomulósabb hardveraprós hirdetések az utóbbi számot fogják a kirakatba rakni.
-
paprobert
őstag
válasz
GhanBuri Ghan #62695 üzenetére
A mostani felépítés, grafikára? Nem.
HPC-ra, ML-re? Igen.
-
paprobert
őstag
Szinte bármiről lehet szerződést kötni.Szóval azt, hogy saját elhatározásból senki nem használja ki, nagyjából értem. Valószínűleg túl drága és aprólékos a munka vele, inkompatibilis, folyamatos utánállítást igényel, stb, sok okot tudok feltételezni.
De hogy fizetett pilot projekt sincs a pirosaktól, amire marketinget lehet építeni, arra nincs magyarázat.
Mindegy, elengedem a témát, a legnagyobb eséllyel nincs az a marketingtámogatás/elég nagy méretű bőrönd tele pénzzel a stúdió részére, amivel már be lehet vállani a teljes funkcionalitás implementálását.
-
paprobert
őstag
"Ebbe az AMD nem tud beleszólni, mert open source a kód."
Nem egy random fejlesztő random címéről beszélek.Az AMD miért nem vitte végig az FSR2 kimaxolását valamelyik zsebstúdiójával? Szerződést kötve arról, hogy az "FSR2 extra adat" feature is implementálva lesz. Kész.
Az ópenszorszság ezt biztosan nem akadályozná meg. De mégis 0 példa van rá. Miért nem mutatta meg az AMD, hogy mit is tudhatna igazán az eljárás?
-
paprobert
őstag
b. azt akarta szerintem kérdezni, hogyha ilyen régóta rendelkezésre áll az FSR2 extra adatokkal való etetése, akkor miért nem volt egyetlen olyan AMD szponzorált cím sem, ami kimaxolja a lehetőségeket.
Csak egy cím, ami megmutatja hogy az FSR2 lehetőségei messze kitolhatóak.
(Az a tény, hogy semelyik szponzorált fejlesztő sem élt a lehetőséggel, sugall valamit.)
-
paprobert
őstag
-
paprobert
őstag
válasz
Alogonomus #62495 üzenetére
Azt dobtad be, hogy a harmatgyenge ARC sebességét valamilyen új mérési metódussal akarja kozmetikázni az Intel.
Továbbra is várjuk a választ, hogy ez miképp történik meg a kék színű overlay segítségével.
-
paprobert
őstag
Nem veszik át a nagy APU-k. Az emberek többségénél két pad közé esik. Vagy nincs rá szüksége (office), vagy nincs rá szüksége(VGA), amellett hogy nincs ingyen.
Feláras termékekbe jöhet, vagy laptopba. A Meteor Lake az utóbbit célozza.Az eredeti felvetés, hogy az APU átveszi a belépő VGA kategóriát, abból a disztópikus bányász időszakból származik, amikor a 400 dolláros belépő VGA miatt sírtak a vásárlók, és a "vegyél APU-t" mondás lett rá a sürgősségi sebtapasz.
A VGA árak lassú normalizálódásával ennek a létjogosultsága lényegében elpárolog/gott.Szerk.:
Egyébként az állami támogatásos gyártósor-túlépítés most egy egyszeri lehetőséget biztosít arra, hogy szilíciumpazarló fejlesztések érkezzenek a piacra nagyobb költségek nélkül. De hogy lesz-e olyan cég, aki az olcsó szilíciumra terméket épít, az kérdéses. -
paprobert
őstag
válasz
Petykemano #62457 üzenetére
Mostanában már az alsóközépkategóriás okostelefon SoC-k is fejlettebb node-on jönnek, mint amit csúcstechnológiaként próbálnak reklámozni a PC hardver gyártók.
Ez csak a mainstream, az Apple-höz képest 2 generációs kullogás van.Tényleg átveszik a hatalmat az apuk?
Érdekes, hogy semmi sem szivárog az AMD háza tájáról.
Az Intel elméletileg fog hozni csempés nagy APU-t, Tom Petersen erről beszélt régebben. Negatívum, hogy az architektúra az csak valamilyen Xe lesz, de kb. a Kaveri óta nem volt ekkora darab szilícium az IGP-re szánva. -
paprobert
őstag
Én két dologban látom, amiben megtört az RDNA felfelé ívelő pályája.
1. Az AMD nem tudott olyan ütemben CU számot növelni. Egy kisebb növekmény volt, míg az NV könnyedén duplázott. Ez skálázódási problémát jelez, és valószínűleg ez az oka, hogy miért nincs egy még nagyobb GCD.
Amíg ez nincs megoldva, addig a chipletezés is elveszti az pozitívumai nagy részét.2. Órajel. Nem kell részleteznem, az RDNA3 alapú kártyák újra GCN szintű órajelbeli lemaradásban vannak, pedig 2 generáción keresztül előny volt.
3. Amikor pedig energiahatékonyságbeli hátrány is van (most az van), az egyébként is behatárolja a maximális méretű GPU ütőképességét.
Szerk: Ezt egy 7900XTX-nél nagyobb GPU-ra értem.
-
paprobert
őstag
válasz
Petykemano #62044 üzenetére
Igen, CPU-ban egész nagy lehetne az ugrás, csak egyelőre értelmét nem látom, mert alig van kint játék CPU izzasztó kóddal.
"AVX512 és más AI utasítás és/vagy gyorsító beépítése"
Ha van konkrét usecase, akkor ezt látom megtörténni. Viszont a fillérb*szási elv eddig erősebb volt annál, hogy ilyen-olyan potenciálisan kihasználatlan funkcióval hizlalják az SoC-t.
Az AVX512 például Abu által a földig le volt hordva, (addig főleg, amíg az Intel-only feature volt), a szilíciumpazarlást kiemelve. Ez nyomós érv a konzolgyártóknál."A CU-k számát biztos növelik - a pro erről szokott szólni. A pletykák 36-ról 60-ra növelésről szólnak."
A SeriesX már most 52-t hoz. Tehát akkor csak RDNA3-ra átültetés lenne? Az még +30% se.
Nem tiszta, hogy mitől állna össze egy ütős csomag, ami indokolna egy célpiacot forgácsoló típust.Persze ha úgy gondolkodnak, hogy "ki kell hoznunk valamit, mert a másik is hoz", akkor nyomós indok nélkül érkezhet frissített modell, abból építkezve ami épp rendelkezésre áll.
Egyelőre viszont, ilyen közeli megjelenést feltételezve az RDNA3 és az 5nm kombinációja+ szilícium-fukarkodás a lepkefingnél nem kecsegtet sokkal többel.
-
paprobert
őstag
válasz
Petykemano #62031 üzenetére
Én még nagyon korainak érzem egy konzol refresh érkezését. Az adott, szolid méretű szilíciumba préselhető sebesség nem mindenhol változott egyenlően a lassan 3 év alatt.
CPU-t tekintve az optimum frekvencia kb. 1GHz-nyit kúszott felfele, valamint a Zen4 IPC-ben jelentős előrelépés.
Viszont még nem láttam olyan címet, ami kihasználta volna akár csak a Zen2-t a konzolokban, azaz mi értelme lenne?A GPU-t vizsgálva az architektúra alig fejlődött, az órajel csak inkrementálisan, az energiahatékonyság majdhogynem visszafejlődött.
Ahhoz, hogy látható teljesítménybeli ugrás legyen, óriás chipet kellene hozni, és új node-on. Ez teljesen irreális egyelőre.Szóval a két korlátozó tényező, a megfizethető fejlett node, és nagy GPU-energiahatékonyságbeli ugrás. Amíg ezek nem állnak rendelkezésre, addig egy refresh kb. +30%-ot tudna az XSX-hez viszonyítva. Ennyiért el sem érdemes kezdeni.
-
paprobert
őstag
"dual-issue elvileg viszonylag kevés tranzisztorból jött létre"
Tranzisztor- és terület takarékos, valóban. De biztos hogy fogyasztás-takarékos is? Pont ebben lehet a trade-off.
Kilő az elméleti számítási kapacitás, viszont ezt multi-fin, szivárgó tranzisztorokkal érik el, azokat sokszorosítják."Az órajel/fogyasztás görbe egy adottság, és jól látszik, hogy pl. a 7900XTX eléggé a tetején jár ennek. A tuningos verziók minimálisan gyorsulnak csak jelentős fogyasztástöbblet mellett."
Nem tud tovább gyorsulni, igen, de miért nincs az ilyen túlhúzási esetre jellemző hatékonyságnövekedés akkor, amikor kézzel visszavesszük a terhelést?A bekapcsolt V-sync melletti fogyasztási értékekben van irtózatos különbség a két márka között. Talán Igor tesztelte.
A 4090 tud olyan fogyasztás mellett üzemelni egy nem terhelő játékkal V-sync mellett, hogy egy 3050 szintű kártya is megirigyli a fogyasztást, míg ugyanebben a játékban az RDNA3 továbbra is felsőközépkategóriásan, sokat fogyaszt.Igazából az RDNA3 aktív állapotban nem skálázódik lefele úgy, ahogy kellene. Ha csak gyári beállítás és biztonsági tartalék miatt lenne ez, akkor csodás energiahatékonyságot látnánk egy kézi UV után, de ha őszinték vagyunk, ez is elmarad a várttól.
-
paprobert
őstag
válasz
Petykemano #61779 üzenetére
Igen, szerintem az közrejátszhat, hogy az AMD épp most GCN-esítette vissza az RDNA3-mat a dual issue-val. Az "üresjáratban adatra várás" megfogalmazásod kb ennek felel meg.
Összességében rosszabb az új AMD kártyák fogyasztása, de csak az évtizedes papírformának megfelelően.
A Navi33 rámutatott, hogy nem a chiplet volt a buktató a nagy kártyáknál sem. Egyszerűen csak rossz az órajel-fogyasztás arány.
Sokat fogyaszt alapon, de legalább nem is fut magas órajelen. Gyakorlatilag semmi nem lett jó.Az a viselkedés pedig, hogy terheletlenül sem csökken a fogyasztás annyival, amennyit várna az ember, arra mutat hogy nem a gyári túlhajtást kell hibáztatni.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- ASUS Dual GTX 1660 SUPER OC 6GB DDR6 Videokártya!
- ASUS Radeon RX 6800 TUF GAMING OC 16GB használt videokártya számlával és garanciával eladó!
- GeForce RTX 3060 12gb
- Inno3D GeForce X3 RTX 3070 Ti 8GB GDDR6X Videokártya!
- ZOTAC GeForce GTX 1080 8Gb ArcticStorm+Raijintek Triton 240mm radiator (+ventilátorok és fittingek)
- Samsung Galaxy A40 64GB, Kártyafüggetlen, 1 Év Garanciával
- AKCIÓ! Épített KomPhone R5 4500 16GB RAM 240GB SSD RX 6500 XT 4GB GAMER PC termékbeszámítással
- BESZÁMÍTÁS! Intel Core i9 14900KF 24 mag 32 szál processzor garanciával hibátlan működéssel
- IBM/Lenovo Thinkpad T60
- Xiaomi Redmi 12 Pro 5G 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft
Város: Budapest
Cég: Liszt Ferenc Zeneművészeti Egyetem
Város: Budapest