-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Ribi
nagyúr
válasz
S_x96x_S
#62398
üzenetére
Szerintem félre értesz. Én még mindig Eccségjózsi szemszögéből nézem és a rajuk vonatkozó dolgokra vagyok kiváncsi, mert onnan indult, hogy mindenkinek is kell az AI. Én meg azt kérdezem, hogy Eccségjózsi micsinálna vele, amire mindig az a válasz hogy a nagy cégek mit csinálnak vele. Nem ezt kérdezem.
Látom az a trend, hogy mindent is is AI-al oldanak meg a cégek, mert a nagy adatbázisokra ez jó, nagy adatmennyiségek feldolgozására ez jó. De az eredeti kérdésre: "egyre nagyobb lesz az igény a garázsban futtatott AI rendszerek iránt.
pl. A Hacker News -on napi átlagosan 3-4 kapcsolatos hír van ezzel kapcsolatban." miértjére nem kapok választ. Nem érdekel Nokia, nem érdekel hogy egy cég miért erőltet rá másra. Mit csinál vele valaki otthon a garázsban? -
S_x96x_S
addikt
> Pont itt van a probléma. Valamiféle megoldás próbálnak eladni emberek
> kb nem létező problémára, amivel otthon semmit sem tudsz kezdeni.És ezen miért csodálkozol?
eddig minden trendet túltoltunk és buborék lett belőle ..
https://en.wikipedia.org/wiki/Dot-com_bubbleVagy ott van a minden "okos" IS
trend
.. okoshütő ; okostermosztát ; okoskanál ..
És ez már marketing is ..
mindenki csinálja - emiatt kénytelen mindenki más is ..A jelenlegi mobiltelefonos trendet is ki látta 25 évvel korábban? Nem sokan.
És aki benne volt - még az is benézhette - pl. Nokia .
Úgyhogy ha nem látod benne a trendet - az teljesen normális.
És a profikkal is megesik (Nokia vakság)
https://en.wikipedia.org/wiki/Technology_lifecycle> kb nem létező problémára, amivel otthon semmit sem tudsz kezdeni.
annó a 8 bites personal computerekre is ezt mondták - hogy csak játékra jó ..
viszont felnőtt rajta egy generáció programozó és fejlesztő ..
Az AI -is egy lehetőség
és most még csak a TSMC/Nvidia keres rajta egy valag pénzt, mindenki más csak befektet.Amúgy ha nem látsz egyáltalán lehetőséget, akkor ne bolygasd ..
amúgy se kell mindent tudni ..
Mert ha összekapcsold a robottechnológiát + biotechnológiát az AI-val ;
akkor nagyon furcsa jövő vár ránk.
https://bostondynamics.com/atlas/
https://neuralink.com/ -
-
Ribi
nagyúr
válasz
S_x96x_S
#62389
üzenetére
"Ide kell tudás is ..
( legalább annyi mint egy weboldal összerakásához, hogy másoknak el tudd adni. )"
Pont itt van a probléma. Valamiféle megoldás próbálnak eladni emberek kb nem létező problémára, amivel otthon semmit sem tudsz kezdeni. Mindig mondják, hogy ez a jövő megoldása mindenre is, de mire? Lehet ah google vagy, akkor hatékonyabban tudod a brutál adatmennyiségből kinyerni ami kell, de eccségjózsinak ez semmire sem jó. Ezek csak nagy adatbázisokon működnek. Pont itt a probléma. Mintha azt hajtogatnád, hogy jövőben mindenkinek weboldala lesz és csak a neten lehet eladni bármit és ... ja hogy nem kell mindenkinek weboldal? Pedig ez a jövő. Mert weboldal. Miért emlékeztet engem minden indoklás AIval kapcsolatban Brawndo got electrolites -ra? Mind1, valszeg én nem látom hogy az n+1-ik "jövő" miért totál érdektelen Eccségjózsinak. -
Abu85
HÁZIGAZDA
válasz
S_x96x_S
#62389
üzenetére
A félelem az a baj, hogy jogos. Sokszor azzal érvelnek az AI kapcsán, hogy nem kreatív, de nem is kell annak lennie, mert a kreativitás az ötlet szintjén születik meg, és azt be lehet vinni a nyelvi modellnek. Tehát mi megadjuk az AI-nak a kreativitást, aztán pedig az AI elvégzi a meló nagy részét. Nyilván félnek ettől egy csomóan, de akik túl tudnak lépni ezen, azok elkezdik a saját előnyükre fordítani a rendszert, és még most a szolgálatukba állítják az AI-t, amíg nem győzik le őket azok, akik ezt szintén megteszik.
Az is tévhit, hogy itt az AI a betanított munkát fogja kiváltani leghamarabb. Pont, hogy fordítva. A szellemi munkák vannak veszélyben. Alkalmazkodni kell, vagy lemaradunk.
-
HSM
félisten
-
S_x96x_S
addikt
válasz
Raymond
#62385
üzenetére
> Mit fog a jozsi futtatni a otthon amibol penze lesz?
> Ezt ugy irod mintha meglennenek a problemakvagy többet tudsz nálam vagy kevesebbet :-)
De biztos másképp látjuk a trendeket.Én azért megfordítanám a kérdést.
Egy értelmiségi kreatív a jövőben AI -nélkül mennyire lehet produktív és versenyképes?
Vagyis ez olyan mint a székjáték, aki nem használ AI-t, az kiesik - nem lesz munkája, ügyfele. Vagyis a probléma ( = lét félelem ) megvan. És nekik mindig el lehet adni szolgáltatást. Ha az újságok rá-erősítenek az AI veszélyeire, akkor még félelmetesebb lesz.De amúgy ha te az AI alatt a Crypto-Buborék-Ponzis
sémát hiányolod,
amire az ~"Eccségjózsi " is felfigyel, és gyorsan pénzt tud csinálni ..
akkor én teljesen mást értek aranyláz alatt.
Ide kell tudás is ..
( legalább annyi mint egy weboldal összerakásához, hogy másoknak el tudd adni. )az AI Gold Rush -t nem szűken kell értelmezni.

Hugging Face - en ~ 15,000 szervezet ~ 250,000 AI model és ~ 50,000 dataset érhető el és a felhasználók száma milliós ..
És egyedi AI -modellel kapcsolatos tudással pénzt lehet keresni. -
Raymond
titán
válasz
S_x96x_S
#62383
üzenetére
"Majd ha lesznek customizált,
leegyszerűsített konzerv megoldások, akkor "Eccségjózsi" is érdeklődni fog."
Ezt ugy irod mintha meglennenek a problemak es csak erre az olcso hardver plusz 1click szoftver megoldasra varnak amit a nep otthon futtat majd. De mire lesznek majd konzerv megoldasok? Meg mindig az a kerdes mi a business case. Mit fog a jozsi futtatni a otthon amibol penze lesz? -
Abu85
HÁZIGAZDA
válasz
S_x96x_S
#62383
üzenetére
Nem, ezt nem tudják kiherélni, mert a Windows munkafolyamatának a része lesz az AI. A kriptora lehetett egy értékelhető mintát felhúzni, amit a driver észlelt, és lekorlátozta a teljesítményt, de itt, ha ezt felhúzzák rá, akkor a gyári munkafolyamatokban is leesik a teljesítmény.
De amúgy itt nincs is nagy veszély a GPU-k ellátására, mert annyi érdekelt biztos nem lesz, mint a kriptonál.
Amúgy az AMD idővel ki fogja szedni az MGPU lehetőséget. Ebben a generácóban már nem, mert akkor változna a specifikáció, de nyilván okkal drágábbak a professzionális VGA-k. Viszont jelen generációban még lehet halászni a zavarosban. Ez nyilván sokaknak feltűnik, és tankolnak is fel a hardverekből.
-
S_x96x_S
addikt
> . Eccségjózsi mégis mit is csinál ezzel a garázsban?
most még semmit ..
"Eccségjózsi"-k mindig a technológiai életgörbe csúcsán szállnak be,
most még az életciklus elején vagyunk.
Majd ha lesznek customizált,
leegyszerűsített konzerv megoldások, akkor "Eccségjózsi" is érdeklődni fog.És ha valaki be lenne pánikolva, hogy még jobban felmennek a gaming GPU árak
akkor ne legyen, a TomsHw - cikk
bár felveti a lehetőségét, reménykedik
"Hopefully we can avoid a repeat of the cryptomining-GPU situation"
Persze az NvIdiában mindig bízhatunk, hogyha a Gaming GPU-ból pénzt lehetne csinálni, akkor gondoskodik róla, hogy a következő generációban erre már ne legyen esély
mert kiheréli a lehetőséget.Remélhetőleg AMD MGPU ROCm támogatás a konzumer GPU-kban hibamentesen működni fog ( a jövőben is) ;
mert ha az AMD kiszedi, akkor a TinyGrad terve nem fog működni .
"Multi GPU training:
Trees, rings, and collnets oh my! AMD gets us P2P for free.
" -
Abu85
HÁZIGAZDA
válasz
S_x96x_S
#62376
üzenetére
- Miért érdeklődik geohot az AMD kártyái után? És milyen lehetőséget lát benne?
Leginkább valami gyorsítót keresnek sok VRAM-mal. Igazából az mindegy, hogy milyen, mert a PyTorch vagy a TensorFlow működik NV-n és AMD-n is.
- És egy Multi GPU-s konfigot ( 144 GB GPU VRAM ) vajon mennyiért lehet összerakni AMD-ből és nVidiá-ból ?
A memória miatt problémás a kérdés, mert 24 GB-os GeForce nincs annyiért, amennyiért 24 GB-os Radeon. Ha valakinek pedig kell a 24 GB, akkor muszáj olyan hardvert vennie.
#62380 Ribi : Az elsődleges tényező, hogy saját magánál tartsa az adatokat, amiket majd kinyer egy saját maga által futtatott nyelvi modellből. A másodlagos tényező pedig az, hogy erre szolgáltatást építsenek olyan cégeknek, akik akarnak ilyen rendszert, de mégsem akarják, hogy az adataik bekerüljenek a közösbe. Mivel a nagyok ilyet valószínűleg nem igazán fognak kínálni, így sok cég a kicsiket fogja keresni, vagyis van mit nyerni ezen a piacon. Ahhoz viszont, hogy ott legyenek, már most kell építeniük maguknak a konstrukciót.
-
HSM
félisten
válasz
Petykemano
#62379
üzenetére
A 7900 GRE esetén van némi torzítás, gondolok arra, hogy vélhetőleg nem a legjobban sikerült csipek mennek arra, illetve az is torzít, hogy -1 MCD, azaz kevesebb a gyorsítótár.
A skálázódás vizsgálatához jobb lenne egy fix kártyából kiindulni, pl. 7900XT, és megnézni, mit mutat mondjuk 2.8Ghz-en, 2.4Ghz-en, vagy 2Ghz-en. Szinte biztos szerintem egyébként, hogy szépen skálázódna.
A saját 6800XT-m tapasztalatai is hasonlóak, gyárilag nem éppen hatékony üzemre van paraméterezve, kb. boostol, amíg ki nem maxolta a TDP-limitjét, de MPT-vel kicsit megpofozva meredeken lehet javítani a perf/watt-ját, és itt 100W-os nagyságrendre gondolok, gyakorlatilag minimális tempó-veszteséggel. [link]
Sajnos RDNA3-nél úgy tudom, már nem működik az MPT, mert más interfészre váltottak.
-
Ribi
nagyúr
válasz
S_x96x_S
#62378
üzenetére
"egyre nagyobb lesz az igény a garázsban futtatott AI rendszerek iránt.
pl. A Hacker News -on napi átlagosan 3-4 kapcsolatos hír van ezzel kapcsolatban."
Ez a két mondat azért nem áll "szoros" kapcsolatban. Eccségjózsi mégis mit is csinál ezzel a garázsban? Bányászásból úgymond direkt jövedelme volt. Azzal hogy AI-t épít a garázsban kb semmit se nyer. Elég nehéz aranylázról beszélni arany nélkül.
Világosíts fel plz, hogy miért venne valaki otthonra több GPU-t AI miatt. -
Petykemano
veterán
Még azt felejhtettem el írni, hogy az előzőben, hogy valószínűnek tartom, hogy a kitűzött cél a >3Ghz lehetett, ám nem biztos, hogy elrontották, hanem - az architektúrát a gyártástechnológiát elv alapján - egyszerűen magától nem jött ki belőle, az architektúra alapjaihoz meg ez a team nem mert vagy nem akart hozzányúlni.
Ha jól emlékszem, arról van szó a N31 esetén, hogy túl sokat fogyaszt. De egyébként skálázódna még. Azt gondolom, hogy ha arról lenne szó, hogy túl sűrűre tervezték, akkor egy bizonyos frekvencia/feszültség fölött túlságosan megnőne a hősűrűség és ott hirtelen megállna a skálázódás. De említhetném a 7900GRE-t is, ahol meg az látszik, hogy az elengedett 200Mhz sem csökkentette drasztikusan a fogyasztást. Ez alapján nem sokat segítene egy kevésbé sűrű design és/vagy nagyobb, több CU-val rendelkező, alacsonyabb frekvencián járatott lapka se.
Nekem alapvetően nem lenne bajom ezzel a tick-tock módszerrel, ha egyébként az iterációk/generációk gyorsan váltanák egymást.
A 7900GRE CB tesztjében van egy százalékos perf/W grafikon [link] ami elég jól mutatja, hogy az Ada inkább egy 50%-os perf/W növekményt, míg az RDNA3 inkább 30% körüli előrelépést hozott. Ez lemaradás, sőt a korábbi orrhossznyi előnyből közepes mértékű hátrány lett.Ha a GPU iterálás a chipletezéssel felgyorsult (volna), akkor persze most mondhatánk, hogy nincs ok aggodalomra, mert az RDNA4 majd biztos gyorsabban érkezik majd, mint a szokásos 2 év.
Volt is szó arról - én is mondtam -, hogy az RDNA4 majd hamar jön. De ennek akkor és úgy lett volna értelme, ha mondjuk 2024 első felében elkezdik kipörgetni azokat az RDNA4 termékeket, amik a 2022 év végén elindult Navi31 fölé érkeznek. Sajnos az RDNA4-ből pont ezt a szintet kaszálták el. Valaki azt emlegette, hogy a Navi31 még sokáig marad flagship. RGT egy Navi36 névvel kapcsolta össze egy a 400mm2 RDNA3 lapka lehetőségét. Ez mind arra utal, hogy az RDNA4 megmaradt lapkái legfeljebb a Navi31-et nyaldoshatják alulról. Egyébként az biztos remek lenne. De ugyanakkor nagyjából erre a szintre épp néhány héten belül indítják útnak a Navi32-t. Bár azt mondják, hogy a Navi32 is már egy ideje le van gyártva, áll a raktárakban az RDNA2 kártyák kifogyására, de azért az elég különös lenne, ha lényegében mindössze 3-4 negyedévet élne meg a Navi32 a piacon. Ennélfogva én már mégsem várnám az RDNA4 hamar történő megjelenését. -
S_x96x_S
addikt
> AI főként a nagy cégeknek kell, nekik meg csak a professzionális VGA-k játszanak
Részben igazad van, de azért pontosítanék.
1.) Költséghatékonyság: Minél nagyobb egy cég annál inkább megéri lenyúlni a fillérekért,
mert abból lesznek a milliós megtakarítások.
És az Nvidia se véletlenül kerítette körbe a Cloud Gaming-et jogilag,
mert egyes nagy cégek - nem akarták megfizetni professzionális Kártyákkal járó felárat.
és nem véletlenül szedte ki az nvlink-et és a direct io támogatást a konzumer kártyákból.2.) Egy újabb technikai forradalom kezdődött el
és egyre nagyobb lesz az igény a garázsban futtatott AI rendszerek iránt.
pl. A Hacker News -on napi átlagosan 3-4 kapcsolatos hír van ezzel kapcsolatban.3.)
Az AMD se véletlenül próbálja nyomni az AIE -t a Phoneix APU -ban.És az Intel-nek is erős tervei vannak:
Intel CEO: ‘We’re going to build AI into every platform we build’
https://www.theverge.com/2023/7/27/23810360/intel-pat-gelsinger-ai-every-platform-promiseAmit majd a Windows felhasználók is élvezhetnek.
‘AI is going to reinvent how you do everything on Windows,’ says Microsoft’s Windows boss : https://www.theverge.com/2023/1/4/23539873/microsoft-panos-panay-ai-windows-amd-ces-2023 -
Raymond
titán
válasz
S_x96x_S
#62376
üzenetére
"Miért érdeklődik geohot az AMD kártyái után? És milyen lehetőséget lát benne?"
Ezt csak geohot tudja. Egyelore senki mast nem erdekelnek es nem azert mert senki nem foglalkozik a temaval, vannak elegen de valahogy megse olyan tuti a dolog mint a self promoting bajnok geohot mondja.
"És egy Multi GPU-s konfigot ( 144 GB GPU VRAM )
vajon mennyiért lehet összerakni AMD-ből és nVidiá-ból ?"Ezzel mit akarsz mondani?
"geohot irja: "Runs 65B FP16 LLaMA out of the box""
Ez nem business case, ez valami amit geohot irt. Erted is hogy az mit jelent? Mert ugy magaban nem sokat. Az amit irsz hogy hazi training stb. ahhoz meg vagy eleg 1-2 kartya vagy kell tobb szaz vagy ezer. Az elobbinel a teljesiteny es a szoftver eleg, az utobbinal a halozati kapcsolat a problema igazan es nem az hogy mit tud egy kartya magaban. Bonusz pedig az hogy a kevesebb VRAM-al rendelkezo stack-nel az NV kartyak nagysagrendileg nagyobb teljesitmenyt nyujtanak. Az a 120TF semmi a 660/1320/2640TF-hez hasonlitva foleg hogy az NV kartyaknal ott a mukodo szoftver kornyezet es konyvtarak.
-
S_x96x_S
addikt
válasz
Raymond
#62374
üzenetére
> Csak egyelore senki nem mondta/irta meg
> hogy azok a startup-ok mit fognak futtatni a konzumer kartyakon.Elsőként - el kell gondolkodni, hogy vajon:
- Miért érdeklődik geohot az AMD kártyái után? És milyen lehetőséget lát benne?
- És egy Multi GPU-s konfigot ( 144 GB GPU VRAM )
vajon mennyiért lehet összerakni AMD-ből és nVidiá-ból ?"Multi GPU training:
Trees, rings, and collnets oh my! AMD gets us P2P for free.
"
https://tinygrad.org/> de mi az a business case amihez egy banyaszgep szeru konfiguracion lesz hasznalva?
geohot irja: "Runs 65B FP16 LLaMA out of the box"
Ha tudod mi az a ChatGPT - akkor ez amolyan "házi" ChatGPT alternativa.
amit egy adott cég ki tud használni ..
pl tovább lehet tunningolni a belső titkos kutatási anyagokkal, szoftver kódokkal, bizalmas e-mailekkel . Amiből így egy speciális szakétői rendszert lehet létrehozni - ami üzleti előny nyújthat.De mivel a konkurencia is ebben gondolkodik - ez üzleti kényszer lesz a jövőben.
Ez most az új aranyláz ...
-
HSM
félisten
válasz
Petykemano
#62371
üzenetére
"már ha az nem a mátrixszorzás képesség marketingneve"
Nem hagytam ki, az éppen az.
Legalábbis az Nv tensor magjai is ezt a Matrix Multiply Accumulate funkcionalitást nyújtják.
Érdekes egyébként innen [link] a uses-cases rész."Nekem az a gyanúm, hogy a GPU fejlesztésnél van egy tick-tock módszer..."
Én is így látom.
Maradtak az RDNA2-nél kitaposott úton, új, hasznos képességekkel bővítve, de a biztonságra játszva a bevált alapokon és a chipletezéssel. Szerintem egyébként remek munkát végeztek abból a szempontból, hogy a 33-as chipek alapján alig nőtt a rendszer tranzisztorigénye, de bizonyos esetekben igen jelentős sebességelőnyre van benne potenciál. Pl. gyakorlatilag úgy csináltak jelentős tensor-képességeket, hogy nem kellett hozzá külön tranzisztor-büdzé.
-
Raymond
titán
válasz
hokuszpk
#62373
üzenetére
Csak egyelore senki nem mondta/irta meg hogy azok a startup-ok mit fognak futtatni a konzumer kartyakon. Mert az hogy a fejlesztoknek van GPU a gepben OK, de mi az a business case amihez egy banyaszgep szeru konfiguracion lesz hasznalva?
Mert a "felvasaroljak a GPU-kat" hir egyelore egy geohot tweet-en alapul. Ennyi, mas nincs ott.
-
hokuszpk
nagyúr
-
Komplikato
veterán
"Otthon Pistike nem fog AI-ozni, mint kriptó esetén volt."
Ez az a része amit én meg erősen kétlek. Stabble Difussiont, meg LLama2-t sem cégek fognak futtatni. Most meg már annyira átálltak a grafiaki programok és videószerkesztők is AI funkciókra, hogy nem csak olyan drága ipari standard mint a Photoshop használ ilyet, de elég régen vannak kiegészítők pl. Kritához vagy Blenderhez is. Nyilván ez így is a home userek kisebb részét jelenti, de akkor is. -
Petykemano
veterán
Az CU-ba épített AI acceleratort, már ha az nem a mátrixszorzás képesség marketingneve, kihagytad.
Nekem az a gyanúm, hogy a GPU fejlesztésnél van egy tick-tock módszer, mint amit a prociknál látunk. A zen2, és a zen4 is főként egy a meglevő architektúra új gyártástechnológiára való portolását, vagy struktrurális átalakítását szolgálta kisebb (ez alatt nem feltétlenül a jelentőségét, hanem a bonyolultságát értem) kiegészítésekkel. Ott van pl a zen4, ami duplázta ugyan az L2$ méretét, de az asszociativitáson nem változtatott.
És aztán a zen3 és zen5 azok, amik teljes újratervezést jelentenek egy már kipróbált gyártástechnológiára adaptálva. -
HSM
félisten
válasz
Petykemano
#62363
üzenetére
"ezzel azt mondod..."
Nem, ezzel csak azt akartam mondani, hogy a dián szereplő akár 50%-al jobb perf/watt szvsz a teljesértékű RDNA3 implementációra lett értve, amiben benne van a nagyobb regiszter és az 5nm gyártástechnológia is."Semmilyen architekturából fakadó előnyt nem eredményezett az RDNA3"
Én azért felfedezni véltem kedvező előrelépéseket, főleg RT-ben, de ahhoz azért nem árt a megnövelt regiszter és kellő memória sávszélesség. De tény, hogy én sem dobtam el magam tőle, de ugyanakkor azt is érdemes elismerni, hogy éppen ott javított jelentősen, ahol erre a legnagyobb szükség volt (RT)."De az nem, hogy mire ment el a több tranzisztor."
Ha már említed... Megnéztem a Navi23 és Navi33 tranzisztorszámait, hiszen abból jól látható, hogy mennyi többletet jelent az új dual-issue és mátrixszorzás képesség, az optimalizált RT motor, az AV1 támogatás, és fejlettebb monitor interfészek, mindezek pedig a nagyobb modellek megnövel gyorsítótár és regiszter mérete és chipletezése nélkül. 13,300 millió tranzisztor áll szemben 11,060 millióval. Mindössze 20% többlet. Ahogy korábban utaltam rá, eléggé úgy tűnik nekem, hogy a tranzisztortakarékosságra hegyezték ki ezt a dual-issue módot, nem kér az RDNA3 alap lényegesen több tranzisztort, miközben hasznos, jelenleg még nem feltétlen kihasznált képességekkel bővült. Nagyjából arányban áll a többlet a sebességelőnnyel. -
hahakocka
őstag
Ah na ne Kripto után most majd az AI miatt lesz 1 éven belül minden vga 400-500e ft? ....
-
válasz
S_x96x_S
#62364
üzenetére
szerinted egy AI cégnél számít a hardveres költségben hogy 7,1$ / TFLOPS vagy 8,2$ TFLOPS ha nem kísérleti alanyt akarnak játszani és kiforrott szoftveres hátteret akarnak

Nem értem mit látsz ezekbe a számokba.. A Geforce és XTX vonal egy szükségmegoldás garázs AI cégeknek esetleg vagy ha nagyon nagy hardverhiány lesz.
AMD nek ugyan úgy az az érdeke hogy a több ezer dolláros W pro sorozat fogyjon ne az 1000 dolláros 7900XTX...
Amúgy a számok érdekesek, 7900XTX 123 TFLOPs hivatalosan a 4090 pedig 183 TFLOPs már egy frissítés óta. -
Petykemano
veterán
válasz
S_x96x_S
#62364
üzenetére
Nekem ezzel kapcsolatban nincs határozott elképzelésem, de olvastam egy olyan véleményt, hogy a AI témában a megtérülés nem annyira direkt, hogy csak beüzemelem a hardvert és már termel. Azon kívül elképzelhető, hogy több lesz a külön-külön bedőlő AI vállalkozás, amely pályafutása végén aztán a használt piacra önti a hardvereit, míg a kriptovaluta-bányászat esetén inkább az volt jellemző, hogy mindenki nyer, vagy mindenki bukik.
-
S_x96x_S
addikt
> Én is jónak tartom ,az 7900XT-t
ha meglesz a szoftveres körítés,
akkor elég versenyképes alternativa lesz a házi AI rendszerek terén.Gyors matematika a GPU-k világából! Egy új kísérletben a 7900XTX kártya majdnem eléri a 4090 teljesítményét, 142,5 TFLOPS-szal F16-on. Árban viszont az AMD vezet: $7,01/TFLOP a 7900XTX, szemben a 4090-es $9,68-cal, az H100-as $22,24-gyel és az A100-as $32,05-tel. A fogyasztás meg egy külön mese, aminél a processzor technológia a kulcs. Ebben a sorrendben alakul: H100 < 4090 < 7900XTX < A100. Pénztárcát elő!
-------------
New experiments (in fast_hip_gemm) branch are getting 142.5 TFLOPS of F16 w F32 accumulate on a 7900XTX. That's very close to the 165.2 of a 4090.
In $/TFLOP:
7900XTX: $999/142.5 = $7.01
4090: $1599/165.2 = $9.68
H100: $22,000/989 = $22.24
A100: $10,000/312 = $32.05
Power draw is a really funny thing to measure, since it's not what these numbers are tuned for. In the limit, it's probably just the process node used
H100 < 4090 < 7900XTX < A100
https://twitter.com/__tinygrad__/status/1688613617422495744------------------------
A kriptobányászok után most az AI-cégek keresik a gaming GPU-kat, és ugyanúgy beszippantják őket, mint egy fekete lyuk a csillagokat. Kína már megint túlpörög: egy H800 GPU-ért már $70,000-ot is kiperkálnak. George Hotz, a legendás hacker és vállalkozó, büszkén posztolta, hogy 60 darab AMD RX 7900 XTX GPU-t szerzet be, 7,38 petaFLOPS erejével. Ami persze apróság, mert állítása szerint még exaFLOPS-okban gondolkodik - azaz több tízmillió dolláros beszerzésről lehet szó. Az AI-nak óriási az étvágya, a gamer GPU-k pedig a tányérjukon vannak.
Evidence Shows AI-Driven Companies Are Buying up Gaming GPUs
Hopefully we can avoid a repeat of the cryptomining-GPU situation.
https://www.tomshardware.com/news/evidence-shows-ai-driven-companies-are-buying-up-gaming-gpus
-
Petykemano
veterán
Szerintem teljesen irreális elvárás a regisztereiben megnyirbált, 5 helyett 6nm-en gyártott, erősen költséghatékonyságra kigyúrt, belépő verziótól is hasonlót várni.
ezzel azt mondod, hogy a GPU teljesítmény teljesen architektúra-független és a gpu fejlődést kizárólag a sűrűbb és/vagy alacsonyabb fogyasztású tranzisztorok teszik ki, a fejlesztés pedig csupán arról szól, hogy ezt az előnyt a haza tudod-e vinni, vagy sem.Márpedig ez nem lehet igaz, mert az Intel nagyjából ugyanezt a teljesítményt 2x akkora lapkából hozza ki.
De a Kepler - Maxwell váltás is látványos architekturális fejlődés volt.Azt gondolnám, hogy a teljesítmény, energiahatékonyság és tranzisztorhatékonyság bizonyos mértékig egymást kizáró szempontok és qz AMD bevallottan utóbbira fókuszált. Az n7->N6 váltás 15%-a látszik a kisebb lapkaméreten. De az nem, hogy mire ment el a több tranzisztor. Semmilyen architekturából fakadó előnyt nem eredményezett az RDNA3. Lehet persze azt mondani, hogy architektúrát gyártástechnológiára tervezünk, de az RDNA3 eredményei - mármint amit nem lehet a gyárrástechológiához kötni - szerintem úgy sem túl meggyőzőek.
-
-
Abu85
HÁZIGAZDA
Dehogynem skálázhatók azok az áramkörök. Vannak nem skálázható elemek, de az áramkörök jó része még skálázódik. A nem skálázható rész az I/O, az pedig mehet chipletre.
A PlayStation 5 pedig eleve slim dizájn. Most mit vékonyítasz rajta még? Vagy valaki elhiszi, hogy azon a 70 mm2-en múlik, hogy vékonyabb lesz-e egy sokkal nagyobb konzolház?

-
Én is jónak tartom ,az 7900XT-t főleg, de azért nem lett egy lehengerlő fejlesztés az RDNA 2 hőz nézve.
A CB tesztek szerint amit írtál RT előrelépés nem jön elő például raszterben. 1 % kal lassabb mint a 6950, RT ben viszont csak 1 % kal gyorsabb. Érdekes kártya lett,
Nvidiánál ez kb a 4070 TI.
Igazából a fogyasztást valóban elő lehet hozni előrelépésként. Ha itthon ezt 7800 XT ként adják 5-600 Euro körül akkor tényleg jó kártya lesz, de szerintem 800-900 euros áron érdektelen,mint amit most rebesgetnek, hiába akasztották/ marketingelték rá az 900 végződést ( like 4080 12 GB.)
Igazad van hogy nem korrekt ,hogy kompletten levonja a következtetést az Architektre.
De az van hogy valóban az AMD/ RDNA3 legnagyobb konkurenciája saját maga az RDNA2 vel.
Az az 50 % kijelentés sehogy nem volt korrekt ,ez tény. -
HSM
félisten
Írja a hivatalos specifikációknál is a CB teszt, a GRE "game órajele" 1880Mhz, míg a 6950XT-é 2100Mhz. A TBP is árulkodó, a GRE-é mindössze 260W, míg a 6950XT-é 335W. Látszik ezekből is, hogy egy erősebb terhelés esetén a GRE hamarabb fog erős fogyasztási limitbe, így alacsonyabb órajelbe futni. Azért is írtam, hogy kb. fix 1.8Ghz körül lehetne az az órajel, amit biztosan fixen megfutna mindkét kártya a limitjein belül a terhelési csúcsok idejére is.
#62356 b. : No offense, de pl. az up to +50% perf/watt a Navi31 bemutatón hangzott el, és szvsz a Navi31-ben józanul paraméterezve (jól megválasztott TDP és órajel limit) ez benne is lehet. Látszik is a CB tesztből, mennyivel takarékosabban hozza már az alaposan butított GRE is a 6950XT tempóját.
Szerintem teljesen irreális elvárás a regisztereiben megnyirbált, 5 helyett 6nm-en gyártott, erősen költséghatékonyságra kigyúrt, belépő verziótól is hasonlót várni.
Az összehasonlítás persze korrekt a 6600-7600-ra nézve, csak éppen az egész videóban RDNA2 vs RDNA3-at emleget, ami így már korántsem az....
-
HSM
félisten
"Ez már most megvalósult"
Sajnos nem.
A GRE jóval szerényebb fogyasztási limitre van korlátozva. Engem azonos órajel érdekelne, olyan magas limittel, ami nem zavar be. Tehát mondjuk mindkét kártya fix 1.8Ghz-en, kitolt limittel. Odafigyelve, hogy a Navi31-ben külön van a frontend és shader órajel, az elődökben még nincs.
Pl. CB tesztben említik az órajelet, ez azért nem mindegy:
Cyberpunk 2077 + RT: GRE: 2.091 MHz, 6950XT: 2.363 MHz
Vagy van durvább is:
CoD: Modern Warfare: GRE: 2.028 MHz, 6950XT: 2.418 MHz
Akár 20%-al magasabb órajelnél nehéz C2C összehasonlításról beszélni, és számomra az sem derült ki, a GRE-nél ez melyik órajel, és mennyi volt a másik.
"tehát ugyanaz látszik kirajzolódni, mint az RX7600 kontra 6600XT tesztben, regiszter ide vagy oda."
Végülis csak nagyságrendileg 20%-al jár alacsonyabb órajelen a hasonló eredményhez.
Ez minden, csak nem hiteles C2C összehasonlítás az architektúrák között. -
PuMbA
titán
"Érdekesebb összehasonlítások születhetnek majd, ha a 80CU-s 7900 GRE-t hasonlítják majd azonos órajelen a 80CU-s 6900XT-hez, vagy 6950XT-hez."
Ez már most megvalósult, ugyanis a 7900GRE 2245MHZ-es boost clock-kal rendelkezik, a 6900XT pedig 2250MHz-essel
A 7900GRE teszteket pedig nem rég linkeltük, a két kártya hasonló tempót hoz, tehát ugyanaz látszik kirajzolódni, mint az RX7600 kontra 6600XT tesztben, regiszter ide vagy oda. -
HSM
félisten
Erre gondoltál? [link]
Szokásos RDNA3=RX7600 tévút.
Miközben ez csak erre a GPU-ra igaz, mivel összehasonlítva az RDNA2-vel (RX6600XT) ugyanakkora maradt a CU regiszter mérete (RT-nél ez komoly hátrány lehet), valamint ugyanúgy 32MB az L3. Ezáltal kb. csak a dual-issue képesség és az új RT megvalósítás hasznának egy részét mérik ezek ki, ami csak egy része az újításoknak, és nyilván az 5nm használata is kimaradt.Ehhez képest pl. a 7900 XT esetében az RDNA2-höz képest másfélszer akkora lett a regiszterméret, viszont csökkent az L3 méret. A nagyobb regiszter egyébként komoly segítség RT alatt, amivel már inkább tud domborítani a hatékonyabb RT-s futószalag.
Érdekesebb összehasonlítások születhetnek majd, ha a 80CU-s 7900 GRE-t hasonlítják majd azonos órajelen a 80CU-s 6900XT-hez, vagy 6950XT-hez. Bár erre nem találtam még hivatalos megerősítést, a 7900 GRE-ben meghagyták-e a 6MB-os L2-t és nagyobb regiszter méreteket, de vélhetőleg igen, hiszen Navi31 alapú.
Az első GRE tesztek alapján egyébként hasonló tempót hoz a 6900XT-vel, de lényegesen szerényebb fogyasztási keretből. Személy szerint nagyon kíváncsi lennék, ha valaki csinálna egy TDP korlát nélküli, fix órajeles tesztet.
-
PuMbA
titán
Ezért van / lesz bajban a GPU piac: PlayStation 5 “Slim” Not Being Slim at All Shouldn’t Be a Surprise, as Die Shrinks Are Dead. Az RDNA2 (és az Ampere) volt az utolsó mohikán.
Amit ebben a generációban láthatunk az fog folytatódni, tehát búcsút mondhatunk a jó ár / érték arányú új VGA-knak, mert az 5nm-től kezdve minden egyes gyártástechológiai előrelépés egy vagon pénzbe kerül. Majd megyünk konzolozni
Ott nem lesz semmiféle "milyen VGA lesz" gondunk. -
válasz
Alogonomus
#62345
üzenetére
És konkrétan mit jelent az hogy "prioritize graphics"? Mert CB konkrétan megadja minden játéknál a használt beállítást:
RE 4 :
bis Ultra HD: Maximum-Preset
RT: Reflexionen „Hoch“Valószínűleg itt van a kutya elásva, de ha azonos beállításokkal tesztelik a kártyákat az arányoknak ugyan azoknak kell lennie. HU valószínűleg nem mindent maximalizált....
-
Raymond
titán
válasz
Alogonomus
#62345
üzenetére
Es milyen anomalia van a CB teszben mester? Az aranyok ugyanazok ezekben a jatekokban az adott tesztben fuggetlenul a nyers szamoktol. A HL-ben ugyanugy 6950XT->7900GRE->3080 a sorrend ugyanzokkal a % elteresekkel peldaul.
-
Alogonomus
őstag
válasz
Raymond
#62344
üzenetére
Ja és nyilván pont szinte mindig a CB-nél kerül kiválasztásra az annyira nehéz útvonal, hogy 2 esetben még az RT nélküli eredményük is rosszabb volt, mint a HUB "prioritize graphics" vagy "ultra" eredménye.
Na ezért vártam a HUB méréseit, mert ott ilyen anomália egyedül egy régebbi Halo tesztjüknél történt, és annak az anomáliának utána is jártak, hogy az eredményeik általános hitelességét megőrizzék.
-
Raymond
titán
válasz
Alogonomus
#62341
üzenetére
"Megint beütött a ComputerBase-effektus, és sok esetben jelentősen alacsonyabb értékeket közöltek ugyanazon játék kapcsán."
Mas utvonal/resz van hasznalva a teszteknel a HUB-nal es mas a CB-nel
-
Alogonomus
őstag
Hát az "ugyanolyan eredményekkel" is erős túlzás, ha végignézed a számokat.
Megint beütött a ComputerBase-effektus, és sok esetben jelentősen alacsonyabb értékeket közöltek ugyanazon játék kapcsán. Sőt RE4 és HL kapcsán az RT nélküli eredményük is alacsonyabb lett, mint a HUB magasabbra húzott grafikás eredményei.
Egyedül a LoU 4k eredményekben voltak a ComputerBase számai magasabbak, míg a PT:Requiem 2k eredményeiben voltak azonosak a két teszt eredményei.
Az stimmel, hogy nagyjából a 6800 XT szintjén van a 7900 GRE mind a két tesztelőnél.
-
PuMbA
titán
Közben kijött a Hardware Unboxed teszt, de természetesen ugyanolyan eredményekkel, mint a ComputerBase-é:
Radeon RX 7900 GRE: The Best RDNA 3 GPU & You Can’t Really Buy It!
A 6800XT-t minimálisan veri

-
Alogonomus
őstag
Hát sajnos a mai HUB tesztben nem szerepeltek külön az RT nélküli eredmények és az RT-s eredmények, így nem derült ki, hogy a HUB méréseiben mennyit "ártott" az RT a 7900 XT, és mennyit a 7900 GRE eredményeinek. Összesített QHD és UHD eredményekben viszont minimálisan még csökkent is a GRE százalékos lemaradása az UHD-ra fellépéssel.
-
HSM
félisten
válasz
fahrii
#62337
üzenetére
Én egyáltalán nem tartom jó dolognak, hogy a piaci árba egyből bele volt árazva egy ~fél évnyi bánya akkoriban.

Az esetleges haszon jogi/adózási vonatkozásairól, bonyodalmairól, és a tevékenységgel járó kockázatokról nem is beszélve.Ettől függetlenül nem hagytam parlagon, termelt valamennyi ETH-t, de azért sok macera volt vele, és ha egyszer abból pénzt (vagy VGA fejlesztést) akarnék csinálni az megint egy kör utánajárás. Ezzel szemben a villanyszámla és a kártya piaci értékvesztése azonnali, és biztos, adózott pénzbeli, fájdalmas fizetnivaló.
-
Annyira rossznak tűnik így előzetesen a két új kártya teljesítménye, hogy az előzetes számokat látva egyből elkezdtem konteókat gyártani.

Őszintén nem lepne meg, ha az FSR3.0 egy exkluziv RDNA3 fícsőr lenne és ezzel promóznák a gamescom alatt az új kártyákat. Lehetne az első támogatott játék a Starfield mondjuk.
HSM
Hagytad parlagon a VGA-d teljesítményét a bánya láz közepén?
A hobbim szempontjából maga volt a kánaán az előző generáció. Bármilyen kártyát megvehettem és betesztelhettem tudva azt, hogy pár hónapon belül kitermeli az árát. Most meg egy kicsit meh, hogy ott a 7900XTX a gépben és kb heti 4-5 órát játszom maximum. -
HSM
félisten
Én még jó drágán vettem a 6800XT-t, amikor még hiány volt, így annyira nem vidít fel, hogy milyen olcsó lett a használtpiacon...
Én szívesen fejleszteném 7900XT-re a jobb RT miatt, de a jelenlegi árakon ez nem lenne túl racionális fejlesztés. A jobb ár/teljesítmény mutatóhoz pedig komolyabb generációs előrelépések kellenének. -
PuMbA
titán
Szerintem ez nem probléma egyébként, csak ahogy már pár hete írtam ide, tisztában kell lenni a dolgokkal. Nem véletlenül vettem meg a 6700XT-t, mert láttam, hogy itt nem lesz előrelépés az RDNA3 kártyáknál, így felesleges megvárnom őket.
Örüljünk, hogy az AMD és az NVIDIA jelenlegi generációja kuka, hiszen használtan olcsón megvehetjük az ugyanolyan sebességű RDNA2 kártyákat
Mi ezen csak nyertünk, hiszen több pénz marad a zsebünkben és a játékfejlesztők kezében sincs egy olyan új generáció, ami többlet sebességet ad, tehát a gépigények se fognak nőni. -
HSM
félisten
Egyébként elnézve az XT és XTX viszonyát, nem lep meg, hogy fájdalmas az L3 méretcsökkenése és a busz keskenyedése, ráadásul együtt.... Nagyobb felbontásokban pl. jobban lemaradt már az XT is az XTX-től, főleg 1440P és 4K viszonyában jól kivehető volt. A Navi21 pedig hiába kicsit bénább konstrukció, 128MB L3 áll szemben 64MB-al, azért az sokat besegíthet... Látszik is néhány játékban, hogy RT nélkül gyorsabb is a 6950XT, míg RT-ben kb. egál. A 7800 miatt én is aggódom kicsit, a várható órajeleken nem fog túl szépen mutatni, kb, olyan erősnek kellett volna lennie, mint most a GRE, de még ez sem túl meggyőző 80 CU-val, el lehet képzelni mit fog tudni majd a 7800-as 60-al.....
-
PuMbA
titán
válasz
Alogonomus
#62331
üzenetére
" A 7900 XT és XTX határozottan jobban viseli az RT bekapcsolását, mint a Navi 21-es kártyák."
Igen, pont ez a baj, hogy csak a csúcskártyák viselik jobban
A Navi 32-nél erősebb 7900 GRE meg már nem és azt is tudjuk, hogy a Navi 32 szendvics alján a Navi 33 sem. -
válasz
Alogonomus
#62331
üzenetére
-
Alogonomus
őstag
A 7600 valóban gyengére sikerült, de komoly 7900 GRE tesztet még nem láttam.
A Computerbase tesztje is kicsit furcsa "AVG-FPS" értékeket tartalmaz (7900XT@1080p 87,9fps
), de még azokat nézve is minden felbontás esetén javul a GRE helyzete a 6950XT/6800XT/6800XT eredményeihez képest a bekapcsolt RT esetén mért eredményeket is az átlagba kalkulálva.
Elvileg HUB Steve beszerzett egy példányt, és beígért egy tesztet. Na ott valószínűleg előkerül majd az RT teljesítmény is, és egyértelműen kiderül, hogy hány százalékot veszít a 7900 GRE az RT bekapcsolásával. A 7900 XT és XTX határozottan jobban viseli az RT bekapcsolását, mint a Navi 21-es kártyák. -
PuMbA
titán
válasz
Alogonomus
#62327
üzenetére
AV1 kódolást és az FSR3-at adom - ezek közül engem mondjuk egyik sem érdekel -, de a fejlettebb RT nem jön át a gyakorlatba, ahogy láthatod a 7900 GRE tesztben vagy a 7600 tesztekben. Ezek alapján a Navi 32 sem lesz gyorsabb RT-ben az RDNA2-höz képest.
-
Alogonomus
őstag
"semmiféle számottevő teljesítmény hátrányban nem lesz"
Azért ebben a valószínűleg 2025-ig tartó generációban mind a fejlettebb ray tracing tekintetében, mind az AV1 kódolást nézve, de alighanem az FSR3 algoritmushoz is jobb választás lehet egy Navi 32-es kártya, ha raszteres perf/$ tekintetében nem lesz sokkal drágább a Navi 21-es elődjéhez képest. A kedvezőbb fogyasztás már csak hab a tortán.
-
Raymond
titán
Es persze ar/ertek elorelepes nem lesz megitn az uj kartyakkal se. Ez a 6950XT-t "valtja" (meg ha nem is kaphato kulon) a kb ara alapjan. Az 7800XT pedig majd 6800XT teljesitmeny lesz aktualis 6800XT aron vagy inkabb picivel tobb (549-559EUR) es az AMD termeszetesen az 529EUR-os 4060Ti 16GB-hez fogja hasonlitani es nem az 589EUR-ert is kaphato 4070-hez mert az mar nem nezne ki olyan jol
A 12GB-os 7700 akarmit pedig az AMD szerintem inkabb ugy fogja beloni hogy az aktualis 6750XT ara felett legyen picivel (429-449EUR) es ugyanazt a teljesitmenyt hozza. Igy amig teljesen ki nem fogynak addig meg mindig a 339-349EUR-ert kaphato 6700XT lesz a tuti kartya abban a kategoriaban az AMD-tol.#62323 tuctuc
Az okok lenyegtelenel a vasarlonak, a lenyeg az hogy semmi ar/ertek elorelepes nincs se ezzel se az aljovendo 7700/7800 kartyakkal. Van jobb RT (mar ahol van) es valamivel alacsonyabb fogyasztas, de egy adott teljesitmeny szintet ugyanazon az aron kapod meg mint a piacon levo elozo gen termekekkel. -
tuctuc
aktív tag
válasz
Raymond
#62320
üzenetére
Az okokra kiternek a cikkben / tablazatban, nemetesek elönyben, de zanzasitva:
+ Dual-Issue ALU / jobb RT magok / fejlettebb Infinity-Cache / nagyobb "sima" Caches / több ROP
vs
- Frekvenciak / kevesebb Infinity-Cache / Chiplet-Design - Latencia
Fogyasztasban es hatekonysagban azert van fejlödes a 6950-hez kepest.
-
PuMbA
titán
válasz
Raymond
#62320
üzenetére
Az RDNA3 az egy chiplet megoldást bevezető architektúra, azt hiszem ezt most már végleg kijelenthetjük
Egy olyan új kezdet, mint a Ryzenek a processzorok világában, így nem is kellett volna várnunk, hogy nagyot villantson.Az RDNA 2 ellenben egy az adott technológiára épülve egy kiforrott cucc volt, hiszen pariban is van / volt az NVIDIA Ampere-rel.
-
Petykemano
veterán
válasz
Alogonomus
#62319
üzenetére
Igazad van. Talán a Navi24 miatt emlékezhettem úgy, hogy az RDNA2-ben nincs AV1 dekóder, merthogy abból tényleg kihagyták.
-
Alogonomus
őstag
válasz
Petykemano
#62314
üzenetére
"Én nem vennék azért dGPU-t, hogy utána cloudban futtassam a játékot."
Az AV1 dekóder ott van már a kártyákban az RDNA2/Ampere/Xe óta. X év múlva, mire a cloud gaming valóban jelentős tényezővé válik, addigra ezek a kártyák a mostani Pascal és Polaris kártyák szintjén lesznek. Sőt már a legfrissebb Zen 4 és a Raptor Lake integrált grafikai egysége is gond nélkül dekódolni tudja az AV1 formátumú adatot. Már a friss Snapdragon/Exynos/Dimensity mobilchipekben is ott van az AV1 dekódolás képessége.
-
PuMbA
titán
válasz
tuctuc
#62317
üzenetére
Hmm... nem csak raszterban, de RT-ben is ugyanazt hozza, mint a Navi 21! Ez így elég érdekes, hogy csak a teljes körítésű Navi 31 hozott RT sebességben javulást, mert ezen teszt alapján a Navi 32 se fog semmit ezen a téren hozni. Navi 33-ról már kiderült, hogy nem hozott.
-
tuctuc
aktív tag
7900 GRE Computerbase teszt [link]
-
PuMbA
titán
Teljesen jól fut 6700 XT-n 1080p natív felbontásban Very High raszter beállítással, High RT-vel és maximális, azaz 10-es RT távolsággal (object range). Very High RT már azért megfogja. Néhol még van RT el-el tűnés és megjelenés, de azt biztos javítják.
Ratchet and Clank Rift Apart Now Has RT On AMD! | 6700XT Benchmark
Ez a 6700XT úgy látszik jó választás volt FullHD-ra nekem.
-
Z_A_P
addikt
válasz
Alogonomus
#62313
üzenetére
minden mást pedig eleve felhős szolgáltatások fognak lefedni a cloud gaming mintájára
Inkabb konzol lesz ebbol... -
Petykemano
veterán
válasz
Alogonomus
#62313
üzenetére
> Így viszont nem igazán oldható meg a HPC "selejt" elhasználása a home computing vonalon.
Nem is feltétlenül arra gondoltam, hogy a két piacra közös lapkát fejlesztenek. Ma már inkább technológiai transzferről, esetleg közösen használt chipletről lehet beszélni.
Erre talán legjobb példa a Zen chiplet, ami nem csak abban nyilvánul meg, hogy képesek a chipleteket egyik piacról átterelni a másikra, ha váratlan keresleti korlátba ütköznének, hanem a válogatás révén a különöző piacrok eltérő minőségű vagy képességű lapkákat vihetnek.
Persze nem tudom, hogy a CDNA és az RDNA között ilyenfajta chiplet-megosztás lesz-e valaha.> Az újabb kártyák AV1 dekódere jelentősen segítheti a cloud gaming terjedését
Érzek ebben a mondatban némi önellendmondást. Én nem vennék azért dGPU-t, hogy utána cloudban futtassam a játékot. De az persze igaz lehet, hogy az AV1 hozzájárulhat a cloud gaming terjedéséhez, de ebben szerintem az APU-k (ide értve bármilyen intel vagy AMD megoldást, amiben van IGP vagy legalább AV1 dekóder) fognak szerepet játszani.
-
Alogonomus
őstag
válasz
Petykemano
#62311
üzenetére
Az Nvidia csak az előző generációban fordult határozottan a HPC/supercomputing felé, majd ebebn a generációban már egyértelműen azt jelölte ki a fő célpiacának. A HPC/supercomputing igényei egyre inkább eltávolodnak az otthoni kártyákkal szemben támasztott igényektől, ezért is választotta ketté az AMD is a termékeit CDNA és RDNA vonalra az előző generációban. Így viszont nem igazán oldható meg a HPC "selejt" elhasználása a home computing vonalon.
"minden mást pedig eleve felhős szolgáltatások fognak lefedni a cloud gaming mintájára"
Az újabb kártyák AV1 dekódere jelentősen segítheti a cloud gaming terjedését, mert úgy már sokkal kevesebb adatot kell átküldeni a kábelen, de még AV1 kódolással együtt is brutális közterületi és országok közötti hálózatfejlesztésre lenne szükség, ha 3 emberből 2 online szeretne az asztali gépektől már általánosan elvárt 90+ fps mellett játszani. Nem is beszélve a "lövöldék/versenyjátékok" kapcsán elvárt minimum 144 fps és lehetőleg QHD/UHD opcióról.
-
Alogonomus
őstag
Kihagyod a számításból a mostanra 50 millió példányt is bőven meghaladó RDNA2-es konzolokat.
A csúcskategóriát jelentő 4090 szintjét ebben a generációban valóban nem sok területen tudja támadni az AMD, de a 4080-tól kezdve van előnyösebb ár/érték mutatójú alternatíva az AMD kínálatában, míg a 4070 Ti szintjétől kezdve az AMD előző generációs termékei is kedvezőbb opciók. A friss MF eladási lista is ezt mutatja.
Az AMD nem a GPU vonalon küzd hátránnyal, hanem a prebuit rendszerek területén, míg a DIY piacon az AMD van jobb helyzetben, csak a DIY piac mérete töredéke a prebuilt piacénak. -
Petykemano
veterán
válasz
Alogonomus
#62309
üzenetére
Szerintem a fejlesztés iránya eddig is a vastag profittal kecsegtető profi, HPC, supercomputing, valamint a nagy értékesítési volumennel kecsegtető OEM, notebook, konzol volt. A doboz termék mindkét másik fókuszban levő piacnak a selejtjét, melléktermékét, morzsáit kapja.
Szerintem az se feltétlenül igaz, hogy csökkenne az igény az 1500-3000 lakossági kártyákra. Elképzelhető, hogy ez a piacnak csupán egy kis, de szerintem növekvő méretű szegmense lehet. Ezzel együtt csak ez nem fog fenntartani egy céget.
Bennem az merült föl kérdésként, hogy vajon az AI - és azzal együtt a GPU - meg fog-e járni egy olyan kört a kliensgépen, mint a grafika. Lesz-e vajon olyan fontos az adatbiztonság, vagy a késleltetés egy AI szoftver (modell) futtatásában, hogy az indokolja azt, hogy bizonyos célokért, emberek széles köre erősebb gyorsítókártyát akarjanak venni, vagy ezt teljesen kimarad és minden vagy egy mobiltelefon, vagy asztali processzor képességeit fogja igényelni, minden mást pedig eleve felhős szolgáltatások fognak lefedni a cloud gaming mintájára?
-
válasz
Alogonomus
#62309
üzenetére
Ettol meg az AMD egyertelmu hatrannyal kuzd a GPU vonalon.
-
Alogonomus
őstag
válasz
Petykemano
#62308
üzenetére
"több szempontból szükség lenne a hátrány behozatalára"
Egyre inkább úgy tűnik, hogy mind az Nvidia, mind az AMD lassan áthelyezi a fejlesztés irányát az asztali kártyákról, mert más területen többet profitálhatnak.
Nvidia az AI területére koncentrál (Hopper sínen, Lovelace Next csúsztatva), AMD pedig az AI és CPU mellett a konzolok piacára fókuszál, mert azokból többet profitálhat. Ráadásul a gazdasági és politikai harcok miatt a lakosság vásárlóereje világszerte csökken, és várhatóan mind a két harcszíntéren tartósan fennmarad a konfliktus, így talán még 2025-ben sem lesz rentábilis méretű igény 1500-3000 dolláros lakossági csúcskártyákra.Mind a két gyártó jól ellesz a jelenlegi csúcskártyájuk teljesítményét nyújtva 2025-ig, míg az Intel valószínűleg 2025-ben is legfeljebb az RTX 4070/ RX 7800 ellen tudhat ellenfelet bemutatni, ha egyáltalán hoz valamit.
-
Petykemano
veterán
válasz
Alogonomus
#62307
üzenetére
> vagyis nincs hova rohanni az asztali RDNA 4 fejlesztésével.
Ez a kijelentés vitatható. Bár továbbra is azt gondolom, hogy az nvidia piaci részesedésének nagyobb részét a OEM/Notebook eladások jelentik, ahol nem közvetlenül a fogyasztók "jól átgondolt" preferenciái döntenek. De igenis több szempontból szükség lenne a hátrány behozatalára és erre - eddig úgy tűnt - az Nvidia eltolása alkalmat teremt.
- energiahatékonyság
- abszolút teljestmény
- RT
- DLSS/FSRElképzelhető, hogy a nagyobb asztali példányok elengedésével a felsorolásból végül csak az abszolút teljesítményt nem fogják tudni hozni a megmaradt RDNA4 lapkákkal
Már csak az a kérdés, hogy vajon akkor RDNA4 helyett lesz-e esetleg mégiscsak RDNA3.5 alapú frissítés/javítás?Azért furcsa.... és egyben nehéz is megítélni, hogy mi maradt akkor az RDNA4-ből, mert persze az ember rámondaná, hogy biztos a Navi24 és Navi33 termékkategóriák N4P alapú felfrissítése lehet. Lapkaméret szempontjából bizonyára ezek jelentik azt a szintet, ahol érdemes lehet inkább monolitikusan építkezni. De vajon mi szükség lenne 100-150mm2-es lapkára, miközben arról beszéltünk, hogy Strix Halo-val tényleg eljuthatunk már oda, hogy a belépőszintet elviszi az APU?
-
Alogonomus
őstag
válasz
Petykemano
#62305
üzenetére
FSR 3 remélhetőleg pár héten belül érkezik a Navi 32 kártyákkal együtt.
Gyanúsan akkortájt érkezik a Starfield is...
MLiD szerint a Navi4C "nem monolitikus" kialakítása sokkal komplexebb a Navi3-hoz képest, és ez sok fejlesztési erőforrást igényelt. Ez alapján szerintem a Navi4C lehet a chiplet design, amit átmenetileg elengedett az AMD, hogy a többi RDNA 4 termékkel könnyebben elérhesse a jövő nyár végi céldátumot.
A Navi4M valószínűleg a laptop verzió, és így a Navi4X lehet a 400 mm² alatti monolitikus mainstream GPU. A Navi4X másik területe az új Pro konzol lehet.Az egyetlen érthetetlen dolog a csúcs RDNA 4-ek befékezése kapcsán az, hogy állítólag az Nvidia is eltolta egy évvel a következő asztali generációja érkezését, vagyis nincs hova rohanni az asztali RDNA 4 fejlesztésével.
-
Egon
nagyúr
válasz
Petykemano
#62305
üzenetére
X - eXtralarge
M - Medium
C - kiCióCCó...
-
Petykemano
veterán
Méltatlanul figyelmen kívül hagyott kódnevek:
Navi4X
Navi4M
Navi4C
[link]Pedig megmagyarázhat bizonyos az RDNa4 felsőkategória megszüntetésekor felvetődött kérdéseket.
Vajon ezek a chipletek lennének?
X - compute? Accelerator?
M - memory? Main?
C - Compute? Cache? Common? Central?
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- AMD Radeon RX 6600 8GB (Beszámítás)
- PowerColor RX 6700 XT 12GB GDDR6 RED DEVIL Eladó!
- Gainward RTX 5060 Ti Python III 16GB GDDR7 128bit (NE7506T019T1-GB2061T) Videokártya
- ASUS ROG Strix RTX 4090 OC 24GB GDDR6X Videókártya! BeszámítOK!
- 3év! AKCIÓ! ÚJ ASUS TUF GAMING Geforce RTX 5080 OC Edition 16GB VRAM Ray Tracing DLSS4
- GYÖNYÖRŰ iPhone 12 Pro Max 128GB Pacific Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3938
- Bomba ár! Panasonic CF-20-2 Tab+Laptop: i5-7G I 8GB I 256SSD I 10,1" WUXGA Touch I Cam I W11 I Gar
- Telefon felvásárlás!! Samsung Galaxy S25, Samsung Galaxy S25 Plus, Samsung Galaxy S25 Ultra
- Beszámítás! Asus TUF VG249Q 24 144Hz FHD IPS 1ms monitor garanciával hibátlan működéssel
- Samsung Galaxy A17 5G 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
trend


![;]](http://cdn.rios.hu/dl/s/v1.gif)
"
Legalábbis az Nv tensor magjai is ezt a Matrix Multiply Accumulate funkcionalitást nyújtják.

Miközben ez csak erre a GPU-ra igaz, mivel összehasonlítva az RDNA2-vel (RX6600XT) ugyanakkora maradt a CU regiszter mérete (RT-nél ez komoly hátrány lehet), valamint ugyanúgy 32MB az L3. Ezáltal kb. csak a dual-issue képesség és az új RT megvalósítás hasznának egy részét mérik ezek ki, ami csak egy része az újításoknak, és nyilván az 5nm használata is kimaradt.

