-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
.Ishi.
aktív tag
válasz
egyedülülő
#47496
üzenetére
Jogos, meg az is igaz, hogy játékspecifikus a DLSS 2.0.
-
.Ishi.
aktív tag
Érdekes volt ez a friss Digital Foundry Direct: [link]
Arra vagyok kíváncsi, hogy a zöldek oldaláról vajon mennyire hagyják el a GTX jelzőt, illetve, hogy a pirosak erre hogyan válaszolnak technológiailag.
A videóban elhangzik, hogy a DLSS 2.0-át, ha egy játék jól kihasználja, akkor tényleg sokat ér: asszem a példa az volt, hogy a Death Strandingban míg mondjuk egy OC-zott RX 5700 tud 4k40fps-t, addig egy OC-zott RTX 2060 tudja a 4k60-at a DLSS 2.0-ával, és nem kimondottan rosszabb képminőséggel.
Erre a pirosak mit tudnak majd lépni? Vagy mehet ez is abba a kategóriába, hogy inkább örüljünk, hogy ekkora büdzsével egyáltalán jól megy nekik a procigyártás, konzol-biznisz meg a price/perf GPU gyártás?
-
válasz
szmörlock007
#47492
üzenetére
ó köszönöm, tényleg
-
Jack@l
veterán
válasz
Petykemano
#47490
üzenetére
Van az a pénz amiért ezt mondja, vagy az ellenkezőjét

-
szmörlock007
aktív tag
válasz
solfilo
#47491
üzenetére
https://vimeo.com/intelpr/review/447304765/179933d14f?autoplay=1#t=5197s
Beállítottam a vidit, kb 20 sec amíg erről beszél, én besírtam amikor először meghallottam
-
válasz
Petykemano
#47490
üzenetére
ezt most mondta valahol?

-
Petykemano
veterán
"i still have the scars on my back from trying to bring expensive memory subsystems like HBM2 to gamers, atleast twice"
Raja Koduri -
Cathulhu
addikt
"AMD_MickeyRadeon Community Team49 points · 3 days ago
I've seen reports regarding Vega 56/64 performance in Horizon Zero Dawn and passed it on to our team to investigate." -
X2N
őstag
Én ezt a kevés vram dolgot majd egy memória bővítéssel le fogom tudni.(64GB-ra bővítek) Írtam ide már ezzel kapcsolatban hogy mennyire jó lenne nekem ha az nvidia kicsit több vramot tenne a kártyákra Iray renderelés miatt, de ez csak nem akar bekövetkezni 3+ éve. Érdekes hogy milyen gyorsan felmentünk 1-2GB-ról 8-11-re, aztán megy a toporgás évek óta most a leakek alapján ezeket a +1-2GB-okat a hajamra kenhetem. Mostanában tesztelgetem a Ryzen 2600-at, érdekes ellentétben az i7 3770-el nem lassul be annyira a gép renderelés közben,(az i7 konkrétan használhatatlan vol a gép render közben most meg simán youtubozok) és 1 óra alatt megvan egy render úgy hogy 32GB memória+32GB swap-et foglal. Ez gpu-val ~5-15percig tartana ha beférne a vramba.
-
Yany
addikt
Ha valami szar, akkor nézzétek meg a Vega64 eredményeket Horizon alatt. Egy RX580 beelőzi. Ezt hívom nevetségesnek: https://www.youtube.com/watch?v=bT-0Arz1E8E
-
Abu85
HÁZIGAZDA
Nyugodtan leírhatod, hogy nem probléma, ha a memóriaelérés késleltetése kétszeresére nő. Van egy szint, amit a GPU-k át tudnak hidalni, hiszen erre vannak tervezve, de olyan mennyiségű wave-et nem fogsz tudni futtatni, hogy magas késleltetést áthidalj. És onnantól csak teljesítményt vesztesz, mert nincs adat, amivel a GPU dolgozhatna.
Offline render szintjén egy ilyen megoldás hasznos lehet, mert ott alapvetően mindegy, hogy 20 helyett 30 perc alatt végez a rendereléssel a GPU, de nem mindegy, hogy mennyi modellt tudsz belerakni a VRAM-ba. Real-time szinten viszont nem éri meg felvállalni azt, hogy a GPU sokszor malmozzon. Arról nem is beszélve, hogy az AI scaling mindig veszteséges technika. Ha minőség kell, akkor nem érdemes alkalmazni. -
gejala
őstag
válasz
TESCO-Zsömle
#47481
üzenetére
Én viszont most borítékolom neked, hogy a következő hónapok olyan címeihez, mint AC Valhalla, Watch Dogs Legion vagy Hitman 3 legalább egy 3060/2070S kell majd 1440p highhoz is. Pascalból 1080 Ti valószínűleg elég lesz, de alatta nem nagyon.
-
TESCO-Zsömle
titán
válasz
gejala
#47476
üzenetére
Miért kéne új HW-t venni? Elég lessz a csuszkát "Ultra" helyett csak "High"-ra vagy "Very High"-ra húzni. Ez a szép a PC-s életben. Itt is gond nélkül el lehet lenni egy vassal 5+ évet is.
Sosem értettem ezt a feltételezést, hogy minden generáció-váltáskor rohanni kell a boltba, mert különben... Ha év végén kijönnek a next-gen konzolok (HW) a legkorábban jövőre, de inkább majd csak 2022-ben lesz PC-re olyan játék, ami natív next-gen motorra lesz írva, mert még a motorok is csak az elmúlt fél-egy évben jöttek ki. Onnan kezdve egy jobb játéknak 2-5 év, mire elkészül a zsáner és a lépték függvényében.
Nem volt ez másképp a korábbi konzolváltásokkor és nem lesz ez másképp most sem. Első évben legjobb esetben is csak felpimpelt multigen vagy egyszerűbb exkluzív címek jönnek.
sz: Ahogy Abu-nk is szokta mondani: Előbb a HW, aztán a SW. Nyilván konzolnál ez gyorsabb lefolyású, mert a HW berobban egy pillanat alatt a piacra, de a SW-nek akkor is kell idő.
-
válasz
nubreed
#47479
üzenetére
Kíváncsi leszek mennyien indulnak majd meg az új kártyákért szeptember-november között...
Ha az lesz mint szokott, akkor az utolsók között fog érkezni kártya az országba
Másik, hogy milliószor ki lett vesézve, hogy a steam hardware survey köszönő viszonyban sincs a valós adatokkal, mivel ugyanaz a gépről többször is készül felmérés.
Hatványozottan igaz ez pl Kínában a netkávézókban, (ezért sok pl a 1060-as kártya is) -
Abu85
HÁZIGAZDA
válasz
gejala
#47467
üzenetére
Ne keverjük ezeket össze. A mai GPU-k úgynevezett veszteségmentes színtömörítési algoritmusokat kínálnak. Ezek az AMD és az NVIDIA rendszereiben is 2:1, 4:1 és 8:1 arányú, veszteségmentes tömörítést kínálnak, amelyek ugyan hasznosak, de nem oldanak meg olyan kritikus menedzselési problémákat, mint a töredezettség. Tehát fel lehet ezekre építeni egy marketinget, és van is valós hasznuk ezeknek az eljárásoknak, de a működésük pontosan ugyanaz.
Az allokálás problémáját egyik ilyen veszteségmentes színtömörítési algoritmus sem kezeli, márpedig a VRAM használatának hatásfoka ettől függ, nem attól, hogy pár kilobájtot nyersz a puffer/image adatokon.
Az alternatív megoldásokkal két probléma lesz. A pletykákban szereplő Tensor magos módszer csak veszteségesen tud működni, vagyis minőségvesztés árán vállalod be, hogy többet nyersz a puffer/image adatok tárolásán. De ez minőségvesztés mellett sem oldja meg a töredezettség problémáját, amitől rossz hatásfokú a VRAM használat, illetve a kitömörítés időbe kerül. Egy image adat betöltése egy mai GPU számára nagyjából 50-70 ns körül van. Arra vannak tervezve a hardverekhez szabott optimalizálások, hogy a wave-ek futtatása szempontjából ezt az 50-70 ns-ot áthidalják konkurens wave-ekkel. Tehát egy shader mondjuk allokál valamennyi erőforrást a multiprocesszoron, ami megenged mondjuk 16 wave-et futtatni. Ebből egy belefut egy memóriaelérésbe, jön a következő wave, és kialakul a működésben egy olyan egyensúly, hogy a wave-ek egy része adatra vár, míg a másik része addig dolgozik. Ez a működés a normál memóriaelérésre van szabva, és ezért van megadva minden architektúránál egy minimum wave szám, amit el kell érni a hatékony működéshez. Ha azonban még át is kell méretezni az image adatot a betöltés után, akkor az az 50-70 ns megnő az átméretezés időigényével, ami jó esetben is minimum 100 ns lesz. Így már jóval nagyobb késleltetést kell áthidalni a konkurens wave-eknek, miközben elképzelhető, hogy nem is futtatható annyi wave a multiprocesszoron belül, ami ezt meg tudná tenni. Sőt, a statikus erőforrás-allokálás miatt igen ritka, hogy egy adott shader képes annyi wave-et futtatni, amennyit az architektúra elméletben megenged.
Ez tehát egy egyensúlyi kérdés, hogy megéri-e vállalni a konvertálás extra késleltetését, azzal ugyanis tényleg lehet nyerni a VRAM oldalán, de ennek az az ára, hogy a GPU közben malmozni fog, amíg adatra vár. -
-
Busterftw
nagyúr
válasz
GeryFlash
#47465
üzenetére
Nem tudom, oldjak meg.

A texturak meretei adottak, megis gyorsabbak azonos felbontason az Nvidia kartyak, kevesebb vrammal. Vagy oke, legyen egal, de megis kevesebb vrammal oldjak meg.
Miert ne lenne ez ervenyes a "next genre"?
PC-re mar sok eve leteznek 4K textrura csomagok rengeteg jatekhoz, meg is eleg a vram.
Csak annyi fog valtozni, hogy mainstreamebb lesz a 4K, mert lehet az 50-60 fpshez mar nem kell 2080Ti, hanem eleg egy 3060. -
Devid_81
félisten
válasz
gejala
#47470
üzenetére
A DLSS as valoban jo, ha ez a resz megmarad es akar fejlodik is akkor az nagyon pozitiv.

Csak azt nem tudom mik lesznek az Ampere nagy es uttoro trukkjei amivel a Turingokat majd szepen ellehet felejteni.
Mivel egy 1.0-as beta hardware igy ha jol sejtem majd lesznek hatranyok elobb utobb, nVidiat ismererve inkabb elobb... mint utobb

(#47471) GeryFlash nalam az RT az pont az az effekt ami nelkul jot alszok, viszont ha valami miatt durvan pofanverik a sebesseget es ezzel probalnak majd az Ampere fele terelni akkor sirni fogok

-
gejala
őstag
válasz
Devid_81
#47469
üzenetére
Turingokon most is működik a DLSS, nem tudom elképzelni miért ne működne rajtuk a 3.0. NV-nek az az érdeke, hogy fejlesztők beépítsék minden TAA-t támogató játékba, mert ingyen 50% gyorsulás. Egy 2060-2070 is tud így 4K@60-t, miközben AMD-ből két kategóriával nagyobb kártya kell ehhez.
-
gejala
őstag
Már 6 éve van VRAM tömörítés... Persze AMD ebben is rosszabb, mint NV, azért kell nekik több VRAM. És NV most már beveti Tensor magokat is erre, 8 Gb VRAM Ampere-n kb annyit fog érni, mint 10-11 Gb Navi-n. Hacsak AMD nem lép előre valamit, amiről nem tudunk.
DLSS meg abszolút forradalmi dolog. Óriási sebességnövekedés minőségromlás nélkül. És hamarosan driverből is működni fog, játékokban csak minimális bütykölés kell majd hozzá. Enélkül lehetetlen a 4K@144 elérése, a 8K meg pláne.
Ha AMD-nek nem lesz hasonló megoldása nagyon gyorsan, teljesen le fognak maradni. -
GeryFlash
veterán
válasz
Busterftw
#47464
üzenetére
Hogy lenne jobb a VRAM kezeles? Ha valamit akkor azzal eleg nehez trukkozni. mivel a texturak meretei adottak. Persze lehet azt hogy ilyenkor a rendszer ha latja hogy keves a VRAM leveszi a texturak felbontasat/minoseget, csak az k*rva cink lenne egy 7-800 dollaros VGA-nal, hogy nem max qualityn jatszod. Olyankor mar nehez ervelni hogy neked masterracernek miert is erte meg 2szer annyit koltened egyetlen hardverre a PS-sel szemben

-
Busterftw
nagyúr
válasz
GeryFlash
#47462
üzenetére
Plusz biztos lesz valami eljaras, ami miatt jobb lesz a vram kezeles es hasonlok.
A textura felbontas igazabol ami megdobja a vram hasznalatot.Pl proba kedveert feltelepitettem a PUBG-t nemreg, az 1440p-n bekajalt 7GB-ot, de ironikusan a legrosszabbul kinezo texturak fogadtak amit eddig jatekban lattam.
-
nubreed
veterán
válasz
Busterftw
#47461
üzenetére
Én is ugyanígy vagyok, 1440p, 144 hz-es monitor, csak nekem egy 2060S -t fog váltani valami a 3000 -es szériából. Azt még nem tudom mi, 3060 vagy 3070 ez majd a tesztektől függ, a 2060S -t semennyire sem érzem future proof kártyának már ezen a felbontáson sem. 1080p -re persze még az lehet, ezért játszik a használt piacon, el lehet adni.
-
-
GeryFlash
veterán
válasz
Busterftw
#47459
üzenetére
A hangsuly az eddigen van. De mar most a current gennel (vagy lassan nevezzuk pregen) votlak jatekoka amig lazan megettek 12-14GB VRAM-ot. Ketseg se ferjen hozza hogy a next-gen jatekok (amikert elvileg veszed ezeket a kartyakat legalabb 2-3 evre) legalabb ennyit de inakbb tobebt fognak kerni. 4K-ban persze. 1440p-re meg ki venne 3080-at.
-
Busterftw
nagyúr
válasz
GeryFlash
#47456
üzenetére
En ugy vagyok a vrammal (szigoruan jatek szempontjabol), hogy tolem 1GB is lehet, ha eleg arra a 3 evre amig nalam van. Eddig semmilyen hatrany nem erte az Nvidia-t, mert kevesebb vramot pakoltak ala, sot igy is jobban teljesitettek, mint a tobb vramos AMD kartyak.
Attol a par jatektol tekintsunk el, amik szar optimalizalas es memory leakek miatt tobbet kernek mint kene.
-
Alogonomus
őstag
válasz
Petykemano
#47450
üzenetére
"Úgy látom, nem ment át, amit mondtam.
Épp az volt a lényege, hogy nem törvényszerű, hogy 300W fogyasztás esetén +100w-tal ugyanúgy +10%-ot hozzá lehet adni két különböző architektúra, két különböző design esetén."Nem olvastad végig a válaszomat, pedig pontosan leírtam, hogy: "ahol esetleg már nagyon ellaposodik a "görbe", de +30% fogyasztásból valószínűleg így is kijön +15% teljesítmény"
-
GeryFlash
veterán

Persze a pletykák mindent mondanak, de ezt a 10GB-os 3080-at már nagyon so khelyen láttam. Lehet mondani hogy akinek nem ideális az ne vegye meg, illetve hogy akinek 100FPS kell 1440p-n annak jó lehet... Csak simán az elv, hogy egy ilyen drága cuccra 2020 végén ilyenen spórolnak... De ha nem lesz ilyen kiadás akkor mea culpa
-
paprobert
őstag
Ha meg lehetett volna csinálni, megcsinálták volna egy paperlaunch és egy Linustechtips videó erejéig. Nem történt meg.
Ha viszont folytatódik a 100-200 MHz-es felfele kúszása az órajeleknek a generációk között, akkor ez hamarosan realitássá válhat. Kérdés, hogy a 8 magos CCX topológia ebbe mennyire zavar majd be.
-
paprobert
őstag
Én még nem láttam tuningolt Zen2-t 5GHz felett hagyományos levegővel vagy vízzel. Ha csak a TDP lenne a gond, mindenki pattintaná 300W fölé a cuccot, de a silicon fitness nem engedi.
#47450) Petykemano
A Navi10 nagyon biztató abból a szempontból, hogy mínusz ~15% teljesítménycsökkenés esetén 120W-ra esik a fogyasztása. Tehát a CU duplázásnak a Big Navi-nál bőven van milyen energiakeretből dolgoznia, lehetőség van egy akár még "értelmetlen" túlhúzásra is.
A vízhűtéses pletyka is erre utal, hogy a csúcskártya biztosan szét lesz húzva, mert arra számítanak, hogy ez az extra kell a csúcsdöntéshez. -
Abu85
HÁZIGAZDA
válasz
Petykemano
#47450
üzenetére
De amiatt van. Ha az AMD is engedné 300 wattig a Ryzen 3950X-et, akkor be tudnának állítani 5 GHz fölötti órajelet, de nem látják értelmét, mert többet ártana az egész sorozat reputációjának, ha kazánt csinálnának belőle. Megelégszenek a 170 wattos maximummal. Ha megnézed a DIY eladásokat, akkor láthatod, hogy melyik opció éri meg jobban.
-
Petykemano
veterán
válasz
Alogonomus
#47442
üzenetére
"Egyértelműen (minden valószínűség szerint?) a sweet spot környékén (vagy csak kicsivel afölött) üzemelt a 3950 X"
Ezt nem tudom, mire alapozod.
Szerintem csúcsra van járatva. ST-ben nem igazán tud feljebb menni. Nem TDP miatt. A feszültség nagyon magas lenne.MT használat esetén a TDP a limit, magasabb TDP-vel Lehetne magasabb frekvencia, de nem éri meg.
Egy 150W-os Sku MT-ben lehet, hogy 10%-kal jobb eredményt érne el, de a 4.7GHz ST turbó és mondjuk gamingben nem lenne jobb."A kérdés az, hogy a 3800 Ti szintén 250-300 W közötti fogyasztással lesz egálban (vagy pár százalékkal magasabban), vagy 350-400 W közötti fogyasztással?
400 W körüli fogyasztással hiába lenne a 3080 Ti a Big Navi előtt mondjuk 5-10%-kal, mert az AMD is fel tudja vinni további 100 W fogyasztási kerettel 400 wattig a saját kártyáját"Úgy látom, nem ment át, amit mondtam.
Épp az volt a lényege, hogy nem törvényszerű, hogy 300W fogyasztás esetén +100w-tal ugyanúgy +10%-ot hozzá lehet adni két különböző architektúra, két különböző design esetén.Erre remek példa az AMD intel. A zen2 szerver chipeket alacsony (sweet spot) frekvencián üzemelnek és adott TDP keretbe így kétszer annyi mag belefér, vagyis szignifikánsan jobb perf/w mutatóval bír.
És ugyanaz a két mag közül a kevésbé energiahatékony eléri az 5.3GHz-et, a másik 4.7GHz-nél megáll. És ez nem amiatt van, mert előbbit engedik 2x annyit fogyasztani. -
válasz
GeryFlash
#47445
üzenetére
valóban nem neked akartam szánni egy részét a kommentemnek hanem Alogonomus nak is.
A konzolok sem jelentek meg DXR1.1 játék sem jelent meg azt sem tudjuk a Turingok hogyan viselkednek alattuk vagy az Ampere RDNA hogy fog ....csak marketing maszlag van semmi más...
Eddig konkrétan egyetlen egy játéknál sem amit láttam PS5 re vagy Xboxra nem éreztem hogy én next gen játékot látok. Ilyen még soha nem volt egy generáció váltásnál sem a konzolok terén. Mielőtt elfogultsággal vádolnál imádom a konzoljaimat mindhárom gyártótól van konzolom Switch , One , Ps4 pro itt figyel, aki ismer az tudja,de erre is azt tudom neked mondani, hogy ezek konzolok nem fogják ezt hozni jó ideig mint amit beleláttok páran. meg kell várni hogy megjelenjenek, hogy egyáltalán lássuk mire képesek, mert jelenleg ha ez így maradakor el leszek a PS4 pro-val...
A fogyasztásról újra leírom neked hogy nem tudod mi az igazság mert nem jelentek meg a a kártyák..
mai pletyka szerint a csúcs GPU 230 wattot eszik és ehhez jön 60 watt a ramoktól de 60-90 % gyorsulást pletykálnak mellé, ez hol nem előrelépés szerinted egy lassabb nodon ha igaz lesz egyáltalán? ebben is hihetnél nyugodtan ugyan úgy ahogy a negatívumokat hiszed el... a RAM nem tudjuk.. jelen állás szerint lesz 3080 16 GB vagy 8 GB vagy 12 GB vagy 10 GB vagy 20 GB és stb verzióban,amit6 majd Nv felold később 12 GB ra szoftveresen meg hasonló hülyeségek vannak már tálalva.... van oldal aki azt írja mindjárt 2 féle lesz a 3080 ból és a 3070 ből és hogy lesz 2 féle 3090... semmit nem tudni még, semmit. Ha akarod belinkelek ide neked mai 5 megbízható oldalt az általuk kiadott táblázattal, csak ez nem az a topik... Ezért írtam feljebb értelmetlen háborognod a semmin előre és lefutottként elkönyvelned bármit is... -
GeryFlash
veterán
-
GeryFlash
veterán
Nem csak az idők változnak, hanem most jön ki egy (két) új generáció videokártya miközben az új konzolok raytracing támogatásos játékok dömpingjét hozzák magukkal a következő években, ki az az idióta aki most beruház nagy összegben vga-ra de raytracing támogatás nélkül? Aki most vesz VGA-t jó eséllyel a következő 2-3 évre vesz. Értem hogy ki akarjuk hozni hogy mennyire megérte Turingot venni DXR 1.0 miatt, és hogy ,,na mivan most mégis jó az RT?
" Csak éppenséggel most
1.) Következő években lesznek normális számban RT suppportos játékok
2.) A DXR 1.1 teljesen más minőségben és sebességben fogja elhozni az RT-t mint a korábbi FPS felező de cserébe kevés sugarú DXR 1.0
Igen változnak az idők, hirtelen megéri ezek után olyan VGA-t venni ami támogatja a DXR 1.1-et.Egyébként meg ne nekem címezd ezt, én mindig azt mondtam ha egy árban van ugyanolyan teljesítményű Radeon vs Nvidia akkor vedd inkább az NV-t mert egyrészt kevesebbet fogyaszt másrészt talán pár játéknál már a DXR előnyeit is élvezheted. Nem is tudom mikor ajánlottam utoljára AMD-s VGA-t Nvidia-val szemben.
,,most meg egy meg sem jelent AMD generáció már kifejezetten alázza a meg sem jelent Nvidia kártyákat és milyen menőség ez.
Csak nehogy meglepődj mikor két 300 wattos kártyát fogsz látni ősszel a piacon ugyan azzal a teljesítménnyel."Te elolvasod amiket én írok vagy csak a szalmabáb érveléssel, saját árnyaiddal hadakozol? Biztos vagyok hogy nálad nem a szövegértelmezési képességeken múlik ez, hanem az NV való rajongás és az ebből fakadó objektivitás vesztés.
Csak mert ugyanezt írtam le, egyrészt nem, nem fogja alázni az AMD az Nvidiát, kb egál lesz mindenben a két generáció ahogy a leakek és infók alapján tájékozódunk. Se VRAM-ban se perf/wattban nem számítok jobbra AMD oldalon mint NV-nél. Csak éppenséggel az AMD magához képest óriásit javult, miközben az Nvidia alig valakivel többet mint amit nodebol elvárható volt. A VRAM-ot ugyanúgy fel lehet hányni mindkét gyártónak, de mint írtam ott azért a memóriagyártók felelősége is előjön ezekkel a röhejes méretű memória lapkákkal amikből rá kell celuxozni egy vagont a VGA-ra, ezáltal is részben megdobva a fogyasztást.
,, nv hoz egy 3080 kártyát 300 wattból ami 2080 Ti+ 20 % teljesítményű pont senkit nem fog érdekelni ha AMD hoz ugyan ilyet 250 wattból.. az ár lesz a döntő és az egyéb szolgáltatásokban lévő teljesítmény nem az 50 watt eltérés fogyasztásban mondjuk."
Ilyen biztos nem lesz, mivel az AMD hozza később kártyáit, ha az AMD tudna hozni 250 wattból olyat mint az NV 300ból akkor az AMD szintén 300 watton hozna valami erősebbet. De ez még az 50%-os perf/watt javulással (RDNA1-->RDNA2) sem reális. Nem számítok jobb perf/wattra AMD-től, vagy maximum valami iszonyat (<5%) marginális szinten. Viszont a tendencia jól látszik. Aztán az más kérdés, hogy ez a tendencia azonnal mehet a kukába, ha legközelebb az Nvidia nem a profitmaximalizálásra megy rá, és nem egy olcsó szar nodeon gyártat hanem mondjuk ugyanazon mint a rivális. A saját szempontjukból egyébként nem mondom, jól csinálják, most még éppen belefér, de következő generációnál ezt a luxust már nem hiszem hogy eljátszhatják.
A perf/watt mutatót nem azért hoztam fel, mert nekem vagy a vevőknek annyira számítana fogyasztás, de annál jobb benchmark hogy egy adott gyártónak a VGA generációja mennyire fejlett nem igen van.
-
do3om
addikt
válasz
Alogonomus
#47442
üzenetére
Az AMD nem fog benne tartalékot hagyni, legalábbis szerintem. Főleg felső kategóriás kariban.
Ez a fogyasztási tartalék meg.... Azért sántít. Mivel jók ebben a karik ha visszaveszik, a sebesség pedig minimális szinten csökken.
Csak ez fordítva is igaz, azt hiszed férne még a fogyasztási keretbe de rohattul nem. Alig húzol rajta és elszáll, méghozzá adott gyorsulás sokszoros fogyasztást okoz, nem egyenletes az arány.
De ezt valaki azt hiszem már írta is.
Itt a két gyártó egy dolgon tud jót lépni, ha akar, de az fáj... Neki. Az ár. Mindent leszarunk ha az ár olyan. -
válasz
GeryFlash
#47431
üzenetére
2020 van és ezt tavaly nem olvastuk itt ezen a fórumon, hanem azt hogy az Rt semmire sem jó...Változnak az idők.
a perf/ watt eddig leszarós volt itt szintén a vega 64 kártya és társai, BIOS-t hackelt mindenki és azt olvastuk hogy az RX 580 valójában gyíkfarok főzettel és denevér vérrel keverve annyit sem eszik mint a GTx 1060 és amúgy is ez nem téma mert le lehet hűteni. éves szinten ez két csomag cigi ára és amúgy is.. most meg egy meg sem jelent AMD generáció már kifejezetten alázza a meg sem jelent nvidia kártyákat és milyen menőség ez.
Csak nehogy meglepődj mikor két 300 wattos kártyát fogsz látni ősszel a piacon ugyan azzal a teljesítménnyel. Az hogy a perf / watt döntő legyen 30 - 50 % eltérés kellene két hasonló teljesítményű kártya között, magyarul ha az nv hoz egy 3080 kártyát 300 wattból ami 2080 Ti+ 20 % teljesítményű pont senkit nem fog érdekelni ha AMD hoz ugyan ilyet 250 wattból.. az ár lesz a döntő és az egyéb szolgáltatásokban lévő teljesítmény nem az 50 watt eltérés fogyasztásban mondjuk. -
Alogonomus
őstag
válasz
Petykemano
#47440
üzenetére
Egyértelműen (minden valószínűség szerint?) a sweet spot környékén (vagy csak kicsivel afölött) üzemelt a 3950 X, és valószínűleg első nekifutásra a Big Navi-t is a 250-300 W közötti sweet spot környékén tervezik kiadni. A kérdés az, hogy a 3800 Ti szintén 250-300 W közötti fogyasztással lesz egálban (vagy pár százalékkal magasabban), vagy 350-400 W közötti fogyasztással?
400 W körüli fogyasztással hiába lenne a 3080 Ti a Big Navi előtt mondjuk 5-10%-kal, mert az AMD is fel tudja vinni további 100 W fogyasztási kerettel 400 wattig a saját kártyáját (a'la 5600XT), és máris visszavenné az első helyet. Ezért ér nagyon sokat a perf/W előny.Amikor 220 és 240 W a két kártya fogyasztása, akkor nem igazán számít a perf/W, de amikor 300 és 400, akkor nagyon számít, mert az egyik a léghűtés végső határát tesztelgeti, a másik pedig még kényelmesen hűthető, és szükség esetén ugyanúgy elvihető a léghűtés végső határáig, ahol esetleg már nagyon ellaposodik a "görbe", de +30% fogyasztásból valószínűleg így is kijön +15% teljesítmény.
Persze Nvidia átválthat akkor folyadékhűtésre, és elképzelhető, hogy a 12 pines csatlakozóval elérhető 600 W környékén már az Nvidia "görbéje" mutat sokkal előnyösebb képet.
-
TESCO-Zsömle
titán
válasz
Alogonomus
#47421
üzenetére
Még ha be is következne amit írsz, konzumer piacon akkor is ott lesz, hogy az egyik nVidia, a másik meg nem. Mikor éppen aktuâlsan az AMD/ATI megoldásai voltak jobbak, akkor se rohantak az emberek Radeont venni.
-
Petykemano
veterán
válasz
Alogonomus
#47435
üzenetére
"Perf/W előny azért ér sokat, mert valóban jolly joker kártya. Bármikor gond nélkül bevethető, és azonnali eredményt hoz."
Ahogy fentebb írtam, a perf/W skála nem lineráis. Lehetséges olyan architektúra, amelyik egy meghatározott teljesítményszinten remek perf/W mutatóval bír, de ha 5-10%-kal feljebb tolod, akkor már borzalmas. És lehet olyan architektúra is, amelyik ugyanazon teljesítmény és fogyasztási értékek mellett a skálázódási görbének egy más meredekségén foglal helyet.Ugye most itt arról beszélünk, hogy mondjuk 250-300W és hogy érdemes-e, lehetséges-e 350-400W-os kártyát gyártani.
Ami az intel vs amd kérdést illeti, szerintem az AMD-nél nem döntés kérdése volt az 5% ST lemaradás behozása. Ha ez így lett volna, akkor legkésőbb az XT sorozat kiadásával ezt meg is tették volna.
Ne érts félre, én nem akarom elvitatni a zen2 érdemeit és legkevésbé egekbe magasztalni az 5%-os ST különbséget. csak azt mondom, hogy a remek perf/W ellenére azon a ponton, ahová a 3950X és az XT sku-k eljutottak, megállt a zen2 skálázódása.
-
Petykemano
veterán
Én mondtam azt, hogy szerintem a "Vega kazán" probléma nem, vagy inkább elsősorban nem abból fakadt, hogy a Vega sokat fogyasztott, hanem abból, hogy a magas fogyasztás ellenére milyen szinten versenyzett.
Legalább két példa is van, ezeknek a cégeknek a korábbi életéből, ami bizonyítja azt, hogy a magas (szignifikánsan magasabb) fogyasztás brandérték, vonzóerő szempontjából negligálódik/negligálható, de legalábbis érvelhető, amennyiben azzal együtt az abszolút teljesítmény előny megtartható.
Az egyik a nemrégiben kiadott intel Lake sorozat legutolsó tagja.
A másik pedig az Nvidia fermi architektúrája, amivel kapcsolatban szintén születtek mémek,de azért a gúnyolódásnak az élét elvette, hogy a lényegesen magasabb fogyasztás ellenére orrhosszal gyorsabb volt, mint az AMD vetélytársa.Az AMD-nek egyébként számos architektúráját nyomorította ( fennálló versenyhelyzetben ) meg az a jelenség, hogy nem skálázódik - vagyis a konkurenciához viszonyítva alacsony(abb) frekvencián következett be az a pont, ami felett nagyon meredeken emelkedett a fogyasztás.
- A polaris eleinte ilyen volt: [link] a későn és 12nm-en kiadott RX 590-cel sikerült valamit találni: [link]
- a vega ilyen volt, [link]
a zen és zen+ ilyen volt. [link]
(A zen2-nél talán inkább az IF frekvencia emelése jelent problémát.)
Az RDNA viszont az elődőkhöz képest elvileg jobban skálázódik.Az, hogy hol kezd meredeken emelkedni a görbe ott számít, hogy mennyit nyersz vele.
Például a vega 56 és a vega64 között a tpu adatbázisa szerint ~10% különbség van és ezért 295-210 = 85W-tal, azaz 40%-kal magasabb fogyasztással fizetsz.
Az 5700 és 5700XT között ~15% a különbség és 225-180=45W-tal, azaz 25%-kal fizetsz.Lényegesen jobb skálázódás.
Azt nem állítom, hogy ha az RDNA-t pörgeted 295W TDP-vel, akkor ott is ilyen jó skálázódási értékek jöttek volna ki. (Valószínűleg nem)
De ha az architektúra megengedte volna, hogy mondjuk további 75W-ért 15-20%-kal magasabb teljesítményt vasalj ki belőle, akkor lehet, hogy érdemes lett volna.Ennek megfelelően, ha és amennyiben az nvidia architektúrája 300-400W között is még jól skálázódik, akkor a gigamega fogyasztási érték ellenére is megérheti ilyen nagy fogyasztással pörgetni. És ha a megszokott fogyasztási értékekhez képest +100-150W fogyasztás hoz mondjuk 25-30% többletet, akkor arra senki nem fogja azt mondani, hogy kazán.
Ennek ellenpéldája a vega liquid volt. Ami beszívta a +100W-t és ilyen 2-3%-ot yieldelt, ha jól emlékszem. Remek példája volt annak, hogy iszonyú energiát lehet vele spórolni, ha kicsit visszaveszed.
-
Pipó
őstag
válasz
GeryFlash
#47426
üzenetére
Simán el tudok képzelni új kártyát RT nélkül. A jelenlegi szériánál is megcsinálta és volt rá igény. Mellette vehetsz RT-set, ha a pénztárcád engedi. Egy szóval sem mondtam, hogy ez lenne a presztízs termék egyébként. AMD-s kifejezéssel élve simán lehetne "népkártya". Szerintem lesz olyan új generációs AMD is, amiben nem lesz RT. A "legeslegjobb élmény" nagyon drága.
-
Alogonomus
őstag
válasz
Petykemano
#47425
üzenetére
Perf/W előny azért ér sokat, mert valóban jolly joker kártya. Bármikor gond nélkül bevethető, és azonnali eredményt hoz.
MInden hűtésnek megvannak a korlátai, és amelyik gyártó ezekbe a korlátokba jelentősen később ütközik bele, annak elég a gyengébb gyártó kártyájának a hűtését a saját kártyájához használni, és állandóan a konkurens kártya teljesítménye fölött maradhat.Intellel az AMD egyszerűen csak nem állt le egymagos sebességben szkanderezni azért az 5%-ért. Zen 2 processzorok így is fogytak, így is ellátási nehézségek jelentkeztek. 3950X 150 wattból maradt le 5%-kal, amit kihívást kereső tuningolók bőven be is hoztak, amikor elengedték a processzort magasabb fogyasztásig, de még mindig nem az Intel 300 wattos szintjéig. AMD is simán megtehette volna ezt, ha akarja.
-
Jacek
veterán
válasz
JóképűIdegen
#47432
üzenetére
Ez csak AMD-nél gond? Csak pl most az 5%-al gyorsabb 2070S-em 248w szopokázik kicsit megrántva
Ott kell a teljesítményhez de az AMD termelje az áramot.
Eddig ment a mantra hogy juj jaj fogyasztás pfff Vega kazán, most meg kuss a szállíngozó 300-400 wattos ipari inverteres videokártyákhoz..
-
Petykemano
veterán
válasz
JóképűIdegen
#47432
üzenetére
"ez szerintem mindent megvaltoztatott volna, megjelenhetett volna a Big Navi RDNA1-en"
Ebből a perspektívából, persze, igen. Az elérhető teljesítmény és a perf/W nyilván nem független értékek. -
JóképűIdegen
tag
válasz
Petykemano
#47425
üzenetére
"Szerintem ha az 5700 XT mondjuk csak 150W-ot fogyasztott volna 225 helyett, több fogyott volna belőle, de mondjuk csak 10, maximum 20%-kal tolódott volna el ennek a szegmensnek a részaránya."
- ez szerintem mindent megvaltoztatott volna, megjelenhetett volna a Big Navi RDNA1-en is meg ugyis ha 2 gpu-t drotoznak egy vga-ra es most sokkal bizakodobban tekintenek az RDNA2 fele. -
GeryFlash
veterán
2021-ben kiadni RT nélküli csúcskártyát felérne egy piaci harakirivel. Miközben szerinted akár ez lehetne akár az NV presztizs terméke amivel meggyőzik a vásárlót hogy az ő kártyájukkal kaphatják a leges legjobb élményt. Mármint kikapcsolt RT-vel.
Mennyire gondoltad te ezt át? -
Abu85
HÁZIGAZDA
Ez nem arról szól, hanem az a baj, hogy előbb a hardvernek kell ott lennie, és csak utána jönnek rá a szoftverek. Ha továbbra is jönnek RT nélküli szériák, akkor azzal a gyártók az RT terjedését gátolják, vagyis továbbra is egy csomó tranzisztort költenek el feleslegesen a lapkákba. Meg lehet azt játszani a nulladik vagy első generációnál, hogy a lapkák egy részében kihagyod, de a tényleges terjedést azt segíti elő, ha mindenhol ott van. Emiatt az új szériánál még eléggé alap fícsőrnek kell majd lennie.
-
Pipó
őstag
válasz
Malibutomi
#47424
üzenetére
Annyira szurkoltok az AMD-nek, hogy el is hiszitek ami az NV-nek kedvezőtlen szivárgás. Ha az AMD-nek csak ennyi volna a megoldás, hogy kivágjuk, amitől rosszabb és máris jobb lesz, ugyan mi a fészkes fene miatt nem tették meg évekig? Direkt szopatták magukat?
Egyben biztos vagyok: azon a napon, mikor az új AMD kártyát meg lehet venni itthon kiskerben, jobb adottságú NV kártyát vehetsz majd ugyanazon az áron. És ez igaz lesz az energiahatékonyságra is.
Ezeket nem szivárgásokból, hanem a realitásokból szűrtem le. És egyáltalán nem vagyok az AMD ellen, végre támadnának fel, de ez szerintem hiú ábránd. Utoljára 1900XT-m volt tőlük és akkor megbántam, hogy lecseréltem 8800Gt-re, de ma más szelek fújnak. -
Petykemano
veterán
válasz
Alogonomus
#47421
üzenetére
nem értek egyet abban, hogy a perf/W lenne az erősebb szempont. Az inkább valamiféle jolly joker kártya, ami nem azt mondom, hogy nem számít, de valójában kisebb a súlya, mint amilyennek látszik. Vagy úgy mondanám: önmagában nem nem akkora a súlya. És ez az analógia jó is lesz!!
Az ász mindig is a királytermék volt. Ha emellett a perf/W kártyából is ászod van (persze a kettő nem független egymástól) akkor jó lapjaid vannak.
Az intel példáján látszik, hogy hiába hozza az AMD mondjuk 2x olyan jó perf/W mutatóval közel ugyanazt a teljesítményt, valójában a közel ugyanaz nem elég jó. az az ~5% - a lényegesen rosszabb perf/W mutató ellenére - nagyonis számít. (Lehet, hogy nem neked, meg nem nekem, de az 5% elég lehet arra, hogy hardware reviewerek azt válasszák a benchmark rigbe valami brutál hűtővel, hogy minimalizálják a CPU bottlenecket. LEhet, hogy ezt még értelmesen el is magyarázzák, de aki nem néz naphosszat ilyen videókat vagy cikkeket, az csak azt látja, mindenhol intel van, tehát nyilvánvalóan az a legjobb.)
Tehát nem azt mondom, hogy a perf/W nem számít, csak azt, hogy a perf/W önmagában nem döntő erejű. Szerintem ha az 5700 XT mondjuk csak 150W-ot fogyasztott volna 225 helyett, több fogyott volna belőle, de mondjuk csak 10, maximum 20%-kal tolódott volna el ennek a szegmensnek a részaránya.
Tehát nem azt mondom, hogy a perf/W nem számít, csak azt ha az AMD-nek úgy sikerül ez a széria, hogy az abszolút elsőséget nem szerzik meg, de mérhetően jobb perf/W mutatóval kínálják a kártyáikat, attól én - legalábbis rögtön - drasztikus elmozdulást a piaci részesedésben nem várnék.
-
Malibutomi
nagyúr
Eddigi leakek NV oldalrol:
3-400W fogyasztas
Rosszabb 8nm node a 7nm elleneben
12 tus uj tapcsati
Persze ez mind pletyka egyelore, de egyik sem mutat a szuper energiahatekonysagra
Amd meg vegre kivagja a felesleges compute egysegeket a gamer kartyakbol.
Szoval eselyes hogy csukodik az ollo, es kozelebb lesznek perf/wattban
-
Pipó
őstag
válasz
Alogonomus
#47421
üzenetére
"Most viszont mindkét gyártó kártyája ugyanazt fogja tudni, csak különböző perf/W érték mellett."
Mégis, ez miből ilyen tényszerű? Az AMD gpu hívőknél a megjelenés előtt minden nap emelkedik kicsit a várt teljesítmény, míg végül már el is hiszik, hogy "na, majd most". Az eredmény pedig: lassabb, melegebb, rosszabb perf/Watt, hónapokig alig lehet kapni, majd a csodadrájver megoldja a bugokkal együtt, stb. Ha mégis bejönne valami véletlenül, akkor a NV majd bejelent egy Super verziót már másnap, amit harmadnap olcsóbban, jobb mutatókkal már meg is vehetsz. Ha mást nem, akkor egy RT nélküli verzióval. Az NV-nek nagyon fontos, hogy piacvezető legyen minden téren, és pünkösdi királyságot sem enged át.
-
Alogonomus
őstag
válasz
GeryFlash
#47415
üzenetére
"Inkább bevállalják hogy az AMD felzárkózzon hozzájuk, a csúcs kártyájukat belövik majd Big NAVi + 5-10%-ra valami elb*szott fogyasztást is elvállalva, a lényeg hogy övék legyen továbbra is a leggyorsabb kártya "
Pont ezt nem várhatják meg, mert amint az AMD takarékosabban hozza ugyanazt a teljesítményt, máris nyert, mert onnantól bármikor túl tudja teljesíteni az Nvidia kártyáját azonos fogyasztás mellett.
Pascal pont az erős perf/W érték miatt volt elöl, míg a Turing az átlagos perf/W mellett adta a sugárkövetést. Most viszont mindkét gyártó kártyája ugyanazt fogja tudni, csak különböző perf/W érték mellett. Amelyiknél ez kedvezőbb lesz, lényegében az győz, mert várhatóan nem 1-2% különbség lesz az értékek között, így driveres ügyeskedéssel aligha lehet azt kiigazítani. -
GeryFlash
veterán
Tehát akkor az RDNA3 ha valóban 5nm jön mint ahogy több helyen írták akkor nem valószínű ilyen ugrás szerű javulás? TSMC vs Samsung vonatkozásban ha jól olvasom az infókat a TSMC még egy bőrt lehúz a FinFET-ről viszont emiatt 2021-ben lesz 3nm FinFETjük tömeggyártásban, míg a Samsung 2021vége/2022 elejére hozna 3nm GAAFET-et. A TSMC-nél elvileg 2023-24ig kéne várni 2nm GAAFET-re.
Reális ez hogy a Samsung jelenlegi egyértelmű hátrányból így lelépi a TSMC-t? Nincs benne egy Intel szintű fiaskó a korai GAAFET kihozatallal?
Amennyire én látom az adott csúcs node-ok tömegygártása azt jelenti hogy akkor jön velük a Qualcomm+Apple, utána +0,5-1 év és AMD szerver proci, majd 1-1,5 év AMD konzumer proci, és csak a tényleg tömeggyártás után 1,5-2 évvel jönnek a VGA-k. Szóval reálisan lesz még egy 5nm FinFET kör 2022 környékén és talán 2024 vége felé láthatunk GAAFET-en készülő VGA-kat?
-
Abu85
HÁZIGAZDA
válasz
Zartszelveny
#47418
üzenetére
A CDNA támogatni fog egy csomó olyan adatformátumot, ami az RDNA nem. Emellett máshogy épül majd fel a cache-szervezése is. Leginkább az AI miatt lett szétválasztva, mert a jó AI teljesítmény grafikai szempontból eléggé hasztalan.
-
Zartszelveny
csendes tag
Erre utaltam én is itt:
"Abu írta azt is, hogy különösebb ugrást nem fog hozni maga a csikszelesseg csökkentés, mert a finfet elérte kb a határait. Kövi nagy ugrás majd gaafet bevezetése után lesz várható.."
De nyilván okkal lett szetvalasztva az RDNA és a CDNA.
Mármint csak van különbség abban hogy mire használják inkább el a tranzisztorokat.
Vagy ha nem akkor mi miatt történt ez?@GeryFlash
Szerintem a mobil soc-ok illetve a zen chipletek nem nagyon hasonlíthatóak GPu-hoz. Így az elért fejlődés üteme sem. Mármint eleve a méretük sokkal kisebb illetve a cél felhasznalas sem ugyan az.
-
Abu85
HÁZIGAZDA
válasz
Zartszelveny
#47414
üzenetére
Nem abból fakad. A perf/watt az adott tranzisztorstruktúra végnapjain abból ered, hogy mennyire ismered ki az adott node-ot. Kell két vagy három kör mielőtt jól tudod majd használni. Az AMD-nek a prognosztizált 50%--os perf/watt ugrása ugyanazon a 7 nm-es node-on pusztán az a tapasztalat, amit a Vega 20 megjelenése óta gyűjtögetnek. Nagyjából mostanra sikerült úgy megérteni ezt a csíkszélességet, hogy hatékony lapkát tudnak rá tervezni.
Ugyanez lesz 5 nm-en is. Meg a GAAFET-ig bármin.
-
Busterftw
nagyúr
válasz
GeryFlash
#47415
üzenetére
Az elmult ket gen epp azt mutatta meg, hogy a gyartastechnologia nem minden, inkabb az architektura.
Pont az Nvidianak nem kellett top node, az AMD jobb node-n rendre alulmaradt.En nem nagyon rugoznek ezen, foleg amig nincs kinn teszt.
Ha vegre az AMD egalban is lesz az Nvidiaval, en ugyanugy nem fogok tapsolni mint eddig, mert jobb node-n teszi azt. -
GeryFlash
veterán
válasz
Zartszelveny
#47414
üzenetére
Hát nem tudom, a Qualcommnál Applenél és az AMD CPU részlegénél (tehát nem csak az ultra low TDP SOC-ok) nem azt veszem észre hogy ne hozna sokat a csíkszélesség csökkentés.
Persze még mindig nem tudjuk biztosra min fog gyártatni az Nvidia, lehet ez a gyenge perf/watt abból is adódik (a sok 1GB-os lapkák mellett, amik oké hogy fogyasztanak de nem ennyit) hogy az NV 10nm Samsungon fog gyártani, esetleg 8nm Samu ami amennyire én tudom half-node és marginálisan jobb mint a 10nm-jük, ergo alig lesz előrelépés náluk gyártástechnológiában. Inkább bevállalják hogy az AMD felzárkózzon hozzájuk, a csúcs kártyájukat belövik majd Big NAVi + 5-10%-ra valami elb*szott fogyasztást is elvállalva, a lényeg hogy övék legyen továbbra is a leggyorsabb kártya amúgy meg minél nagyobb haszonkulccsal adják ugyanazt a kártyát mint az AMD.
Igazi verseny szerintem 5nm-en lesz majd, Abu szerint (ha jól emlékszem) oda mindketten terveznek VGA generációval.
-
Zartszelveny
csendes tag
válasz
GeryFlash
#47412
üzenetére
"Nem csak az Nvidia hanem az AMD is, csak éppen az AMD magához képest tudott igenis fejlődni az Nvidia meg lezüllesztette a perf/watt mutatóját. Most így kb. mindketten ugyanott lesznek, csak hogy az Nvidia az előnyét herdálta."
Ez konkrétan abból fakad hogy AMD most szedte külön a compute illetve a gaming arch-ot. Az Nvidia ezt korábban meglépte ugye ebből az utóbbi generációkban érezhető előnye is származott. Kíváncsi leszek most hogy fognak alakulni a dolgok.
Abu írta azt is, hogy különösebb ugrást nem fog hozni maga a csikszelesseg csökkentés, mert a finfet elérte kb a határait. Kövi nagy ugrás majd gaafet bevezetése után lesz várható.
De gyartastechnologia ide vagy oda a fejlődés viszont kell... Ez meg most a fogyasztás rovására megy a felső kategóriában. De aki oda vesz kártyát azt annyira talán nem is zavarja. A közép kategória meg megmarad normális keretek közt.
A memória résszel egyetértek, ha már ilyen rohadt drága rakják meg rendesen és ne azzal sporoljanak.

-
GeryFlash
veterán
Jó b. tudom hogy te azzal is elé lennél ha 3 évente 20% javulás lenne hisz a bőrjakós az istened és hát milyen jó már hogy amiért 1 hónapja x összeget fizettél azért most x minusz 20%ot csak tudod ez normális a cége quarterről quarterre profit rekordokat dönt tehát minden jól van.
Az hogy te beéred azzal hogy annyit javul a perf/watt mint amennyit a TSMC/Samsungtól kvázi ,,ingyen" kapnak, és ehhez még hozzáb*sznak x fogyasztást miközben az architektúrából meg kb nem jön semmi az vicc.,,ha hozzávesszük hogy egy meg sem jelent kártyacsaládról nyilatkozol nulla konkrét információval reális hogy háborogsz
"Abu információra támaszkodom, azok alapján olyan fogyasztású kártyák jönnek hogy röhej. Nem csak az Nvidia hanem az AMD is, csak éppen az AMD magához képest tudott igenis fejlődni az Nvidia meg lezüllesztette a perf/watt mutatóját. Most így kb. mindketten ugyanott lesznek, csak hogy az Nvidia az előnyét herdálta el. Csak nehogy a kövi generációnál már Intel féle realtiy checket kapjanak.
,, a ramokról nem tudunk semmit még egyelőre annyit pletykálnak hogy több rammal jön mindegyik kártya és a felsőházban lényegesen gyorsabb kivitelben..."
Tényleg azt mondod hogy több VRAM-mal fognak jönni mint az előző gen? Wáoh ez igen
Ha a 3080-ból valóban lesz 800-1000 dollár között 10GB-os kiadás az azt fogja jelenteni hogy a next-gen játékoknál (nem, nem a cyberpunkra gondolok, az nem az, azt szerintem fogja vinni 4k/60ban) nem lesz elég VRAM 4k-ra csak 1440p-re. Ki a franc olyan ostoba hogy vegyen egy a konzolnál közel kétszer drágább kártyát úgy hogy nem képes 4k-ra? Ne válasuolj, ha valakik akkro a PC játékosoknak aztán mindent le lehet tolni a torkukon. Kivéve azt ha csinálnak egy grafikai extrákkal bővítetett portot a Horzion Zero dawn-ból, akkor leállnak sírni hogy mekkora szar hogy 2080S-en se 60FPS, bezzeg a Death Stranding ugyanezzel a motorral mennyivel jobban fut. Éppen csak azt nem látja a hülyéje hogy az egyik egy ctrl+c ctrl+v port a másikba meg melót raktak és jobban néz ki PC-n, de ugyanúgy lecsavarhatja a grafikai szinten PS4 pro szintre. Nem, ő ezért hisztizik és veri a seggét a földhöz. Na ők fizetnek ki egyetlen grafikus hardverért többet mint egy teljes systemért ami 4k/60at fog tudni.Egyébként meg nem csak a VGA gyártók felelősségét venném elő hanem a memóriagyártókét tovább megyek a versenyhivatalét akik engedik továbbra is a memória kartell tündöklését. 2020-ban ott tartunk hogy ugyanakkora memórialapkák GDRR6-on mint a 2 generációval korábbi GDDR5-ön.
-
válasz
GeryFlash
#47408
üzenetére
"Ha hozzávesszük hogy gyártástechnológiai előrelépés is van akkor ez kifejezetten szégyen. És nyilván jobb lesz összeségében a perf/watt teljesítménye egy 3060nak mint egy 2080S-nek csak éppen ha kiszámolod akkor kijön hogy nagyjából annyival mint amennyi az új node-dal jön. Vagy annyi se."
ha hozzávesszük hogy egy meg sem jelent kártyacsaládról nyilatkozol

Amúgy meg hol a probléma abban ha olcsóbban kevesebb fogyasztással kapod meg ugyan azt a teljesítményt? leírtad hogy jobb perf / watt lesz szerinted. Nem értem mit vársz ,drágábban több fogyasztással kéred? szerintem megoldják ha erre van igényed..
a ramokról nem tudunk semmit még egyelőre annyit pletykálnak [link] hogy több rammal jön mindegyik kártya több verzióban és a felsőházban lényegesen gyorsabb kivitelben... -
TeeBee73
veterán
válasz
Kupszi
#47405
üzenetére
A Hercules kártya, a 15"-os papírfehér monitorral, egy 16MHz-es 286-al, 2MB memóriával, és egy 40MB-os vinyóval, szépen elvolt a Baby házban, a 200W-os noname táp mellett.
Más: Volt anno' 512 bites HIS HD2900Pro-m, blower hűtéssel, nem is volt meleg, hangosnak sem mindtam volna. -
GeryFlash
veterán
válasz
TESCO-Zsömle
#47406
üzenetére
Csak éppenséggel ez nem előrelépés hogy felb*sszuk a fogyasztást és jé van perfomance boost. Ha hozzávesszük hogy gyártástechnológiai előrelépés is van akkor ez kifejezetten szégyen. És nyilván jobb lesz összeségében a perf/watt teljesítménye egy 3060nak mint egy 2080S-nek csak éppen ha kiszámolod akkor kijön hogy nagyjából annyival mint amennyi az új node-dal jön. Vagy annyi se.
Arról nem beszélve hogy mik ezek a szánalmas VRAM-ok. 10GB-ot raknak a 3080-ra? Amikor 2017-ben is volt már 11GB a 1080TI-on vagy másfél éve 16GB a Radeon VII-en... Ilyen olcsó lesz a 3080 hogy ezen kell spórolni? Esetleg 1440p-re akarnak árulni 800-1000 dolláros VGA-t?
-
válasz
Alogonomus
#47404
üzenetére
nem kényszerült ő sehova. ha akarta volna vagy szükségesnek érezte volna akkor kiperkálja a pénzt a 7 nm-re, mert megteheti a bevételeik alapján bőven .Mint volt róla hír a z 5 nm nagy részét már előre befoglalták, gondlom az sem véletlen mert MCM dizájnhoz elengedhetetlen a kisebb csíkszél. Várjuk meg a végét mielött múlt időkben beszélünk egy meg sem jelent kártyacsaládról.
-
Kupszi
aktív tag
Úristen hova jutottunk... gamer csúcs VGA-k 300-400wattal?!
Emlékszem amikor fogtam az Ati 9500Pro-mat, na és ha akkor valaki azt mondja lesz 400wattos kártya akkor kirögöhöm. De csak csak eljutunk ide, és akkor pár év múlva akár elérhetjük majd at 500-at is. Sose lehet tudni.
-
Alogonomus
őstag
válasz
Petykemano
#47400
üzenetére
Én is végszükség esetére írtam az 512 bitet. Jó lenne 384 bitből megoldani, de az Nvidia is elszánt, amit a speciális hűtőrendszer és a 600 W-ig használható betápkábel is jelez, így AMD sem lehet szívbajos.
AMD valószínűleg sokáig nem kap még egy ilyen jó lehetőséget. Nvidia gyengébb node-ra kényszerült, Intel jövőre sem tud érdemi ellenállást felmutatni, DIY után már a pre-built és custom téren is kezd beindulni az AMD szekere, konzolok már elkészültek, Zen3 is kész van. Most tudna a VGA-területre koncentrálni hosszabb ideig. -
Abu85
HÁZIGAZDA
válasz
paprobert
#47402
üzenetére
Kell egy minimum lapkaszám az adott memóriabuszhoz. 512 bithez például 16 darab lapka. 256 bithez 8. Ennyi kötelező. De például ha lenne elég nagy kapacitású memóriastack arra, hogy 256 biten 16 GB memóriát lehessen hozni 8 memóriával, akkor nyilván annak a fogyasztása nem lenne annyira magas, mintha a 16 GB-ot 16 memóriával hoznád 256 biten. De egyelőre nincsenek erre megfelelő memórialapkák, ugyanis a legfőbb fejlesztések a gyártóknál a HBM2-es és a DDR5-es megoldások. A GDDR6 egy másodvonalbeli technológia. Nem marad sokáig velünk, így annyira sok pénzt nem is raknak bele. A legmodernebb gyártástechnológiákat, mindig a fontos megoldások kapják meg, vagyis a HBM2 és a DDR5.
Sok dolgot lehetne csinálni, de ahhoz pénz és idő kell. Viszont pont ezt a kettőt nem szeretik áldozni a gyártók egy olyan irányra, ahol téglafalban ér véget az út. Erről nem fogod meggyőzni őket, mert tudják nagyon jól, hogy a sávszélességigényes területen a HBM-nek bitang nagy fórja van, tehát ha nem most, akkor a következő körben már arra ugrik mindenki. Így meg ugye minek a következő körre valami nagyot fejleszteni a legacy vonalra.
A legtöbb ötlet ilyen ott veszik el, hogy senki sem fizeti majd meg. Úgy meg felesleges. -
paprobert
őstag
Egy naiv és egy elborult kérdésem is lenne.
Dupla kapacitású GDDR6 lapkák nem tudják kapásból felezni a lapkák számát és ezáltal a fogyasztást? (nem követem a témát, lehet hogy ilyen nem létezik még)
Ha valóban 100W környékére kúszik az aktív állapot, akkor nem lenne érdemes dinamikus órajel és feszültségskálázást tervezni a memóriáknak?
Pl. Tudna futni JEDEC szabványon kívül brutál feszültség mellett 21 Gbps-on, vagy ha az ideális teljesítmény úgy kívánja, akkor futhatna redukált VRAM órajelekkel, emberi fogyasztással, így a TBP keretből több juthatna a GPU-nak.
Mindezt akár realtime balanszírozva. -
Abu85
HÁZIGAZDA
válasz
Jack@l
#47390
üzenetére
Sokat. Az a memóriakonfiguráció 35 wattot eszik. Ebben a generációban a memóriák nagyon nagy fogyasztók lesznek. Vége a 20 wattba bőven belefér szintnek. Ezért is volt kritikus fejlesztési szempont jelentősen csökkenteni az RDNA2 fogyasztását az RDNA-hoz viszonyítva, mivel így korrigálni lehet a memória extrém fogyasztását.
(#47395) Devid_81: A termékmintának megvan a 3 GHz vízzel is. A probléma a fogyasztás. Ehhez a szinthez már 400 watt fölé kell menni. Nem feltétlenül éri meg. Az RDNA2 elsődlegesen a perf/wattban lép jelentősen előre, és ebből adódik, hogy sokkal nagyobb órajelre is képes, mint az RDNA. Meg persze ezen segít a CDNA busza is.
(#47400) Petykemano: Nem tudsz a korábbi adatokból kiindulni, mivel a memória PHY-t folyamatosan tervezik. Az RDNA2 esetében áttervezték, mert a Microsoft és a Sony is ilyen memóriaszabványt használ.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Samsung Galaxy A53 5G - kevesebbet többért
- Miskolc és környéke adok-veszek-beszélgetek
- Pánikban a világ a Radeon RX 5000 és 6000 sorozat támogatása miatt
- Kedvenc zene a mai napra
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- Goddess of Victory:Nikke
- Kerékpárosok, bringások ide!
- Építő/felújító topik
- Az Amazfit GTR és GTS 3 is szemrevaló lett
- OLED TV topic
- További aktív témák...
- Laptop felvásárlás , egy darab, több darab, új , használt ! Korrekt áron !
- BESZÁMÍTÁS! Asus H370 i5 9600K 16GB DDR4 512B SSD RTX 2060 Super 8GB Chieftec HC-10B-OP Zalman 850W
- Bomba Ár! Lenovo ThinkPad E15 Gen2 AMD - Ryzen 5 I 8GB I 256SSD I 15,6" FHD I HDMI I W11 I Gari
- Telefon felvásárlás!! iPhone 14/iPhone 14 Plus/iPhone 14 Pro/iPhone 14 Pro Max
- GYÖNYÖRŰ iPhone 11 Pro Max 64GB Midnight Green -1 ÉV GARANCIA -Kártyafüggetlen, MS3253,100% Akkumulá
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest




Neked van?
Nem gondolom az NV verést még jó esetben sem, de tisztes helytálást várok el.


