-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
torma1981
veterán
Hmm igaz lehet így. Meglátjuk. Kíváncsi vagyok már nagyon. Ez a sok kétes információ,hogy mit fog tudni a 2080 már idegesítő. Végre nemsokára többet fogunk tudni. Ha csak 10% kal lesz jobb mint a 1080Ti az elég nagy bukta lenne az Nvidiától. Az 50% már jobb lenne de az meg soknak tűnik.
-
GeryFlash
veterán
-
Abu85
HÁZIGAZDA
Leginkább sehogy. A gyártók egyébként meg szokták magyarázni ezt, hogy az IPC-t a GPU-knál úgy értik, hogy egy multiprocesszoron belül egy wave-re adják meg a változást, csak ugye az a gyakorlatban semmit sem jelent a valós működést tekintve, mert teljesen hasztalan, hogy egy wave hamarabb kap eredményt, hiszen a gyakorlatban rengeteg konkurens wave várja azt, hogy ellássa az ALU-kat feladattal. Jó példa itt az Imagination új dizájnja, ahol ebben az értelmezésben az IPC jelentősen csökkent, mégis őrületes a teljesítményugrás a korábbi dizájnhoz képest. Tehát a GPU-knál az IPC egy tejesen haszontalan számadat önmagában. Ahol számítana az előrelépés, vagyis a multiprocesszor konkurens wave-ek nélküli terhelése, az már rég rossz a GPU-nak, mert a feldolgozás jelentős részében malmozik.
A fentiek miatt annyira nem is erőltetik a gyártók ezt az IPC-zést. Inkább a lényegesebb adatokra fókuszálnak, mint a TPC. Az IPC-nek leginkább a befektetői doksikban van szerepe, mert ott a befektetők nem tudják, hogy miképp működik a GPU, viszont az IPC-t a CPU-nál sokat hallották.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
Elméletileg azonos orjelen azonos feldolgozószammal a végrehajtott ugyanazon muvelet (pl benchmark) mutatja meg az architekturalis fejlődést. Valószínűleg gyártási/tervezési folyamatok alatt mérnöki tesztek alapján kimutatható, de Nvidia nem szokott ilyenre hivatkozni.
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
800 dodóért egy 3080 ? igen nagyon rossz lenne szerintem .és 200 dollár csak sajnos az a 300. 2080 Ti MSRP ára 999$.
A 3070 akkor mennyi lenne? 600$? egy 3060 meg 450 ?
Remélem, hogy nem jó a belistázott dolog,de azért eléggé rossz ezt nézni a TPU oldalán, ez azért még sem a WCCf szintű oldal és eléggé ijesztő itt olvasni.ha ezt meglépik annak sajnos az lehet az oka, hoyg a nagy navi valóban 999$ lesz és a 3080 kb hozza a szintjét, majd beállítják"olcsónak" így..
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
félisten
Azért ez nem ennyire egyszerű szerintem. . Ettől függetlenül szerintem is ez a forgatókönyv lehet bennük amit leírtál, igazad lehet.Abban tényleg bízok, hogy fake az egész és csak vaktában találgatnak, nem egy belsős infó és csak a Turing FE verziók árát nyomták be.
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Drizzt
nagyúr
A bergyartoknak dollarban fognak fizetni, akik tobbet fognak kerni, mert latjak a dollar ertekromlasat es realerteken ugyanazt akarnak majd kapni, mint eddig- > az Nvidianak is tobb bevetelre kell szert tennie, ha hasonlo profitokat akar latni mint eddig. Meg aztan a mernokok is egyre tobbet fognak kerni, ha azt latjak, hogy ertektelenedik a fizetesuk. Ez Nv-t nem erinti, de kivancsi leszek mi lesz a mindenfele elszaporodott ssc-kel. Nemi dollargyengules igencsak meg tudja dobni a koltsegeket. En nagyon magas kartyaarakra szamitok usd-ben. Amd-nel is.
I am having fun staying poor.
-
Abu85
HÁZIGAZDA
Lapkákat, azokhoz új revíziót, stb. Most viszont terveznek egy szem CPU chipletet, az annyira egyszerű, hogy új revízió nem kell belőle, és még kell egy komplexebb APU, amiből talán lesz egy évközi stepping, de ez is csak talán. Ennyi manapság az éves munka. Régen azért ennél sokkal több lapkát terveztek, ráadásul mindegyikhez hoztak új steppingrevíziót, hiszen komplexek voltak, ami viszonylag sok hibát eredményezett.
Az I/O die piszok egyszerű egy komplex processzorhoz képest, és még nem is kell modern gyártástechnológiára ültetni.
(#29080) GeryFlash: GDDR6X-et nem használ majd az AMD. A HBM2 verzió valószínűleg az Apple-nek készül, illetve a mobilba, mert ott számít, hogy sokkal kisebb helyre beépíthető, illetve kisebb a fogyasztása. A sávszél nagyjából ugyanaz lesz.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
keIdor
titán
A Quadron azért van GDDR6 szerintem, mert a 48GB az X-el nem lehetséges. Simából van 1GB és 2GB IC is. X-ből csak 1GB van egyelőre. 2021 Q1-re mondják, hogy a Micron elérhetővé teszi a 2GB X-et is.
Onnantól lehetséges lesz azzal is a 48GB a 24x2 felosztással.A legjobban sikerült GA102-k lehet nem fogyasztanak ám annyira rosszul. Leválogatják őket, a legjobb GPU-k mindig Quadroba mennek. Kiderül.
¡GLORIA A LAS PLAGAS!
-
Alogonomus
őstag
Azt videóban külön kiemeli, hogy magas fps esetén kezd küzdeni a ventillátor. Valószínűleg mert magas fps esetén kezd spórolósra váltani a kártya. Szóval a magas fps esetén eszik sokat a kártya, akkor mérik a maximum fogyasztást. Magas fps pedig alacsony felbontásnál jelentkezik.
[ Szerkesztve ]
-
Alogonomus
őstag
Én rámutattam a furcsaságra, amire az volt a válaszod, hogy a CPU dolgozott jobban.
Erre válaszoltam, hogy a CPU mindkét esetben maxon pörgött.
Erre válaszoltad, hogy 4K mellett GPU limit van.
Erre válaszoltam (és linkeltem a videóban elhangzó részt), hogy a kártya nem 4K esetén eszik sokat, hanem amikor magas fps-t produkál, vagyis amikor alacsony felbontáson használják, vagyis amikor CPU limiten működik a rendszer van, nem GPU limiten. -
Alogonomus
őstag
Először is igazad van, a mérés a felirat szerint tényleg 4K-ban történt, és ott GPU limites lehet a helyzet.
Másrészt viszont a 300+ fps esetén felpörgő ventillátor alapján akkor erre a fogyasztásra rá lehet még számolni nem keveset, hogy a tényleges fogyasztást megkapjuk. Fentebb látható is, hogy TPU jelentősen magasabb értékeket kapott a fogyasztásra.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Nagyon nagy lapkákra az EUV-s node-okat is fel lehet készíteni, tehát az aktuális limitációk megugorhatók, ha arra igény van. A problémát a költségek jelentik, de ha ezt hajlandó átvállalni a megrendelő, akkor a Samsung bármikor elő tud állni egy módosított node-dal.
A nagy lapkáknak nem feltétlenül technikai akadálya van, hanem költségekre vonatkozó. Sokkal célszerűbb ezeken az extrém drága node-okon chipletre menni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen