Új hozzászólás Aktív témák
-
Jacek
veterán
Nincs itt semmi problema:) En csak ravilagitottam ha tisztan a teljesitmenyt nezzuk mi a helyzet.
Megvehetned nyugodtan a Thicc II-ot az a video az elso hibas hutesu szeriaval keszult, amit csereltek nem hangos es a teljesitmenyt is hozza, de termeszetesen nitro+ vagy gaming jobb.
De a triple fan NV oldalon egy raklap fos kulonben :)
Most eladom a Thicc II majd es egy 670 :) :) lesz a gepben vagy az integralt. -
Jacek
veterán
Ertem en 110-ert vettem az XFX 5700XT Thicc II-ot :D Biztos talalok 130-ert 5700xt most is. Tehat maradt az 50e csak az arany lett meg rosszabb. Meg a 2070-el mit szeretnel? Akkor az 5700 meg olcsobb.
Halal komolyan kerdezem ezek a kesobb jott ki full hasznalhatatlan featurek kit erdekelnek? Tehat ha te kartyat vasarolsz azt nezed ezek kb ugyan azt tudjak az egyik 25-30%-al olcsobb de jaja kesobb jott ki nem azt veszem :D fanboysagnak is van hatara :) Nem kell irnod szar volt nalad is a driver :)
Ha most neztem az alzat van igen ez a triple fan akcioban a tobbi, juj 200 felett joval:) de ott a Thicc II 138e-ert:D Akkor igy csak 30%-al dragabb hogy megeri... -
Cifu
félisten
Tegyük hozzá, hogy az Intel (az utóbbi időkig) még szállítás terén is megbízhatóbb volt, mint az AMD. A Dell esetében legalábbis kb. tavaly év vége felé kezdett el normalizálódni a helyzet. Ha Intel Xeon alapú szervert szerettél volna, csaknem azonnal tudtak szállítani tavaly szeptember-október magasságában. Ha AMD Epyc alapút, akkor vagy nem is nagyon mertek szállítási időt mondani, vagy több hónaposat tudtak csak adni, mert az AMD ellátási lánc késésben volt.
Az Intel féle szállítási problémák ellenére a Latitude-okból is könnyebb Intelest szerezni, mint AMD Ryzenest...
-
Cifu
félisten
A TPU ír erről, nevezetesen, hogy egy DigiTimes forrás szerint tavaly az nVidia még úgy futott neki a dolognak, hogy a Samsungnak adna egy jelentősebb megrendelést. Majd kiderült, hogy az AMD a TSMC 7nm-es gyártókapacitásának jókora részét már lefoglalta. Állítólag az nVidia alábecsülte a TSMC 7nm hatékonyság-előrelépését, és azt hitte, hogy a Samsung gyártástechnológiája kellően versenyképes lesz.
A helyzettel szembesülve az nVidia húzott egy merészet, és bár a 7nm-es gyártósorokról részben lecsúszott, a TSMC előrehaladott 7+ és 5nm-es gyártástechnológiájából egy jókora adagot lefoglalt. A DigiTimes forrása szerint a Samsung féle gyártástechnológiát a TSMC-vel való tárgyaláskor szándékoztak árcsökkentő érvként az asztalra dobni, de visszafogott sikert értek el vele, mert a TSMC egyszerűen egy jókora lépéssel a Samsung előtt jár.
Az utolsó mondat szerint az nVidia 7 és 5nm-es gyártástechnológiájú Wafereket így a TSMC-től és a Samsungtól is vásárol...
-
Cifu
félisten
Kíváncsi leszek mire utalt Huang bá,mikor azt mondta CPU kérdésre, hogy minek költsenek milliókat fejlesztésre mikor meg is lehet venni készen őket
Az AMD iGPU-s Intel proci után esetleg venne az nVidia komplet design-t az AMD-től?

és ennyit arról ami Cifu és Abu között téma volt, hogy Nvidia mit tud megvenni gyártókapacitásban és csíkszélben ha akar és mi mit ér meg nekik. Kíváncsi leszek nagyon.
Ez amúgy azért durva igazán, mert eddig az 5nm-től emlékeim szerint nem volt szó, a 7nm-ről igen. Nyilván az 5nm-t a HPC-nek szánják, de ez egyben óriási ugrás a zöldeknek. Az AMD az RDNA2 esetében is 7nm-t (vagy 7+) használ a jelen tervek szerint. Az RDNA3 majd 2021-re várható, és ott a korábbi diákon "Advanced Node" szerepelt.
A zöldek megint beelőznek, és hülyére verik a piros GPU-kat, ha még egy node szintnyi előnyük is lesz...
Ez nekünk vásárlóknak megint nem lesz jó.
-
Petykemano
veterán
Jó, azért ez még mindig nem jelenti azt, hogy a mainstream gpuk is 5 meg 7 nm-en fognak készülni.
Nem arról volt szó, hogy az nvidia számára a 7nm túl drága ahhoz, hogy minden azon készüljön. (Persze a túl drága itt a legmagasabb margót jelenti nem azt, hogy ki tudna-e fizetni) viszont ha csak a HPC holmikat gyártják ott, az annyira kis volumen, Amivel eddig elhajtották?
Mit gondolsz a CDNA vagy CDNA2 is chiplet lesz?
-
Petykemano
veterán
Bár az IBM nem annyira uptodate manapság, de velük volt a legszorosabb kapcsolat korábban.
De van már vagy három arm alapú 64+ magos szerver CPU. Ezek ma még lehet, hogy csak papíron léteznek, de papíron nem rosszak és tényleg meg lehet venni készen.
Nem hiszem, hogy ezek a tervező.cégek ne lennének készek hozzáigazítani a - még csak papíron létező - architektúrájukat az nvidia gyorsítójához.
-
-
Devid_81
félisten
-
keIdor
titán
Én nem temetem, csak azt szeretném jelezni, hogy azonos áron a PC akkor is rosszabb választás lesz. A nextgennél is, valamint jelenleg is. Használt hardvert ha nézzük, akkor használt konzol is van.
Többet tud nyújtani a PC, mert nem akadály most már a fix natív 4K, nem akadály akár a 120Hz+ sem, csak sokkal több pénzbe kerül mindez.Aki írtózik a controllertől, ott elfogadható indok az, hogy nem akar konzolt. Akinek viszont a controller nem probléma, ott akkor is jobb választás a konzol. Akkor vegyen PC-t az ember, ha többet szeretne, csak számolni kell azzal, hogy drágább buli lesz.
-
keIdor
titán
Ugyanakkor a két új konzol specifikációi már ismertek.
Nem gondolnám, hogy fényes jövő áll egy 6 magos proci meg gyengébb VGA előtt úgy, hogy sokkal limitáltabb API-val kell dolgozni PC-n és a közös memória szintén hiányzik. Ray Tracing kapásból nincs egyik PC AMD VGA-nál sem.Mit vennél 250k-ért, most őszintén? Valamelyik új konzolt, ami 3 év múlva is céleszköz marad, vagy a gyengébb hardvereket, ahol azok a gyengeségek is szerepelnek, amit felsoroltam?
PC-n pont nincs használtpiac, minden amit fizikai formában megveszel (lemez) be kell regisztrálni valamelyik platformba és onnantól az kötött az accountodhoz. -
Abu85
HÁZIGAZDA
Igen. A föntire. Ott kell nézni a GPU memóriáját, ami 1.0/16.0 GB éppen. A grafikus egység megosztott memóriája nagyon pontos. A dedikált kiírás sajnos nem annyira pontos, innen származnak az eltérések a profilozókhoz képest. Ez az a rész, amit az OS nem igazán lát explicit API-val, és kb. semmi.
-
Pedig bizony igaza van és ezt benne lévő fejlesztőként tudom alá támasztani. Sajnálatos, hogy egyesekben annyi utálat van teljesen indokolatlanul, hogy márcsakazértis hajták a hülyeségüket folyamatosan csak azért, hogy csesztessék a kiszemeltet. És nevetséges, hogy nincs jobb dolguk, mint itt tölteni az életüket, hogy utálatukat ki tudják elégíteni.
-
Abu85
HÁZIGAZDA
Ezek szerint valószínűbb, hogy az AMD/Intel/NVIDIA nem képes erre. Istenem de hülyék, hogy a saját rendszereiket sem tudják, hogy miképp működnek, és azokat sem szerződtetik, akik tudják ezt.

Úgy keverednek ide, hogy ha egy kicsit is pontosak lennének, akkor használhatók lennének fejlesztésre is, de megközelítőleg sem pontosak. Csak félrevezetésre alkalmasak. Emiatt az AMD/Intel/NVIDIA pontos megoldásokat fejleszt, csak azok sok-sok ideig készülnek, mert nem triviális a probléma, még azoknak sem, akik tervezték az adott rendszert. Ne hidd, hogy akik ebben a folyamatban részt sem vettek, azok okosabbak náluk.
-
Abu85
HÁZIGAZDA
Ezernyi cikk van arról, hogy a homeopátia hatásos. Most akkor az?
Gondolkodj mielőtt elhiszel valamit. Majdnem öt év telt el a DirectX 12 megjelenése óta, és még nem kapott az API memóriaképet biztosító profilozót. Ehhez képest gondolod, hogy egy csomó program, mindenféle komoly anyagi háttér nélkül, dokumentációk nélkül megmondja, hogy mi van a VRAM-ban, amikor az AMD-nek ez öt évbe telt, úgy hogy ők tervezték a hardvereiket, és a drivert is hozzájuk, vagyis ismerik a forráskódot. Eközben az Intel és az NV még nem kínál ilyen lehetőséget. Még nem, de majd egyszer fognak. Persze nem is értem, hogy miért nem szerződtetik az Afterburner programozóját, fenéket ölne ebbe éveket és egy rakás pénzt, amikor kint van egy ember, aki tudja és megmondja.
-
Abu85
HÁZIGAZDA
Tényleg elhiszed amiket ezek a programok kiírnak? Maga az operációs rendszer nem képes rá, mert az API nem támogat kernel szerver szálakat. De egy garázsban egy kisgyerek ír egy alkalmazást, ami kijelzi a VRAM-használatot, miközben az explicit API-k megjelenése után több évvel jön végre egy olyan profilozó, ami memóriaképet tud adni a fejlesztőknek. Ha ez a probléma olyan egyszerű lenne, akkor a fejlesztők nem könyörögnének a jobb, akár memóriaképet adó profilozókért, hanem izzítanák az Afterburnert, és hiba nélküli memóriamenedzsmenteket építenének a játékaikba, mert az Afterburner megmondja. De nem ez történik, mert rohadtul nem mond meg semmit. Maximum félrevezet.
-
Abu85
HÁZIGAZDA
Én egy oldalt se láttam, ami megnézte volna profilozóval. Más nem látja a memóriát, csak tippel.
A 3rd party cuccoknak DX12/Vulkan API-ban ne higgyetek, magának az operációs rendszernek is elvették azt a jogát, hogy lássa a VRAM-ot. Hogy látná már azt egy olyan alkalmazás, amely azt se tudja, hogy a meghajtó mit csinál?Várják meg amúgy az RGP 1.5-öt. Abban a világon elsőként lesz memóriakép. Nem csak leírja, hogy mi van a memóriában, hanem le is rajzolja, hogy miképpen van benne, hogyan helyezkednek el az allokációk, azaz milyen a fragmentáció. Az már egy eléggé pontos adat lesz, hogy egy program mennyi memóriát igényel valójában.
Ha az RGP nem opció, akkor a Windows beépített mérője a legjobb. Nem pontos, de nagyságrendekkel pontosabb, mint egy Afterburner, meg a többi jósda.
-
Abu85
HÁZIGAZDA
Nagyon nem dolgoztak rajta. Egyszerűen mindenre szokatlanul nagy felbontású textúrákat használnak. Ebben a tömörítésnek nincs szerepe. A DirectX API-ban eléggé szabványosítva van, hogy milyen BC formátumok vannak az egyes problémákra. Ha nagyon akarnának erre gyúrni, akkor használtak volna ASTC-t az AGS-en keresztül, de nem tették, mert ugye kétszer kellene szállítani a tartalmat. És annyira sokat ezzel amúgy nem nyernének, maximum -20%-ot, miközben a játék telepített mérete majdnem megduplázódna.
A játék és a 3rd party programok kijelzése között az a nagy különbség, hogy a játék eléri a VRAM-ot, míg a 3rd party programok nem is látják. Emiatt egy nagy kövér hasraütéses tippelés, amit csinálnak. Én ezeket szoktam nézni RGP-vel, és a közelében sincs a valóságnak DX12-ben vagy Vulkan API-ban az afterburner. A legközelebb a Windows 10 feladatkezelőjében beépített mérő jár. Nem annyira pontos az sem, mint egy profilozó, de tényleg nincsenek 50-60%-os eltérések, inkább 3-5%. Az meg ugye reális, mert a profilozó az mégis egy frame-ről ad információt, míg a Windows 10 mérője nem.
Az RE2 Remake egyszerűen ennyit kér. Az volt a koncepciója a Capcomnak a memóriamenedzsmenttel, hogy nyugodtan rá lehet adni az maxot, a játék maximum nem tölti be a legnagyobb textúrákat, ha nincs hozzá elég nagy memória. Ehhez egyébként az is kellett, hogy ne csökkentsék mesterségesen a textúrák felbontását, hanem úgy voltak vele, hogy leszállítják a natívot, ahogy elkészültek. A legtöbb játék esetében tudni kell, hogy messze nem kapják meg azt a minőséget, amin amúgy elérhető lenne. Egy csomó olyan döntést hoznak a kiadás előtt, hogy bizonyos textúrákból csak a megalkotott felbontású verziónak a felezett minőségét szállítják. Emiatt férnek bele a játékok jórészt a 8-12 GB-ba. De ha ezzel nem akarnak törődni, akkor ki lehet adni a tervezett minőséget, az bizony zabál rendesen. Ha jól működik a memóriamenedzsment, és képes kezelni ezt a problémát, akkor tulajdonképpen miért ne, akinek megvan a VRAM-ja élvezheti tényleg maximumon, akinek pedig nincs meg, annak a memóriamenedzsment megoldja a minőségcsökkentést.
-
Raymond
titán
En ezt neztem ugy ket napja:
Resident Evil 3: Raccoon City Demo Gameplay 4K 60
Eszmeletlen jol nez ki, minosegi munka az a level es character design.
-
Abu85
HÁZIGAZDA
A Vulkan az 1.2 óta eleve támogatja a HLSL-t. A shader modell 6.2-ig minden le van fedve a SPIR-V 1.5-ben. [link]
Egyébként új hardver nem kell. Az új DXR fejlesztések minden tudnak szoftveresen futtatni, ha az új lépcsőknek nincs hardveres háttere. Az egész DXR-nek meg van írva a teljes fallback compute shaderre. Ugyanígy a Vulkan API-ban is lesz egy compute shader fallback, ha a hardver nem alkalmas az egyes lépcsők gyorsítására. Vagy azért, mert nincs benne megfelelő célhardver, vagy mert az elavulttá vált.
-
Z_A_P
addikt
Lehet nem jol tudom, de a Mellanox-ot meg nem okezta le a kinai hatosag, es mar lejart a hatarido, ujra benyujtottak ,de ezt is huzzak.
Feb. 19, 2020
Nvidia and Mellanox refiled merger paperwork with China's State Administration for Market Regulation, according to Dealreporter sources.
The companies refiled after the 180-day review period expired earlier this month.
SAMR had already started testing remedies for potential antitrust concerns.
The deal has an outside date of March 10 with a possible extension to June 10. -
Abu85
HÁZIGAZDA
Ennél sokkal több kell az exascale szintű skálázhatósághoz. Nem véletlen, hogy háromból egyben sincs NVIDIA. Ilyen méretben óriási hátránnyá válik a gyártók keverése, amíg nincs egy igazán jól működő szabványos megoldás a skálázhatóság problémájára.
Az IBM-mel pedig azért gyorsabb az NV, mert máshogy lehet összekötni a gyorsítókat ilyen formában, de ez nagyon kevés az exascale rendszerekhez. Ilyet tudni fog a Milan+CDNA is az AMD-nél, de mégsem erre építi a DoE az exascale megrendeléseit, mert úgy kell kialakítani a konfigurációt, hogy minden gyorsító össze legyen kötve a procival, és a gyorsítók is legalább egy gyűrűs kapcsolatra fel legyenek fűzve.
Ha tényleg csak annyi lenne, ahogy leírod, akkor a sok CUDA kód nyerné az NV-nek a tendereket, de baromira bonyolultabb a probléma ekkora méretben, ami más hardveres dizájnt követel, és ezért bevállalják a kódkonverziót is. Ugye nincs más választásuk. Nyilván nekik is sokkal egyszerűbb lenne az Intel és AMD procik mellé NV gyorsítókat kérni, csak a tervezett méretben sajnos nem működik.
-
Abu85
HÁZIGAZDA
Sajnos nem. Az exascale skálázhatósághoz nem elég csupán a GPU-kat összekötni egy gyors memóriakoherens interfésszel. Szükséges az is, hogy a CPU-kkal is meglegyen ez a kapcsolat. Na most a szuperszámítógépekbe használatos node-oknál nem igazán használnak ilyen megoldást, mert például az IBM-nek nincs nagy haszna abból, ha csak egy gyorsítóra korlátozza le a processzoraik használhatóságát, annyira általánosra tervezik a procit, amennyire lehet. Az Intel és az AMD azért tudja ezt megcsinálni, mert saját maguk csinálnak CPU-t és GPU-t is. Egyszerűen arra koncentrálnak, hogy legyen meg az általános gyorsító használatának a lehetősége, de azért hoznak kompromisszumokat, hogy a saját interfészeik előny élvezzenek. Ráadásul a többséget az is akadályozza, hogy a piac nagyon-nagyon-nagy része x86/AMD64.
Ha annyira egyszerű lenne ez, hogy mehetne az IBM/NV, akkor nem maradtak volna ki háromból három exascale projektból. Azért korábban ezeket az SC tendereket rendre behúzták. Ehhez képest az egyik projekt konkrétan kockáztat az Intel GPU-val, nincs más választás, ha a CPU is Intel.
-
Abu85
HÁZIGAZDA
Nem csak. Ott van még más is tárolva, például a geometria.
De fog fejlődni a grafika. Ma már eleve nem férnek bele a mai tipikus VRAM mennyiségbe a játékok. Emiatt a motorok régóta streaminget alkalmaznak. A töltés itt nem annyira fontos, az nem csak ettől függ, de a nagyobb részletességhez a több VRAM, vagy ennek a hatékonyabb kihasználása hozzájárul.
A konzolon nem az alacsonyabb API miatt jobb a memória felhasználása, hanem amiatt, hogy az alkalmazások memóriaelérése közvetlen. PC-n ez nem lehetséges, mert nincs két ugyanolyan rendszer, de konzolon mindegyik gép ugyanaz, tehát az alkalmazás bátran hozzáférhet fizikai szinten is a memóriához. A PC-n ezt mindig az OS fogja kezelni, az alkalmazás csak fölötte tud menedzselni. Ez olyan nagy hátrányt egyébként nem okoz, mert veszel a PC-be kétszer-háromszor több memóriát, mint ami a konzolban van, és nem baj, ha az OS pazarol.
(#40746) b. : Most ha a konzolt mindenképpen idekeverjük, akkor a next-gen fő attrakciója az a szupergyors SSD. A PS5-nek van egy olyan módja, hogy maga az alkalmazás lesz a memória. Úgy veszi a rendszer, hogy az SSD-n elfoglalt hely a fizikai memória, és onnan cache-sel a valós fizikai memóriába, ami alapvetően gyorsítótárként működik. Ennek egy része leválasztható, így az valóban gyorsan elérhető memóriaként funkciónál. Ennek az egyetlen haszna, hogy olyan világokat lehet létrehozni, amelyek a mostaninál sokkal-sokkal nagyobbak, de mégsem lesz egyetlen töltőképernyő sem a játék kezdetétől a végéig. De a PC-ben ez sem jelent problémát, mert a streaming rendszerek nem újdonságok, annyi fog történni, hogy a PC-s port időközönként bedob egy loading feliratot, tölt egy-két percig, majd mehet a játék tovább. Ez igazából a konzolon is előfordulhatna, csak úgy tervezik meg az alkalmazást, hogy ismerik a gép adottságait, lényegében tudják, hogy milyen gyors az SSD és a memória, és ehhez tudják tervezni az egész játékot. A PC-n is előhozható ez a működés, ha beledobsz egy mondjuk egy 6-7 GB/s-os SSD-t a proci vezérlőjére kötve, plusz jó sok memóriát használsz. Valószínűleg ilyenkor egy PC-s portnál is eléggé minimális lenne a loading felirat.
(#40749) Ragnar_: Annyira sok VRAM annak nem kell. Az lényegében ugyanazokból a tartalmakból él, mint a raszterizáció. A létrehozott pufferek, amik fogyasztják extraként a VRAM-ot.
(#40755) b. : A mostani és az új konzoloknak is lesz olyan módja, amikor az OS fog babáskodni a memória felett, ahogy ez PC-n is működik. A legtöbb kis gépigényű cím konzolokon is így működik, mert ez a legegyszerűbb fejlesztői szempontból. A jövőben sem lesz ez másképp. A többi mód igényelhető. A PS5-nek megmarad a közvetlen hozzáférésre vonatkozó módja, ahogy ilyen a PS4-ben is van (5,x GB-ot kaphat közvetlenül az app és a maradékon ott az OS), illetve lesz még egy új mód, ami a memória egy részét cache-ként használja, és az SSD-n lévő tartalmat is memóriának tekinti. Valószínűleg az új Xboxban is lesz hasonló. Utóbbi egyébként úgy leszimulálható PC-n, hogy SSD-t raksz a VGA-ra, lásd a Radeon Pro SSG. Ha nagyon nagy adatmennyiségről lenne szó, és túlzottan sok lesz a loading felirat, akkor lehet, hogy elmennek erre a cégek.
-
GodGamer5
addikt
Szerintem a kevesebb töltőképernyő, nagyobb részletesebb, több objektumból álló világ így már reálisabbnak tűnik.
Emlékszem anno ps3-on az Uncharted 3-ban a legvége fele volt egy rész, ahol a jelenet ketté lett vágva egy loading képernyővel, mert nem fért a ramba.
Ilyen régebben konzoloknál többször is előfordult. Mostmár főleg ezzel az újfajta ssd+ram kombóval úgy gondolom, hogy megoldhatják az igazi részletgazdag, töltőképernyők nélküli nyílt világokat, ráadásul a harmatgyenge limitekkel teli régi procit is végre leváltják. -
Aki forgatja a pénzt, azt nem az érdekli, hogy szépen lassan nő a részvény ára évek alatt, hanem az, hogy forgassa a pénzt. NV-nél volt egy alkalom 5 éven belül, amikor sokat lehetett keresni rajta rövid idő alatt. Most a Teslánál pl. 3 ilyen alkalom volt egy év hónap. Én sem akkor vettem a Teslát és adtam el, amikor csak stagnált. Ugyanarról beszélünk és épp ezért az NV részvény középszerű.
Tesla az pukkani fog. Nem kérdés. Ez a különbség hosszú táv és rövid táv között: "tudni" kell mikor mit vegyen és adjon az ember. -
Olvastam én is nyugi, de tudod én keményen tőzsdézek már lassan egy évtizede. NAGYON sok pénzzel. Az én ismereteim, ellentétben veled nem csak olvasás, hanem gyakorlat és tapasztalat alapján születnek napi szinten követve minden részvényt és kereskedve.
Igen. NV-nek jók az eredményei, de itt tőzsdéről beszéltünk. Az pedig, hogy NV részvényen mennyit lehetett nyerni más kérdés és itt erről volt szó.
Sehol sincs ahhoz, hogy a Tesla részvényen 4 hónap alatt 3x-ozták (vagy 1 hét alatt 2x) a befektetést egyesek vagy hogy AMD részvényen 5 év alatt 17x-ték. Vagy pl. Beyond Meat-en lehetett rengeteget szakítani 1 hét alatt. Hasonló az Applied Materials. Iszonyat sokat lehetett fogni rajta.
Ha valaki követi a dolgokat és belefolyik rendesen a tőzsdézésbe, akkor az NV messze van ezektől. NV szépen lassan ment felfelé, de nem lehetett vele sokat fogni, "játszani".
Fogadd el, még ha fáj is. Hosszú távú biztos befektetésnek jók (voltak?) a részvényei, de kaszálni, "játszadozni" már csak középvonal. -
paprobert
őstag
Így van, nem okoz forradalmi javulást az extra VRAM, de mindig van valamennyi pozitív hatása.
A base PS4-hez képest a jelenlegi leakek alapján így fog gyorsulni a next-gen:
GPU: 4x
VRAM: ~2.5x
CPU: 4xAz SSD-s memory mapping ennek a nem arányos növekedésnek a kiegyenlítésére lehet egy kerülőút. Érdekes lesz látni hogy mennyire lesz elterjedt a használata, és milyen limitációi vannak.
-
Cifu
félisten
Ahol a VRAM kvázi "ajándék", az a nagyobb felbontású textúrák esete. Csaknem mindegy, hogy 256x256 vagy 4096x4096 pixeles textúrákkal dolgozol a számolás szempontjából, de a VRAM igény exponenciálisan ugrik. Mivel pedig egyre nagyobb felbontásban nézzük, ezért a egyre jobban szükséges a nagy textúrák használata. Így hirtelen két játék van, ahol ez látványos, az Resident Evil 2: Remake és a Red Dead Redemption 2. Előbbi érdekessége, hogy a 8GB VRAM-os kártyákkal nem is célszerű beállítani a max. textúraméretet (ahhoz 11GB-os kártya kellene).
Vagyis ahol a több VRAM jelentős előny, az a sokkal élethűbb és részletesebb textúrákat lehet használni...
-
Z_A_P
addikt
Állítólag olyan osztalék várható most
Haaaatooo, mivel most (ha jol latom) 0.24% az osztalek, ezert ha 10 szeresere (azaz 1000%!!) novelik , meg az is KEVES lenne magas osztaleknak (2.4%). Talan egy 20* emeles mar abba a kategoriaba lokne

Magyarul, az nvidia minden csak nem osztalek reszveny. -
Devid_81
félisten
Megiscsak ugyesen huz le minket a borkabatos.

Ahhoz kepest, hogy javareszt 'csak' GPU fejlesztessel foglalkoznak durva ahogy allnak.
Kivancsi leszek mikor ugranak be a CPU gyartasba, az lenne am a kanaan nekunk par even belul
AMD-nek kellene mar osszeszedni magat vegre, lassan van ertelmes hw de sw szinten most gyalazat amit csinalnak a Navi-val

-
-
paprobert
őstag
Sok a selejt, pénzt csinálnak belőle. Az viszont meglepőbb, hogy a GN szerint ez a későbbiekben általános lesz, tehát nem csak ideiglenes a váltás szerintük.
Szerintem egy olyan belső busz vagy cache lehet felelős a gyorsulásért, ami nem tiltható a CUDA magokkal, ellenben az adat-intenzív feladatok így a chipen tudnak maradni.
-
Cifu
félisten
-
paprobert
őstag
Egyetértek, szubjektíven a 3-5% tempóelőny engem nem "vesz meg", a driverek miatti instabilitás viszont tényező egyelőre. Ráadásul a 2060 húzva egy hajszállal, de gyorsabb mint a szintén húzott 5600XT.
Durva belegondolni, de ha a Navi kb. 3 éves életciklusát nézem, akkor ez idáig az élettartama 1/6-át labilis driverek kíséretében töltötte, és hol van még a vége...
-
GeryFlash
veterán
Hát ha valóban 3070 lenne (ami abból a szempontból elképzelhető, hogy laptopokba x80-as számú kártya nem gyakran szokott jönni) akkor az állati komoly.Ezek alapján a 3060 valahol félúton lenen a 2080 és 2080TI között. Ez kb 60%+ előrelépés lenne, igazából tényleg nem lenne elképzelhetetlen, egy normális cég csak 7nm-re való ugrással tud hozni egy 25-30%-ot, és akkor még ott van az architektúrában lévő tartalék. Arról nem beszélve, hogy még mindig nem tudjuk biztosra min jön az Ampere, ha Samsungon akkor bizony ott van szabad kapacitás EUV nodera is. És talán még az árak sincsenek elszállva, lévén a Samu elég nagyokat szenved hogy bérbe tudja adni a gyártástechnológiáját, mindenki a TSMC-re viszi. Kérdés hogy a Samu EUV 7nm-je milyen.
Yutani: Szerintem nincs hova. Ampere leghamarabb nyárra jön ki, addigra már sokan keményen next-gen konzol generáció lázban égnek. Azt tudom elképzelni hogy esetleg az induló ár magas lesz, de kijönnek a konzolok és körberöhögik a 2xxx széria árait. Ergo a 2xxx szériát iszonyat módon le kell árazni hogy készlet kisöprés meglegyen, viszont ez fogja magával húzni a 3xxx árait is. Bízok benne hogy akkora lesz a konzol boom hogy az Nvidiának ahhoz kelljen árazni. Árszint emelkedést szerintem nem engedhet(ne) meg magának, hiába 50-60%-os ugrás. Aztán persze bármi lehetséges, hogy a jól fejhető PC gamerek most is kifizetik az évről évre magasabb felárat
-
GeryFlash
veterán
Igen ezt a szoftverfejlesztőknek meg tesztelésre készült maszlagot több helyen leírták az Intel védően.
2 dolog ezzel kapcsolatban:
1.) Specifikáld mit jelent ez hogy szoftver fejlesztőknek készült VGA. Ez pontosan mit takar? Értem, nem játékokban erős hanem...? Mi a f*szhoz kéne egy c++/java/python fejlesztőnek dVGA? Ha meg más szoftverfejlesztőkről van itt szó akkor miért csak egy AMD APU IGP szintjét hozó dedikált kártya kell? Mi az amit ez tud ezen a fronton de a másik gyártó hasonló árazású és TDP keretű kártyái nem?
2.) Ha nem játékra készült (hanem sZoFtVeRfEjLeSzTőKnEk) akkor miért játékokkal demózták? -
Cifu
félisten
Az előadásra én is nagyon kíváncsi vagyok, csak hát... tudod ilyenkor előtörnek az emlékek.
Intel Larrabee? AMD HSA jövőkép? Soroljam tovább?Az elképzelés szép, de van bőven buktatója, ettől függetlenül drukkolok nekik, jó lenne végre valami normális versenyhelyzet a dVGA piacon (mondom az után, hogy most kb. 2-3 évre én a jelenlegi tervek szerint már nem akarok fejleszteni, örülök a 2070 Supernek...
). -
GodGamer5
addikt
"Az 5700 és a 2060 között kb 10-15% van az 5700 előnyére"
Dehát pont ez írtam én is, hogy mivel az 5700 ennyit tud, ezért jó eséllyel,- közel azonos specifikációkkal- az 5600xt is hasonló teljesítményt fog nyújtani, az meg kb 2060-as szint.
Viszont az előzetes mérések meg kimondottan gyengék lettek a specifikációk tudatában, ami számomra nem tűnik túl hitelesnek, de majd meglátjuk ha megjelennek végre a kártyák a végleges optimalizált driverrel. -
"Mondjuk azért a Switch kb annyi eladást produkált az Nvidiának fele annyi idő alatt,mint az Xbox One az összes verziójával az mellett elkelt jó pár millió shield is."
És a PS-t ilyenkor direkt nem említed? Pedig mint tudjuk ezt a gent az vitte magasan."Ráadásul egy meg sem jelent konzolgenerációt magasztalunk rengeteg ismeretlennel ,aminek a kijöveteléig valószínűleg Nvidia a piacra dobja az Ampere generáció és ha tartják a szokásukat akkor a 3060 kb 2080 erősségű kártya lesz....."
Ki magasztalja? Pusztán az korábbi generációkról kialakult képet visszük tovább. És ha már itt tartunk, akkor a 3060 mennyibe fog kerülni? Mert olcsóbbak továbbra sem lesznek ezek a vga-k. Meddig mehet el az NV árban amiért még megveszik? Itt az AMD is egykutya, tehát nem akarom én védeni őket. Olyan gyönyörű világ lesz, amikor egy középkategóriás VGA is drágább lesz mint a konzol, bár már mintha most is itt tartanánk.. -
Kolbi_30
őstag
Hinni lehet a nyúlban is meg a Mikulás a is. De egy kB 600 dolláros konzolt egy 1200+ (2080ti)dolláros vgahoz hasonlítani értelmetlen. Persze hogy erősebb, csak ugye a vga magában nem megy kell alá meg ennyiért ami kitolja a belét. A konzolon meg el fog futni minden, szép grafikával, 5-6 évig, azon a vegan meg jövőre már az új játékok lehet akadni fognak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Inno3D GeForce RTX 5070 Twin X2 OC 12G Bruttó ár!
- Sapphire PULSE RX Vega 56 8GB Garanciával!
- Asus Tuf Gaming GeForce RTX 3080Ti 12GB/ 3 hó. gar./amíg a készlet tart
- ASrock Radeon RX 5700 XT Challenger Pro 8G OC Garanciával!
- GIGABYTE GeForce RTX EAGLE 3090 24G OC GDDR6X 384bit (GV-N3090EAGLE OC-24GD)
- iPhone 13 mini 128GB Green -1 ÉV GARANCIA -Kártyafüggetlen, MS3896, 95% Akkumulátor
- HIBÁTLAN iPhone 13 mini 128GB Midnight -1 ÉV GARANCIA - Kártyafüggetlen, MS3330, 100% Akksi
- Telefon felvásárlás!! iPhone 11/iPhone 11 Pro/iPhone 11 Pro Max
- Telefon felvásárlás!! iPhone 12 Mini/iPhone 12/iPhone 12 Pro/iPhone 12 Pro Max
- Vadiúj Dobozos Asus Lap! Kèszleten!
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Még gondolkozom is rajta, csak probálom kibírni ampereig










