Új hozzászólás Aktív témák
-
imi123
őstag
Ja ja.
dxr 1.1-ben fog látszani mit tudnak a nextgenek.
Fölösleges előre temetni az Nv-t,driverből még bőven fognak gyorsulni.
Remélem verseny lesz és mindenki tud kártyát venni és nem csak teszteken csurgatjuk a nyálunk.
Első komoly megmérettetés cyberpunk 2077 teszt lesz.Szóval találkozunk ugyan itt 1 év múlva. -
Malibutomi
nagyúr
GDDR6X lesz az, ha a vagott GA102-bol jon.
Csak az NV toke (mar bocsanat ketfelol is presben van. Arcsokkentes az problemas a draga GDDR6X miatt
Az uj kartyak 3070ti-3080ti is..mert amugy is hiany van ha meg tobbfele akarjak osztani az a hangyafingnyi legyartott mennyiseget meg rosszabb lesz.Megszivattak magukat most erosen.
-
Persze, mindenki meglephet, csak azt mondom, hogy a 6800 eseten lehet, hogy direkt, kalkulalt overprice-szal jott ki az AMD...
Meg azt azert ne felejtsuk el, hogy szar kihozatal eseten azert nem annyira egyszeru a price cut, mint jo mellett... es az biztos, hogy az Ampere eseten sok minden a kihozatal, csak eppen nem jo...
-
Vagy ha feltetelezzuk, hogy kihozatal szempontjabol a 72 CU-s chip a sweetspot es ezert inkabb a kezdetben aranylag kevesebb 60 CU-s chip helyett a 6800XT akarjak kiszorni es majd kesobb, ha a selejtbol nagyobb a felfutas, akkor akar arat is lehet csokkenteni a 6800-on, foleg ha beesik egy vele egy szinten levo 3070Ti..
-
Malibutomi
nagyúr
RT-rol szerintem addig nem lesz szo amig nincs jatek ami tamogassa. Eddig nem volt RT kepes AMD kartya.
Illetve elvileg Port Royal szivargott mar, es a 2080ti felett vannak picivel RT-ben az alapjan.
A tobbi szerintem okes, DX11 vs DX12 par FPS-t szamit a legtobb jatekban, nagysagrendileg nem befolyasol semmit
50dollar arelony hasonlo teljesitmennyel, jobb fogyastzassal, tobb VRAM-al 3080-hoz nagyon jo.
Plusz arazas 3070-hez nem jo, de gyorsabb kartya dupla VRAM-al...en AMD helyeben levinnem 480-500-ra, es akkor 3070 kanyec.
-
#09256960
törölt tag
Régen tudod volt az a matrica (hitelesítő tanúsítvány) hogy VR Ready, most lesz egy Cat Freindly matrica , amúgy számomra az érdekes hogy miért nem tesztelte még senki hogy egy 20 fokos 30 NM2-es szobát mennyivel emel meg 300-350 Watt.
Plusz két fok télen is lehetne a matricán
még a Gréta Tumberg is melléállna, ne füts, játsz ! -
#09256960
törölt tag
Nem az hogy rettegnek csak hozzá igazítja az árát, meg ha nekik is lesz 12GB akkor kisebb az elégedetlenség
Szerinted nem GDDR6-al tudja ezt elérni ? Más módszert én nem ismerek, kesst már biztos nem épít bele hirtelen a 3080TI-be ..
Ugye most erről beszélünk: Link
300 is sok csak ha nagy tömegeket kérdezel meg akkor a 300ra még sokan azt mondják válalható 420 felett elhagyoda valóságot hogy a Neotonnal válaszoljak -
Abu85
HÁZIGAZDA
Írni lehet erről, de a TSMC szempontjából miért is adná olcsóbban a wafert, ha eladja normál áron is. Attól, hogy a DigiTimes ír valamit még nem jelent semmit. A DigiTimes azt is állította már, hogy a Zen 3 5 nm-en jön, aztán látjuk, hogy rohadtul nem. De anno le is írtam, hogy miért volt faszság, amit írtak. [link]
A probléma az, hogy média nem tudja elképzelni, hogy a Samsung jót tud gyártani. Pedig igazából a 8 nm egy proven technology. Nem új dolog, évek óta hibátlanul gyártanak rajta vagy a korábbi verzióján a cégek. De ami ennél is durvább, hogy sokan azt hiszik, hogy 7 nm-re könnyű átugrani. Ahogy a DigiTimes azt hitte, hogy 5 nm-re ugrani csak egy döntés, de nagyon nem, bizonyos node-ok nem kompatibilisek egymással, és az áttervezés ideje másfél-két év.
Az NV-nek nem feltétlenül a waferár a gondja a TSMC-nél, hanem az, hogy ha például ma eldöntik, hogy átmennek, akkor abból 2022 első negyedévében lesz termék. Ezt már innen nem viszik sehova. Az ilyen problémákat hagyni kell a fenében, és át kell ugrani azt. El kell vonni az erőforrást a fejlesztéstől, majd koncentrálni a következő generációra.
-
Abu85
HÁZIGAZDA
Minek reflektáljon rá a Samsung? Nagyon régóta működik a 8 nm-es eljárásuk. Az NV előtt sok cég csinált már rá több tucat lapkát, mindet probléma nélkül. A half-node-okkal sosincs igazán baj, mert az mindig egy továbbfejlesztése egy már évek óta tökéletesen működő node-nak, jelen esetben a 10 nm-es eljárásnak.
Akit érdekel a 8 nm, az tud kérni a Samsungtól jelentést, hogy mire képes, és az ezerszer több adatot jelent számukra, mint a pletykacikkek. Az alapján fogják eldönteni, hogy ez az ideális választás-e számukra. Az NV is így csinálta. Kértek jelentést a TSMC-től és a Samsungtől az elérhető gyártástechnológiákra. Ezeket a bérgyártók megadják, természetesen a többi partner adatainak a védelme mellett.A 7 nm-es TSMC node-ra való áttérés lehetséges, de a Samsung és a TSMC gyártástechnológiai nem kompatibilisek, tehát ez nem olyan, hogy akkor eldöntöm, hogy inkább a TSMC, mert előbb át kell tervezni a dizájnt, hogy ott is gyártható legyen. Az NV ezt vállalhatja, de ha ezt eldöntik egyszer, akkor onnan másfél év legalább, hogy tömeggyártható lapkák szülessenek. Tehát, ha még csak most gondolkodnak egy ilyen váltáson, akkor az Ampere refresh az kb. egy 2021Q1-es történet lesz. Jóval hamarabb kellett erről dönteni, ha egy refresht akarnak csinálni 2020-ban.
#41781 b. : De a Samsung nem onnan szerez vevőket, akik a pletykalapokat olvassák. Ha van érdeklődő, akkor ők direkt felkeresik a céget, és kikérik az adatokat az adott node-ra.
A TSMC senkinek sem ad kedvezményt. Lehet licitálni a gyártókapacitásra és kész. Akinek nem tetszik, az várhat a következő licitekre. A TSMC-nek mindegy, a pénzüknél vannak mindenképpen maximum nem az NV-nek gyártanak, hanem a Qualcomm, Apple, AMD, Xilinx, akárkinek. De ha ez a rendszer nem jó, akkor lehet menni máshova, de kedvezmény itt sosincs. Ellenben mindenkinek van esélye waferhez jutni, csak túl kell licitálnia a többieket. Az NV elsődlegesen azért keresi a Samsung kegyeit, mert az említett cégekkel szemben nem túl könnyű waferekhez jutni, ha a Xilinx nem is feltétlenül, de az Apple, AMD, Qualcomm simán túllicitálja őket, és akkor még jön az Intel is a TSMC node-jaira. Ők is olyan piacokat céloznak, amiből okádni tudják a pénzt a TSMC-nek.
Arról nem is beszélve, hogy a TSMC nem különösebben érdekelt abban, hogy specifikus node-okat tervezzen egy olyan megrendelőjének, aki messze nem a legnagyobb. Ellenben a Samsung megcsinálj. Az NV is egy rájuk tervezett 8 nm-es variánst használ. -
Az uzleti partnereik, akik naluk gyartatnak, tokeletesen latjak, hogy az adott csikszelessegen mennyire rossz, illetve jo a kihozatal. A B2B semiconductor szegmensben, ha egy jol "felfuttatott" vevokorod van, teljesen felesleges az ilyen jellegu "vedekezes"...
Magyarra leforditva a Samunak edesmindegy, hogy joskapista azt gondolja esetleg naluk van a bibi az nV szeria eseten....
-
Abu85
HÁZIGAZDA
Az IBM magjai lényegesen erősebbek az ARM és az Intel/AMD magjainál. És a rendszerük teljesítménye is nagyon magas. Olyannyira, hogy nem igazán tudja őket közelíteni az ARM vagy az AMD/Intel. A probléma leginkább az, hogy nem x86/AMD64 az ISA.
1. Az Intelnél ezt bárki később tudja szállítani, még az AMD is. Hiába tud a Cray adni egy másfajta rendszert. A leggyorsabban akkor van meg az Aurora, ha az Intel szállít nekik TSMC-nél gyártott gyorsítót. Mindenki más csak lassabban tudja összerakni a rendszert.
2. Ez a projekt már eleve csúszik. Évek óta kész kellene lennie, csak az Intel törölte a Xeon Phit.
3. Az 3 év legalább. Ha csak a pénzen múlna, akkor már megkérték volna, de a chiptervezés problémája az idő. Ráadásul mire raknak CXL-t az A100-ba, addigra ez a lapka rég elavul, és sokkal újabb rendszerek lesznek kész. Ez nem olyan dolog, hogy kell a funkció, és az NV megoldja fél év alatt. Le kell ülni a tervezőasztalhoz, és egy csomó mindent ki kell cserélni a dizájnban, ami kb. egy év meló, majd két év mire azt tömeggyártásra alkalmassá teszik.
Az, hogy Addison Snell mit szeretne az irreleváns. A DOE meg azt szeretné, ha az Aurora 2022-ben működne, és azt csak az Intel tudja biztosítani. Minden más lehetőség további csúszás. Az AMD ezt nem fogja tudni vállalni 2023 előtt, az NVIDIA pedig 2025 előtt.
Mondjuk a top Ponte Vecchio eleve 40 TFLOPS-ra lő, tehát ha abból 30-35 jön össze, akkor az is elég jó még. Ráadásul az Aurora konfigurációja az 6 GPU-s, tehát 50 TFLOPS-ot egy szerver node TSMC-vel is tudni fog. Az AMD-nek a CDNA-ja 40 TFLOPS körüli. FP64 ezeknek a számoknak a fele. Az NVIDIA nem tudni, hogy hoz-e valamit az A100 mellé, mert az általános számításban nem valami erős, csupán 19,5/9,75 TFLOPS-ot tudnak vele FP32/64-ben.
-
szmörlock007
aktív tag
"Nvidia A100 és AMD MI100 vagy több év csúszás."
Hát meglátjuk, én azért még nem látom ennyire pesszimistán, jelen állás szerint 1 évet csúszik maximum, mint a 7nm, persze lehet további fennakadás. Persze ez mindenképp probléma az Usa-nak, mert lehet Kína pont ezért fog hamarabb exascale-es gépet építeni, de legalább hátha minden intel igazgatótanácsbeli tagban tudatosul, hogy egy tech cégnek állandóan fejleszteni kell gőzerővel.
Esetleg Amd építhet még egyet 2021-re ha nagy baj lenne
A Genoa meg a Cdna2 amúgy is 21 végére van ígérve. -
szmörlock007
aktív tag
Hát nem tudom elviszi-e valaki, utána úgyis jön 2 exascale gép fél-1 évvel, meg ha jól veszem ki akkor az Aurorát nem törlik csak csúsztatják, ergo Intel marad annak a beszállítója, persze ez változhat ha úgy van. Intel az egyetlen megmaradt Chip gyártó az Usa-nak, a másik 2 tajvani meg dél-kóreai, ergo nekik fontos lenne, hogy az Intel talpra álljon, mert elég nagy stratégiai hátrány lenne, ha a későbbiekben nem lenne legalább 1 amerikai cég fejlett gyártástechnológiával. Persze emellett a Tsmc-vel és a Samsunggal is eléggé baráti viszonyt kezdenek ápolni, biztos ami biztos. Nem hiába az Intel az első (vagy egyik első) cég aki szállíthat a Huaweinek. Kicsit támogatni fogják őket most ezt biztosra veszem.
-
-FreaK-
veterán
Én kérek elnézést, de a 3080 is kb. ugyan ott van perf/watt előre lépésben mint a 3090, nem lehet túl nagy a difi. Így aztán az idézett kijelentés megállja a helyét. Amennyivel gyorsabb lett, annyival többet is fogyaszt, illetve egy minimális javulás következett csak a be a kettő arányában. Ez ugyan úgy igaz a 3080-ra, mint a 3090-re.
-
Mumee
őstag
"3080 meg az egyik legjobb előrelépést produkálta még perf / watt terén is."
Az első képeden az "energy efficiency" oszlop, 2. képeden energy efficiency (perf per watt) sor.
2080ti 90,6% 3080 100% azaz kb. 10%-al jobb a perf/watt a 3080-nak.
A 3090 még jobb is ebben a vonatkozásban, hisz nem igazán fogyaszt többet, de gyorsabb így ki is jön a Malibu képen a 13% a 2. képén 2080ti vs 3090 perf/watt.Malibu 1. képén pedig csak teljesítményugrásról van szó.
A 3090 FE kb. 46%-al erősebb, mint a 2080ti FE.
Az általad linkelt 2. képen alul lehet következtetni a 4K és 4K+RT 3080 vs 2080ti eredményekből, ami 31% és 40% átlagolva 35,5% és a 3090 egy ~10-15%-ot ver a 3080-ra.
Így a 46% 2080ti vs 3090 a Malibu ábráján megint csak korrektnek nevezhető. -
Abu85
HÁZIGAZDA
Olyan nincs, hogy 98%-os terhelés. Az maximum azt jelenti, hogy a parancsmotor a 100 ciklusból 98-ban beolvas valamilyen parancsot. De belül azt nem úgy dolgozza ám fel. A GPU-n erősen heterogén processzorok, tehát nagyon sok az üresjárat bennük, és ezeket afterburner nem fogja megmutatni. Érdemes inkább megnézni egy profilozóval, ott azért közel sem az látszik, hogy 98%-os a terhelés. Jó ha 50% megvan.
Minden dizájnnak van egy optimális hatékonysága, ahol arányaiban a legnagyobb teljesítményt adja le a fogyasztáshoz viszonyítva. Ezek gyártói döntések, hogy hogyan állítják be.
Például az AMD ezzel azért nem törődik annyira, mert ma már teljesítménytartományt szállítanak a Radeonokban. Van egy közepesre állított szint, amiből a power limit beállítással elérhető a legnagyobb hatékonyság és a legnagyobb teljesítmény is. A felhasználó egy -50 és +50 százalék közötti csuszkával kiválaszthatja, hogy mit akar. Általában -10-20% között van az optimális hatékonysági szint, de ez termékfüggő, valamelyiknél 12%, valamelyiknél 18%. Ezt azért vezette be az AMD, mert ezernyi igény létezik, és ezt csak teljesítménytartomány felkínálásával fedhetik le. Mindenki beállíthatja azt, amit magának akar.Az NVIDIA ezt még nem vezette be, de az Ampere már tett lépéseket felé, tehát később valószínűleg ők is bevezetik ezt a tartományos modellt, csak ahhoz még szükségük van arra, hogy gyorsabban váltson az órajellépcsők között a dizájn. Valószínűleg a következő körben elérik. Az Ampere annyiban előrelépés, hogy teljesen hardveres lett az órajel- és feszültségmenedzsment, tehát már nincs benne szoftveres tényező.
A gyártástechnológiát könnyű hibáztatni, de az esetek nagy részében nem ott van a gond.
Az undervolt azért nem ajánlott, mert a gyártók a beállításokat nem a programokra nézik, hanem egy szimulációra. Ez a szimuláció bekapcsol minden részegységet a lapkában, tehát egy eléggé worst case mérés. Egy játékban azért működik az undervolt, mert a legtöbb játék közel sem túráztatja a GPU-ban található összes részegységet. Egy adott pillanatban jó ha a teljes lapka 50%-a be van fogva. De ugye jöhet egy olyan feldolgozás, ahol be lesz fogva a 80%-a is, és akkor bizony az undervolt megadja magát, mert ahhoz az a feszültség kellene, amit a gyártók beállítottak, csak a felhasználó nem engedi elérni.
Ez ellen egyébként a Navi már védekezik. Ha túl kevés a feszültség, akkor nem fagy bele a munkába a GPU, hanem indít a rendszer egy fail-safe módot, ami azt jelenti, hogy a GPU az órajelet levágja 500 MHz körülire. Ezért van az, hogy ha valaki undervoltol egy Navit, akkor nő a mikroakadások száma, mert már nem fagy bele az alacsony feszültségbe a rendszer, de harmadolja a teljesítményt arra az időre, amíg a feszültséget alacsonynak tartja. -
Petykemano
veterán
Na várj
Azt akarod mondani, hogy ahelyett, hogy a legjobb minőségű, legjobb eredményeket hozó lapkákat az Nvidia saját kézből adva prémiumot tenne zsebre,
ezúttal a legjobb minőségű lapkákból egy kiváló minőségű hűtővel rendelkező kártyát árul úgy, hogy a ténylegesen boltban kapható termékek ennél vagy rosszabbak, vagy drágábbak lesznek? -
Petykemano
veterán
"Nvidia sees an opportunity to sell its AI chips and graphics chips to Arm’s customers, too. “If we could leverage their business model, if we could stand on the network they’ve created and take the technology we’ve invented and put it into that channel and make it available to their thousands of partners, the economics for us would be incredible,” Huang said. "
-
Petykemano
veterán
"Egy komplett ökoszisztémát kialakítani"
De ezt megtehették volna akár magok, akár az ISA licelcelésével. Az apple és ígéretben a nuvia is olyat csinál, ami meghaladja az x86 lehetőségeit, de arm alapon bárki utánuk csinálhatná, de nem az arm csinálta ezért nem áll mindenkinek rendelkezésére.
Mindezt úgy, hogy nem kellett hozzá megvenni az armot.Ha az arm az ISA vagy más miatt tényleg jobb, mint az x86 és nyitott marad, akkor bárki más utánacsinálhatja arm alapon. Tehát máris nem annyira zárt. Gyorsítót meg adhat akár az amd akár az Intel CCIX vagy CXL alapon. Kivéve persze ha itt is zárás történik, de akkor azzal minden más gyorsító is kizáródik, (PEZY)
De szerintem ehhez nem kéne megvenni az armot.Tehát a célt értem, amit mondasz és egyet is értékek vele, azt az okot keresem ami miatt muszáj volt a felvásárlás, nem volt elég az ISA.
Pl ha az ISA felett akar kontrolt gyakorolni, mondjuk valahogy integrálni az arm ISAba a CUDA-t? Vagy kikúrni a CCIX-et és az NVLInket szabvánnyá tenni. És akkor ha arm szerverprocit gyártasz, akkor ahhoz vagy nvidia gput veszel,.vagy licenceled az nvlinket (pl FPGA gyártók)
-
szmörlock007
aktív tag
-
Malibutomi
nagyúr
Tudom mit jelent...azt is mind tudjuk hogy az NV azert irta ki szep nagy betukkel hogy a hozzanemertoket beeetessek..az hogy nezett volna ki a dian hogy 8nm process. 0% improvement in perf/watt?
Megegyszer..a negativ velemeny is megoszthato a forumon, aert forum. Ha jon eg hir leirom a velemenyem. Ujfent bocsanat hogy rosszat mondtam a tevedhetetlen nvidiara, gyorsan gyujtok ertuk egy gyertyat
-
Malibutomi
nagyúr
Bocs hogy leirom a velemenyem, miutan az NV elvileg jobb node-ra elorelepve meg 1.9X perf/wattot belengetve a diakon az eddigiek alapjan gyakorlatilag annyi javulast ert el hogy a kartyak pont annyival tobbet fogyasztanak mint amivel gyorsabbak.
Elnezest hogy csunyat mondtam a balvanyodra igerem tobbet nem teszem.
-
TTomax
félisten
Háát...távol álljon tőlem bárki megvédése,de ez a VS topic ahol a fanyalgásoknak igenis helye van.
Valóban nem tett jót a samsung 8nm-e a perf/wattnak viszont az már így előre meg merem jósolni,hogy brutálisan húzhatóak lesznek ezek a kártyák,illetve lehetnek mert nekem nagyon úgy tűnik,hogy a 3080 ismét olyan power limites lesz,hogy csak a shunt mode segít rajta,már aki bevállalja,mert a bios lockolva lesz az máris borítékolható.Egy vga lesz csak ahol engednek mindent,és az a 3090 brutál áron (hogy klasszikust idézzek qrva gyors lesz qrva drágán
)... arra nem is lesz az AMDnek kb semmiféle válasza,de oda a 3070/3080köré megérkezhetnek...persze csak mire már mindenki bevásárolt...
-
do3om
addikt
A fogyasztással pl Amd esetén nem az volt a baj hogy sok. Senkit nem érdekelne, árban minimális ha 100w a különbség a villanyszámla esetén.
A gond a kártyákkal volt, pl amikor azt gondolta elég a 6pin, itt gond volt a fogyasztás, de csak mert elbaszta. Aztán több karinál is a tuning, nem bírta hüteni semmi, de ha megoldották volna ezt senkit nem érdekel hogy zabál csak menjen. Aztán az alulméretezett gyári hűtések meg a magyarázkodás meg Abu féle mosdatás hogy 100 fok felett hatékonyabb a vrm. Na az ilyen nevetséges dolgok miatt lett fontos a fogyasztás, de ha úgy tervezik hogy bírja nem nézné senki.
Ha netán most az nv kari fogyaszt majd 350w-ot de az a tégla hűtő megoldja, nem szenved miatta hátrányt, netán húzni is lehet és 400w sem okoz gondot akkor elnézzük a fogyasztást. Persze Amd fanok jönnek majd hogy most is legyen fontos, de még kell érteni hogy az ottani karikon sok gondot okozott ahogy azt írtam. -
Jacek
veterán
Nade akkor ütötted az AMD a fogyi miatt, ez olyan mint 10 év fidesz után elmúltnyolcvévezni mert gyurcsány
Akkor is leszartam a fogyasztást meg most isTőlem jöhet a tégla kerti grill, az jobban zavar hogy 600k lesz..... a 3080-at meg tolják rá a Ti-re... Mondjuk nem érint mert mindenféle képpen megvárom az AMD-t.
-
paprobert
őstag
A skálázódás tök jó dolog, de kapsz is cserébe valamit felhasználóként?
Sajnos ezt nem lehet egyetlen számba besűríteni, de a motorok között jelentős különbség van a "mit csinál / gépigény" mutatóban.
Mivel nem számszerűsíthető ez, így csak véleményeket lehet formálni, de pl. a R6 motorja az egyik legjobb ebből a szempontból. Alacsony a hardveres belépési küszöb, sok mindent nyújt, skálázódik is.
Ha csak az utolsó pont van meg, az baj.
-
Abu85
HÁZIGAZDA
Most az atmoszféra az nekem is tetszik. Azzal nincs bajom, sőt... csak a tartalmat hiányolom. De lehet, hogy én hamar feladom. A harcnak egyébként nem látom értelmét. Inkább kikerülöm az ellent. Lehet, hogy itt hibázok?
Az a baj, hogy jó néhányszor megaláztak már.
(#41433) Laja333: A Death Stranding kinézete koncepcióból sivár. Ezt nem lehet felróni neki, mert valahogy bele kellett rakni a játék dizájnjába a reménytelenséget, és ezt a legjobban egy kihalt és élettelen táj szemlélteti. Ilyen szempontból a Death Stranding egyáltalán nem rossz, inkább más. Az való igaz, hogy az ember számára egy paradicsomszerű táj sokkal szebb lesz, mint a Death Stranding pusztasága, de ha objektíven nézzük a grafikát, akkor nagyjából ugyanott vannak, csak a HZD-be a dizájn miatt sokkal nagyobb részletesség kell.
-
Abu85
HÁZIGAZDA
Engem elsődlegesen az motivált, hogy a kérdéseimre választ kapjak. Például az időeső miért roncsolja a szállítmányt, és minket miért nem? Tudom, a kabátunk miatt, de akkor miért nem húzunk ilyen kabátot a szállítmányra? A járművek a terepre abszolút alkalmatlanok. Motorral szinte mindig el lehet akadni, nagyobb szenvedés, mint gyalog. Fura, hogy erre senki sem gondolt.
Én alapvetően azt gondoltam el, amikor láttam a trailereket, hogy ez ilyen futárszimulátorkodós mellékküldetésekkel megtűzdelt játék lesz, ahol majd lesznek izgalmas küldetések. Erre az egész játék csomagküldésre épül. Nem ez a választható mellékes, hanem maga a nagybetűs játék. Na ekkor durván ledöbbentem. Egy darabig szentül azt hittem, hogy az elején cipelgetek, aztán majd kapok valami frankó küldetést, esetleg bejutok oda, ahol az emberek el vannak szállásolva, mert ugye elvileg nekik cipelünk, de marhára nem látjuk őket.
Arról már nem is beszélve, hogy a gyaloglás olyan szinten túl van bonyolítva, hogy az beszarás. Nem elég a sticket irányba helyezni, még két extra gombbal egyensúlyozni kell, és a lendület is meg tud tréfálni. Csodálatos.És még az a hülye bakancs is kopik.
Én ezt csak úgy tudom értelmezni, hogy félbe lett vágva az egész. Játéknak készült ez, de valamiért ki kellett venni a tartalmak nagy részét, ezért sem jutunk le az emberek közé a föld alá, és végül ezért lett maga a nagybetűs játék egy olyan játékmechanika, amit más címekben maximum mellékküldetésekben látunk: vidd a csomagot A-ból B-be. Nehezemre esik elhinni, hogy tényleg ezt akarta Kojima.
-
hokuszpk
nagyúr
"Az AMD az IF segítségével saját gyorsítóival és CPU -val így még nagyobb konkurencia lesz az Intelnek, ez már kifejezetten aggályos rájuk és egyébként az egész piacra nézve. Ha ezt meglépi AMD / már pedig meglépi"
kénytelen, mert ahogy latjuk nem elég ugyanolyan vagy jobb termeket kinalni, vagy ABU kifejezésével agyonverni azt a konkurrenciát, valamiert akkor sem foglalkoznak komolyabban az AMD gepek epitesevel.
talán így majd fognak." Intel kénytelen lesz megadni az Nvdiának az NV link támogatást "
előbb fogsz AMD cput látni NVLinkkel, mint Intelt.
-
Shing
őstag
Csak akkor PC fronton kellene már vmi az AMD-tól is. Ez a DLSS tipikusan olyan, amin rengeteget lehet még optimalizálni. Lehet hogy lassan itt a 3.0, nem tudja majd a konkurencia felvenni a harcot, mert addigra az NV-nél be lesz járatva az AI, jönnek a jobb algoritmusok és egyéb finomhangolások a megszerzett tapasztalatok alapján.
-
paprobert
őstag
"Semmi nem jó amit a zöldek csinálnak neked semmilyen fejlesztés vagy újítás, csak a mit a másik oldal."
Ha a hardver heterogén jellegű, de legalábbis univerzális irányba hat, mint a Kaveri, akkor az a jövő, és nem elpazarolt tranzisztor.
Ha viszont széles AVX vagy tensor feldolgozókról van szó, akkor az csak felesleges erőforrás-pazarlás, miközben lehetne jövőbe mutatóan homogén rendszereket is tervezni.
Hát nem érted? /s
Egyébként érteni vélem hogy mire céloz Abu is, azaz hogy a nagyobb feature list most megbosszulhatja magát ha a node nem elég jó.
-
Abu85
HÁZIGAZDA
Ez a gyártókon múlik, hogy küldenek-e a régióba hardvert. Az AMD valószínűleg, mert nekik van a régióban dedikált érdekeltségük, sőt, éppen bővítenek. Tehát mi sosem utasítottuk el azt, ha valaki NDA-ra küldött teszthardvert. Tudtommal más sem a régióban, láthatod is, hogy az AMD-ből mennyire sok teszt érkezik az egyes termékek megjelenése után. És most nem csak rólunk beszélek, hanem a többi hazai médiáról. Tehát ha a gyártócég küld hardvert, akkor vannak hazai tesztek is.
Az nyilván sajnálatos, hogy az AMD-n kívül mindenki kivonult a mi régiónkból. Ennek nagyrészt a YouTube az oka, amivel a gyártók már nem érdekeltek a részletes tesztekben, mert kiszámíthatatlanok. Elárulom, hogy az AMD érdeklődését is egy tech-geek ember tartja életben, aki a minőségi tesztek híve, ezért YouTube influenszerek ide vagy oda, ő direkt a szakértő médiáknak adja a hardvereket elsőként. Ha ő nem lenne, akkor az AMD-nél is valamelyik PR ügynökség döntene, és kapná a holmit valamelyik influenszer, leírják neki, hogy mit kell mondania egy tíz perces videóban, és ennyi.
(#41351) Malibutomi: Tudok.
Nem hiszem, hogy a neten ezek az infók megjelentek már. Én is arra várok, hogy több OEM-hez eljusson, mert most még beazonosítható forrás. Bajt meg nem akarok neki. -
Abu85
HÁZIGAZDA
Az RT-vel sokat nem érnek gépi tanulásnál.
A vezérlők, regiszterek és buszrendszer brutális tétel. A multiprocesszor nagy részét elviszik. Hitted volna?
A dedikált RT valamivel könnyebb. Az egy fixfunkciós blokk. Nem szükséges hozzá bonyolult belső busz, regiszter, a vezérlője is egyszerűbb, sokkal.
Majd meglátjátok ősszel mi lesz az RDNA2-Ampere viszony. Izgi lesz, sőt, soha ilyen izgi nem volt, na jó ez talán nem igaz, de az elmúlt pár évben semmiképp.
-
-
-
-
GeryFlash
veterán
Hmm így felfutott az ARM azon a vonalon?
Amperéről hallottam hogy kezdi kinőni magát de azt nem gondoltam volna hogy valós veszély az Epyckekre, én még ott ragadtam le hogy az ARM nem skálázódik jól fogyasztás növeléssel és hogy kb 7-8 éve várandó bbetöérsük a szerver szegmensben csak nem jön el.
-
GeryFlash
veterán
Meglátjuk de szerintem más szegmens. Én inkább tényleg attól félek hogy AMD tényleg behúzza a féket ezek után. Mire ezek kiszenvedik magukból a 7nm-t (ami nyilván nem lesz elsőre olyan jó mint az AMD 3. 7nm-en kiadott ryzen 5xxx processzora) addigra TSMcnél már nem is a 3nm lesz a legújabb és legdrágább node hanem 2nm. Most tényleg lejöhet a pár éve még Intelnél vizionált fiókból előhúzunk ha gáz van mechanizmus.
Az más kérdés hogy az Apple átnyergel ARM-re, de azzal egyikük se tud mit kezdeni. Mondjuk ami miatt szarba kerülhet pár év múlva az AMD az, ha ez beindít egy láncfolyamatot és az MS is csinál valami értelmes ARM platformit, a 15 watt alatti lapkáik az AMDnek eddig rendre szarok voltak.
-
Jacek
veterán
Nincs itt semmi problema:) En csak ravilagitottam ha tisztan a teljesitmenyt nezzuk mi a helyzet.
Megvehetned nyugodtan a Thicc II-ot az a video az elso hibas hutesu szeriaval keszult, amit csereltek nem hangos es a teljesitmenyt is hozza, de termeszetesen nitro+ vagy gaming jobb.
De a triple fan NV oldalon egy raklap fos kulonben :)
Most eladom a Thicc II majd es egy 670 :) :) lesz a gepben vagy az integralt. -
Jacek
veterán
Ertem en 110-ert vettem az XFX 5700XT Thicc II-ot :D Biztos talalok 130-ert 5700xt most is. Tehat maradt az 50e csak az arany lett meg rosszabb. Meg a 2070-el mit szeretnel? Akkor az 5700 meg olcsobb.
Halal komolyan kerdezem ezek a kesobb jott ki full hasznalhatatlan featurek kit erdekelnek? Tehat ha te kartyat vasarolsz azt nezed ezek kb ugyan azt tudjak az egyik 25-30%-al olcsobb de jaja kesobb jott ki nem azt veszem :D fanboysagnak is van hatara :) Nem kell irnod szar volt nalad is a driver :)
Ha most neztem az alzat van igen ez a triple fan akcioban a tobbi, juj 200 felett joval:) de ott a Thicc II 138e-ert:D Akkor igy csak 30%-al dragabb hogy megeri... -
-
Tegyük hozzá, hogy az Intel (az utóbbi időkig) még szállítás terén is megbízhatóbb volt, mint az AMD. A Dell esetében legalábbis kb. tavaly év vége felé kezdett el normalizálódni a helyzet. Ha Intel Xeon alapú szervert szerettél volna, csaknem azonnal tudtak szállítani tavaly szeptember-október magasságában. Ha AMD Epyc alapút, akkor vagy nem is nagyon mertek szállítási időt mondani, vagy több hónaposat tudtak csak adni, mert az AMD ellátási lánc késésben volt.
Az Intel féle szállítási problémák ellenére a Latitude-okból is könnyebb Intelest szerezni, mint AMD Ryzenest...
-
A TPU ír erről, nevezetesen, hogy egy DigiTimes forrás szerint tavaly az nVidia még úgy futott neki a dolognak, hogy a Samsungnak adna egy jelentősebb megrendelést. Majd kiderült, hogy az AMD a TSMC 7nm-es gyártókapacitásának jókora részét már lefoglalta. Állítólag az nVidia alábecsülte a TSMC 7nm hatékonyság-előrelépését, és azt hitte, hogy a Samsung gyártástechnológiája kellően versenyképes lesz.
A helyzettel szembesülve az nVidia húzott egy merészet, és bár a 7nm-es gyártósorokról részben lecsúszott, a TSMC előrehaladott 7+ és 5nm-es gyártástechnológiájából egy jókora adagot lefoglalt. A DigiTimes forrása szerint a Samsung féle gyártástechnológiát a TSMC-vel való tárgyaláskor szándékoztak árcsökkentő érvként az asztalra dobni, de visszafogott sikert értek el vele, mert a TSMC egyszerűen egy jókora lépéssel a Samsung előtt jár.
Az utolsó mondat szerint az nVidia 7 és 5nm-es gyártástechnológiájú Wafereket így a TSMC-től és a Samsungtól is vásárol...
-
Kíváncsi leszek mire utalt Huang bá,mikor azt mondta CPU kérdésre, hogy minek költsenek milliókat fejlesztésre mikor meg is lehet venni készen őket
Az AMD iGPU-s Intel proci után esetleg venne az nVidia komplet design-t az AMD-től?
és ennyit arról ami Cifu és Abu között téma volt, hogy Nvidia mit tud megvenni gyártókapacitásban és csíkszélben ha akar és mi mit ér meg nekik. Kíváncsi leszek nagyon.
Ez amúgy azért durva igazán, mert eddig az 5nm-től emlékeim szerint nem volt szó, a 7nm-ről igen. Nyilván az 5nm-t a HPC-nek szánják, de ez egyben óriási ugrás a zöldeknek. Az AMD az RDNA2 esetében is 7nm-t (vagy 7+) használ a jelen tervek szerint. Az RDNA3 majd 2021-re várható, és ott a korábbi diákon "Advanced Node" szerepelt.
A zöldek megint beelőznek, és hülyére verik a piros GPU-kat, ha még egy node szintnyi előnyük is lesz...
Ez nekünk vásárlóknak megint nem lesz jó. -
Petykemano
veterán
Jó, azért ez még mindig nem jelenti azt, hogy a mainstream gpuk is 5 meg 7 nm-en fognak készülni.
Nem arról volt szó, hogy az nvidia számára a 7nm túl drága ahhoz, hogy minden azon készüljön. (Persze a túl drága itt a legmagasabb margót jelenti nem azt, hogy ki tudna-e fizetni) viszont ha csak a HPC holmikat gyártják ott, az annyira kis volumen, Amivel eddig elhajtották?
Mit gondolsz a CDNA vagy CDNA2 is chiplet lesz?
-
Petykemano
veterán
Bár az IBM nem annyira uptodate manapság, de velük volt a legszorosabb kapcsolat korábban.
De van már vagy három arm alapú 64+ magos szerver CPU. Ezek ma még lehet, hogy csak papíron léteznek, de papíron nem rosszak és tényleg meg lehet venni készen.
Nem hiszem, hogy ezek a tervező.cégek ne lennének készek hozzáigazítani a - még csak papíron létező - architektúrájukat az nvidia gyorsítójához.
-
-
Locutus
veterán
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Telefon felvásárlás!! iPhone X/iPhone Xs/iPhone XR/iPhone Xs Max
- BLUESUMMERS NVMe SSD adapter
- Samsung Odyssey G6 S27BG650EU - 27" QHD 2K 240Hz Ivelt - Gaming monitor - 1,5 év Gyári garancia
- MacBook felvásárlás!! Macbook, Macbook Air, Macbook Pro
- LG 48C4 - 48" OLED evo - 4K 144Hz - 0.1ms - NVIDIA G-Sync - FreeSync - HDMI 2.1 - A9 Gen7 CPU
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged