-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Én azért a tesztek alapján kicsit másképpen látom, az alap 550$-os kártyák inkább 10% lemaradásban vannak RT terén a sima RTX 4070 kártyákhoz képest (egyedül 4K-ban jobbak, ami érthető a VRAM miatt), a jobb kártyákra igaz teljesítményben, amit írsz, miközben azok árban is már inkább az RTX 4070 Super-hez vannak közelebb.
Szóval a vásárló ismét dönthet, hogy mi a fontosabb neki: a DLSS által nyújtott előny vs. a több VRAM. Kb. ezt adja most a két gyártó. Szerintem az AMD nagyon is tudatosan lőtte be az árakat, nem számít arra, hogy az nVidia árversenybe kezd.
-
-
-
-
Önmagában a chiplet design nem előny a felhasználónak. A gyártónak jó, mert rugalmasabban tud eltérő piaci szegmenseket kiszolgálni azonos épitőkockákból. Jó példa a Zen4, ahol az egységes CCD-kből tud olcsó (7600) és drágább (7950) desktop procit, HDET procit (Threadripper) és szerver procit (Epyc) gyártani. Csak a tokozás még az IOD az eltérés, illetve az X3D CCD-knél van egy csavar. Itt előnyös ez a megoldás.
Az RDNA3 esetén is ez ment. Hogy előnyös volt-e, abban itt nem lennék biztos.
Egy mindössze 2 GPU-s családnál viszont egyértelműen jobban járnak a monolitikus felépítéssel...
Hogy a marketing mit hazudik arra meg ne épits várakat...
-
Pedig logikus lépés, tekintve, hogy az RDNA4 egy átmeneti megoldás, és nem a teljes piacot akarják lefedni vele. Ha tényleg mindössze két GPU lesz, akkor felesleges a chiplet design-al küzdeni, pláne, hogy az AI design nem épül rá (ie.: AI gyorsítás terén ez a család nem játszik).
Szóval egy csak két GPU-t tartalmazó családért nem hiszem, hogy megéri a chiplet design-t választani. -
-
válasz
Alogonomus
#57275
üzenetére
Azért számít, mert a DLSS elterjedését leginkább az akadályozta, hogy az adott játék teljes játékteréről és az opcionális felszerelésekről is el kell készíteni a neuronhálót, ami:
Ez a DLSS 1.0 esetén volt így. A DLSS 2.* óta egy uniformizált rendszert használnak, ezért lehetett nem hivatalosan aktiválni a 2.2 majd 2.3 verziót például a Cyberpunk 2077 alatt.
-
válasz
KillerKollar
#57220
üzenetére
Ez esetben a Crysis-effekt áldozata vagy, azt gondolod, hogy azért, mert csúcs kártyáról beszélünk, automatikusan max. felbontáson is max. képfrissítési frekvenciával kell futnia minden játéknak maximális beállítás mellett. Ha pedig nem fut, akkor a fejlesztő meg a gyártó a hülye, nem a felhasználó...
De még csak a Crysis-ig se kell előre menni, a 3Dfx Voodoo is úgy volt anno a Guru-ban ajnározva, hogy na, mostantól minden 30fps-el fog futni. Igaz valójában egy játék sem futott stabil 30 fps-el (a Tomb Raider is anno beszakadt 10 fps alá 3Dfx patch-al), de nach so...
Nem, egyáltalán nem elvárható, hogy egy CP2077 szintű játék 4K-ban 120 Fps-el fusson natívban akár egy RTX 3090 vagy RX6900 XT kártyán. Fut 4K Ultraban RT nélkül 60-80 FPS-el vagy 4K High-ban 120 FPS-el, vagy 4K /w Quality DLSS-en RT ultrában 60-70 FPS-el RTX 3090-en. Rád van bízva melyik választod.
Ha meg nincs 3090-re vagy 6900 XT-re pénzed, akkor még mindig lehet játszani a beállításokkal, hogy élhető kompromisszumot válassz.Ettől lesz jó egy játék.
Valójában a CP2077 egy GTX 960 kártyán is teljesen játszható 50-60 FPS-el medium körüli beállításokkal 1080p-ben egy i7-4770 szintű procival.
A kártya gyártója pedig nem ígérte, hogy minden játék max. beállítással fog 4K-ban 120 FPS-el futni a méregdrága csúcskártyán...
-
válasz
KillerKollar
#57205
üzenetére
Amíg az 1-2 mFT áron is elfogynak a csúcs dVGA kártyák, addig nem hiszem, hogy a gyártók problémázni fognak ezen...
Márpedig elfogynak... -
-
válasz
Petykemano
#56876
üzenetére
Igen, a Rembrandt-nál az AM5 foglalat is látható egy másik leak-en, de az AM5 elvben a Raphael-el együtt jönne. Amiben alapból tervben van az RDNA2 iGPU. Szóval ott ütné egymást a kettő. Szerintem.
Egy másik leaken viszont egyértelműen azt írják, hogy megszűnik a külön APU vonal az AMD Desktop vonalon, és a Warhol és a Cezanne helyét is a Raphael veszi át.
-
válasz
Yutani
#56872
üzenetére
Itt azért ketté választanám a dolgot, mert dVGA-k terén nem AMD volt, hanem ATi.
Az ATi anno a driverek terén volt bajban, egy időszakban (Radeon 32MB DDR-től a Radeon 9000-es szériáig, vagyis cirka 2000-től 2004-ig) hardware terén körözte az nVidiát és az akkor még létező konkurenciákat. Emiatt a felhasználók többsége elnézte az ATi-nak az esetleges szoftveres problémákat, pláne, hogy az nVidia sikeresen kihozott egy extrém szörnyű GeForce FX szériát 2003-2004-ben, szóval dupla nyerésben volt. Abban az időszakban az ATi konkrétan egyértelműen a csúcsot képviselte a dVGA-knál.
Aztán jött az AMD általi felvásárlás 2006-ban.
Az ATi néven még egy nagy fellángolása volt, a TeraScale 1 idejében (Radeon 4000-es széria, 2008-2009). 2010 körültől ment a levesbe az ATi név.
-
-
válasz
Petykemano
#56864
üzenetére
A vágott kártyát is eladhatnák dVGA-nak... De nem adják, inkább a bányászok számára dedikáltan kiadják.
A miner az új gamer...

-
Ha már van a TV-n, a sima lejátszáshoz, VRR támogatással (magától vált 24 és 50/60 FPS között, függően a lejátszott videóktól), ALLM-el, időnkénti koca játékkal hagy használjam már ki.
De jó lenne, ha ehhez nem lenne szükségem teljes méretű PC házra, mert az nem fér ott el, jelenleg ITX házas gép van a TV alatt. -
-
válasz
Shkiz0
#56831
üzenetére
Nagyjából 300e Ft körül kezdődnek a HDMI 2.1-es TV-k, a legolcsóbb HDMI 2.1-es VGA jelenleg a 256e Ft-s Sapphire Radeon RX6600. Szóval a TV árában van csak a VGA, amin meg lehet hajtani.
Ennyiből Alder Lake i5-12600K procit és Z690-es alaplapot plusz RAM-ot is vehetsz. Vagyis komplett gépet még nem, de nem vagy messze tőle...Per pillanat a legközelebbi "olcsó" HDMI 2.1 megoldás az lenne, ha jönnének az Alder Lake Pentiumok ill. i3-as procik, illetve a B550-es, H670-es alaplapok.
Ez azért finoman szólva nevetséges... -
válasz
Shkiz0
#56827
üzenetére
A probléma, hogy az áraktól függetlenül nincs új belépő szintű dVGA már két generáció óta, sem a zöldeknél, a vörösöknél még régebb óta.
Közben itt a HDMI 2.1 például, amit az Intel csak a legújabb procikkal támogat (Alder Lake), az AMD procik szintjén semennyire.
Szóval ha például szeretnéd a TV-den kihasználni a HDMI 2.1-et, akkor lehet méregdrága RTX 3060 vagy RX 6600 szintű VGA-kat venni (amelyekből nincs Low Profile például).
Remélhetőleg az RX 6400-ból lesz Low Profile, vagy különben várhatok egy olcsóbb Alder Lake procira... -
Ez inkább 1440p-ben kezd megszűnni, de nem oda tervezték a 300-400 dollár közötti VGA-kat.
Persze, mert nincs is 300-400 dolláros VGA (nV esetén nagyjából a GTX1660-asok vannak ott).
Az RX6600XT inkább 700+ dolláros VGA, és az megy akkor 1080p-be...
Akkor meg érdemes elgondolkodni azon, hogy ilyen árú VGA mellé milyen CPU-t raksz be.Aki megteheti, hogy mondjuk egy 800-1000 US$-os RX6600XT-t vagy RTX3060-at vegyen, annak aligha fog valami gyatra proci mellett dolgozni.
Ettől még nem egyértelmű számomra az általad leírt eset, mert vannak D3D12 alatt is, ahol nem a CPU limit fogja meg a középszintű VGA-t 1440p-ben. Hogy akad egy marék játék, ahol meg igen, attól még nem feltétlenül látom alátámasztottnak a valós felhasználási feltételek mellett az ilyen markáns kijelentéseket.
-
válasz
#09256960
#53589
üzenetére
Especiel kib@szott jól néz ki a REDengine 4 és rohadt jól is működik, legalábbis ilyen szintű open world grafikát máshol nem igazán láthattunk eddig. A LOD kezelése az, ami irtó gáz, mert maximális látótávnál pár téren pszeudo-megoldásokhoz fordul (pl. kb. 800-1000 méteres látótávolságnál a valós forgalom helyett egy imitált megoldást alkalmaz az utakon. Mész a Badlands-en, közelben egy-egy autó, a távolban meg olyan forgalom látszik, mint az M7-esen nyaranta péntek délután / este, aztán ahogy haladsz, az autók (este a helyzetjelzők/fényszórók) eltűnnek és üres utat látsz...).
-
Még egyszer megpróbálom megérteni, amit írsz, mert önellentmondások vannak benne, és nem törekedsz arra, hogy ezt felold...
A DXR 1.1 és a DXR 1.0 specifikációja egymással több ponton nem kompatibilis. Ezért van az, hogy egy DXR 1.1-es kód képtelen futni DXR 1.0-s specifikáción, ahogy a DXR 1.0-s kód sem fut a DXR 1.1-es specifikáción.
majd
A Microsoft csak azt engedélyezi, hogy a DXR 1.0 és a DXR 1.1 egymás mellett fusson, de akkor az adott programba mindkét specifikációra el kell készíteni a támogatást, tehát nem egy, hanem két RT implementációt is kell írni. Ezt senki sem vállalta még be, és a Microsoft nem is igazán ajánlja, hacsak nem végszükséglet.
Végül
Mert az AMD és az NVIDIA is írt mindkét eltérő specifikációra implementációt.
Szóval annyi van, hogy akkor az AMD és az nVidia egyszerűen támogatja a szükséges driverekkel a játékokat, így az RDNA2-őn vígan fut a DXR 1.0-ás RT támogatású játék (pl. Control), vagy Turingon is vígan fut a DXR 1.1-es játék (pl. Cyberpunk 2077). Jól értem?
Szóval tök jó, hogy ezek a DXR 1.0 és DXR 1.1 specifikációk nem kompatibilisek, de mégis működik a dolog. Nem lőtte ki a DXR 1.1 a DXR 1.0-ás hardware-t, és a DXR 1.0-ás játékon is simán bekapcsolható az RT egy DXR 1.1-es hardware-nél. Nincs itt semmiféle probléma felhasználói szemszögből, nincs "early access", amit folyamatosan hangoztattatok...
-
A Microsoft csak azt engedélyezi, hogy a DXR 1.0 és a DXR 1.1 egymás mellett fusson, de akkor az adott programba mindkét specifikációra el kell készíteni a támogatást, tehát nem egy, hanem két RT implementációt is kell írni. Ezt senki sem vállalta még be, és a Microsoft nem is igazán ajánlja, hacsak nem végszükséglet.
Akkor hogy a búsba mennek Turingon a DXR 1.1-es játékok (pl. Cyberpunk 2077 vagy Minecraft ), vagy RDNA2-őn a DXR 1.0-án játékok ( mint pl. a Control )? -
Aki tehát vett DXR 1.0/1.1-re hardvert, most fizette azt az R&D-t, amitől az RT majd jó lesz két-három év múlva, de semmit sem tud majd belőle élvezni a traversal shader érkezésével, mert a hardveréből eltűnik a traversal unit, és RT shadernél jó eséllyel a textúrázó is. Ez nagyon early access szagú.
DXR 1.0, alias Turing: Amikor a Turing RTX széria kint volt, konkrétan az volt a csúcs hardware. Ha nem volt RT támogatva a játékokban, akkor is tök jó sebességet nyújtott. A PH! tesztjei se mutattak mást. Az RT egy extra feature volt. Ahogy a DLSS is.
DXR 1.1, alias Ampere / RDNA2: Per pillanat nem is lehet olyan hardware-t kapni ezekből, aminek nincs RT támogatása. Milyen Early Access az, ahol az adott opcionális feature nem opcionális, mert benne van az összes adott hardware-ben?
A kompatibilitást már az első frissítés megtörte, majd a másodiknál kiveszik a rendszer alól az erre tervezett hardvereket. Ez nem stratégia, ez kőkemény kapkodás.
Megkérdezhetem, hogy mit takar az, hogy az első frissítés megtörte? Van olyan DXR 1.1 játék, amely alatt nem megy a DXR 1.0 hardware? Mármint a DXR 1.1 miatt, nem amiatt, mert a fejlesztők más okból letiltották a hardware-es RT bekapcsolását.
Fordítva biztos működik, hiszen az RDNA2 féle Ray-Tracing is megy a Control, Battlefield 5 vagy a Shadow of the Tomb Raider alatt, amelyek az első komolyabb RT támogató játékok voltak...Értem az állításod, mely szerint a TS megelenésekor a DXR 1.0 és DXR 1.1 hardware elvben megy a levesbe, csak kétkedve fogadom, hogy ez így fog valóban működni...
-
-
- RT tamogatott jatekok szama marginalis
Ellenben már most is egyre inkább ott van minden AAA cím esetén. Tehát valóban tudod használni. Hiába kicsi a szám, ha a nagy neveknél ott találod.
- A fo selling point a piacvezeto gpu gyarto reszerol a meregdraga vga-k eseten az RT
Nem ez volt a fő selling point, mivel minden más téren is megvan és megvolt a teljesítmény, ahol kell. Az RT egy extra volt a Turing esetén, tehát selling point, de ezzel együtt is a nélkül is a toppon voltak az RTX-es kártyák. Ez pedig már a múlt, mert per pillanat az nVidia és az AMD új kártyáiban is ott van a Ray-Tracing.
Per pillanat nem az RT az, ahol fejvakarászás van, hanem a DLSS, mert ez ott van az nVidia esetén, így DLSS+RT mellett is tud elfogadható FPS-t nyújtani, míg (most még) az AMD-nél itt nincs válasz erre.
Az RT egy extra feature, ma már minden modern kártyában ott van, tehát nem "early access", hanem alapból használható.- a varhato RT MS "szabvany" modosulasok sanszos, hogy hatranyba hozzak a kurrens HW-ket RT teljesitmeny teren az upcoming jatekok eseten (2 eves periodust tekintve)
Bocsi, de én várnék ezzel addig, amíg kijönnek ezek a "szabványok", és utána majd megnézzük, hogy tényleg mi lesz a helyzet. Előre nem temetnék semmit.
Emlékezünk még ugye a DX12 feature szintekre? Meg hogy akkor is úgy futottunk neki, hogy na, az nVidia sehol sem lesz, az AMD meg mindenhol hozza, amit kell. Aztán mégse úgy lett.
Ahogy egy éve még az nVidia találgatós topicban is arról ment a diskurzus, hogy a DXR 1.1 megjelenésével kukázni lehet majd a DXR 1.0-ás kártyák RT képességeit (ie.: nem lehet őket használni DXR 1.1 alatt). Aztán valahogy mégis tök jól elfutnak a DXR 1.1-es játékokkal a Turing kártyák...
Szóval nézzük meg, hogy tényleg majd mi lesz a helyzet a jövőben.
(BTW nem értem, ha a jövőbeni játékoknál előnye lesz az újabb hardware-eknek, és a mostaniaknak most van, akkor ez miért probléma, miért meglepő?
) -
A részemről vásárolhattok early access hozzáférést ezekhez, csak legyetek tisztában azzal, hogy bármikor jöhet egy hard reset.
Ez nem early access, hanem simán csak használjuk a hardware-t, ha akarjuk.Nem ez az első eset, hogy egy technológia jön, aztán jön majd helyette egy újabb. Miután az RT opcionális jelenleg, konkrétan van választási lehetőség. Ha érdekel, akkor olyan hardware-t veszel, ami tudja, és használod. Ha nem érdekel, akkor vagy nem is érint, hogy az adott hardware-ed tudja, avagy legfeljebb nem kapcsolod be.
-
-
válasz
Devid_81
#53478
üzenetére
Nem az RT a fő előnye, hanem a DLSS.
Natív RT terén a csúcskártyák kellenek még 1080p ultra szintű beállítások mellé is. A DLSS teszi lehetővé, hogy be is kapcsold őket 1080p-ben kisebb (gyengébb, régebbi) kártyákon, míg a nagyobb kártyákon 1440p esetleg 4K mellett is úgy-ahogy elfogadható kompromisszumokat nyújt... -
-
-
válasz
Raymond
#53410
üzenetére
Yepp, ahogy azt is leírja kommentben, hogy hát adott esetben azért előfordulhat, hogy komoly problémát okozhat (lásd RDR2 CPU problémák a kijövetelkor). Szóval 2 nap múlva újra kell tesztelniük, az lesz a valós eredmény.
Azért érdemes elgondolkozni, hogy a többi HW tesztoldal nem csinált ilyet - csak a Tom's Hardware. Vajon miért? A Denuvo kihatása a játék teljesítményére nagyban függ attól, hogy építik be, a Doom esetén ugye relatíve minimális volt a sebességnövekedés, amikor kivették a DRM-et. Azonban nem egy és nem két játék volt, ahol brutális kihatása volt rá ( [két évvel ezelőtti cikk, de részletesebb] ).
-
-
-
-
-
-
válasz
TESCO-Zsömle
#53332
üzenetére
Szép lenne, ha arra hivatkozva tolnának el egy ilyen eseményt, hogy aznap jön egy játék (Cyberpunk 2077), és úgy is mindenki azzal játszana inkább...
-
válasz
#09256960
#53309
üzenetére
Azért nézz meg egy rendes összehasonlítást is: [RTX2080Ti vs. RTX3080 vs. RTX3090]
A jelek szerint egy 10GB-os kártya is szépen eldolgozik max. present-sen, és nem lesz belőle diavetítés... -
-
válasz
Malibutomi
#53238
üzenetére
A spekuláció attól spekuláció, hogy feltételezésekre épít. Nem vasbetonra.
Akit érdekel, megnézi, akit nem érdekel, az nem.Igort meg leírni nem kéne, nem egyszer és nem kétszer bizonyult igaznak amit leírt, hiába lett körbe röhögve először (RX5600(XT) vagy RTX 3080 előrejelzés például...). Nyilván, hogy az RX6800XT-s mellényúlása ciki, de hát akkor is leírta, hogy megpróbálja megbecsülni az értékeket (estimated...). Értelmezni kell, mit jelent, mit jelenthet ez...
-
Az nVidia GPU-kat gyárt (leszámítva az FE kártyákat), tehát neki tök mindegy, hogy hány Turing vagy akár Pascal dVGA van a polcokon, hiszen az AIB-k az azokban lévő GPU-kat már kifizették. Szerintem.
Az egymáshoz árazás valahol a versenyről szól. Szvsz az nVidia alávágott az Ampere áraival az AMD terveinek, az AMD pedig próbál visszavágni. Az eredmény a korábban is linkelt, kvázi öngyilkos MSRP árak...
-
[RX6700XT leaks @ Igor'sLab]
Tömören: a kártyák reálisan 2,8Ghz környékén, vagy szerencsés esetben akár annál is feljebb boostolhat. Két BIOS került a kezébe, az egyiknél 186, a másiknál 210W a TGP, és 15%-al lehet e fölé kitolni max. a Power Limitet.
Igor nekiáll spekulálni, hogy a magas frekikre miért is lehet szükség, és azon tépelődik, hogy vajon az RTX 3060Ti-t be tudja-e fogni így a kártya. Ha nem, akkor az RX6700XT és az RX6800 között túlságosan is nagy rés lenne, ahova az RTX 3060Ti kényelmesen befészkelheti magát. Persze hozzáteszi, hogy jó lenne meglepődni... -
válasz
paprobert
#53208
üzenetére
Olyan hihetetlen lenne egy virtuálisan generált, mikrotargetált és mikromenedzselt hiánygazdaság?
Csakhogy nem pusztán az asztali dVGA piac létezik.
Én el tudom képzelni, hogy az nVidia némileg alábecsülte az RDNA2-őt, az általános piaci igényeket, és úgy volt vele, hogy akkor picit elengedi a 2020Q4-et ezen a téren. Esetleg tudva arról, hogy az AMD is gyártási kapacitás szűkében van.Anyagilag bőven belefér nekik, feltehetően előre látják a 2020Q4-es megrendelésállományt, és azt, hogy honnan mennyi pénz jöhet be (lásd üzleti tervük).
Az AMD pedig kényszerpályán van...
Részvényes örül ahogy olvassa az őrületről szóló híreket, a per-darab profit kiugró, és az életciklus 15%-át(kb 3 hónap) feláldozni illetve a vevők kiszolgálását eltolni bőven megtérül egy hosszabb időtartamra vonatkozóan.
A kevés eladott DIY asztali dVGA és a magas felár nem az nVidia pénztárcájában realizálódik, gondolom sejted. -
Tényleg érdekelne, tőled , mert tudom hogy te is és gbors is reálisan szoktatok gondolkodni: hogy szerinted Nvidia azt az átlagban 150,000 Ampere kártyát( ami akár 200.000 is lehet) miért nem a gamer piacra zúdította.
Ezt inkább a Zöld topicban kellene (részletesebb válasz ott).
Röviden: feltehetően magasabb áron adott túl rajtuk, mintha a nagykereknek / kiskereknek adták volna el. Mint említettem, üzleti döntések terén általában jó az nVidia... (ami nekünk kevésbé jó...).Ehhez nem kell rögtön AMD-vel való lepaktálásra gondolni - annyira jól állnak anyagilag, hogy ha esetleg hagytak volna némi teret az AMD-nek 2020 végére, és emiatt a dVGA piacon vesztek egy picit, azt bőven behozzák máshol. Aztán 2021 elején, némileg összeszedve magukat, visszatámadnak (lásd 20GB-os RTX 3080, esetleg 16GB-os RTX 3070 és társai).
-
Ha azt gondolod hogy mák, én azt mondom hogy ismerve az Nvidia utóbb 10 évét az elég naív feltételezés a részedről, de ugyan úgy elfogadható mint az én feltételezésem.
Ismerem az nVidia-t, sőt, pont én voltam az, aki eddig többször is kihangsúlyozta, hogy az nVidia az utóbbi időben piszkosul jó üzleti döntéseket hozott, és alapvetően szépen halad a saját útvonala mentén, hogy felnőjön az AMD és az Intel mellé (az AMD eddig is saját CPU és GPU designal rendelkezett, az Intel most megint ebbe az irányba lépdekel, így az ARM felvásárlásával igen logikus úton indult el szvsz az nVidia).De ugyanakkor azt is tudjuk, hogy a zöldeknek is voltak mellényúlásai nem egyszer és nem kétszer (FX széria, hogy mást ne mondjak). Az, hogy ennyire kapkodnak (10 vs. 20GB-os RTX 3080 és társai), illetve képtelenek az Ampere kártyákkal feltölteni a polcokat, nekem nem azt jelzi, hogy ezt ők így tervezték el.
hát ha te ilyen szintű kártyát vártál az idén Inteltől akkor nem tudom milyen topikokat követtél
Az, amit Te állítasz (feltételezel) nem most nyáron kellett, hogy eldőljön, hanem még az év elején, akkor még relatíve kevés info volt az Xe HPG-ről... -
Higgyetek el kartelezik/ összejátszik a ket gyártó. Bárki bármit is mond.
Már megbocsáss, de ha előre eldöntötted, mi a szitu, bárki bármit mond, akkor az nem vita, hanem állítás, ezt pedig tényekkel és nem feltételezésekkel kellene alátámasztani. Mert ha feltételezésekre építkezel (az érvelésed1 alapja feltételezés), akkor viszont nem állítasz, hanem találgatsz.

Nvidia nem merte volna megcsinálni amit megtett ,hogy ha tudja, hogy lesz AMD nek kártyája, magyarul nem adott el volna 175 millióért a bányászoknak Amperet.
Én nem zárnám ki, hogy oltári nagy mákjuk van, hogy az AMD se tud eladni nagy mennyiségben kártyát. Mert úgy learathatná a piacot. Feltehetően az AMD-nek egyébként jobban megéri a CPU és konzol SoC-k gyártása, mind a VGA, tehát számukra ez így valóban kényelmes(ebb).
Az nVidia féle 170 millió dolláros eladás részleteit nem ismerjük. A kártyák körüli hiányt az AIB-k is megszenvedik, hiszen nekik az eladott kártyákból lenne nyereségük, elvben (ugye egyre többen állítják, hogy az AIB-k valójában vesztenek vagy minimális nyereségük van a kártyákon, ezzel csak az a bajom, hogy akkor miből élnek meg? Inkább vesznek Tesla részvényeket és profilt váltanak?).
Sajnos ez a helyzet, ez egy előre legyártott forgatókönyv ahol a két gyártó asszisztál egymásnak, mi meg nézünk.
Elfelejted, hogy három gyártó van egyébként. Az Intel először 2020 közepére ígérte az első dVGA kártyáját, ebből 2020 vége lett, és az Iris Xe MAX nem az lett, amit nagyon vártunk tőlük.
Ezzel együtt a logikád alapján három gyártónak kellett volna együttműködnie. Ha az Intel csak egy RX6700-as, RX6800-as szintű VGA-t hozott volna ki, most letarolhatta volna a piacot. Kétlem, hogy ezt azért teljesen lekezelte volna az nVidia vagy az AMD. -
Szelektálni kell, de ez minden oldalra igaz. Ettől még a hír konkrétan a [news.bitcoin.com] oldalról indult el (a link benne van a cikkben). Átvette kismillió másik oldal, szóval ha csak amiatt nem vagy hajlandó megnézni, mert éppen a WCCFTech oldalról linkeltem be, az már a Te bajod...

-
A pletykák szerint még a nyáron leállt a felső kategóriás Turing GPU-k gyártása. Ez igazából teljesen normális lenne, ha az Ampere ellátás rendben lenne. De nincs. Ennek is köszönhető, hogy jobb híján a Turingot veszik, vennék az emberek. De abból is véges a készlet...
-
Nem adták ki újra. Az eladások ugrottak meg a Netflix sorozat hatására. Amit így ebben a formában átlagban jóval erősebb hardware mellett kezdtek el játsznai, mint ami a kijövetelekor létezett...
-
Akkor még egyszer: mit értesz optimalizáció alatt?
Írjanak saját API-t gépi kódban az adott játék igényeihez mérten, hogy tényleg abszolút kihasználhassák az elérhető HW képességeit? Ami így ebben a formában csak egy adott hardware-en futna megfelelően...
Ilyenkor a konzolokat szokták előhozni, hogy hát alig észrevehető a különbség grafika terén a sokkal gyengébb hardwarrel bíró konzolon. Csakhogy ezzel vissza is nézünk az előbbi bekezdésre: egy adott hardware-en. Miközben PC-n kétmarék különböző hardware-en kell elfutnia.
Plusz konzolon egy sor dolgot valójában finomhangolnak, lásd dinamikus leképzési (render) felbontásváltás, checkerboard rendering és így tovább. Amikor én felhozom a DLSS-t, akkor megy a prüszkölés, hogy az a képminőség kárára megy. De hát az előbb említett technikai megoldások is. Csak arról a laikusok többsége nem tud, örül annak, hogy bekapcsolja a konzolt, és játszik, relatíve szép grafikával, relatíve jó FPS-el. -
A The Witcher 3-at idén kvázi "újra eladták" a CDPR-nél, hála a Netflix sorozatnak. Hogy csak egy példával éljek. Ennyire nem igaz, amit mondasz.
Nagyon is előfordulhat, hogy 2-3 évvel később elővesznek egy játékot. Persze ahhoz a játéknak önmagában is szórakoztatónak kell lennie, és nem valami tucatterméknek...
-
Viszont ha mindenből a legjobbat veszed akkor ugyan fusson már az a játék teljes pompájában kompromisszum nélkül.
Ezt továbbra sem tudom megérteni. Miért korlátoznád be a fejlesztőket, hogy na, csak addig nyújtózkodhattok, amíg a jelen hardware generáció el tudja futtatni 4K@60FPS-el (mondjuk). Ennek nem igazán van értelme... -
válasz
Malibutomi
#53050
üzenetére
Ezt a legtöbb grafikai effektről el lehetne mondani, de talán nem véletlen, hogy tovább jutottunk a Quake 3 szintjénél...
-
Alapvetően szerintem egyáltalán nem baj, ha nincs min elfutni 4K @ 120FPS-el max. beállításokkal a játékoknak. Úgy is, mint az FS2020-nak. Főleg, hogy az ilyen játékokkal még évek múlva is játszani fognak az emberek.
Szvsz pont ezért nem lehet elvárás, hogy az adott hardware-hez mérjék a beállításokat. Az, amit említesz azt jelentené, hogy mondjuk Medium, esetleg High szinten meghúzzák a beállításokat, aztán ennyi. Azon jól fut, feladat teljesítve. De így az esélyét is elveszed, hogy a játék tényleg lenyűgözően nézzen ki.
Az optimalizáció így pedig valójában az, amit a beállításokban Te megcsinálsz.

-
Arról volt szó, hogy nem fejlődött a grafika. Jön a példa.
A válasz: de az meg nem fut csúcskártyán 4K-ban 120 FPS-el!4!!!4!!! (Tehát nem számít, van más, ami miatt lehet sírni...)Továbbra sem értem azokat, akik azt hiszik, hogy a csúcs kártyák egyből garanciát jelentenek arra, hogy akkor most neked 120 FPS-el fog minden futni UltraFullBrutál beállításokkal 4K-ban, sőt 8K-ban is...

Szerk.: Ja, már látom. Te is azok közé tartozol a jelek szerint, akik azt hiszik, hogy az optimalizáció úgy működik, hogy ha a programozó még rászánt volna két percet a kávészünetéből, akkor utána a hűtőgépen is elfutna a Crysis 4K-ban, 240 FPS-el...
-
-
válasz
Yutani
#53019
üzenetére
Mivel mind az Ampere, mint az RDNA2 hiánycikk, felértékelődtek a meglévő készletek. Amiből a Turing gyártását tudomásom szerint még nyáron lelőtte az nVidia, tehát az is kiesik a készletből. Kérdés, hogy az AMD az RDNA1 gyártást meddig csinálta és meddig elegendőek a készletek, minden esetre a helyzet úgy néz ki, hogy irgalmatlanul megszívta, aki most szeretne dVGA-t vásárolni...
-
-
Inkább 900euro+, legalábbis az [Amazon.de] oldalon, de inkább azt látni, hogy nem kapható.
Ebből nekem nem az jön le, hogy nincs hiány a kártyából, mert én ezt állítottam... -
A 3070-ről írtam, itthon is csak elvétve akad, jelentős felárral (MSI Ventus 280e Ft felett... LoL), az Alzán egyáltalán nem kapható. De nem csak itt vannak gondok, a Redditen az amerikai felhasználók háborognak, mert 900$ felett árulják a webes boltok őket, a komolyabb helyeken , ahol elvben hivatalos áron lehetne hozzájutni, pedig nincs készlet.
-
-
válasz
#98320896
#51248
üzenetére
Pedig teljesen igazat írt.
1.: Nincs olyan, hogy nVidia féle RTX, DXR1.0 van például, ezeknek az nVidia támogatásának marketing elnevezése az RTX.
2.: Nincs információ arról, mennyivel gyengébb játékok alatt az AMD féle RT implementáció. Az egyetlen info egy DXR1.0-ás1.1-es techdemo*, amelyet egy ES verzióju kártyán futtattak le bő 2 hónappal ezelőtt. Más szóval nem igazán mérvadó.
3.: Ebből fakadóan a többi megjegyzésed is erős feltételezéseken alapul, ehhez képest nem feltételes módban fogalmazol, hanem kijelentő módban.
4.: Az, hogy szerinted alig látszik a különbség a GI és a Reflections terén, még korántsem biztos, hogy találkozik más véleményével...Szóval ilyesmiket akkor írj le, ha már lesznek tesztek.
*Szerk.: Köszi a kiigazítás Jack@l.
-
-
-
A végén kiderül, hogy az AMD megint irgalmatlanul makker módra tarolhatja le a piacot.
A CPU-knál sikerült a ZEN-t jól összerakni, pont akkor, amikor az Intel nekifutásból rúgta le a saját tökeit úgy, hogy azóta is azokat keresgeti.
A GPU-knál látszólag csak abban bízhattunk, hogy az RDNA2 fel fog nőni a feladathoz. A jelek szerint ennél több nem is kell a sikerhez, mert ha teli tudják pakolni a polcokat RDNA2 kártyákkal, akkor meg is nyerték a karácsonyi versenyt - mivel az nVidia (a jelek szerint megirigyelve az Intel zseniális teljesítményét) beszállt az önkiherélés versenyébe.Jelenleg (függetlenül a ray-tracing teljesítménytől) az RDNA2 már azzal lesöpörheti az asztalról az Ampere-t, ha egyszerűen tudnak eleget gyártani belőle.
Némileg váratlan helyzet...
-
-
válasz
#09256960
#50156
üzenetére
Szerintem olvasd el még egyszer mit írtam. Aztán még egyszer. Aztán még egyszer.
Utána próbáld meg értelmezni. Még egyszer...
Hátha ezek után, esetleg, megérted miről írtam.
(De tessék, hint: Turingot írtam. Te meg egy Ampere-t linkeltél)Ha így sem megy, akkor csak simán lerejtelek a jövőben, mert időpocsékolás a hsz.-eid elolvasása...
-
válasz
#98320896
#50154
üzenetére
Nem, az NDA a Non-Disclosure Agreementet jelenti, tehát megegyeztek, hogy bizonyos információkat nem oszt meg másokkal a megegyezésben foglalt időpontig. Így megírhatja előre az Okt. 28-án élesedő cikket a megkapott információk alapján, ami a részletekről szól, de ezen időpont előtt nem beszélhet róla.
Egyébként per pillanat az nVidia a jobb vétel, mert a Turing legalábbis kapható.
-
-
Vagyis erre fognak fejleszteni, hogy ez ne okozzon gondot, ergo a Radeonokon az említett kevés kivételtől eltekintve ott fog pihenni extra 6 GB VRAM.
Rossz oldalról nézed, a fejlesztéseknél az opciók határozzák meg a lehetőségeket. Mondjuk Low-hoz megfutja a 4-6GB, Medium beállításhoz is elég a 8GB, High-hoz már 10GB kell, Ultrához meg 12-16GB...
Ez egy lehetséges felállás, de ilyen téren a Resident Evil 2 és 3 Remake nagyon jó példa... -
válasz
Callisto
#50021
üzenetére
@Petykemano: Fogyasztói szemmel hogy játszol mondjuk FPS-t vagy RPG-t egérrel és billentyűzettel konzolon?
A konzol és a PC továbbra is külön tényező, ha valaki csak játszani akar az általános A, AA és AAA játékokkal, hát vesz konzolt. Ha valaki más oldalról közelíti meg (pl. modok esete, speciális játékok (pl. ArmA-széria), indie-játékok esete), akkor az a világéletében marad a PC-nél.
@Callisto: A büdös életben nem adtam még el egy játékomat se az elmúlt cirka 27 évben (az első vásárolt játékom a Syndicate volt Amigára). BTW egy konzolcsaládra igaz az állításod, mert az XBox Series X/S esetében se lehet majd eladni, ahogy az XBox One esetében se lehet, ha jól tudom. Tisztában vagyok vele, hogy van egy réteg, aki szeret csencselni a játékokkal, nekik marad a Playstation, ha ezt a szokásukat meg szeretnék tartani.
-
válasz
Petykemano
#50015
üzenetére
Illetve $300-500-ért ott vannak a konzolok.
A series S $300 és pont benne van az a 20CU, ami belépőszintre kellene.
Továbbra se értem, miért kerül a konzol összehasonlítási alapként az asztalra. Ha innen nézzük, akkor vegyük bele az összehasonlításba azt is, hogy az új konzolokra 10$-al magasabb lesz a játékok ára is.
A konzolokat veszteséggel árulják a gyártók - hogy aztán a licensz díjakból pótolják a kiesést. Almát körtével...
-
-
-
-
Nekem is kb. ez a véleményem róla. Elég hihetőnek tűnik, és nagyjából ezt is várhatjuk. Az ár és a polcokra kerülés a kérdés.
Ha (nagy ha) az nVidia nem tudja (akarja) feltölteni a polcokat, akkor ezzel az AMD jó helyzetbe kerülhet, amennyiben képes lehet most összeszedni magát. Főleg, ha egy olcsó(bb) Navi 22 is hamar jön, mert a nagy flagshipezés közben kimarad, hogy a tömegek nem a 600-700-1000$-os kártyákra fognak rárepülni. Ha a Navi 22 olyan 400$-os áron jön, az nem is lesz rossz ajánlat, főleg, hogy a 3060 körül még sok a kérdőjel.
Eddig, az utóbbi időben az AMD botladozott a kiadásoknál, az nVidia volt az, aki ügyesebben oldotta ezt meg (lásd Super kártyák kiadása például). Most, legalábbis látszólag az nVidia botladozik, itt a nagy lehetőség hát, hogy kicsit rácsapjanak...
-
válasz
Malibutomi
#49850
üzenetére
Ami a [Moore's Law Not Dead youtuber] szerint direkt altatás.
Ha igen, akkor az nVidia rohadt módon manipulál megint...
-
Yepp, amennyiben ezek a pletykák fedik a valóságot, akkor az AMD nagy lehetősége az lenne, ha most helyből tele tudná tömni a polcokat az RX6x00 kártyákkal, és akkor learathatná a piacot.
Csak eddig nem volt jellemző rájuk, hogy a bejelentés után egyből tele is a polc...
-
válasz
Petykemano
#49839
üzenetére
Hogy én mennyire utálom, amikor 30 Tweetben tudják csak megosztani az infókat. A twitter kipusztulhatna már...

Összefoglalva (Hogy Malibutomi leak-kivánsága teljesüljön
):Navi 21:
-Csak a Navi21 és annak vágott változatainak lesz DXR támogatása.
-Bekapcsolt DXR mellett a kártya fogyasztása jelentősen megugrik.
-A Navi 21 XTX rengeteg energiát fogyaszt, többet, mint az RTX 3080 (FE), vagyis 320W felett.
-A Navi 21 RT mellett lassabb lesz, mint az RTX 3080.
-A Navi 21 XTX ezzel együtt az RT nélküli játékokban általánosságban jobb lehet 4K-ban, mint az RTX 3080.
-Nagyon drága kártya lesz (RTX 3080 MSRP felett, ami ugye jelenleg nem jelent semmit...).
-A Navi 21 XT nagyjából 25%-al jobb, mint az RTX 2080Ti, és veri az RTX 3070-et ~12-15%-al.
-A Navi 21 XT 5-10%-al fog elmaradni az RTX 3080-tól RT nélkül, még többel RT mellett.
-A Navi 21 XT célára 599$ (+ / - 50$), más forrás: 50-100$-al olcsóbb lesz, mint a 3080
-A Navi 21 XT volt demózva a Zen3-as bemutatón.Navi 22:
-12GB, 192bit busz, 40CU, nagyon magas órajel
-A teljesítmény plusz főleg a magasabb órajelből fakad, AIB-k esetén 2350Mhz is lehet
-TDP terén olyan lesz, mint az 5700XT (ie.: ~225W), talán kicsit magasabb.
-Teljesítmény terén nagyjából az RTX 2080 Super szintjén lesz. -
A tükröződésekkel az a probléma, hogy alapból érzi az ember, hogy az valahogy nem normális, ahogy tükröződik a tócsában a kép. Oda sem kell figyelni, egyszerűen látszik, hogy mű, avagy valódi tükröződés.
Hozzáteszem, ez megint csak egy adott probléma. Például a haj reális viselkedését megközelíteni sem tudják a mai napig, sajnos...

-
válasz
Alogonomus
#49802
üzenetére
Szerecsenmosdatásnak inkább az tűnik, hogy a néhány DLSS-es játékba kapaszkodva próbálják páran védeni az Nvidia kártyák várhatóan gyengébb általános játékteljesítményét.
Ezzel várjuk meg a teszteket inkább...

A DLSS nem csodaszer, csak egy lehetőség, de annak egyáltalán nem rossz, és láthatóan fejlődik, a DLSS 1.0 még eléggé sok hibával bírt, de a 2.0 és a 2.1 egy jelentős ugrás előre. Nem kellene csak úgy félresöpörni.
Így indult hajdan egy csomó dolog, amire kijövetelekor legyintettek sokan. Én még emlékszem arra az időre, amikor a játék színmélységét lehetett a beállításokban játszani, és károgtak sokan emiatt, hogy alig látható a különbség a 16 vs. 32 biten. Ahogy a élsimitás kapcsán is sokan mondogatták / irogatták, hogy ez nem ér annyit, hogy a játékban tapasztalható FPS nagy részét lehúzzuk a kukába.
Hogy mi lesz vele, az egy érdekes kérdés, majd meglátjuk.
Amúgy mókás, hogy ha valaki egy nVidia effektet nem fikáz, akkor az rögtön stigmát érdemel.
Láthatóan nem jött át a mondanivalóm: ha RT terén az RDNA2 nem fogja lelépni az Ampere-t, és közben nincs a DLSS-re sem értékelhető válasza az AMD-nek, akkor bizony megint hátrányban lesz a versenyben. Nekem fogyasztóként az a jó, ha verseny van, mert ez hajtja le az árakat. Ezt látni lehetett az RDNA megjelenésekor is, hiszen az nVidia nyilván jelentős haszonnal dobja piacra a kártyáit, ha nincs épkézláb konkurenciája, mikor kijött az RDNA, jött rá az nVidia válasza.
Én pont annak örülnék, ha az RDNA2 (és az Intel Xe, ha egyszer végre kijön) versenyképes lenne az Ampere kártyákkal...
-
válasz
Malibutomi
#49799
üzenetére
Ha így lenne, akkor a minimum gépigénynél ott lenne, hogy DLSS képes VGA legyen a gépedben...
-
válasz
Malibutomi
#49795
üzenetére
Egyreszt valahol igazuk lesz masreszt szerinted a PC gamerek hany szazaleka a 4K ultra jatekos?
Miért lesz igazuk? Én ezt hangoztatom évek óta, lassan már több, mint egy évtizede. Nem a játék fejlesztőjének a hibája, hogy ha a jelen lehetőségeken túl mutató megoldásokat hoz a játékba. Megtehetné, hogy kiveszi az Ultra, talán a High opciókat is, lebutítva a játékot, és akkor ami Medium szint, az lesz az új csúcs. Csak az nem fog olyan látványosan kinézni.
Anno szvsz a Crytek direkt trollkodta meg a játékos közösséget: ha a Crysis "csak" medium szinten lévő opciókkal jön ki, akkor egy szép, de semmi rendkívüli FPS lövöldözős játék. Ehelyett ott voltak a magasabb beállítási lehetőségek, tényleg a maga idejében igen látványos effektekkel. Amit persze sokan megpróbáltak bekapcsolni, és nem értették, hogy mi az, hogy nincs 60FPS-ük.
A PC gaming nem arról szól, hogy fix FPS-ed lesz fix felbontáson. Az a konzoloknál működik (de ott ők lövik be a lehetőségeket olyanra, hogy ez meglegyen, lásd alacsonyabb felbontásban renderelés és felskálázás, dinamikus felbontás vagy checkerboard renderen, illetve ezek keveréke). PC-n mindig a beállítási lehetőségekkel élhettél, hogy az adott hardware-en a neked megfelelő képminőséget és képfrissítési rátát beállíthasd.
Ez így volt hajdan, a 3DfxVooodoo esetében is, mert a 3D patches Tomb Raider bizony csúnyán beszaggatott rajta. Hiába írták anno a PC Guru-ban, hogy jön az állandó 30 FPS...
Így volt aztán a 32bites színmélység, Anizotropikus szűrés aztán az élsimitások mellett. Csak mára elfelejtették sokan, hogy hajdan még a Ph! tesztjeiben is voltak ilyenek.Hogy amúgy meg hány százalékuk 4K ultra játékos? Kevesen, de hát itt olyanokról beszélünk, akik mai szinten fél millió forintos VGA-kkal játszanak. De erről szólt a hozzászólásom "...méregdrága kártya.." része...
Bajban lesz az AMD mert a megjeleno sokszaz jatekbol abban a tizben ahol mukodik a DLSS hatranyba kerulnek?
Igen, ha ott rosszabb lesz az eredményük emiatt. Azért nem egy és nem két AAA játék van azon a listán. Ilyen téren most egy vad időszak következik, mert akkor össze kell és lehet vetni például azt, hogy ki és bekapcsolt RT és ki és bekapcsolt DLSS mellett milyen képminőség és milyen sebesség lesz. Ha az RDNA2 RT megoldása gyorsabb lesz az Ampere féle RT-nél, akkor persze ez bizony kemény belépő lehet az AMD-től, hiszen mondhatják, hogy nekik nincs szükségük DLSS-re az adott effektekhez. Ha viszont csak nagyjából egy szinten lesznek, az nVidia nyújt egy plusz opciót a vásárlóinak: ha akarod bekapcsolod a DLSS-t, és úgy skálázod, ahogy akarod, képminőség és framerate terén neked jó legyen, vagy ha nem akarod, akkor kikapcsolod...
-
válasz
Malibutomi
#49793
üzenetére
Nem véletlenül emlegetik fel annyiszor.
A DLSS nem egy csodaszer, nyilván benne van, hogy a képminőség valamennyit romlik. Kvázi kényszerpálya, ahogy a konzoloknál is a különféle trükkök. Én a konzolokon bevett Checkerboard renderinget szoktam felhozni hasonlatként, bár Abu folyamatosan hangoztatja, hogy nem ugyanaz - pedig a végeredményt tekintve de. Teszem azt 4K natív felbontáshoz képest nyilván gyengébb egy 4K DLSS kép minősége általánosságban, de még így is jobb, mint 1080p-ben vagy 1440p-ben. Miközben a játék sebessége sokkal közelebb van a natív 1080p-hez, mint a natív 4K-hoz. A Checkerboard rendering is kvázi ezt éri el, de amíg nem túl szembetűnő a veszteség, addig ez elfogadható áldozat.
Ha a Ray-Tracing effektetek teljes erővel be akarják vetni, akkor trükközni kell, mert natívban egyszerűen nem fogja tudni a csúcs VGA sem lerenderelni normális sebességgel, nagy felbontásban. A Watch Dog: Legion frissített gépigényén is 4K Ultra részletesség és Ultra Ray-Tracing mellett DLSS Performance van említve - RTX 3080 igénnyel. Vagyis egy RTX 3080 nagyjából 1080p-ben lenne képes natívban megmozgatni a játékot, ha mindent felhúz és bekapcsol a delikvens...
-
válasz
Alogonomus
#49787
üzenetére
Valahogy nem teljesen értem, hogy azt mi alapján döntöd el, hogy "pixelhelyesen" megjelenő kép nem fontos az MW5-nél, de fontos a Horizonnál. Főleg, hogy én nem nagyon vettem észre, hogy elmosódottak lennének a textúrák (ahogy te állítod) az MW5-ben.
Lehet(ne) azt mondani, hogy a Horizon esetén jobban néz ki a flóra és fauna alaphangon, de nem ez az indok, hanem hogy "elmosódottan" jelennek meg a textúrák?

Ez inkább szerecsenmosdatásnak tűnik nekem...

-
válasz
#32839680
#49782
üzenetére
Annyit mondott hogy sűrű vegetációval rendelkező játékokon nem működik jól. A Metro többnyire zárt terekben játszódik, az egész game szürke és posztapokaliptikus és havas.
A Cyberpunk meg egy neon városi betondzsungel.A Watch Dog Legion is, ugye?

Nekem ez a magyarázat kicsit sántít, ahol eddig volt DLSS, az mind nVidia cím volt...
BTW a Mechwarrior 5-ben van erdő, de gondolom mivel az nem támasztja alá a gondolatmenetet, így nem játszik

Amúgy pont az az érdekes, hogy nemrég kijött az RT terén frissített WD:L gépigény, ahol a lényeg: DLSS mellett van mindegyik megadva. Tehát ultra szintre mindent (RT-t is) felhúzva egy RTX 3080 is csak 1080p-ben lesz elfogadható FPS-e az embernek. DLSS Performance-al (tehát 1080p-ben renderelve) mehet 4K-n. RT mediumon 1080p-ben viszont DLSS Quality is elegendő lesz egy RTX 2060 mellett...
Már előre látom, hogy mennyien fognak nyafogni, hogy DLSS nélkül 4K @Ultra szinten nem lesz elég a méregdrága kártya, és hogy ezért a fejlesztőket fogják szapulni, mert nem tudnak programozni (szerintük).

A dolog azért cinkes viszont, mert nem tudunk semmit az RDNA2 RT képességeiről. A Borderland 3 eredmény ilyen téren nem mérvadó. Ha nem fogja ipari szinten hülyére verni az RDNA2 RT képessége az Ampere RT képességeit, akkor viszont bajban lesz az AMD, mert az nVidia kártyákon ott a DLSS, viszont nekik nincs hasonló megoldásuk.
Jön egy érdekes korszak, ahol a VGA-kat lehet majd külön RT nélkül és RT-vel, meg DLSS nélkül és DLSS-el tesztelni...
-
válasz
GeryFlash
#49736
üzenetére
Nyilvan 5nm-en ez valtozhat, de szerintem ez a mostani generacio jo pelda ra hogy az Nvidia nem feltetlen engedheti mar meg, hogy rosszabb node-on gyartson mint az AMD.
A mostani generációból eddig tudjuk a csúcs Ampere-k teljesítményét és fogyasztását, viselkedését. A középszinten lévő Ampere és a komplett RDNA2 még csak találgatás szintjén mozog.
Ne feledjük, hogy az nVidia is egy lépéssel előre ment (eddig 12nm-en volt, ami ugye a 14nm half-node-ja, míg a 8nm a 10mm half-node-ja), és hogy eddig elég stabilan jobb fogyasztás/teljesítmény értékeket hoztak, lásd Turing 12nm nagyjából azonos fogyasztás/teljesítmény aránya a 7nm-es RDNA-val.
Persze, jó lenne, ha e téren fellépne az RDNA2, és eggyel jobb node-on jobb hatékonyságot mutatna fel, szó se róla.Csak ezt mire alapozod, mire előlegezed meg?
Nvidia pont hogy ,,egybeolvasztotta" a kettot, es annak rendje is modja szerint AMD eloretort Nvidia meg beszopta es oda az oriasi elonyuk.
Az A100 hiába Ampere, egy más világ a HBM2 memóriával és 5120-bites memóriával.
A CDNA / AMD Radeon Instinct MI100 széria pedig még nem jelent meg.
Megint: mi alapján mondod, hogy a nVidia "beszopta", és elvesztették az óriási előnyüket? -
válasz
Alogonomus
#49255
üzenetére
Érdekes ez az okfejtés annak fényében, hogy még májusban arról volt szó, hogy nVidia jelentős 7 és 5nm-es gyártókapacitást foglalt le a TSMC-nél.
-
válasz
Alogonomus
#49222
üzenetére
AMD az RDNA2 kártyák őszi-téli tömeges kiszállításával lényegében évekre a saját táborába terelhetne minden GTX 1080 fölötti nvidiás fejleszteni kényszerülőt, mert az RTX 20xx kártyák abszurd módon drágák,
Abszurd módon? Nem hinném. A GTX 780 Ti anno 700$-on nyitott, a 780 meg 650$ volt. Vagyis az RTX 2080 nem sokkal volt drágább (a Founders Edition egyszerűen lefölözése volt a piacnak 800$-os áron). A 2070 és a 2060 többé-kevésbé hozta a szintet, ami figyelembe véve az inflációt is, nem volt annyira abszurd. A 2080Ti meg elfért a Titan RTX alatt...
BTW az nVidia azért árazhat így, mert nem igazán van verseny...
Ezért kellene az AMD-nek végre összekapnia magát, vagy az Intelnek végre kijönnie az Xe dVGA-kkal...Erre csak rátenne, ha valóban perf/watt értékben is elverné az Ampere architektúrát az RDNA2.
Te is tudod gondolom, hogy ez döntés kérdése. Ha hülyére húzzák a kártyát, hogy felvegye a versenyt az Ampere-el, akkor feltehetően a perf/watt ott is szét fog esni. Az Ampere perf/watt esetén per pillanat nem muzsikál túl jól FHD felbontásban, de 4K-ban már ő vezet. Legalábbis a 3080 és a 3090 esetén ezt láttuk. A perf/watt terén eddig az nVidia volt előnyben, érdekes kérdés lesz, hogy a Samu 8nm mennyiben felelős az Ampere várakozás alatt perf/watt értékeiben... -
válasz
gabika1972
#49210
üzenetére
Marketingszempontból káros a scalperek felvásárlása, de gazdasági okokból lényegtelen.
Eladták az összes készleten lévő GPU-t, ennyi. Hogy ki veszi meg, nekik kvázi tök mindegy (ahogy anno is mindegy volt, hogy a minerek rabolják le a polcokat úgy, hogy a gamereknek kevesebb kártya jutott).
Hogy miért nincs több? Ez jó kérdés, nem megfelelő a kihozatal? Túl kicsi raktárkészlettel nyitottak? Eleve alultervezték az eladandó mennyiséget? A pontos okot aligha fogják az orrunkra kötni... -
válasz
awexco
#49208
üzenetére
Szvsz nem parázik, csak egészségesen próbálja követni az eseményeket, és minden módon próbálja megőrizni a dominanciáját a dGPU piacon.
Hogy mennyit gyárt az AMD az RDNA2-őkből, azt nem tudjuk, majd kiderül, ha oda kerülünk.
Ami viszont sejthető, hogy a scalperek őket sem fogják kímélni, tehát esélyesen az első időkben ott is a botok fogják felvásárolni a készletek jó részét, hogy aztán haszonnal tovább értékesítsék. -
válasz
sutyi^
#49206
üzenetére
Mennyi sima Radeon R290(X) vásárló akadt ki, amikor kijött az R390(X) kétszer annyi memóriával? Vagy mennyi RTX 2060 / 2070 / 2080 vásárló akadt ki, mikor kijött a Super széria az RTX-ekből?
Aki hardvare-t vásárol, az tudatában van (vagy kellene lennie), hogy olykor igen gyorsan elavulhat a frissen vásárolt terméke.
-
válasz
gabika1972
#49198
üzenetére
így az nv lenne lépéskényszerben, hogy hova lője be a 3070-et árazásban
Az nV már beharangozta az RTX 3070 árát, 499$
Túl nagy mozgástér már nem lesz, aligha tudják mondjuk 50$-al lejjebb vinni az árakat egy nap alatt, ha az RDNA2 esetleg valóban tényleg versenyképes lesz az Ampere-el, és a Radeon RX6800 mondjuk 499$-ért gyorsabb lenne és kétszer több memóriát nyújtana, mint az RTX 3070...
Elvben persze megtehetik, de tippre az nVidia tudja hozzávetőleg az RDNA2 képességeit, tehát ők már előre ehhez lőtték be az árakat és a teljesítmény-szinteket...
-
-
-
-
válasz
TESCO-Zsömle
#45859
üzenetére
Akkor szerinted a honlapot nem frissítették ~10 éve?

-
Mármint melyik nem HBM2?
A Radeon Pro Vega II tavaly novemberben jött ki 32GB HBM2 RAM-al...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- HIBÁTLAN iPhone 11 Pro Max 64GB Gold -1 ÉV GARANCIA - Kártyafüggetlen, MS4584
- í kilenc! AKCIÓS PRECÍZIÓS KÉSZÜLÉK! 7560 i9-11950H 32GB RAM 1TB SSD Nvidia RTX A3000 6GB 1 év gar
- Eladó 1db Nokia steel hr hibrid okos óra dobozával
- Beszámítás! Benq GW2480 24 60Hz FHD IPS 5ms monitor garanciával hibátlan működéssel
- Szuper áron eladó dobozos Asus Vivobook 16 /Ryzen 5-7530U/16 GB RAM/256 GB SSD/FHD+/IPS/16"/Gari/
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest





