-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Ez egy általános probléma az iparágban. Lassan a 90-es évek szoftver-válságában leszünk. Vannak az igénytelen C programozók, akik viszik a hátukon a drivereket, low-level dolgokat, onnan minden, bocsánat, de értelmes fejlesztő elhúz, háta közepére sem kívánja az igénytelen, redundáns, agyonmakrózott fostengert. A nagyrész meg nem tud értelmes szoftvert csinálni, mert az erőforrászabáló, ilyen-olyan keretrendszereken kívül nem ismeri a valóságot, semmit nem ért a hardverekhez. Ehhez hozzájön a csoda agilis fejlesztés, ami a nem usereknek készült szoftvernél inkább hátráltat, a "könnyebb" megoldások felé terel, mert nincs idő rendesen megírni a kódot, mert lejár a sprint, és nincs belőle látható eredmény...
-
válasz
Busterftw
#61598
üzenetére
Ezt senki nem mondta. Még egyszer. A G-Sync nem szabvány.
Nem látjuk, hogy a G-Sync dolgait nem akarta-e már korábban az Nvidia a szabvány részévé tenni, amin a többiek meg akadékoskodtak, mert nekik nem jött volna ki a matek, meg az időzítés. Erre Nvidia implementálta a monitorba kerülő modult, hogy a chipjében lévő G-Sync képes hw feature-t be tudja mutatni, és innentől szart nagyívben az egységesítésre, részéről a munka letudva. Mivel főgémerék úgyis az ő portékájukat veszik, ezért sokat nem kockáztattak, a drágulást meg átrakták a monitorgyártókra, akik meg a főgémerekre a prémium érzésért cserébe.
Hogy így volt-e, sosem tudjuk meg, mindenesetre az FPGA használata jól mutatja, hogy nem egy végleges megoldás volt (mert vagy kicsi széria, úgyis jönni fog a "rendes" implementáció a gyártótól, vagy nem elég kiforrott, szükséges az FPGA újrakonfigurációs képessége). -
Felőlem azt hiszel, amit akarsz, nem fogom megmondani, hogy ki vagyok, meg melyik chipgyártónál dolgozom
Nem is beszélhetek róla, hogy min dolgozom, csak ami már be van jelentve (gyakorlatilag majdnem kész).
Abban igazad van, hogy nem vagyok sem a VESA tagja, de még csak nem is volt részem a szabványban, mindössze próbáltam utalni rá, hogy nálunk ez hogyan megy, milyen időintervallumok vannak, mennyire nyögvenyelős egy ilyen szabvány megalkotása. -
Mert nem racionális, amit írsz, csak azt gondolod, mert nincs háttérismereted a félvezetőiparról.
Az tök normális, hogy egy év, mire az elfogadott szabványból termék is lesz. Te kockáztatnál százmillió dollárokat egy még nem elfogadott módosítással? És ez kizárja, hogy előtte hónapokig/évekig piszmogjanak a szabványon, hogy minden résztvevőnek megfeleljen?
Amit te ebből látsz, az a végleges eljárás, az előtte levő egyeztetéseket nem. -
válasz
Busterftw
#61587
üzenetére
Nem, nem olyan, mert egy szabvány megalkotása jóval hosszabb folyamat, mint egy saját fejlesztés keresztülvitele. A DLSS meg az FSR egyik se szabvány, csak egy implementáció egy adott problémára. Tudom, hogy az nvidia-only emberek számára ez másodlagos, de ha rendes szabványban jön ki a G-Sync tudása, akkor nem lett volna az "én monitorom csak ájemdével megy, az enyimé meg csak envídiával, vennem kell másikat".
-
Na, ez így már teljesen helyes értelemezés. Csak nem tudjuk, hogy a FreeSync (aminek az AMD csinált ilyen marketing nevet) tárgyalások mikor, mennyire haladtak.
Én megértem az Nvidia lépését is, valószínűleg nekik nem felelt meg az aktuális állapota a szabványnak, de ez is csak a szokásos nem etikus üzleti lépés, amit megszokhattunk már tőle, belekényszerítette a gyártókat, adott is nekik vezérlőlapot. A prémium gamerek nyilván jól jártak a végtelen pénztárcájukkal. De ezért is a legjobb chiptervező cég az Nvidia, mert remekül érzi ezeket a dolgokat. Megteheti, mert piacvezető. -
Vettél már részt szabvány létrehozásában? Évekbe kerül. Csak a kidolgozás. És akkor még rá se bólintott az összes résztvevő a boardban. Ha csak azt nézed, amit az átlagember láthat, akkor persze, hogy a szemednek fogsz hinni. Amit te kiszivárogtatásnak hiszel, az semmi ahhoz képest, amik tényleg vannak. Amikor kiszivárog valami, akkor gyakorlatilag majdnem készen van.
Évekre előre terveznek. Nálunk is olyan prototípusok vannak, amik ki tudja, hogy egyáltalán meg fognak-e jelenni, s ha igen, akkor is évek munkája. Szerinted, amikor a követleményeket összeállítják, akkor nem kezdik el a szabványt hozzá csinálni? Ezt is csak akkor, ha a meglévőkbe nem lehet beleilleszteni, mert jó nagy kockázat, semmi sem garantálja, hogy a többiek rá fognak bólintani, pláne, ha csak másodhegedűs vagy. Amennyiben nem csak szoftveres szabvány, akkor még több idő, ehhez hozzájön még a még nagyobb pénzügyi kockázat.
És senki nem mondta, hogy az AMD-t követte az Nvidia, hanem, hogy dolgoztak egy közös szabványon, amiből kiugrott az Nvidia.
A levédetés meg nem így működik. 1-2 hónap, amíg megvizsgálják, hogy van-e ilyen, le lehet-e védetni, aztán benyújtják, és onnantól él, ha majd évekkel később megítélik.
A G-Sync meg nem szabvány, azt egyedül az Nvidia hozta létre. -
-
Bocs, de nem lehetne ezt a marketinges, meg Csabika sztrímelni akar témát máshol megvitatni? Szerintem ez a topic még mindig a jövőben érkező AMD dolgokról szól...
-
-
válasz
Petykemano
#57700
üzenetére
Szerintem is drága mulatság ez az MCD-sdi, de lehet, hogy idővel a GCD-vel a nyereség ezt kompenzálni tudja, ki tudja. Kíváncsian várom az árakat, meg a teszteredményeket.
-
válasz
Petykemano
#57698
üzenetére
Lehet, hogy azért kisebb a cache az MCD-ben, hogy csökkentsék a latencyt. Azt se tudjuk, hogy a GCD-vel való kapcsolat mennyi helyet igényel. Simán valami gazdaságossági dolog is lehet, hogy pl. 10-20 százalék die area aránytalanul több időt/pénzt igényelne, vagy sokkal nagyobb kihozatalt akarnak.
Eddig a cache chipen belül volt, nyilván a belső busz gyorsabb, mint a két chip közötti, tehát valamivel kompenzálniuk kell a sávszélesség-veszteséget, ezért a másfélszeres busz, szerintem. -
Ezt sem jelenthetjük ki, nagyjából semmit se tudunk, csak azt, mennyit tudnak/akarnak gyártani.
#56656
Külön-külön kellene ismernünk a crypto/gamer arányokat mindkét gyártónál, de még akkor is csak óvatosan jelenthetnénk ki valamit, mert ha a crypto minden felesleget felszív, már torzítja a maradék gamer mennyiséget. -
válasz
Yutani
#55551
üzenetére
Nem az AMD és Nvidia miatt kerülnek ennyibe, úgyhogy ez nem fog túl sokat változtatni. Pláne, hogy ez is TSMC-nél készül, tehát sok nem lesz belőle, olcsó se lesz (bár, intel veszteséggel is adhatná), és a legnagyobb se lesz olyan gyors, mint a konkurensek legnagyobbja, hanem kb. mint a közepesek, legjobb esetben. A kezdeti driver problémák is szinte garantáltak. De ne legyen igazam, mint a Larrabeenél volt.
-
Ok, ebben megegyezhetünk.
Nekem mindegy, hogy az AMD lett a vártnál erősebb, vagy az Nvidia lassabb a Samsung miatt.
Szerintem is-is. Nehéz utólag megállapítani, hogy túl kellett-e húzni, vagy nem érték el alapból a tervezett frekvenciákat. Ezt csak az Nvidia tudja, de ők hallgatnak, mint a sír, mint mindig. A következmény a lényeg, hogy a 102 ment 80-asnak. Ettől vannak a hülye teljesítménylukak. -
Már leírtuk egyszer, hogy nem a gyártástechnológián csúszott el az Nvidia, hanem gyengébbre várta az AMD-t. A Titan szintű chipet (102) kellett 3080-ként eladnia, hogy megfogja a 6800-at, eredetileg a 104-es chip lett volna a 3080, mint korábban.
Az árakkal meg kár is foglalkozni, azok teljesen irreálisak, csak a hülyék és a nagyon rászorultak (elromlott, kell az iskolához stb.) vesznek meg ennyiért valamit. -
válasz
Busterftw
#53480
üzenetére
De, ott tartunk. Egy minimum tízszeres gyorsulás kéne, hogy egyáltalán lehessenek egyszerűbb ray tracelt játékok. Az, hogy a képernyő egyes részein, kevesebb, mint egy minta/pixel mintavételezéssel, max. a 2. ütközésig trace-elünk, igen messze van egy normális ray tracinghez. Ahhoz 1-4 minta kell pixelenként, úgy 5-6 mélységig, és ez is valami DLSS-sel, hogy ne legyen nagyon "hangyás" a kép.
Gyártástechnológia váltásonként 50-60% a maximum manapság, ami elérhető, szóval messze van ez még. -
válasz
KillerKollar
#52097
üzenetére
Ha igaz, hogy nincs elég GDDR6X, akkor kényszerből van 10GB a kártyán, nem pedig készületlenül érte őket az új konzolgeneráció. Ehhez jön még, hogy utolsó pillanatban a GA102-nek kellett beugrania a GA104 helyére, mert lemaradtak volna.
-
válasz
Petykemano
#49919
üzenetére
Valahogy így gondolom én is, bár én még 30%-os frekvencianövekedést is nagyon eltúlzottnak tartok. Az én tippem max. 15%.
-
-
válasz
Busterftw
#49907
üzenetére
Pontosan téged célzott meg az Nvidia marketing. Azért nevezték 3080-nak, azért húzták maximumra, hogy kifogják az AMD vitorlájából a szelet, hogy csak a 3080-at érte be. Csak a vak nem látja, hogy eredetileg nem ez volt az Nvidia terve. Ha még jobban rámászott volna a 6xxx, akkor a 3090 lenne most a 3080, azaz semmit se jelentenek a kategóriáid. Aztán fél-egy év múlva jönne a refresh, mert megengedhetik.
-
válasz
Jack@l
#48250
üzenetére
Szerintem mindegy, hogy árnyékot, vagy akármit számolsz. Persze, abban lehet valami, hogy ha a blendinget, stencilt használod, akkor a nagyobb RBE (ROP) terhelés a megnövekedett késleltetéssel negatívan hathat a teljesítményre (mint az R600-nál).
Én úgy képzelem el, hogy a vezérlök elött lesz egy naaagy cache, amiben összefut minden shader engine és a másik chipet összekötö interface (infinity akármi). Ami kérés a másik chipböl jön, az ugyanúgy vár a DRAM controllerre, mint a lokális shader engine-ek. Vagyis direkten már semmi sem fogja elérni a memóriát, minden az L3 (L4?) cache-en keresztül fog menni. Hogy ehhez mit szólnak majd az RBE-k, nem tudom, mert régen próbálták már az RBE-t leválasztani a DRAM controllerröl (R600), de az nem jött be nekik. Hátha most ügyesebbek, vagy a mai workloadok jobban elviselik. -
válasz
Jack@l
#48232
üzenetére
Már nagyon régóta felosztják a képernyöt négyzetekre, és azok kerülnek a work groupokba. Amikor bejött az elágazás a shader programokban, akkor volt is ebböl gond, hogy le kellett futtatni a csoportot így is, és úgy is (talán Ati x1800, x1900, és Nvidia 6800 idejében).
A memóriát se egy vezérlön keresztül érik el, hanem 4-6-8 van, crossbarral. Már egy GPU-s megoldásnál is osztoznak a vezérlökön a GPC-k, SE-k. A késleltetés biztos nöni fog, de azt cache-el lehet ellensúlyozni, valamint a GPU-k nem annyira érzékenyek rá, mint a CPU-k. Azért a Ryzeneken is látszik, hogy nem olyan durva, ha másik processzortól jön az adat. Ha van elég sávszélesség a processzorok között, kellöen gyors a busz, akkor azért müködhet, még ha nem is 100-os hatékonysággal. Majd meglátjuk, minden a busz sebességén és késleltetésén múlik.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Beszámítás! Sony PlayStation 5 825GB digital garanciával hibátlan működéssel
- Apple iPhone 14 Pro 128GB,Újszerű,Dobozaval,12 hónap garanciával
- Apple iPhone 12 64GB, Kártyafüggetlen, 1 Év Garanciával
- Dobozos, új, gyári magyar világítós bill E14 G4 i5-1235u, 40Gb ram, 256Gb NVMe, áfás számla
- Apple iPhone 15 Pro Max 256 GB White Titanium 1 év Garancia Beszámítás Házhozszállítás
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Nem is beszélhetek róla, hogy min dolgozom, csak ami már be van jelentve (gyakorlatilag majdnem kész).
Én csak arra gondoltam, hogy csak nincs a csatornákhoz mappelve (akkor 160 bitnél fix kiesne 16 MB).
).
