-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
Aminek van látható eredménye, az nem mesterséges. A Metro Diffuse DoF-ja is ad helyenként különbséget, de már tárgyaltuk, hogy jellemzően a sebességvesztés volt a cél, mert a Ferminek jó volt a shared memory teljesítménye. Erre építették az egész effektet. Ezt sokkal jobban is meg lehet csinálni. Az AMD-nek van egy jóval erőforráskíélőbb Diffuse DoF algoritmusa. Erre azonban nem lehet még rámondani, hogy mesterséges, mert van látható eredménye, még akkor is, ha a beáldozott teljesítmény túl nagynak tűnik.
A HDAO szintén teljesen más kategória. Rengeteg AO algoritmus közül lehet választani. A HDAO-t rendszerint azért választhatja egy fejlesztő, mert rendkívül gyors algoritmus azzal, hogy használja az LDS-t. Ha minden számítást teljes felbontáson csinálsz, akkor ez a különbség óriási sebességelőnyt jelent. Emellett a HDAO a többi AO-val ellentétben csak depth információkat igényel a képkockáról, így rugalmasabban lehet implementálni bizonyos render mellett, emellett jobban kíméli a memóriát a kevés input és output miatt. Ennél jobb megvalósítás AO-ra nem létezik, ráadásul nem kötelező teljes felbontáson számolni, bár tény, hogy az LDS miatt ez az algoritmus kevésbé érzékeny erre, mint a többi. Jellemzően a játékok csak a HDAO mellett alkalmaznak teljes felbontású AO-t. A HBAO és a tradicionális SSAO mellett felezett vagy negyedelt felbontással dolgoznak maximum, ez persze beállítástól függ. A HDAO hátránya viszont, hogy az LDS miatt ez egy DirectCompute 5.0-t igénylő algoritmus, vagyis DX10.1/10/9-es kártyákon nem fut. Ez az ami esetenként ellene szól. Ha a fejlesztő nem csak DX11-ben akar AO-t, akkor a HDAO mellé mindenképpen implementálni kell egy másik megoldást.Viszont a fejlesztés költségét is vissza kell hozni. Ezt korábban jellemzően a 100 dollár alatti szint termelte ki, és a drágább termékek voltak a ráadások. Most a VGA-k esetében a cégek ezzel nem számolhatnak már annyira, mert az IGP-k zabálják azt a piaci szegmenst, amiből korábban a nagy nyereség jött. Innen tehát csak az a lehetőség, hogy a drágább termékeket még drágábban adod, hogy meglegyen a pozitív mérleg. Nyilván ha rendelkezel IGP-vel, akkor egyszerűbb a helyzet, mert van némi mozgástér az árversenyre, de IGP nélkül a piac legjobban tejelő részéről kiszorulsz, így minden pénzt VGA-kból kell kitermelni, ami egyre nehezebb, és egyre magasabb árakat eredményez.
A VGA-piac már nem diktál. Nincs benne az a pénz, amire a cégek építhetnének. Egyszerűen tervezni sem érdemes egy olyan piacra, ahol az IGP-k gyorsabbak, mint a nyereség oroszlánrészéért felelős VGA-k. Ez csak egy ideiglenesen fenntartható állapot, hosszabb távon integrálni kell. Még az NV-nek is meg van erre a víziója, hiszen a Kepler után a Maxwell már nem GPU lesz, hanem APU. Az NV és az AMD a VGA-kra már nem céloz semmit. Lesz, ami lesz kb. így állhatnak hozzá, ellenben vannak növekvő területek, amire egyre erősebben koncentrálnak, és ide tervezik az architektúrát. Ez sokkal fontosabb, mint nyerni egy csatában, majd nézni azt, hogy egyre kevesebb az eladás ezen a piacon.
A Fermi és a Terascale viszonya más volt. A Cypressel sem volt okosabb az AMD, egyszerűen csak meg kellett nézni a VLIW4-et élesben még a Trinity előtt. Az új IGP-t látva ennek nagy haszna volt. De ez is a tipikusan így alakult helyzet.
Az új architektúráknál senki sem volt okosabb. Egyszerűen az NV-nek a Kepler másra kell, mint az AMD-nek a GCN. Nyilván a Tegra piaca még nem áll olyan szinten, hogy olyan újításokat befogadjon, mint amik megtalálhatók a GCN-ben, míg a PC-s piacon már várnak ezekre. Ez egy logikus döntés, mert az ultramobil termékekben a fogyasztás még elsődleges, így csak addig érdemes építeni be az újdonságokat, amíg ki is lehet azokat használni. Jellemzően ott tart a piac, hogy kezdik a fejlesztők nézegetni az OpenCL-t. Az NV-nek emellett lesz CUDA is. Mindez ugye megoldható az Android NDK mellett. Később persze már az ARM terveiből is látszik, hogy itt is a heterogén éra bontakozik ki, így nyilván lehet erősen rámenni az újításokra. Valószínű, hogy az NV marad a saját terepén a CUDA-val és a PTX-szel, míg a többi cégnek csak a HSA marad, mint egyetlen független és nyílt alternatíva. A Kepler és a GCN közötti különbség tehát abból ered, hogy az egyik ki tudja jövőre használni az extra tudást, míg a másik olyan piacot céloz meg, ahol ennek még nem lenne jelentősége.(#10093) Löncsi: Sokszor teljesen félreérted az egészet. Nem fog itt csődbe menni senki. Még az NV sem, semmi bajuk nem lesz attól, hogy szűkül a VGA-piac. Ha nem jelentették volna be a Project Denvert, akkor lehetne bajuk, de így, hogy ennyire gyorsan reagálnak a változásra, és ennyire gyorsan előtérbe került náluk is az integráció, így simán le tudják fedni a jövőben esedékes igényeket. A különbség, hogy nem VGA, hanem komplett platform formájában teszik ezt. Ezzel még jól is járnak, hiszen nem függnek többé az Intel akaratától, így az olyan jó projekteket nem kell kényszerből leállítani, mint mondjuk az Ion.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Ilyen árak mellett nem gyárt senki sem veszteséggel, de itt arról is szó van, hogy a fejlesztések költségesek. Ezeket a költségeket ki kell termelni. Jellemzően ezt a VGA-piac a 100 dollár alatti szintből termelte. Nem ezeken volt a legtöbb haszon egy-egy eladott terméket nézve, de annyival több olcsó VGA megy el a drágábbak mellett, hogy összességében a legtöbb nyereség innen származik. Ezért veszélyes az IGP. Mindenki mondja, hogy nem veszélyes, mert nem lesz egy IGP olyan gyors, mint egy csúcs-VGA. Nem is lesz, de arra bőven elég, hogy kiüsse az igényt a VGA-piac 75%-ára, vagyis a 100 dollár alatti rétegre ... és ez jelenti a nagy problémát. Attól senki sem fél, még a gyártók közül sem, hogy a következő kör IGP-i befogják a 680-at, vagy a 7970-et, attól rettegnek, hogy a 100 dollár alatti szint teljesítményét masszívan hozzák. És a Trinity hozza is. Itt előjön a fejlesztés megkérdőjelezése is. Lásd most is a GT 620-640-es GeForce-okat, melyek a másfél évvel korábbi termékek átnevezései, vagyis sebességben semmivel sem többek. Nyilván van két lehetőség. Törődjünk bele, hogy az IGP-ra nincs gyógymód, vagy fejlesszünk ide egy új terméket, mely gyorsabb lesz ugyan, de kérdés, hogy megéri-e ezt a gyártóknak implementálni. Ha nem, akkor ez a termék kidobott pénz. Ezért áll hozzá most az NV óvatosan ehhez a fejlesztéshez, mert nem látják biztosítottnak, hogy az új IGP-k mellett megveszik a gyártók az új terméküket. Nyilván ilyen esetben az átnevezés egy nagyon gazdaságos szempont, mert anyagilag minimális teher, így az sem baj, ha nincs rá igény. Alig került pénzbe a "fejlesztés". Ezzel persze óhatatlanul erősödik az IGP-k helyzete, mert a másfél éves termékeket nem nehéz verni.
Nyilván bele fog kerülni, amire szükség van. Ezt nem is vitatom, csak felhívtam a figyelmet, hogy ez nem csak a dGPU-król szól, hanem mindenről, ami "gémer".
Biztos fel tudod, csupán megállapítottam, hogy ez egy nehéz helyzet. Én is rajongok a VGA-kért, mert ez érdekelt régebben is a legjobban. De a tényeket nem lehet figyelmen kívül hagyni.
Az APU-kért nem rajongok, de kétségtelen tény, hogy skálázási lehetőség ezeken van. Nem akarnának itt a cégek, és a programozók sem APU-kat, ha a processzor oldaláról való skálázás megoldható lenne. A homogén többmagos processzorok bevezetése is kényszer volt. Az hozta elő a helyzetet, hogy egy régóta működő szabály (Dennard Scaling) kezdett megfenekleni. Ezért nem lett végül GHz verseny, pedig elméletben az lenne a legjobb, ha 30 GHz-es egymagos procikkal nyomulnánk ma. A gyakorlat azonban a fizika törvényeitől függ, így meg kellett lépni a skálázódás érdekében a több processzormagot. Ezzel elvoltunk addig, amíg Dennard Scaling teljesen megfeneklett. Most tartunk ott, hogy a lapka teljesítményét már nem lehet úgy növelni, hogy azt az új gyártástechnológia megoldja. Az egyetlen mód erre a pJ/FLOP arány csökkentése maradt. Erre két mód van. Az egyik a Pollack-féle szabály alkalmazása, ami annyiból áll, hogy egyre több egyszerűbb magot helyezel a lapkába. Ezzel a processzor egy szálon mért teljesítménye nagyon csökken, de a több szálú nagy nő. A másik mód a heterogén többmagos processzorokban rejlik. Ezzel a processzormagok teljesítményéhez nem, vagy csak picit kell hozzányúlni, míg a skálázást az IGP-k biztosítják, melyeket fel kell készíteni az általános számításra. Egyelőre úgy néz ki, hogy minden cég az utóbbi utat választotta. Nyilván érthető, hogy senki sem tartja szerencsésnek az egy szálú teljesítményt Atom szintre butítani.Az új konzol generáció inkább ártani fog a VGA-knak. TESCO-Zsömle jól mondja, hogy a legtöbb probléma az API-ból ered. Itt vesztik a PC-n a programok a legtöbb teljesítményt. Erre már reflektált Richard Huddy (akkor még az AMD-nél dolgozott, most már az Intelnél) [link], és John Carmack is beszélt erről [link]. Ez nagyon beszédes: "A Rage-et a PC-n elsősorban a textúrák frissítése hátráltatja. Konzolon a hardver és a memória direktebb kezelése következtében egyszerűen lehet frissíteni egy adott pixelt, de a PC-n masszív rutinokat kell bevetni, hogy a frissítés végbemenjen, és mindez – Carmack szerint – több mint tízezerszer hosszabb időbe kerül, ami természetesen nagyon lassítja a feldolgozást." Ezek azok, ahol a probléma keletkezik. Erre a megoldás a virtuális ISA bevezetése, vagy az API-k esetében az opció a hardverhez közelibb programozásra. Igazából mindkettőt jó lenne erőltetni, mert több lehetőség nem árt egy problémára.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
Még JPR-nél is írogattak olyasmit, hogy: According to Peddie, Nvidia is currently the leader in discrete GPUs and feels no competition or attack from integrated parts - although there is a "general misconception" in the press that integrated graphics are somehow going to kill dGPUs. "The facts speak for themselves. Those who are concerned about graphics performance will buy discrete GPU systems. As good as they are, embedded graphics processors will never be a replacement for a powerful discrete GPU"
Az tudom csak mondani továbbra is, hogy sok előnye lehet egy APU-nak, de a nagyon korlátozott lapkaméret, és memória sávszélesség problémáján nem látszik, hogy hogyan tudnának túllépni. Ivy-ban mekkora lehet az IGP rész, ~60mm? Összesen a procival együtt 1,2 milliárd tranyó, memória sávszélesség ~25GB/s, és ezeken osztozik a procival. Mit tud egy GTX 680? ~300mm -en 3.54 milliárd tranyó és 192GB/s -es mem sávszél.
PCIe 3.0 -nak kb. akkora az elméleti a sávszélessége, mint ami az IGP-nek juthat a proci mellett (16 GB/s)
dGPU: ~5x akkora méret, ~5x annyi tranzisztor, és legalább 8-10x akkora memória sávszélesség. -
Abu85
HÁZIGAZDA
Az elemzők gazdasági szakemberek. Nem látják a technikai oldalon keletkező problémákat. Még mindig úgy gondolnak az IGP-kre, hogy grafikára van, pedig nem azért költöztek be a processzorokba, hogy grafikát számítsanak.
A memória-sávszélességre ott a 2.5D stacked memória. Ilyen lesz a Haswellen és a Kaverin.
Továbbra sem érted meg, hogy nem a lapkák teljesítményével van a probléma, hanem a szoftveres oldalon korlátozó az API. Még az Intel Sandy Bridge-be épített IGP-je is gyorsabb bármelyik konzolos rendszernél. A gond az, hogy itt az API-n keresztül dolgoznak vele.
Az IGP-nek a processzorban gyorsabb összeköttetése van. De ami fontos, hogy a késleltetés a CPU és a VGA között 300-400 ns, míg az IGP és a CPU között 2-6 ns.Ez amúgy nem úgy lesz, hogy holnapra csak úgy eltűnnek a dGPU-k. Egy hosszú folyamat ez. Most még csak azt látjuk, hogy statisztikailag esett 2011-ben a VGA-piac 30%-ot. Ez már egy kezdete ennek az átalakulásnak. Ez évről-évre hasonló lesz bár a mértéke változó lehet. 2012-ben szerintem nem lesz ilyen drasztikus -30%, de továbbra is visszaesés várható. Nagyjából -5-10%. 2014-ben már megkezdődnek az erős platformtervek, vagyis a dGPU már nem egy extra gyorsító lesz, a processzorok mellé, hanem a platform konkrét kiegészítője. Ez majd egy jó változás lesz a piacnak anyagilag, mert a Radeonok összes szolgáltatását AMD APU-val, míg a GeForce-okét NVIDIA APU-val tudod igénybe venni. Ezzel az AMD és az NV a saját rendszereihez köti majd a fejlesztéseket, vagyis ha minden funkciót meg akarsz kapni, akkor gyártón belül kell, hogy maradj. Persze biztos, hogy működni fog Intel proci mellett is, csak nem lesznek elérhetők az extrák. Például az NVIDIA az ARM felé tart. Világos, hogy az grafikus processzor oldaláról is az ARM-hoz szabják a fejlesztéseket. A Radeon az sötét ló, mert a GCN architektúrát az AMD az AMD64-hez szabta, amit az Intel támogat, de szükség van itt a HSA kezelésére is, ahova nem hiszem, hogy az Intel beállna. Persze az elméleti lehetőség megvan.
2016 környékén majd eljutunk oda, hogy a VGA-k jelentőségi szintje igen gyér. Gyakorlatilag a hangkártyák szintjén fennmaradt, de ez kevés. 2017-ben pedig lehet hozni döntéseket. Ha ezek az igények megfelelőek, akkor lehet tovább fejleszteni, ha nem, akkor el lehet dobni az üzletágat.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
Az a ~64MB stacked memória nyilván megváltás lesz, ezt is csak kínjukban találták ki.
PCIe késleltetésére megoldás lehet az is, ha a VGA-nak nem kell mindig a procira várnia, hanem a proci szépen átküld egy "nagy csomag" számolni valót a VGA-nak, 4GB-ban lesz hely, aztán az eldolgozgat rajta. Dynamic Parallelism pont vmi ilyesmi próbálkozás, pont te írtad: A Dynamic Parallelism a GPU kihasználtságát képes növelni azzal, hogy eliminálja a központi és grafikus processzor közötti kommunikációt.API kérdésnek nem tudom mi köze van az APU-k és a dGPU-k közti teljesítménybeli szakadékhoz, ha elhagynák az API-kat, mindkettő gyorsulna, nem csak az APU-k, de erre sem látok sok esélyt...
Az APU-k teljesítményével komoly gond van, hiába tudnák azt amit egy konzol, az is ma már kevés lenne, 5 évvel ezelőtt lett volna karaj és akkor el is jutottunk oda, hogy kb. mennyi lemaradásban vannak teljesítményben.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
A stacked memória lehet több is. Mögötte pedig ott a rendszermemória.
A VGA nem olyan rendszer, aminek korlátlan hozzáférése van az adatokhoz. Sőt brutálisan korlátozott, mert a driver mögé van rejtve a memória. Mindig szüksége van a processzorra. Ezen lehet okosítani, de teljes hozzáférést még platform szintjén sem lehet biztosítani úgy, hogy a processzort kizárd a munkából.
[link] - érdemes elolvasni ezt. Sok dologra fényt derít, hogy hol vannak a limitek.Az API jelenti a mai tempóban a legnagyobb problémát. Köze van mindenhez.
Továbbra sem fogod fel, hogy miből él a VGA-piac. Nem abból, hogy pár ember vesz egy-két 500 dolláros VGA-t, hanem abból, hogy milliók vesznek 100 dollár alattit. Ha ez nem létezik, akkor nincs esély visszahozni a fejlesztésbe ölt pénzeket. Ezért láthatsz a cégeknél olyan radikális változásokat, mint manapság. Lásd az NV-nél az ARM processzormag gyors tervezése, vagy az AMD-nél a dGPU hozzákötése a rendszerhez.
Én értem, hogy legózós szemmel nagyon nehéz elfogadni azt az irányt, ami a cégek elképzeltek, de ezen nem tudunk változtatni.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
milliók vesznek 100 dollár alattit
Gondolom ezeket nem célzott szándékkal veszik, hanem valami egybegép mellé kapod "ajándékba". De ha a piac valóban ebből él, akkor nyugodtan meg is szűnhet ha nem tudnak értelmesebb chipekből megélni, ott valamit nagyon rosszul csinálnak akkor. :p
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Löncsi
őstag
válasz fatallerror #10108 üzenetére
Inkább 20 körül... én sose vettem alsókategóriás kártyát, inkább 200 dollárban utaztam.. de hamarosan lehet emelkedik a tét.
Amúgy.. GTX690 Ip*n teszt:
[link]Crysis 2-ben DX11 alatt megint csak nem működik a CrossFire, inkább árt, mint használ
ROFL, 1 éve nem tudták ezt megírni ?[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
válasz Löncsi #10109 üzenetére
Meg van jól írva, csak a külső benchmarkot nem ismeri a Crossfire profil. Ha enélkül méred, akkor tökéletes. Ezért nem használják sokan a külső benchmarkot, mert többet árt, mint használ.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
fatallerror
addikt
válasz Löncsi #10109 üzenetére
100 dollár az pont 30 ezer nálunk :] nekem mindig drága kártyám volt (ezelőtt 6800 gt volt) de nem szívtam meg ezt mivel a konzolportoknak elég és ha épeszűn vásárolok következőnek sem fogok 50-60 ezernél többet kiadni érte
az a baj h ha van ennyi pénzem akkor az táplálékkiegészítőkre megy el v koncertre stb, nincs prioritásban a pc bármennyire is szeretem
nagyon sokan így vannak vele, én is lelettem már csórózva itt h ilyen gépem van pedig a valós ok a fent említett, sokaknak nem ér 400 ezret 1 pc mégha telne is rá[ Szerkesztve ]
don't tell me what i can't do!
-
Löncsi
őstag
válasz fatallerror #10112 üzenetére
Én lassan beszabadulok az aktív munkaerő piacra, nálam elég erős felszerelkezés lesz.. kb mindenből.
Bár az asztali PC-hez nem nyúlok egy ideig, mert elég amire kell (bár vinyó + új ház kellene azért), de ha jön az új Unreal motor akkor egy kisfogyasztású Kepler + Intel proci csere várható.
Ami még játszik egy Alienware X51 szerű kisgép, csak nem éri meg az árát sajna, kevés benne a kakaó.[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
fatallerror
addikt
válasz Löncsi #10113 üzenetére
haha ismerős a szitu, én is most fogok végezni a sulival aztán az utsó vizsgaidőszak örömének lecsengése után keresek én is melót és én is ivy bridge platformot szeretnék : DD
tulképpen pont addigra lesz fölös pénzem gépre mire jönnek a nagy címek év végén (kivéve most max payne 3 bár elfog futni vhogyan xd ) és addigra remélem kijön az összes kepler h lehessen válogatni ill vmi árverseny is lesz már addigra a mostani gépem árából kb 1 ssd jön csak ki xDD
ill még bízom ebben a nyereményjátékban h meglesz a ph-s egérpad és aláíratom abu-val és eladom az aprón 200 ezerért xDDDdon't tell me what i can't do!
-
fatallerror
addikt
-
KillerKollar
őstag
válasz fatallerror #10116 üzenetére
Nem hinném hogy ez reális képet adna a kártyáról de majd meglátjuk ha kijött,de szerintem kicsi az esélyük hogy befogják a 690-et tekintve hogy a 680 kevesebbet fogyaszt és a legtöbb esetben gyorsabb mint a 7970.(Tudom PH teszten egy hajszállal elverte a 7970 a 680-at de azért a külföldi teszteken nem ez tükröződik de ennek az okát már megvitattuk egyszer itt,még a 670-es tesztnél,mert abban volt ez az eredmény,a 680-as tesztben még az volt a gyorsabb PH-n is).
[ Szerkesztve ]
-
nagyúr
rendben, akkor különböztessünk meg "mesterséges" és "felesleges" erőforrás-zabálókat a lényeg ugyanaz - alig vagy egyáltalán nem látható vizuális javulásokért simán ki lehet adni +100e FT-ot, ha ugyanazt az fps-t akarod.
a fejlesztés költségeit ne keverjük ide, mert az akkor is annyi, ha 350mm2-es GPU-t csinálunk. továbbra is fenntartom, hogy a 600mm2-es szörnyeteget max. 250 USD felárral lehetne adni a GTX680-hoz képest.
A VGA-piac már nem diktál
szerintem alábecsülöd a vízió fontosságát a sikeres cégek esetében. ha az nVidiának nem lenne hiperfontos az első hely, akkor kiadtak volna egy GTX295-öt vagy egy GTX590-et? szerintem bottom line terén mindkettő olyan negatív volt, mint a szél, mégis kitolták őket. csak azért, hogy megmutassák, hogy ők vannak a topon.a Cypress még a VLIW5-ös (5870) és bizony anno ment a nagy frankómondás, hogy az nVidia "túlcompute-osította" a Fermit, és az Evergreen a játékokra ideális architektúra. itt most fordítva vagyunk - még az is ugyanaz, hogy shader-erőben kissé feleslegesen sok van mind a Cypress-ben, mind a Keplerben, a backend meg kissé sovány. oh well.
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
fatallerror
addikt
válasz KillerKollar #10117 üzenetére
én eleve nem olvasom az ájponos teszteket mert nekem magyar viszonylatban csak a ph-sok érdemlegesek
szerintem h 7970 v 680 full mind, kb ugyanolyan gyorsak....drivereken sok múlhat, pl mikroszaggatást v mit fedeztek fel a keplernél amit a júniusi driver javít, nem tudom már hol olvastam szóval vannak szarságok és pont így jöhetett ki a ph-nak is más eredmény a későbbi tesztnél
szerk itt olvastam: [link]
[ Szerkesztve ]
don't tell me what i can't do!
-
Abu85
HÁZIGAZDA
Persze. A fejlesztési költség egységes, csak ha a kicsik nem tudják ezt kitermelni, mint eddig, akkor a nagyoknak kell. Ezzel nyilván az árazás jelentősen nő. Ez látható is.
A presztízsnél már többet számít a tervezet. 2011-ben szenvedett a VGA-piac egy nagy pofont. -30%-os visszaesést korábban nem kapott a szegmens. Ezzel a stratégiák is változnak.
A Ferminek a legnagyobb problémája nem a túl-compute-osítás volt, hanem a gyenge skálázhatóság lefelé. A GF1x4 volt ahol az architektúra jól működött. Felette és alatta már jöttek a gondok. Most persze a felette annyira nem téma, mert az a GF100/110 volt, amit más igények szerint terveztek, de alatta nyilván nem volt jó a helyzet. Erre a Kepler jó válasz volt. A skálázhatóság jónak tűnik, a compute esetében pedig a shared memory és a context switch teljesítménye ki lett herélve, ami nyilvánvalóan a tranzisztortakarékosságot célozta meg. Szuper lesz a Tegrába. Ez már az előre tervezés. Maga a Kepler abból a szempontból eléggé logikátlan, hogy elviszi az NV a compute irányba megfeleltetve a komplex számításoknak a rendszert "mert az a jövő", majd hirtelen váltással vissza minden, mert "mégsem ez a jövő?" ... valójában a jövőről alkotott kép nem változott a Keplerrel, csak időközben fontosabbak lettek a Tegra igényei.
(#10119) fatallerror: Számunkra ez lényegtelen. Teljesítmény V-Sync nélkül szabad csak mérni.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
Nem tudom. Az NV még nem mondott semmit. Biztos lesz rá reakció. Az tuti, hogy az EVGA csinált egy visszahívást, de a hibát nem mondták. Most erre lehet fudot építeni, de lehet, hogy a probléma tényleg érint mindent. Az valóban furcsa volt, hogy az EVGA ugyanazt a NYÁK-ot használja mint a többiek, és beszámolnak egy specifikus hibáról, de nem elképzelhetetlen, hogy rosszul paraméterezték. Majd kiderül.
Szerk.: Na akkor ennyi. Valszeg kellett a kattintás az oldalnak.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz fatallerror #10123 üzenetére
Azt nem mondanám, hogy baromság. Megvan a maga funkciója ... ennyi.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
fatallerror
addikt
-
KillerKollar
őstag
Ha jól vettem ki akkor ha sokáig terhelés alatt van a kártya akkor csökken a teljesítmény?Ez ugye akkor nem igaz...?[link] - Ezt már olvastam,de ez driver alapú hiba és Vsync kikapcsolásával orvosolható.Remélem nem lesz ilyesfajta probléma mivel holnap érkezik meg a GTX 690-esem...
-
Löncsi
őstag
válasz fatallerror #10125 üzenetére
Erőforrást nem igényel, csak alacsonyabb szintre állítja az FPS-t a szinkron miatt.
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Löncsi
őstag
Abu tudnál nekem a Furmark programról beszélni, hogy mitől agresszív a GPU terhelés ennél a programnál?
Egy intenzívebb játék/alkalmazásnál a mostani kártyámmal olyan 50-55% a ventifordulat, a hőmérséklet pedig 70 fok alatt van, addig a Furmark esetén 3 perc után 70% fölé nyomja a ventit és 80 fokon izzik a kártya.
HD4850 + Accelero hűtés esetén ekkora különbséget nem mértem ki, kíváncsivá tett.
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
válasz fatallerror #10125 üzenetére
Korlátozza a képkockák számát a monitor frissítéséhez. Természetes, hogy ha nagyobb a sebesség, mint a frissítés, akkor esik az fps, de ettől a valóban megjelenített képkockák száma nem változik. A v-sync lényege, viszont, hogy tartsa a szinkront, és erre jó. Képtörés kizárva. Persze itt tényleg v-syncet kell használni, mert az ilyen világmegváltónak beharangozott adaptív v-synccel újra lesz képtörés, vagyis pont arra nem jó, amire elvileg jónak kellene lennie.
(#10129) Löncsi: Egy objektum és kész. Ennyi a titka. Azon dolgoznak a shaderek, mint az állat. Nem tudom, hogy melyik Furmarkot nézed. Lehet, hogy a legújabbra nincs még az NVIDIA-nak fojtása. Szvsz nem használd, mert a te kártyád nem rendelkezik túlterhelés elleni védelemmel. Tönkreteheti a Furmark.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
nagyúr
úgy látom, még mindig nem ment át ez a stratégiás dolog. piaci helyzet sokat számít, de nem üt mindent. ugyanúgy, ahogy a dolgozó sem megy el bármilyen állásba dolgozni, egy cég sem tud mindent feladni az értékrendjéből. ez nem pillanatnyi büszkeség vagy farokméregetés kérdése - az nVidiánál az egyik alapvetés, hogy elsők akarnak lenni. míg pl. az AMD valóban csak akkor akar első lenni, ha éppen megéri.
nem inkább arról van szó a Keplernél, hogy az nVidia rájött, hogy one size doesn't fit all?
[ Szerkesztve ]
"We put all our politicians in prison as soon as they're elected." "Why?" "It saves time."
-
Löncsi
őstag
Köszi.
A legújabbat néztem, 1.10-es verzió ami fűtött erősen. Kipróbáltam egy régebbi 1.8-ast, ott olyan 65% venti és 75 fok környékén megállt, gondolom a fojtás miatt.
[ Szerkesztve ]
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
Mindenki első akar lenni, de vannak helyzetek, amikor az elsőségnél fontosabb szempontok is vannak. Néha érdemes beáldozni egy jelentéktelenebb csatát, hogy megnyerj egy nagyobbat. Most, hogy a piac már nem olyan, mint régen, ez hatványozottan igaz.
Nem hiszem, hogy az NV annyira mérlegelt itt a VGA-piacra. Nekik a Fermivel volt egy jövőképük. Erős compute irány, a bonyolult számításokra erős shared memory teljesítmény és legyen gyors context switch. Ebből a Keplerben tulajdonképpen nem sok maradt. De nem azért, mert megváltozott az NV véleménye a jövővel kapcsolatban. Továbbra is tartják az álláspontjukat, mert hosszútávon ez az ideális fejlődés, de el kellett gondolkodni azon, hogy a Tegrában a GeForce 7 foltozott alapjai most sem megfelelőek. Kell egy új rendszer, amire lehet építeni, de se a Fermi, se a G80 nem alkalmas ide. A megoldás a Kepler, amit most látsz. Azt jól le lehet skálázni, és előtérbe került a pJ/FLOP érték növelése is. Persze ehhez kellettek áldozatok, mint a shared memory és a context switch sebességének erős megkurtítása, de egyelőre fontosabb a Tegra. Abba kell egy jól működő alap, aztán az egész továbbfejleszthető minden irányba. Ha a skálázhatóságot nézzük, akkor a Kepler jelen kiépítésében jobban skálázható lefelé, mint az AMD GCN architektúrája. A másik oldalt az AMD rendszere sokkal okosabb, és sokkal jobban kezeli a bonyolult számításokat, amelyik utat a Fermi és a megboldogult Larrabee indított el. Volt olyan blog, ahol a GCN-re "Larrabee done right" volt írva. Cinikus beszólás, de van benne igazság. Cserébe persze, amikor a lefelé skálázásra kerül a sor, akkor jönnek a problémák a tranyóigény szempontjából. Persze meg lehet tartani a VLIWx-et, ami szintén egy jól skálázható rendszer, csak annál a Kepler már jobb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
fatallerror
addikt
egyébként mik most a legfrissebb hírek a tsmc-ről? lesz kapacitásuk ahogy ígérték? nincs helyzetjelentés?
don't tell me what i can't do!
-
Abu85
HÁZIGAZDA
válasz fatallerror #10135 üzenetére
Múltkor mondták, hogy 2012Q3 végére mindenki elégedett lesz. Dolgoznak ők úgy ahogy tudnak.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Löncsi
őstag
Performance Boost – Increases performance for GeForce 400 Series and 500 Series GPUs in several PC games vs. GeForce 296.10 WHQL-certified drivers. Results will vary depending on your GPU and system configuration:
Elvették a radírját, azt az egész élete egy nagy kompenzálás, hogy ő igenis kan és igenis 2 méteres a fallosza - by stranger28
-
Abu85
HÁZIGAZDA
A GK110-et nem fogják lehozni GeForce-ba. Csak a legdrágább Tesla és Quadro épül majd rá úgy 6000-8000 dollárért.
Természetes, hogy az NVIDIA jövőképe nem változott meg, csak jelenleg fontosabb a Tegra felfuttatása mert ez a cég jövője a konzumer vonalon. Majd ha eljut az NV a Maxwellig, ami a saját APU-juk, akkor újra előtérbe kerül az erős compute, és a GPU-k helyett a platformra helyeződik a hangsúly is. A Maxwell viszont 2014-ben jön. Addig a Tegra az első, amibe fejleszteni kellett egy tranyókímélő, jól skálázható, alacsony fogyasztású rendszert (a mostani GeForce 7 alapokra épülő ULV GeForce már nem versenyképes, és a jövőben ez rosszabb lenne). Ezek az igények azzal jártak, hogy az NVIDIA beáldozta a komplex kódok gyors futtatásának lehetőségét, de ennek a Tegra esetében nincs túl nagy jelentősége. Persze nem jó, hogy a GK104-et számos komplex OpenCL programban elintézi a GF110, illetve messze lehagyja a compute irányt vett Radeon, de bevállalható, ha ez kell a Tegra sikeréhez. Konzumer szinten a Tegránál most semmi sem fontosabb.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
A GK104 és a GCN viszonyáról már sokat olvastam, de a GCN kontra GK110 meccsről még semmi infó - gpgpu téren.
Persze nyilván nem lehet a tesztekig sokat mondani, de ha van bármi infód, akkor örömmel olvasnám.Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
-
veterán
GK110-et nyilván most már nem fogják lehozni a 6-os szériában, de minden jel arra utalt, hogy ez volt eredetileg a terv, másrészt 7-es szériában még simán esélyes. Az egész attól függ, hogy az AMD mit hoz össze legközelebb, és hogyan alakul a kihozatal.
Én nem hiszem, hogy csak azért lett ilyen a GK104, mert a Tegrára gyúrtak, szerintem azért is lett ilyen, mert jelenleg ez optimális egy játékos kártyába. Igazából, ha a Fermit átültetik 28nm-re az is versenyképes játékos kártya lett volna, csak nem optimális.
-
tombar
senior tag
azért a dgpu piac meglehetősen szűkül, szal a gef, már csak másodlagos. átültehették volna, de mit nyernek vele? max kisebb a fogyasztás, de a skálázhatósága ugyan olyan nehézkes lenne sajnos :S a gk az egyszerű, jól skálázható felépítése miatt kell az nVnek. muszáj a tegrás cuccokat nyomatni, azt veszi a birka nép. szerintem ha lenne komoly piaca a dgpu kártyáknak, akkor akkor simán megoldható lenne a gk 110 felsőházas szereplése. most sajnos az a jövőkép h egy 10 collos cuccon kell játszanod (vagy marha drága nagy kijelzős tévén), amit majd egy másik gép kiszámol neked valahol jó messze tőled. :S
Everybody knows, you dance like you fuck. So let me see you dance!
-
Abu85
HÁZIGAZDA
A GK110-et eléggé speciálisan a CUDA-ra szabták. Erre volt most igény. Voltak a Fermiben problémák, amiket orvosolni kellett. Ezzel van ahol jobb a GK110 és van ahol jobb marad a GCN. Ez most tényleg csak attól függ, hogy mi a jövőben a terv. Az NV még nem épít annyira az integrációra, mert a szoftveres oldal még nem áll készen. Az AMD már nagyon épít erre az architektúrával, mert náluk a szoftveres alapok 2013-ra meglesznek. Természetesen az NVIDIA is arra készül, hogy csak APU-kat csinál a HPC szerverekbe, de ehhez még idő kell, és nem mellesleg a Porject Denver elkészülése. Az látszik, hogy különböző ARM-os tesztplatformokkal már elkezdték építeni a szoftveres alapokat. Tehát ezen dolgoznak egy ideje. A Tegrából összehegesztett hardver itt nem annyira jó, de arra pont elég, hogy az alapokat lerakják.
(#10144) fatallerror: Persze, hogy gyúrnak a Maxwellre. Ez a jövőjük. Az lenne a kockázatos, ha nem erre gyúrnának, mert ha nem lesz jó a fejlesztés, akkor elvesztették a háborút. Be kell törni a piacra egy saját platformmal. Ez mindennél fontosabb.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
válasz tombar #10146 üzenetére
Azért az figyelembe kellene ám venni, hogy amikor kijön az adat, hogy kevesebb dGPU fogyott, akkor a csökkenés nagy részéért a játékra teljesen alkalmatlan, alsó kat. kártyák a felelősek, egyértelmű, hogy miért, de a játékra szánt PC-k piaca növekszik.
Kínában elsődleges játékplatform a PC, és jelentős növekedés várható az elkövetkező jó pár évben, tehát a ténylegesen játékra szánt dGPU-k piaca nem szűkül. A GK110-et csak azért nem hozták most le, mert bőven elég volt a GK104.Amit írtál jövőképet, attól nem kell tartanod, a felhős játék egyelőre csak arról szól, hogy egy olyan szegmensbe is elvigyék a legújabb játékokat, ahol eddig technikai korlátok miatt nem volt megoldható, és az NV ebben csak meglátta a piaci rést, ha már hardvere úgyis megvan hozzá.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
Maximum, azok utalnak rá, akik nem értik, hogy abban a rendszerben legalább 1,5-2 milliárd tranzisztor felesleges játékra. Totál értelmetlen kiadni egy olyan GPU-t, amiben dedikált DP feldolgozók vannak. Egyszerűen rengeteg helyet foglal, és haszna nulla. Van még benne egy elég komoly ütemező is, aminek haszna a HPC-piacon kívül teljesen lényegtelen. Szóval ilyen formában ezt GeForce-ba nem fogják kiadni.
Másra nem éri meg gyúrni. A Tegra a legfontosabb most a cég életében, mert az az egyetlen konzumer termékvonaluk, mely értékes és növekvő piacra nevez. A Fermi azért volt gáz, mert nem volt skálázható. Volt egy ideális szint, amit a GF104 és 114 képviselt. Ez nagyjából jól működött, de felette túl nagy volt, alatta pedig túl lassú. Ez skálázhatósági probléma. Ezért is változtatták meg az ütemezést a Keplerben, hogy ezt a gondot áthidalják.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Hivatalosan is bejelentették a Horizon Zero Dawn Remasteredet
- Nvidia GPU-k jövője - amit tudni vélünk
- nVidia tulajok OFF topikja
- Autós kamerák
- Háztartási gépek
- Android 14-re vált a Nokia X10 és az X20
- Magyarországra is megérkezett a Xiaomi Smart Band 9
- NASsoljunk: ZyXEL NSA-310 és az FFP
- Kupon kunyeráló
- Kezünkben a Razr 50 Ultra
- További aktív témák...
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest