-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
fatallerror
addikt
válasz
KillerKollar
#10199
üzenetére
az rendben de az nv konferenciája ma volt tehát mondták volna ha lesz mostanában nem?
-
KillerKollar
őstag
válasz
fatallerror
#10198
üzenetére
Tudtommal 5-9ig tart és ma még csak 5-ödike van.
-
fatallerror
addikt
jól látom h minden lett a computexen csak gtx 660?
-
Löncsi
őstag
Tud erről valaki valamit ? Hónap végén jön elvileg.
-
Löncsi
őstag
-
Löncsi
őstag
OC like a boss:
[link]Akár full képernyős 3D alkalmazás alatt is lehet birizgálni a kártyát.
-
Löncsi
őstag
válasz
fatallerror
#10190
üzenetére
Jaja, kérdés, hogy a bullet-timeot hogyan imitálja majd az ember?

-
Löncsi
őstag
válasz
fatallerror
#10187
üzenetére
GTX 670/680 topikban már megy az anyázás, meg a konzolport szöveg.

-
Löncsi
őstag
Nem szorosan ide kapcsolódik, Max Payne 3 elemézés:
-
Abu85
HÁZIGAZDA
Az NV mondhat bármit. Azt mondta JHH, hogy nincs gond a kihozatallal mégis a GK107 helyett Fermiket szállítanak a notebookokba. Az NV mindig azt mondja, amit az adott közönség hallani akar. Ezt az elmúlt évek során már meg lehetett tanulni.
Quadroba kellenek. De a textúrázókat használják Teslában is.
Az első hely megvan a GTX 690-nel is. Ha ezt esetleg az AMD legyűri egy HD 7990-nel, akkor is biztos, hogy két GK104-gyel gyorsabbat lehet csinálni, mint egy GK110-zel.Nem kockázatos az a GK104. A Tegrába ez kell. Nincs hely a felesleges tranyóknak. Szvsz most ez a legjobban skálázható modern dizájn lefelé.
-
"Ezen a piacon a presztízs másodlagos lett."
vs
"Az NV jól mondja, csak akkor szabad ezt a terméket bevetni, ha az AMD elővarázsol valamit, amire nagyon kell a válasz."ez így eléggé ellentmondás, nem?
szerintem tök egyértelmű a helyzet, ott van B tervnek a GK110 alapú Gef (btw. minek lennének textúrázók meg ROP-ok meg tesszelátor benne különben?), és ha úgy alakul, akkor bedobják. nem feltétlen azért, mert hatalmasat söpörnek vele, hanem mert kell az első hely. ennyi.a kigyúrt ütemező meg nem mindig hátrány - kockázatos, amit a GK104-nél csináltak. bár egyelőre úgy tűnik, bejött.
-
Abu85
HÁZIGAZDA
Ezen a piacon a presztízs másodlagos lett. A profit az első, mert évről-évre kevesebb lesz az eladás. Már a Samsung is ki akarja tenni a valagát, mert veszteséges a GDDR5-ös lapkák gyártása. Egyszerűen nincs meg az a rendelési volumen, ami régebben megvolt.
Az NV jól mondja, csak akkor szabad ezt a terméket bevetni, ha az AMD elővarázsol valamit, amire nagyon kell a válasz. De mivel az AMD is ugyanúgy értéktelennek tekinti a hagyományos VGA-s fejlesztéseket, így nincs sok esély rá, hogy hirtelen jön egy lapka, ami 30-40%-kal gyorsabb lesz a GK104-nél. Mire ez megtörténik, addigra 2013-at írunk, amikorra már meg lesz a GK104 utód is. Szóval a GK110 mellett egyetlen szempont sincs. Persze ebbe a HSA és az integrációs tervek beleszólhatnak, de ez ellen az NVIDIA úgy sem tud választ, mert nincs még platformjuk. Az Intellel pedig nem tudnak szövetkezni, mert x86/AMD64 licenc nélkül csak az ARM-ra építhetik a GPU-k tudását. Ez előny is meg hátrány is. Előny, mert az NV-nek nem kell azzal törődni, hogy a GPU kezelje ugyanazokat a 64 bites pointereket, amiket a CPU használ. Ugye az AMD már így tervezte a GCN-t, és ezért a compute irány is. Abból a szempontból viszont hátrányos az NV-nek ez az egész, hogy az AMD már ennyire előretört a platformtervekben. Ennek rövidtávon csak annyi a hatása, hogy az AMD procik/APU-k mellé Radeont érdemes venni, de mivel az OEM-gyártók eddig sem rajongtak az AMD+GeForce kombóban, így ez annyira nem lényeges. Hosszútávon viszont nagy gáz, hogy a fejlesztésekre az AMD-nek lesz először olyan komplett rendszere, ami szoros platformintegrációt valósít meg. Ráadásul, mindezt legalább egy-két évvel a konkurensek előtt. Feltételezve, hogy az AMD Kaveri itt lesz 2013 közepén, míg az NV első ARM processzoros APU-ja, a Maxwell 2014-ben befut. Gondolom az Intel tartja majd a 2015-ös terveit a Skylake-kel, bár az Larrabee-re épít, szóval ott bármi megtörténhet, ami nem kedvező.
Ami viszonylag sokat fogyaszt az az ütemezés. A GK110 esetében ez eléggé kigyúrt lett. Ezért nem akarja az NV lehozni GeForce-ba, mert semmi értelme nem lenne a dupla GK104 mellett, az extra funkcióknak pedig a CUDA-n kívül semmi sem veszi majd hasznát. Ami esetleg tényező lehet még az a dupla pontosság ugyanis a DX11.1 ezt már pixel shaderre is engedi, de kizártnak tartom, hogy ezzel valaki élni fog. Maximum technikai demók formájában.
-
na, akkor jó, mert az nVidia szerint is. ezt mondták a TechReportnak a GTC-n:
"The Nvidia executives we talked with raised the possibility of a GK110-based GeForce being released this year only if necessary to counter some move by rival AMD."és igen, a cégek számára mindig a profit az első, de nem mindig a közvetlen profit. érdemes utánanézni az internyeten, hogy a világ legerősebb brandjei milyen pénzben kifejezett értékkel bírnak - márpedig a
legnagyobb farokleggyorsabb GPU igenis növeli a brandértéket.ne mondd már, hogy mindegy a GK104 fogyasztása. nyilván nem lehet egy képlettel az egyik fogyasztásból elővarázsolni a másikat, de abban biztos vagyok, hogy a feszültség-órajel/fogyasztás görbe a két chipben drasztikusan nem tér el egymástól. és azt ugye tudjuk, hogy a 800MHz, ill. az 1GHz között GPU-k esetén elég nagy is lehet a differencia.
-
Abu85
HÁZIGAZDA
válasz
TTomax
#10180
üzenetére
A túlterhelés elleni védelem ugyanaz, ami van a GTX 580-ban. Egyszerűen ez a megoldás félig szoftveres. Az adatokat nem a hardver, hanem a driver értékeli ki, és ad engedélyt a beavatkozásra. Ez kapásból 500-700 ms-os késleltetés, vagyis a hardver a problémákra ennyivel később tud reagálni, mert ennyi idő, amíg a driver választ ad. Ez az amitől megdöglöttek a teszten a GTX 590-ek. Alapvetően nem működött rosszul a védelem, csak mire választ adott a szoftver, addigra köszönte szépen a hardver és megadta magát. Az új meghajtó ezen nem változtatott, csak a feszültséget vette vissza. A válasz ugyan továbbra is lassú volt, de nagyobb volt az esélye, hogy nem ég le, mire megérkezik, mert a feszültség kisebbre volt szabva, így a terhelés is alacsonyabb volt.
Félreértesz, lehet 300 wattnál többet zabáló kártyát csinálni, de teljesen hardveres védelem nélkül nem életbiztosítás. A Radeon HD 6990 azért tartja magát ennyire jól tuning mellett is, mert a PowerTune pár ns-os késleltetéssel reagál, és ha kell, akkor az órajelet is valós időben csökkenti. A PowerTune előtt még az AMD sem mert 300 watt fölé menni. A HD 5000-es sorozat védelme is 50 ns-os késleltetésű volt, vagyis sokkal gyorsabb, mint bármelyik szoftveres megoldás, de ez csak a teljes lapkára vonatkozott, vagyis nem volt képes a shaderek szintjén beavatkozni, és az órajelet dinamikusan csökkenteni. Két opciója volt: lefagyasztja a terméket, ezzel megelőzve a károsodást, vagy kiad egy pihenj parancsot, ami a GPU-n egy teljes ciklust kihagy. Előbbi a fagyás miatt kellemetlen, utóbbi pedig nagy terhelés mellett szinte időszerű kihagyás, szóval egyik sem jó egy 300 wattot túllépő termékre. Ide olyan védelem kell, amilyen a PowerTune, mert az előbbi szintek mellé bekerült a terhelésszabályzás, az órajel állításával. Ha kell, akkor a PowerTune leveszi az órajelet a biztonságos szintre, emellett az OEM-ek is örülhetnek, mert volt BIOS, amivel 300 wattra volt limitálva a HD 6990.
Most a GTX 690-nel is 300 watton maradt az NVIDIA. Egyszerűen nem éri meg megkockáztatni félig szoftveres védelemmel a nagyobb fogyasztást. Ráadásul így megvannak az OEM megrendelések is.
Mi is első kézből gyűjtjük a tapasztalatokat számos Radeonnal a tesztben. Ha láttad, akkor mindig csinálunk Zero Core mérést. Ha valami nem stimmel, akkor azt észrevettük volna. Egyedül a gyári OC-s termékeket nem néztük. Ilyet még nem kaptunk. -
TTomax
félisten
Ne csúsztass,lényegtelen legyen korai stádium.Nem kell fél oldalt írni ahhoz,amit mindenki tud.. a GTX 590 fogyasztásának semmi köze nem volt ahhoz hogy elfüstölt.Nem lassan működött túlterhelés védelem, hanem rosszul!Az,hogy az nV driverböl védi a kártyáit,és elfuserálták a meghatót,nem jelenti azt,hogy nem lehet 300W feletti kártyát építeni... a 6990 is be tudja kajálni 300W felett... az hogy nem tul szerencsés az már más kérdés...
Egyébként is, a múltkor leosztottál én vagyok a hülye,mert a "zero core" meseszépen megy radeonon,akkor tessék neked elsökézböl,nem nem megy normálisan,alvó állapotból visszatérve a 7970-em fele fps-t produkál BF3-ban,amióta kikapcsoltam a csodálatos cuccot nincs ilyen gondom,megint egy frankó újítás ami elcsuszik a driveres banánhéjon..ref OC karim van, whql driver,és semmivel nem tuningolok... csak azért írom le mert ezek lennének a következő dolgok amiket felhoznál...egy tesztből ez nem derül ki... csak a mindennapi használatban... -
Abu85
HÁZIGAZDA
válasz
TTomax
#10178
üzenetére
Mindegyik GTX 590 ugyanolyan. Nem volt korai meg új verzió. Annyi történt, hogy az NVIDIA kiadott egy drivert, ami megváltoztatta a specifikációkat. Az alapfeszültség 938 mV-ra csökkent, és a driverben lett egy határ, ami megszabta a túlterhelésvédelem életbe lépését. Ezt annyira szigorúvá tették, hogy a termék a feszültség emelésére vesztett a sebességéből. [link]
Ennyi történt. A túlterhelés elleni védelem volt egy nagyon lassan reagáló megoldás. Ez nyilván 300 wattig lehet, hogy jól működött a GTX 580-on, de +60-70 watt már más. Oda szigorúbb szabályok kellettek.
Valószínű, hogy a következő körben az NV is végre megfontolja a teljesen hardveres védelmet. Igazából máig nem értem, hogy miért ragaszkodnak ehhez a félig szoftveres megoldáshoz. Tény, hogy hardver szintjén ez a legolcsóbb, de több száz ms-os késleltetése van. Ha igazán ráfeküdnek, akkor csinálnak egy PowerTune szerű, stream processzorok szintjén is működő megoldást, de elég az is, ha a HD 5000-es Radeonok hardveres túlterhelés elleni védelmét lemásolják. Az is gyorsabban működik a szoftveres kiértékelésnél. Bár ez ellen az anyagiak szólnak, mert ez a legdrágább megoldást mind közül. -
Abu85
HÁZIGAZDA
A saját véleményem más. Szerintem jöhetne a GK110, mert a GCN architektúra nagyon elhúzott a compute-ban. Amit mondok az csak az NV-nek az üzleti szempontjai. A cég számára mindig a profit lesz az első.
A 300+ wattos kártyából egy precedens van. Az is csak azért, mert képtelenség volt megcsinálni 300 watt alá. Emellett az a termék megmutatta, hogy miért is ragaszkodnak az OEM-ek a szabványokhoz. Biztos emlékszel arra, hogy hány teszttermék pusztult meg. A Lab501 még alapórajelen is megölt egyet.
Egy-két játék nem jelent értéket a piacon. Ha azoknak problémás a Multi-GPU, akkor az lesz és kész. A többi játékon meg lesz az átlagos előny. A többi probléma meg a velejárója a multi-GPU-nak. Van opció egy GPU-t venni.
Teljesen mindegy a GK104 fogyasztása, mert a GK110-ben más az SMX szervezése és a globális ütemezés is sokkal bonyolultabb. Abból a legjobb kiindulni, hogy a 225 wattos Teslára az NV utalása szerint ~600 MHz és 13 darab SMX lesz, vagy ~560 MHz 14 darab SMX-szel. Ezt lehet 300 wattra felszámolni. Mivel ezek a legjobb lapkák, így talán számoljunk 12 darab SMX-szel, hogy magasabb lehessen a magórajel. Nagyjából úgy hozható lenne egy ~750 MHz-es magórajel 300 wattal. Ezzel ~15-25% lenne az az előny, amit fel tudna mutatni a GTX 680-hoz képest. Ez abszolút nem éri meg. Sokkal jobban megéri a GTX 680-at gyári OC-zni. 800 MHz nagyjából aktív 10-11 SMX-szel lenne meg. Így sem lenne sokkal másabb a helyzet. Anyagilag nincs alátámasztva ennek a terméknek a létjogosultsága. Arról nem is beszélve, hogy a VGA-piac 300 dollár felett a teljes eladás ~2-3%-át adja. Már három GeForce van ebben a szegmensben. Többre nincs szükség, mert pici a vásárlóbázis. Ahol szükség lenne kepleres GeForce-ra az a 100-200 dolláros réteg. Ott 15-20%-os a vásárlóbázis a VGA-piac egészét nézve. Az NVIDIA-nak most már ide kell koncentrálnia, különben a Radeonok elviszik az OEM-es megrendeléseket.
Szintén fontos, hogy mire lehetne GK110-es GeForce már 2013-at írunk, amikorra lehet felújított GK104. -
tombar
senior tag
válasz
fatallerror
#10174
üzenetére
mondjuk fura h most felcserélték a jelölést. nagyon remélem h június végén megjönnek és talán 1 hónap alatt azért beáll az áruk.
-
tombar
senior tag
-
korcsi
veterán
-
ez mind szép, de nem fair a saját véleményedet úgy tálalni, mintha az nVidiától jönne. vagy esetleg titokban Jensennel sörözgetsz?

a 300W-os szekciót nem értem, hogy jön ide. tudom a problémákat, és arról is elég jó elképzelésem van, hogy mehet egy 6990 -20%-os powertune-nal. de ettől még van precedens a 300W+-os kártyára, és nyilván az nVidia is tanult a hibákból.
Nem a GK104-hez kell hasonlítani a GK110-et, hanem két GK104-hez.
ez mondjuk jogos. az valóban különbség a korábbi generációkhoz képest, hogy a második számú chipből kettőt gyártani határozottan olcsóbb, mint az első számúból egyet. ami itt a GK110 mellett szól, az a multiGPU-s kártyák továbbra sem problémamentes volta. a piacon azért ennek van értéke.
azt pedig, hogy hogyan nézne ki a GK110 fogyasztási görbéje, nem ártana megtámasztani legalább valami távolról releváns méréssel. kiindulásnak meg lehetne mérni, mit eszik egy GTX680 alulfeszelve 700, 800 és 900 MHz-en - ez valamilyen szinten indikatív lenne arra nézve, hogy milyen görbét futna a GK110 a feszültséggel és az órajellel. ha lenne 680-am, akkor már az eredményeket postolnám, de sajna nincs, így marad a tippelés. sztem simán menne 800MHz-et 300W alatt. prove me wrong, please

-
Abu85
HÁZIGAZDA
Én értem, hogy a véleményed megvan, de ugyanerről van véleménye a gyártóknak is. Az övéké pedig fontosabb, mert ők fizetik ki a waferek árát.
Arról is. Valójában azonban inkább arról szól, hogy kezdenek elhatalmasodni a CMOS fizikai korlátai. Ezek a gyártástechnológiai váltásokkal egyre rosszabbak lesznek.
Nem így van. A 300 wattot elsőként és máig egyedül a GeForce GTX 590 szarta le. A HD 6990-et úgy tervezte az AMD, hogy az OEM-ek alkalmazhatták hozzá a -20%-os PowerTune beállítást, hogy szabványos legyen a termék. A GeForce GTX 590 startjakor az elfüstölt teszttermékekből pedig látszik, hogy miért fontos ez a szempont. 300 wattot megfelelően védett hardveren lehet csak túllépni (pl.: PowerTune vagy hasonló nagy hatásfokú hardveres rendszer mellett). A GTX 590 nem volt ilyen. A megjelenés után a driverben korrigáltak az eredeti paramétereken, hogy biztonságos legyen használni. Ezzel elő is állt az, hogy ha tuningoltad a GTX 590-et, akkor nem gyorsult, hanem lassult. A 300 watt pedig állandóan figyelve lesz. Ha a dobozos termékekben nem is, de az OEM-eknek készítenek olyan BIOS-t, mely 300 wattra limitál.
A Tesla órajelek eléggé fontosak, mert ezek kapják a legjobb lapkákat, amelyek csak léteznek. Itt 225 watt a határ, ezért ide csak a legjobb chipekkel lehet beférni.
Rosszul elemzed a helyzetet. Nem a GK104-hez kell hasonlítani a GK110-et, hanem két GK104-hez. Utóbbi konfigurációval mindig gazdaságosabb lesz a megcélzott piac, így ez a GK110-et teljesen lényegtelenné teszi egy GeForce-ban. 300 wattban a legjobb esetben fér bele 700 MHz-es órajellel a GK110. Ha nem butítanak rajta semmit, akkor nagyjából 10-30%-kal lehet gyorsabb a GeForce GTX 680-nál. Ezzel kapsz egy olyan terméket, melyet drágább gyártani, mint a GeForce GTX 690-et és jóval lassabb is. Üzletileg semmi sem indokolja ezt. Akkor inkább egy új lapka, amit az aktuális architektúra birtokában egy év alatt össze lehet rakni. Persze ott is figyelembe kell venni, hogy a dual-GPU-s koncepciónál ez sem lesz hatékonyabb. -
Abu85
HÁZIGAZDA
válasz
Löncsi
#10163
üzenetére
Nem, ezen a grafikonon négy adat van. Tranyók, órajel, energiafelvétel és IPC. Azt mutatja, hogy Moore trövénye és a Dennard Scaling hogyan változik. Moore törvénye láthatóan él, de a többi az erős skálázhatósága megfeneklett. Ez napjaink legnagyobb problémája, hogy azok a szabályok már nem használhatók, amelyekre a 2000-es évek elején, illetve azelőtt a chipek tervezése épült. Ez hozta el a többmagos processzorokat is, de minél közelebb kerülünk a CMOS határaihoz, annál erősebbek a fizika törvényeiből eredő limitációk. Pontosan ezért megy mindenki a heterogén többmagos fejlesztések irányába. Most, hogy a Dennard Scaling ennyire lapos grafikont mutat új elvek szükségesek a chiptervezésben. A teljesítmény növelésének egyetlen módja az maradt, ha a lapka átlagos pJ/FLOP aránya egyre kisebb.
Olyan nincs, hogy 3D-s tranyóelhelyezés. Már a planáris tranzisztorok is 3D-sek. Ez csak egy marketingszöveg. Ennek a neve valójában FinFET. Az Intel azért vezette be, mert el akarják kerülni a SOI használatát. Idővel persze elkerülhetetlen lesz, de egyelőre jóval több cég készít bulk wafert, így addig kell húzni ezt, ameddig lehet. A fenti problémát nem oldja meg a FinFET sem, sőt még az FD-SOI melletti FinFET sem fogja. Az egyetlen út az adott lapka pJ/FLOP arányának a csökkentése. Ezt jelenleg két módon lehet. Követni Pollack szabályát, ami a jóval egyszerűbb processzormagokra való tervezést próbálja előtérbe helyezni. Ilyenkor az adott processzormag kisebb lesz, így több fér bele egy adott tranyóbudgetbe, és azzal, hogy a különböző bonyolult feldolgozó logikákat (pl.: out-of-order helyett in-order rendszer) egyszerűsítik csökken a pJ/FLOP érték. Ezzel a teljes lapka throughput teljesítménye növelhető, cserébe viszont drasztikusan esik az egy szálon elérhető teljesítmény. A másik opció a heterogén többmagos felépítés, vagyis a lapkában két célirányos megközelítés lesz a magokra, azaz LOC és TOC dizájn. Az előbbi magok a hagyományos értelemben vett processzormagok, vagyis továbbra is a késleltetésre érzékeny feldolgozás az elsődleges feladatuk, így alapvetően gyúrnak az egyszálú teljesítményre, míg az utóbbi magok lényegében megfelelnek a lapka IGP részének, vagyis kifejezetten a throughput terhelést igényeit tartják szem előtt. Ezzel a módszerrel a processzormagok pJ/FLOP értéke nem csökken jelentősen, de az IGP ezt kompenzálja, így az átlagolt érték már csökken, ezenkívül megmarad a magas egyszálú teljesítmény is. A hátrányok a LOC és TOC dizájnnal ott keletkeznek, hogy eléggé meg kell változtatni a programozási szokásokat, illetve úgy kell tervezni az IGP-t, hogy az a rendszer szerves része legyen, és ne csak egy kiegészítője. Ez az oka annak, hogy az AMD a GCN-t már úgy tervezte, hogy ugyanazokat a 64 bites pointereket kezelje, amelyeket az AMD64-es processzormagok. Ugyanez lesz a Larrabee integrálásával is, illetve az NV Maxwell is erre tart, csak nyilván ARM alapokra építkezve.
-
BeLucZ
addikt
és ugy rohadt erős lenne! én azért kiadnám az abszolút felsőkategóriába az nv helyében, hogy na azért mégiscsak megmutassuk mi is hogy tudunk erős gamer kártyát hozni ami még computeban is odabasz!
nem kell nagy példányszámba kihozni, de hihetetlen presztizsértéke lenne
és mint tudjuk sokat számít az hogy "kinek a nagyobb"..... sok user ez alapján választ terméket, nagyon jó reklám tud lenni és mivel nem lenne szó hatalmas példányszámról, az esetleges gyártási minuszt behozhatná bőven az általa generált pozitiv hatások armadája...
-
pár tucat hsz-szel ezelőtt már megnéztük a waferárakat, azóta nem változott a véleményem

a cpu-scaling grafikon nagyon jó, de az a single core skálázódásról szól. a power-határt nem tudjuk (mert 1 éve láttuk, hogy a 300W-ra magasról sz**ik mindkét gyártó, ha a helyzet úgy hozza), ezért a további tranzisztorok további core-okként meg tudnak jelenni. nincs itt hiba.
a GT200 szerintem is egy elég gyenge eresztés volt, de ettől még arra épült a leggyorsabb VGA. a GF100-tól pedig nem tudom, ki mit várt, teljesítmény terén az egy teljesen jó GPU.
a Tesla órajelek csak mérsékelten relevánsak, Te szoktad írni, hogy ott 225W a power budget, VGA-ban ugye láttunk már 365W-ot is. miután a GK110 a pletyi szerint a GK104 duplája, első durva becslésként a fogyasztás azonos órajel mellett 400W magasságában lenne - meglepne, ha 800MHz-re leejtve nem szorulna normális keretek közé. -
Löncsi
őstag
-
Abu85
HÁZIGAZDA
Nem veszek kötekedésnek, de nézd meg a waferárakat helyzetét. A 28 nm teljesen más kategória. [link]
Emellett ez még egy fontos grafikon. [link] - Moore törvénye láthatóan él, de a többi szempont szerint megállt a skálázódás. Igaz, ez az Intelre van levetítve, de a fizika törvényei egységesek.
Ezeket az NVIDIA is látja, sőt mindenki. Egyszerűen már nem lehet úgy tervezni egy lapkát, hogy majd az új gyártástechnológia meghozza a skálázást. Ennek a kényelmes helyzetnek vége, és a Dennard Scaling ami ezt biztosította megfeneklett. Ezek azért elég komoly érvek szerintem.
A GT200 és a GF100 pedig nem volt nagy durranás ... egyáltalán nem hozták azt, amire a méretükből számítani lehetett. Zömében a második linkelt kép ennek az oka, csak akkor még ez nem volt annyira jelentős probléma, mint 28 nm-en. Ne feledd azt sem, hogy a GK110 ~600 MHz-en fog működni (a Tesla K20 esetében erre vannak utalások, és mínusz két SMX blokk, ha ez az órajel marad ... természetesen több SMX mellett a magórajel csökkenni fog). Nem fogadnék arra, hogy minden esetben gyorsabb, mint a GK104 egy játékban. HPC-ben tuti. Arra fogadnék, de a játék az más. -
ne vedd kötekedésnek, és nem is a korábbi eszmecserét akarom folytatni, de arra felhívnám a figyelmet, hogy nagyon erős dolgokat állítasz, anélkül, hogy megfelelően megtámasztanád. az elméletek szép dolgok, de a "nem éri meg" kérdéskörben édeskevesek, ott a számok visznek mindent. két dologra gondolok kiváltképp:
A GK110 GeForce-ban hit kérdése. A valóságban az NVIDIA nem fog egy ilyen hibát elkövetni elég volt nekik a GF100/110.
a GT200-nál is az volt, hogy túl nagy, meg a GF100-nál is. mégis lett, és a leggyorsabb volt. sőt, mindegyikből lett dual kártya is (utóbbiból csak ráncfelvarrás után, de akkor is 3Mrd tranyóval). nem látom, miért lenne más ez a generáció.
Egyszerűen nem éri meg, nincs egy üzleti szempont sem a kiadás mellett, ellenben a kiadás elleni szempontokat lehetne sorolni.
a kiadás mellett egy jó business case tud szólni, semmi más. a 8800 Ultra emlékeim szerint 800 USD magasságában nyitott, úgyhogy egy 700-750 dolláros kártyára biztosan lehet értelmes case-t gyártani. annyiért meg akár GK110-zel is lehet szerelni. ettől még lehet másik chip helyette, meg az is lehet, hogy semmi nem lesz (ha a 680-ért el lehet kérni 500 USD-t, akkor tényleg lehet, hogy érdemesebb GK104-eket gyártani), de a keretszámok ismerete nélkül nem megalapozott az az állítás, hogy "nincs üzleti szempont a kiadás mellett".
-
fatallerror
addikt
tehát akármilyen is lesz a konkurenciához képest akkor is kötelező lépés és végül is nem bukhatnak, legrosszabb esetben tanulság lesz és tapasztalat. kíváncsi vagyok vajon képesek e elsőre jót alkotni bár gondolom van még annyira messze ez a 2014 h felhasználják a konkurencia botlásait ill erősségeit
-
Abu85
HÁZIGAZDA
Ez egyáltalán nem így van. Pont, hogy fordítva mondják a gyártók. Egyre több a Casual gamer PC-n, és ezt hivatott alátámasztani, hogy egyre több a budget kategóriába szánt játék is. Pont, hogy a hardcore réteg kezd kikopni.
Valóban nem, de valahol el kell kezdeni. Ha itt az ARM, akkor az új programokat arra is lefordítják. Ezzel nem mondanám teljesen esélytelennek. Az NVIDIA mindent meg fog tenni ezért, mert a jövőjük függ ettől a rendszertől. A Microsoftra biztos számíthatnak.
Az Intel az arról híres, hogy az AMD-t szokta követni.
Nem, itt senki nem követ senkit. A cél, hogy a gyártástechnológia problémák mellett is megőrizzék a gyártók a lapkák skálázhatóságát. Erre van a heterogén módon programozható lapkák koncepciója. Ezt nem az AMD találta ki, ez egy logikus evolúciós lépcső. Olyan amilyen a többmagos processzorok lépcsője volt pár éve.
Szerinted a Larrabee projektbe beleölt dollármilliárdok mire szolgáltak? Az Intel sem gondolta az elején, hogy két implementációból kettő a kukában végzi. Nem olyan egyszerű egy GPU-t összerakni, azért haladnak lassan.
Az NV-nek rengeteg választása van/volt, de akarják a PC-s piacot, így ők is integrálnak. Ez egyébként logikus. És ez nem a HPC-piacnak szól, hanem a konzumer szintnek is.A pletykákra ne építs, mert az gyártók mindig is azt mondták, hogy a GK104 lesz a GeForce csúcslapkája. Márciusban még nem számoltunk be róla, de az NV elmondta nekünk, hogy lesz ennél nagyobb lapka a Teslába, de nem GeForce-ba. A GK110 GeForce-ban hit kérdése. A valóságban az NVIDIA nem fog egy ilyen hibát elkövetni elég volt nekik a GF100/110.
A GTX 560 Ti 448 eleve egy limitált sorozat volt. Csak azért született meg, mert volt pár lapka, amit meg kellett venni, de nem volt eladható GTX 570-be és 580-ba. Ezzel vagy kiadják egy termékbe és eladják, vagy kidobják őket a kukába, világos, hogy ha már benne áll a pénz, akkor legalább egy részét hozzák vissza. Emellett érdekes infó, ami nincs megerősítve, de állítólag 40 nm-en a GF100/GF110 kihozatala sosem lépte át a 30%-ot. Nyilván nem véletlenül ragaszkodott az NV a jó lapkánkénti fizetéshez, miközben a 40 nm 2011-ben már elég olcsó volt, és jó kihozatal mellett olcsóbb lett volna a waferenkénti fizetés. A 28 nm teljesen más. Más a fizetési modell, és más a gyártástechnológia. Minden egyes tranyó számít, amit meg lehet spórolni a tervezéssel. Mint mondtam lehet a GK104-nél nagyobb lapkát csinálni, de pont a GK110-et kiadni nagy hiba, mert abban rengeteg felesleges dolog van. Emellett a Teslába nagyjából 600 MHz-es lesz a termék. GeForce-ban 300 wattban tudnának hozni egy 750 MHz-et. Ezzel kb. gyorsabb lenne a GK104-nél úgy 25-30%-kal. Egyszerűen nem éri meg, nincs egy üzleti szempont sem a kiadás mellett, ellenben a kiadás elleni szempontokat lehetne sorolni.
-
Loha
veterán
A casual gamerek nagy része, már konzolon játszik, az egész konzolosdi rájuk épít, a 100$ alatti VGA-k meg teljesen alkalmatlanok játékra. Az új irodai gépek jelentős része, nem a legújabb architektúrára épül, sőt szerintem még mindig sok C2D-s gépet adnak el, ezeknél még bőven van értelme egy GT 520 -nak pl.
ARMos Windowson nem fognak futni az x86-os progik, tehát a Windowsra írt programok legnagyobb része nem fog futni, ezzel pedig a játékos és az irodai PC-k piacán teljesen esélytelen a Maxwell, ha nincs mellette x86-os proci.
Ivy Bridge csak egy kötelező kör, nem akarnak lemaradni az AMD-től ilyen téren, főleg a laptopok területén, az a Intel látott volna ebben fantáziát, akkor nem az AMD után kullogna, hanem már sokkal előbb rágyúrtak volna az IGP-re is.
NV-nek meg nincs más választása, proci híján mindig másra kell támaszkodnia, amit egyszer már nagyon megszívott (Intel-FSB), gondolom tanultak belőle, vmint ha ki akarják túrni az Intelt a HPC fronton, ahhoz egy proci sem árt.Ez nem hit kérdése, voltak kémfotók meg kiszivárgott adatok, amiből egyértelműen látszott, hogy nem a GK104-et tervezték az egy GPU-s Geforceok csúcsának, és erre lehet következtetni korábbi NV-s nyilatkozatokból is. AMD-s szemszögből biztos nem is lenne értelme, de ha az elsőség a cél, akkor az NV-nél nagyon sok mindenre képesek, mert tudják, hogy ha a termék anyagilag nem is sikeres, óriási marketing értéke van az elsőségnek, erre volt már példa több is.
Nincs értelme egy ekkora lapkát lehozni erre a piacra, mert tranzisztorok milliárdjai állnának benne kihasználatlanul
Ott van pl. a 560 TI 448 ugyan akkora lapkával, mint a GTX580 vagy kb. mint a GK110, jelentős része letiltva, és akkor lehozzák a középkategória tetejére, tehát még nem is presztízstermék, hanem ténylegesen keresnek rajta, ha nem lenne értelme nem csinálnák. -
Abu85
HÁZIGAZDA
Nem csak hardcore gamer van, hanem casual is. Sőt, a casual többet ér, mert sokkal többen vannak. Irodába senki sem vesz már dGPU-t.
Az architektúra csak egy eleme a rendszernek. Win RT lesz ARM-ra. Nyilván mire itt a Maxwell már lesz új Win is, vagy ha nem is új, akkor egy jobban kigyúrt. Nem marad a Win RT örökké a kezdeti szinten. Az biztos, hogy az NVIDIA-nak nincs x86/AMD64 licence, vagyis csak olyan cGPU-t képes készíteni, ami az ARM-hoz köthető architekturálisan, erre van licencük.
Az APU-t nagyon rosszul látod. A skálázhatóság hívta életre a koncepciót, mert semmi esélyed skálázni a homogén többmagos rendszert, csak ha kiheréled az egy szálú teljesítményt. Ha csak az AMD érdeke lenne ez az egész, akkor az Intel nem állt volna elő az Ivy Bridge-dzsel és az NV sem tervezne APU-t. A valóság az, hogy a heterogén többmagos rendszerekben az összes cég hisz, és nem csak az AMD. Hozzájuk csak azért kötik az APU-kat, mert az AMD látta meg először a skálázhatóság problémáját, és elsőként is reagáltak rá.
Hihetsz elméletekben, hogy az NV eredetileg így meg úgy tervezte, de ebben az esetben megvalósíthatatlan dolgokban hiszel. Nincs értelme egy ekkora lapkát lehozni erre a piacra, mert tranzisztorok milliárdjai állnának benne kihasználatlanul a gyártás pedig vinné a pénzt. Jobban megéri tervezni ide egy másik lapkát, mert a GK110 alkalmatlan a versenyre. Ezt a HPC-re tervezték és ennyi. Többet nem is akarnak, mert a mérnökök látják, hogy az extrák a GeForce piacán korlátokat is jelentenek.
-
Loha
veterán
Ez a piac amiről beszélsz ez nem a gamer piac, ezek az irodai gépek, ahova csak azért kellett dGPU mert az IGP-k szánalmasak voltak. A gamereknek nem csak 100$-ja van VGA.
NV APU-ja ARM procival kezdetben nem sok vizet fog zavarni a windosos PC-ken az biztos
, és szerintem lesz belőle szokásos játékos dGPU is ugyan úgy.Az egész APU-s platformosítás, az AMD-nek ideális ezért is nyomatják, mivel a procijaik önmagukban nem tudnak versenyezni az Intel megoldásaival, az NV-nek meg nincs x86-os procija és nem is lesz, viszont GPU terén sokkal előrébb járnak az Intelnél, ezért egy gyenge proci + jó GPU páros már sokkal versenyképesebb mint a gyenge procijuk önmagában, tehát az AMD-nél létkérdés, hogy az erős GPU-juk segítségével adják el a többi terméküket is. Az Intelnek és az NV-nek ennyire nem fontos ez, csak fel kell venniük a kesztyűt, de azt látni kell, hogy az APU-t nem a piaci igények hívták életre elsősorban, hanem az AMD.
#10153
Most hogy mikorra van kitűzve a GK110 tömeggyártása, abból nem következik az, hogy eredetileg is ez volt a terv, ez az új infók birtokában lett így alakítva.
-
tombar
senior tag
elvileg a dgpu-k, ahogy Abu is írta, a platformositás részei lesznek, gondolom prostprocess meg hasonlók. én nagyon remélem h ha nem gyártóspecifikus gépet rak össze az ember, akkor is megmarad a dgpu-k előnye, illetve csak speckó esetekben lesz hátrány a gyártómixelés

ha tényleg meg akarják tartani a dgpuk iránti keresletet, akkor valszeg az apuk igpje nem fog betörni a középkategóriába. -
válasz
tombar
#10151
üzenetére
A dGPU-k szerintem egészen biztosan megmaradnak, csak jelentősen leszűkül a számuk.
Gondolom, a középkategóriás GPU-k belekerülnek majd a prociba, vagy annak szerves részévé válnak, kicsit később a felső kategória alja is. Marad az erős felső és csúcs kategória. Egy ilyen fórumon valószínűleg a tagok jelentős részének ugyanúgy lesz dVGA-ja, viszont az irodai gépekből, notikból, és a boltban kapható normális árú játékos PC-kből valószínűleg teljesen ki fog kopni a dVGA.
Az egy ilyen extra felszerelés lesz, amit a vérbeli játékosok beletsznek, ha telik rá. Gondolom a sokkal kisebb eldaott példányszám miatt jó drágák lesznek. -
Abu85
HÁZIGAZDA
Először is kezdjük ott, hogy a GK110 tömeggyártása 2012Q4-ben kezdődik meg. Addig a kihozatalról semmit sem tudunk. A másik az, hogy két darab GK104-nél semmi esetre sem gyorsabb, ellenben a gyártása drágább lenne. Lehet csinálni a GK104-nél nagyobb GPU-val GeForce-ot, de biztos nem a GK110 lesz az, mert annak semmi értelme.
-
Abu85
HÁZIGAZDA
Teljesen mindegy, hogy mire veszi, ha a piac 70%-ának max. 100 dollárja van egy VGA-ra. Ez a réteg adja a piac legnagyobb nyereségét. Nyilvánvaló, hogy egy-egy olcsó kártya eladásán kevesebb a haszon, mint egy-egy csúcskártyáén, de az eladási volumen különbsége óriási, és ha ezt beleszámolod, akkor összességében az olcsó termékekből lesz több nyereség. Ahogy esik ki ez a nagy volumen úgy fog nőni generációról-generációra a VGA-k árazása, mert az üzletágon belül a kicsikből kieső nyereséget a még eladható termékeken kell kompenzálni. Ez persze oda vezet, hogy még kevesebb VGA kerül eladásra, ami további áremelkedést is hoz. Természetesen az IGP ki tudja váltani ezt a részt, de az NV-nek pont az a problémája, hogy nincs IGP-je, amivel a piac nagy részébe nevezni tudnának. Ez majd megváltozik, mert tervezik a saját processzorukat, és arra építik a Maxwellt.
Ennek az egész platformosításnak lesz majd egy jó hozománya is, ami a VGA-k árában meg fog látszani. A VGA-piac továbbra is alacsony hasznot termel majd, de azzal, hogy platformként tekintenek a cégek a fejlesztésekre előtérbe kerül a nagy haszonnal kecsegtető APU eladása is. Az aktuális tervek is erről szólnak. Az NV célja, hogy GeForce mellé NV APU-t vegyél, az AMD-é pedig, hogy Radeon mellé AMD APU-t. Ezt direkt termékkapcsolással nem tehetik meg, mert az törvénytelen, illetve az alapvetően nem baj, ha Intel holmi mellé is veszel VGA-t. Ellenben a cél egyértelműen a platform erősítése, éppen ezért ha platformot raksz össze NV APU+GeForce vagy AMD APU+Radeon, akkor extrákat kapsz. Például olyat, hogy AMD mellett teljes lesz a HSA, míg GeForce mellett a PTX funkcionalítás. Az NV-nek még ott a PhysX is. Egyszerűen nem tart semeddig platformhoz kötni. Csak akkor lesz elérhető, ha teljesen NV-s a rendszered. Ugyanezt már láthatod az AMD-nél, ahol teljesen AMD-s géppel más vezérlőpultot kapsz. Ugyan itt még csak a Steady Video az extra és a CPU paraméterezése, de ezek a jövőben sokkal szigorúbbak lesznek. Ezzel a VGA-k ára csökkenhet, mert teljes funkcionalításhoz úgyis platform kell, vagyis nem baj, ha alacsony rajtuk a nyeres, a platformon már összességében magas lesz. -
tombar
senior tag
ha jól tudom közép és felső kategória az eladások (kb.) 30%át teszik ki és a jó részét akis nyomi alsókatos kártyák. azt elhiszem h kínában nagy lehet a vásárlói piac, de gondolom ott sem a felsőházat veszi mindenki. ezért jó a gk, mert franyán skálázható. másrészt ha a világtrend az integrálás felé viszi a piacot, akkor egy idő után a kínai piac is oda fog fordulni. mondjuk ehhez kellene tudni a potenciális piac erejét. mondjuk jó lenne ha lenne formáló hatása és akkor talán a dgpuknak is komolyabb szerepe lenne az apuk mellet.
-
Abu85
HÁZIGAZDA
Maximum, azok utalnak rá, akik nem értik, hogy abban a rendszerben legalább 1,5-2 milliárd tranzisztor felesleges játékra. Totál értelmetlen kiadni egy olyan GPU-t, amiben dedikált DP feldolgozók vannak. Egyszerűen rengeteg helyet foglal, és haszna nulla. Van még benne egy elég komoly ütemező is, aminek haszna a HPC-piacon kívül teljesen lényegtelen. Szóval ilyen formában ezt GeForce-ba nem fogják kiadni.
Másra nem éri meg gyúrni. A Tegra a legfontosabb most a cég életében, mert az az egyetlen konzumer termékvonaluk, mely értékes és növekvő piacra nevez. A Fermi azért volt gáz, mert nem volt skálázható. Volt egy ideális szint, amit a GF104 és 114 képviselt. Ez nagyjából jól működött, de felette túl nagy volt, alatta pedig túl lassú. Ez skálázhatósági probléma. Ezért is változtatták meg az ütemezést a Keplerben, hogy ezt a gondot áthidalják.
-
Loha
veterán
válasz
tombar
#10146
üzenetére
Azért az figyelembe kellene ám venni, hogy amikor kijön az adat, hogy kevesebb dGPU fogyott, akkor a csökkenés nagy részéért a játékra teljesen alkalmatlan, alsó kat. kártyák a felelősek, egyértelmű, hogy miért, de a játékra szánt PC-k piaca növekszik.
Kínában elsődleges játékplatform a PC, és jelentős növekedés várható az elkövetkező jó pár évben, tehát a ténylegesen játékra szánt dGPU-k piaca nem szűkül. A GK110-et csak azért nem hozták most le, mert bőven elég volt a GK104.Amit írtál jövőképet, attól nem kell tartanod, a felhős játék egyelőre csak arról szól, hogy egy olyan szegmensbe is elvigyék a legújabb játékokat, ahol eddig technikai korlátok miatt nem volt megoldható, és az NV ebben csak meglátta a piaci rést, ha már hardvere úgyis megvan hozzá.
-
Abu85
HÁZIGAZDA
A GK110-et eléggé speciálisan a CUDA-ra szabták. Erre volt most igény. Voltak a Fermiben problémák, amiket orvosolni kellett. Ezzel van ahol jobb a GK110 és van ahol jobb marad a GCN. Ez most tényleg csak attól függ, hogy mi a jövőben a terv. Az NV még nem épít annyira az integrációra, mert a szoftveres oldal még nem áll készen. Az AMD már nagyon épít erre az architektúrával, mert náluk a szoftveres alapok 2013-ra meglesznek. Természetesen az NVIDIA is arra készül, hogy csak APU-kat csinál a HPC szerverekbe, de ehhez még idő kell, és nem mellesleg a Porject Denver elkészülése. Az látszik, hogy különböző ARM-os tesztplatformokkal már elkezdték építeni a szoftveres alapokat. Tehát ezen dolgoznak egy ideje. A Tegrából összehegesztett hardver itt nem annyira jó, de arra pont elég, hogy az alapokat lerakják.
(#10144) fatallerror: Persze, hogy gyúrnak a Maxwellre. Ez a jövőjük. Az lenne a kockázatos, ha nem erre gyúrnának, mert ha nem lesz jó a fejlesztés, akkor elvesztették a háborút. Be kell törni a piacra egy saját platformmal. Ez mindennél fontosabb.
-
tombar
senior tag
azért a dgpu piac meglehetősen szűkül, szal a gef, már csak másodlagos. átültehették volna, de mit nyernek vele? max kisebb a fogyasztás, de a skálázhatósága ugyan olyan nehézkes lenne sajnos :S a gk az egyszerű, jól skálázható felépítése miatt kell az nVnek. muszáj a tegrás cuccokat nyomatni, azt veszi a birka nép. szerintem ha lenne komoly piaca a dgpu kártyáknak, akkor akkor simán megoldható lenne a gk 110 felsőházas szereplése. most sajnos az a jövőkép h egy 10 collos cuccon kell játszanod (vagy marha drága nagy kijelzős tévén), amit majd egy másik gép kiszámol neked valahol jó messze tőled. :S
-
Loha
veterán
GK110-et nyilván most már nem fogják lehozni a 6-os szériában, de minden jel arra utalt, hogy ez volt eredetileg a terv, másrészt 7-es szériában még simán esélyes. Az egész attól függ, hogy az AMD mit hoz össze legközelebb, és hogyan alakul a kihozatal.
Én nem hiszem, hogy csak azért lett ilyen a GK104, mert a Tegrára gyúrtak, szerintem azért is lett ilyen, mert jelenleg ez optimális egy játékos kártyába. Igazából, ha a Fermit átültetik 28nm-re az is versenyképes játékos kártya lett volna, csak nem optimális.
-
Abu85
HÁZIGAZDA
A GK110-et nem fogják lehozni GeForce-ba. Csak a legdrágább Tesla és Quadro épül majd rá úgy 6000-8000 dollárért.
Természetes, hogy az NVIDIA jövőképe nem változott meg, csak jelenleg fontosabb a Tegra felfuttatása mert ez a cég jövője a konzumer vonalon. Majd ha eljut az NV a Maxwellig, ami a saját APU-juk, akkor újra előtérbe kerül az erős compute, és a GPU-k helyett a platformra helyeződik a hangsúly is. A Maxwell viszont 2014-ben jön. Addig a Tegra az első, amibe fejleszteni kellett egy tranyókímélő, jól skálázható, alacsony fogyasztású rendszert (a mostani GeForce 7 alapokra épülő ULV GeForce már nem versenyképes, és a jövőben ez rosszabb lenne). Ezek az igények azzal jártak, hogy az NVIDIA beáldozta a komplex kódok gyors futtatásának lehetőségét, de ennek a Tegra esetében nincs túl nagy jelentősége. Persze nem jó, hogy a GK104-et számos komplex OpenCL programban elintézi a GF110, illetve messze lehagyja a compute irányt vett Radeon, de bevállalható, ha ez kell a Tegra sikeréhez. Konzumer szinten a Tegránál most semmi sem fontosabb. -
Löncsi
őstag
Performance Boost – Increases performance for GeForce 400 Series and 500 Series GPUs in several PC games vs. GeForce 296.10 WHQL-certified drivers. Results will vary depending on your GPU and system configuration:
-
Abu85
HÁZIGAZDA
válasz
fatallerror
#10135
üzenetére
Múltkor mondták, hogy 2012Q3 végére mindenki elégedett lesz. Dolgoznak ők úgy ahogy tudnak.
-
fatallerror
addikt
egyébként mik most a legfrissebb hírek a tsmc-ről? lesz kapacitásuk ahogy ígérték? nincs helyzetjelentés?
-
Abu85
HÁZIGAZDA
Mindenki első akar lenni, de vannak helyzetek, amikor az elsőségnél fontosabb szempontok is vannak. Néha érdemes beáldozni egy jelentéktelenebb csatát, hogy megnyerj egy nagyobbat. Most, hogy a piac már nem olyan, mint régen, ez hatványozottan igaz.
Nem hiszem, hogy az NV annyira mérlegelt itt a VGA-piacra. Nekik a Fermivel volt egy jövőképük. Erős compute irány, a bonyolult számításokra erős shared memory teljesítmény és legyen gyors context switch. Ebből a Keplerben tulajdonképpen nem sok maradt. De nem azért, mert megváltozott az NV véleménye a jövővel kapcsolatban. Továbbra is tartják az álláspontjukat, mert hosszútávon ez az ideális fejlődés, de el kellett gondolkodni azon, hogy a Tegrában a GeForce 7 foltozott alapjai most sem megfelelőek. Kell egy új rendszer, amire lehet építeni, de se a Fermi, se a G80 nem alkalmas ide. A megoldás a Kepler, amit most látsz. Azt jól le lehet skálázni, és előtérbe került a pJ/FLOP érték növelése is. Persze ehhez kellettek áldozatok, mint a shared memory és a context switch sebességének erős megkurtítása, de egyelőre fontosabb a Tegra. Abba kell egy jól működő alap, aztán az egész továbbfejleszthető minden irányba. Ha a skálázhatóságot nézzük, akkor a Kepler jelen kiépítésében jobban skálázható lefelé, mint az AMD GCN architektúrája. A másik oldalt az AMD rendszere sokkal okosabb, és sokkal jobban kezeli a bonyolult számításokat, amelyik utat a Fermi és a megboldogult Larrabee indított el. Volt olyan blog, ahol a GCN-re "Larrabee done right" volt írva. Cinikus beszólás, de van benne igazság. Cserébe persze, amikor a lefelé skálázásra kerül a sor, akkor jönnek a problémák a tranyóigény szempontjából. Persze meg lehet tartani a VLIWx-et, ami szintén egy jól skálázható rendszer, csak annál a Kepler már jobb.
-
úgy látom, még mindig nem ment át ez a stratégiás dolog. piaci helyzet sokat számít, de nem üt mindent. ugyanúgy, ahogy a dolgozó sem megy el bármilyen állásba dolgozni, egy cég sem tud mindent feladni az értékrendjéből. ez nem pillanatnyi büszkeség vagy farokméregetés kérdése - az nVidiánál az egyik alapvetés, hogy elsők akarnak lenni. míg pl. az AMD valóban csak akkor akar első lenni, ha éppen megéri.
nem inkább arról van szó a Keplernél, hogy az nVidia rájött, hogy one size doesn't fit all?
-
Abu85
HÁZIGAZDA
válasz
fatallerror
#10125
üzenetére
Korlátozza a képkockák számát a monitor frissítéséhez. Természetes, hogy ha nagyobb a sebesség, mint a frissítés, akkor esik az fps, de ettől a valóban megjelenített képkockák száma nem változik. A v-sync lényege, viszont, hogy tartsa a szinkront, és erre jó. Képtörés kizárva. Persze itt tényleg v-syncet kell használni, mert az ilyen világmegváltónak beharangozott adaptív v-synccel újra lesz képtörés, vagyis pont arra nem jó, amire elvileg jónak kellene lennie.
(#10129) Löncsi: Egy objektum és kész. Ennyi a titka. Azon dolgoznak a shaderek, mint az állat. Nem tudom, hogy melyik Furmarkot nézed. Lehet, hogy a legújabbra nincs még az NVIDIA-nak fojtása. Szvsz nem használd, mert a te kártyád nem rendelkezik túlterhelés elleni védelemmel. Tönkreteheti a Furmark.
-
Löncsi
őstag
Abu tudnál nekem a Furmark programról beszélni, hogy mitől agresszív a GPU terhelés ennél a programnál?
Egy intenzívebb játék/alkalmazásnál a mostani kártyámmal olyan 50-55% a ventifordulat, a hőmérséklet pedig 70 fok alatt van, addig a Furmark esetén 3 perc után 70% fölé nyomja a ventit és 80 fokon izzik a kártya.
HD4850 + Accelero hűtés esetén ekkora különbséget nem mértem ki, kíváncsivá tett.
-
Löncsi
őstag
válasz
fatallerror
#10125
üzenetére
Erőforrást nem igényel, csak alacsonyabb szintre állítja az FPS-t a szinkron miatt.
-
KillerKollar
őstag
Ha jól vettem ki akkor ha sokáig terhelés alatt van a kártya akkor csökken a teljesítmény?Ez ugye akkor nem igaz...?[link] - Ezt már olvastam,de ez driver alapú hiba és Vsync kikapcsolásával orvosolható.Remélem nem lesz ilyesfajta probléma mivel holnap érkezik meg a GTX 690-esem...
-
Abu85
HÁZIGAZDA
válasz
fatallerror
#10123
üzenetére
Azt nem mondanám, hogy baromság. Megvan a maga funkciója ... ennyi.

-
Abu85
HÁZIGAZDA
Nem tudom. Az NV még nem mondott semmit. Biztos lesz rá reakció. Az tuti, hogy az EVGA csinált egy visszahívást, de a hibát nem mondták. Most erre lehet fudot építeni, de lehet, hogy a probléma tényleg érint mindent. Az valóban furcsa volt, hogy az EVGA ugyanazt a NYÁK-ot használja mint a többiek, és beszámolnak egy specifikus hibáról, de nem elképzelhetetlen, hogy rosszul paraméterezték. Majd kiderül.
Szerk.: Na akkor ennyi. Valszeg kellett a kattintás az oldalnak.

-
Abu85
HÁZIGAZDA
Persze. A fejlesztési költség egységes, csak ha a kicsik nem tudják ezt kitermelni, mint eddig, akkor a nagyoknak kell. Ezzel nyilván az árazás jelentősen nő. Ez látható is.
A presztízsnél már többet számít a tervezet. 2011-ben szenvedett a VGA-piac egy nagy pofont. -30%-os visszaesést korábban nem kapott a szegmens. Ezzel a stratégiák is változnak.
A Ferminek a legnagyobb problémája nem a túl-compute-osítás volt, hanem a gyenge skálázhatóság lefelé. A GF1x4 volt ahol az architektúra jól működött. Felette és alatta már jöttek a gondok. Most persze a felette annyira nem téma, mert az a GF100/110 volt, amit más igények szerint terveztek, de alatta nyilván nem volt jó a helyzet. Erre a Kepler jó válasz volt. A skálázhatóság jónak tűnik, a compute esetében pedig a shared memory és a context switch teljesítménye ki lett herélve, ami nyilvánvalóan a tranzisztortakarékosságot célozta meg. Szuper lesz a Tegrába. Ez már az előre tervezés. Maga a Kepler abból a szempontból eléggé logikátlan, hogy elviszi az NV a compute irányba megfeleltetve a komplex számításoknak a rendszert "mert az a jövő", majd hirtelen váltással vissza minden, mert "mégsem ez a jövő?" ... valójában a jövőről alkotott kép nem változott a Keplerrel, csak időközben fontosabbak lettek a Tegra igényei.
(#10119) fatallerror: Számunkra ez lényegtelen. Teljesítmény V-Sync nélkül szabad csak mérni.
-
fatallerror
addikt
válasz
KillerKollar
#10117
üzenetére
én eleve nem olvasom az ájponos teszteket mert nekem magyar viszonylatban csak a ph-sok érdemlegesek

szerintem h 7970 v 680 full mind, kb ugyanolyan gyorsak....drivereken sok múlhat, pl mikroszaggatást v mit fedeztek fel a keplernél amit a júniusi driver javít, nem tudom már hol olvastam szóval vannak szarságok és pont így jöhetett ki a ph-nak is más eredmény a későbbi tesztnél
szerk itt olvastam: [link]
-
rendben, akkor különböztessünk meg "mesterséges" és "felesleges" erőforrás-zabálókat
a lényeg ugyanaz - alig vagy egyáltalán nem látható vizuális javulásokért simán ki lehet adni +100e FT-ot, ha ugyanazt az fps-t akarod.a fejlesztés költségeit ne keverjük ide, mert az akkor is annyi, ha 350mm2-es GPU-t csinálunk. továbbra is fenntartom, hogy a 600mm2-es szörnyeteget max. 250 USD felárral lehetne adni a GTX680-hoz képest.
A VGA-piac már nem diktál
szerintem alábecsülöd a vízió fontosságát a sikeres cégek esetében. ha az nVidiának nem lenne hiperfontos az első hely, akkor kiadtak volna egy GTX295-öt vagy egy GTX590-et? szerintem bottom line terén mindkettő olyan negatív volt, mint a szél, mégis kitolták őket. csak azért, hogy megmutassák, hogy ők vannak a topon.a Cypress még a VLIW5-ös (5870)
és bizony anno ment a nagy frankómondás, hogy az nVidia "túlcompute-osította" a Fermit, és az Evergreen a játékokra ideális architektúra. itt most fordítva vagyunk - még az is ugyanaz, hogy shader-erőben kissé feleslegesen sok van mind a Cypress-ben, mind a Keplerben, a backend meg kissé sovány. oh well. -
KillerKollar
őstag
válasz
fatallerror
#10116
üzenetére
Nem hinném hogy ez reális képet adna a kártyáról de majd meglátjuk ha kijött,de szerintem kicsi az esélyük hogy befogják a 690-et tekintve hogy a 680 kevesebbet fogyaszt és a legtöbb esetben gyorsabb mint a 7970.(Tudom PH teszten egy hajszállal elverte a 7970 a 680-at de azért a külföldi teszteken nem ez tükröződik de ennek az okát már megvitattuk egyszer itt,még a 670-es tesztnél,mert abban volt ez az eredmény,a 680-as tesztben még az volt a gyorsabb PH-n is).
-
fatallerror
addikt
válasz
KillerKollar
#10115
üzenetére
"szimulálták"
-
fatallerror
addikt
válasz
Löncsi
#10113
üzenetére
haha ismerős a szitu, én is most fogok végezni a sulival aztán az utsó vizsgaidőszak örömének lecsengése után keresek én is melót és én is ivy bridge platformot szeretnék : DD
tulképpen pont addigra lesz fölös pénzem gépre mire jönnek a nagy címek év végén (kivéve most max payne 3 bár elfog futni vhogyan xd ) és addigra remélem kijön az összes kepler h lehessen válogatni ill vmi árverseny is lesz már addigra
a mostani gépem árából kb 1 ssd jön csak ki xDD
ill még bízom ebben a nyereményjátékban h meglesz a ph-s egérpad és aláíratom abu-val és eladom az aprón 200 ezerért xDDD -
Löncsi
őstag
válasz
fatallerror
#10112
üzenetére
Én lassan beszabadulok az aktív munkaerő piacra, nálam elég erős felszerelkezés lesz.. kb mindenből.
![;]](//cdn.rios.hu/dl/s/v1.gif)
Bár az asztali PC-hez nem nyúlok egy ideig, mert elég amire kell (bár vinyó + új ház kellene azért), de ha jön az új Unreal motor akkor egy kisfogyasztású Kepler + Intel proci csere várható.

Ami még játszik egy Alienware X51 szerű kisgép, csak nem éri meg az árát sajna, kevés benne a kakaó. -
fatallerror
addikt
válasz
Löncsi
#10109
üzenetére
100 dollár az pont 30 ezer nálunk :] nekem mindig drága kártyám volt (ezelőtt 6800 gt volt) de nem szívtam meg ezt mivel a konzolportoknak elég és ha épeszűn vásárolok következőnek sem fogok 50-60 ezernél többet kiadni érte

az a baj h ha van ennyi pénzem akkor az táplálékkiegészítőkre megy el v koncertre stb, nincs prioritásban a pc bármennyire is szeretem

nagyon sokan így vannak vele, én is lelettem már csórózva itt h ilyen gépem van pedig a valós ok a fent említett, sokaknak nem ér 400 ezret 1 pc mégha telne is rá -
Löncsi
őstag
válasz
fatallerror
#10108
üzenetére
Inkább 20 körül... én sose vettem alsókategóriás kártyát, inkább 200 dollárban utaztam.. de hamarosan lehet emelkedik a tét.
![;]](//cdn.rios.hu/dl/s/v1.gif)
Amúgy.. GTX690 Ip*n teszt:
[link]Crysis 2-ben DX11 alatt megint csak nem működik a CrossFire, inkább árt, mint használ
ROFL, 1 éve nem tudták ezt megírni ? -
Löncsi
őstag
milliók vesznek 100 dollár alattit
Gondolom ezeket nem célzott szándékkal veszik, hanem valami egybegép mellé kapod "ajándékba". De ha a piac valóban ebből él, akkor nyugodtan meg is szűnhet ha nem tudnak értelmesebb chipekből megélni, ott valamit nagyon rosszul csinálnak akkor. :p
-
Abu85
HÁZIGAZDA
A stacked memória lehet több is. Mögötte pedig ott a rendszermemória.
A VGA nem olyan rendszer, aminek korlátlan hozzáférése van az adatokhoz. Sőt brutálisan korlátozott, mert a driver mögé van rejtve a memória. Mindig szüksége van a processzorra. Ezen lehet okosítani, de teljes hozzáférést még platform szintjén sem lehet biztosítani úgy, hogy a processzort kizárd a munkából.
[link] - érdemes elolvasni ezt. Sok dologra fényt derít, hogy hol vannak a limitek.Az API jelenti a mai tempóban a legnagyobb problémát. Köze van mindenhez.
Továbbra sem fogod fel, hogy miből él a VGA-piac. Nem abból, hogy pár ember vesz egy-két 500 dolláros VGA-t, hanem abból, hogy milliók vesznek 100 dollár alattit. Ha ez nem létezik, akkor nincs esély visszahozni a fejlesztésbe ölt pénzeket. Ezért láthatsz a cégeknél olyan radikális változásokat, mint manapság. Lásd az NV-nél az ARM processzormag gyors tervezése, vagy az AMD-nél a dGPU hozzákötése a rendszerhez.
Én értem, hogy legózós szemmel nagyon nehéz elfogadni azt az irányt, ami a cégek elképzeltek, de ezen nem tudunk változtatni. -
Loha
veterán
Az a ~64MB stacked memória nyilván megváltás lesz, ezt is csak kínjukban találták ki.
PCIe késleltetésére megoldás lehet az is, ha a VGA-nak nem kell mindig a procira várnia, hanem a proci szépen átküld egy "nagy csomag" számolni valót a VGA-nak, 4GB-ban lesz hely, aztán az eldolgozgat rajta. Dynamic Parallelism pont vmi ilyesmi próbálkozás, pont te írtad: A Dynamic Parallelism a GPU kihasználtságát képes növelni azzal, hogy eliminálja a központi és grafikus processzor közötti kommunikációt.API kérdésnek nem tudom mi köze van az APU-k és a dGPU-k közti teljesítménybeli szakadékhoz, ha elhagynák az API-kat, mindkettő gyorsulna, nem csak az APU-k, de erre sem látok sok esélyt...
Az APU-k teljesítményével komoly gond van, hiába tudnák azt amit egy konzol, az is ma már kevés lenne, 5 évvel ezelőtt lett volna karaj és akkor el is jutottunk oda, hogy kb. mennyi lemaradásban vannak teljesítményben. -
Abu85
HÁZIGAZDA
Az elemzők gazdasági szakemberek. Nem látják a technikai oldalon keletkező problémákat. Még mindig úgy gondolnak az IGP-kre, hogy grafikára van, pedig nem azért költöztek be a processzorokba, hogy grafikát számítsanak.
A memória-sávszélességre ott a 2.5D stacked memória. Ilyen lesz a Haswellen és a Kaverin.
Továbbra sem érted meg, hogy nem a lapkák teljesítményével van a probléma, hanem a szoftveres oldalon korlátozó az API. Még az Intel Sandy Bridge-be épített IGP-je is gyorsabb bármelyik konzolos rendszernél. A gond az, hogy itt az API-n keresztül dolgoznak vele.
Az IGP-nek a processzorban gyorsabb összeköttetése van. De ami fontos, hogy a késleltetés a CPU és a VGA között 300-400 ns, míg az IGP és a CPU között 2-6 ns.Ez amúgy nem úgy lesz, hogy holnapra csak úgy eltűnnek a dGPU-k. Egy hosszú folyamat ez. Most még csak azt látjuk, hogy statisztikailag esett 2011-ben a VGA-piac 30%-ot. Ez már egy kezdete ennek az átalakulásnak. Ez évről-évre hasonló lesz bár a mértéke változó lehet. 2012-ben szerintem nem lesz ilyen drasztikus -30%, de továbbra is visszaesés várható. Nagyjából -5-10%. 2014-ben már megkezdődnek az erős platformtervek, vagyis a dGPU már nem egy extra gyorsító lesz, a processzorok mellé, hanem a platform konkrét kiegészítője. Ez majd egy jó változás lesz a piacnak anyagilag, mert a Radeonok összes szolgáltatását AMD APU-val, míg a GeForce-okét NVIDIA APU-val tudod igénybe venni. Ezzel az AMD és az NV a saját rendszereihez köti majd a fejlesztéseket, vagyis ha minden funkciót meg akarsz kapni, akkor gyártón belül kell, hogy maradj. Persze biztos, hogy működni fog Intel proci mellett is, csak nem lesznek elérhetők az extrák. Például az NVIDIA az ARM felé tart. Világos, hogy az grafikus processzor oldaláról is az ARM-hoz szabják a fejlesztéseket. A Radeon az sötét ló, mert a GCN architektúrát az AMD az AMD64-hez szabta, amit az Intel támogat, de szükség van itt a HSA kezelésére is, ahova nem hiszem, hogy az Intel beállna. Persze az elméleti lehetőség megvan.
2016 környékén majd eljutunk oda, hogy a VGA-k jelentőségi szintje igen gyér. Gyakorlatilag a hangkártyák szintjén fennmaradt, de ez kevés. 2017-ben pedig lehet hozni döntéseket. Ha ezek az igények megfelelőek, akkor lehet tovább fejleszteni, ha nem, akkor el lehet dobni az üzletágat. -
Loha
veterán
Még JPR-nél is írogattak olyasmit, hogy: According to Peddie, Nvidia is currently the leader in discrete GPUs and feels no competition or attack from integrated parts - although there is a "general misconception" in the press that integrated graphics are somehow going to kill dGPUs. "The facts speak for themselves. Those who are concerned about graphics performance will buy discrete GPU systems. As good as they are, embedded graphics processors will never be a replacement for a powerful discrete GPU"
Az tudom csak mondani továbbra is, hogy sok előnye lehet egy APU-nak, de a nagyon korlátozott lapkaméret, és memória sávszélesség problémáján nem látszik, hogy hogyan tudnának túllépni. Ivy-ban mekkora lehet az IGP rész, ~60mm? Összesen a procival együtt 1,2 milliárd tranyó, memória sávszélesség ~25GB/s, és ezeken osztozik a procival. Mit tud egy GTX 680? ~300mm -en 3.54 milliárd tranyó és 192GB/s -es mem sávszél.
PCIe 3.0 -nak kb. akkora az elméleti a sávszélessége, mint ami az IGP-nek juthat a proci mellett (16 GB/s)
dGPU: ~5x akkora méret, ~5x annyi tranzisztor, és legalább 8-10x akkora memória sávszélesség. -
Abu85
HÁZIGAZDA
Ilyen árak mellett nem gyárt senki sem veszteséggel, de itt arról is szó van, hogy a fejlesztések költségesek. Ezeket a költségeket ki kell termelni. Jellemzően ezt a VGA-piac a 100 dollár alatti szintből termelte. Nem ezeken volt a legtöbb haszon egy-egy eladott terméket nézve, de annyival több olcsó VGA megy el a drágábbak mellett, hogy összességében a legtöbb nyereség innen származik. Ezért veszélyes az IGP. Mindenki mondja, hogy nem veszélyes, mert nem lesz egy IGP olyan gyors, mint egy csúcs-VGA. Nem is lesz, de arra bőven elég, hogy kiüsse az igényt a VGA-piac 75%-ára, vagyis a 100 dollár alatti rétegre ... és ez jelenti a nagy problémát. Attól senki sem fél, még a gyártók közül sem, hogy a következő kör IGP-i befogják a 680-at, vagy a 7970-et, attól rettegnek, hogy a 100 dollár alatti szint teljesítményét masszívan hozzák. És a Trinity hozza is. Itt előjön a fejlesztés megkérdőjelezése is. Lásd most is a GT 620-640-es GeForce-okat, melyek a másfél évvel korábbi termékek átnevezései, vagyis sebességben semmivel sem többek. Nyilván van két lehetőség. Törődjünk bele, hogy az IGP-ra nincs gyógymód, vagy fejlesszünk ide egy új terméket, mely gyorsabb lesz ugyan, de kérdés, hogy megéri-e ezt a gyártóknak implementálni. Ha nem, akkor ez a termék kidobott pénz. Ezért áll hozzá most az NV óvatosan ehhez a fejlesztéshez, mert nem látják biztosítottnak, hogy az új IGP-k mellett megveszik a gyártók az új terméküket. Nyilván ilyen esetben az átnevezés egy nagyon gazdaságos szempont, mert anyagilag minimális teher, így az sem baj, ha nincs rá igény. Alig került pénzbe a "fejlesztés". Ezzel persze óhatatlanul erősödik az IGP-k helyzete, mert a másfél éves termékeket nem nehéz verni.
Nyilván bele fog kerülni, amire szükség van. Ezt nem is vitatom, csak felhívtam a figyelmet, hogy ez nem csak a dGPU-król szól, hanem mindenről, ami "gémer".
Biztos fel tudod, csupán megállapítottam, hogy ez egy nehéz helyzet. Én is rajongok a VGA-kért, mert ez érdekelt régebben is a legjobban. De a tényeket nem lehet figyelmen kívül hagyni.
Az APU-kért nem rajongok, de kétségtelen tény, hogy skálázási lehetőség ezeken van. Nem akarnának itt a cégek, és a programozók sem APU-kat, ha a processzor oldaláról való skálázás megoldható lenne. A homogén többmagos processzorok bevezetése is kényszer volt. Az hozta elő a helyzetet, hogy egy régóta működő szabály (Dennard Scaling) kezdett megfenekleni. Ezért nem lett végül GHz verseny, pedig elméletben az lenne a legjobb, ha 30 GHz-es egymagos procikkal nyomulnánk ma. A gyakorlat azonban a fizika törvényeitől függ, így meg kellett lépni a skálázódás érdekében a több processzormagot. Ezzel elvoltunk addig, amíg Dennard Scaling teljesen megfeneklett. Most tartunk ott, hogy a lapka teljesítményét már nem lehet úgy növelni, hogy azt az új gyártástechnológia megoldja. Az egyetlen mód erre a pJ/FLOP arány csökkentése maradt. Erre két mód van. Az egyik a Pollack-féle szabály alkalmazása, ami annyiból áll, hogy egyre több egyszerűbb magot helyezel a lapkába. Ezzel a processzor egy szálon mért teljesítménye nagyon csökken, de a több szálú nagy nő. A másik mód a heterogén többmagos processzorokban rejlik. Ezzel a processzormagok teljesítményéhez nem, vagy csak picit kell hozzányúlni, míg a skálázást az IGP-k biztosítják, melyeket fel kell készíteni az általános számításra. Egyelőre úgy néz ki, hogy minden cég az utóbbi utat választotta. Nyilván érthető, hogy senki sem tartja szerencsésnek az egy szálú teljesítményt Atom szintre butítani.Az új konzol generáció inkább ártani fog a VGA-knak. TESCO-Zsömle jól mondja, hogy a legtöbb probléma az API-ból ered. Itt vesztik a PC-n a programok a legtöbb teljesítményt. Erre már reflektált Richard Huddy (akkor még az AMD-nél dolgozott, most már az Intelnél) [link], és John Carmack is beszélt erről [link]. Ez nagyon beszédes: "A Rage-et a PC-n elsősorban a textúrák frissítése hátráltatja. Konzolon a hardver és a memória direktebb kezelése következtében egyszerűen lehet frissíteni egy adott pixelt, de a PC-n masszív rutinokat kell bevetni, hogy a frissítés végbemenjen, és mindez – Carmack szerint – több mint tízezerszer hosszabb időbe kerül, ami természetesen nagyon lassítja a feldolgozást." Ezek azok, ahol a probléma keletkezik. Erre a megoldás a virtuális ISA bevezetése, vagy az API-k esetében az opció a hardverhez közelibb programozásra. Igazából mindkettőt jó lenne erőltetni, mert több lehetőség nem árt egy problémára.
-
Abu85
HÁZIGAZDA
Aminek van látható eredménye, az nem mesterséges. A Metro Diffuse DoF-ja is ad helyenként különbséget, de már tárgyaltuk, hogy jellemzően a sebességvesztés volt a cél, mert a Ferminek jó volt a shared memory teljesítménye. Erre építették az egész effektet. Ezt sokkal jobban is meg lehet csinálni. Az AMD-nek van egy jóval erőforráskíélőbb Diffuse DoF algoritmusa. Erre azonban nem lehet még rámondani, hogy mesterséges, mert van látható eredménye, még akkor is, ha a beáldozott teljesítmény túl nagynak tűnik.
A HDAO szintén teljesen más kategória. Rengeteg AO algoritmus közül lehet választani. A HDAO-t rendszerint azért választhatja egy fejlesztő, mert rendkívül gyors algoritmus azzal, hogy használja az LDS-t. Ha minden számítást teljes felbontáson csinálsz, akkor ez a különbség óriási sebességelőnyt jelent. Emellett a HDAO a többi AO-val ellentétben csak depth információkat igényel a képkockáról, így rugalmasabban lehet implementálni bizonyos render mellett, emellett jobban kíméli a memóriát a kevés input és output miatt. Ennél jobb megvalósítás AO-ra nem létezik, ráadásul nem kötelező teljes felbontáson számolni, bár tény, hogy az LDS miatt ez az algoritmus kevésbé érzékeny erre, mint a többi. Jellemzően a játékok csak a HDAO mellett alkalmaznak teljes felbontású AO-t. A HBAO és a tradicionális SSAO mellett felezett vagy negyedelt felbontással dolgoznak maximum, ez persze beállítástól függ. A HDAO hátránya viszont, hogy az LDS miatt ez egy DirectCompute 5.0-t igénylő algoritmus, vagyis DX10.1/10/9-es kártyákon nem fut. Ez az ami esetenként ellene szól. Ha a fejlesztő nem csak DX11-ben akar AO-t, akkor a HDAO mellé mindenképpen implementálni kell egy másik megoldást.Viszont a fejlesztés költségét is vissza kell hozni. Ezt korábban jellemzően a 100 dollár alatti szint termelte ki, és a drágább termékek voltak a ráadások. Most a VGA-k esetében a cégek ezzel nem számolhatnak már annyira, mert az IGP-k zabálják azt a piaci szegmenst, amiből korábban a nagy nyereség jött. Innen tehát csak az a lehetőség, hogy a drágább termékeket még drágábban adod, hogy meglegyen a pozitív mérleg. Nyilván ha rendelkezel IGP-vel, akkor egyszerűbb a helyzet, mert van némi mozgástér az árversenyre, de IGP nélkül a piac legjobban tejelő részéről kiszorulsz, így minden pénzt VGA-kból kell kitermelni, ami egyre nehezebb, és egyre magasabb árakat eredményez.
A VGA-piac már nem diktál. Nincs benne az a pénz, amire a cégek építhetnének. Egyszerűen tervezni sem érdemes egy olyan piacra, ahol az IGP-k gyorsabbak, mint a nyereség oroszlánrészéért felelős VGA-k. Ez csak egy ideiglenesen fenntartható állapot, hosszabb távon integrálni kell. Még az NV-nek is meg van erre a víziója, hiszen a Kepler után a Maxwell már nem GPU lesz, hanem APU. Az NV és az AMD a VGA-kra már nem céloz semmit. Lesz, ami lesz kb. így állhatnak hozzá, ellenben vannak növekvő területek, amire egyre erősebben koncentrálnak, és ide tervezik az architektúrát. Ez sokkal fontosabb, mint nyerni egy csatában, majd nézni azt, hogy egyre kevesebb az eladás ezen a piacon.
A Fermi és a Terascale viszonya más volt. A Cypressel sem volt okosabb az AMD, egyszerűen csak meg kellett nézni a VLIW4-et élesben még a Trinity előtt. Az új IGP-t látva ennek nagy haszna volt. De ez is a tipikusan így alakult helyzet.
Az új architektúráknál senki sem volt okosabb. Egyszerűen az NV-nek a Kepler másra kell, mint az AMD-nek a GCN. Nyilván a Tegra piaca még nem áll olyan szinten, hogy olyan újításokat befogadjon, mint amik megtalálhatók a GCN-ben, míg a PC-s piacon már várnak ezekre. Ez egy logikus döntés, mert az ultramobil termékekben a fogyasztás még elsődleges, így csak addig érdemes építeni be az újdonságokat, amíg ki is lehet azokat használni. Jellemzően ott tart a piac, hogy kezdik a fejlesztők nézegetni az OpenCL-t. Az NV-nek emellett lesz CUDA is. Mindez ugye megoldható az Android NDK mellett. Később persze már az ARM terveiből is látszik, hogy itt is a heterogén éra bontakozik ki, így nyilván lehet erősen rámenni az újításokra. Valószínű, hogy az NV marad a saját terepén a CUDA-val és a PTX-szel, míg a többi cégnek csak a HSA marad, mint egyetlen független és nyílt alternatíva. A Kepler és a GCN közötti különbség tehát abból ered, hogy az egyik ki tudja jövőre használni az extra tudást, míg a másik olyan piacot céloz meg, ahol ennek még nem lenne jelentősége.(#10093) Löncsi: Sokszor teljesen félreérted az egészet. Nem fog itt csődbe menni senki. Még az NV sem, semmi bajuk nem lesz attól, hogy szűkül a VGA-piac. Ha nem jelentették volna be a Project Denvert, akkor lehetne bajuk, de így, hogy ennyire gyorsan reagálnak a változásra, és ennyire gyorsan előtérbe került náluk is az integráció, így simán le tudják fedni a jövőben esedékes igényeket. A különbség, hogy nem VGA, hanem komplett platform formájában teszik ezt. Ezzel még jól is járnak, hiszen nem függnek többé az Intel akaratától, így az olyan jó projekteket nem kell kényszerből leállítani, mint mondjuk az Ion.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- RX 6500 XT 8GB Eladó - Garancia
- GIGABYTE AORUS Radeon RX 6700 XT ELITE 12GB használt videókártya számlával és garanciával eladó!
- MSI GeForce RTX 3060 Ventus 2X OC 12GB használt videókártya számlával és garanciával eladó!
- GIGABYTE GeForce RTX 2060 OC 6GB használt videókártya számlával és garanciával eladó!
- ELADÓ: Sapphire PULSE Radeon RX 7800XT Gaming 16G - Garanciával
- ÁRGARANCIA! Épített KomPhone Ultra 7 265KF 32/64GB RAM RTX 5080 16GB GAMER PC termékbeszámítással
- Samsung Galaxy A53 5G / 6/128GB / Kártyafüggetlen / 12 Hó Garancia
- Apple iPhone 12 Mini 128 GB Fekete 1 év Garancia Beszámítás Házhozszállítás
- AKCIÓ! DELL PowerEdge R630 rack szerver - 2xE5-2660v4 (28c/56t, 2.0/3.2GHz), 96GB RAM, 4x1G, áfás
- ÚJ HP OmniBook Ultra Flip 14"OLED 2,8 K 120Hz - Ultra 7 256V - 16GB - 1TB - 2,5 év gari - MAGYAR
Állásajánlatok
Cég: ATW Internet Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest


![;]](http://cdn.rios.hu/dl/s/v1.gif)



tudom h ezt követeli meg a piac de h mindent ebbe ölnek nem túl kockázatos? vagy ennyire bíznak magukban h sikerülni fog ennyi fejlesztés után az első apu-juk? mióta készül ez a maxwell?

így viszont tökjó dolog



