-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Crytek
nagyúr
Elvileg 200$-os fog nyitni a 960.
Ami nálunk legtöbbször euros árat jelent vagyis 65-75 között lesznek majd egyszóval a tudása valami a 280-280X körül/felett lesz.Ömlik az nv mindenhonnan most már végre az amd is elszórhatna valami porhintést.
[ Szerkesztve ]
-
lenox
veterán
-
Anubris
őstag
válasz
Firestormhun #13193 üzenetére
Képzelem milyen árban lesz ez az új Titan.
-
Firestormhun
senior tag
Hölgyeim és uraim a GM200 képeken:
-
lenox
veterán
Gm200-rol meg nem irt senki?
http://www.techpowerup.com/208501/possible-nvidia-gm200-specs-surface.html
-
Loha
veterán
NVIDIA Maxwell GM206 pictured
NVIDIA GeForce GTX 960 2GB 128-bit -
Abu85
HÁZIGAZDA
válasz
Crytek #13184 üzenetére
A saját tabletet azért csinálták, mert az egy módosított Android és benne van az OpenGL 4.4, tehát nem OpenGL ES. Ez azért haladás számukra, csak más gyártót ez az irány nem érdekli, mert OpenGL 4.4-es alkalmazás nem kerülhet fel a Google Play-re. Egyébként ott van az NV_command_list kiterjesztés is. Igaz, hogy nem kompatibilis az OpenGL core specifikációval, illetve nem mobilba tervezték, hanem a professional piacnak, de használható, csak sokkal nehezebb lesz meggyőzni a fejlesztőket, mert egy Metal API-t olcsó támogatni, de egy OpenGL kiterjesztést, ami még a core specifikációkkal sem kompatibilis nem sokan vállalnának be, hacsak nincs nyomós indok rá.
[ Szerkesztve ]
-
Crytek
nagyúr
-
Abu85
HÁZIGAZDA
válasz
Crytek #13180 üzenetére
Nyilvánvaló, hogy tudnak a problémákról, azt is tudják, hogyan kell egy API-t írni. Viszont szerintem nem sokan gondolták ebben az iparágban, hogy lesz két cég, amelyek nem várnak Microsoft, Khronos, meg akárkire, hanem a saját kezükbe veszik a sorsukat. Ha visszautazhatna számos cég 5 évet az időben, akkor ma nekik is saját API-juk lenne. Viszont akkor úgy gondolták, hogy túl kockázatos a projekt és senki sem fogja meglépni.
-
Crytek
nagyúr
Mondjuk ez a másik dolog, ami számomra értelmetlen.
Vajon mit is akar az NV így ? Mert ahogy elnézem a ténykedésüket nem buta emberek vannak ott, és mégis a Tegrakból a sima K1-ből a Denverek K1-bő kiindulva nem igaz, hogy még nem vették észre hogy a kutyának se kellenek
Vagy egyszerűen csak nem értenek az apihoz nem akarják ilyen fejlesztésre adni a fejüket.Sajnos itt is az van mint pc-n hogy miába a nagy erős ha nem tudod kihasználni, főleg droidon ami magában is egy szégyen. Ott is a google ,hogy mire gondolhat szánalom. Na mindegy ők tudják.
-
Abu85
HÁZIGAZDA
válasz
Crytek #13178 üzenetére
Igazából tehetnének érte. Már rég kellett volna csinálniuk egy saját grafikus API-t. Nem muszáj ultrabrutál low-level, bár ha már lúd, akkor legyen kövér, de egy Apple Metalhoz hasonló API nekik úgy kellene, mint egy falat kenyér. Sokkal jobb pozícióban lennének, ha azokat a fejlesztéseket, amelyeket bemutatnak a programozók konkrét szoftverben ki is használhatnák. Így viszont megint bemutattak egy UE4 demót, mint a Tegra K1-nél, és ennyi. A programfejlesztők költségeit jelentősen redukálni kellene egy új API-val, különben nem fognak hozzányúlni ezekhez az új hardverekhez. És ez másra is igaz az androidos vonalon.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
Jack@l #13175 üzenetére
A mediabox simán lehetséges, mert ott jóval kisebb a verseny és arra a területre a Qualcomm és a Mediatek nem koncentrál. A tablet szempontjából viszont látszik, hogy azok a menők, akik csomagot kínálnak. Lásd Qualcomm és Mediatek. Ezekkel csak úgy lehet versenyezni, ha eldöntöd, hogy elkönyvelsz egy rakás veszteséget évente, mint az Intel. De az NV-nek ez nem logikus.
-
Abu85
HÁZIGAZDA
válasz
Crytek #13174 üzenetére
Több tényező. Először is a tabletek luxusszintjét elviszi az Apple. Ide androiddal nehéz betörni. Másodszor nyilván nem olcsó, bár a 25 dollár annyira nem drámai ár. A Qualcomm sem adja olcsóbban a saját top megoldását. Viszont a Qualcommnak vannak csomagajánlatai, és azzal már olcsóbbak bárkinél. Harmadrészt pedig az NVIDIA számára nagyon káros, hogy az OpenGL le van maradva. A Tegra X1 képességeinek a 60-70%-a kihasználhatatlan OpenGL ES 3.1+AEP-ből. Szimplán az API nem teszi elérhetővé a funkció hozzáférhetőségét. Hiába fejlődik a hardver, ha a szoftveres réteg buta mint a tök. A gyártók is azzal kalkulálnak, hogy a következő évben is az OpenGL ES 2.0 fog dominálni, tehát nem kell okosabb hardver, így inkább az olcsót választják.
[ Szerkesztve ]
-
Crytek
nagyúr
válasz
Jack@l #13173 üzenetére
Igen ám csak az kell, hogy valaki vegye is a cuccost.Sima K1 se meg a denveres k1 se igazán terjedt el
Szóval lehet világmegválta ha jön vele majd 1 tablet azt csokolom.
Ide valami nagy varázslat kell hogy nv legyen bármibe. Mondjuk a miért nincset máig nem értem, drága lenne vagy mi az oka? -
Jack@l
veterán
válasz
Crytek #13172 üzenetére
Ha ekkorát javul a teljesítménye játékok alatt is, nem csak fp16-ban, akkor még home konzolnak is meg fogja állni a helyét... (és majd itt jön a képbe a linux/steamos meg az opengl, üzenem a ph-s hater-eknek)
Médiapc-nek pedig tökéletes lenne 4K60 fps-el[ Szerkesztve ]
-
-
wjbhbdux
veterán
-
Crytek
nagyúr
válasz
Jack@l #13168 üzenetére
The Vanishing of Ethan Carter: Azt azért tegyük hozzá hogy ők egy (ha jól tudom) 8 fős kis studio és nem akármilyen fotózásos eljárással csinálták azt amit.
Ami valóban nagyon szép és valóban nagyon kis gép is elég hozzá,de szinte minden fizikát és interakciót nélkülöz.Pont ezért várom a Get Even game-et mert abban elvileg lesz valami akció is.Bár az már nem dx9-es hanem mindenféle csudaeffektet tartalmaz majd.
-
Jack@l
veterán
UE4-ben is van LPV
De hogy pontot tegyünk a végére, amíg olyan játékok jönnek ki grafikára és sebességre mint pl. a The Vanishing of Ethan Carter , addig elég nagy baromság temetni a pc-t...
A többiek meg szépen szokjanak le a gányolásról és senki nem sír majd az optimalizálatlanságok miatt.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
Crytek #13165 üzenetére
Az UE4 elég jól optimalizált motor összességében. Még ahhoz képest is, hogy bevalottan egy mobil first koncepcióval született a rendszer, tehát a célpiac egyértelműen az Android/iOS/WP. A konzol és a PC másodlagos, de ez inkább üzleti megfontolás, mert az Epic nagyobb hasznot remél, ha a Unity motor licenckoncepcióját járják. PC-n már úgyis nagyon keves top stúdió vesz kész technikát, inkább fejlesztenek egy sajátot.
-
Abu85
HÁZIGAZDA
válasz
Jack@l #13164 üzenetére
Maga a voxel cone tracing GI-ra való alkalmazásának kutatása jó egy évtizedes múltra tekint vissza, szóval ez nem újdonság. A gond az, hogy az eredeti koncepció SVO adatstruktúrára épült, amit nem lehetett igazán jól megoldani a GPU-kon. Innen jött elő az az ötlet, hogy a 3D-s textúra jobb alternatíva a GPU-knal, így az SVO adatstruktúra lecserélhető például kaszkád 3D-s textúrázásra. Ennek az volt a gondja, hogy a voxelizációs fázis, így is sok időt igényelt, mivel legalább fél tucat nézőpont kellett a jelenetről, hogy azt voxelizálni lehessen. Az ki volt zárva, hogy a GPU-k fél tucatszor számoljanak geometriát, ezért a geometry shader került előtérbe, ami viszont még így is lassú volt, de technikailag kivitelezhetővé vált a rendszer. Végül 2012-ben sikerült összerakni egy olyan hardveres alapot a Tahiti GPU-val, aminek volt PRT-je a kaszkád 3D-s textúrázáshoz, illetve viewport index támogatása, hogy ugyanarról a jelenetről több nézőpontot is lementhessen a voxelizáláshoz. Ez volt az első olyan koncepció, ami reálisan karnyújtásnyira hozta a valós idejű alkalmazását. Viszont a szoftver még ezt is akadályozta, ugyanis rendkívül sok állapotváltásra volt szükség a működéséhez, amihez még ma sincs elég processzoridő. Jelenleg ott tartunk, hogy a kaszkád 3D-s textúrázás jó adatstruktúra, főleg ha van viewport index, de az állapotváltások behatárolják a teljesítményt, mert nincsenek elég gyors processzorok. Innen két irány van, vagy hirtelen előrántunk olyan CPU-kat, amelyek a mostaniak egyszálú teljesítményének a háromszorosát tudják, vagy előhúzunk olyan API-kat, ahol az állapotváltás kezelése a processzoridő szempontjából nem jelent lényeges terhet. Plusz, ha már itt tartunk, akkor számolhatnánk többlépcsős GI-t. Utóbbit azért nem tesszük meg, mert nincs aszinkron compute a mostani API-kban, így mindegyik lépcső egymás után fut le a GPU-n. A PS4-en a három lépcső egyszerre fut le. Kvázi ez egy párhuzamosítási forma, amire még lehetőség lenne.
Az Unreal Engine 4 jelenlegi globális illuminációs rendszere az Enlighten. Opciós lehetőség az Unreal Engine 3 nagyon hasonló Lightmass koncepciója, de ennél az Enlighten jobb, és gyorsabb is, ezért nem sokan élnek ezzel az opcióval. Mindkét GI opció a belépőszintet képviseli, ennél már ma vannak jobban a játékokban. Például a CryEngine LPV-je jobb. A GI szempontjából egyébként a Glacier 2 motor LPV rendszere eddig a legjobb.
[ Szerkesztve ]
-
Crytek
nagyúr
Szegény UE4.
Mivé lett a 876ezermillió atomjó és jól futó kenyérsűtőn is menő UE3-as game-ek tömkelege után.
Most minden ami eddig UE4-el kijött ocsmány és szarabbul fut mint bármi ami létezik. -
Jack@l
veterán
2011-ben fejlesztették ki a voxel cone-t nv-éknél, akkor ment 85-180 fps-t modell bonyolultságtól függően.
---
UE4 raytracing technikája globall illumination-t is számol(videókból ne mond hogy nem látszik...), és jóval gyorsabb a hagyományos árnyékszámítás része is mint a régi technikákkal, amellett hogy szebbUI: még szakmában levőként se érdekel annyira egy játékon belül mi hogyan történeik, bár fél szemmel követem az eseményeket, mégis rohadtul nem izgat hogy csinálnak egy játékot szépre és gyorsra.
A végeredmény számít, a többi rizsa. Jó lenne ha amd is arra koncentrálna inkább a néphülyítés helyett.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
Jack@l #13157 üzenetére
Az a baj, hogy az NV egylépcsős megoldása nem elég, ahhoz még mindig kell előre számolt adat. Ráadásul az sem fut olyan gyorsan, mint a PS4-en a háromlépcsős megoldás. A DX11-et egyszerűen nem erre találták ki, és ez akadályozza a PC-n a voxel cone ray tracinget akármilyen adatstruktúrával. Természetesen jó, hogy hozott hozzá a GM204 egy viewport index rendszert, de ezt a funkciót a GCN már 2011 decembere óta tudja, csak nem számít, mert az API miatt akkor sincs aszinkron compute és túl drága az állapotváltás, ami ehhez a GI megoldáshoz kell. Amíg ezt a két problémát a szoftveres oldalon nem oldjuk meg, addig nem lehet mit kezdeni a VGA-kban a TFLOPS-okkal. Pontosan ezért látod az egészet csak technikai leírásban, vagy egy mindössze egy komplex objektumból álló, mindenféle komplex mozgást nélkülöző, egylépcsős GI-t alkalmazó demóban. Másra PC-n nincs lehetőség, mert az API nem engedi meg. És amíg az API nem engedi meg, addig komplex játékban sem fogod látni.
Az UE4-be berakott újszerű soft shadow technika nem akkora durranás. Az alapjait a Harada fejlesztette ki az AMD-nél, és az UE4 átvette egy tényleges effektnek, de ugyanaz a célja, mint más soft shadow megoldásnak, csak bizonyos szempontból jobban működik, nem feltétlenül kell hozzá temporal post-process, hogy az árnyékok egyenletesen legyenek. Kétségtelenül hasznos fejlesztés, de csak az árnyékokra vonatkozik a sugárkövetés, és igazából nem tekinthető forradalminak sem.
[ Szerkesztve ]
-
-Solt-
veterán
válasz
westlake #13161 üzenetére
Nem neked mutatom, hanem megerősítést vártam, mert én nem ismerem! ( eszembe sem jutna ilyenekkel játszani ) Ha ez neked egy 10 éves webes játék kategória, akkor érdemben nem nagyon van miről beszélni...
2014-ben egy APU-n 1080p-ben ez szerintem egyáltalán nem rossz... szerinted jelenlegi DX alapokon egy APU-n ugyanígy nézne ki, és ugyanígy futna? Nem, és ez a lényeg, csak sokan ezt nem akarjátok megérteni...
Nem lenne jobb, ha a csillagászati áron vásárolt PC valóban azt a tudást és grafikát nyújtaná amit valójában tud, csak a szoftveres korlátok miatt a "töredékével" találkozunk? Ráadásul nem csak a grafika a lényeg, hanem mondjuk az AI is... azért az elég gáz, hogy konzolon okosabb az AI mint PC-n...
Persze, ha nektek bejön az a modell, hogy évente, kétévente kapunk 20% TFLOPS többletet vagyonokért, közben meg a látótávok, AI viselkedése, komolyabb szimulációk egy helyben topognak, akkor nem szóltam.
[ Szerkesztve ]
-
-Solt-
veterán
válasz
westlake #13159 üzenetére
EZ a kinézet neked a 10 évvel ezelőtti webes játék kategória?
Egyébként meg az összehasonlítás totál felesleges abból az irányból, hogy miképpen néz ki, mivel a komplett konzol kerül annyiba, mint a videókártyánk... Ha hasonlítani akarnánk, akkor azt egy olyan PC-vel kéne megtenni, ami képességekben (CPU+VGA+RAM) megegyezik a konzolok tudásával! Ebben az esetben meglehetne nézni, hogy adott hardverből mire képesek a konzolok a saját API-val, és mire képes a PC a DX keretein belül...
Tehát a lényeg az, hogy a konzolok ott vannak hatalmas előnyben, hogy a hardvert szinte a végletekig ki tudják használni szoftveresen, míg PC-n a képességek kis százalékánál tartunk. Ha a konzolokban is olyan csúcs hardver lenne mint amiket PC-n használunk, akkor a PC sehol nem lenne kinézetben.
[ Szerkesztve ]
-
westlake
félisten
válasz
Crytek #13147 üzenetére
Kénytelen vagyok kiemelni egy játékot, amivel közel 500 órát játszottam konzolon. Ez pedig a Destiny. Gondolom te is hallottál róla, hogy nem két forintból hozták össze. Nézd már meg a grafikáját, légy szíves. Amikor először megláttam, azt gondoltam, hogy ez valami 10 évvel ezelőtti webes játék. Ennél sokkal szebb grafikát látni PC-n. Ráadásul sok-sok helyen olyan alacsony volt az FPS, hogy PC-nél már a VGA cseréjén gondolkodnék. De miről is beszélünk, amikor a konzol fix 1080p? Beszélhetsz itt nekem arról, hogy állítólag mit miről butítanak, de majd akkor vitatkoznék veled, amikor a piacot elárasztották az olyan játékok, amik konzolon jobban néznek ki, gyorsabbak, mint PC-n. Türelmesen várom.
A konzol a jövő? Lehet, majd 15 év múlva talán, amikor a gyártók rájönnek, hogy igenis szükséges egy erős videovezérlő a gépekbe. Amikor a PSN nem olyan szintű lesz, mintha a modemmel interneteznék, de ez már megint egy másik történet. Igen, világ életemben PC-s voltam, de használtam eleget konzolt (igaz, csak a Sony termékét), viszont ezek után meg sem fordulna a fejemben, hogy egy ilyan dobozon játszak.[ Szerkesztve ]
-
Jack@l
veterán
De ha már így belekzdtünk, azért megnézném mennyit megy egy ugyanilyen demó konzolon, miközben realtime rögzíti is a videót hd-ben:
[ Szerkesztve ]
-
Jack@l
veterán
Annyira pozitív amit a konzolokról rizsázol egy éve, de nem láttam róla cikket, hogy mért szar a konzol? Mi az árnyoldala, pedig 1-2 oldalt biztos össsze lehjetne hozni.
Voxel cone tracingről pont az nvidia hozott néhány demót az utóbbi években. Nem úgy tűnt, mint ami 20 fps-el menne.
http://www.geforce.com/whats-new/articles/maxwells-voxel-global-illumination-technology-introduces-gamers-to-the-next-generation-of-graphics
Meg persze az unreal engine is pedzegeti a raytrace-es fényefekteket, árnyékokat.
https://docs.unrealengine.com/latest/INT/Engine/Rendering/LightingAndShadows/RayTracedDistanceFieldShadowing/index.html
https://www.youtube.com/watch?v=4249b94KtyA&list=UUBobmJyzsJ6Ll7UbfhI4iwQ[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
Jack@l #13153 üzenetére
Nagyon sokan használják a konzolon a tesszellációt. Csak nem úgy mint PC-n. A GNM API tesszellációs pipeline-ja lehetővé teszi a jó minőségű adaptív tesszellálást. A hardveres tesszellátorok is jóval fejlettebbek, mint a DX11 bevezetésénél, csak ennek a PC-n nincs jelentősége, mert a Microsoft a DX API-ban nem engedi meg a nem szabványosított tesszellációs módok használatát, azaz hiába vannak ott a jobb opciók az összes mai PC-s hardverben. A konzolon ilyen gond nincs, ott fix a hardver, amit tud, azt elérhetővé lehet tenni. A PC egyébként ebből akkora hátrányt nem fog elszenvedni, mert szinte mindegyik tesszelláció megoldható compute shaderrel, szóval ha nagyon nincs más megoldás, akkor a PC-n a fejlesztők írnak egy szoftveres tesszellációt. Maga a koncepció biztosan működik, mert a CIV BE is szoftveres tesszellációs rendszerre váltott a hardveresről, utóbbi túl limitált a szabványos PC-s API-k alatt, így számos mikroháromszög keletkezik, amit nem lehet elkerülni.
[ Szerkesztve ]
-
-Solt-
veterán
válasz
Jack@l #13153 üzenetére
Miért hívod ügyeskedésnek azt, ha egy adott hardvernek a lehető legjobban kihasználják a képességeit? Nem ez lenne a lényeg? Én rühellem a konzolokat ( pontosabban a rájuk készülő játékok 99%-t ), de nem lennék megsértődve, ha a 4770K-m és a GTX780-m képességei hasonló módon lennének kiaknázva...
-
Abu85
HÁZIGAZDA
válasz
Jack@l #13144 üzenetére
A PC gaming legnagyobb gondja pusztán a grafikai rendszerek működése szempontjából, hogy igazából még mindig egy rendkívül egyszerű modellt használ, itt van egy alapvetően leképzett kép, amit számos post-process és offscreen trükkel feljavítanak. Ezeknek a trükköknek az az előnye, hogy nem kell hozzájuk extra rajzolási parancs, de a hátrányuk az, hogy mindig hamis eredményt adnak, mert screen space megoldások, vagyis az információtartalom csak a kamera nézőpontjából biztosított. Ezen nem tudunk továbblépni, mert az elterjedt PC-s API-knak nincs meg a batch teljesítménye ahhoz, hogy olyan effekteket használjanak a fejlesztők, amelyeket a filmes CGI-nál bevetnek. Pedig igazából ezekre a számítási teljesítmény már sokszorosan megvan a GPU-kban, csak nem ér semmit, ha nincs meg a szükséges throughput teljesítmény az API-ban. Amíg ez nem változik meg, addig továbbra is a trükkökre vagyunk kényszerítve. A konzoloknál, illetve a PS4 GNM API-nál a batch teljesítmény nagyjából a hússzorosa a PC-s szintnek. Ezért tud az ICE Team a PS4-en három lépcsős cascaded voxel cone ray tracing globális illuminációt csinálni 30 fps-sel, miközben a PC-n egy GTX 980-nal 20 fps-ed van csak egylépcsős megoldással. A TFLOPS semmit sem ér, ha a szoftveres réteg nem engedi elérni a számítási teljesítményt.
[ Szerkesztve ]
-
-
-
Jack@l
veterán
válasz
Crytek #13147 üzenetére
Azt majd az idő eldönti, egyelőre olyan "apróságok" nincsenek konzolon mint pl tesszelláció. Meg is van az oka...
Szóval én nem tartan.ék attól, hogy a már most kétszer erősebb pc-re butítani kéne bármit is. Eddig se láttunk semmit a nagy butításból, csak az ijesztgetés megy.(főleg itt az amd-s szekta főpapjától) Vannak okos játékfejlesztők akik mocskos sok pénzt kapnask, hogy jól fusson mindenütt. Megoldják ha rajtuk múlik.
Butítani eddig is konzolra kellet mindent, ezután is az lesz a trend, ez már a ps4 kijövetelekor látszott.[ Szerkesztve ]
-
Crytek
nagyúr
válasz
westlake #13146 üzenetére
Te meg biztos vagy benne, hogy el szoktad olvasni amit Abu85 ír? (Most az más kérdés , hogy utálod vagy direkt nem is érdekel mit ír) Sajnos az a kemény valóság és igaz ,hogy pc-re igen is "butítva" jönnek a konzolos játékok.
A hozzá nem értésedet is tükrözi ( én főleg nem értek hozzá ,de nem is mondok ekkora baromságokat) ,hogy még láthatóan mindig abban a hiszemben élsz,hogy azért mert egy GTX 980 kb 2-3 szor erősebb "PAPÍRON" (és itt azért papíron ,mert mint Abu is írta 50% teljesítményét se tudják kihasználni) akkor a pc-s verzió csakis jobb lehet mint a konzolos. Hát láthatjuk, hogy nem így van.
PC-re vajon miért nincs olyan eljárás még mint konzolon hogy az elsimítás szinte ne okozzon semmi teljesítmény romlást? Már ez egy dolog ami eleve butítva jön pc-re minden féle fps felező eljárással kiváltva.Bármennyire is pc istenítők vagytok be kell látni az egységes konzolt ,ahol a fejlesztők kb minden bitjét ki tudják használni sosem fogja legyűrni a pc legyen az 60 x erősebb is "papíron" amíg ilyen limitáló szarok veszik körül.
-
westlake
félisten
válasz
Taposo #13145 üzenetére
Biztos vagy benne, hogy azt akartad írni, hogy ha a konzolról portolnak PC-re játékot, akkor azt még butiítani kell? Most őszintén, miért kelllene bármit is butítani? Te is tudod, hogy egy flagship VGA másfészer annyiba kerül mint egy mostani generációs konzol. Nem gonolom, hogy elvakult konzolos vagy, de biztos vagyok benne, hogy ezt sem gondolod komolyan. Mutass nekem egy olyan konzolos játékot, ami jobban néz ki, mint PC-n.
-
Taposo
aktív tag
-
Jack@l
veterán
Mindjárt elmorzsolok egy könycseppet a haldokló pc miatt. Biztos hogy a piti kis trükközések hiánya(amit nyilván a konzolok gyengeségei miatt próbálnak bevetni, inkább kevesebb mint több sikerrel) fogja majd nyomorba dönteni? Költői volt a kérdés.
Személy szerint a GM200 és azt követő generációra teszem a voksom a jövőben, a valódi next-gen grafika miatt... (nem, nem a konzolos fos nextgenrtől beszélek, mielőtt félremagyaráznád)[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
Jack@l #13127 üzenetére
Egyrészt olyan, hogy Bermuda nem létezik. Fiji ami létezik, és tényleg fejlesztés alatt áll. A wccftech egy teljesen fals információkat közlő pletykasite. A Fudzilla nyomdokait járja, csak rosszabbul.
Másrészt egy új hardverrel az a legnagyobb probléma, hogy megnöveli a TFLOPS-ot kb. 20-30%-kal., meg még pár helyen még előrelép, de egyik olyan új eljárás sem futtatható rajta, amit a fejlesztők a PS4-en kutattak és fejlesztettek ki annak reményében, hogy portolhatják máshova. Teljesen mindegy, hogy a hardver képes-e rá, ha a szoftveres réteg nem engedi meg elérni a szükséges adatokat és erőforrásokat. Ma messze ez a legnagyobb problémája a PC-nek nem a TFLOPS-ok hiánya.
Van egy érdekes fejlesztés a PS4-en, amit mindenki elkezdett. A baricentrikus fragment koordináták kinyerésével számos eddig alkalmazott effekt lenne felgyorsítható. Ott vannak a rendszer által generált adatok a regiszterekben és a gyorsítótárakban, de nem érhetsz hozzájuk, mert el vannak zárva. A PS4-en azért lehetséges az elérésük, mert a GNM API megengedi. A fejlesztők számára is elég gáz, hogy tudják, hogy az adatot amire szükségük tárolja a hardver, csak nem férhető hozzá. Ezen a mostani hardverek modernizálása nem segít, pont ugyanabban a pöcegödörben tartja majd a PC-t, ahol van, csak ad egy extra szappant a fejlesztőknek, hogy mosakodjanak.[ Szerkesztve ]
-
regener
veterán
válasz
Bjørgersson #13138 üzenetére
[ Szerkesztve ]
-
SSJPeter
őstag
válasz
regener #13136 üzenetére
Elvileg az már majdnem (azért még mindig nem teljesen) 970 szint igen, de én pl. kizártnak tartanám, hogy 2db. 960Ti jelzésű kártyát dobjanak a piacra, mekkora kavar lenne belőle már, egyáltalán volt már erre példa valaha?
Szerintem nem...
Na meg ha mégis azt a verziót hoznák ki...mi értelme lenne a 970-nek onnantól kezdve?
-
SSJPeter
őstag
Kíváncsi vagyok ki szerint hihető ez a hír.
Lehet, hogy talán nem itt kéne kitárgyalni, mert már van a kártyának külön topicja, de ez végül is még mindig csak találgatás...Bár a hírben azt állítják, hogy ez már 100%-ban biztos.
Nvidia Geforce GTX 960 to have two ‘Ti’ variants – Upto 1536 CUDA Cores, Benchmarks Revealed
Ja igen, remélem nem volt még...
[ Szerkesztve ]
-
Jack@l
veterán
Akkor mire várnak a pirosok, hogy még fél évig lófütty sem lesz az új kártyákból?
"The R9 390X is rumored to be based on the Bermuda GPU core and is set to be a truly next generation product.
Built on TSMC’s 20m manufacturing process the new GPU will feature several new cutting edge technologies. In addition to being the first GPU to be built on the 20nm process the card is also rumored to be the first to utilize High Bandwidth Memory or HBM for short.Read more: http://wccftech.com/amd-radeon-r9-390x-arrives-1h-2015-feature-hydra-liquid-cooling/#ixzz3NmduRnHx"
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz
keIdor #13120 üzenetére
Senki sem vár a 20 nm-re. Nem kritikus fontosságú a GPU-knál. A pletykáknak ne üljetek fel. A TSMC elérhető node-jaiból a GPU-knak a legjobb a 28 nm-es HPM. Ennél csak a GloFo 28 nm-es SHP-je jobb, de nem feltétlenül ér annyit az áttervezés, hogy megejtsék, bár ez tényleg attól függ, hogy mit várnak a következő node-októl. A 20 nm-es opciók egyértelműen rosszabbak, csak akkor éri meg erre váltani, ha kell egy 2.5D TSV kompatibilis process, más előnye nincs.
[ Szerkesztve ]
-
Firestormhun
senior tag
válasz
westlake #13122 üzenetére
GK110 architektúráját már bemutatták nyilvánosan 2012 májusában a professzionális piacnak, tudni lehetett hogy max 2880 CC van benne, jóval a GeForce termékek piacra dobása előtt. Akkoriban ez brutális specifikációnak számított az új GTX 680 teljesítményének fényében, s emiatt természetesen terjeszteni kellett az igét az AMD-t szívecsücskkeként kezelő szerkesztő úrnak, hogy GK110-ből soha nem lesz Geforce termék, ne várjunk rá.
-
Bjørgersson
félisten
Most látom, hogy vótmá, nyaljátok meg...
[ Szerkesztve ]
-
válasz
keIdor #13114 üzenetére
zárójelben jegyezném meg, hogy ha
- a képen szereplő TEX fillrate igaz
- és ha az ALU/TEX blokkok felépítése ugyanaz lesz a GM200-ban, mint a GM204-benakkor a lenti táblázat egy 4096 cuda core-ral épített GPU-t jelent
de amúgy tényleg a 3072-es verzió a valószínűbb - +50% minden területen.
-
keIdor
titán
válasz
KillerKollar #13116 üzenetére
GK110-nél is előbb a Quadro piacot telítették, utána jöhetett csak az asztali szegmens. Most lesz bejelentés a CES-en Vegas-ban, de szerintem Quadro-n kívül más nem lesz. Második félévre lehet várni a Titan 2-t és az egyéb asztali variánsokat szvsz. Ugyanaz megy, mint a Keplernél.
AMD meg csak a 20nm-re vár, ha lehet hinni a pletykáknak.
GM200 marad 28nm.
westlake: Tudtommal a GM204-ben már aktív minden egység, ami 2048 CUDA core, egy 980Ti-nél maximum órajelet tudnak már emelni. De gondolom majd ez is el lesz lőve, ahogy a 680-770-nél is volt.
Itt inkább az a kérdés, hogy a GM200 tartalmaz-e többet, mint 3072?[ Szerkesztve ]
-
Crytek
nagyúr
válasz
KillerKollar #13116 üzenetére
Én az az AMD-re várok ,de vészesen nagy ott a csend
Mondjuk nem is gond mert mire kint lesz már tudják egyből tesztelni a Witcher 3, GTA 5 játékokkal és lehet dönteni jó-e kell-e vagy inkább nv lesz a befutó! -
keIdor
titán
válasz
westlake #13115 üzenetére
384bit esetén vagy 6GB vram lesz vagy 12GB, utóbbit a Titan 2 gondolom meg is kapja, hasonló forgatókönyvet várok, mint a GK110-nél, kisebb, olcsóbb variánsok kapják a 6GB-ot.
Több helyen második félévet írnak a Titan 2 megjelenésének, ami számomra teljesen hihető, AMD-re is május-júniust írtak több helyen, onnan már nincs is messze a H2. Az AMD csak a 20nm-re vár.Kétlem, hogy 980Ti néven adnának ki GM200-as kártyát, más neve lesz.
-
KillerKollar
őstag
válasz
keIdor #13114 üzenetére
Lehet már tudni hogy mikor jön ki a 980 Ti(vagy Titan II?)? Érdekelne hogy ez lesz-e a gyorsabb,vagy a 390X,tudtommal az még ebben a hónapban be lesz jelentve,ha azután egy hónapon belül jönne a GM 200-as is akkor még biztos megvárnám hogy hogy viszonyul majd a konkurenciához árban és teljesítményben.
-
westlake
félisten
válasz
keIdor #13114 üzenetére
A RAM mennyiségét nem hiszem, hogy emelni fogják. A desktop verziót (pl. 980 Ti) meg semmi értelme kiadni, amíg az AMD nem hozza ki a következő flagship kártyáját, ami megszorongathatja a Maxwell családot. És ez nem holnap lesz.
#13116: Ha be is lesz jelentve új kártya, az nem jelent semmit. Venni még biztos nem lehet majd őszig. Sehol nem állnak még pirosok.
[ Szerkesztve ]
-
keIdor
titán
GM200 magyarul is: [link].
Körülbelül 50%-al gyorsabb kártyát várok, asztali variáns esetén, mint a GTX-980. 6GB vram és persze nagyobb órajel mellett. -
Crytek
nagyúr
-
Crytek
nagyúr
Hm már vannak találgatások a 960-ról.Aszerint minimálisan lesz csak a 970 alatt!
-
KAMELOT
titán
Van már valami hír mikor jönnek a 8GB-s 970/980 modellek?
-
lenox
veterán
Valami azt sugja, hogy marmindjart lesz egy uj driver...
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- PlayStation 1 / 2
- Debrecen és környéke adok-veszek-beszélgetek
- iPhone topik
- Ubiquiti hálózati eszközök
- Fotók, videók mobillal
- Milyen autót vegyek?
- NVIDIA GeForce RTX 5070 / 5070 Ti (GB205 / 203)
- Kezdő fotósok digitális fényképei
- NVIDIA GeForce RTX 4080 /4080S / 4090 (AD103 / 102)
- További aktív témák...
- Több db Nvidia Quadro K2200 4GB GDDR5 újszerű, karcmentes videokártya
- Nvidia Quadro és AMD FirePro kártyák - számla, 6 hó gar.
- BESZÁMÍTÁS! ASUS ROG STRIX RTX 3080 10GB videokártya garanciával hibátlan működéssel
- zotac amp gtx 1060 6gb
- Nvidia GeForce RTX 2080Ti 11 Gb GDDR6 2 db videókártya eladó + Ajándék Nvidia SLI híd