Új hozzászólás Aktív témák
-
pzstm
titán
-
leviske
veterán
"nem sok újítást várhatunk a next gen. dx-től!"
Ilyet nem szabad!!! Mert megütnek...
MOD: Amúgy, ha jól gondolom, akkor két okból jött ilyen hamar:
1. Ez az utolsó DX és kell idő a felfutására mielőtt a fejlesztők "elhagyják a DX futószalagot".
2. A DX11 picit jobban előre fogja lendíteni az ATi szekerét, ha jól gondolom... Az NV vagy a fejlesztési költségekbe hal bele, vagy a kártyák gyártásának árába... Ha jól tudom, akkor ~kétszerezniük kéne megint, ami viszont még 40nm-en sem volna kellemes. (Az pedig a MS-nak csak jó, ha az AMD piacot szerez.)
-
DriderG
tag
Az nVidia üzletpolitikájával nem nagyon értek egyet mióta megjelent a 8800GTX az elképesztő fogyasztásával és méreteivel. Igaz, majdnem kétszer gyorsabb volt egy 7900GTX-nél, viszont az ugyanolyan (90nm) gyártástechnológia miatt nem tudom manapság ki ruházna be egy ilyen első generációs DX10 kártyára. Aztán a 8800 Ultra, aminek végképp nem volt értelme, egyedül a hűtője volt szebb kialakítású. A 8800 GT volt a csúcskártyája az nV-nek, nem véletlen a fogyasztás/gyártástechonlógia/ár/érték arány szempontjából. Ugyanakkor már a Radeonok a DX 10.1-et is tudták, 55nm-en, fejlettebb Anti-Aliasing mellett. Mostani álláspontom szerint egy Radeon HD4670-es vagy egy GeForce 9600GT-es éri meg. Az nVidiának úgymond "szerencséje" volt, hogy nem állt át azonnal az 55nm-re, mivel így a 65nm-es 9-es sorozat fogyasztását kellett optimalizálniuk a Radeon 4xxx-hez, és most, hogy megjelennek a 9-es sorozat 55nm-es modelljei, olcsóbbak lesznek és kevesebbet fognak fogyasztani, mint a jelenlegi Radeonok. A GTX 2xx-sorozatot én személy szerint elfelejteném, egyrészt az "újítás"-nak nevezett magduplázás miatt, illetve nemsokára jön a 40nm-es gyártástechnológia...
-
schwartz
addikt
35k-ert veszel ujonnan egy HD4850-et es jo esellyel kihuzod vele a DX11-ig. (ev vegere igertek) 1600x1200-ig van benne szufla boven s az arabol sem veszithet annyit mint egy csucskategorias VGA. Kulonben is jobb taktika a tobbszori valtas mint bespajzolni egy 100-150k-s VGA-t 2-3 evre. Cserelsz ha szukseget erzed...
-
stiggy
tag
hehe, ezek nem is dx 11-es screenshotok, hanem fényképek
# Mecha
No offense - de teljesen illogikus vagy. (Minden érved amellett szól, hogy gép helyett inkább vegyél egy plazma tévét xbox360-nal. :/ )
Ha arról van szó, hogy nem akarsz sokat bukni, pont nem az éppen aktuális csúcskártyát érdemes megvenni. Elég a felső közép kategória.
A képlet valahogy így néz ki. Ár/Teljesítmény legyen minél magasabb, és a Teljesítmény legyen = azzal amit maximum ki tudsz használni.100K+ HUF kidobása előtt érdemes azért 1-2 cikket elolvasni, akár PH!-n, HOC-on. Ott leírnak mindent amit, tudnod kell.
Ha a legbrutálisabb kártyát akarod, akkor meg ránézel egy ár listára és ráböksz a legdrágábbra, kész.
Szvsz DX 11-es játékokra meg még várhatunk vagy 2 évet.
-
danilla
őstag
-
v.tom
őstag
Én is arra fogok várni
Remélem az lesz, hogy kapunk majd alsó-közép kategóriás áron egy középkategória fölé húzható remek kis karit.
-
leviske
veterán
Az RV870, ami az első DX11-es GPU lesz várhatóan, az jelenleg Q3-ra van beharangozva... Ha viszont holnap nem jelentenek be egy RV770 utódot a CES-en, akkor szerintem ebből is inkább nyár eleje lesz...
Holnap, ami ma van (
) minden kiderül. Bár az igaz, hogy ahhoz túl nagy volt eddig a csönd, hogy hirtelen bejelentsék az RV770 frissített változatát. Legalább már ezen a héten kellett volna lenni róla "hangosabb" pletykáknak.
-
MecHa
csendes tag
és esetlegesen ha máshogy nem, negyedév pontossággal lehet tudni már ezeknek a megjelenését? mert fél évet kibírok de ha csak 1-1.5 év múlva jönnek ezek akkor már érdemesnek tartom a beruházást
mint mondtam lama vagyok... mostanában olvastam valahol de nem nagyon értek hozzá... ezért is kértem a ti véleményeteket
azt már tudom ha nem akarok több videokaris rendszert akkor érdemesebb a 4870x2 őt megvenni...(tudom tudom hogy az is 2 videokártya de slibe kötve 2 darab gtx280 gyorsabbnak bizonyult a teszteken mint 2 darab crossfirebe kötött 4870x2, de teljesen mindegy annyi pénzem ugy sincs hogy bármiből kettőt vegyek
)
-
WesTM
őstag
válasz
Kis zöld izé #88 üzenetére
Szerintem kicsit el vagy tájolva.
a gtx280 a maga nemében egy primitív videókártya, melynek teljesítménye csupán annak köszönhető, hogy mindenből "2X annyi" van benne.Soha az életben nem fog dx11et tudni, sőt dx10-hez is egy viszonylag elavult architektura. Ha megnézed a tesztet 2008 júniusi...
A gt300 inkább dx11re felkészített kártya lesz, de még nem sokat lehet róla tudni.
Ellenben az ati dx10.1 api-én elég sok dx11 effekt fog működni, de természetesen ők is jönnek a dx11es kártyával az rv870 személyében. -
MecHa
csendes tag
válasz
#65675776 #91 üzenetére
bocs
amugy ezért is volt az első választásom az ati 4870x2... azzal is azért várok februárig hátha addigra már itthon is elérhető lesz az új 55nm es technológiával gyártott.
csak ha már ilyen közel van a dx11 megjelenése akkor inkább várok még egy picit.. tényleg nem tudom mi tévő legyek
-
MecHa
csendes tag
válasz
Kis zöld izé #88 üzenetére
gtx 280 már régóta van, sőt ebben a hónapban jön ki a gtx295.. de még az is csak dx 10.1 es lesz
ha megnézed a cikk dátumát Published: 24th June 2008 rájöhetsz hogy nem egy új hírről van szó
-
Kis zöld izé
senior tag
[GT200: Nvidia GeForce GTX 280 1GB] Ez lesz valószínüleg az első DirectX 11-et támogató vidókártya.[IMG:http://lokalhoszt.hu/pics/keptarto/Skizz_nvidia_geforce_gtx_280_01.jpg][/GTX280]
-
MecHa
csendes tag
válasz
Kis zöld izé #86 üzenetére
Ez addig oké. azt én is tudom hogy ősszel jönni fog...
De sajnos új dx11 es videokártyákról még nem hallani semmit... vagy én vagyok lama vagy tényleg nincs még semmi hír róluk de valószínűbbnek tartom az első változatot
de igazából ez se sokat segített hogy választ kapjak kérdésemre... nah mindegy mire ott tartok hátha kapok valami infót
szerk: de ugy látom írják hogy lefelé kompatibilsre tervezik... gondolom emiatt nem sietnek annyira az új tipusok bejelentésével, hogy a mostani csúcs kártyák is elfogyjanak
-
MecHa
csendes tag
válasz
Kis zöld izé #84 üzenetére
neharagudj de én nem is mondtam hogy így nem jó a konzol ugy nem jó a konzol... nem is azt kérdeztem hogy ki mennyit költ videokártyákra, és nem is áradoztam húúú de jól keresek és mennyi felesleges pénzem van amit ilyenekre tudok elkölteni... feltettem egy szimpla kérdést hogy hallott e valaki hamarosan megjelenő dx11 es kártyákról, és hogy érdemes e rá várni vagy pedig az még olyannyira odébbvan hogy még semmi infót nem hallani..
és nem értem miért kell kötözködni és leszólni, illetve kérdésemre nem válaszolva csak azt hajtogatni hogy hagyjam a pitsbe a pc-t mennyek konzolra meg ilyenek.. nem ezt kérdeztem.. nem is azt hogy te mennyit költenél rá.
egyszerűen csak azt hogy ha tényleg megjelenik ősszel a dx11 jönnek e vele egyből új kártyák is...
-
Kis zöld izé
senior tag
Meg ugye az sem mindegy, hogy saját magamnak kell ilyen cuccokra megteremtenem a pénzt, vagy esetleg a szüleim finanszírozzák ezt!
Egyenlőre nekem marad a számlák kifizetése....
Majd három havi fizumból összespórolok egy PS3-ra, addig meg jó lesz a PS 2 is.
Ennyi.....szvsz.....kisfiam...
Sorry, de demokrácia van!
-
Kis zöld izé
senior tag
Még Playstation 2-re is jönnek ki új játékok.... az más kérdés, hogy milyen grafikával.
De szted az X360-ra nem lesz új játék egy év múlva? Ugye ezt te sem gondoltad komolyan?
Az X360 még minimum négy évig biztosan közkedvelt konzol lesz. Vagy a Play 3... Arról nem is beszéltünk!
Ezek a konzolok még közel sem forrtak ki annyira, hogy egy év múlva ne írnának rá új játékokat!
Én biztosan nem fogok ennyit költeni PC-re SOHA!
-
MecHa
csendes tag
természetes és azt el is fogadom hogy sokat lehet bukni rajta így is úgy is... nem az ami zavar... és nem is arrol kérdeztem hogy most mennyit érdemes rákölteni.. hanem azt ha most költenék rá, akkor elvárhatom e azt hogy talán még jövő januárban is elfogadható lesz e a tudása... a konzolokról meg annyit hogy amint megjelenik a dx11 az xbox360 is megy a kukába hiszen új grafikai lehetőségek a konzolok piacán is új hardwaret fog kívánni és mivel az xbox360 például erősen microsoft hatás alatt van az is cseredarabos lesz és 1 év mulva már azon sem lehet az új játékokon függeni
azért kérdeztem hogy hátha tud valaki olyan infót nyújtani hogy tervezi e valamelyik nagyobb gyártó a közeljövőben dx11 es kártyák piacradobását mert akkor tudok várni...
csak nem értem hogy az nvidia miért foglalkozna új dx10 es kártya piacradobásával (gtx295 )
ha ebben az évben tervezné a dx11re készített kütyük előhozatalát
és mivel biztos vagyok abban hogy vannak tőlem sokkal informáltab és okosabb emberek inkább kérdezek mint a saját guglihasználat tudásomra alapoznék
-
MecHa
csendes tag
elsősorban azért szeretnék 4870x2 őt venni (vagy gtx280 at még nem döntöttem) hogy ne járjak úgy mint anno a 8600gt-mel. 1 éve vettem 40 ezerért és már ott tart hogy úgymond kuka hiszen már 5000ft se kapnék érte így használtan, reménykedem hogy egy mostani felsőkategóriás videokártya hasonló tendenciát fog mutatni és talán ráérek 2-3 év múlva cserélni
ezért is félek a dx11 től hiszen ha az megjelenik alighanem megint ott fogok tartani hogy már eladni se tudom a jövendőbeli kártyámat legyen az bármelyik gyártótol hiszen a kutyának se fog kelleni... aki nem játékra használja a gépét annak elég egy ólcsókategóriás nevesincs aki viszont játékra soha nem fog venni olyan karit ami már a vásárlás időpontjában sem nyújt elegendő teljesítményt
persze fogjátok rám hogy függő de ez van... nekem a számítógépes játékok a hobbim és mint minden hobbira az ember így is ugy is rákölt évi 100-150 et legyen szó bármiről. csak ha már költök szeretném úgy költeni a pénzem hogy teljes élményt nyújtson
-
MecHa
csendes tag
Sziasztok!
Ez év februárja környékére terveztem új videokari vásárlást, és most először rendesen alávágnék..
Először ugye egy 4870x2 re gondoltam de sajnos az új hírek elggé lelohasztottak...
egyre több külföldi oldal rebesgeti hogy ősszel már jön a dx 11 és nem szándékszom 100 ezret kidobni ugymond az ablakon ugy hogy maximum fél évig leszek képes élvezni hogy végre megy minden játék fullon.
Ti mit hallotatok ? terveznek egyáltalán ebben az évben kiadni dx11 es kártyákat? érdemes e várni ?
szerk: bocsi ha már volt róla szó de elég régiek a hozzászólások remélem azóta valaki már pontosabb infót tud nyujtani
-
Cryman
csendes tag
Az első és legfontosabb, hogy az új DirectX technológia 100%-osan kompatibilis lesz a Microsoft Vistával, és bármilyen, a jövőben érkező Windowszal is. A mostanság kapható DirectX 10 és 10.1-es videokártyákon szintén működni fog, de teljes kompatibilitás csak a hamarosan érkező DirectX 11-es kártyákon lesz.
Forradalmian új shadertechnológiát vezetnek be, amivel már nem csak gyönyörű 3D-s modelleket jeleníthet meg a videokártya, de a processzor munkájába is besegít. Ezzel együtt nagyobb támogatást kapnak a többmagos processzorok is.
Végül pedig a Tesselation eljárást is leleplezték, ami, hasonlóan az ATi 2001-ben bejelentett TruFormjához, a játékban szereplő modelleket darabokra bontva részletesebbé teszi azokat. Ezzel a technológiával a videokártya a 2500 poligonos fát szétdarabolja, és egy 4000 poligonos modellt készít belőle, miközben ez nem megy az fps (kvázi a sebesség) rovására.
Ezt csak úgy kiegészítés képpen írtam
-
Cryman
csendes tag
Fataaaa
-
Abu85
HÁZIGAZDA
Számos helyen téves az infó, mielőtt valakinek az agyába berögzül rendbe tesszük a mondandót.
Programozható tesszalátor támogatás sose volt DX9-ben! NPatch támogatás volt amit nem igazán lehetett használni, mert speciálisan elkészített modelleket követelt. Sok nyűg volt vele, mert helyenként nem azt az eredményt adta amit kellett (pl. a sima egyenes fal szépet kidomborodott). A DX10-ből azért került ki az nPatch, mert mindig is Vendor Specific Caps Bit volt és sose lett szabvány eljárás. Mivel a DX10 ilyet nem tartalmazhat így búcsút kellett inteni neki. DX10-ben Geometry Shaderrel egyébként lehet tesszalált felületet létrehozni, csak győzzük hardverrel (régebben a Beyond3D egyik topikjában Damien egy saját programmal lemérte az R600 és a G80 sebességét GS Tesszaláció mellett, az R600 éppen súrolta a 25FPS-t, míg a G80 az 1 FPS-re sem volt képes. Sajna a modell poligonszámát nem tudom, de 4x-es tesszaláció volt.) -
jetimokus
tag
DirectX 11?
Erre én annyit mondok hogy eddig futás közben még sm2-t sem láttam pedig azóta már lement a 3 is, abszolút sm4-re épülő játék(ami úgy ahogy kihasználja) 1 volt a Crysis, sm4.1-et nem is tudom támogat-e valamilyen játék egyáltalán,bár nem tudok róla, most meg már dx11,meg sm5?
mindenesetre a ti4200-am mióta meghalt azóta a shader1 is csak álom,mert most egy alaplapi sis videókártyát használok, egy 2000+-os amd-vel,meg 512 ddr1 rammal...
mindezen felül nem tudom elképzelni hogy hova rohanunk előre amikor az sm3-nak legalább volt egy pár év életciklusa, a 4-nek eddig alig valamennyi most eg már az 5-ről beszélünk??? -
g-spot
csendes tag
És az a bizonyos ígéret:
"Akik mostanában vettek új, Radeon-alapú videokártyát, szerencsére nem kell kidobniuk, a DX11 ugyanis nem vár el új hardvert, a DX10-es kártyák kielégítik az igényeit, amennyiben támogatják a legújabb, 10.1-es specifikációt. Ilyeneket jelenleg csak az AMD gyárt, a Radeon HD 3000-es és 4000-es sorozat tagjai maradéktalanul DX10.1 kompatibilisek, az NVIDIA kínálatában ugyanakkor egyelőre nem szerepel ilyen kártya. A Windows XP-hez ragaszkodó felhasználók viszont búslakodhatnak, ugyanis az új API-t csak Windows Vistára és annál újabb operációs rendszerekre készíti el a Microsoft." -
g-spot
csendes tag
A DX11-ben van Compute Shader technológia, amely lehetővé teszi a fejlesztők számára, hogy a grafikus kártyák egységes shadereit ne csak 3D megjelenítésre, hanem lényegében bármilyen számítási feladat végrehajtására használják. A grafikus chipek fejlődésének köszönhetően a DirectX 11-en keresztül már lehetőség van hardveres tesszelációra, vagyis a síkidomok háromszögekre darabolását a fejlesztők rábízhatják a hardverre. Ez a funkció egyébként már a DirectX 9-nek is része volt, azonban miután senki sem használta, a 10-es verzióból kikerült. Jelenleg az ATI R770-es generációja támogat hardveres tesszelációt, azonban külön függvényhívásokkal.
-
g-spot
csendes tag
Szerintetek igaz a hír, amiben azt ígérték, hogy a DX11-hez nem kell majd új hardver, mert kompatibilis lesz a DX10.1-el, azaz akár a mai új RADEON kártyák is támogatni fogják?
-
Abu85
HÁZIGAZDA
válasz
[CS]Blade2 #60 üzenetére
A DX10.1-ben azért nagy előnyöd lesz, mert van Multisample Access. E nélkül nem támogatják majd a játékok az élsimítást.
-
[CS]Blade2
addikt
A pH -n a userek 70% ajánlja a ATI karikat a DX10.1 miatt, mert az milyen jó lesz a jövőben, erre tessék....
Javaslom, aki tényleg hosszú távra tervez, az most várjon egy 10-15évet, akkor lesz DX20, onnan már talán nem lesz hova fejleszteni a DX-et, és időtálló karit lehet venni majd...
-
subpixels
tag
-
Abu85
HÁZIGAZDA
válasz
sghc_toma #56 üzenetére
Ez igaz, csak ezzel a módszerrel kiesne a mostani HD2000/3000/4000-es kártyák tesszalátor támogatása az API felől. Bár azt meg lehet oldani, hogy a programban magát a tesszalátor egységet címzik direkten.
Mindegy majd kiderül, hogy lesz, még úgy is jó egy év van a megjelenésig. -
sghc_toma
senior tag
Az a baj, hogy semmit nem lehet tudni, hogy ez a megkülönböztetés hogy működik a DX10.1-ben.
ezt most nem teljesen értem.. alacsony szintű működésről tényleg nincs dokumentáció, de API szinten ott van az ID3D10Device interfészből származtatott ID3D10Device1 interfész.. ha tudsz ID3D10Device1 típusú eszközt kreálni, akkor tud a kártya 10.1-et, ha nem, nem.. ez a módszer használható lenne a dx11 megkülönböztetésére is, szerintem..
A CUDA nagyon dinamikusan fejlődik év végére már az VIA és az AMD rendszerei is támogatottak lesznek.
hmm, erről nem hallottam még semmit.. de ha tényleg így van, annak örülök.. btw, már várom nagyon a 2.0-át, a bétának azért vannak bajai..
-
Abu85
HÁZIGAZDA
válasz
sghc_toma #54 üzenetére
Az a baj, hogy semmit nem lehet tudni, hogy ez a megkülönböztetés hogy működik a DX10.1-ben. Erről semmilyen hivatalos információ sincs. A DX11-től vártam, hogy valami kiderül, de az újításokon kívül a működésről hallgatnak. Emlékszem, hogy a DX10-ben mindig kiemelték a működésbeli eltéréseket.
A CUDA nagyon dinamikusan fejlődik év végére már az VIA és az AMD rendszerei is támogatottak lesznek.A DX11-ben a legkomolyabb kihívás és egyben a kor nagy problémája a tesszalátor és a raszterizálás hatékonyságának összehangolása lesz. Ugye a geometriai részletesség növelésével egyenes arányban csökken a raszterizálás hatékonyság. Nyilván ez időben még legalább 4 év mire komolyabban felüti a fejét a probléma, de már most sem árt gondolkodni a megoldáson. Carmack említett is valami virtuális geometrián alapuló technikát ami biztató lehet a jövőre.
-
sghc_toma
senior tag
okk, azt hiszem, már értem mit mondasz.. ha jól értem, gyakorlatilag arra kellenének az új caps bitek, hogy a különböző dx verziókat megkülönböztessék.. az a módszer, ahogy most a 10-et megkülönböztetik a 10.1-től, nem jó?
Az a dolog sem elhanyagolható, hogy a Cuda jobban elterjedhet.
CUDA-ra nem hiszem, hogy lehet játékot alapozni, lévén csak az nVidia kártyái tudják.. persze, ha Ati úgy dönt, hogy CUDA architektúrájú kártyákat fog gyártani, akkor lehet..Egyszerűen az lesz, hogy a komolyabb szakemberek mint Sweeney vagy Carmack megírják a saját kis render rendszerűket ami a CPU és a GPGPU erőforrásait közösen használja majd a képkockaszámításhoz. A grafikus API-k jelentősége visszaszorul, persze még így is sokan fogják használni ezeket, de a top projectekre nem ez lesz jellemző.
ezzel egyetértek.. sokkal nagyobb szabadságot ad, ha nem vagy rákényszerítve az API-ra, és az említett nevek valószínűleg tudnak is mit kezdeni ezzel a szabadsággal..
-
Abu85
HÁZIGAZDA
válasz
sghc_toma #52 üzenetére
Mert a HLSL4-et szándékosan úgy alakították ki, hogy ne legyenek Caps Bit-ek. A DX11-be mindenképp vissza kell rakni valamilyen Caps Bit-ekhez hasonló rendszert, mert az API visszafelé is kompatibilis lesz.
Maga a Compute shader, mint írtam az előbb, nem lesz hülyeség csak ott lesznek problémák, hogy valamilyen módon meg kell különböztetni a DX10/DX10.1/DX11 rendszereket egymástól. Logikus, hogy erre az erőforrás érvényesítésénél lesz mód, de a DX10-ben ez a program futásának a legelején történik. Erről kellene megtudni, hogy ez valójában, hogy működik a DX11-ben.
Az a dolog sem elhanyagolható, hogy a Cuda jobban elterjedhet. Az nV nem követte el még egyszer azt a hibát amit anno a CG-nél (gyenge dokumentációk, specifikus támogatottság), így az MS tulajdonképpen lemásolta a CG-t és kiadta a saját HLSL nevű nyelvét. Mire az nV felhozta a CG-t a megfelelő szintre már mindenki HLSL-t használt. A Cuda sokkal dinamikusabban fejlődik, mire a DX11-gyel megjelenik a Compute Shader addigra akár elég erős is lehet, hogy legyőzze azt. A DX10 megreformált alapja szerintem a teljes DX API történelmének utolsó ráncfelvarrása volt. A későbbiekben teljesen megváltoznak a dolgok. Bizonyos szinten visszatér a szoftveres renderelés (a next gen konzolok is erre mennek majd el - a köv. xBox-ba például egy AMD Fusion rendszert várnak az okosok). Egyszerűen az lesz, hogy a komolyabb szakemberek mint Sweeney vagy Carmack megírják a saját kis render rendszerűket ami a CPU és a GPGPU erőforrásait közösen használja majd a képkockaszámításhoz. A grafikus API-k jelentősége visszaszorul, persze még így is sokan fogják használni ezeket, de a top projectekre nem ez lesz jellemző. -
sghc_toma
senior tag
hm, most vettem észre, hogy a #48-as hsz-emben a zárójelbe #85-öt írtam, és nem a hsz számát, amire válaszoltam.. a #21-re akartam reagálni, amiben ez áll:
Compute Shader...
Ez egy API szintű GPGPU támogatás. Caps bitek nélkül szerintem hülyeség ezt megcsinálni ...ezt nem értem, hogy miért hülyeség caps bitek nélkül.. nem nagyon volt időm utánanézni, hogy mit lehet tudni erről a compute shader-ről, szóval csak találgatni tudok.. úgy tűnik logikusnak, hogy ez a vs,gs,ps mellett egy újabb shaderfajta, amivel nem kell majd trükközni, ha nem grafikát akarok számolni.. mivel - trükközéssel - HLSL4-gyel is lehet számolni gyártóspecifikus feature-ök nélkül, nem látom, miért lennének szükségesek a compute shader-hez caps bitek..
-
Abu85
HÁZIGAZDA
válasz
sghc_toma #48 üzenetére
Nem a Compute Shaderrel van probléma, hanem azzal, hogy hogyan lesz megoldva a visszafelé kompatibilítás.
A DX10 nem kompatibilis visszafelé, így kikerültek a rendszerből a Vendor Specific Caps Bit-ek. Ezzel az erőforrás érvényesítése a program futtatásának a kezdetén fut le. Logikus lépés ez hiszen nincsenek Caps Bit-ek, így nincsenek különböző GPU képességek sem. A régebbi DX-ekben ugye minden parancs lefuttatása előtt erőforrás érvényesítés történt.
Na most az volt a kérdés, hogy az új DX10.1 és DX11 képességek mellett, hogy történik erőforrás érvényesítése. Mert hát a DX10-be bevezetett módszer már nem használható, persze biztos, hogy megoldották a dolgot csak erről még senki sem beszélt. -
edipqe
senior tag
báháháháááá annyira kell ez mint csiga a salátás kertben.
-
zsolt1129
addikt
dx11???Szerintetek ki tudják használni a DX10-ben rejlő tartalékot?Nem lesz még korai ez a dx11?
-
sghc_toma
senior tag
Abu85 (#85): Miért hülyeség? Már most is elég jól használható a HLSL mindenféle számolásra (főleg a stream out hasznos nagyon), gondolom ez a compute shader csak mégjobban leegyszerűsíti a programozó dolgát. Pl. el tudok képzelni olyat, hogy nem kell majd a stream out bufferből staging bufferbe másolással, majd annak bemappelésével tökölni, hanem ez API szinten implementálva lesz..
spyduck (#28): ezzel vitatkoznék.. tud az sok mindent, meg szerintem sokkal átláthatóbb, mint a 9..
-
Abu85
HÁZIGAZDA
A visszafelé kompatibilitásról annyit, hogy a logikai működés szerintem az OpenGL-hez fog hasonlítani. Amit megírsz DX11-ben az visszafele kompatibilis (DX10/DX10.1), de ha valamit nem támogat a hardver akkor az nem fog lefutni.
-
Thoneick
csendes tag
Érdekes
-
T.Peter
őstag
-
Chaser
legenda
Eddig úgy tapasztaltam, hogy DX-ből a páratlan számú a nyerő, szóval lehet az is, hogy pozitívan csodálkozunk el
Az viszont nagy szopacs lenne, ha már csak a win7 tudná, bár sztem nem így lesz, az átkozmetikázott változata a vistának. Az xp is ratyi volt míg az sp2 ki nem jött, lehet a vistaval is majd egy jól sikerült javítócsomag tesz valami csodát, HW igényt meg már ki nem x@rja le? 4GB ram, 2 magos proci már nem nagy érvágás, lassan már a 4 magos sem az. 1ébként meg már sztem sokan tesznek a gamelők közül erre az egész pc-s baromságra, és vesznek egy konzolt, amit meg is értek.
-
T.Peter
őstag
-
T.Peter
őstag
Jön a directx 11. A cikkben szereplő tényeket eddig is lehetett tudni.
-
T.Peter
őstag
A Gamefest 2008 ma startolt el. Az oldalon a graphics résznél lehet olvasni a directx 11-ről, hogy mit fognak megemlíteni a konferencián.
Introduction to the Direct3D 11 Graphics Pipeline
Be the first on your block to learn about how Direct3D 11 extends and enhances Direct3D 10 with new hardware and API calls. This talk discusses the features in Direct3D 11 that enable you to create content that scales from small screens to high-resolution displays, and across different CPU and GPU configurations.Direct3D 11 Tessellation
Direct3D 11 contains new programmable and fixed function stages designed to enable powerful, flexible tessellation approaches at interactive frame rates in games and modeling applications. Come with us as we take a trip through the pipeline and hear how to prepare your content pipelines to exploit this incredible step in the evolution of graphics.Direct3D 11 Compute Shader —More Generality for Advanced Techniques
The Direct3D API imposes some constraints on the processing model in order to achieve optimal rendering performance. Direct3D 11 introduces the Compute Shader as a way to access this computational capability without so many constraints. It opens the door to operations on more general data-structures than just arrays, and to new classes of algorithms as well. Key features include: communication of data between threads, and a rich set of primitives for random access and streaming I/O operations. These features enable faster and simpler implementations of techniques already in use, such as imaging and post-processing effects, and also open up new techniques that become feasible on Direct3D 11–class hardware.High Level Shader Language (HLSL) Update—Introducing Version 5.0
Get ready to shift your shader development into high gear with the next version of HLSL. This talk introduces new High Level Shader Language features coming in Direct3D 11, including support for Dynamic Shader Linkage and more. Hear how HLSL 5.0 brings support for interfaces, objects, and polymorphism, and get yourself ready for this exciting update to the world’s leading data-parallel programming language!A számteches oldalak is remélem hamarosan beszámolnak arról, hogy mi történik a konferencián.
-
T.Peter
őstag
Értem. Köszi. Akkor remélhetőleg 22-én valami érdemlegeset is megtudunk róla. Amúgy ha kijön a 11, akkor ki fogja már támogatni a 10-et/10.1-et?
Elvileg 2009 végén, 2010 elején jön ki a 11, még a windows 7 megjelenése előtt elvileg. Lehet arra számítani, hogy a következő ati kártyák (r800, rv870, amik mondjuk nyár felé jönnek ki) már tudni fogják a 11,et vagy csak a 2010-ben megjelenő kártyák fogják tudni?
Azt is írta az sg-s cikk, hogy lesz vistán is dx11, mert a driverek felépítése nem változik. Ez abban nyilvánul meg, hogy marad a unified shader architektúra, és csak a compute shaderrel, meg a shader model 5.0-val kell kiegészíteni? -
Abu85
HÁZIGAZDA
válasz
Dark KillerX #30 üzenetére
Szvsz a DX10 lassan fog terjedni, viszont a DX10 után a DX11-re gyorsan ráálnak majd.
Tulajdonképpen lényeges hatása csak a DX10.1-nek lesz a közeljövőben, mert e nélkül nem lesz AA támogatás. -
Abu85
HÁZIGAZDA
Hát a Shader itt inkább amolyan "odabiggyesztésként" van jelen. A fejlesztésként mindenképp úgy kell kialakítani a programot, hogy célzottan kell futtatni a szálakat a hardvereken. Olyan nem lehet, hogy egyszer a CPU-n fut és egyszer a GPGPU-n. Vagy az egyik, vagy a másik. Itt arra megy ki a játék, hogy pl. egyes AI scripteket a GPGPU futtasson le.
Az új DX verziók azért jöttek ki, mert új Caps Bit-eek kerültek bele, a hardver kihasználása érdekében.
Még én sem tudom, hogy lesz a DX11-ben megoldva a működés, keveset kotyogtak még el... -
Dark KillerX
addikt
D11 mi a francnak?Rengetegen használnak Windows Xp-t ami 9.0c.Sztem semmi szükség újabb DirectX-re.Mért nem elég 9.0c,milyen látványt csináltak vele 3Dmark06-ba,vagy a Call of Juarezbe,vagy éppen Jerichoba,Cod4-be.9.0C-nek a szépsége mellet mégegy erénye van: a gyorsaság.De itt van Carmack új engine-je(Rage),ami opengl-es,és maximum néhány D9-es útasításokkal van kiegészítve.Emellett még nem is beszélve D10-ről,és D10.1-ről.Mi a francnak D11? mégegyszer.Amúgy sztem D10-nek maximálisan elégnek kellene lennie,ha a tervezők igényeit esetleg a D9.0C nem elégíti ki.
-
spyduck
nagyúr
öcsém.... h mik nem vannak.
A dx10 se egy nagy szám, sztem ez sem lesz az, kb. arra jó, h lehúzzák az embereket. -
munky
őstag
-
bishopx2
tag
Ha minden igaz itt nagy dolgok lesznek átalakulóban.......
1. Windows 7 ?
2. DirectX 11 ?
3. LGA1366 ?
4. Nahelem ?
5. K10 ?
6. Far Cry 2 ?
7. USB 3.0 ?és még sok más dolog de ezeket errre és jővőre igérték a pletykák szerint.......
-
T.Peter
őstag
Így mindjárt más. Kösz. Akkor a compute shader egy olyan kód, amit ha a gpu használ, akkor lesz belőle shader kód, amúgy nem, csak egy sima kód, amit a cpu használ.
A caps bit meg nem más, mint a kártyák további képességei, amit hozzáadnak. Minden új caps bithez új vga kellett (abból kiindulva, hogy írtad, mindig jöttek ki az új dx verziók, gondolom igen)? A dx 11-gyel nem ugyanez lesz, amit kifogásoltál, hogy a kártyákhoz írják a dx-et? Mivel az ati már rendelkezik tesszalátorral és tud global illuminationt, ezért a dx-ben is lesz mindkettő, a sugárkövetést meg remélem, hogy beleteszik. -
Abu85
HÁZIGAZDA
Szerintem ezt valahonnan fordították a cikkbe és nem nagyon értették a lényegét. Ezért zavaros a fogalmazás. Működésben a Compute Shader az egy API szintű GPGPU kód. Az a lényege, hogy API-nak megfelelő GPGPU kódot lehet írni. Teszem azt egyes AI számítással kapcsolatos feladatot a fejlesztő rábízhat a GPGPU-ra, ha nem akarja vele terhelni a CPU-t. Vagy például egy vírusírtó vagy egy kódtörő programot az API-n keresztül megírhatsz a GPGPU-s futtatásra. Elég sok a lehetőség.
A Vendor Specific Caps Bit az régebben a kezdő programozó rémálma volt. Lényegében a D3D10 előtti Microfosos DX API-kban, a kártyák képességeihez csinálták az API-t. (Most ugye a DX10-zel pont fordítva van az API-hoz igazítják a kártyákat) A Caps Bit-ek egyes gyártók kártyáinak úgymond extra képességei amik nem feltétlen szabványos eljárások. Ezért jött kéthavonta DX frissítés régebben, mert folyamatosan új Caps Bitek kerültek a rendszerbe. Pl.: a DX10-ben ezért nincs támogatva a Radeonok Tesszalátora, mert tilos a Caps Bit-ek használata. Ezzel az alapelvvel sokkal egyszerűbb a fejlesztés, mert ha megírok valamit DX10-re akkor az minden DX10-es hardveren fut, ellenben a DX9-en nem volt ilyen egyszerű a dolog. Ott utána kellett nézni, hogy az elgondolt algoritmus használható-e a különböző gyártók termékein, sőt sokszor egyszerűen eltérő algorimusok feleltek ugyanazért az effektért (pl.: Call Of Juarezben a GF 6/7 karik PCF szűréssel csinálják a lágy szélű árnyékot, míg a többi kartya (GFFX/Radeon9000/x000/x1000) DST mintákkal dolgozott.)
-
T.Peter
őstag
A linkeden belül 3. bekezdést nem értem, mert érdekesen van szerintem megfogalmazva.
"A másik fontos újítást a számított shaderek használatának lehetősége fogja képezni, amely esetében szintén a központi processzort tehermentesítő, a shaderek kódjának maga a grafikus processzoron történő futtatását lehetővé tevő fejlesztésről van szó. Bár erre már mind az ATI, mind az NVidia kínál lehetőséget legújabb kártyáin, a chipek felprogramozására egyedi API-kat (Brook ill. CUDA) használnak - az új DirectX pedig ehhez fog végre egy egységes felületet biztosítani."
Valaki elmagyarázná nekem érthetően?
#10 Raskolnikoff: A 2. linkedben van egy mondat: "It looks like DirectX 11 will stick to rasterization as there is no any mentioning of Ray tracing support."
Ha jól értem, akkor a sugárkövetésről még nem esett szó (nem említették szó szerint), hogy tartalmazni fogja-e a 11, vagy sem. A mondatban a stick mit jelent (itt nem a botot, és így nem tudom értelmezni a "directx 11 will stick to rasterization as" részt) ? -
TazLeacher
nagyúr
Akkor kicsit keveredésbe vagyok. Szóval Vista alatt nem is kell DirectX-et telepíteni, ami benne van az "elég"? És ez is fog majd frissülni úgy, mint a 9?
-
#72042496
törölt tag
válasz
VaniliásRönk #17 üzenetére
Azért ilyen messzemenő jóslatokba (2. pont) ne bocsátkozzunk. Ki tudja, mi történik addig.
-
VaniliásRönk
nagyúr
1. DX11 még a láthatáron sincs, majd a következő Windows-zal érkezik, hasonló lelkes fogadtatás esetén 2010 körül már talán foglalkozik majd vele valaki.
2. A DX11 újításinak többsége az ATi-hoz köthető, így itt megintcsak nem fog sok babér teremni a zöldeknek. -
Kakadu111
csendes tag
válasz
raskolnikoff #10 üzenetére
Már van DX10 de csak vistára...
"end user directx runtime" néven meg is találod a microsoft.com-on
bocs ezt jer1cho-nak irtam válaszként -
munky
őstag
Én még arra leszek kíváncsi, hogy vajon Vistán elérhető lesz-e a DX11 vagy ahhoz is egy következő Windows verzió szükséges majd...
-
keIdor
titán
-
#72042496
törölt tag
válasz
TazLeacher #9 üzenetére
Vistában már alapból DX10 van, de Xp-re legjobb tudomásom szerint ez nem lesz elérhető.
-
raskolnikoff
őstag
-
TazLeacher
nagyúr
Most én vagyok a hülye, vagy még nincs is DX10?
Ez csak ilyen fél megoldás, nem? Szóval amikor telepítem a DirectX-et, akkor én még mindig a DirectX Redistributable 9.0c-t telepítem. Van már 10.0a?
-
CséZé
őstag
Mikor a cikk felénél jártam sejtettem h az nVidia most egy picit kihagyja a DX10.1-et és akkor inkább a DX11-gyel fog foglalkozni...
-
wmarci
senior tag
Mi ez
Az emberi marhaságnak semmi sem szabhat határt.
-
BemAnyó
senior tag
A DX10 et elszúrták ezt mindeki tudja, a dx10.1 lett a javítás, lett amilyen lett..., a DX11 remélhetőleg villant majd vlmi szépet, és nem csak a time demo -kban,
A VISTA utódja sem lehet DX10 alapú, senki sem hinné el hogy tényleg történt elölre lépés, ha csak névleges is akkor is szükség volt a DX11 re a Mikrosit nek legalábbis mindenképpen...
-
#54715584
törölt tag
haaat, ez erdekes...
en meg shader model 3-nal tartok es a 10.1-es kartyakbol is keves van meg...
mindenesetre kivancsi leszek majd... -
munky
őstag
"Egy amerikai ujság értesülései szerint a Microsoft bejelenteni készül a legújabb a DirectX programot, névszerint a DirectX11-et.
Kevesebb, mint két héten belül tervezik felfedni a részleteket a Microsoft Game Technology konferencián, amit eddig Meltdown néven ismertünk, de nemrég átnevezték Gamefest 2008-ra. A konferencia július 22-én és 23-án lesz Washington-ban. Az új program állítólagosan új shader model-t fog felvonultatni, a shader model 5-öt. Új lesz még a Multithreaded Rendering, és Tesselation/Displacement funkció is. Több információt augusztusban kapunk az Nvidia Nvision Event konferenciáján. Mellékesen az Nvidia bejelentette, hogy az ATI-val ellentétben ők kihagyják a DirectX 10.1-es verziót és egyből a DirectX 11-es verziójára koncentrálnak majd. Több információt megtudhatunk a hónap végén."
Mi a véleményetek a dologról?
Új hozzászólás Aktív témák
- Intel Core i7-5xxx "Haswell-E/EP" és i7-6xxx "Broadwell-E/EP" (LGA2011-v3)
- Apple asztali gépek
- Bemutatkozott a Poco F2 Pro (már megint)
- Intel Core Ultra 3, Core Ultra 5, Ultra 7, Ultra 9 "Arrow Lake" LGA 1851
- gban: Ingyen kellene, de tegnapra
- Mibe tegyem a megtakarításaimat?
- Küszöbön az androidos PC-k
- Gaming notebook topik
- Horgász topik
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- További aktív témák...
- Microsoft Surface Laptop 5 13,5" Fekete i7-1265U 16GB 512GB magyarbill 1 év garancia
- billentyűzetek - kiárusítás - Logitech, Corsair, ASUS
- Eladó karcmentes Apple iPhone 13 128GB / 12 hó jótállás
- Bomba ár! Lenovo ThinkPad X260 - i5-6G I 8GB I 256GB SSD I 12,5" HD I HDMI I CAM I W10 I Gari!
- Telenor 5G Indoor WiFi Router (FA7550) + töltő
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest