-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Abu85
HÁZIGAZDA
válasz DemonDani #905 üzenetére
Ahhoz, hogy a szoftver render idejébe érdemes legyen maradni platform kell. 2015-ben úgy veszed meg a PC-t, hogy a prociba lesznek építve a vektormagok. Integrálódik minden, ezt jelentené a Fusion, amiért az AMD megvette az Atit. Ha lehet is még külső gyorsítót venni a gépekhez elég kis piaca lesz. Persze addigra sok víz lefolyik a dunán, még x86 licenszet is szerezhet az NV.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Abu85
HÁZIGAZDA
válasz DemonDani #1440 üzenetére
Egy SM textúrázó blokkja 16 pixel/clock teljesítményű, de ez csak Int8 érték. Ráadásul erős a gyanu, hogy minden textúraformátumot emulálnak, tehát a textúrázó csatorna hardveresen nem támogat semmit.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
zack
nagyúr
válasz DemonDani #1447 üzenetére
Bőven elég lenne ha az 1GPU-s mezőnyben megkenné az 5870-et. Gondolom ha lesz kereslet, az nV is fog 2 GPU-s szörnyet csinálni és akkor az majd megkeni az 5870 X2-öt.
Nem hinném én se hogy akkora durranás lesz, hogy a 5870 X2-öt 1 szem GPU meg fogja előzni, de ez nem is lehet cél a realitások talaján maradva. Bőven elég ha a maga kategóriájában jobb lesz mint az ATi.
A sávszélesség meg jónak tünik, hogy 384Bit GDDR5 van párosítva, de mint tudjuk, hiába hiper-szuper GB/s memó sávszél. értékek lesznek láthatók, igazából nem ez lesz a meghatározó a gyorsaságban. Ha verni fogja a konkurenciát, nem ezért fogja verni.Samsung Galaxy Z Flip5 256GB Platinum Silver (online exkluzív) <<>> Vsonic GR07 + Sony Hi-Res WI-H700 + Sony Hi-Res WI-1000X <<>> Spotify Premium<<>> LG 65" C31LA + LG S80QR 5.1.3
-
félisten
válasz DemonDani #1506 üzenetére
Neem. OpenGL, vagy DirectX (nem OpenCL, és CS ). Legalábbis, szerintem.
Kötve hiszem, hogy az Adobe kitol magával, és nem tesz elérhetővé egy olyan funkciót minden hardveren, amit a konkurencia (silverlight) már régen tud.
Ráadásul, a Flash plyerben van már GPU gyorsítás szintén sima DX és OGL segítségével. Ezek jól bejáratott cuccok, szerintem, fölösleges lenne vadiúj cuccokkal vezsődni, hiszen, sem a támogatás nem elég széleskörű, és nem is valószínű, hogy olyan sokat javít a sebességen. Majd pár év múlva. Szerintem.[ Szerkesztve ]
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
rocket
nagyúr
válasz DemonDani #1602 üzenetére
Az AMD-t nem az ATi mentette meg hanem a gyaraik eladasa az olaj milliardosoknak (ATIC), es a toke injekcio, ezen kivul az ATi-val erkezett ATi CE-t is eladtak (Mobil telefon es TV chipek) , ezek eladasa nelkul mara mar alulrol szagolnak az ibolyat, a veszely meg fent all a csodre mert amiota megvettek az ATi-t nem sikerult meg1 nyereseges negyedevet se csinalniuk, sot ha a grafikai reszleg eredmenyeit nezzuk az ATi nem hozott meg az AMD-nek 1 cent hasznot se.
Arrol szerintem nagyon kevesen tudnak, hogy minden nagyobb HDTV gyarto az ATi chipeit hasznalta, ezen kivul rengeteg mobil telefon designt nyertek el, ez ket olyan piac ami folyamatosan novekszik (az elso foleg), es ezt aprozta el az AMD mert kellett neki a KP 141.5millio $-ert a Broadcomnak."A lower resolution generally means that there can be more quality per pixel."
-
Zeratul
addikt
-
janos666
nagyúr
válasz DemonDani #1874 üzenetére
A jobboldalit kérem, ezüstpapírba csomagolva (persze az orránál kiluggatva...), de kérem mellé azt a szép nagy palack nitrót is, hogy ne unatkozzunk.
(#1875) biggamer - Ki az igazi? Adrianne, Luna, Nalu, vagy Down?[ Szerkesztve ]
TV/monitor kalibrálást vállalok. ||| "All right , Thom. But understand this: I do care for you. I care for all the lost souls than end up up here."
-
priti
addikt
válasz DemonDani #3909 üzenetére
Nem hiszem, hogy nem érzitek valahol az ellentmondást. Mindenki azzal érvel a 3D ellen, hogy jelenleg nem használják elég sokan. Hányan használtak dx11-et fél éve és hányan most? Semmi köze egy fejlesztésnek a jelenlegi felhasználókhoz. Fizetőképes kereslet kell semmi más, az meg van rá. Az avatarra is drágább a mozijegy mégis rekordokat döntöget. A másik, hogy a vonatkozó monitorok, projektorok ára is csak csökkenni fog. Úgy terjed majd a 3D, mint a lepra. Az meg nem új, hogy mi 20 évvel le vagyunk maradva, nem belőlünk kell kiindulni, nem mi vagyunk a piac, nézzél már körül milyen csóróság van ebben az országban. Ha valaki vesz egy 5 millás autót az már az irigyelt felsőközépben van, USA-ban meg a középosztályban a gyereknek vesznek érettségire ilyen autót, az más kérdés hogy náluk van rajta kemény 8% adó, nálunk meg 25%, meg egy gallon benzint (több mint 3 liter) vesznek szinte ugyanannyiért mint mi egy litert, stb... stb... Mi soha nem fogjuk őket beérni, ez mese, attól gazdagok, hogy más meg az adósuk. Mindig lesznek elnyomottak és hatalmasok.
Hardverlesen
-
-
-
Robi BALBOA
őstag
válasz DemonDani #4028 üzenetére
Az ATI nem foltozgat hanem nagyon okos stratégia szerint fejleszt, és ha hiszed ha nem ebben az r600 kulcsfontosságú szerepet játszik.
Ha tippelnem kellene akkor azt mondanám, hogy a dx12-ig marad ez a felépítés és szerintem a dx12 eljöveteléig bőven lesz rá erőforrásuk, hogy megint(r600-hoz hasonló) egy zseniális új struktúrát hozzanak létre.Tuning mindenek felett! Legjobb a Legrosszabb! by Karesz:) , Én: és mivel iszod a Vodkát Karesz? Karesz: Hát,Ö?!?> Haverokkal!:) , Nem az a lényeg honnan jössz, hanem, hogy mit ISZOL!!! by-Bekő Lacika- /Abit és Fatal1ty alaplapokat Keresek!/
-
veterán
válasz DemonDani #4031 üzenetére
Csacskaság... Az R600 után szaladt annak idején az nVidia, amikor látta, hogy az nagyon bejött. Azóta van unified shader is, amit szintén ellenzett az nVidia. Ironikus, hogy most meg ők akarnak az általános egységekkel robbantani. Egyáltalán nem különcek és nem a "jó fiúk" a fejlesztőik a történetben. Azt csinálják, amit mondanak nekik. Közük nincs a legjobbat kihozni témához.
A szoftveres oldalt pedig még jó sokáig az MS fogja meghatározni és abba az nV-nek megint nem sok beleszólása lesz. Kérdés inkább az, hogy kapálóznak még egy kicsit vagy végre összeszedik magukat és valódi fejlesztésbe kezdenek végre?
-
Abu85
HÁZIGAZDA
válasz DemonDani #4044 üzenetére
Nem teljesen ezt ismerte fel az ATI. A sweet spot stratégia lényege nem ebben rejlik, hanem a méretre levetített teljesítmény generációnkénti megduplázásában. Ebbe beletartozik az is, hogy az R600 után nem vállalják fel a haszontalan innovációkat. A kártya teljesítményét főleg az életciklusára tervezik, és kismértékben koncentrálnak a jövőre. Az R600-ban lakozó GS erőnek nem igazán vették hasznát, ettől függetlenül sok tranyót felemésztett a megfelelő kialakítás ezekhez a folyamatokhoz. A sweet spot alatt a programozók előrejelzései szerint fejlesztik a hardvert, nem tekintik lényegesnek azt az innovációt, amit előreláthatólag nem használnak majd ki.
A kis chipek csak az elgondolás mellékterméke, a sweet spot ugyanis a fejlesztési költségek visszaszorításáról is szól. A mai diszkrét GPU piacot 5 kategóriára lehet osztani, ezekhez lefedéséhez 5 chip kellene. Az AMD kihagyja a csúcskategóriás chipet és stratégiailag két felsőkategóriásat helyez a helyébe. Aztán nyilván a tényleges termékek úgy alakulnak ahogy a piac megköveteli.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
válasz DemonDani #4044 üzenetére
miért is volt értelmetlen? Amit te írsz sehogy nem kapcsolódik az enyémhez, mert én a unified shaderről írtam, nem teljes architektúráról.
egyébként ha a legutóbbi két hszemet is olvastad volna, kiderül a történet vége: nem írtam sehol, hogy az R600-ban volt először. azt se írtam, hogy nv nem fejleszt semmit, hanem azt írtam, hogy a kamu bemutatók és a kapálózás, helyett arra koncentráljanak és legyen végre valami.
szerintem a hsz nem volt ATI-fan, se nV utálkozó, de ha valaki már zölden lát, annak magyarázhatok, nem megy át a szűrőn.
Nem is tudom, miért magyarázkodok neked.
Raymond:
Nem csak egy színt látok.[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz DemonDani #4048 üzenetére
Pontosan ezért lett kialakítva a sweet spot. A fejlesztők visszajelzéseire építik a rendszert. A tesszellátor nem annyira lényeges. A Xenos kompatibilis egység alig 10 millió tranzisztor. Nem ezen múlott. Sőt a box-osok szeretik használni, mert egyszerűbbé teszi a fejlesztést a PC-xBox360 multiplatform címeknél.
Annyit érdemes itt látni, hogy a Xenos-os és a DX11-es egység más logikát követett. Az xBox360-ban az a tesszellátor dolga, hogy a fejlesztők alacsony poligonszámú modelleket alkalmazzanak, amivel a rendszer erőforrásait valamilyen szinten felszabadíthatják más feladatokra. A részletességet majd kialakítja a tesszellátor. Ezt használják az MS konzolján a fejlesztők, már van pár ilyen játék (Mass Effect 1-2, Viva Pinata 1-2, Dragon Age).
A DX11-ben inkább a magas részletességre ment a hangsúly. Itt csak az Unigine Heavent lehet felhozni, mert játékban nem igazán használják az eljárást, ilyen komoly mértékben. De nyilván ez érthető egy benchmarkban nem számít a sebesség, míg egy játékban komoly problémát jelent a felület kiépítése és a keletkező háromszögek árnyalása, feltextúrázása. Egyelőre a karakterek tesszellálása a menő (STALKER: CoP, AVP, Metro 2033), ez nem nagy dolog, és alapvetően látványosnak is mondható. Teljesítményigény szempontjából sem megterhelő. Az AVP már használ pár felületre tesszellálást, de nem vitték túlzásba. Esetleg a Dirt 2-ben látható mód is reális alternatíva, effekt szinten használni az egységet. A Genghis Khan MMO lesz majd ebből a szempontból előrelépés. Ugyan a felületek továbbra is csak kismértékben lesznek tesszelálva, de a karaktereken már könnyen észrevehető változás lesz. Márciusban is jön két DX11-es játék, de előreláthatólag egyik sem használ tesszellálást. Szerk.: Illetve három jön, mert a Metro 2033-at is ide kell sorolni. Na az használ karaktertesszellálást, a'la STALKER: CoP.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
veterán
válasz DemonDani #4058 üzenetére
"A Fermi a Duke Nukem Foreverrel a dobozban kerül a boltok polcaira!"
Csak nem.
Valamikor 1-2 hete még nagyon fogadkoztak, hogy majd a Metro 2033 így, meg úgy... de akkor ebből se lesz semmi.
A zseblámpa már lehet, hogy level2-es szint és így tiltják le a játékban.
Pug:
Kicsit gyanús, hogy pont a zseblámpa kapcsolásán lenne egy logika, ami ellenőrzi az eredetiséget, de meglehet, hogy a törés.[ Szerkesztve ]
-
rocket
nagyúr
válasz DemonDani #4058 üzenetére
"amugy nem a Metrohoz igazítják mert a Metroak egy fix Marcius 19.ei időpontja van és a Ferminek ilyen nincs."
Jelenleg Europaban marcius 19., Eszak-Amerikaban marcius 16.
Egy jatekot a megjelenes elott eleg egyszeruen el lehet tolni egy kesobbi idopontra, indokot is lehet talalni (valami bugot talaltak az utolso pillanatban).
Szoval ha nem jon a GTX470/480 marcius 16-ig, akkor lehetseges, hogy eltoljak a jatek megjeleneset.
Nem szokas VGA-k megjelenesi datumat nagy dobra verni, az AMD se szokta, ugyhogy az, hogy nincs meg publikus megjelenesi datum (egyebkent lehet mar van, de NDA alatt all, es ilyen tavlatbol meg nem szivarogtatta ki senki) nem jelent semmit"A lower resolution generally means that there can be more quality per pixel."
-
tome.jr
addikt
válasz DemonDani #4095 üzenetére
Én is így gondolom, hogy egy CEBIT-es demo jót tenne a Metro 2033 reklámjának. Főleg ha hozzácsapnák majd Bundle az új GTX-ekhez. A Ferminek meg azért lenne jó ezzel demózni mert ahogy írtad is benne van minden jelenleg létező és jól csengő nevű feature amitől jobban eladható lesz a kártya.
[ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz DemonDani #4128 üzenetére
Ezeknél a csúcskártyáknál a hőtermelés a probléma. Egymagában nincs gond, de ha kettőt egymás mellé teszel, akkor már para. Ezért minősít az SLI-re az NV. Valszeg, ha növelnék a kártya méretét, akkor sem lennének sokkal előrébb.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
TESCO-Zsömle
félisten
válasz DemonDani #4178 üzenetére
A Havok kicsit korosabb, mint a PhysX, és ha megnézed a korábban említett RedFaction-t, láthatod mire képes CPU-n számolva. PhysX elbújhat mellette... Hamarosan pedig jönni fog a HavokFX, ami végre bevonja a GPU-kat is a CPU mellé. És ím, kiderül mire is lesz jó a CPU-ba integrált GPU. Ha másra nem, majd fizikát gyorsítani.
[ Szerkesztve ]
Sub-Dungeoneer lvl -57
-
TESCO-Zsömle
félisten
válasz DemonDani #4181 üzenetére
Persze, hogy terheli a procit, hisz azon fut. PhysX is terhelné annyira, ha nem vették volna ki belőle a többmagos proci támogatását, de kivették, mert így nagyobb a szakadék a CPU és GPU fizika közöt. Már ideje lenne, hogy valami leterhelje azt a 4 magot, mert biz a játékok zöme baxik rá, pedig már kint vannak a 6-magos procik, és kopogtatnak a 8-magosak. Ráadásul ezek magonként akár 2 szálat is támogatnának.
A PhysX-et pedig még mindíg a hajadra kenheted, amíg nem megy radeonon, vagy a procin ugyanígy...[ Szerkesztve ]
Sub-Dungeoneer lvl -57
-
Raymond
félisten
válasz DemonDani #4181 üzenetére
Az osszes tobbi fizikai motorral meg lehet ezt csinalni. Ha nem lehetne, akkor nem fizikai motorrol van szo. Ahoz amit leirt nem kell hogy GPU-n fusson a fizika. Sot, egyik sem (a physix-et belertve) tud mindent ami ott le volt irva, de mindegyik kombinalhato mas motorral hogy elerd az azt osszhatast amit akart.
Pl. a Force Unleashed-ben ott van a Havok (alltalanos fizika), DMM (anyagok) es Euphoria (karakter animacio). Es ez elfut szepen a box 3magos CPU-jan.
Privat velemeny - keretik nem megkovezni...
-
zuchy
őstag
válasz DemonDani #4188 üzenetére
Sajnálom hogy nem megy atin de ez az ati hibája is részben, a lehetőség adott volt csak ők féltek, hogy nagyon visszahúzná őket, hogy az nv fejleszti
Melyik az a cég, amilyen elfogadja és használja a konkurense megoldását? Ráadásul a konkurens tuti megszívatta volna az AMD-t. Ez az NV hibája, hogy nem nyílt. Nyílt platform van, ha elkezdenek ő is csudázni, akkor ott megint az Nv lesz a befutó. Innentől kezdve az árak elszállnának, mivel a Radeon nem képes tartani a lépést. Erőltetni kéne a nyílt megoldásokat még jobban. A Bullett az jó is, csak még sehol sincsen.
Azzal lehetne élethű fizikát számolni, azt hiszem az Open CL-re épül, és egy időben lehet CPU-val és GPU is számolni. (Javítsatok ki, ha nem így van.)[ Szerkesztve ]
PC-STYLE.hu
-
Abu85
HÁZIGAZDA
válasz DemonDani #4188 üzenetére
Megmondta már az AMD az NV-nek, hogy támogatják a PhysX-et, ha OpenCL platformra lesz portolva. Az AMD a CUDA-tól zárkózik el, a PhysX lényegtelen, nem ebben van a veszély.
Miért tettek nekünk keresztbe? Senkit sem köteleznek a Radeonok vásárlására. Vehetsz GeForce-ot is. Az tudja a PhysX-et.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
rup1u5
nagyúr
válasz DemonDani #4178 üzenetére
Látom te sem láttad még a Red Faction Guerrilla-t.
Mindenkinek csak ajánlani tudom aki azt hiszi hogy a PhysX valami nagy dolog.
Fogalmam sincs miért kapott alacsony értékeléseket. Én mostanában készülök másodszorra végigvinni annyira lekötött a rombolás.
Ezt a videót mindenképpen érdemes megnézni annak aki nem tudja miről is van szó.
Ezután finomanszólva elbújhat a PhysX.
A kulcsmondat ott van a videó mellett:
"Using the environment to your advantage."
PhysX semmi más mint egy drága látványelem.És ez a játék egy egyszerű kétmagos procin már tökéletesen fut.
Apósom HT-s P4-el meg AGP-s HD3850-el tolta végig.
Szóval ennyit a dedikált physx kártyákról meg a mesterségesen feltornászott hardverigényeiről ennek a parasztvakítós fícsörnek.[ Szerkesztve ]
Why don't you knock it off with them negative waves!
-
TESCO-Zsömle
félisten
válasz DemonDani #4199 üzenetére
Én nem értem, miért kell a GPU fizitát erőltetni, mikor a járékok 90%-a alatt ott van két teljesen szabad CPU-mag... A GPU fizika amúgy is a grafikától szívja el a kapacitást.
Majd ha a CPU már nem elég a fizikához, akkor lehet döngetni a GPU-fizikát.[ Szerkesztve ]
Sub-Dungeoneer lvl -57
-
Raymond
félisten
válasz DemonDani #4199 üzenetére
Menj szepen vissza es olvasd el a #4173-at. Hol van ott szo GPU-rol? Mert szerintem sehol. Arra a hsz-re irtad hogy az csak Physix-el erheto el es erre irtam hogy ez marhasag. Ami azota sem valtozott. Csak az a problema hogy kicsit szemellenzosen nezed a dolgokat es azt hiszed GPU kell a fizika szamolasahoz. Na ezen kene mar lassan tultenned magad.
[ Szerkesztve ]
Privat velemeny - keretik nem megkovezni...
-
rocket
nagyúr
válasz DemonDani #4203 üzenetére
"Sok buta konzolnak köszönhetjük ezt is . Le a konzollal (legalábbis elég szoros lehet a kapcsolat a lassabban fejlődő PC grafika és jó öreg konzolok között, és ami még rosszabb előjel, hogy mintha az egyre újabb konzolokból egyre hosszabb pályafutást próbálnak elővarázsolni)"
Nem a konzol az okozoja ennek, hanem a warez PC-n, ha joval kisebb merteku lenne, megerne a PC-s hardverek plusz erejet, funkcioit kiaknazni, de addig minek koltsenek erre, ha nem jon vissza a PC verziora szant fejlesztesi koltseg se.
Alan Wake kapcsan is egyszeru szidni a M$-ot, meg peticiokat gyujtogtni online, pedig a tobbseg akik haborognak, a kialakult helyzet okozoi kozott vannak.
"A lower resolution generally means that there can be more quality per pixel."
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest