Új hozzászólás Aktív témák
-
janos666
nagyúr
Azt hiszem feleződik a sávszél, de ez messze nem olyan probléma, mint mikor CF-ben megy két izmosabb kártya.
Ki kell próbálni, de max 10, gyakorlatban inkább pár százalékos csökkenést saccolnék a mai VGA-kkal és játékokkal emiatt.
És nyilván Physx-es játékokban jobb lenne az összekép, mint Physx gyorsító nélkül.Én úgy csináltam a 8800GTS-el, hogy nem csavaroztam be, és mikor nem kellett, akkor nemes egyszerűséggel kirántottam a slotból, és visszatoltam, mikor kellett. (Én csak úgy lazán hotplug, de ha akarod, kikapcsolhatod addig a gépet
).
(De csak azért, hogy ne menjen feleslegesen, átpasztázva és finomhangolt ventivezérléssel épp csak körbefordult, néha meg is állt a venti idleben.) -
janos666
nagyúr
válasz
czpitti
#2037
üzenetére
De mi ez a patch? Itt az nv driver hack-re gondolsz?
Mikor fagy le? Csak a hack telepítése után? Akkor próbáld azt a drivert, amit nem kell hackelni, mert kifelejtették belőle a védelmet, egész friss az is, mai játékokhoz elég kell, hogy legyen. Illetve olvasd el a readme-t, hogy legfeljebb melyik driverrel használható a hack.
Aztán ott van az ATI oldal, mert ők is szeretnek belerondítani a levesbe. Szóval járj el aszerint, ahogy az alább linkelt topicban javasolják. Illetve próbáld meg azt az ATI drivert használni, amiről az a topic szól. -
janos666
nagyúr
válasz
czpitti
#2033
üzenetére
Kevés az infó.
Mi az az 1.3-as physx? Melyik játékot próbálod? Elég kevés a hardware-es Physx-et támogató játék.Kell egy monitor két bemenettel, vagy két monitor, vagy hamis monitort emuláló vakdugó az nv kártyára, mert annak is látnia kell valami monitort, hogy beinduljon win7 alatt. De az ATI-t kell elsődlegesnek hagyni a kiterjesztett módban.
Az új nv drivereket hackelni kell. VAgy van egy viszonylag új, amit véletlenül nem.
Ha eligazodsz az angolon, bogarássz itt. Sok más infó is van, és elsőre úgy tűnik, nem ezt kerested, de itt írnak a Physx kivitelezéséről is, méghozzá friss infókat, én már rég foglalkoztam vele.
[link] -
janos666
nagyúr
De ami ebben a legszomorúbb, hogy ennyi idő után sem tüntették még el a tesztet.

Tévedni emberi dolog, de nem hiszem, hogy még senki sem szólt nekik, hogy ez így nem kerek, sőt, nevetséges és veszélyesen presztízsromboló. Ráadásul, ha ezek után szándékosan kiálltak a tévedésük mellett, az már elég fatális tévedés. (Hogy még csak nem is olvastak utána egy kicsit, hogy talán tényleg hülyeséget csináltak-e.)
-
janos666
nagyúr
válasz
MC Pite
#1850
üzenetére
Használj win7-et, ma már egész sok játék jön DX10+ rendererrel, de az újabb DX9-esek is örülhetnek a WDDM 1.1-nek új kártyákkal és driverekkel, a mai játékokhoz már nem XP való.
Tudtommal miden máig kiadott játékban megy a Physx olyan driverrel, ami még crackelhető. Esetleg a Just Cause 2 féle vonal okozhat majd gondot később, ahol az extra effekthez közvetlenül CUDA-t használtak, és gondolom nem is kap rá külön másodlagos CUDA képes GPU-kra, amik nem tartoznak aktív SLI rendszerhez (és nem vesznek részt a kép renderelésében), és ez esetben kérdés, hogy a Physx-et is ilyen közvetlen eléréssel valósították-e meg a jövőben, hisz az Ageia kártya már amúgy sem támogatott.
(Konkrétan ebben a játékban nincs Physx, csak az ilyen nv féle extra effektek beépítésének módja fest érdekes jövőképet a Physx effektekre nézve is...) -
janos666
nagyúr
válasz
Daemon09
#1834
üzenetére
Pedig az már szinte csoda, Vantage-ban külön van a Physx teszt, úgyhogy a társkártyázós teljesítménymegosztogatás nem érvényesülhet (így most lassabb kártya végzi azt, amire a gyorsabb is ráérne). Próbálkozz játékokkal, de a 8600GT (főleg újabb játékokban, tuning nélkül) határeset játszhatóság terén, úgyhogy sokat ott se várj.
-
janos666
nagyúr
válasz
Kr/\toS
#1799
üzenetére
Patchelés és reboot után az Nvidia Control Panelben is engedélyezni kell a Physx gyorsítást.

195.62-es drivert crackelj 1.02-es patcherrel, rögtön telepítés után, és úgy reboot. A Physx System Soft lehet bármi, tedd fel a legújabbat.
Így nekem ment minden. Viszont lehet, hogy a 8500GT már nem támogatott kártya, a CUDA elég VRAM igényes, illetve a Physx gyorsítás is értelmetlen 16SP-s kártyával, ezért letiltogatják a belépő szintű Gef8/9-eket, akár egyedül vannak, akár más mellett. -
janos666
nagyúr
válasz
Jakab66[hun]
#1787
üzenetére
Ezzel a kijelentéssel azért várd meg a Fermi megjelenését, és az első valós teszteket.

-
janos666
nagyúr
Hát, szerintem konvergál a 0-hoz, én már meghirdettem a 8800GTS-em, és lassan leárazom hogy eladjam mielőtt jön a fermi.
Nem nagyon jön semmi játék, a Bordeland-el játszottam 1-2 órát, és tetszett, ha benne lenne már a Physx bővítés, vagy nem is lenne Physx cím, már végig játszottam volna, így meg csak pang.
A már bejelentett 2010q1 játékok közt is jó ha 1 olyan van, ami tényleg érdekel, de a shattered horizon után ki tudja mi lesz belőle. -
janos666
nagyúr
válasz
Dyingsoul
#1777
üzenetére
Ez nem SLI és nem CF, hanem Physx gyorsítót használsz egy grafikus gyorsító mellett, egymástól függetlenül. Ha muszáj nevet adni, nevezd vegyes társkártyázásnak.
Közvetlenül a hsz-ed alatti hsz-emben van linkelve egy program, amivel hackelni lehet a a 195.62-es drivert.
- Dugj monitor bemenetet mindkét kártyára (lehet ugyan annak a monitornak két külön bemenete, mondjuk a Radeon a DVI-re, vagy HDMI-re, a Geforce-ra a D-subra...)
- Törölj le minden VGA drivert.
- Indítsd újra a gépet.
- Telepítsd a 195.62-es nv driver.
- Futtasd le a patchert.
- Telepítsd a legfrissebb Catalyst drivert.
- Indítsd újra a gépet.
- Állítsd be úgy a windows-t (jobbklikk az asztalon, és felbontás beállítások), hogy a Radeonra kötött megjelenítőn legyen az elsődleges asztal, a Gefroce-on pedig a másodlagos (ehhez kiterjesztett módot kell választanod). Hogy ne zavarjon, illeszd másodlagos képernyőt az elsődleges bal-felső sarkához (megfogod egérrel, és odahúzod).
- Ellenőrizd az nvidia control panelben, hogy engedélyezve van-e a Physx gyorsítás.
- Fluidmark-al ellenőrizheted legkönnyebben, hogy működik-e a Physx hardware-es gyorsítás.
+ Ha szeretnéd, tedd fel a legfrissebb Physx System Software-t, mert jött már ki újabb, mint amit a forceware mellé csomagoltak.
+ Játsz valamivel, ami Geforce Physx támogatást élvez: Mirror's Edge, Batman AA, UT+ + Mappack, Cryostasis. NFS Shift, és ilyesmi nem játszik, egyelőre a Borderlands és Shattered Horizon se. -> Ezen topic legelső hsz-e.Ja, és Windows 7 vagy XP kell hozzá, Vista nem jó.
-
janos666
nagyúr
válasz
FeriPRO
#1773
üzenetére
A 195+ béták már 3.0.x-es CUDA-kkal jöttek, van már köztük WHQL is.
Physx terén pedig igen, nálam gyorsult pár FPS-nyit a Fluidmark, kár hogy ehhez a driverhez nincs még patch, így csak a 191.07-est tudom használni a Radeon mellé.
De csinálgatnak ezt-azt a physx-el is, pl. az új 9.09.xx-es softwarek már telepítenek x64-es dll-eket is, tehát a 64-bites programok is használhatnak már Physx-et. -
janos666
nagyúr
-
janos666
nagyúr
Hát igen, ez a játék nálam esélyes a hónap ponén-megjelenései közt az első helyre: GPU PhysX in Star Trek D-A-C, nem beszélve arról, hogy még a Physx sem oszt vagy szoroz sokat ezen a hihetetlenül vicces játékélményen.
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
janos666
nagyúr
Nem annyira a semmiből, én már hallottam erről korábban, csak most, mire odaértem, hogy meglett a Radeonom is, már elfeledkeztem róla.
Hopsz, de most, hogy rákerestem, már tudom is, hogy miért: "egy multiplayer felülnézetes lövöldözős akció az űrben." Itt aztán nagy sansza van a Physx effekteknek, tán' még annyi se, mint a Batman-ben.
Kár, pedig Spock-ékat jobban csípem, mint a denevérembert.Valami fasza kis FPS kéne, ahol "ki lehet rúgni a ház oldalát", bár én már azzal elszórakoznék, ha legalább pár ablakot ki lehetne lőni, vagy összetörni pár vázát, ilyesmik.
Így látatlanban abban is kételkedem, hogy a Borderlands-ban érne-e valamit az extra Physx content. Jobban porzik a föld, ha belelövök, aztán ugyan úgy maszatos hullos marad?
Mikor elkezdtem vele játszani, az első 5 perctől úgy a 30-adikig rendesen szédültem attól a játéktól. (Aztán megszoktam, hogy mikor körbefordulok minden majdnem ugyan úgy néz ki, mint mielőtt megmozdítottam az egeret, és sikerült rákapni a tájékozódási pontok belövésére.) -
janos666
nagyúr
Jap, szóval az AMD megint úgy szolgálja a vásárlói érdekeit, hogy az asztal másik felén ülők kezéből kiveri a pirítóst, ami törvényszerűen a vajas felével pottyan az ölükbe, és ekkor a kurrens oldalon ücsörgőknek már fel sem tűnik a nagy cirkusz közben, hogy ők meg vaj nélkül, szárazon kapták a pirítósukat ebédre. (Merthogy nekik meg volt rendelve mellé a lekvár, csak 3 éve várják már, hogy végre leltározzák, és osztogassák is, mert még megrohad a raktárban, vagy hamarabb kerül az asztal másik oldalán narancslé is a vajas pirítós mellé, minthogy ráharapnak végre a lekváros kenyerükre.)
Elismerésem. ![;]](//cdn.rios.hu/dl/s/v1.gif)
-
janos666
nagyúr
Belenéztem a Batmanbe, de Physx terén ez egy vicc, még a Mirror's Edge-be is látványosabban sikerült bezsúfolni pár effektet. Kikerül a füst, mozog a földön pár papír, lebeg a köpeny, de ez csak látványeffekt, eddig nem találtam még semmi széttörhetőt. Így az interakciók hiánya nélkül nekem nagyon sovány ez a physx támogatás. Ha lenne pár betörhető ablak, vagy bármi, ami roncsolható, és látványosan hullik/morzsolódik szét, az dobhatna rajta. (igaz nem sokat játszottam vele, de így már nem is fogok tovább, mert utálom Batmant, csak a Physx miatt érdekelt a játék).
Belenézek még a Borderlands-be, állítólag előbukkan pár Physx effekt, ha átírkálja az ember az ini filet, de szerintem utána dobom kifelé a gépből ezt a 8800GTS-t.

-
janos666
nagyúr
válasz
voodoo98
#1753
üzenetére
Amíg ki nem adják, bármi lehet, de valószínűleg csak a CPU-n fut majd, hardwares extra effektek nemigen lesznek.

Emiatt kár cserélni, max megtámogatod majd egy 2. 8800GTS-el, illetve hát ki tudja, megéri-e majd váltani akár más játékok miatt geforce-fermire, az még a jövő meséje (de most ez sem valószínű). -
janos666
nagyúr
válasz
KlezOne
#1751
üzenetére
x58 tudtommal 32 sávos, így 16+16, vagy 16+8+8 (esetleg 8+8+8, de 16+12+4 nincs, mert a 12 elektromosan talán elérhető, de nem standard, a BIOS nemigen engedi így beállítani), bár ha a te lapodon az ICH10-ből vezették ki az említett 3. slotot, akkor mehetnek 16+16+4-ben. (Ha az alsó slot max 4x-es, akár van a felette lévő kettőben bármi, akár nincs, akkor az ICH-ból jön, és nyert ügyed van, mert hejjel-közzel, de elég lesz)
9600GT felett gondolkodj, inkább 8800/9800-ban, és ha a hűtés zajszintje is számít, akkor a 8800GTS a te kártyád (akár a 320-as, ha tényleg olcsón adják, vagy az 512, drágább 9800GTX szerintem már felesleges, a GTS-ben is lesz még tartalék is).Azt viszont kezeld egy külön kérdésként, hogy egy 15-20k-s kártya (szerintem ezt mindenképp csak használtan vedd) megéri-e a Physx-ért cserébe. Vedd számba milyen játékokban vennéd hasznát.
De pl a pillanatnyi helyzetedben sokat nem vesztesz, ha veszel egy használt 8800GTS-t, vagy hasonlót, elbirizgéled a már kiadott Physx-es játékokat, és akkor vagy úgy döntesz, hogy amit még ígértek későbbre, amiatt megéri a gépben hagyni, vagy max 1-2k különbözettel eladod, és ennyibe került a móka, illetve kivárod pár új játék megjelenését, és akkor megint veszel majd valami Geforce-ot, ami akkor megéri... -
janos666
nagyúr
válasz
szuper-t
#1742
üzenetére
Még mindig totál nem vágom.

Ezt mondtam, hogy játékok esetén határeset, hogy megéri-e. És azt mondtam, hogy teszteld játékokban, hogy az alapján megéri-e a játékoknak, és ekkor mondtad, hogy igazából CAD-re kell, pedig az adott témában mégis a játékok érdekelnek...

Ha azt kérdezed jó-e a nejlonzacsi cipőtartónak, nem érdekes, hogy reggel a szemetet is nejlonzacsiban viszed-e ki, mert csak túlbonyolodik a kérdés, ha én is a szemétszállítás kérdésével kezdek foglalkozni.

Amúgy a GTX-en is van két DVI csati, amire rá tudsz kötni egy-egy darab 2560-as monitort, sőt, a dual link DVI dugaszokra két-két kisebb felbontású monitor is rámegy, ha az a cél, hogy megjelenítőkre szeparálva legyenek a dolgok. Szóval ebből nem következik, hogy két kártyára van szükséged, hacsak nem kell kettőnél több FullHD vagy attól nagyobb felbontású monitor is.
(#1743) XoZ - Jó hallani, hogy működik.
Az a kártya tényleg hangos, ezért szoktam inkább 8800GTS-t javasolni.És milyen jó, hogy eszembe juttattad! Én is kénytelen leszek lecserélni a PCI-os Audigy 4-et PCI-E 1x-es X-fi-re, ha az alsó slotban akarok tartani egy 8800GTS-t, márpedig csak így jó, mert a másik alternatíva hogy vizesblokkot teszek erre is, hogy kisebb legyen, de mivel csak addig akarom a slotban tartani, amíg a Physx-es játékokat végigszórakozom, így nem akarom odabetonozni a csövezéssel, és hosszútávon jobb befektetés ~8-10k-t hangkártyacserére költeni, mint felvizezni egy ilyen VGA-t...
-
janos666
nagyúr
válasz
szuper-t
#1740
üzenetére
Hmm. Milyen tervezéshez használsz Physx-et?
Úgy általában CUDA program alá nem sok jelentősége lehet, ha beraksz egy ilyen kis kártyát a nagyobb mellé. Sőt, ha nem kell egyidejűleg jó minőségben (nagy textúrákkal, árnyékolással, stb.) renderelni, és fizikát számolni (mint játékokban), akkor is sokkal jobban jársz, ha a nagyobb GPU-n ketyegnek a fizikai számítások, miközben renderelget valami kis drótvázas vagy szimpla alapszínekkel kitöltött felületekkel határol geometriai alakzatokat. Ha épp a fakerealisztikus megjelenítés a lényeg, akkor pedig SLI kell erős GPU-kból (és szintúgy, egy masszív számításigényű CUDA programhoz is...). -
janos666
nagyúr
válasz
szuper-t
#1738
üzenetére
A friss driverek (190.xx felett már tuti) elvileg már automatikusan úgy állnak be, hogy ha egytől több GPU közt jelen van olyan is, mely nem vesz részt SLI konfigurációban, akkor az lesz a dedikált Physx gyorsító.
Bár nem vagyok benne biztos, hogy ezzel így feltétlenül jól jársz. Teszteld le valami objektív benchmarkkal (játék alatt, de timedemót visszajátszva, nem Vantage, és nem "sétáltam a pályán és úgy éreztem"...), hogy gyorsabb vagy lassabb-e így.
-
janos666
nagyúr
Próbáld meg te is törölni a Physx-el DLL fileokat a fluidmark mappájából, azok még a legelső GPU-s runtimeból származnak, azóta eltelt már több, mint egy év, és lefolyt legalább 3, de inkább több runtime verzió, a társkártyázást hivatalosan amúgy is csak V9.akármi óta támogatja (elvileg).
-
janos666
nagyúr
válasz
janos666
#1729
üzenetére
Hoppá, töröltem a teszt mappájából a PhysxLoader.dll-t, most már nem 98 és 100, hanem 100 és 103 közt ingadozik. (Az még 8.x-es physx driverből való, most pedig kénytelen volt rákapni a legfrissebb 9.09.14-el települt verzióra, de sikerült neki így is, hogy már nem is Ageia hanem Nvidia mappában vannak a fileok.)

-
janos666
nagyúr
Nálam a 195.36-os driver (ami már 3.0.1-es CUDA-val települ) látható gyorsulást hozott FludMark-ban. Az eddigi ~89 FPS után most ~98 FPS-t irkál (191.56 vs 195.36, külön VGA-val talán meglesz a kerek 100
)
Csak lenne már valami VGA-m is, hogy ez a GTS tényleg Physx kártya lehessen. -
janos666
nagyúr
válasz
Debilon
#1725
üzenetére
Elvileg a magasabb számú verzió updatelné a régit, tehát mikor a 7.xx-re rátelepül egy 8.xx, majd egy 9.xx, után ugyan olyannak kéne lennie az állapotnak, mint ha eleve csak a 9.xx települ volna üres windowsra.
Mondjuk az eredeti Ageia kártyákhoz nem készít már új drivereket az nVdiai, így lehet, hogy a 7.xx-es bejegyzés arra referál.Azt javaslom, töröld le mind, és telepítsd fel a legfrissebbet, amit az nvidia oldalán találsz. [9.09.0814]
(Már, ha hozzá akarsz nyúlni, mert ha minden jól működik, akkor felesleges, helyet sem nagyon foglal, még ha véletlenül duplikálva is van valami.) -
janos666
nagyúr
A lényeg, hogy a Physx kártyán is legyen valamilyen megjelenítő, amire ki lehet terjeszteni az asztalt. 99%, hogy működni fog, ha TV van rákötve (ha windowsan beállítod, hogy oda is terjessze ki az asztalt).
Mondjuk ez azért érdekes, mert régen lehetett driverben olyan csinálni, hogy akkor is küldjön jelet a TV outra, ha nem érzékel TV-t (gondolom többeknél hibásan nem ismerte fel, hogy rádugtak valamit), és akkor ezzel a módszerrel ki lehetett volna trükközni ezt a monitor dugdosósdit (már automatikusan driverből...). -
janos666
nagyúr
Ez is olyan kérdés, amire mostanában ez a divatos válasz:
Pontosan egy 634,3456 Mhz-en járó, konkrétan Sparkle márkájú 9600GTO 512Mb, de csak 2.0-ás slotba, 1.1-ben már 673,4534 Mhz-re kell húzni, mint akkor, amikor napfogyatkozás van, szóval ha nem elég tuningos, 1.1-el gondban leszel még holdfogyatkozáskor is, nem beszélve a vasárnap esti +5 Mhz szabályról.
Ez attól függ, mire kell. Milyen játékokhoz, és milyen célzattal (tűrhetően, élvezhetően, vagy simán fusson, legyen benne tartalék 2010-re...)?
Én új játékokhoz minimum egy 9600GT-t javasolok, de a kis árkülönbözet, és a sokkal halkabb hűtés, valamint a lényegesen több tartalék GFLOPS miatt egy 8800GTS-t sugallnék (inkább 512Mb-osa, de a 320Mb-os is kiváló a célra, és olcsóbb még a 9600GT-től is). Ez utóbbival biztos simán fog futni minden mostanság megjelent és megjelenő Physx-es játék.
De Mirrors's Edge-hez elég egy 8600GT is, és azzal bele lehet kóstolni egy UT3 mappackba és Warmongerbe is. Nem lesz teljesen sima, de techdemó futtatás szintjén elviszi a cuccot, játszadozni és nem játszani megteszi ez is. -
janos666
nagyúr
Nézegettem kicsit a Fluidmarkot (hogy lentebb tekerjem-e a 8800GTS órajeleit, ha majd csak a Radeon mellett ül majd).
756/1836/1044 a max stabil órajelek, ezeken 89 FPS-t tud összehozni.
756/1836/525-ön csak 64 FPS-t
380/1836/1044-en 70
756/920/1044-en pedig 89-et.
Szóval úgy tűnik, totál érzéketlen a shader órajelre, ha megfelezem, akkor sincs mérhető változás (amit írtam, átlag, mászkál +/- 1-2 FPS-t...). Ami furcsa, hogy a RAM órajel felezésére reagált a legérzékenyebben, sőt, drasztikusan, a GPU órajal pedig szintén érdekelte, de kevésbé akart belehalni, mint a RAM sávszél elvesztésébe.Ennyit arról a régi mondókáról, hogy csak az SP-k száma az érdekes, és csak azokat érdemes tuningolni. Ezek szerint viszont a DDR2-es kártyákat kell messze elkerülni (bár az 8600-asok fordulhat elő, amik amúgy is kevesek DDR3-al is), és érdemes a RAM tuningolásával kezdeni, majd a GPU órajelével folytatni, és csak akkor továbbmenni a shader órajelre, ha még mindig nem melegszik túlzottan, mert hőfokilag viszont erre a leg érzékenyebb a mag.
Viszont az idle ventilátorfordulat gyakorlatilag szintén mérhetetlen változáson ment át, mikor 380/920/525-ön órajeleket használtam (csak az FPS esett le 41-re), tehát hagyom max tuningos órajeleken (gondolom a fogyasztást sem igazán érdekli, ha se a venti nem lesz lassabb, se a maghő kevesebb, és gondolom ezért nincs is ezeken a kártyákon 2D órajel profil, mert nem sokat ér variálni vele).
-
janos666
nagyúr
Szóval írja alá mindenki: Az is aki A-val, az is aki B-vel akar kibaszni, de szignózza bátran az is aki, aki nem akkora köcsög, hogy bárkivel is ki akar baszni. Ez gyógyír mindenre, még az ázsiai éhezők is jóllaknak tőle.

A petíció szövege egyébként egész jól meg van írva. Mármint 80%-a szemét, de van benne hatásos érv is. -
janos666
nagyúr
válasz
gabor85
#1708
üzenetére
Tuning, vagy nem tuning, annyit nem fog pörögni, hogy lehagyjon egy gyorsabb kártyát, amin még szintén lehet egy szerényebbet rántani (285).
Érzelmi alapok, vagy sem, ezt a kártyát ennyiért már nem szabadna megvenni, max 40-45k-ért használtan.
Ha lenne egy 8800GT-m (mondjuk van is GTS-em), akkor most inkább HD5850-et tennék mellé, és lenne Physx is (és DX11 is). Ha mindenképp Geforce-ot akarnék, akkor vagy várnék a Fermi variánsokig, vagy ha addig nem akarnék várni, akkor boltolnék valami olcsón hirdetett, használt Geforce-ot, mondjuk GTX260-at, vagy tényleg olcsón árult GTX295-öt (attól függ, mire kell). Ha most kipróbálod a radeont, még mindig válthatsz az új Geforceok egyikére év végén, de ezzel a 275-el könnyen bajban leszel, mert hamar elfogyhat az ereje a 2010-es játékok alatt, és ha váltani akarsz, nem fogod tudni értelmes áron eladni, esetleg borravalónak elmenővel többért, mint a ref 275-öt, és az sem lesz nagy összeg. -
janos666
nagyúr
válasz
Oliverda
#1704
üzenetére
A kettőnek semmi köze egymáshoz. Ha például egy GTX295 mellé akarsz betenni egy GTX260-at, csak Physx gyorsítónak, vagy bármiféle CUDA-záshoz, ami független attól, hogy az elsődleges képillesztővel mit csinálsz (pl játszol videókonvertálás közben), akkor is kell rá monitort kötni.
Vista/Win7 alatt csak akkor tudja bármiféle program használni a VGA-t akármilyen gyorsításra (3D, CUDA, OpenCL, akármi...), ha kiterjeszted az asztalt arra a GPU-ra is, amihez pedig elengedhetetlen, hogy a windows érzékeljen valamiféle megjelenítőt azon a kártyán (különben a semmire nem lehet kiterjeszteni az asztalt).
Elég hülye limitáció ez a GPGPU folding divat idején, de biztos meg volt rá az okuk (ha mást nem, a lustaság).
Bár azt sem értem, miért nem oldják meg a VGA gyártók hardwaresen a kapcsolóval történő (jumper vagy tolópöckös kapcsoló a nyákon, stb.) monitor emulációt. Tesla kártyáknál sem szokott erre szükség lenni?
Szerk: Sőt, meg is oldják ezt még szoftware-esen is, mert Crossfire esetén is látszódik mindkét GPU (és látszik is, hogy egy nemlétező "Default display", vagy hasonló jelenik meg a kimenetén, csak hát erre kénytelenek voltak figyelni az MS-nél is). -
janos666
nagyúr
válasz
TESCO-Zsömle
#1698
üzenetére
Van még egy 3. map, amin kilőhető az összes üveg, és sok faldarab. Ilyen sárga színvilágú, eleve alaposan szétzúzott/lepusztult sokszintes épület. Van, ahol a padló is szétlőhető.
Milyen VGA, és hanyas driver? Új játékba nem akarsz belekukkantani? Mert ott kérdéses a dolog, Cryostasis-ig próbálgattam végig a nyáron, de jöttek már játékok a bannolós driverek óta, ott érdekesebb, hogy működnek-e. Illetve érdekes lehet még, hogy ezzel a hackel is törölni kell-e még a Mirror's Edge-ből a PhysxDevice.dll-t, vagy simábbá vált a dolog.
Én meg rájöttem, hogy amíg nem lesz vizesblokk az 5850-re, nem tudom őket együtt használni (nem mintha lenne már 5850-esem, az is még 1-2 hét), mert az SB blokktól nem fér el az alaplapban két duplaslotos kártya (legalább is ilyen vastag, merev csővel, ami most rá van dugva), egy 8800GT meg hangos lenne még addig is, amíg meg nem unom a physx-es játékokat baktatni. (Mert a Batmant sem akarom azért végigtolni, csak szórakozni vele pár órát a Physx miatt, utána meg kihúzom a slotból a geforce-ot.
) -
janos666
nagyúr
válasz
TESCO-Zsömle
#1693
üzenetére
Csak úgy elméletben: legyen most 1,5x hatékonyabb az Rv870 felépítése a DX11-es kódok futtatásához, a Fermiben viszont legyen 1,5x annyi, gyakorlatban is jól hasznosítható nyers erő, akkor mire jutunk? És akkor nem beszéltünk még a DX9-es, vagy 10-esnek csúfolt 9-es játékok teljesítményadatairól, mert olyanok is lesznek az összevető tesztekben, és színezik a képet.
Továbbá folyton nyomják ez a jövőt, hogy az nv kilép a piacról, az Intel meg behozza a software renderert, csak azt felejtik el, hogy az nv féle chip is tökéletes lesz software renderingre, itt nem értem, hogy akkor miért kell sátrat bontania az nv-nek. Az AMD is itt van, nem lehetetlen az intel mellett létezni, még ha kicsit háttérbe is vannak szorulva a versenytársak. Főleg, amíg a Larabee csak a szárnyait bontogatja, az első pár generáció alatt (ami több év) bőven van esélyük lépést tartani vele, hisz pörgő gyártástechnológiája a TSMC-nek is van, az nv régóta kóstolgatja már a hasonló termékvonalat, sőt, most a Fermivel jól rágyúr, mint látjuk, a C++ sem lesz már probléma.
-
janos666
nagyúr
válasz
TESCO-Zsömle
#1691
üzenetére
Nem hibák vannak benne, hanem bizonytalanságok, nem minden bizonyos, csak feltehetően elég valószínű, amit ténynek veszel a következtetéshez.
- Nem tudjuk, mit produkál majd a Fermi akár DX9, akár DX11 játékok alatt a HD5-ösökhoz képest.
- Nem tudjuk, ténylegesen mikor is akarja itthagyni a VGA piacot az nvidia, ha egyáltalán tényleg itt akarja (főleg véglegesen, nem csak 1-2 évre, mert nekem ez a tippem, hogy nem árulnak nekünk GPGPU-t veszteségesen GPU ellen, hanem megvárják, míg az Intel elintézi, hogy mindenki GPGPU-t akarjon, még játékmotorok alá is. Ha ők betolják a játékipar alá a Larabee-t, onnantól az nv megint nyeregben lesz, sőt, ha addig ilyen ütemben csiszolják a chipjüket Tesla vonalon, akkor nagyon is versenyképesek lesznek).Amúgy ja, kívülről nézve, és nem mellétéve a jósolt jövőképeket logikusabbnak tűnne, ha javasolnák egy-két G92-es vagy GT200-as kártya beszerzését csakis Physx gyorsító gyanánt még Radeonok mellé is. Úgyis az olcsóbb kártyáknak van nagyobb piaca, ettől csak jobban fellendülhetne a kereslet a GTS250-re, vagy épp az új 40nm-es olcsó cuccaikra, az is venne tőlük valamit, aki egyébként nem venne Geforce-ot, és vélhetően többen cselekednének így, mint hogy azért vesznek inkább Gefroce-ot, mint Radeont, hogy legyen PhysX-ük is, mert ez így még csak 1v1, a jobb directx támogatás <-> jobb fizika, de mindkettő elég csekély az összképet nézve (kevés a dx 10.1-es játék is, de a Physxtől sem áradt még meg a Duna...).
(#1690) Dark KillerX - Vicces, hogy az AMD épp azokat a marketingfogásokat kopyzza az nv-től, ami miatt a legjobban lenézi őket a hozzáértő sajtó (a másik nagyképű fikázása). Csak közben az nv-bnek valamennyire még jól is áll, nekik kevésbé.

-
janos666
nagyúr
válasz
janos666
#1688
üzenetére
Nos, Liandri és THETA munkája: Radeon+Geforce rendszer 191.xx-el is:
PhysX-mod-x86-1.01-lite.rar
PhysX-mod-x64-1.01-lite.rar
Jelenleg 191.xx-ig biztos működik. Telepítés a readme-ből magyarul:
- Telepítsd a Forceware drivert, de NE indítsd újra a gépet.
- Használd a programot a driverfileok patchelésére.
- Most indítsd újra a gépet.
* Ha "a file használatban van" hibaüzenetet kapsz, akkor próbáld csökkentett módból futtatni a modot. -
janos666
nagyúr
Itt inkább linkelni szokás az infót, nem mégkérdezni, hogy "belinkeljem?"

Amúgy nem ma jelent meg, mert egyrészt 182.21-el semmit sem kell moddolni, 185 felettihez meg nem vennék rá mérget, hogy megcsinálta valaki.
Vagy KillerSnake megint elővett egy ilyen Catalyst installerbe integrált lecsupaszított nv drivert? Nyáron már próbálkozott ilyennel, hiába mondtam neki, hogy szar lesz 181.xx felett, most akkor mégis megoldotta? (vagy 181-est rakott bele?
) -
janos666
nagyúr
válasz
SalvadorLynx
#1681
üzenetére
Win7, és a 8600GT határeset, egyes játékokhoz elég, másokhoz már necces. A Mirror's Edge és UT3 mappack pl. jól megy vele, de a Cryostasis már nem igazán, Batmant nem tudom, de inkább a Cryo közelébe tippelem, úgyhogy 9600GT nem árt, hogy tényleg simán fusson.
-
janos666
nagyúr
Első hsz v0.22. Nézzetek rá, lehet beleszabni, bővíteni, rövidíteni, vagy elvetni...
Főleg a játéklistát nézzétek át, hátha kimaradt valami. -
janos666
nagyúr
Akkor sem értem, miért nem lehet a hátlapon a 6 jackdugó egyikébe bevezetni, ami a hangkártyából kijön, de mindegy.
Elég erős passzív VGA-t tuti, hogy csak 2 slot magas, és hosszú bordázattal találsz. Ha nem fér be egy 8800GTS, akkor a 9600GT is megfelel.
Az jobb kérdés, hogy megéri-e az árát a Physx, főleg, hogy GTX260 mellé akarod tenni. -
janos666
nagyúr
Jobban akadt?
Nekem úgy sem akadt már az a játék ablakszarrálövéskor se (mikor a kommandósok lőnek ki egyszerre sok üvegtáblát), hogy egy tuningolt 8600GT volt a 4870x2 mellett. Ott valami driverszarozás van, ha akad az SLI rendszeren.
Amikor utoljára néztem tesztet, ott a GTX-es SLI rendszer többet produkált, mint mikor megvágták, és pl lassabban ment a játék, miikor beraktak fizikázni ilyesmiket, mint 9600GT, vagy akár 9800GTX (csak GTX260-tól fordult) a GTX295 mellé (ami ugye onboard GTX275 SLI). Bár abban Batman demó, Warmonger, UT3 rémlik, az ME nem. -
janos666
nagyúr
"az Evga meg nem helyezett el ilyen port-ot az alaplapon így kellett egy Hk is, aztán szépen be gyűltem."
Sajnálom, hogy átbasztak. Egyrészt valószínűleg ott vannak a megfelelő tüskék az alaplapon, esetleg csak nincs köré téve műanyagkeret, ami a CD féle csatlakozót fogadja, de be lehetne kötni. Ha ilyen még sincs, akkor pedig az alaplapi hangkártya hátlapi jackdugóiba is be lehet kötni (házon kívül megy a kábel, de útban van? (ha mégis, akkor ragaszd szorosan a ház lemezéhez, és nem lóg...)
Szóval emiatt csak akkor kellett külön hangkártyát venni, ha a tanáccsal szolgáló fél el akart neked adni egy hangkártyát (vagy nem rendelkezett elegendő tudással ahhoz, hogy ilyen kérdésben tanácsot adjon).
Persze akár egy olcsó, 5-6k-s hangkártya is mérföldekkel jobban szól, mint egy alaplapi kodek, szóval nem azt mondom, hogy nem jártál jól, ha vettél külön hangkártyát, csak azt tudom, hogy a kimondottan csak a TV tuner bekötése miatt felesleges volt.Mit spórolsz meg, ha nincs csati? Ha van csati, mert többet eszik 75W-tól, már sok? (úgy értem, lehet, hogy egy kártya alig eszik többet, mégis több csati van rajta, mert épp átlépi a szabványban rögzített értéket...)
Ha ne fér be, akkor 1 slotos kártya, 9600GT, vagy 8800GT, esetleg 9800GT (amelyiket a leg kedvezőbb áron tudod beszerzni, és persze attól függően, mennyi tartalékot akarsz benne tudni a physx kártyádban...)
-
janos666
nagyúr
Egy elég erős kártya mellé nincs szükség társkártyára a játszható FPS-ek eléréséhez, illetve ha necces, akkor választasz, hogy a részletes fizikáról, vagy a grafikai részletességből veszel-e vissza a menüben.
Az SLI-t pedig nem kell megbontani miatta, mert ugyan úgy szétosztja a Physx számításokat is a kártyák közt, mint a grafikát, tehát olyankor mindkét kártya dolgozik minden játékban, ha Physx, ha nem, és ha Physx, akkor is jobban jársz, ha SLI-ben hagyod őket.
De a 12V-os tápcsati miért gond? 500-1000 Ft közt találsz molex-6pin átalakító kábelt, és lassan 15k alatt is találsz 2 slotos hűtéső Gef8-at, de ha a zaj nem probléma, akkor 8800GT-t pl simán. -
janos666
nagyúr
válasz
sto1911
#1657
üzenetére
Vagy bevágod a slotot, vagy a kártyát, hogy belecsusszanjon, vagy aprón is van átalakító, tehát megvalósítható. A gond ott kezdődik, hogy elég lenne-e egy ~9600GT-nek az 1x foglalat (mert nem is 2.0-ás...). Kisebb VGA-val pedig nem feltétlenül éri meg próbálkozni. Sőt, sokkal okosabb dolog lenne erősebbre cserélni a 8800GT-t, talán nemsoká zuhan egyet a GTX széria ph aprón (már a használtak).
-
janos666
nagyúr
1: A shift nem használja a GPU-t fizikára.
2: Nyilván a GTX-re ad több pontot, mint a 8400GS-re, mivel ebben a tesztben nem sokat kell grafikáznia, csak fizikát számol a teljes GPU, és ebben a felállásban nem munkamegosztással, hanem vagy csak az egyik dolgozik, vagy csak a másik.
3: GTX260 mellé túl kicsi a 8400GS, új, tényleg GPU-Physx-es játékban többet ér, ha kidobod a GTX mellől, vagy tegyél oda 9600GT-t, az javíthat az összképen. Még a 8600GT-k sem mindig elég izmosak.
4: A legújabb Physx System driver már nem is engedélyezi 32SP-stől kisebb GPU használatát, tehát már a 8500GT is kiesik, nemhogy a 8400-as. -
janos666
nagyúr
válasz
Szuperzacskó
#1649
üzenetére
Ár/teljesítménybe szerintem jelenleg a 9600GT (vagy GSO) az optimális, de a halkabb kétslotos hűtés miatt inkább 8800GTS-t (akár G80-ast, akár G92-est), esetleg 9800GTX-et javasolnék, és akkor biztos elég tartalékot halmoztál fel benne 1-2 évre, vagy ha nem zavar a hangos szar hűtés, akkor szóba jöhet a 8800GT is, erősebb, mint a 9600GT.
A GTS-250-et nem javasolnám, hisz az átcímkézett 9800GTX+, egyrészt feleslegesen drága, mert már a 9600GT is elég erős, valamint 8800GTS, és 9800GTX+ közt alig tapasztalsz majd változást (max pár %). Továbbá ugye felléphet a gond, hogy a 181.22 még nem ismeri (ez egyébként orvosolható lenne).Konkrétan a 182.50-est nem emlékszem, hogy próbáltam-e, de több 180.xx és 181.xx, 182.xx driver végigpróbáltam, és némely játéknak látszólag mindegy volt, viszont egyes játékok csakis a 181.22-vel voltak hajlandóak rákapni a Geforce-ra (a Mirror's Edge a legkényesebb), pár számmal frissebbre, vagy korábbira se, csak erre, és a többi játék is ezzel futott legsimábban, ami ugyan más verziókkal is rákapott már a gyorsításra.
-
janos666
nagyúr
Próbáld ki, tiltsd le, és engedélyez újra a Physx-et az nvidia control panelben. Ha semmi mást nem babrálsz, csak azt, és van szignifikáns eltérés, akkor elképzelhető, hogy van benne hardware-es gyorsítás is (csak nem olyan durva a fizika, hogy ne bírná el a CPU is, és lett volna marketingértéke, hogy megemlítik hogy ez hardware, hisz minőségben meg nem nagy szám...).
-
janos666
nagyúr
-
janos666
nagyúr
Főleg, ha elektromosan is eleve csak 4 vagy 8 sáv van bedrótozva a 16 hosszú foglalatba (p35, p55, és x38/48 3. slotja, vagy talán az x58-on is a sokadik).
Talán létezik olyan nforce-os lap, ami tényleg úgy működik, mint mondja. Talán amiatt, hogy SLI esetén switch-ként üzemel a vezérlő, és ezért veszik el pár sáv, tényleg mintha hallottam volna ilyet, de ez ritka eset, talán 1-2 ilyen alaplap van, ami 2 slotos, és kézileg kell SLI kapcsolót átbökni. -
janos666
nagyúr
És az említett kártyák is olcsóbbak még, mint pl. egy BFG féle Ageia Physx Card, nem beszélve arról, hogy könnyebben fogatható (adás-vétel). Szóval nincs itt gond ezzel, hogy külön PPU helyett a GPU-kat használják.
Rugalasabb azért a dolog, csak a kellő számú PCI-E sáv és slot lehet a gond, de a kétcsipes kártyák amúgy is hatékonyabbak, mint a kétkártyás CF, és még két GTX295 mellé is befér egy 3. kártya a megfelelő alaplapba (és többnyire elég is neki a sávszél, ami azon a sloton marad neki). -
janos666
nagyúr
válasz
zippofcy
#1626
üzenetére
1: Ma azért még inkább a GTX295 az, ahol illene mindennek fullon menni, tehát ha 275-el csak mediumig ereszthető, még nem akkora gáz.
2: A Highest, Veryhigh, Ultra, stb opciók mindig is nagyzolások a legtöbb hypolós programban. Akár grafika terén is alig hoznak már látványbeli javulást, miközben drasztikusan lassítanak, mert nem az az engine optimuma, nem arra tervezték, csak kitolták a határokat oda, hogy ha valakinek bírja a gépe, akkor izomból ledolgozza neki.
3: Biztos elég friss driverekkel teszteltél?
4: Szerintem nincs itt semmi emulálás, az API-t belegyúrták a CUDA-ba, onnantól az natív hardware (mint az OpenGL, vagy akár a DX gyorsítás is, sőt, még közelebb állhat a konkrét GPU hardwareközelebbi nyelvéhez, mint ezek, mert nv-cuda nv-gpu, nem univerzális szabvány ami mindenre jó), és az új játékok már igencsak olyan Physx runtimeot használnak, amit az nv pofozott tovább az Ageia örökségéből (még ha kompatibilis is visszafelé).
5: A célhardware-rel az a baj, hogy mikor épp nincs számára specifikus feladat, akkor csak pang a kihasználatlan erőforrás. Nem az, hogy felvesz-e 20W-ot a foglalatból, hanem hogy kifezetted a teljesítményét, és nem aknázod ki eléggé.És mire kifuthatta volna magát a Physx, az eredeti tervek szerint is inkább 2010 eleje (még ha látjuk, hogy nem így történt, vagy akár már temetjük is gondolatban...), addigra már itt lesz a következő GPU-juk, aminek nő a nyers teljesítménye, így %-osan egyre kevesebb részt szakít le az elérhető számítási teljesítményből a fizika, és egyre kevésbé észrevehető az FPS csökkenés (még ha közben kisebb léptekkel halad a fizika részletessége is). És közben ha végleg kiöregszik a PPU, akkor elvethetik a visszafelé kompatibilitást, és a GPU-nak kedvezőbb számítások felé terelhetik az új verziókat. Persze ehhez az is kéne, hogy egérje munkát fektetni a Physx fejlesztésébe, vagyis több játék használja, akár ne csak olyanok amiket lepénzelnek. (Attól függetlenül, ha ez mai jóslatok szerint már sosem válik valóra.)
-
janos666
nagyúr
válasz
Bj Brooklyn
#1624
üzenetére
Akkor nézd meg jobban a Cryot, még a jégcsapok is szebben törnek, mint az ME-ben az üveg, ahol ezzel, és a szélfútta papírokkal kb. ki is telt a hardwares részletességű fizika, Cryoban pedig ott van még az élőben csobogó víz, és még néhány dolog, ami most nem jut eszembe, de az rémlik, hogy találtam benne pár érdekes dolgot (nameg a nagyobb jégdarabok is egész sok részecskére törnek, többre, mint az ME-ben az a pár üvegtábla, amit összezúztak - ott a legdurvább mikor jönnek a kommandósok a polgármesterjelölt irodájába, vagy később a pláza tetőterében, de ott meg is áll a kép, ha CPU-val próbálod nézni).
-
janos666
nagyúr
válasz
Bj Brooklyn
#1622
üzenetére
De ez Mirror's edge, azt még egy 8500GT is elbírja, a Cryot pedig még a 8600GT sem igazán (csak Physx kártyaként használva), kéri a 9600GT-t. A Batman közelebb áll a Cryohoz, és ugyebár eleve Geforce Physx-re optimalizálták, nem Ageia PPU-ra. (a legfrissebb runtimeokat gondolom úgy írja az nv, hogy futhana Ageia kártyán, de már nem arra tervezik, és nem tudom azza hogy állnak, de szerintem a PPU kártya driverét sem nagyon frissítik már az újabb runtimehoz).
De ez objektíven sem gond, mindenkinek jobb lenne a Geforce Physx, ha nem lenne korlátozva a kiépíthetőség (radeon+geforce). -
janos666
nagyúr
Mióta 10-20 FPS-el menne Ageia kártyán csúcsVGA mellett is? (bár nem próbáltam, de ezt saccolom a korábbi benchmarkok alapján)
Szép meg jó chip volt az (bár akkor sem volt épp túlméretes), de már évekkel ezelőtt, azóta évről évre növelgetni kellett volna a teljesítményét, ha nem csak eladni akarták volna magukat.
Vagy ha nem ezért, akkor pusztán csak azért, amiért nem engedélyezik a Radeon+Geforce-ot se... -
janos666
nagyúr
Véletlenül belebotlottam ebbe a tesztbe. Elég érdekes, már-már hihetetlen eredményeket kaptak. Physx: Which card is enough? - gamephys.com
A méréseik alapján az újabb Physx játékokban (friss driverekkel) még egy 8600GT is nagyban segíti a fizikázást szinte bármi mellett, magasabb FPS-eket ér el a 8600GT-vel megtámogatott GTX280 is mint egymagában, csak a GTX295 lassul le tőle, de egy 9600GSO már azt is szépen megtámogatja.
Elég hihetetlen, ha visszaemlékszem arra, hogy nekem Cryostasis-hoz kevéske volt a rendesen megtuningolt 8600GT. Bár való igaz, itt akkor inkább az egykártyás mérésekkel lehetne gond, mert a minFPS igazolja a tapasztalatom, hisz akár 20-ig is leesegetett a számláló 8600GT-vel (míg egyszem GTX280-al még 10-g is, GTX295-el pedig ugyan úgy 20 volt, csak ami még fura, hogy mellérakott 8600GT-vel már csak 16, szóval elég fura...)
Nemrég néztem az i790 chipsetet, és láttam, hogy vannak benne speckó SLI featurek (ilyesmik, hogy CPU és RAM sávszél kímélő funkciók, hogy közvetlenül a chipseten át kommunikálhatnak a kártyák). Lehet, hogy nekik ezért muzsikál jobban a társkártya ilyen alaplapban, mert a Physx társkártyázáshoz is használják ezt, amit intel chipsetben mi nem tudtunk?
Vagy lehet hogy a gyanús eredmények az új driverek optimalizációi, és arra irányulnak, hogy minden Geforce tulaj vegyen még egy olcsóbb Geforceot is, csak Physx-re, mert milyen jó is az...? Régebben emlékszem mások olyan eredményeire, ahol még a 9800GTX-et is visszafogta a 8600GT, nem hogy akkor a GTX280-nak is jót tegyen. (mondjuk ha számszerint nőttek az értékek, akkor jófelé optimalizáltak, de a minFPS-eket tekintve nem így néz ki,)
Ami még érdekes: A 8800GTS-el párosított GTX280 néha már magasabb FPS-eket ér el GPU-ra szánt részletességgel, mint a CPU-s részletesség CPU-n.
Mondjuk ettől függetlenül a méréseik alapján nekem továbbra is az a konklúzióm, mint eddig.
A 8600GT talán már épp elég, de azért még necces, ellenben a 9600GSO már tényleg bőven elég, sőt, az extraként berakott GX280 se teljesít tőle lényegesen jobban, tehát a 9600-as széria az optimális. Persze mai árak mellett a sokkal halkabb kétslotos gyári hűtő miatt megéri elgondolkodni a 8800GTS-en. Illetve a játékfelhozatal miatt inkább az a kérdés, hogy legyen-e egyáltalán bármi...
Addig biztos nem dobom el a 8800GTS-em, míg belekukkantok a Batman-be.Ami miatt ide lukadtam ki: Várható még valaha az a Terminator patch, vagy nyugodtan törölhetem már? Csődbe mentek végül, kiegyeztek...?
-
janos666
nagyúr
Szerintem a 9800GT-n G92b mag van, ami a 9800GTX+ról marad le, a 8800GT-n pedig G92, ami a 8800GTS512-nek (vagy a nem pluszos 9800GTX-nek) nem volt elég.
De ez nem változtat a többin, amit mondtál...Az MCH tud 2x16 sávot, a mellé rakott FSB pedig szintén adhat még 16 sávot ([link]), tehát nem lesz gondod azzal sem, hogy a 3. kártya kieszi a sávszélt az SLI alól.
Minden esetre legalább is próbáld ki, míg nem sikerül aladnod a kártyát.Elvileg automatikus lesz minden, de ha nem, akkor se kell sokat babrálni vele.
-
janos666
nagyúr
válasz
Denes550
#1602
üzenetére
Vagy mondj le az őserdők megmentéséről (és 10 Ft-ok spórogatásáról), és inkább felejtsd el a hibrid SLI-t. Laptopon jó dolog azt bekapcsolni (ahol véges, sőt szűkös az akksi), de a PC-t itt-ott visszafogja, és gondolom nem vagy rászorulva arra a 10-20W-ra, mert a GTX260 szépen visszaveszi az étvágyát idleben akkor is ha ő ad 2D-s képet, jobban mint egy Radeon.
-
janos666
nagyúr
válasz
Denes550
#1599
üzenetére
Igen, ha egy 4870-esed lenne, akkor se Hybrid SLI, se Physx nem lenne. Így, hogy választanod kell a kettő közül, már mindkettő szar.

Mi lenne, ha használnád a Hybrid SLI-t, és mikor mégis jön valami Physx játék, akkor letiltanád addig, amíg azzal játszol. (Meddig tart átdugni a kábelt, és kattintani párat?)
-
janos666
nagyúr
válasz
Szuperzacskó
#1595
üzenetére
Ha ez nem elég részletes, vagy hibás, akkor kérdezz még:
Radeon Graphics + Nvidia Physx frissített beüzemelési útmutató.A 8600GT kevés lehet. Nekem Cryostasis-hoz az volt, a shadereket GTS órajelek fölé tuningolva is, és ebből ítélve az új játékokhoz is kevés lesz, de próbáld ki. Sőt, írd is meg, hogy mire lett elég.

-
janos666
nagyúr
Ja, biztos az vitte őket csődbe, hogy sokad dolgoztak azon a Physx patchen, ami kész se lett. Vagy az, hogy a Physx miatt késett/lett szarabb a játék, miközben végig hardwares Physx nélkül jelentek meg a játékaik.
Esetleg inkább az lehet a gond, hogy mégsem akartak az nv-vel dolgozni.![;]](//cdn.rios.hu/dl/s/v1.gif)
-
janos666
nagyúr
Ha újra végigolvasod mire válaszoltál, rájössz, hogy én is pont ezt mondtam.
Elsőként lesz problémás egy olyan physx runtimmal futó játék, ami újabb CUDA-t igényel, mint a 181.22-es rendszerdriverrel települő. És persze beiktathatnak bonyolultabb ellenőrzést is a régi driver szűrésére.
Azt INF-et és a Registryt már én is átnéztem júniusban, ettől bonyolultabb, azt nézi, be van-e töltődve a Catalyst driver, azt pedig nem lehet elrejteni, akkor a játék sem talál rá, a DLL-be kódolt mechanizmus babrálása pedig már crackelés, szóval nem lesz ebből semmi... -
janos666
nagyúr
Egyszer minden véget ér, de ez konkrétan nem ma vagy holnap, csak ha majd jön valami játék, aminek 181.22-estől úabb drivert igénylő Physx runtime kell, és nem sikerül valahogy kijátszani.
(#1585) Med1on - Az alábbi hír után nem, idén már semmiképp, de jövőre se, utána meg már mindegy is lesz, ha minden igaz. Persze ki tudja, lehet hogy jövőre eladják.
-
janos666
nagyúr
Ha mást nem, legalább a városi legendákból ismerhetnéd a xanax hatásait (pár üveg sörrel fogyasztva...). Pontosabban én sem tudom mire jó, de nem kapható vény nélkül, tehát sejthető, hogy erős cucc.
Screenshotokkal nem lehet megörökíteni az eltérő színreprodukciót, az a monitor beállításaitól is függ, és az adott VGA tipushoz kell belőni, ha hardwaresen kalibrálnátok, elvileg nem lehetne eltérés.
Persze ez nem vonatkozik arra az esetre, ha a Radeon spórolna a tömörítés során, és így jobban összemosódnának az apró különbségek a textúrákon. A fény-árnyék jelenségek eltéréseire pedig végképp nem ad magyarázatot, annak a screenhoton is meg kéne jelennie.
Csak azokkal meg vigyázni, vagy BMP, de legalább PNG legyen, Jpegen mit látni már ezekből... -
janos666
nagyúr
Szerintem itt nem erről van szó, mert ilyen nagy eltérés nem lehet, de azt ugye tudjátok, hogy a minitorokat minden VGA-val újra kell kalibrálni? A hadrwares kalibrátorok is jobban működnek, ha VGA és monitor közé vannak iktatva, mint ha csak USB-n csatlakoznak a géphez. Persze, ha a monitor sosem volt hardwaresen kalibrálva, akkor majdnem mindegy, mert a tulajnak sem fog annyira feltűnni a dolog, főleg a vendékgszemlélőnek.
-
janos666
nagyúr
Mondtam már, hogy ilyen esetekben egyáltalán nem az izgat a "mi lehetne" és "miért így van", csak az, hogy "mi van"?
És ma az van AC-vel, hogy vagy patch és 10.0, vagy 10.1 és bugok.
Érdekel engem, mint fogyasztót, hogy milyen programkódot kéne a fejlesztőnek copy-pastelni, vagy hogy 5 centjébe, vagy 8 millió dollárjába kerülne?
Nem... Csak azt látom, amit elém tettek, és abból alkotok konklúziót, nem a "mi lehetett volna"-ból, mert az alternatív múltat úgy sem éljük meg, és lényegtelen a jelen szempontjából.
Tudom, hogy az AC-nél nyugodtan javíthatták volna a hibát, de nem érdekel, mert nem tették meg, és egyikünk sem tudta volna erre kényszeríteni őket, és ma már mindegy is, mert kifutott cucc, lezárt régmúlt, irreleváns a "hogyan lehetne".A többinél is igaz amit mondasz, csak a fejlesztők döntik el (illetve közvetve a kiadók), hogy milyen legyen, de a felhasználót csak a végtermék érdekli majd. És én most is csak azt mondtam, hogy a végfelhasználó szemszögéből eddig többet tett le az asztalta a Physx, mint a DX 10.1, sőt, az én egyéni szemszögemből sokkal többet.
És hiába tudom, hogy lehetett volna ez fordítva, mert még emerre is billenhetett volna mégjobban a csónak, hiába jósoljuk meg a jövőt, és hiába ismerjük a mögötte lévő mikénteket, az nem változtat azon, hogy "mi van ma".Igazán látványos dolgot még nem demonstráltak DX 10.1-el valódi játékban, Physx-el viszont van pár, ahol elég szembeötlő, és néha álleejtő is a dolog.
Talán egyedül ez a StalkerCS, ahol javít a látványon, de ez még csak 1, és ettől függetlenül is jó bugos érzetű a játék. Az nekem csak hab a tortán, hogy szerintem egyáltalán nem is szép. -
janos666
nagyúr
válasz
Taifa Díaz
#1551
üzenetére
Én 4870-el szórakoztam az Assassin's Creed-el, és bizony, de bizony bugos a DX 10.1 (pl eltűnnek egyes effektek, és szar a HDR), ha bírja a kártya, akkor sokkal többet ér patchel játszani.
A geforce kártyáimmal kapcsolatban épp a driver-forced AA lehetőségeket sírom vissza leginkább, az AF-et meg úgy se látni 16 minta mellett, max kinagyított képkockákon, de az AMD sem azt a csodaszép AF-t használja már, mint mikor ez a pletyka elindult még Gef6 korszakban (mert az FX-ek is jobb AF-et csináltak, mint a Gef6, csak feleslegesen lassút, de azóta megint variáltak).
És ha átnevezed az exe-t, nem csak olyasmiktől esel el, amik a képet ronthatják, hanem olyantól is, ami csak a teljesítményre vagy stabilitásra, komptibilitásra van rossz hatással. Buta dolog. A Radeonok is ugyan úgy megérzik, és oda a Crossfire vagy SLI is...
De az a baj, te most a 9800GT-t versengteted a 4870-el, annak a GTX-260 az ellenfele (ma már árban is, a 216SP-s).Én is beleestem akkoriban ebbe a hibába, hogy de jó 1920-ban az 512Mb-os 4870 a 320Mb-os 8800GTS-hez képest, aztán kiderült hogy ez sem elég sokáig 1920-ra, hanem X2 kell.
DX 10.1-nek pedig még gyakorlati hasznát sehol sem vettem, minden általam kipróbált játékban csak a sebességen javított (kivétel ahol az AA minőségben is, de az a StormRise lehetne, ahol a Geforce CUDA-n át élsimít, mint a Radeon 10.1-el), de nem voltam már túlzottan rászorulva erre a pluszra az x2-vel, a sima 4870 pedig így sem volt elég. Az FC2 is csak lassabb tőle, de valójában nem szebb az AA a plusz szűréstől.Physx-el már sokkal többet szórakoztam, és több örömöt szerzett, mint a DX 10.1, amiből semmi konkrét jó dolgot nem tudok megnevezni, amit értékelni tudtam volna.
-
janos666
nagyúr
válasz
Taifa Díaz
#1549
üzenetére
És akkor most a békákra gizdulsz, vagy mi? (Froblins tesszelálós techdemó).
Kinek a pap, kinek a paplan, nekem meg a fogatlan.
Most őszintén? Ebben mi volt nagy cucc? A Physx-el sem volt kötelező szórakoznod, ahogy a Radeon extra szolgáltatásaiból sincs több gyakorlati hasznod, tesszelálásból is csak egy techdemó van, és alig van DX 10.1-es játék, és ott sem dob annyit a látványon a dolog, mint a Physx (sőtt, közvetlenül a látványos semmit nem dob, csak közvetve, mert a sebességen javít, amit elkölthetsz magsabb minőségbeállításra). Ha az tetszik, hogy szimplán gyorsabb az új kártyád, hát a Geforceok közt is találsz gyorsabbat, még ettől is.
Ha a halk hűtése tetszik, hát jól beszoptad az egyslotos gef hűtésekkel, de 8800GTS-en, és 9800GTX-en halkabb van, mint a 4870-esen, és a 4850-esen még a 8800GT-étől is hangosabb (hacsak nem tényleg silent az a hűtő).
Arról már nem is beszélnék, hogy ha akarod, beteheted azt a 8800GT-t a Radeon mellé, és lesz mindkettő. -
janos666
nagyúr
Qru: Itt válaszolnék erre.
Tudom én a választ mindenre, csak sosem zárom ki a tévedést, így kikérem mások véleményét is, mielőtt hiszek magamnak.

Persze, hogy szoftveres, de azt hittem ezt eddig is tudtad, hogy a Physx-et vagy CPU számolja, vagy GPU (csak G80+, R600+ sehol semmit). A CPU mankóval indul, mert csak 1 szálon fut a Physx, tehát a Mhz többet jelent, mint a magok száma. A CPU-nak és a GPU-nak is vannak egyéb munkái is egy játék futtatása közben, de a GPU elméleti csúcsteljesítménye is sokkal magasabb ilyen számítások esetén, mint a CPU-nál. Vagyis, hiába izzad a GPU grafikával is, ha csak a teljes összteljesítményének 10-15%-át kell feláldozni Physx-re (aminek egy része úgy is kihasználatlan lenne, mert nincs kihajtva a shaderteljesítmény), miközben egy átlagos CPU magnak (pl core2) valahol 500%-on kéne járni, tehát 100-on nyúzva is 5-öd annyi FPS-ed lesz.
Az, hogy a Gef+Gef társkártyázás alapján nem tűnik olyan hatékonynak a dolog, az gondolom optimalizáltság kérdése, és egyébként is komplikáltabb dolog, mert gondoskodni kell a két GPU CPU-n keresztüli kommunikációjáról. Eleve csak úgy működik, hogy a CPU számoltat Physx-et a GPU-al, visszakéri az eredményt, összerakja az új állapotot, aztán elküldi a GPU-nak, hogy rajzoljon. Viszont gondolom eleve úgy találták ki a CUDA-s Physx-ezést, hogy arra optimalizáltak, hogy a grafika mellett keletkező szabad erőforráskon élősködjön, vagy azokból szakítson szeleteket, nincs felkészítve arra, hogy egy üres VGA-t 100%-ra kihajtson jó hatásfokkal. Ezért nem tűnik olyan bikána egy 8600GT mikor csak Physx-re rakod be, de ezért nem lassul annyira egy izmosabb Geforce, ha a grafika mellé bekapcsolod a Physx effekteket is.
Így az optimalizálatlanság és a komolyabb fizikát igénylő játékok (pl. Cryo, és ezeket az új demókat még nem láttam) miatt kevés már a 8600GT, és nem árt inkább túlméretezni 9600GT fölé is, ha alig párezerrel drágább a 8800GTS, mint a 9600GT (de kétszer annyi shaderproci van benne). -
janos666
nagyúr
Akkor lehet, hogy mostanra javították, tavaj nyáron játszottam végig másodszorra 4870-el (Vista alól, de egy évben jelent meg a játék és az OS, azthiszem először is már Vista Beta/TCP/RC/RTM/akármin toltam). Akkor felraktam mind a 4-5 alpha/beta/whql drivert, ami támogatta a kártyát, de egyel sem tudtam rendesen belőni. A padlón és falakon látszott a csík, ahogy vált a trilinear szűrés, és az élek sem úgy simultak, ahogy kellett volna (sehogy sem volt igazán sima, 8X MSAA-val sem, és a CFAA filterek totál semmit sem csináltak vele, az edge detect sem), az ATT sem tudott mit kezdeni vele.
A riddick nálam lehet, hogy tényleg a Win7 hibája, tényleg lusta voltam kipróbálni XP-n, de a játék topicjában mondták, hogy nem tökéletes az AA (mármint menüből egy 8x után még lazán recélődnek az élek, pedig 1920-ban már 4x is bőven elég szokott lenni).
-
janos666
nagyúr
Ezt írtad le mindíg, mikor valami kapcsán panaszkodtam erre. Szép, logikus, következetes, és önmagában helytálló érvek. Ha nem tudnám, hogy nem válasz arra, amit felvettem, hanem inkább mellébeszélés, még meg is győztél volna egy életre.

Szóval, akkor egyszerűbben:
Ha én, mint felhasználó úgy döntök, hogy inkább erőltetett AA/AF-et szeretnék, akkor Geforce-al megtehetem? Igen. Radeonnal? Nem.
Engem, mint felhasználót, érdekel a technohalandzsa arról, ki, mit, hogy baszott el melyik szabványban, amiért mindkettőjünek igaza van ott, ahol egyiküknek sem lehet, de én azt látom, hogy egyik kártyával látszólag többmindent megtehetek, míg a másikkal megkötik a kezem?
Ártana az, ha lenne a CCC-ben egy eldugott "BruteForce" pipálós négyzet, hogy a forceware-hez hasonlóan erőltethessek AA/AF-et, ha akarok? Bár ez is felesleges, hisz alapfelállásban eleve nem CCC-ből kell AA/AF-et állítani, hanem a játékból, ha ott nem lehet, akkor pedig így is, úgy is a "bruteforce" kell, tehát a normális dolog az lenne, ha a CCC-s csúszka erőltetné a dolgot, ha nem alkalmazásvezérelten van.Amúgy a Dremfall szerintem messze nem ilyen kérdés, szerintem DX 8-as, talán 8.1-es, vagy netán 9.0b-s, de hogy véletlen sem deferrend renderinges, vagy 10.x-es, az tuti, valami 2006-os játék. Másik, ahol szerettem volna kényszeríteni valamit nemrég, az a Riddick AODA, ami meg OpenGL, és volt még 1-2 ilyen eset, ahol látszólag semmi nem indokolta miért ne bírálhatná felül a driver a dolgokat, ha már tologatom azt a totál feleslegesen odarakott csúszkát (mert ha a játékban nincs csúszka, akkor se csinál semmit, ha van, akkor meg eleve nem is kell itt próbálkozni).
-
janos666
nagyúr
Jó, és ha a játékban nincs AF opció?
Ezt megrágtuk mi már vagy 5x, de nekem akkor is nagy érvágás, hogy a problémás esetekben (deffend shading + AA, de akár ezen kívül eső esetekben a kényszerített AA, vagy AF) geforceokkal érvényesíteni tudod az akaratodat, míg radeonokkal csak lenyeled, hogy "ez van, de azért nem lehet máshogy, mert... és geforceon is csak úgy megy ám, hogy..."
Tudom, hogy az sem 100-as dolog, mikor Forcewar-ből ráerőltetem az AA-t az UT3-ra, hisz deferrend rendering miatt szar lesz az, és ugyan ez, mikor az SSAO mellett bekapcsolom az AF-et, de legalább az én döntésem. Ha akarom, akkor bekapcsolom az AA-t, és simulnak is valamennyit az élek (hogy utána bugzik-e egy-két másik effekt az már más kérdés, majd mérlegelek, nekem hogy jobb), illetve úgy tűnik, mint ha tényleg csinálna valamit az AF, hiába, hogy elméletben nem menne. Radeonon viszont "ez van, ezt kell szeretni", ki se próbálhatom milyen lenne a forced AA/AF, és ha mégis sikerül kitrükközni, akkor szarabb a végeredmény, mint forceware-rel, mert itt minimális figyelmet sem szenteltek a dolognak, hisz elvileg nem használható. -
janos666
nagyúr
Vagy azért csúszik 2010-re, mert addigra lesz új Geforce is.
A Capcom régen ATI-s volt, nem? Csak onnan rémlik, mikor tavaj nyáron elővettem az egyetlen Capcomos játékot, amit imádtam (Dreamfall), és láttam ahogy a nagy vörös ATI logóval indul, aztán mégsincs se AA, se AF, holott régen gef6-al még egyszerre is volt.
Az viszont akkor erősen valószinű, hogy idén már sehogy sem lesz OpenCL-es Physx driver, de talán akkor még 2010 első negyedévében sem. -
janos666
nagyúr
Nem véletlenül van tele a hozzászólásom smile-kkal.
Amúgy, mint Abu is írta, a Physx és CUDA alapvetően ingyenes lenne. És azután, hogy lassan látják, hogy a GPU Physx AMD nélkül nem megy, az AMD pedig nem adja be a derekát, már nem sok választásuk marad. Ha átírják OpenCL-re, legalább annyi reklámértéke még megmarad, hogy nVidia Physx marad a neve, attól hogy AMD-n is fut. Sőt, minthogy az ő GPU-ik jobb GPGPU-k, így gyorsabban is futna a kód Geforce-okon, ami jól jöhet FPS grafikon rajzolós tesztek konklúziójavításához. -
janos666
nagyúr
válasz
Bj Brooklyn
#1504
üzenetére
Szerintem hamarabb leszünk, ha indítunk egy online petíciót az OpenCL-es Physx mihamarabbi érkezéséért. Manapság úgyis divatos ezzel győzködni a gyártókat a baklövéseik felülvizsgálatára.

Én nem mocskolom be a kezem a kezdeményezéssel, de aláírni aláírom ha fellövöd.

Bár ha mást nem, akkor "megvalósíthatósági tanulmány" szintjén már készül az, csak ugye OpenCL meghajtók sincsenek még hivatalosan. Nemhivatalosan pedig csak az nvidiától szivárgott ki ilyen, amivel nem vagyunk még előrébb.

-
janos666
nagyúr
válasz
FeriPRO
#1443
üzenetére
A Vista és Win7 már DVD-s, ~3Gb-ot foglalnak, én melléjük írom az Office-t is, azzal tele a korong.
De nekem az XP-m is DVD-n van, mert nincs itthon üres CD, boltban 1 darab drágább, mint a DVD, amit 20-assával, 50-essével veszek (a CD képfilet gond nélkül ki lehet írni DVD-re).Hát, akkor ennyi. Ezért jó elsőre is inkább format C-t javasolni, mert így feleslegesen vesződtél annak reményében, hogy hátha nem kell a DVD...
-
janos666
nagyúr
Ha ez kérdés, akkor Igen.

Pachito: A Guru3D DriverSweepert próbáltad? Töröld le az nv drivert is, indítsd el a windows-t csökkentett (safe) módban, indítsd el a programot, és pipáld be az nv drivert és a physx-et is (a többit ne), futtasd, indítsd újra a windowst normál módban.
Esetleg keress még a registryben kézileg Ageia szavakkal szereplő kulcsokat, és töröld őket mindenestől, ha akadnak. (windowsgomb+R, regedit, enter, ctrl+F, ageia, enter, aztán F3-at nyomkodsz hogy újra keressen.)
Ha ezután sem települ fel, hát elő a windows DVD-vel...
Új hozzászólás Aktív témák
- 5.1, 7.1 és gamer fejhallgatók
- Genshin Impact (PC, PS4, Android, iOS)
- Borderlands 4
- PlayStation 5
- Formula-1
- Lexus, Toyota topik
- QNAP hálózati adattárolók (NAS)
- Milyen billentyűzetet vegyek?
- Akciófigyelő: Ajándékokkal érkeztek meg az új Dreame porszívók
- NVIDIA GeForce RTX 5080 / 5090 (GB203 / 202)
- További aktív témák...
- iPhone 17 Pro Max Silver - Bontatlan !! www.stylebolt.hu - Apple eszközök és tartozékok !!
- Akciós Windows 10 pro + Office 2019 professional plus csomag AZONNALI SZÁLLÍTÁS
- Samsung Galaxy Z Flip6 12/512GB - ÚJSZERŰ, Kártyafüggetlen, Kék - 1 év garancia
- Telefon felvásárlás!! Samsung Galaxy A13/Samsung Galaxy A33/Samsung Galaxy A53
- iPhone 13 128Gb 100%(1év Garancia)- ÚJ EREDETI AKKUMULÁTOR - AKCIÓ
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
).






Az a kártya tényleg hangos, ezért szoktam inkább 8800GTS-t javasolni.
)
Nekem úgy sem akadt már az a játék ablakszarrálövéskor se (mikor a kommandósok lőnek ki egyszerre sok üvegtáblát), hogy egy tuningolt 8600GT volt a 4870x2 mellett. Ott valami driverszarozás van, ha akad az SLI rendszeren.

