Új hozzászólás Aktív témák
-
VinoRosso
veterán
Nagyon jó kis teszt ez, le a kalappal
rövid de lényegre törő. 8800 Utlráról meg GX2ről nincs valohol esetleg egy ilyen?
-
R.B.Riddick
csendes tag
Katt777 már tesztelte Crossfire-rel 1680x1050-ben C-t és CoJ-t is DX10-ben (driverből is felhúzva, amit lehetett), C-t hasonló eredménnyel, azaz 34%-kal volt gyorsabb a CF (és itt az X2), mint 1 db 3870. Ezért (is) fölösleges több GPU-s megoldásokba beruházni.
A bestbuy jelenleg egy Galaxy 8800GT OC Extreme tuner dupla hűtéssel és +1 tápcsatival a kemény tuninghoz. -
Salvador20
őstag
válasz
Beowulf_78 #217 üzenetére
best buy,rendben, de az ultrára is az volt írva a cikkben, hogy trónfosztott, és most ezek szerint ez is trónfosztott lett szintén ugyanabban az értelemben(mivel az ultra sem lehetett best buy
)
-
Beowulf_78
addikt
válasz
Salvador20 #216 üzenetére
Ár/érték arányban? Kétlem...
Akinek megér 10-15% többlet teljesítményt és +40-50k-t a GX2, az ne fogja vissza magát vegye meg!
De ettől még az X2 a best buy a 2 GPU-s rendszerekben.
-
Salvador20
őstag
hopp, és már ez is trónfosztott
-
Beowulf_78
addikt
.
-
mikiboy85
csendes tag
Azt valaki megtudná nekem mondani, ha lesz hdmi port a 3870 x2-esen akkor az fogja-e továbbítani a hangot?
-
Speed®
titán
Nem mintha számítana, főleg ilyen távlatból (a megjelenés időpontjától), de a második kép alatt helytelen a szöveg vége, 2x666milla tranyó feszít a karin
-
theniel
aktív tag
válasz
Anthony28 #210 üzenetére
Hát itt már jóval 30 fölött lenne a csere.
Ahogy telnek a napok egyre kisebb az esélye, hogy lecserélem.
Lehet, hogy kicserélem az X38-at egy 780 as lapra aztán, ha már mégjöbban lezuhantak a GTX árak, akkor kipróbálom az SLI-t.Csek elággé óckodok egy nforce-os laptól. -
Anthony28
őstag
Miért lennék elégedetlen? Régóta ez a globális véleményem.
Ha +20k-nál nem több a csere akkor elgondolkozhatsz.
Gondolkozz logikusan!Ha időrendben a teszt előtt mondtam, és utána következett a teszt ami elég meggyőző lett, akkor szted?
Pontokban nem hiszem hogy dobni fog a pci-e 2.0, érezhetően semmiképp sem.
Ha pedig 1 isten verte játékért cserélnél VGA-t...ami ráadásul az optimalizálatlan Crysis, akkor ebből a "szélmalom harcból" nem jöhetsz ki nyerőként.Totális anyagi bukás. -
theniel
aktív tag
-
Anthony28
őstag
Ha nem a legúabb lapod van mehetsz a levesbe!
Siralmas!
Idén elvileg 1ft-ot se ölök már a gépembe...lehet hogy még jövőre is elég lesz annyit költöttem tavaly ősz óta.
Az is lehet hogy veszek egy Wii-t vagy X360-at...és akkor az X2 itt fog megrohadni a gépemben, mert nem fogom cserélni.Röhely, hogy minden kurva drága és szar.Mert ha drága lenne..még azt mondanám ok, mert legalább gyorsabb, stabilabb lett jóval.
Mikor fognak észbe kapni a gyártók? Amikor már mindenkinél ott fog figyelni a NextGen konzol játékra? Mert ha az emberek nagy része csak netre, levelezésre,melóra fogja használni a gépet akkor már késő lesz változtatni az üzletpolitikán.
-
Speed®
titán
válasz
Anthony28 #206 üzenetére
Én eddig szinte csak azt, minden különösebb gond nélkül. KT7-A, NF7-S, AN8-Ultra, és most ez a 965QGT. Ezzel sem lenne különösebben bajom, csak Quad alá sz@r mert felforr a PWM, Wolfokhoz meg nincs BIOS..pedig támogatná, mert Rev.C2-es a chipset és a lap bőven 500 felett ér véget FSBben Conroekkal.
De nem, ABITék b@sznak kiadni egy BIOSt, hiszen akkor ki venne új lapot
Ha lenne BIOS, ~3GHz körüli Q6600 helyett ~4GHzes E8200at használhatnék..
Az újabbak közt IP35Pro ami zűrmentes, de túl drága ahhoz képest mi benne az újdonság. Egy új QGT jó lenne, de csak szutyok X38as van, mert Intel bácsi épp ráér fejleszteni, nem kell rohanni, nincs konkurenciaMindkettő monnyon le..
-
Anthony28
őstag
De mint írtam...nekem az 1.7-es GPU-Z is ezt írja.Bármi ami jól mér és tökéletesen működik más hardver esetében, 33 fokot mond a GPU-ra.
Speed(R): De hiányzik...a Q9550!
Viccet félretéve nagyon tuti ki proci az E8400, és amíg a 6750-et Q6600-ra cseréltem, azt meg E6850-re, aztán megint gondolkodóba estem hogy egy tuningosabb Q6600....
Jelenleg wolffal nem érzem 4ghz felett a +2 mag hiányát.
A benchmarkok miatt meg..pfff.Az vegyen quad-ot akinek 7 anyja van.
Alapon többet dobott az E8400 mint a Q6600! Asszem 12k körüli eredmény kontra az én 14k+ eredményemmel.
-
Anthony28
őstag
Meg volt végre 2 hét után a friss telepítés....félelmetesen begyorsult az X2, igaz egyenlőre ez még csak XP Sp2.
[3d01_XP_SP2_32bit_75960p]
[3d03_XP_SP2_32bit_68499p]
[3d05_XP_SP2_32bit_27823p]
[3d06_XP_SP2_32bit_18516p]Pietrosz: Ami kijelzi a hőmérsékleteket, mindennel néztem már.Mind egységesen idle 32-33 fokosnak látja a GPU-t.De az is lehet hogy hazudozok össze-vissza és ezért nem stimmelnek a dolgok.
-
Pietrosz
addikt
Még csak az elején járok a tesztnek, de már nem stimmel valami.
xbitlabs teszt 51-56 fok idle, 78 fok 3d. guru3dnél ez 64 ill 82 fok. Ugye még véletlenül sem everesttel nézed a hőfokot? Mert az nem pontos ilyen téren.
Olvasok tovább -
Levin01
őstag
"nem eröltetett, kijelentés, hogy az Nvidia bevárta őket, hanem tény"
ne tetézd, mert egyre elkeseredettebb ez az nv védőbeszéd
-
gombcomp
senior tag
Ha jól "kielemzed" 6pin-8pin átalakítót rájössz,hogy nem még egy +12V-os ágat ad hozzá,hanem "leföldel" egy aktív pontot a 8-ból,amitől a kártya elhiszi,hogy nagyobb teljesítményű táp van rákapcsolva.
Parasztvakítás kategória, hogy vegyél nagyobbat!!!
A 2.0 PCie nem azért új szabvány, hogy tápegységként funkcionáljon.
-
theniel
aktív tag
válasz
Anthony28 #191 üzenetére
Nekem csak 2 db 6 pin-es VGA tápkábelem van a tápbó kijövő, ha többet akarok, adtak hozzá molex-et és azzal kell képeznem a maradék 6 db 4 pin-esből.
De itt az X2-nél, ha PCIE 2.0 lapod van akkor a kártya már onnan is több feszt tud felvenni nem? Lehet, hogy ezért szívtál vele, mert ha nem PCI-e 2.0-ás a lapod akkor több fesz kell neki kívülről. -
Anthony28
őstag
2 db tápkábel-t köll rádugni...asszem mind a 2db 6 pines, de lehet csak az egyik 4.Szívtam vele, mert 2x4 volt bedugva és az overdrive funkció úgy nem működik, gondolom minimális fesszel kevesebbet kap a kártya. Full külön körre tettem mivel a tápom moduláris, biztos ami biztos, más ne vegyen el feszt..
mazda626: Nem lovagolok én semmin se.
A te megállapításodat az árakkal kapcsolatban nem tartottam valósnak, most már azt is tudjuk miért, az az a forrás volt szar.Leírtam ez hogy szokott működni általában...mert nem 15k különbség lesz várhatóan.
Ez sztem nem nevezhető a témán lovaglásnak. -
theniel
aktív tag
válasz
t72killer #187 üzenetére
Azért az X2 CF-et már az ott leírtak alapján is kétszéges, hogy elvinné.
De az igaz, hogy szimpla kártya esetén elegendő.
Azt se feledjük, hogy ez még csak a közép kategória és jön majd a felsőkategóriás teljesítményű ati-radeon meg NV. Ott megint más tápigények lesznek, várhatóan sokkal nagyobbak. Ezzel csak újból azt akarom alátámasztani, hogy nem csökkentek a teljesítményfelvételek.Ne állítsuk már, hogy a 3850-es az egyenlő a 8800 GT-vel. Még a 3870 is sokkal gyengébb kártya. Szóval nem marad a 35000 Ft-os ár. Ha olyan kártyát akar az ember ami mindent elvisz normálisan (nem agyonszűrőzve, de elfogadható élménnyel) akkor a minimum a 8800 Gt szintje. A 6600 GT pedig anno ilyen kártya volt, tehát ezért ezzel hasonlítottam össze és nem a fele olyan képességűekkel.
Mert akkor az anno 15000 Ft-os 9600 SE-t hoznám példának és azzal pedig ma a 35000 FT-os 3850 egyenértékű, és akkor megint látszi ka drágulás. -
t72killer
titán
Ha egy CM 550 elvitte 3.2GHz-es quad procival, akkor a te tápodnak főleg el kell vinnie, akár CF-et erős tuning mellett...
Amit az árakról írtál egyetértek
mondjuk annyi megjegyzéssel, hogyha nem ragaszkodunk váltig az nvidiához, és beérjük egy HD3850-nel, akkor marad a 35000Ft-os ár
-
Anthony28
őstag
Azért mert 850W tápom van nem kell tápot cserélned 650W-ról az X2-höz.Ezt ne is nagyon híreszteld.
Én pusztán azért ezt választottam, mert az Enermax 620W és ez 1 árban voltak, asszem 34k volt mind a 2.Ez a 850W a jelenlegi hardverekhez képest jóval felül van méretezve...tehát a 650W tápod bőven elég mindenre.
-
theniel
aktív tag
Hát, én azt veszem ki az anthony által előbb leírtakból, hogy erősebb táp kell ráadásul nem is akármilyen (850 W márkás táp) pl. az X2-höz. Szóval energiamegtakarítás terén ez alapján nemhogy előre, de vissza fejlődést látok.
Aztán, ha két kártyát akarsz akkor pedig már egy kisebb paksi erőműre lesz szükséged.
Nekem is tápot kellett cserélnem, amikor GTS-ről GTX-re váltottam. Tettem bele 650W chieftec-et. És most azt kell látnom, hogy a 3780 X2-őt lehet, hogy nem is tudja majd meghajtani a tápom.
A számítástechnika a fejlődésről szól. Aki kihúzni akarja egy kártyával, az nem a fejlődést, hanem azt az illuziót kergeti, hogy neki most a legjobb kártyája van. De ettől még nem fog jobban futni neki egy játék sem.
De az is érdekes, hogy milyen árcsökkenésről beszélsz? Kicsit több, mint két éve a 6600GT kb. egy olyan kártyának számított mint ma a 8800 GT . Csak az ára 35000 FT volt míg most a G92 60000.
Ez itt NV részről üzleti alapokon előre megtervezett. Eladták ugyanazt a teljesítményt 10-szer annyi embernek mégegyszer, kisebb haszonnal. Ezzel arra utalok, hogy nem eröltetett, kijelentés, hogy az Nvidia bevárta őket, hanem tény. Az NV a hasznot nézi és nem érdekli övé-e a legjobb kártya a piacon, amíg nől a haszna. Ha érdekelné akkor már rég kiadta volna a 9800 GTX-et. -
Anthony28
őstag
válasz
mazda626 #180 üzenetére
Jah..500EUR az 132e ft.Csak egyet felejtesz el.Az 500EUR ár külföldön lesz..míg az Ati már nálunk 110e.Tehát az összehasonlításod nem korrekt!
Az 500EUR kinti árból mire ideér hozzánk legalább 145-150k lesz, mert ez alol a GX2 se lesz kivétel.Idáig is minden hardverrel így volt.A kinti árat a kinti árral hasonlítgassuk...
Tehát az 500EUR-t az X2-es Ati 340EUR szemben.Ez a korrekt összehasonlítás mert nálunk is kb. ekkora marad a különbség mire ideér, ha nem nagyobb.
Ha neked pedig 160EUR különbség nem túl nagy összeg egy alig vagy egyforma teljesítményű kártyáért akkor nagyon el vagy eresztve anyagilag, ha meg még meg is veszed akkor korházi kezelés is javallott. -
Levin01
őstag
válasz
mazda626 #182 üzenetére
Ha helyes lenne azé érvelésed akkor úgyan úgy nem számítana a 8800GT és GTX közötti különbség annak aki a fullosra utazik és mégsem vesz mindenki GTX-et. Igen is vannak, akik hónapokig lemondanak dolgokról, hogy összekuporgassanak egy 80-100K-s vga-ra és nem fogják zsebből a 130K-sat venni.
-
mazda626
addikt
Nem úgy értettem. Tök mindegy melyik karit veszed, ha veszed van pénzed, meg jól jársz.
Gondolom aki nagy teljesítményű gépet épít nagy VGA-val nem Sempront dob alá, hogy megspórolja azt a 20k-t. Azoknak nem tétel, aki fullosra utazik. Nekem tökéletesen elég lenne egy nyócnyóc gété vagy hádé háromnyóchetven.
Nálam ez az NFS PS lelopjuk az árnyékot effekt nem jött elő, alapból úgy nézett ki, ahogyan ki kell neki.
Az nem lelopás, a kártya számol olyan gyorsan, hogy a játék nem bírja követni.Vicc vót!
-
#65755648
törölt tag
válasz
Anthony28 #172 üzenetére
Kíváncsian és érdeklődve várom!
Amúgy meg, az NV vs ATi sajnos még most is elég egyoldalú harc. Sokkal több az NV fan és NV-nek nagyon durva kampánya van, így aki nem merül bele nagyon a dolgokba, az nagy valószínűséggel NV-t fog venni.
Tesztekben már én sem bízok, főleg azokban amik a neten vannak. És legjobb az lenne, ha minden képen, amit csinálsz lenne FPS-szám is pl FRAPS-sal mérve (vagy még jobb az ATT). Mert abba nem lehet belekötni.
És pár NV tulaj is linkelhetne pár képet azonos beállításokkal, szintén FPS számmal a fórumba legalább. Szvsz ez segítene kicsit tisztábban látni.
-
t72killer
titán
válasz
hakos1987 #176 üzenetére
igen, kísértetiesen hasonlít az eset az FX-szériára, amikor szintén a minőség bánta a kárát a mesterséges fps-hajhászásnak
azt hittem, h leszokott róla az NV azóta, mióta elkezdett jó karikat csinálni... (GF 6-7-8)
Érdekesség, hogy a 9800gx2 veszettül drágán jön, így ha még meg is veri a a 3870x2-t, akkor se igen lesz kompetens... SzVSz még a hardcore gamer is elgondolkozik, hogy kell-e neki ilyesmi.
A 8800GTX bevezetésekor nem volt kérdés, hiszen az 1950XTX/7900GTX eléggé felsültek pár játékban, ráadásul csak DX9-esek vtak. Itt DX-váltás nincs (sőt, ami pici van is, az is az ATInak kedvez)
-
Anthony28
őstag
válasz
hakos1987 #176 üzenetére
Nos.Erről beszéltem.Köszönöm.
Itt ezek úgy tünnek hogy a száraz tények.Köszönöm a linket és a bizonyítást, így bárki aki idetéved és olvassa a rágalmazásokat, itt meg is fogja találni rá a bizonyságot hogy nem a "vörös" márka híveinek a kitalációja, ergo nem lesz helye flame-nek, mert a tény az tény.
-
hakos1987
őstag
válasz
Anthony28 #174 üzenetére
Bocsi, csak felhúztam magam...
Itt egy PH-s teszt, amiben mikor átírták 1234.exe-re a játék indítítófájlját, láthatóan kevesebb lett az FPS, valamint a következő oldalon vannak képek... Ott lessétek meg az NFS ProStreet képet, és feltűnik az árnyékolásnál a kül.,,NFS PS alatt, mint már említettük, az NVIDIA kártyákon bizonyos esetekben nem jelennek meg az árnyékok egészen addig, amíg át nem nevezzük az exe fájlt. Ezenkívül mintha az NVIDIA esetében az élsimítás kicsit gyengébb minőségű is lenne."
ezen az oldalon a 8600-ast, és 8800 GT-t érdemes lesni, ahol a crysis.exe-t átírják, mindjárt -5, -12 FPS:
-
Anthony28
őstag
Új hírek nV 9800 GX2 árával kapcsolatban.Lehet hogy eldőlt már most ki lesz a favorit nyárig.
[link] -
Anthony28
őstag
válasz
hakos1987 #173 üzenetére
Kicsit nyers a fogalmazás, de elnézzük egy fanatikus Ati rajongónak!
Bár én még csak arra láttam bizonyságot hogy szinekben,részltességben a szemnek szebb az Ati, ez is erősen szubjektív, én így látom.De hogy az nV csal e vagy sem, annyiszor elhangzott az elmúlt 2 napban, hogy most már jó lenne ezt a teóriát bizonyítani valamivel, mert mindenki ezt szajkózza.Persze lehet hogy igaz, csak így, a tényeket nem alátámasztva dobálózni, az nV-t mocskolni nem korrekt.Tehát aki tud cikket linkelni, hogy az nV csalt bárhol is, az tegye meg és dobja be ide.Amennyiben viszont nem, ezt a fajta rágalmazást kerüljük.Niincs kedvem az ide tévedt nV fan-okkal vitázni, flame-elni, mert ez a topik nem lesz ilyen, ide mindkét tábor jöhet, beszélgetni,vitatkozni, értelmes emberek módjára, tiszteletben tartva a másik ember véleményét is.
Ezeket a dolgokat ha lehet tartsátok tiszteletben!
Köszönöm! -
hakos1987
őstag
Nem tom mért fikázza mki az Atit, meg az Nvidia így, az Nvidia úgy.... Rohadtul nem mérvadóak a tesztek, értsétek meg! A játékok többségét a mocsok Nv-ra optimalizálják, mert úgy megkeni őket, mint én a vajas kenyeret
A másik, hogy ha az ember vesz egy karit, akkor nehogy már úgy lessen ki a kép, mint itt PH tesztben is az új Need for Speed, hogy az autónál az árnyék csak a lökkhárító mögött egy ovális, és nem teljes! Ahhoz hogy teljes megjelenítésben játsz, át kell írni az exe-t! Ez röhej ilyen drága kariktól!
Uh. please ne nagyon mondogassátok itt hogy a Nv így úgy amúgy, mert csak csalással tudnak jobb FPS-t produkálni, ráadásul ha jól tudom 3dmark-ban is volt olyan, hogy csalt, mert nem mindent számolt ki! Egyébként is jelenleg az X2 a király, és kész! Aki meg olyan hülye hogy NV-t választ, az lesegesse csak az alig árnyékolt játékot 70 ezres karival, mert hú de jó hogy nem 50, hanem 150 FPS-el megy... mintha lenne különbség! Inkább legyen pár FPS-el kevesebb, de hadd élvezzem a játék grafikáját!Szval NVidia leírva.. Ennyi!
X2-t meg szerintem nem érheti kritika! Főleg hogy NV 1.5 évig semmit sem csinált! Egészségükre!
-
Anthony28
őstag
Rövidesen Call Of Juarez Teszt!
Nem fogom bezsúfolni a Crysis mellé, mert nagy durranás lesz, megint csak azt bizonyítva mekkora ellen kampány folyik az Ati ellen ami már a tesztekben is megmutatkozik, beleivódik! Szomorú hogy idáig süllyedtünk!
A tesztben minden egyes felbontást videó-n is megnézhettek elejétől a végéig!
E mellett nagyon sok kép ez is tesztekre bontva, és természetesen a konklúzió sem fog elmaradni.
A nagy leleplezés rövidesen!! -
Anthony28
őstag
válasz
mazda626 #168 üzenetére
Semmi gond.....COD4 bench demo létezik? Letölthető valahonan?
Mert esküszöm először azt nézem meg...COJ-ről a végén még azt mondanák, abban az Ati a jobb minden tesztben, tehát Ati-ra optoimalizálva.Viszont a COD4 mindenhol nV győztes nem kicsivel...meg köll nézni igaz e.
-
mazda626
addikt
Szóval hogy is van ez?
X2 összegzés
Ok, a PH! erősebb procit használt, de a driver ugyanaz, minden játéknál NAGYOK az eltérések. -
Levin01
őstag
válasz
jedimasters #163 üzenetére
De nem is GT-ről cserélt, hanem GTX-ről.
-
Tomika1981
tag
válasz
jedimasters #163 üzenetére
"Én semmi pénzért nem cserélném el a 8800 GT-met,erre az X2-re"!
Ha ultrád lenne azt mondanám a te dolgod. Viszont aki egy Gt-t nem akar lecserélni egy közel 2x annyit tudó kártyára azt nem minősítem mert nem akarom megbántani.
-
Anthony28
őstag
válasz
jedimasters #163 üzenetére
Ez a kijelentésed...kicsit erős volt "nem sokkal jobb".
1 dolgot viszont tanácsolnék mély tisztelettel.Nem tévesztetted el a topikot véletlenül?
-
Levin01
őstag
válasz
jedimasters #161 üzenetére
miért lenne neki a "baja"? Szerintem jó csere volt, a tesztek is ezt támasztják alá, ő is elégedett vele. Nem lehet, hogy picikét irigy vagy?
-
jedimasters
csendes tag
Nem tudom a "tudatlan" kinek szól, de nem hiszem,hogy másokat kéne sértegetni!!! Én sem tettem ! Az meg ,hogy a GTX-edet lecserélted egy X2-re legyen a Te bajod!
-
Anthony28
őstag
2 db kép kedvcsinálóként a Call Of Juarez-ből ami a tesztben is benne lesz...
[HD 1680x1050]
[HD1 1680x1050]Mit is mondjak 6 hónap G80 GTX használat után...
Akárhogy csűröm csavarom de a megjelenítés szebb a GTX-hez képest.
-
Anthony28
őstag
válasz
jedimasters #157 üzenetére
Tudatlan vagy, és ezzel annyira nem kérkednék.
Legalább arra vennéd a fáradtságot hogy visszaolvasol, vagy elolvasod a Crysis tesztemet, amiből ki is derül hogy a neten 26 féle különböző Crysis eredmény szerepel mindegyik más végeredménnyel.
Szóval full hülyeségeket beszélsz.
De hogy megcáfoljam a külföldi teszteket csinálok egy COD4 tesztet is a Call Of Juarez mellett.
-
Tomika1981
tag
inkább azon gondolkoznék el, hogy másfél éve mért nem adtak ki erősebb kártyát és miért szórakoznak azzal, hogy kib@sznak azokkal akik megvették anno a csúcskarikat és nemhogy nem fejlesztettek nekik jobbakat, még le is verték az árakat ugyanolyan teljesítményű, de olcsóbban gyártható kártyákkal, hogy még eladni se tudja az aki áldozott rá.
Érdekes vélemény! Már bocs de szerintem mindenki mázlista aki 2 évig kihúzta a 8800-al és nem kellett ráköltenie. Ez hálás dolog és nem szidni való.
Te annak örülnél, ha 6 havonta piacra dobnának valami jobbat és a régit adhatod el féláron??? Nem kib@sztak a jónéppel hanem hagyták hogy 1 kártyával full grafikán játszhassanak 2 évig. -
jedimasters
csendes tag
Nem gondoltam volna,hogy ez kérdés lehet.Az X2-ről szóló cikkre gondoltam természetesen.mivel itt is erről beszélünk.A tesztek alapján egyértemű (számomra), hogy nem
érdemes ilyen karit venni,ha csak nem 1920/1200-as,vagy a feletti felbontást használ valaki.Érdemes lene várni még 1 hónapot a 9800 GX2 megjelenéséig, a 9800 GTX-ről nem is beszélve. -
Levin01
őstag
Akárhogy nézzük, felzárkózott az ATI (AMD) és reméljük, hogy most már kéesek lesznek tartani a lépést is.
Azt, hogy nem volt fejlődés nvidia részéről azt azért nem mondanám. Tény, hogy nem történt teljesítmény terén egetrengető előrelépés, viszont ezt a teljesítményt ami volt már olcsóbban előállítható karikkal tudják hozni, kisebb fogyasztás és hőtermelés mellett. Mindenki állandóan azért sírt, hogy ilyen irányban soha nincs előrelépés, csak folyamatosan jönnek az egyre nagyobb teljesítményű karik, amikhez már minimum vízhűtés meg 800wattos táp kell. Most teljsítmény szinten kicsit megtorpantak és azokra a problémákra koncentráltak amik szintén legalább olyan fontosak. Ugyan ez vonatkozik az ATI-ra is."Most utolérték az Nvidia 2006-os szintjét, hát gratulálok nekik."
Nem utólérték hanem lehagyták, de most, hogy ez sikerült már az a probléma, hogy az nvidia úgymond "bevárta őket" és csak ezért sikerült nekik?? Ez már nagyon erőltetett és elkeseredett kijelentés az nvidia védelme érdekében. -
theniel
aktív tag
Igen egyetértek veled, hogy a crysis futtatására tök mindegy, hogy ATI, vagy NV mert jelenleg egyik gyártónak sincs erős kártyája.
De: Tulajdonképpen az Nvidia másfél éve nem adott ki erősebb kártyát. Jöttek itt a G92es butított kártyák, de csak annyi volt az eredmény, hogy majdnem utolérték az Ultrát, de azért azt sem. Tehát fejlődés nem volt, annyi lett, hogy olcsóságuk miatt egy szélesebb réteg jutott a már rég meglévő teljesítményhez.
Szóval szídja itt mindenki a crysis programozóit, aztán teljesen egyértelmű, hogy az Nvidia másfél évvel ezelőtt megállt és azóta nem adott ki erősebb kártyát.
Tehát én nem szídnám a programozókat, inkább azon gondolkoznék el, hogy másfél éve mért nem adtak ki erősebb kártyát és miért szórakoznak azzal, hogy kib@sznak azokkal akik megvették anno a csúcskarikat és nemhogy nem fejlesztettek nekik jobbakat, még le is verték az árakat ugyanolyan teljesítményű, de olcsóbban gyártható kártyákkal, hogy még eladni se tudja az aki áldozott rá.
Az Ati meg akkora lemaradásban volt, hogy vele nem is érdes foglalkozni. Most utolérték az Nvidia 2006-os szintjét, hát gratulálok nekik. -
theniel
aktív tag
válasz
jedimasters #152 üzenetére
Pontosan melyik cikket?
Annyit látok az X2 teszt alapján, hogy aki COD4-ezni akar, az messze kerülje el az ATI kártyákat.
Meg annyit, hogy az általam kedvelt játékoknál nem szabad a GTX-emet X2-re cserélnem, mert tetemes teljesítményvisszaesés lenne. -
jedimasters
csendes tag
Ezt olvassátok!!![link]
-
theniel
aktív tag
Én csak annyit tennék hozzá, hogy a processzor is nagyon sokat dob a játékon. Én a crysis esetében vettem észre 6750-ről 8400-ra cseréltem és meglepően erősebb lett a gép sokkal jobban fut a játék. Persze tesztekkel nem tudom alátámasztani, de az engem nem is érdekel, a lényeg, hogy sokkal jobb lett. Ezzel csak azt akarom mondani, hogy talán még nem kell temetni a crysist, és lesz olyan vas amin rendesen fut. Meg az is igaz, hogy anno a legnagyobb felbontás amin a csúcsjátékokat használta - akár egy drágább csúcsgép tulaja is - az 1280*1024 volt. Most meg az LCD-k megjelenése nativ 1680*1024 meg e feletti felbontások miatt alapból magasabb régen soha nem is használt felbontásokon próbál mindenki játszani. Érthetően persze, különben nagyon ronda lesz, ha natívba alatt használja.
-
hakos1987
őstag
hát jah, az meg a másik... bár én most csak a kariról beszéltem... Valóban jó lenne, ha egy középkategóriás karin is jó minőséggel lehetne jáccani...
De persze az a gyártók érdeke, hogy erős játékok, erős karik... vagyis aki játszani akar, kültsön kiba*** sokat vidkarira.... -
hakos1987
őstag
Hali
Nekem annyi lenne a véleményem, hogy ezeket a kártyákat nem 5 perc alatt dobják össze, hanem már valszeg több hónapja, éve tervezik, a crysis viszont most jelent meg nemrég, vagyis amikor elkezdték az X2-t tervezni, Crysis bácsi terve se volt véve
(mármint a gyártók szempontjából) A másik, meg hogy a mocsok Nvidia lefizet mkit, nem csak hogy az ő karijukra optimalizálják a gámet, hanem hogy Ati-ra kifejezetten ne!
Meg amúgy is meg lehet lesni Nv kariknál mi történik, ha átja az ember az exe-t...
Innentől kezdve Nvidia nem minősítve...A kari nagyon jó, csakhát nem erre optimalizálnak a játék készítők... Független tesztet meg nehéz lenne összehozni...
-
Anthony28
őstag
válasz
Tomika1981 #143 üzenetére
Fikázhatod, itt nem az én kártyámról van szó...hanem az Ati 3870 X2-ről.
Ha valami fikázható azt fikázni is kell.1 hónapja sincs a piacon, tehát csodát nem lehet várni még a driverektől sem, bár a 8.2 azért lényegesen jobb meghajtó lett mint elődei.
Az új NV külföldi pletykákból kiindulva 14k-t dobott alapon egy Q9650-es yorkfield-del.Nekem pedig E8400-el ami azért lényegesen gyengébb lévén hogy 2 magos, 14013p dobott.Ezek alapján jobb nem lesz az tuti.
Jah...a 140-es hsz-ben nem fikázni akartam a kártyád és fitogtatni milyen jó az X2, hanem tényleg futtasd le, és megtudjuk hogy egy G80 GTS-hez képest mit tud az Ati a COJ-ben.
Mert majdnem 3x annyiba kerül az X2 mint a GTS.Tehát legalább 2,5-3x illene gyorsabbnak lennie.
-
Tomika1981
tag
válasz
Anthony28 #142 üzenetére
Nem vitatom hogy jelenleg a legjobb kártya és megkockáztatom hogy a felső kategóriában a legjobb vétel is lesz egy darabig.
Amit viszont szánalmasnak tartok az az hogy ennyit tud egy frissen piacra dobott csúcskártya a mai játékokhoz képest. Nem fikázni akartam a kártyádat csak azt akartam kifejezni hogy manapság egy új 100Ft-feletti VGA sem biztosíték a hosszútávú magas színvonalú játék élményre.
Még annyit tennék hozzá hogy félek az új NV kártya se lesz sokkal jobb.
-
Anthony28
őstag
válasz
Tomika1981 #141 üzenetére
Nem esett senki neked.
Te azt mondtad siralmas az új Ati teljesítménye.Pont.Én meg megint megcáfoltam egy COJ gyors teszttel.Kb. ennyi történt.Nem szép dolog a levegőbe dobálózni ilyen kijelentésekkel.Vagy akkor tesztet kérünk amivel cáfolod a tesztjeimet ill. alátámasztod a kijelentésedet.
-
Tomika1981
tag
válasz
Anthony28 #140 üzenetére
Most mér kell nekem esni??? A kártyád egy friss eresztés. A 8000-es sorozat meg öhmmm. Amikor a 8000-esek kijöttek nem nagyon volt játék ami megfektette. Ha jól látom akkor az ati ahhoz képest hogy még ki se hült a gyártósorról eléggé meg lehet fektetni.
De tudod mit, felteszem úgy a kérdést, hogy mit gondolsz, mennyire lesz időálló ez az ATI kártya? Mert a 8000-es szerintem egész jól bírta.
Még annyit hogy nem vagyok NV fan. Sőt mindíg is ATI kártyám volt. Csakhát pár hónapja nem nagyon volt olyan ati amit jószívvel megvettem volna így maradt a 8800gts-s.
-
Anthony28
őstag
válasz
Tomika1981 #138 üzenetére
Miről beszélsz vazze?
Call Of Juarez bench.... 1680x1050 Low 70 fps avg, High 37.7 fps avg. Ez annyira kula lenne? Nem hinném...
De nyugotan nézd meg a GTS-eddel mennyit kapsz mondjuk 1280-ba... én low 1280x1024 85,9fps, high 49,5fps.Tök szar nem?
-
Kelvin
őstag
válasz
Tomika1981 #138 üzenetére
Amíg az nv fizet a játékgyártóknak és már nem először csaltak benchekben is......addig ne csodálkozz!
-
Levin01
őstag
válasz
masterful87 #6 üzenetére
Nem elfogult, csak sokaknak fáj az igazság, hogy nem az nvidia jelenleg a legfullosabb vga büszke gyártója. Ennyi.
-
azért hogy annyira szép ez relatív szerintem még mindig mokás 2008 ra hogy nem oldották meg azt hogy a fák ne csak ugy elő tünnyenek kirajzolodjanak hanem éreztessék hogy midig is ott voltak pl egy gears of war, timeshift ut2007 stbott megtudják oldani hoyg a távoli dolgok ne csak ugy kirajzolodjanak hanem az legyen az érzése a usernek hogy ott is van
amugy szerintem az unreal 3.0 engine százszor jobb mint a crytech é gyorsabb ütösebb gears of war sokkal jobb játék élményt ad mint egy crysis főleg az gagyi ufos rész hát az röhely
lsd konfimon mediumon dx9 be legutolsó föszörnynél vista alatt 15 fps volt az átlag
hát ez lol
másként fogalmazva EGY RAKÁS SZAR(javítás nélkül és régebbi forcewarel nem ma vittem végig)
pont a minap toltam végig a far cry-t megint 20.jára de esküszöm még mindg jobban bejön mint a gagyi crysis és szerintem minden maxon nem sokkal jobb mint a crysisannyi hogy a fákat nem lehet szét lőni hűha
tudom hogy ezekért a kijelentésekért megfognak kövezni
-
Anthony28
őstag
válasz
gombcomp #130 üzenetére
Lehet, bár nekem a legújabb GPU-Z is hibásan írja ki a dolgokat...memory bandwidth 28,8GB/s.
Texture Fillrate 6,6 GTexel/s.
egy vicc...ezeket honnan olvassa vajon ki?
Készül a Call Of Juarez teszt is, meglátjuk milyen lesz, de sztem csak a Crysis tesztben teszek említést róla jó pár darab hiányolt nagy felbontású screenshot társaságában!Ígérem pótolva lesznek a Crysis screenshot-ok is a tesztelt felbontásokon!
-
gombcomp
senior tag
-
#64791808
törölt tag
válasz
Tomika1981 #104 üzenetére
Várjál, lassan. Nem mondom, hogy nincs igazad, azt mondom, MÉG nincs igazad. A Crysis elég régóta kint van már, és még eléggé nincs olyan kártya, amivel játszható.
Arról nem beszélve, hogy amikor a G92-es architektúrára épült nagyágyúk kijönnek, akkor sem lesz olyan kártya, ami jól fogja vinni a Crysist. Ugyanis ahhoz a G80 Ultrára rá kellene duplázni. Minimum. Nem látom, hogy ez teljesülne, a Crysist natív felbontáson is pörgősen futtatni tudó kártya jó egy év múlva talán lesz.
Szóval én inkább mondom azt, hogy a Crysis egyszerűen el lett bachva. Ott a TDU, és még sok más játék közel olyan szép grafikával, mint a Crysis, és egy 8800GT-n szűrőkkel hdr-rel mindennel maxon teljesen jól futnak. Nem látom, hogy a Crysis annyival szebb, mint amennyivel erősebb gépet igényel.
Szerk: #125: mélyen meghajolok, józan paraszti észre alapuló tökéletes gondolkodás.
-
Tomika1981
tag
válasz
#65755648 #125 üzenetére
elképzelhető hogy igazad van.
Viszont számomra érthetetlen hogy miért nem veszik a programozók a fáradságot hogy mégis írjanak DX10-re, meg 64-bitre hiszen fórba kerülhetnének a konzolokkal szemben. A csapból is az folyik hogy a PS megöli a PC-s játékipart. Itt lenne a lehetőség hogy lenyomják a konzolokat. -
Anthony28
őstag
válasz
#65755648 #125 üzenetére
Grat! az okfejtéshez!
Hihető!
De azt ne várd hogy bárki is leírja a frankót a szám.tech. világában...
Kb. olyan sok szar kerülne elő a mélyből a víz felszinére hogy lehet összeomlana a számítástecnika.Manipuláció, vesztegetés,összeesküvés, vásárlók megtévesztése, valótlan teszt erdermények a nagyobb profit reményében...ezek ha kiderülnének? Az elmúlt pár évtized legnagyobb botránya lenne!
-
#65755648
törölt tag
Én nem vagyok hozzáértő, amiket most leírok, azokat én is csak mások véleményeiből, leírásából szedtem össze innen-onnan. Mindenestre, nekem logikusnak és egyértelműnek tűnik, de azért még nem biztos hogy igaz.
Dx10 állítólag jobb a programozóknak, mert egyszerűbb, könnyebb rá fejleszteni.
De Dx10es játék fejlesztésekor 2 lehetőség van. Ahhoz hogy valaki VALÓDI Dx10es programot írjon teljesen elölről kell mindent kezdenie. Egy vadunatúj, a dx9-el nem kompatibilis programot kell írnia, ami hatalmas munka. Ezzel szemben a játékok nagyrészét nem így fejlesztik. Vagy licenszelnek egy már kész grafikus motort (ez a leggyakoribb), vagy egy korábbi fejlesztésüket pofozgatják ki, itt-ott befoltozzák, benyomnak pár új efektet, és máris kész az új motor. Namármost, mivel kész teljesen Dx10es grafikus motor még nincs, ezért olyat senki nem licenszelhet. És mivel az első Dx10-es motort valóban Dx10ben kell megírni, mindeképpen az alapoktól kell kezdeni.Ez időigényes feladat, Dx10 még nem olyan régi. Anno a Dx9 első 2 évében is voltak újonnan kiadott dx8-as játékok!
A másik lehetőség az, ha egy Dx9es motort fejlesztenek és ezt teszik Dx10 kompatibilissá, ami lehetséges, mert dx10 szinte mindent tartalmaz amit dx9. Csak Dx10 még sok minden mást is tartalmaz, amit így nem használnak ki. Pl. Dx10 nagyobb hatékonysággal dolgozna mint dx9, mert megkíméli a videokarit a fölösleges számítások elvégzésétől, estleg attól, hogy 2x számolja ki ugyanazt. Így nagy teljesítménynövekedést lehetne elérni. De ezt a mostani dx9-ből átalakított Dx10-esnek nevezett játékokban nem lehet használni. Így tulajdonképpen előjön a Dx10 minden hátránya és semmit nem tud megmutatni az előnyeiből. Pedig igencsak valószínű, hogy több előnye van mint hátránya, hiszen elev az volt az alaptörekvés, hogy nagy részletességű textúrák, nagy felbontás és sok shader mellett jobb legyen mint dx9, amit akkot terveztek, amikor a játékokban még nem ezek voltak a jellemzők.A másik dolog meg, hogy gondolkodj el azon hány olyan játékot láttál, ami azzal kezdődik, hogy: "Nvidia. It's meant to be played" (bocs ha nem pontosan idéztem, ennél a résznél mindig a billentyűzet Esc, Space, Enter és/vagy Alt+Tab gombjait nyomkodom veszettül és nincs időm mindig elolvasni...). Ez van a Crysisnál is.
Na és hány olyan játékot tudsz mondani, ami ATI logót nyom a képedbe induláskor?
És most jusson eszedbe, hogy Geforce 8 sorozat Dx9-es kártya, dx10-et csak ímmel-ámmal támogatja. Ja és még a 9es sorozat is ilyen lesz...
A többit te is kitalálhatod...
A 64 bithez nem tudok érdemben hozzászólni, de erős a gyanúm, hogy ugyanaz az oka, mint amit a Dx10 lassú elterjedésének és eddigi gyenge teljesítményének okaként az első bekezdésben írtam. Vagyis teljesen újra kéne írni az alkalmazásokat, pedig csak kevés teljesítménynövekedés lenne elérhető. Inkább foltozzák a régit és lenyelnek egy kis teljesítménycsökkenést.De akik nálam hozzáértőbbek (de tényleg csak azok
) javítsanak ki engem ott ahol tévedek, vagy szóljanak ha teljesen rossz irányban tapogatózom. Én is hiányolom azt a cikket, amiben valaki végre megmondja a frankót
-
Anthony28
őstag
Oké.Lehet hogy van lassulás.De ha 64bit-et használsz 4gb memóval kizárt hogy lassabb legyen mint az XP 2x1-el.Tehát mivel az XP 3-3,5gb lát csak, illetve a 4gb-ből vonja le a VGA memóját is, ami jelen esetben nálam 1gb, ezért kétlem hogy az esetemben gyorsabb lenne.Persze a winRAR, és a többi bench gyorsabbnak dinamikusabbnak látja az xp-t.De rövidesen úgy is telepítek, és akkor lehet csinálok én is egy összehasonlítást saját szemszögemből nézve persze logout-ba.
-
theniel
aktív tag
Ez tényleg egy remek cikk Anthony28, gratula érte.
Szerintem még az is az Ati kártyák mellett szól, hogy ha netán crosfire-t akar valaki akkor inteles chip-nél tud marad és talán így megbízhatóbb, stabilabb rendszere lesz, mint az SLI. -
Anthony28
őstag
Ebben is lehet valami mert az Overdrive funkcióval ha megtépem 850-ről 878-ra a GPU-t és a memót 1800-ról 1955-re, és a 3dmark nem hoz plusz pontot! 1 ponttal se! A 8.2 driver estében se lett javulás ezen a téren! Tehát driver hiba még mindig fenn álhat...mutatja ezt leginkább a 3d01 alatt elért gyászos eredmény...G80 GTX OC-vel 64k. Ati X2-vel 53k...ez is driver hiba lehet szvsz.A 3d03,3d05-ben is 2-3k-val kaptam többet mint GTX esetében holott a GPU 630mhz-en járt (alap 610), itt meg 2x850mhz.Sok még a megválaszolatlan kérdés, a hozzászólásaitokból, és a különbőző felállított elméletekből egyértelműen kiderül hogy nagy a bizonytalanság még ha ezt bizonyos embereknek nem is áll érdekükben terjeszteni, sőt! Azt hirdetik hogy minden rendben mindennel...csak a játékok vannak szarul optimalizálva.
A vélemények tetszenek, legalább annyira mint amennyire nektek a teszt!
-
ttt1
őstag
Directx 10-et másképp kell programozni,ergo nem biztos ,hogy sokkal szebb lesz ( ill a dx 10es effektek természetesen szebbé tehetik), de elméletileg jóval könnyebb lenne megirni az adott programot ,és kevesebb koddal irható le ugyanaz a folyamat. DX 10 Ill némileg magyaru ugyanaz Dx 10 magyar
-
JColee
őstag
azért nem veszika fáradtságot mert fizetnek is érte
a videókártyagyártóknak nagyon megéri mert emiatt veszed meg az nagyobb vasat
ha ránézel egy UE 3as játékra az van optimalizálva mert nekik fontos az is h sokaknak menjen jól a gépén
álltólag az UE3 "rosszabb" mint a Cryengine 2 mert nem annyira szép (mi az h szép teljesen relatív lehet rajta vitatkozni)
szerintem nem csúnya egyik sem csak más műfajba tartoznak -
JColee
őstag
egyetértek sztem is a bioshock ut3 (UE3 4 ever) jól optimalizált gamek, csak sajna nem mindenki veszi a fáradtságot h jól megcsinálja
(pl a pro street ebből a szempontból nagyon béna, hasonlóan a crysishoz
engem csak az érdekelne h mért hirdetik akkor h a directx 10 gyorsabb meg minden?
addig ugysem veszek directx 10es vidkarit amig elég ez...majd ha annyi lesz az ultra ára amennyiért a mostanit vettem (60e Ft) addigra tuti h kiforr (vagy jön a 11)
-
Anthony28
őstag
válasz
Tomika1981 #92 üzenetére
Hát...ez a vélemény tetszett.
De azt kívánom ne legyen igazad!
-
Anthony28
őstag
Idle-ben is hangos, de a tempóból visszább vesz post-olás után.Tehát működik a ford. szám szabályzó,de load és idle között nem nagy a különbség dB-ben.
dennisjunior: Igazad van, nehéz eldönteni 100% minek is van baja Crysis alatt.Úgy gondolom ez idővel ki fog derülni.
Tegnap kipróbáltam a Call Of Juarez bench-et és elkeserítően alacsony Crysis szintű eredményt kaptam 1680-ba fullon.Asszem 17 volt az átlag fps bár rá volt eresztve a 4x AA is.De akkor is....diavetítés volt egy 100k kártyán.Persze.Ez is rosszul van megírva.Sőt biztos a CryEngine motor van benne...
Meg nincs optializálva ez se, azért mennek kb. egy szinten.Ezt a legkönnyebb mondani.Véletlen sem azért mert esetleg a Crysison kívül mégis van valami gubanc mással is gondolok itt megint a DX10-re nehezebben fejleszthető/optimalizálható játékokra pl...
-
hétalvó
addikt
válasz
masterful87 #6 üzenetére
És mi van akkor ha az ati driver nem jó?
Érdekes módon az nv-sek nem panaszkodak... -
#40935168
törölt tag
Jó a teszt nagyon, de egyetlen dolgot hiányolok:
screenshot-okat a JÁTÉKRÓL
A program végeredményről nem kötelező szerintem, elég ha leírja az ember. De egy jó DX10-es screenshot ultra minőségben - ezt megnézném.
Mivel gépvásárlás előtt állok, és a sima natúr 6600-am soványka szerintem egy 1920x1080-as full HD játékra.
-
Oks de akkor is valaki aki programozó játék fejlesztő stb erre járhatna vagy egy microsoftos arc és elmondhatná hogy mi a gebasz és ki baszta el a dolgokat?
-
jedimasters
csendes tag
Hello! A cikk érdekes. A tényekkel,számokkal nem lehet vitatkozni,de a megállapításokkal igen. Szerintem sem tökéletes a DX10,a Crysis is optimalizálatlan.de véleményem szerint a fő ok amiért a kártya ilyen lassú DX10-ben a driver ill.maga a kártya. Az én sokkal szerényebb konfigomon (Amd 4600+@2625Mhz,8800GT,2x1Gb DDR400 Ram) a következő eredmények születtek:1280/1024,High,DX10,No AA, 29,48fps; 1280/1024,High,DX10,16xAA,25,50fps;1280/1024,Very High,DX10,No AA,16,60fps.Tehát én úgy látom van még mit fejlődnie az ATI nak,mielőtt ki kiáltjuk ezt a karit az "Új Királynak". Ja és videokártyám alaponvolt (600/1500/1800) és egy több mint 1 éves Vista Home Premium 32 bit.
-
Gyula_
tag
válasz
Dark Archon #98 üzenetére
Én azt szerettem volna kihangsúlyozni, h konzolon fix a hardver és arra tisztességgel kioptimalizálják a játékot és akadásmentesen fog futni. Ezt az optimalizációt PC esetében nem végzik el vagy lustaságból vagy direkt, vagy túl erős gépre teszik meg. Azzal egyetértek, hogy a gamepad-es irányítás nem egyenlő a keyb+mouse-zal, de azt szintén nem értem, hogy miért nem lehet bill+egérrel játszani konzolon. Vagy lehet? Nem volt még konzolom...csak régen egy nintendo.
Az árakon lehet filózni, csak nekem bármilyen árú PC is drága akkor, ha nem lehet játszani vele a driver gondok, az inkompatibilitás, az optimalizálatlanság és a bugok miatt. Így - még ha drágább is - jobban megérné a konzol. Az teljesen más kérdés, hogy a konzolos játékkínálat más. Noha a kérdést ezzel együtt kell kezelni, teoretikus síkon a konzol biztosabb játékélményt ígér. Legalábbis nekem így tűnik. -
Tomika1981
tag
válasz
#64791808 #100 üzenetére
Szerintem egy picit engem igazolsz az okfejtéseddel. Még nincs olyan kártya de lesz!
Úgy gondolom hogy a Crysis mindössze előkészítése a G92-es kártyáknak. Lássuk be hogy a G92-ből a nagyágyúk még nincsenek piacon ami nekem egy picit furcsa hiszen mindíg a csúcskártyák szoktak elsőkörben megjelenni. Akinek most 8800-as ketyeg a gépében az megijed hogy eljár az idő felette. (amúgy ez így is van) és elkezd gyűjtögetni egy új kártyára. A legerősebb G92-ket most nem éri meg piacra dobni mert senkinek sem kellene 160ezerért. Viszont majd pár hónap múlva amikor 10-15 Crysis gépigényű játék lesz mindenki rohan a boltokba és persze addigra lesz G92 csúcskártya. -
#56573440
törölt tag
válasz
Tomika1981 #97 üzenetére
jah hat éves 300 cerka és akkor persze tanítsd meg linuxozni mert ha winfost teszel be akkor kell egy spyware egy vírusírtó, egy tűzfal, esetleg más hasonló nyalákság ami meg elmegy rajta még a háttérben főleg egy valós idejű védelemmel együtt. csak legyen türelmes amíg betölt valami vagy elindul a net. de ez már annyira off hogy olyan kapcsoló nincs is
-
Tomika1981
tag
Hú de jó kérdések. Szerintem a Microsoft is gondolkodna pár napig a válaszokon. Anno azt mondták hogy olyan lehetőségeket rejt a DX10 hogy eláll majd a szavunk ha meglátjuk a DX10-es játékokat. Ezt már tudjuk hogy nem igaz. Aztán jöttek azzal hogy a DX10 a programozóknak jó és nem a felhasználónak. Mostanában ezt is cáfolják.
Szerintem az igazi ok az mindössze az hogy a DX9 már kicsit öregecske és kellett valami amivel leváltják. Nekem ez olyan mint a 32-bitről 64-bitre. Vagy sata1-ről sata2-re. Előrelépést nem jelent csak éppen + bevételeket. -
t72killer
titán
válasz
#64791808 #100 üzenetére
minden csúcskari/csúcsjátékkal ez a történet
Anno a doom3 se ment a 120eFt-os 9800PRO-n max-maxon pörgősen, mindig a következő generáció oldotta meg a problémát.
az SLI/CF megoldásokkal bejött, hogy okés, az abszolút új játék is játszható maxon, viszont 2 csúcskari/dupla$ kell hozzá... Ha vki mindig az aktuális gammákat akarja tolni, azt bizony +kell fizetni.
Új hozzászólás Aktív témák
- Asztali PC , R5 7600X , RX 6700 XT 12GB , 16GB DDR5 , 512GB NVME , 1TB HDD
- iPad Pro smart case tokok gyári!! iPad Pro és mini modellekhez
- Intel Core i9-9900K 8-Core 3.6GHz (16M Cache, up to 5.00 GHz) Processzor!
- Asztali PC , R5 8400F , RX 5700 XT , 16GB DDR5 , 512GB NVME , 500GB HDD
- iPad Pro m2 11" hibátlan 2026.07.26. Apple Care + full dobozos
- 156 - Lenovo LOQ (15IRH8) - Intel Core i5-13505H, RTX 4060
- Készpénzes / Utalásos Videokártya és Hardver felvásárlás! Személyesen vagy Postával!
- Apple iPhone 15 Pro Max / 256GB / Kártyafüggetlen / 12 Hó Garancia / 98% akku
- Gamer PC-Számítógép! Csere-Beszámítás! I5 12400F / RTX 3070 8GB / 32GB DDR4 / 1TB SSD
- HIBÁTLAN iPhone 13 128GB Starlight -1 ÉV GARANCIA - Kártyafüggetlen, MS3432
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest