- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Luck Dragon: Asszociációs játék. :)
- Andras-G: Az internet veszélyei [2. rész] - Facebook Marketpalce
- Luck Dragon: Alza kuponok – aktuális kedvezmények, tippek és tapasztalatok (külön igényre)
- mefistofeles: Az elhízás nem akaratgyengeség! 2 Ahogy én csinálom.......
Új hozzászólás Aktív témák
-
SRII
őstag
meg hol lesz az, amikor egy videokártya teljesíteni tudja max beállításon való futtatást?
mindig ez figyelhető meg, el kell telni 1 évnek vagy többnek hogy a 1-2 éves játékot maxon élvezhesse az user akkor is egy legújabb karival..
egyszerűen nem éri úton magát a dvga a játékokhoz,
az meg pláne bosszantó hogy, mindig csak kicsivel erősebb mindig csak 5% az előrelépés, persze árban már 10-30k a különbség...szégyen..jó lenne már olyan teljesítmény ami a mai /jelen kornak teljesen megfeleljen, mind játékra mind munkára maxon....
az árcédula persze az egeket veri, mind két gyártónál, de élvezni akkor sem lehet azt amit szeretnél kompromisszumok nélkül, erre kellene törekedni, ..
azért a processzor gyártásban már elég jó dolgok alakultak ki , van ami kicsi összegből is elég jó teljesítményt tudnak nyujtani , sőt előre tevézés is adott egy nagyobb teljesítményű proci esetében is..
ezek alapján komolyan elgondolkodom hogy elkurvulok és azt a 300k nem gépre hanem egy jó ps re vagy xboxra költöm, marad is pénzem, és egy jó tvt is vehetek belőle... és még nem kell azon izgulni hogy mindig csak a fogyasztás és a kompromisszum megkötése marad az igazi élvezetek helyett....
nvidia vagy amd - mindegy, csak legyen már valami jó kari ami elérhető árban van, egyre jobban kisiklik és lemarad, a teljesítményük a mai elvárásoknak és, csak a nagy árazás és a nagy duma, reklám van..
én ennyit látok , hallok , olvasok, aki nem ért egy fikarcnyit sem, a gyártás technológiáról. -
Devid_81
félisten
Hol van az mar amikor 350$ korul voltak a csucs kartyak?!
Soha nem lesz mar ilyen, a jelenlegi helyzetet tekintve...
-
Vigilante
őstag
300W a 690 és 375W a 7990, miféle csúnya kép?

BTW: 670 SLI lesz, ha már lejjebb megy szignifikánsan az áruk.
Senki nem akart itt Titan-t venni, de aki épp megteheti, miért ne venné a legerősebb 1 magos VGA-t?
6GB VRam-al pedig már a 4K-s felbontásra is felkészült, főleg, ha pl 3db-ot járat belőle az ember. Akkor ez nem pénz, ha már van 7-8 millája az embernek egy 4K-s TV-hez. 
-
Manbal
senior tag
válasz
Vigilante
#138
üzenetére
számodra lehet hülyeség mert nem látsz a zöld ködben
amúgy qrvára nem izgat a dolog, vegyél Titánt, meg is érdemled!
csak VGAban vagyok AMD fan, de ott nagyon, mert nem kicsit bizonyítanak már hosszú évek óta stabilan! amúgy pfff ember, hasonlítsuk akkor a 690eshez a 7990-est, ott még csúnyább a kép! ![;]](//cdn.rios.hu/dl/s/v1.gif)
-
TTomax
félisten
válasz
MZperX75
#144
üzenetére
Gondolom nem emlékszel már mit írtál...te írtad,hogy a 7990 15-30%al többet eszik és annyival gyorsabb is! Nem igaz!!! 9% elég markán különbség...
Ezért is kérlek előbb tanulj meg értelmezően olvasni,tehát ne csak olvass hanem értsd is meg!A 7990-et nyugodtan lehet hasonlítani a 690-hez... jó száz wattal kevesebbet eszik,és alig-alig lassabb...itt ment a hőzöngés milyen kazán a titan meg az nv...hát nem, a nagy helyzet az,hogy jelenleg az aktuális nv kártyák teljesítmény/fogyasztása jóval jobb mint a radeonoké...
Egy dologba lehet itt belekötni,ha valaki fikázni akar,az pedig az ár... bár a 7990 árába is bele lehet éppen,de az egy másik kategória... mint ahogy a titan meg a 690 is... -
MZperX75
addikt
A titan kevesebbet eszik mint 7970GE LOL... 15-30%...

Itt 8 W különbség van ami 2% max HD7970Ghz -től.

Szerintem elírtad 7990-et akartál.
Először olvasd el mit írtam,utána reklamálj.

A diagram amit betettél 9% jobb a fogyasztás/teljesítmény mutató,Ár/teljesítményről kár vitatkoznunk...ugye.
Aki Nvidiát kedveli az simán Titánt vesz ,a márkahűség az jól bejáratott az Nvidiánál,én speciel egyiket sem venném meg,mert nem ér annyit,és havi pár óra bohóckodásért ,még csak dVGA-t sem veszek,az utolsó csúcs karim
8800GT majd HD4870 majd 4870CFX volt,egy jó 3 éve.
Ha megfigyelted volna arra reagáltam,hogy ne hasonlítsunk össze egy 2 magost az egy magossal.
Ez butaság!Lásd APU-knál a Intel 2 magosai jól tartják magukat az AMD 4magosai ellen stb.
-
TTomax
félisten

-
TTomax
félisten
válasz
MZperX75
#139
üzenetére
A titan kevesebbet eszik mint 7970GE LOL... 15-30%.... jó lesz az 60-70nek is...még csak igazán itt számít mi hány magos... másodjára írom le pl a fogyasztást,csak itt ebben a topicban.Rendkívül bosszantó hogy annyira nem veszitek a fáradságot hogy a titan PH! tesztjét elolvassátok,de osztjátok az észt róla!
-
WayneGace
őstag
válasz
MZperX75
#139
üzenetére
Az a baj, hogy az egyiket árgéppel keresed, másikat árukeresővel.
Egyébként hardverkernél 276 900 Ft a Titan.
Szerk:: Látom közben írtál még egyet. Egyébként gyanítom, aki ilyet vesz nem nagyon fogja érdekelni, hogy melyik fogyaszt többet illetve melyik kerül többe.
-
MZperX75
addikt
válasz
Vigilante
#138
üzenetére
Nyugalom van!
Az nem számít ,hogy mi hány magos,csak az ársáv,és a teljesítmény.
"250W a Titan TDP-je,de nem zavarjon" Az NVidia más TDP ad meg az is inkább 280W mint 250

Való igaz nem 375W.Olcsóbb a HD7990 nem sokkal egy 3-5%
Titán 300ezer felett egy picivel az is inkább 1100 dollár
[link]
A HD7990 300ezer alatt egy csöppet. 1000dollár-1050dollár a magyar árakhoz mérten.
[link]
De persze a legolcsóbb árakat néztem,maradjunk abban ,hogy egy árban vannak,HD7990 15-30% többet eszik viszont annyival gyorsabb is.
Van létjogosultsága az összehasonlításnak bár mennyire is mást szeretnél. -
Vigilante
őstag
300W+-os TDP roncs? Ember legalább utánaolvasnál a dolgoknak, mielőtt ideokádnád a hülyeségeidet!
(250W a Titan TDP-je,de nem zavarjon!) És egyébként, hol olcsóbb a 7990, ami most jött ki szintén 1000 dolláros áron, mint a lassan 3 hónapja kint lévő titan?
Pff ember! Meg egy 1 GPU-s karit hasonlítani egy 2 GPU-shoz? Egyébként a 7990 375W-os TDP-vel rendelkezik... Végül is, csak 125W-al eszik többet a 7990...
Ilyen elvakult AMD fannal sem találkoztam még eddig, főleg, hogy ennyire nem is vágod az adatokat... 
-
Abu85
HÁZIGAZDA
A profit az egyik cél, de mivel évek óta szűkül a piac, így felmerült az az alternatív cél is, hogy monopóliumot építsenek. Ezért szegmentálódik az NV és az AMD a GPU-piacon.
Az NV célja, hogy kiépítsen egy szolgáltatásrendszert, amihez a felhasználók hozzákötődnek. Ennek az eleme a Tegra és a GeForce vonal funkcionális összeolvasztása, és a PC exkluzív játékokra való erős koncentráció, de zömében inkább a Tegra lesz a fő vonal, és az Android játékok. Már ma is erre megy az erőforrások zöme.
Az AMD célja a konzolportok fejlesztésének segítése. Innen ered a játékvásárlós dolog is. Ma csak viszi a soktízmillió dollárt, ellenben az ezzel biztosítja a konzoljátékok PC-re portolásának költségét. Így később a játék akkor is megjelenhet PC-n, ha csak AMD hardveren futtatható. -
Abu85
HÁZIGAZDA
válasz
Firestormhun
#134
üzenetére
A GK104 és a Tahiti közel azonos méretű, és komplexitású. Ezek nem középkategóriások. Ezeket konkrétan oda tervezték, ahol árulják őket. A GF100/110-et azért tudták eladni annyiért, mert csak a jó lapkákért fizettek a TSMC-nek, így a TSMC nyelte be a veszteséget. Most már ilyet a tajvaniak nem csinálnak. Mindenki köteles waferek után fizetni, és később lehet elszámolást kérni a teljes gyártási selejtre, de abból nem sok van.
-
Peat;)
veterán
Látom neked igen részletekbe menő elemzésed van a két gyártóról. Én megmaradok annál hogy mindkettő célja a profit és pontosan ugyanazokat az eszközöket is használják fel annak elérése érdekében. Blődség valamilyen beképzelt erkölcsi győztest kihirdetni, főleg most hogy mindkét fél igen erőszakosan próbálja kialakítani a maga saját piacát. Teljesen mindegy hogy hívnak egy terméket, ha nem megfelelő a teljesítménye akkor édes mindegy hogy melyik generáció tagja, a vásárlókról ne képzeljük azt hogy ph! olvasók. Pont hogy ezért döglik ki a vga piac, mert nem azok. Az hogy átneveznek egy terméket, vagy minimális szinten módosítják a vásárlók nagy hányadának nem jelent semmit már. Nvidia is tévúton jár ha ezzel akar jobb eredményeket elérni, majd kiderül hogy mi a pletykából megvalósuló valóság.
-
juzer78
tag
1-1 típusnál még elfogadható, de egy teljes generációnál...
És azért ha visszagondolsz, nem egyedi az eset, 8800-ból lett 9800, abból GTS 250... azért az sem volt semmi... Amúgy az általad említett példa esetén arra hivatkoztak, hogy a Juniper mag hatékonyságára hivatkozva nem építettek újat. És ha megnézed pl a 7770 méretéhez viszonyított teljesítményét lehet van benne valami.
Jaj igen, lehet persze mondani, hogy HD8xxx OEM, egy az egyben a HD7xxx, de én azt gondolom, hogy az egy szándékos lépés volt, úgy értem, az információ áramlik, és az nv-t lépésre akarták késztetni. Hogy az AMD tudjon majd valamire reagálni és tulajdonképpen ez be is jött. Jött a Titan, jön a 7xx széria, a bibi csak annyi, hogy az ősz még messze van... de azt gondolom, hogy sok info, félinfo, fake info/félinfo fog az elkövetkezendő időszakban megjelenni.
-
Abu85
HÁZIGAZDA
A GCN-es Radeonoknak a sík felületek felbontása nagyon kedvez, mert szám szerint kevés, de masszív tesszellátoruk van, és így extrém hatékony a vertex újrahasznosítási képességük, illetve egy tesszellátorhoz rendelt puffer is sokszor akkora, mint a GeForce-on. Ráadásul az AMD 170 dolláros szinttől felfelé ugyanazt a tesszellációs teljesítményt használja, míg az NV skáláz, amivel már a GK106 tesszellációs teljesítménye bezuhan a Bonaire alá, főleg ezekben a szituációkban, amikor nincs vertex eltolás. A GK107-es GTX 650 tesszellációs teljesítménye gyakorlatilag a negyede annak, amire a nem sokkal drágább Radeon HD 7790 képes.
Ettől függetlenül, értelmetlen a beállítás természetesen, de off és jólvan. -
pakriksz
őstag
nincs annyira rendben, elég csúnya átverés. A buta júzer azt látja hogy ott egy grafikai beállítás ami akkor jó ha maxon van(az nem érdekli sokukat hogy tényleges változás van-e), és ezért még új videokártyát is képes venni, tehát egy újabb lehúzás. Bár az NV-től és az oroszoktól ez nem meglepő.
-
juzer78
tag
"Legalább kikapcsolható. Ingyen nyersz sebességet a képminőség butítása nélkül. Ha ettől boldogok hát rakják bele, ebben a formában rendben van."
Picit sincs rendben! A tesztelők úgy fogják tesztelni, hogy bekapcsolt tesszeláció mellett... ez Radeonokon valszeg nagyobb sebességvesztést fog okozni, úgy hogy lényegében semmilyen minőségi változás nincs, hiszen egy egyenes felületről beszélünk! És akkor most megint mi is van, mint a Crysis 2 esetében értelmetlen túltesszelálás, se a játék minőségéhez, se a játék élményhez nem tesz hozzá sz.rt sem, hogy a sík felületet tesszelálják... úgyhogy piszkosul sincs ez rendben!
-
Abu85
HÁZIGAZDA
Azt a DDoF-ot, ami volt a Metro 2033-ban szerintem nem fogom/fogjuk sajnálni. Köszönjük, hogy irányt mutattak, de nem működött valami jól és még ette is a hardvert. Persze az alap DoF is gyenge volt minőségben.
Nem tudom, hogy az NV mit szeretett volna. Valszeg azt alapból kizárták, hogy az AMD algoritmusait használja a program. Gondolom a fejlesztők sajátot nem akartak komolyabb kutatásból fejleszteni, így maradt egy alap pixels shader DoF. Nem lesz csúcsminőség, de működhet ez is.(#124) pakriksz: Legalább kikapcsolható. Ingyen nyersz sebességet a képminőség butítása nélkül.
Ha ettől boldogok hát rakják bele, ebben a formában rendben van. -
juzer78
tag
Na de jó... :S Gratula... Ott volt egy fejlesztés, de ahelyett, hogy finomították volna, kidobták, gratulálok hozzá! De erre azt ne mondd, hogy ez nem az nv miatt volt...
(#121) WayneGace: Csak azt felejted el, hogy egy lépcsőt lényegében az AMD ezzel kihagy, nevezetesen a Sea Island chipjei nem jönnek. Azaz az AMD ahelyett, hogy egy picit előre lépett volna, egy nagyot fog lépni év végén...
Azt gondolom, ez persze teljesen a személyes véleményem, hogy látva, hogy az új vezető, mit hogy épít fel, ne legyen nagy kétségünk afelől, hogy itt bizony nagyon nagy előrelépés lesz, a "8970" (tuti nem ez lesz a neve) esetében a 7990 feletti teljesítményt sem tartok elképzelhetetlennek! Megjegyzem, szerintem új sorozatot fognak indítani Radeon valamivel...
Igen év végén jön, de megeszem a kalapom, ha a Maxwell, kisebb chipje jövő májusnál előbb befut...
Azért kiszúrás mert elvész az exkluzivitás érzete... ez esősorban nem anyagiakról szól, hanem arról, hogy van egy érzésed, hogy neked nem csak egy egyszerű geforceod van, hanem egy Titánod... és persze így az értékvesztése is nagyobb lesz...
-
M107
addikt

Marhaság csúcskártyát venni.
Ne feledjük az a mondatot még mindig igaz amelyik hardver nem bír ki 1.5 évet a piacon, s elvérzik az nem hardver, még ebben a rohanó gyorsan IT fejlődő világban is.
-
WayneGace
őstag
Még nincs kész a maxwell, de ahogy eddig is jöttek a kártyák, úgy most is jönnek folyamatosan. Így oldották meg. Most is lesz előrelépés, csak nem olyan látványos. Ráadásul nem olyan rossz nekik ez, hisz csak év végén jön elvileg az AMD következő generációja, de jövő év elején már nv oldalon is jön a következő. Folyamatosan tudják szélesíteni a kínálatot. És gondolom üzleti szempontból jobb 7xx-nek nevezni őket, mint 6xx-nek. Azt meg nem értem miért szúrtak volna ki a titan vásárlókkal. A hasonló vagy ugyanolyan hűtés miatt? Aki csúcskártyát vesz, az tisztában van vele, hogy marha sokat veszít a kártya az értékéből viszonylag rövid idő alatt.
-
Abu85
HÁZIGAZDA
válasz
Lacccca87
#119
üzenetére
Nagyjából ugyanúgy néz ki, kivéve a DoF, mert az gyengébb, mint az előző rész megoldása. Az egyetlen DX11-es effekt benne a tesszellálás. Annak két lépcsője lett (a kikapcsolt állapot mellett). Az első szint, amikor a displacement mappal rendelkező felületekre ereszti rá a tesszellálást, míg a második, amikor a teljesen sík felületeket is sokkal több háromszögből építi fel.
A gépigényt alapvetően a GPU-s PhysX és az SSAA végzi ki. Előbbi jó 30-50 fps mínusz kártyától függően, míg utóbbi beállításfüggő, de ez is harmadolhatja az fps-t. -
juzer78
tag
válasz
WayneGace
#110
üzenetére
Az a helyzet, hogy egy "generációváltás" többet feltételez, mint puszta átcimkázást vagy revízió váltást. Megnézed AMD-nél, új revízió = GHz Edition. Nem dobták be 8970-ként. Jó az igaz, az OEM piacot beszédítették, de ott egy az egyben ugyan az, ugyan ott kerül forgalomba. Nem kezdték el ide oda tologatni a terméket. Plusz ez egy nagy kib.szás a Titan vásárlókkal akik azt gondolták, hogy vettek egy exkluzív terméket, erre alig később a következő "generációban" odadobnak egy ugyanolyan kinézetű picit butított valamit... Az AMD nem is igen kell hova kapkodnia, hiszek technikailag lényegesen fejlettebbek a GPU-ik mint a GeForce-ok... Jó lehet a Titantól lassabbak, de ha egy komplex shaderes játék jön ki, akkor már nem is mondhatjuk hogy lassabbak, nézd majd meg a Metro Last Light-ot, a 7970 pariba lesz a Titannal... ja és nv logos...
-
Abu85
HÁZIGAZDA
válasz
Vigilante
#96
üzenetére
A driverből beállítható AO minősége meg sem közelíti a sokkal több mintával és bilaterális szűrővel dolgozó beépített AO megoldás minőségét. Nyilván azzal, hogy az NV kapásból kínált AO-t a driverből nem zárom ki, hogy a GeForce hardverek képességeit haladja meg az effekt, de egy játék alapján erről még nehéz véleményt alkotni. Inkább a rossz, vagy a Radeonhoz igazított paraméterezést tartom valószínűnek. A GRID 2-ben lesz ugyanilyen soft AO, ha ott is tüskézik a GeForce, akkor talán átértékelem én is a Bioshockot, de ott sem zárható ki, hogy a játékot inkább Radeonra paraméterezik. Elméletben a soft AO-nak nem kellene gondot okoznia. Nyilván jóval nagyobb compute terhelés, mint bármelyik eddigi AO, de ez is paraméterezhető.
-
pakriksz
őstag
válasz
Vigilante
#93
üzenetére
valószínűleg kisebbel. Mindig is az nv volt a kazán szerűbb.
Én is megengedhetném magamnak ezt a kártyát csak nem vagyok idióta, nem fogok fizetni sokszoros árat fizetni néhány %-nyi gyorsulásért, emellett fűtésre inkább az erre való kazánt használnám, na meg az ordító ventikre is érzékeny vagyok. Emellett pedig az értelme is egy szép kerek 0.
-
Manbal
senior tag
válasz
Vigilante
#89
üzenetére
nem kívánom hogy az NV tönkremenjen, mert az rosszat tenne a piacnak. Az viszont biztos hogy stabilan csak 2. lehet, mind technikailag mind ár/teljesítményben! Ilyen titánokkal meg kár dobálózni, aranyáron mért 300+-W TDP-s roncsokkal... ennyi erővel azt is mondhatnám hogy a 7990-est is meg lehet úgy húzni hogy verjen egy titánt és még olcsóbb is meg kevesebbet is fogyaszt!
-
M107
addikt
válasz
antikomcsi
#105
üzenetére

Antikomcsi nagy mestere a témának hidd el sok jó írást és ajánlást olvastam már tőle.

-
tomi429
csendes tag
válasz
antikomcsi
#100
üzenetére
Üdv Mindenkinek
Azért osztottam új profilból, mert tényleg új vagyok

(#107) Mans20
Természetesen a márka hű emberek így gondolkoznak, de azért ha minden igaz akkor Magyarországon élünk minimális fizuból és nem hiszem, hogy ez jó tendencia az NV- részéről, hogy simán megvezetik az embert némi átcímkézéssel és látványos javulás nélkül mert az 10% szerintem ezért a felárért sok.
-
Mans20
addikt
Nem, kell minden új szériából vásárolni szerintem,Én is csak nv-t veszek,de a 650ti-ről majd a maxwellre váltok 2 év múlva,nvidiánál volt már ilyen átnevezős dolog,pl 8800GT 9800GT,aki régóta nv-t vesz az már szerintem hozzászokott a cég hülyeségeihez meg a drágább árhoz.
-
MZperX75
addikt
válasz
antikomcsi
#105
üzenetére

-
antikomcsi
veterán
válasz
MZperX75
#104
üzenetére
Azért szerintem nem csak ráfogták a GK110-re, hanem valóban az is. Ha emlékszel még, rengeteg Teslát adtak el számítógép monstrumokba, és ez azért a pénzügyi eredményeiken is látszott/látszik. Ők is egy cég, ahol a profit az elsődleges, de legalábbis egy magas prioritással rendelkező szempont. Az vesse rájuk az első követ, aki nem így csinálta volna, és a jól tejelő GK110-eket, töredék áron értékesíti.
-
MZperX75
addikt
Igazándiból,ez egy érdekes csúsztatás az Nvidia részéről.
Mikor 6-os széria megjelent ,akkor kelletett volna meglépni és lefedni az egész palettát,de profit szempontból így ez egy jobb húzás tőlük.(fele akkora fejlesztéssel 2 szezont kihúzni)
GTX680-as megjelenésekor elvileg GTX680 ment volna GTX660-nak és a Titán lett volna 680.de érthető volt a döntése az Nvidiának. 2x lehet lenyúzni bőrt egy szériáról.Adagolni kell a tudást mert hát akkor a konkurencia HD7970 (925Mhz) változata könnyen befogható volt az előre tervezett GTX660-al így lett GTX680.
Nem indokolta semmi Titán bevetését
(tudom később ráfogták hogy ez Pro kártyáknak készítették professzionális felhasználásra) De jó a marketing,és a kártyák sem rosszak,Nvidia rajongók így is megveszik prémium áron.
Az egyetlen Hiba ami DX11.1 miatt sajnálom,de az NVidia ezt megoldja majd izomból.
Kíváncsi leszek ,hogy csúcskategóriában az az dupla GPU-s GTX790 lesz -e Illetve Titánból nem hinném.
Bár ,ha HD7970-esből kijött ,lehet rá számítani. -
juzer78
tag
válasz
antikomcsi
#100
üzenetére
A Titan is a 600-as sorozat része... csak nem az a neve... Ez egy az egyben átmatricázás!
-
én mondjuk nem feltétlen bánom, hogy nem ugranak fel ész nélkül az FCAT vonatra. amit a legtöbb oldal csinál, az hasonlóan nem ad teljes képet, mint anno a techreport fraps alapú frametime-jai. frametime analízist csinálni nagyon időigényes (és a legtöbben nem is csinálják jól, mert csak ráugranak néhány látványos elemre, ahelyett, hogy végiggondolnák, minek mi a gyakorlati hatása), és a HW-vásárlás vonzata sem feltétlen hiányzik az oldal költségvetésének, ezt is megértem. miután Scott úgyis megingathatatlanul tolja ezt a témát előre, lehet, hogy érdemes megvárni, amíg a főbb best practice-ek kikristályosodnak a módszertanban, és utána felvenni az eszköztárba.
-
antikomcsi
veterán
És mi nagyon örülünk, hogy mindezt egy új profillal osztottad meg velünk, mert minden vélemény fontos.
(#86) juzer78
Ezeket is nagyon kell itt terjeszteni, az mindegy, hogy igaz vagy nem. Igaz, hogy világosan le van írva, hogy melyik lesz GK104 helyett GK110 alapú, ami nem volt a 600-as szériában, és melyik lesz továbbra is GK104 bázisú, de azért keverjük bele a GF100-as lapkákat is.
-
tomi429
csendes tag
válasz
Vigilante
#96
üzenetére
Az én véleményem meg az, hogy az Nvidia még 1 bőrt leakar húzni a márka hű emberekről, ami szerintem gusztustalan és nem felhasználó barát. rengetegen beruháztak a mostani 600-as szériára és kidobnak pár olyan kártyát, ami 5~10%-al gyorsabb mint ez a széria ami most van.
-
TTomax
félisten
Huha,mekkorát nőttél a szememben,ezt nem gondoltam volna,hogy valaha így leírva látom tőled!

(#96) Vigilante
Sajnos TR.re jött ám a következő patch ami mindent elrontott..A témához...régóta az nvidiat preferálom,ez nem azt jelenti,hogy márkabuzi vagyok és két lapáttal fogom nekik szórni a lovét...egy hűtésre...meg vannak ezek húzatva.Nagyon nehéz elhinnem,hogy egy ilyen marketing erős cég ilyet lépjen...
-
Vigilante
őstag
Infinite-ben Ambient Oclosion-t kilőttem, és driverből megkínáltam egy NV által szeretett HBAO-val és a tüskék megoldva!
A TR-re meg jött NV driver szinte azonnal, és már tökéletesen ment vele reccenés, és hiba nélkül végig!
Pedig ráadásul SLI-m van ami problémásabb lehet.
Szal nem értem miről beszélünk!? 
-
siriq
őstag
A masik pedig, hogy miota irogattam abunak arrol, hogy legyen rendes teszt FCAT. Irja le miert nem vagy miert ugy tesztelik a jatekokat illetve vga-t. Ehez kepest, megint egy egyedi elkepzeles alapjan keszult egy blogg ami kint van a fo oldalon. Semmi elore mutato infot nem kap a user miert nincs ugy tesztelve mint a tobbi 20-30 oldalnal FCAT-el. Ez el van intezve egy hozzaszolasban. Semilyen modon nincsen kifejtve miert is kellene ugy tesztelni. Nagyon egyedi elkepzelesek alapjan es nem a user korrekt informalasa alapjan keszul jopar dolog.
A a hsz. ki lesz torolve akkor ez van. Legalabb leirtam amit akartam. Mar megszoktam ehez hasonlo hsz-k hirtelen felszivodnak, nem csak tolem.
-
Abu85
HÁZIGAZDA
Mi a hibás? 50 ms fölötti tüskéket AMD-n alig láttam, ez a techreport tesztjében is így van. A Tomb Raiderrel nem láttam hibát. Három monitor mellett van gond, de az játékhiba. A TressFX-et én speciel imádom, sőt, hiányolom az összes játékból. Eddig nem foglalkoztam vele, de a TR után feltűnik, hogy olyan statikus mindenkinek a haja. A másféle megítélését az okozhatja, hogy nem működik jól GeForce-on. Nem mozog úgy a haja. Nem tudom mitől van. Elvileg elvégzi ugyanazt a számítást. A HDAO-t a Far Cry 3-ból mentettem itt alul. [link] - nem látom hibásnak.
A miértekre nem tudom a választ. Az is lehet, hogy szimplán fejlesztői hanyagságról van szó, csak túl soknak érzem a véletleneket. -
Peat;)
veterán
Az a baj hogy az említett 3 címből kettő amd kártyákon is hibás a felhasználók írásai alapján ha ugyanolyan aspektusból szemléljük mint te. A pc-s vásárlóerő 50%-ról nem szoktak lemondani a fejlesztők, vagy ha igen akkor olyan pénzért ami nem térül meg a lefizetőnek. A tress fx a legtökéletesebb példa számomra: mindegy melyik kártya van alatta, egy baklövés véleményem szerint.
-
Szergei
tag
Sajnos át kell mennem troll-üzemmódba, hogy kifejezzem a véleményem.
Ha ezek a kémfotók valódiak, akkor erősen gyomorforgató, hogy a Titan hűtését kapják meg az "új generáció" egyes tagjai. A 780-nál ez még talán emészthetőbb lenne, elvégre GK110 lenne az is, meg a "700-as" sorozat csúcsa, de a GK104-es, középkategóriás GPU-ra alapozó 770-re nem tudom mi a bánatnak, főleg, hogy jó eséllyel megy majd a spórolás, és ahol lehet, lecserélik a ref. hűtést a gyártók.
Nettó parasztvakítás ez így, és a Titan-tulajdonosok szembeköpése (kivéve akik vízhűtéses változatot használnak, és nem érdekli őket kinézet), ennyire lesz "egyedi" utána a Titan.
Ezek után javaslom az NVIDIA-nak, hogy a Fermi alapú, GK119-re épülő GT610-et is nevezzék át, pl. GT710 Titan-ra, vagy TITAN Ultimate-re, és kapja meg a Titan hűtését az is nyugodtan, sőt csak ref.kártya készüljön belőle legalább 8 GB VRAM-mal, úgy mégjobban fogy
.A cikkhez annyit szólnék hozzá, hogy ha már nem jön a közeljövőben Maxwell, ami sejthető volt, akkor addig inkább a GK110-re kéne ráfeküdniük, az állja a sarat "erősebb compute terhelés" mellett is (vagyis az AMD által erősebben
lefizetetttámogatott fejlesztők játékainál is).
Bár a GK104-sem annyira vészes, és butítani mindig lehet a grafikát, csak annyi a gond, hogy nagyjából úgy viszonyul a GK104 a GK110-hez, mint mondjuk a GTX 460 az 580-hoz, tehát egy jól sikerült középkategóriás GPU, így különösen nem szabad csodát várni tőle az AMD által "támogatott" játékokban, éppen ezért nem tudom, hogy jó ötlet-e átmenteni egy új generációra, ez nem G92, ami teljesítményben lényegében pariban volt a G80-al, sőt kisebb felbontásokban előfordult, hogy le is verte. Amikor valóban nagyon kevés lesz a Kepler szvsz, az az új generációs konzolportok mellett pl. a PRT megjelenésekor lehet (bár nem tudom,hogy a Bindless Textures mennyire lesz alternatíva, támogatja-e vajon Carmack a Doom 4-ben) , de addigra már jelenlegi GCN-es Radeonok se lesznek sehol
... -
juzer78
tag
"Az nem érdekel, hogy az NV mit csinált." Engem viszont igen, mert van olyan játék, amit pont az nv baszakodása miatt nem tudok végigjátszani, vagy újra elővenni... mert kínlódás az egész... és hiába kapcsolom ki a PhysX-et akkor is szar az egész... és legálisak! Ja és ezek persze teljesen véletlenül, mind nv partner programos játék...
Itt lehetőség van ezeknek az effekteknek a kikapcsolására, le lehet lőni a Tress FX-et, ki lehet kapcsolni a HDAO-t, (választhatod a HBAO-t vagy SSAO-t), a DiRT Showdown esetén is kikapcsolható volt a GI... Amúgy jelenleg a TressFX 6870-en sem működik jól... nv-s játéknál meg egy dolog marad, az a..ázás... nem véletlen, hogy ma már, ha egy játék nv logós, akkor előbb beszerzem más úton és ha sz.r, akkor megy a fenébe, egy forintot nem költök rá...
A BioShock tüskéi meg véletlenül sem lehet az nv hibája igaz? 50ms-os tüske csak Radeonokon jelentkezhet GeForceokon nem...
-
Abu85
HÁZIGAZDA
Az nem érdekel, hogy az NV mit csinált. Az sem érdekel, hogy az AMD mit csinál. Az érdekel, hogy túl sok a véletlen a GE játékok körül az NV kárára, és mindegy, hogy ki miatt van. A Tomb Raider-ben Lara haja máig hibásan mozog GeForce-on, illetve még mindig panaszkodnak fagyásra a userek. Ilyen egy letesztelt játéknál nincs. Az NV annyira nem találja a gondot, hogy azt ajánlják a júzereknek, hogy játszanak a gyárilag beállított órajel alatt. A Bioshock miért lett úgy paraméterezve ahogy? Évekig sikerült megoldani, hogy az UE3 motoros játékok jól fussanak minden hardveren, és most véletlenül jön egy játék, ami nem kevés 50 ms fölötti tüskét csinál GeForce-on. A Far Cry 3 meg jó volt, és véletlenül jött egy patch, amivel hibás lett a GeForce-on a HDAO. Ja és véletlenül mindegyik GE játék.

-
Peat;)
veterán
"A játékosok kiszolgálását kellett volna szem előtt tartani, nem pedig a saját érdekeiket mindenek felett."
Attól hogy Abu85 már párszor leírta hogy a Bioshock, Tomb Raider, Far Cry3 problémákkal küszködik az nvidia kártyákon, attól ez még a gyakorlatban azt jelenti hogy kiválóan játszhatóak ezek a programok is nvidia kártyákon. Az első kettő konkrétan van hogy gyorsabban is mint amd kártyákon a középkategóriában, harmadikról nem néztem tesztet. Szóval a ph!-n én kénytelen vagyok egyre inkább azt mondani: a gyakorlati tapasztalatokat próbáljátok keresni a mai vga helyzetet illetően.
Maga a cikkben említett termékek valóban nem csábítóak félre értés ne essék, csak az az érdekes hogy egy pletykaalap ennyire ki lett vesézve, fizikai termék és azok tulajdonságai nélkül, egy megjelenés előtt álló játék állítólagos borzalmas programozása mellett. (a Tomb Raider haj meg csupa jó forradalom volt, GCN felépítésre alapozva, úgy hogy mindkét gyártó termékein pontosan ugyanannyit és ugyanannyira túlzóan evett meg a teljesítményből...)
-
nem, ha tényleg ez lesz a GTX700 sorozat, az technológiailag tényleg elég siralmas. a problémám azzal van, hogy egy hír szerzőjeként a csalódottságodnak nagyon nem szerencsés hangot adni, különösen nem úgy, hogy egy még meg nem jelent játékkal példálózol, és olyan összehasonlításokat teszel az ellenfél kártyáival, amiket a saját tesztjeitek sem támaszatanak alá teljes mértékben. sorry, de ez most nagyon rosszul jött ki.
-
juzer78
tag
Abu, most ezt nem mondod komolyan?! Az nv éveken át mit csinált? Crysis 2 dupla geometria számítás + a város alatti víz számítás... Az összes Physx-es játék, Radeonokon, a Physx kikapcsolása után sem képesek normálisan elfutni, Mafia 2, szintén Physx, csak hogy azt mondhassák, hogy ide nv vezérlő kell és abból is a felsőház... és mi van a régi játékokkal, amik még akkor készültek, amikor nem volt az nv kezében a physx?! Ma működésképtelenek! (Radeonokon) Pl.: Frontlines Fuel Of War... teszteld le ha nem hiszed...
Az nv mindig minden pénzzel szándékozott megoldani, tulajdonképpen az FX széria óta, és többnyire be is jött, az ATI és az AMD nem igazán pénzelt fejlesztőket, de most megváltozott a helyzet, és azzal, hogy a konzolokban az AMD chipjei lesznek egyértelművé vált a helyzet, pénzzel már semmire sem mennek, mert a fejlesztőknek nem mindegy, hogy a készülő konzolos játékokkal mennyi munka van átültetni PC-re... és most szépen visszanyalt a fagyi... De ezt az nv CSAK és KIZÁRÓLAG saját magának, saját hozzáállásának köszönheti. A játékosok kiszolgálását kellett volna szem előtt tartani, nem pedig a saját érdekeiket mindenek felett. A játékosokból élnek, ők veszik meg a vezérlőiket, erre kell gondolni elsősorban... ha majd nem veszik, majd mennek a levesbe...
-
ViiiiktorOC
senior tag
-
Abu85
HÁZIGAZDA
A Bioshock Infinite-et és a Tomb Raidert azért nem sorolom ide, mert ott kimaradhattak a teszteléséből a GeForce-ok. A Bioshockban a motort is rosszul kalibrálták az NV kártyákra, a Tomb Raider esetében meg jól hangzik, hogy minden patch végén ott szerepel, hogy folyamatosan dolgoznak az NV-vel a GeForce-ok problémáinak javításán, csak ez a sokadik patch után inkább kötelező szövegnek tűnik. Nem érzem fairnek az NVIDIA nyakába varrni azt, hogy az AMD közel került a fejlesztőkhöz, és etikátlan dolgokra beszélték rá őket. A Far Cry 3 is furcsa, hogy hirtelen elromlott a HDAO a GeForce-on egy patch-csel.
Manapság sok a technikailag megmagyarázhatatlan véletlen a GE játékokban az NV kárára.
Amiről írsz az így van, de az inkább a fejlesztések támogatási politikájába tartozik, mintsem a hardverek közötti technikai különbségekhez. -
tombar
senior tag
ezek a játékok kevésbé "tömegcikkek", nem? bf3 fc3 cry3 infinite, talán még lara. itt azért nem olyan brutális a lemaradás. nem inkább az van h egyes multiport játékokat, amik nem sok port kavarnak egyszerűen nem érdekli az nV-t? ugye elindultak az only pc irányba néhány tényleg jó játékkal, a kasszasikeres játékokban kezet rázhatunk vele, tegra vonal feldúsítva... ugye most jön a last light naprakész sli profilokkal, a nép meg szalad. grid 2 0 belsőnézet, only win8 (azt hiszem). szóval nekem olyan felemás a helyzet. jó én eléggé laikus vagyok és könnyen meggyőzhető

-
Abu85
HÁZIGAZDA
Tehát mostantól +5%-os tempónövekedésnek is őrülünk éves szinten azonos áron? Én csöppet csalódott vangyok, abból kiindulva, hogy mennyire le van maradva a Kepler technikailag. Jött először a DiRT Showdown, majd a Sniper Elite V2, aztán Ghost Recon: Future Soldier, a Sleeping Dogs, a Hitman: Absolution, a Nexuiz. Most jön a GRID 2. Mégis hány játékot kell még várni, hogy tényleg kijelentsük a Kepler hátrányban van a GCN-hez képest. Még a DiRT Showdownnál elment, hogy ez egyedi eset, ne vegyük számításba, és utánna sorra ezt mondtuk a többire, de lassan az egyedi esetekből tendencia lesz. Itt volt a lehetőség, hogy a hardvert továbbfejlesszék, és kapunk +5%-ot, ami gyakorlatilag nem jelent semmi változást.
(#72) fatallerror: az fake

-
belinho
senior tag
válasz
ViiiiktorOC
#63
üzenetére
"Nvidia hogy hogy nem új ráncfelvarrott lapkával jön ki?"
Ráncfelvarrott lapka lesz, kap még egy kis OC-t, lehet magasabb lesz az alapfesz is, lesz egy két újítás, pl gpu boost 2.0-át támogatni fogja mindegyik, drámai változások nem lesznek!"Ennyire nem akarnak màr a Keplerhez hozzányúlni?"
Felesleges hozzányúlni, így is elég jól fogy még mindig, már a Maxwell-re koncentrálnak!"Vagy lehet a Maxwell-t is bemutatják 2014 Q1-ben HD8000-re válaszul?"
2014-ben jön valamikor 20nm-en valószínűleg GTX8-as néven! -
KG.
tag
"GTX770 a 680-at váltja és annak az árszintjére érkezik" na igen itt a baj nem kicsi
, egy ideje ez a pofátlan tendencia megy, amennyivel erősebb annyival adjuk is drágábban nembaj hogy közben eltelt több mint 1 év, lassan kezdtem cserén gondolkodni de erős a valószínűsége konzol lesz ebből 
-
ViiiiktorOC
senior tag
Nvidia hogy hogy nem új ráncfelvarrott lapkával jön ki?
Ennyire nem akarnak màr a Keplerhez hozzányúlni?
Vagy lehet a Maxwell-t is bemutatják 2014 Q1-ben HD8000-re válaszul? -
M@trixfan
addikt
Annyira tudtam, hogy Titan light lesz a "következő" generáció, ezért a pár hónapért megvenni a Titant nagyon frankó lépés volt a vásárlóknak
A Grid 2 előzetesben elég rendesen elhúz a GCN, de nem gondolnám, hogy mostantől nagyságrendileg rosszabb lenne minden elkövetkezendő játék nVidia kártyával. Mondjuk arra elég volt nekem, hogy inkább AMD-ben gondolkodjak most gépcserénél, pedig driver oldalról, 3D támogatás és frametime felől nézve szívesen használnék most nVidiát a 4870 OC után.Az Apple-ös hasonlatokat inkább mellőzni kellene ezen a fórumon a mac topikon kívül, mert csak az elvakult fröcsögés van belőle, csak élteti a hater-ek önigazolását. Műszaki, gazdasági, "szociológiai" szempontból a legnagyobb hülyeségek szoktak ilyenkor elhangozni ezzel kapcsolatban. Persze bárki égetheti magát szakmai körökben, szabadság van...
-
M107
addikt
válasz
gainwardgs
#55
üzenetére

A másik kérdésedre benne van a cikkben, ezért ha nem igaz a cikk íróját vádold :
A startról egyelőre nincs pontos adat. Sok pletyka május végét valószínűsíti. Ez az időpont jó is, meg nem is. Ami miatt kedvezőtlen, hogy gyakorlatilag egybeesik a GRID 2 megjelenésével, ami az alkalmazott eljárások miatt DiRT Showdownhoz hasonló erősorrendet fog hozni, így az NVIDIA számára ez a program kedvezőtlen. A hamarosan érkező Metro: Last Light viszont egy NVIDIA által erősen támogatott játék, vagyis lehet rá építeni. Persze csak módjával, hiszen az előzetes adatok szerint a GeForce GTX 670 maximális beállítások mellett, Full HD felbontáson (sztereó 3D nélkül) nagyjából 9 képkocka/másodperces átlag teljesítményt képes felmutatni, így pár beállítást nem árt majd visszafogni. A szerencsére a program jól skálázható, így az élsimítás és a GPU-s PhysX kikapcsolásával játszható szintre tornázható a sebesség. Ebből a szempontból az NVIDIA valószínűleg ki szeretné használni a PC-s Metro rajongók lelkesedését, hiszen a teljes grafikai részletességhez, illetve a sztereó 3D-hez két-három darab, SLI-be kötött combosabb GeForce-ra mindenképp érdemes majd beruházni.
-
Mardel
őstag
válasz
gainwardgs
#55
üzenetére
A cikkbol emelte ki...
-
M107
addikt
válasz
gainwardgs
#55
üzenetére

Elnézést......
Személyem játszott vele és Fraps-sal lett kimérve...
Valótlanságot soha nem írok !
Köszönöm.UI:
Six Core FX 6100, 8 Gb Kingstone Hyper X DDR3 (1600 MHZ), Gigabyte 78LMT-S2P, (Sapphire HD 7770 1GB GDDR5) !!! Anno ez volt Sapphire HD5670 GDDR5 512 MB !!!
Nézd meg a felbontás mekkora 1280X1024 mindjárt érthető nem Full Hd s egyéb, és nincs benne élkisimítás, sem csupán minden HigH beállítás
-
tombar
senior tag
ezt hogy érted? van egy negatív hangvétel benne, de alapvetően egy elképzelhető és nem kicsit nem reális feltevést írt Abu. na jó nem az nV logikája szerint, de...
arra viszont kíváncsi leszek h mennyire fogják demóztatni a pc only játékokat. nem hiszem h egy normális bechmarkot nem lehet nem összehozni. ps2, hawken, wot, mechwarrior onilne stb. am azért nem kell kifejezetten félteni őket. az igazán mainstream AAA-s játékoknál megfelelő driver támogatottság, viszonylag smooth frameratek, stabil driver performance. anno volt is egy HCanucks összegzés a 2012es driverekkel. na nem a semmiért választottam a 660 ti-t. -
M107
addikt

Én egyik párti sem vagyok, volt ilyen és a másik is, ekkora teljesítményben meg amúgy sem gondolkozom, nekem bőven elég a középkategória alja.
Mostanában játékfronton sem történik olyan eget verő újítás, hogy megérje a nagyobb beruházás.UI:
Anno én HD5670-en High felbontáson Tomb Raider 2013 élkísimitás és tress pass nélkül 1208X1024-ban.
35-50 Fps átlag Fps-sel.Bár az ATI léphetne, a 128bites vezérlőt lecserélhetné 192bit-re, közép kártyáin.
-
Twinsen2
tag
Nem jó ez az irány amerre az NV halad. Már legutobb is csak azért vettem NV kártyát, mert a 3D vison szettem nem megy ATI-val. De asszem legközelebb már leszarom...
-
kpal
nagyúr
780 helyett jodarabik a 680 lesz nyerő armiatt is.
-
Angel1981
veterán
Ezt a "kegyelemdöfést" már legalább 3 éve várják az AMD fanok, de valahogy csak nem akar bekövetkezni.
Nekem mindig is ATI-m / AMD-m volt, nem is tervezek NV-t, de nem lesz itt semmiféle "egyik kinyírja a másikat" dolog, szépen ellavírozgatnak a dVGA szegmens haláláig.Egyébként kicsit meg vagyok lepve, hogy erről előbb van ilyen infó, mint a HD8000-ről...
-
#06658560
törölt tag
Játékot sem két hét alatt fejlesztenek, s kevéssé hiszem, bármely fejlesztöstúdió évekre elöre tudja milyen hardver fog jönni, hogy az ilyen hülyeségeket okosan tudja beépíteni-esetelg úgy, hogy majd csak a kettövel késöbbi hardveren legyen jó, nem a következön. Mikor az AMD támogatott progiban volt hasonlóan túlrészletezett tesszeláció programozói hiba miatt, akkor miért nem az AMD volt a hülye?
-
válasz
antikomcsi
#3
üzenetére
sajnos egyet kell értsek, engem is elfogott a kardombadőlős érzés, és nem a cikk információtartalma miatt...
-
bacsko42
tag
válasz
Mr.Csizmás
#38
üzenetére
Gainka kérdésére válaszoltam

-
bacsko42
tag
válasz
Mr.Csizmás
#35
üzenetére
a 650ti boost nem sokkal erősebb mint a hd7790
a 7970 pedig egy 680 szintjén van
A 7990 ellenfele maximum a gtx690 lehet 
-
bacsko42
tag
válasz
Mr.Csizmás
#35
üzenetére
Szerintem összekevered valamivel

-
Gainka
őstag
Közben iponon találkoztam egy G. 650 ti 1 gb-s boostrol erről tudunk valamit?
-
Peet91
aktív tag
Sziasztok!
Azt megtudhatnám, hogy a radeonok melyik szériától támogatja az api level 11-et? csak mert pl. az ASUS weboldalán mindkét kártya 650ti boost kari tudja a dx 11-et.
Előre is köszönöm.
-
Mardel
őstag
válasz
#06658560
#21
üzenetére
PhysX?
Meg ha olyan huzasok vannak benne mint valamelyik Crysisban, hogy gpu-val kiszamoltatja a varos alatti tengervizet fodrozodassal egyutt ezzel demonstralva hogy ehhez uj kartya kell...
Mondjuk Cryostasis utan voltam ugy hogy koszonom de tobb PhysX-es jatekbol nem kerek. Ha latom hogy valami erosen NV altal tamogatott az nem kell. -
fanti
addikt
Brutálisan túlárazott kártyák lesznek ezek szerintem.....
A másik oldal GCN arhiktektúrájára alapozó termékeket én jobban preferálom.
-
#57018880
törölt tag
Van olyan játék amihez jelenleg nem elég 670GTX SLI a stabil 60FPS-hez 2560x1600 felbontáson?
-
Abu85
HÁZIGAZDA
Nem. Nem is tudom, hogy igaz-e. Mármint a kép. Én a PlayStation 4 felépítését láttam és az valóban ilyesmi. Illetve látva a képet a fejlesztések nagyjából stimmelnek. De lehet, hogy más is látta a PS4 lapkáját, és összedobott rá egy ilyet. Paintben megcsinálom én is pár perc alatt.

Az biztos, hogy ez egy APU a felépítéséből ítélve. Kétségesnek tartom, hogy ez egy konzumer termék lenne ebben a formában. A HPC-piacra már illik, de a magam részéről azt mondom, hogy maga a kép fake. Ezzel a speckókra is ugyanezt mondom.
-
polika
senior tag
Hát ha prémium kategória lenne akkor akár még hihető is lenne a magyarázat, de pl directx támogatásban és úgy technológiailag is összeségében per pillanat az nvidia az underdog, azaz nem igazán az almás sztorihoz hasonlít a szituáció, hogy extra (kitalált, patentolt, dizájnolt, esetleg lopott) fícsörök miatt prémium árat kér el a sznob közönségtől... 3-4 évvel ezelőtt sokkal fanatikusabbak voltak a vásárlók, akkor még tényleg a brand mellett elvakultan sokszor a featurek meg a valóság kizárásával döntöttek az emberek, de ez mostanára egyre jobban lecseng. Főleg azért mert ami régen a prémium kategória volt az manapság már a mainstream teljesítménynél elérhető, és a mainstreamnél a hit alapján történő döntés helyett inkább az ár/érték kerül előtérbe.
Mindezt összevetve amíg nvidia nagyrészt a mainstream szegmensben akar brand alapján elszállt árakkal versenyképes lenni, szerintem kutyanehéz lesz nekik...engem nem győztek meg, nem tom mennyi balekot fognak, mert elég ezt az átnevezgetős játékot játszani még egy kis ideig és az elvakult fanok is áttnyergelnek a konkurenciához oszt brand építés helyett totál megzuhanás lesz a dologból.
Szerintem

-
M107
addikt

A hamarosan érkező Metro: Last Light viszont egy NVIDIA által erősen támogatott játék, vagyis lehet rá építeni. Persze csak módjával, hiszen az előzetes adatok szerint a GeForce GTX 670 maximális beállítások mellett, Full HD felbontáson (sztereó 3D nélkül) nagyjából 9 képkocka/másodperces átlag teljesítményt képes felmutatni, így pár beállítást nem árt majd visszafogni.
2013-ban ilyet megengedni gratula NVidia, most csalódtam benned órásit.
-
WayneGace
őstag
Az Apple és az Nvidia azért igen más. Míg előbbi sok kompakt terméket gyárt, árul, addig az utóbbi mégis csak alkatrészgyártó főleg. Lehet elmennek abba az irányba, de kétlem, hogy ugyanazt meg tudnák valósítani. Vagy lesznek Nvidia laptopok, telefonok és hasonlók is?
Az meg, hogy nem akarnak versenyezni az árral, nekünk felhasználóknak a legrosszabb hír lehet. Hisz nehogy azt higgye valaki, hogy az AMD nem pont kicsivel Nvidia árak alá fogja belőni a saját árait!
-
ALBY
senior tag
Ez az "üzleti modellnek" csúfolt hozzáállás inkább az ostoba tömegek hülyére vétele, aztán lehúzása. Mindegy milyen a teljesítmény, csillogjon meg legyél hívő az a lényeg.
"Nehogygondolkodnikelljen" (de még a vásárlásnál se) userek tömegéből pedig meg lehet jól élni, lásd említett Apple.![;]](//cdn.rios.hu/dl/s/v1.gif)
Ezt csak úgy általában. A konkrét geforce kártyákkal semmi bajom.
Metro játék fejlesztők meg megtanulhatnának játszható sebességűre programozni.
Ha egy játék nem fut rendesen még az aktuális erős VGA-kal sem, az nincs kész!Quake 3 -at meg lehetett volna írni olyan szép grafikával mint ami Shrek-ben volt,
ment is volna 1 fps-el realtime, csak francnak se kellett volna.
( Q3 elment a Pentium1-emen is még, érezhetően csúnyábban, de nagyon örültem neki
) -
Abu85
HÁZIGAZDA
Tudom. Annyit mondhatok, hogy ez nem új architektúra. Ez a GCN. Egészen pontosan a 2.0-s verzió, ami a konzolokba kerül. Ezt egészíti ki az SPM, ami sok feladatot ellát majd (ez is lesz persze a konzolokban). Gyakorlatilag a feldolgozó futószalag összes lépcsője programozható lesz, kivéve a tesszellációt.
-
p87
senior tag
Abu!
Most van egy érdekes pletyka AMD háza táján is:
AMD's Answer to GeForce GTX 700 Series: Volcanic IslandsElég durva infó, hogy új architektúra jönne a GCN helyett, mennyire lehet ez igaz?
-
Mr.Csizmás
titán
sparkle is fog gyartani? mert akkor a ket lapatra valo rammal komoly
verpistikerajongobazist lehet epiteni -
bteebi
veterán
Újabb NV-féle (név)fejlesztés...

#5: Az Apple-ből inkább ne induljunk ki (bár tény, hogy így is lehetnek sikeresek - eddig azok voltak).
-
Abu85
HÁZIGAZDA
Én úgy látom, hogy azon munkálkodnak, hogy egy saját brandrendszert építsenek ki, mint amilyen az Apple. Lesznek termékek, mint a Tegra és a GeForce, illetve ezek párosításával platformok. Lesznek rá szolgáltatások, amelyeket máshol nem lehet elérni. Ha ezek kellenek fizesd meg, ha nem, akkor vegyél mást. Az árak szempontjából már nem kívánnak versenyezni.
Akit esetleg ez zavar, annak alternatívaként felkínálják a felhőt.
Ez olyasmi modell, mint az Apple politikája. Tipikusan a felhasználói rajongásra épít a versenyzés és az árak konkurensekhez igazítása helyett. Akár sikeres is lehet, ha az Apple esetéből indulunk ki. -
Sanya
nagyúr
nyárra új fűtőtest!

-
antikomcsi
veterán
Nem is csodálkozom az ilyen hozzászólásokon, az ilyen cikkek után.
-
Retekegér
MODERÁTOR
Újabb generációváltás átnevezéssel?
(#3) antikomcsi: más infóid vannak? -
Manbal
senior tag
Úgy látom az NV szeretne tanyát verni stabilan a futottak még kategóriában...
![;]](//cdn.rios.hu/dl/s/v1.gif)
valszeg a HD8000es széria lesz számukra a kegyelemdöfés!
Új hozzászólás Aktív témák
- Itt a Galaxy S26 széria: az Ultra fejlődött, a másik kettő alig
- MWC 2026: Kezünkben a Vivo V70, megvan a magyar ára is
- Formula-1
- Meghozta a régóta várt asztali Ryzen APU-kat az AMD
- Dark Souls sorozat
- Bambu Lab 3D nyomtatók
- Honda topik
- Jogász topik
- Elektromos autók - motorok
- Linux Mint
- További aktív témák...
- Apple iPad 7 32GB (3 hó Garancia)
- Gamer PC-Számítógép! Csere-Beszámítás! R5 2600 / RX 5700XT 8GB / 16GB DDR4 / 256SSD + 1TB HDD!
- Apple iPhone 11 Pro 64GB, Kártyafüggetlen, 1 Év Garanciával
- Telefon felvásárlás!! iPhone X/iPhone Xs/iPhone XR/iPhone Xs Max
- AKCIÓ! AMD Ryzen 9 7950X 16 mag 32 szál processzor garanciával hibátlan működéssel
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest

Senki nem akart itt Titan-t venni, de aki épp megteheti, miért ne venné a legerősebb 1 magos VGA-t?
amúgy qrvára nem izgat a dolog, vegyél Titánt, meg is érdemled!
csak VGAban vagyok AMD fan, de ott nagyon, mert nem kicsit bizonyítanak már hosszú évek óta stabilan! amúgy pfff ember, hasonlítsuk akkor a 690eshez a 7990-est, ott még csúnyább a kép! ![;]](http://cdn.rios.hu/dl/s/v1.gif)


(250W a Titan TDP-je,de nem zavarjon!) És egyébként, hol olcsóbb a 7990, ami most jött ki szintén 1000 dolláros áron, mint a lassan 3 hónapja kint lévő titan?
Ilyen elvakult AMD fannal sem találkoztam még eddig, főleg, hogy ennyire nem is vágod az adatokat...



A physx jelenleg is még nagyon nagy erőforrást igényel

összehasonlítani is hülyeség volt
