Új hozzászólás Aktív témák
-
priti
addikt
válasz
t72killer #176 üzenetére
Pont emiatt volt szerintem óriási butaság így kiadni az X2-őt. Nincs károsabb marketing az elégedetlen vásárlónál, aki az összes topic-ot telesírja, hogy mióta megvan az X2 fagy a gép. Konkrétan persze lehet hogy nem a VGA közvetlenül a hibás, mert az 90-100 fokon is üzemképes még (azért az is erősen vitatható, hogy meddig), csak egyszerűen túlfűti pölö az alaplapot, amin csak egy passzív heat-pipe van, de az lényegtelen. Így alulméretezni azt a hűtőbordát a kártyán amin rajta a világ szeme amikor elviszi a "legerősebb" címet ha csak átmenetileg is óriási hiba volt, hát már csak ráteszem a nagyobbat még ha 1-2k-val többe kerül emiatt a kártya akkor is, "hádenem"?
...ilyen butaságot... őőőrület. -
priti
addikt
Az igazi győzelem már a gyártásnál eldől gondolok itt a darabszámra. A tényleges piacszerzést a gyártásnak vissza kell igazolnia, mert ha nem gyártanak le többet, akkor nem is adhatnak el többet. Szerintem az látszik egyenlőre, hogy a kettes és hármas sorozat okozta recessziót sikerült megállítani és visszafordítani a négyes sorozat sikerével jobb hatásfokkal kihasználva a meglévő gyártási kapacitást, kvázi saját kudarcukat javították, de a tényleges piacszerzés ami a befektetés célja volt még bizonytalan. Ceteris paribus sikerülhet, hiszen a sorozat azért még nincs lefutóban koránt sem és egyben jó alap a jövőre nézve is, de ne felejtsük el, hogy az NV is készül feltenni az új lemezt. Így az a mondat, hogy "vesztes helyzetben az NV" egy kitűnő figyelemfelkeltő cikkcím, ami közölheti a négyes sorozat erősségeit és amit nyilván olvastál is, de nem több, ne misztifikáld túl.
Ha tanultál a fogyasztói döntésről akkor ismered a tapasztalat jelentőségét, így ha valakinek korábban NV kártyája volt (és ők vannak többen lássuk be) és azzal elégedett is volt, akkor nagyon ügyes marketing és alacsony ár együtt kell ahhoz, hogy váltson és az X2-nél ügyesebb marketinget is el tudnék azért képzelni például. -
t72killer
titán
válasz
schwartz #174 üzenetére
SzVSz a hozzánemértőnek nem sok fogalma van róla, hogy az aktuális csúcskarik mit tudnak. A boltos, vagy "hozzáértő ismerős" anno jó kártyának tartotta a Geforce Ti 4200-at, ergo 7éve nvidia karit ajánl a vásárlóknak. (vagy a másik oldalon: jó kari volt a radeon 9600->ATIaKirály)
Ezzel nemigen lehet mit kezdeni, fogjuk rá egyrészről az intelligencia hiányára, másrészről a "debezzegnekemvanigazam"-hozzáállásra, ha olyan boltba kerül a Pistike, ahol tudják is, mit árulnak.
-
dezz
nagyúr
Fel kellene már fognod, hogy az abszolút csúcskategóriás kártyák teljesítménye csak egyes fanatikusokat érdekelnek. Ma már az átlagember sem ez alapján választ kisebb kártyát. Az igazi győzelem a pénztáraknál dől el...
Sem mi, sem a NV nem arról beszélt, hogy az újabb 295-nek magasabb lenne az előállítási költsége. Éppen ellenkezőleg. Hogy miért magasabb mégis az ára? Talán mert úgyis mindegy. Akinek mindenképpen ez kell, az megveszi ennyiért is (még többért viszont már ők sem nagyon), a többiek meg mást vesznek.
Ahelyett, hogy arról próbálod magad győzködni, mindezt az NV nem csak kényszerűen elszenvedi, hanem maga csinálja, inkább abban reménykedj, hogy a 40nm-es típusok sikeresebbek lesznek...
-
priti
addikt
Nyilván a darabonkénti haszon csak az eladott darabszámmal együtt értelmezhető, ebben nincs vita közöttünk, de azt nem gondolom, hogy az elkapkodott X2 akkora győzelem lenne, mint ahogy azt sokan beállítják, sőt, és ezt a -ha tetszik- feltételezést támasztja alá a tény, hogy nem volt indokolt alacsonyan tartani a 295 árát.
Tételezzük fel, hogy mindenben igazad van, az X2 csúcsszuper, mindenki imádja, viszik, mint a cukrot, alig van kereslet az NV csúcskártyája iránt, így az NV kénytelen veszteséggel árulni. Mondjuk a hecc kedvéért, hogy így van. Nem teljesen ésszerű a kérdés, hogy ha minimális a kártya iránti kereslet, akkor miért nem hagyták a nyomott árat? Ha alig viszik, akkor (még ha el is hiszem a darabonkénti veszteséget) akkor is minimális az alacsony eladási darabszám mellett összességében a veszteség, hiszen az ati mindent visz, bőven belefér a marketing költségkeretbe. Hát azért nem hagyták, mert nem így vannak a dolgok ahogy azt leírod és az eladások nem indokolták a nyomott árat. Lehet bonyolítani azzal, hogy a recesszió miatt általánosságban zsugorodott a csúcskártyák piaca, ezért senki nem lehetett biztos a dolgában átmenetileg, csak ez messze vezet. A tény az, hogy megemelték az árát és mint minden stratégiát érintő intézkedés mellé, emellé is dobtak egy kamu indoklást, amiből nekiálltok gyártási költséget becsülni. Nem szabad. -
dezz
nagyúr
Én ugyan nem temetem! Csak nem is áltatom magamat.
Azt nem tudhatjuk pontosan, melyik mennyit keres kártyánként, de ha drágábban adná az AMD, kevesebbet is adna el. CPU vonalon az Intel szorítja lefelé az árakat, és persze ők sem a jó szívük által vezérelve...
Amúgy nem csalódtam, ebben a hsz-edben is elhangzott néhány kimondottan szórakoztató kijelentés. -
t72killer
titán
Jaigen, kb 50% intel, a maradék 2/3ada NV, 1/3ada ATI - ha az integrált megoldásokat is nézzük. Legalábbis pár éve, mikor néztem, ez volt a helyzet, azóta nagyon nem változott, és radikális változásra nemigen számítok - hacsak a CPU-ba integrált megoldások nem lesznek nagyon jók (pl olyan szintűek, mint ma egy belépőszintű dedikált grafika - Radeon 4330, Geforce 105M), extraalacsony fogyasztás mellett. - > ekkor az intel részesedése méginkább megnő, lévén az x86 CPU piacon már ígyis 80%-ot birtokol, ha "beépítve" ad egy használható grafikát is, akkor VGA szinten simán elérhet 70%-ot.
Igazi versenytárs lehetne az AMD fusion-je, ami viszont eléggé gyerekcipőben jár. Azért adok neki egy esélyt, lévén az ATI-AMD a grafikus részt tekintve sokkal komolyabb tapasztalatokkal rendelkezik az intelnél (az x86 részt nézve viszont az intel térfelén a labda)
-
schwartz
addikt
válasz
VaniliásRönk #166 üzenetére
-
priti
addikt
válasz
t72killer #167 üzenetére
Arra próbáltam célózni hogy hány ati VGA-t gyártanak egy évben összesen és hány NV kártyát. Érdekes módon ennél a tényadatnál hirtelen hatalmas a csend
Nyilván nem hiánycikk ha nincs rá nagyobb kereslet.
A hardver sokkal gyorsabban fejlődik, mint a számítógép hatékonysága következésképp a szoftverek egyre rosszabbakezt úgy imádják a programozók
-
t72killer
titán
Miazhogy nem gyártják le? felmégy a netre, megrendeled a HD 4770-edet, és küldik, akár 2db-ot CF-hez. nem kenyérjegyre adják
Amúgy kis türelem, 1év mulva a legyártott ATI+NVIDIA GPU-k 80%-a 40nm-es, vagy fejlettebb technológiával fog készülni. Napersze, az aktuális játékok mindig többet fognak igényelni, ez a "rendszer" jellemzője, ezzel veszik rá a népet, hogy mindig új hardvert vegyenek.
-
priti
addikt
válasz
t72killer #161 üzenetére
Próféta szóljon belőled, hogy egy olyan GPU is elég legyen játszani, amit egy enyhe szellő is lehűt, de sajna nem ez a jellemző. Örülnék ha végre megfordulna a trend és ezek az irgalmatlan hődisszipációk megszűnnének, amit manapság a GPU-k produkálnak úgy általánosságban. Asztali szinten már katasztrófa, ami van.
-
priti
addikt
Amennyivel olcsóbban tudja gyártani annak a sokszorosával nyomta le az árát, kvázi semmivel nem keres többet darabján, mint az NV a csúcskártyáján. Egyébként én is jót mulatok azon, hogy megveszik az atit, kétkézzel öntik bele a pénzt, végre valahára kijön egy nyamvatt sorozat, ami legalább versenyképes, nem jobb, de legalább nyomott áron versenyképes igaz persze, hogy a csúcskártyája egy elkapkodott alulméretezett hűtésű használhatatlan car, amit nem győznek így és ehhez hasonló módon drehálni, hogy legalább használni lehessen, de legalább végre valamit fel tudtak mutatni és ennek örömére rögtön temetik emberek az NV-t. Szánalmas. Jól tudjuk mennyi időt bír ki egy sorozat a VGA piacon, ehhez képest messze nem tarol akkorát a 4xxx sorozat, mint amennyi pénzt beleöltek. Sőt. Hatalmas buktának számít hogy több éves kártyák átnevezésével az NV simán versenyezni tudott a "nagy" fejlesztéssel.
(#159) t72killer: hűtőtáskában?
-
t72killer
titán
válasz
VaniliásRönk #158 üzenetére
Sőt, a hír éppen arról szól, hogy hamarosan mindezt egy átlagos, 15.4"-os méretű notebookban is megkaphatjuk, és elvihetjük LANPartyra.
-
dezz
nagyúr
Hiába kisebb a profitmargin, ha sok eladás van, összességében szép nyereség.
Az AMD olcsóbban tudja gyártani őket, ami versenyelőny, és ki is használják.
És még a piacrészük is nagyobb lesz.
Engem nem annyira zavar, hogy jó áron lehet jó videokártyákat kapni...VaniliásRönk:
(Annyira azért nem, csak szórakozom.)
-
priti
addikt
Úgy beszélsz, mint ha mindig is itt lettek volna az árak és magasabb áron már eladhatatlanok lennének a csúcskártyák, egy, kettő mint ha az Ati-nak jó lenne az, ha alacsonyan maradnának az árak, ott ahová a piacszerzés miatt lerángatta, (mert ugye ha neki is kevesebb a profit emiatt az milyen jó neki), de ami jobban kiborít az az, hogy úgy adod elő, mint ha az AMD-nél carnák a szilíciumot és nekik semmibe nem kerülne csúcskártyát gyártani, az csak az NV-nek kerül többe, de nekik aztán minimum 50k, atinak nem á hát az ő gépsoruk madárszarból replikálja a VGA-kat
-
dezz
nagyúr
-
t72killer
titán
tuti lesz majd, csak mostmár a piac eltolódott a notik oldalára, így a gyártók elkezdték az innovációikat notebook-oldalon bevezetni, főleg, ha az a bizonyos innováció alacsony fogyasztást = hosszú akksiidőt eredményez. Desktopban nem annyira zavar, ha 10-20W-tal többet eszik a chip, nem ups-ről megy
-
dezz
nagyúr
Az a nagy kérdés, melyik kártyát viszik az emberek. Bár ha az ATI-t, arra biztos azt fogod mondani, ezt az Nvidia készakarva csinálja, hogy azzal törjön borsot az AMD orra alá, hogy akár többet is kereshettek volna vele (mármint az ATI)...
Mindent ki lehet így forgatni, jó szórakozás... egyeseknek.
Ha a 295-tel pusztán az lett volna a baj, hogy nem elég extraprofitot hoz, akkor nem kivonták volna, hogy később egy új változat jelenjen meg, hanem időkihagyás nélkül álltak volna át egyszer csak. (És nem lett volna vita sem körülötte az Nvidia és a partnerek között. Mint ahogy mostnanában többször is, hasonló ügyekben.)
Egyébként a kereskedők is azt preferálják nyilván, amin többet tudnak keresni. (Na persze nem úgy, hogy magasabb árcédula van rajta, de ott áll a boltban hetekig. Lásd nagyobb GF-ek...)
A középkategóriában az Nvidia korábbi csúcskártyákkal van jelen, az AMD meg olcsó kis kártyákkal... Nem is tudom, melyik variáció a jövedelmezőbb... Sokkal.
Az az Nvidia szerencséje, hogy belépő szinten -- ami a legkeresettebb, vélhetően a válság miatt még inkább -- versenyképes.
-
fgordon
senior tag
Ott van a GTS 260M. 35W-ot fogyaszt. Miért nem csinálnak ilyenből asztali változatot is?
-
priti
addikt
A konzolokat nem akartam ide keverni csak a gyártási költség kapcsán került szóba. Ne felejtsük el, hogy az egy komplett rendszer nem egy VGA. Lehet hogy a rendszeren kompletten nem kaszálnak, de az egy teljesen más piac, bődületes pénz van a játékiparban és az arra fókuszál, lehet hogy a konzol nem volt tőlem a legjobb érv. Oké megadom. Ott lehet hogy még a bukta is bőven megéri, mert annyi pénz folyik vissza a játékokból, itt nem ismerem a jogdíjakat, de egy VGA-nál más a szitu.
-
priti
addikt
Ez ugyan szubjektív, de jómagam is hátránynak éreztem a két nyákos megoldást, már csak amiatt is hogy duplaáron van csak hozzá vizesblokk. Szerintem ez előrelépés volt az NV-től és egy valódi hátrány lefaragása. Ez tiszta és világos érdekük volt, persze kényszerlépésnek is lehet értékelni.
-
priti
addikt
Ez ennél sokkal komplexebb. Kézenfekvő amit írsz, de azért te is érzed biztosan, hogy túl kézenfekvő is ahhoz, hogy igaz legyen. A stratégia sokszínú lehet. Kihagyod a piacot, ami elég nagy hiba, mivel az dolgozik. Ha akár csak feltételeznéd, hogy ezek az irreálisan magas gyártási költségről szóló elemzések (amik kinek is készülnek? ugye nem gondoljuk hogy a gyárnak) fals adatokat közölnek akkor az is eszedbe juthatna, hogy ha az NV magasan tartja a csúcskártyája árát azzal drágítja az Ati kártyájának végfelhasználói árát is mert a marketingcsatorna hosszú és a kereskedő kapzsi, azaz magához több extraprofitot vonz (persze ha elhisszük, hogy "á gyerekek ezen nem keresünk, ezen még bukunk is" akkor nem), míg az ati a kereskedők javára bevételtől esik el. Azaz pont az ati vitorlájából fogják ki a szelet, mivel az ati kártyája a gyengébb, tehát nem a teljesítmény a fegyvere, hanem az alacsony ár amin adja. Itt a PH-n kevésbé jön ez ki, de ha utcáról bemész egy üzletbe itthon is olyan árakat látsz a 4870X2-re hogy dobsz egy hátast, mert a 295-höz képest drágítják a kereskedők egyből és zsebreteszik a hasznot. Pedig mi nyilván nagyon megnézzük mennyiért veszünk meg egy VGA-t, de ahol nem egy havi átlagfizetésről van szó ott jobban fog a ceruza.
Az X2 alatti teljesítmény és árverseny pedig sokkal kiélezettebb azért és ne felejtsük az általad említett "legerősebb kártya cím" marketing értékét se. -
dezz
nagyúr
Nem tudom, hallottál-e ilyesmiről, hogy az árat jó esetben nem a gyártók diktálják, hanem a piac. Magyarán, valószínűleg abban a reményben tervezték meg az első GTX 295-öt, hogy majd 5-600 dollárért lehet majd árulni. De aztán az AMD közbenjárására ez nem jött össze, 450 dollárnál többet nem akartak érte adni az emberek. Azt nem tudom, hogy valóban 50 dollár veszteség volt-e így rajta, de mindenesetre így már nem érte meg a dolog...
Így aztán kénytelenek voltak áttervezni egynyákosra. Ebből neked nem jön le, hogy az a fránya nyák, és egyéb alkatrészek, amikből előtte dupla mennyiség kellett, talán mégsem 2 fillér?
Az ez és hasonlók miatti összezördülés az Nvidia és partnerei között is csak megjátszás volt mi?
Amúgy hogy is jön a PS3-as elemzés az Nvidiához? Mindegy, megint elsiklottál a lényeg fölött: tételes alkatrészlista, többé-kevésbé ésszerű árbecslésekkel. Tehát nem egy elemző által, hasraütésszerűen megbecsült gyártási összköltségből lett itt visszaszámolva az alkatrészek ára, hanem fordítva. Persze egyes tételein lehetett vitatkozni, pl. hogy mennyibe került a Sonynak a Blu-ray meghajtó vagy a tápegység, és én meg is tettem. De nagyságrendileg helyesnek volt mondható.
-
t72killer
titán
Én kapnék, istenbizony
- amúgy a 9600M-et meg 8700M néven lehetett megkapni korábban (ill az én FX570M-emnél se igazán tud többet).
Szóval reméljük a legjobbakat, és hogy nem lesz probléma a nagytételben gyártás, mert ilyen specifikációkkal elég kapósak lesznek, még az indulókategória is, az alacsony fogyasztás miatt.
Szerk.: a GT130M, 9600M, 8700M egy dologban különbözik: menetközben csíkszélességet csökkentettek minden lépésben, ez viszont nemigazán látszik meg a fogyasztási értékeken (23vs 29W), kb azonos teljesítmény mellett - ergo a user számára egy kategória.
-
Abu85
HÁZIGAZDA
válasz
t72killer #144 üzenetére
Mert a GT 130M-nek gyakorlatilag semmi értelme nem volt, egy átnevezés után született meg. Már fél évvel ezelőtt, sőt egy éve is megvehetted a GT 130M-et GeForce 9600M néven.
Az új modellek valóban értékes újításokat tartalmaznak, arra hamarabb rákapnak. Nyár végére már lesznek notik amik ezekre épülnek. -
t72killer
titán
Srácok, ezt a vitatkozást abba kéne lassan hagyni - főleg, hogy eléggé elkanyarodott a téma az asztali cuccok körébe, térjünk inkább vissza a mobil grafikák lelkivilágának megvitatásához
Amúgy ilyen téren tapasztaltabb kollégákat kérdezném: kb mennyi idő szokott az NV-nál eltelni, míg a bejelentett termék a polcon lévő notiban is megjelenik? pl a GT 130M-et idén januárban jelentették be, és kb most látom az első fecskéket (ami nem tengerentúli, gyárból közvetlen csencselő ebayes árusoktól van), ergo csak karácsonyra lesz várható? Lehet, h mégis ATI-s cuccot veszek akkor...
-
Abu85
HÁZIGAZDA
Tudták az NV-nél, hogy 50 dollár mínusz lesz a GTX 295-ön. Csak a marketingérték miatt jelent meg, mert sok ember megnézi mi a leggyorsabb és megveszi az olcsót ugyanazzal a márkanévvel. Az NV tudta előre, hogy beszünteti a kártyát két-három hónap múlva, ám a nagy kereslet miatt most az olcsóbban gyártható GTX 295 újraindult. Persze az ára 500 dollár fölött van, és nem is akarják lejjebb vinni. Ezért nem jelentette be a terméket a BFG, az Asus és a többiek, mert képtelenek versenyezni a 300 eurós HD 4870 X2-vel. A kereskedőknek nem kell 500 dollárért. Egyszerűen az a termék értéke, hogy létezik és ez a leggyorsabb, ha megfizeted az irreális felárat, akkor viheted, ha nem, akkor vidd a HD 4870 X2-őt.
Az NV az elmúlt hónapban feladta az árversenyt, ez a minimum amit tud tartani, nincs tovább. Nagy veszteségekbe nincs értelme belemenni, az AMD úgyis enged (megint), ha az NV leviszi akár egy picit is az árat.A konzolokhoz hozzászólva. Ezen a piacon bevett szokás a gépeket veszteséggel árulni. A játékok hozzák vissza a pénzt. Egy pontig egy konzol csak veszteséget termel, majd idővel elér egy szintet, ahol ez átmegy üzemi nyereségbe ... innentől kezdve ez a folyamatos üzemi nyereség idővel visszahozza a kezdeti veszteséget, a fejlesztési költséget, és onnantól, már csak tiszta haszont termel. És itt milliárdokra gondoljunk a tiszta haszon területén. Ezért megéri az elején pár milliárdot beáldozni, hosszútávon a többszörösét hozza vissza.
-
priti
addikt
A valóságtól való elszállás azért nem egy adott elemzéstől való elszállást jelenti. Azt kell látni, hogy ahogy valami elég titkos vagy komplex ahhoz, hogy ne vagy csak nagyon nehezen ellenőrizhető legyen onnantól kezdve egy elemzés a pénzpiac és/vagy a vállalati stratégia eszköze ami hatásvadász fals számokkal operál. Esetünkben például egy nesze semmi fogd meg jól magyarázat egy a stratégia szempontjából meghatározó lépésre, hogy Abu-t idézzem:
"az első szériás GeForce GTX 295 azért lett kivonva a piacról, mert 450 dolláros ajánlott fogyasztói áron 50 dolláros veszteséget termelt kártyánként."
Na most ugye senki se olyan hülye, hogy bevegye, hogy az NV a sajtóból, vagy akármilyen elemzésből értesül arról, hogy neki mennyibe kerül egy termék piacra dobása és egy ilyen veszteséget utólag vegyen észre, hát hullanának a fejek mint a jégeső. ( szóval költői kérdés volt) Nyilvánvalóan fillérre pontosan tudja az első pillanattól kezdve, viszont egy ilyen lépést, ,mint például egy csúcskártya akár csak átmeneti kivonása indokolni kell, hát itt az indoklás "ez az amihez semmi közötök sincs" jeligére a sajtóosztálytól, nem kell hozzá más csak egy avatott emberek szemében nyilvánvaló hazugság "elemzés" címén, hogy mindenki számára világos legyen az üzenet "ez az amihez semmi közötök sincs". Persze hogy ezzel operálnak és nem azt fogják mondani, hogy túl közel van a következő sorozat egy tagjához, amit most készülünk bedobni, vagy ez csak marketing volt, mint legerősebb kártya stb.-stb. Arra szerintem nem is gondol senki, hogy van aki ezt beveszi. Na most ilyen és ehhez hasonló rendelésre készülő kamu elemzésekből gyártási költséget becsülni több mint merész. Szerintem egyenesen blődség, de rágcsálhatjátok tőlem, csak szomorú vagyok hogy emelett pont a PH-n kardoskodnak, mert ha az indexen tennék akkor még azt mondom hogy oké, de egy olyan tájékozott ember mint pl. Abu így csont nélkül bevegye az ciki.
-
N-vidi-A
őstag
Tényleg nem rossz kis fogyasztások, hajrá nV!
-
dezz
nagyúr
Egyébként szép és hasznos dolog önállóan elmélkedni, magam is kultiválom, csak ügyelned kellene rá, hogy ne legyél ennyire elszállva a valóságtól. Szal, nem az a cél, hogy minnél messzebb kóborolj a nyájtól... Nem biztos, hogy mindig így leszel a legközelebb az igazsághoz. Bizonyos pontokon próbára kell tenni azt az elméletet... Reality Check...
-
dezz
nagyúr
Bla-bla-bla. Szerencsére nem mindent az "igazán gazdag emberek" gondolkodásmódja határoz meg, mert akkor kő kövön nem maradna. Számtalan olyan beruházás van, ami csak évek, akár hosszú évek alatt térül meg, és hogy-hogynem, van rájuk jelentkező.
Az 50k már a fogy.ár. Ebből nyereséghez kell jutnia számos szereplőnek a GPU gyártóján kívül. De ahogy kezd szűkülni mindegyikük számára a margin, úgy válik egyre fontosabbá az alapköltség. Itt adja fel az a gyártó, amelyiknél az magasabb. És az most az Nvidia.
Több kérdés is van ott a #107-esben, de mindegy. És talán ha kicsit figyelmesebben olvasnál, nem az AMD általános helyzetéről beszéltem, hanem a videokártya-részleg eredményeiről. Ha úgy lenne, ahogy te gondolod, dollármilliárdos hasznuknak kellene lennie. No hát ettől messze vannak.
LOL, nem is tudom, ki kezdte a személyeskedést.
Talán nem kellene 1-1 szón leragadnod egy mondatból, vagy akár egy egész bekezdésből. A lényeg a tételes alkatrészlistán volt, többé-kevésbé helyes becslésekkel. Bár néhányat és is alacsonyabbra tettem volna, mint írtam. De a legóvatosabb becslésekkel sem éppen 5 Ft-ra jött volna ki.
-
priti
addikt
1, józan paraszti ésszel gondold végig hogy te kifizetnél e milliárdokat, ha rólad írnak a holnapi tech rovatban ígyis-úgyis, itt zárójelben megjegyzem, hogy a tőkét nem lelkes emberek mozgatják, akik egy innovációra teszik az életüket hanem olyan emberek, akik szerint nem az a legjobb befektetés, ami a legtöbb hasznot hozza, hanem az ami a leggyorsabban megtérül, gondolkodj el ezen a mondaton és ha eztérted, akkor kezded megismerni az igazán gazdag emberek gondolkodásmódját
2, Nézd meg a 4870X2 refihűtőjének réztartalmát, még azon is csak két alacsony borda van, a többi műanyag légcsatorna
3, ja bocs a kettest törölted szal az előző a hármasEgy fillér is nagyon sokat számít tömeggyártásról lévén szó, de ettől még mindig irreális az 50k mint gyártási költség
107-ben az érdekel miért hagyta az NV hogy az Ati előretörjön, ebben meg azt írod, hogy az AMD aki megvette az Ati-t milyen carul áll, igazából nem tudom mit akarsz belőle kihozni
Van egy bölcs mondás arról, hogy a vita a tudás cseréje a vitatkozás meg a tudatlanságé, szóval én nem akarok se veled, se mással tovább vitatkozni. Személyeskedésre meg aztán végképp semmi szükség. Nem érzelmi reakciót akartam kiváltani irányomba, csak jeleztem, hogy nem árt néha gondolkodni, használni a fejed és nem birkamód megkajálni amit elédtesznek. A nagynevű elemzők... nos igen... olvasgasd egy picit a világválság előtti gazdasági várakozásaikat, jókat lehet rajta derülni.
-
dezz
nagyúr
1. Nagynevű elemzők tettek közzé régebben becsléseket tételes alkatrészlistával, amik szerint az első sorozatokon akár többszáz dollár veszteség lehetett darabonként. Bár ezt én is túlzásnak tartottam. Tegyük fel, hogy 100 dollár a veszteség, azóta is. Kb. 22 millió darab PS3 kelt eddig el, akkor az összesen 2 milliárd dollár veszteség. Te tényleg nem fizetnéd ki a mellényzsebedből, de a Sonynak belefér. A Cell kifejlesztése több pénzükbe került!
3. A belépő szintű kártyákon egy aludarabka van + egy apró vacak venti, ez összesen lehet vagy 100 Ft. Ezt hasonlítsd a nagy, réztartalmú, többszörösen hőcsöves, szabályozható ventis monstrumokhoz.
Az egyéb alkatrészek százairól most ne is beszéljünk (amikből mellesleg a nagyobb kártyákon jóval több van, mint a kicsiken).
Az összes költséget levonva + adózás után nagyon is sokat számítanak ezek a néhány ezer Ft-os különbségek. (Valójában ezeken múlik, hogy x vagy 2x a tiszta nyereség... De ez számodra nyilván sci-fi.)
A #107-es felvetéseire miért is nem reagáltál érdemben?
Ha úgy lennének a dolgok, mint ahogy te azt elképzeled, akkor a videokártya gyártóknak betegre kellene keresniük magukat. Nemrég volt valamelyik topikban linkelve pl. az AMD részletes üzleti jelentése, hát nem igazán ez volt a helyzet... Ja, bocs, már tudom, elsikkasztotta a főnök...
Na ja, annyira fingom sincs az egészről, hogy digitális elektronikák tervezésével, és adott esetben gyártásával foglalkozom. Bár eddig nem léptem túl a 4 rétegű nyákokon, mert így is az tette ki az anyagköltség egy jelentős részét. De biztos csak becsaptak.
Na persze hol van ez ahhoz képest, hogy apucid a TSMC főmérnöke, anyucid meg egy alaplap és/vagy videokártyágyártóé... Vagy inkább ott állnak a futószalag mellett egésznap egy gagyi mp3 lejátszó gyártó üzemben, onnan ez a nagy bennfenntesség?
-
lúzer
veterán
Abu85 cikke
Most, hogy tudjuk a chipek területét, megismerkedhetünk a wafer-ral. Ezt az alapanyagot használják a chipek gyártásához. Szerencsére mindkét cég a TSMC gyártósorait használja fel, és ugyanúgy 300mm-es wafer-ral dolgoznak, tehát az anyagköltségek mondhatni megegyeznek. Egy ilyen wafer ára 5000 dollár körül van, ami bizony nem kis pénz. Az adatok tudatában kiszámolható, hogy egy 300mm-es wafer-ből 95 darab G200-at, míg RV770-ből 222 darabot lehet gyártani. Ha a gyártás hatékonysága 100%-os lenne, akkor már most is eloszthatnánk a darabszámmal a wafer árát, de nem tesszük, mert selejtarány mindig van. Ez az a pont ahol tudományos megközelítésünk megfeneklett, mivel nincs hivatalos információnk a hibaszázalékról. Mostantól csak a kiszivárgott információkból élhetünk. Reálisnak tűnik az az adat, hogy a G200-at kb. 35-45%-os hatékonysággal lehet gyártani, míg az RV770-et kb. 75%-ossal. Ebből már könnyen kikalkulálható, hogy egy eladható G200 ára 120-150 dollár, míg az RV770-é 30 dollár körül alakul.
-
t72killer
titán
Végülis a lényeg, hogy hogyan teljesítenek+melegednek majd a valóságban. De ezzel a sorozattal az NV mindenképp tartani fogja a pozícióját a mobil GPU-piacon. Az AMD-nél már egy ideje szintén van 2 használható mobil VGA (mobility HD4650 és 4670), ezekkel, és sztem a csúcsmodell akár a radeon 4860-nal is felveszi majd a versenyt.
-
Abu85
HÁZIGAZDA
Az MS adja a minősítést, ha nem DX10.1, akkor nem írhatja rá. Emlékszem anno a Radeon X1000-re is ráírták, hogy SM3, aztán az MS szerint mégse, persze akkor még önálló volt a minősítési folyamat.
Az persze elképzelhető, hogy elméleti a támogatás, tehát GS-ben Cube Map tömbben ugyanúgy lehal a rendszer, mint a jelenlegi paletta. Ettől persze DX10.1 ugyanúgy, ahogy a jelenlegi GeForce-ok DX10-ek. -
priti
addikt
1, később viszont az ára is csökken szépen, ahogy telítődik a piac és visszaesik a kereslet ergó folyamatosan veszteséggel árulják mi?
gondold már végig meg eleve tudod hány konzolt gyártanak le világszerte naponta, hogy ott legyen a polcon? hát ember nincs a földön aki azt megfinanszírozta volna így ahogy ezt te elképzeled
2, zsugorodik a hűtőrendszer, nahh ettől is kész vagyok, a kemény 2-3k értékű refihűtőrendszer, hogy most 3k vagy 2k az aztán pont olyan számottevő mint az, hogy most 5 dolcsirongy a wafer vagy négyfél mer' ha már 350Ft darabján a wafer költsége akkor az már minimum 50 rongy a végén, hát ez úgy biztos mint ahogy itt ülünkNem az, tőlem terjeszthetitek az igét, lesajnálom, csak az szúr szemet, hogy komolyan mondom úgy osztják itt páran az észt, mint akik délután leszaladnak 10 waferért meg két deka szilíciumért aztán horgolnak pár millió tranzisztorból egy pulóvert. A tökömet elhagyom az ilyen emberektől. Lövésük sincs mennyibe kerül a gyártás, de tényleg nincs, csak oltják egymást a restiben a hülyeséggel, aztán meg minket. A selejt az meg kuka há' mer' az egy ilyen, ásnak egy nagy gödröt aztán szevasz hát még a legrosszabb esetben is megy tovább pölö a napelemgyártásba alapanyagnak, majd kibaccák a szilíciumot mi? csak egy picit olvasnátok utána. Relatíve fillérekből lehet üzemeltetni egy olyan gépsort, ami tízezrével carja magából a végterméket, hát még a raktározás is nagyobb probléma sokszor. Nem egyszer többe kerül mint maga a gyártás. Áhh, iszonyat, a sok chipgyártó, kész, végem van tőletek.
-
t72killer
titán
válasz
CsíkosMókus #125 üzenetére
Ha 1W-ot fog fogyasztani, akkor megveszem
viccet félretéve: ezek sem a 8800 családjába tartoznak, a GT200 architektúrára épülnek, ráadásnak még ott a DX10.1 -szóval volt némi innováció végre
-
CsíkosMókus
aktív tag
2 év múlva majd jön a 16nm-es 8800gt?
-
schwartz
addikt
válasz
VaniliásRönk #123 üzenetére
Ertem. Koszi a valaszt.
-
schwartz
addikt
válasz
VaniliásRönk #120 üzenetére
Ha jol ertem akkor a szoftver renderhez mindenkepp feltetel az x86 kompatibilis GPU?
-
Abu85
HÁZIGAZDA
válasz
schwartz #119 üzenetére
Annyira gyorsan azért nem ... ez hosszútávú folyamat, de az AMD Fusion egy idő után el fog oda jutni. A Larrabee után az Intel is ezt az utat fogja követni. Nyilván először a mobil vonalon lesznek ilyen mindent egybe chipek, de a távolabbi jövőben ezek kiterjednek a csúcskategóriába is. Az AMD-nek és az Intelnek érdeke ez a fejlődési irány, nyilván az NV-nek nem, de neki eleve nem osztottak lapot, így véleménye irreleváns. (Őszintén szólva nem véletlen, hogy ennyire tolja a Tegrát.)
-
VaniliásRönk
nagyúr
válasz
schwartz #119 üzenetére
Sokmagos CPU-k fogják a grafikát software-esen számolni (mint a 3Dfx előtt), raszterezés helyett valószínűleg raytracing alapon, emellett a visszafele kompatibilitás miatt fontos az x86 és a DX hardware-es támogatása is.
Az nVidia az x86-on fog elcsúszni, ha addig nem sikerül valahogy licenchez jutnia. -
-
Abu85
HÁZIGAZDA
válasz
Dark KillerX #117 üzenetére
Nem ... az AMD tudja követni a szoftveres renderelést. Az NV kérdéses. Nem lehetetlen, de konkrétan nehéz csak GPU-val küzdeni. Az AMD-nek és az Intelnek platformja lesz.
Ez amúgy hosszú folyamat lesz. Itt előjöhetnek az egyedi ötletek. Az nyer aki a legjobban alkalmazkodik az új igényekhez amellett, hogy a DX futószalagot is megfelelő sebességgel fogja futtatni. Többek közt ezért is megy az AMD-nél a kicsinyítés és az optimalizálás, meg akarják tartani a fix funkciós célegységeket, mert az emulálás időben drága. -
zoltanz
nagyúr
Azért szép az NV -től, hogy a középkategóriára is és a belépőszintre is figyel és egyből kiadta ezeket a chip -eket. Mi lesz a jövő ki tudja,
nincsenek lemarada, de van min dolgozniuk, szerintem sem komplett idióták ülnek a zöldek vezető között.
-
dezz
nagyúr
1. A konzolokat több-kevesebb veszteséggel árulják. Főleg az életciklus elején!
2. Később sokat csökken a gyártási költség, többek között a nm csökkenése által, ami itt egy-az-egyben átmegy a lapkaméret csökkenésébe, vagy több addig különálló chip összevonásába. Az órajelek meg nem változnak, így a hűtőrendszer is zsugorodik.
3. Az aktuális csúcskártya viszont mindig nagy chipet és hűtést tartalmaz, nagyteljesítményű áramelátással.
4. Az új 80 GB-os PS3 nyákja már alig nagyobb, mint egy csúcskártyáé, ráadásul jóval kevesebb réteget tartalmaz.
5. Persze van ott még más is, de nem is arról volt szó, hogy 100k alatt veszteséges a csúcskártya, hanem mondjuk 50k alatt. -
priti
addikt
Ez az 5 rongyos wafer is... terjed mint a pestis, na mindegy hagyjuk, mert a végén kiderül, hogy 100k alatt adni veszteséges egy VGA-t, aztán eltelik egy év vagy kettő és a tökugyanúgy, ugyanabból ugyanazzal legyártott VGA-t meg még egy rakás dolgot köré egyben megvehetsz 100k-ért komplett rendszerként, csak akkor úgy hívják, hogy konzol. Akkor hírtelen lecsökken a gyártási ára ezek szerint és még komplett rendszerként is megéri gyártani és összeszerelni.
-
ADAM1337
nagyúr
harmat.
-
Abu85
HÁZIGAZDA
Az Intelnek nem kellene az ATI. Minek? ... 2014-ben itt a szoftver rendering, akkor az ATI technológiák nem sokat érnek majd. Oda olyan chip kell, mint a Larrabee.
Ki mondta, hogy az NV-t valaki meg akarja venni? Elég nagy cég ahhoz, hogy több piacon tartsa fent magát. A Tegra sem viccből született meg.Bár szegénykém még nem kedvelt, de kurva jó termék.
Most azért nem olyan nehéz ezeket az infókat megszerezni, csak a TSMC-től kell tudni, hogy mennyi a selejtarány (erre megvan a megfelelő ember, csak meg kell találni
. A 300 mm-es wafer 5000 dollár (szerencsére mindketten a TSMC-nél gyártanak, így az anyagköltségek azonosak). Tudod a chip méretét, így ki tudod számolni, hogy mennyi chipet lehet gyártani a waferen, innentől pedig a selejtaránnyal elosztod az eredményt. Meg is van egy átlagos lapka ára.
A NYÁK, és memória költségeket is meg lehet szerezni, mondhatnám itt minden nyílt titok. Összeírod a NYÁK alkatrészeit és kiszámolod a gyártók listaára alapján (megjegyzem érdemes spanolni a gyártókkal, mert egy idő után már el is árulják neked, az adatokat ... persze eredményben ugyanott vagy, de időben jobban megéri a haverkodás).
Egyébként nem értem miért ne érné meg az olcsó VGA? Az összetett kártya esetén nem lineárisan nő az ár, még a chipnél sem. Például egy RV770 jelenleg nagyon jó kihozatallal gyártható a chipek több mint 95%-a eladható (nyilván itt erősen benne van a dologban az RV770 redundáns területei, ugye ez SIMD tömbönként két szuperskalár procit jelent, és a rendszer gyorsítótárai is némileg redundánsak). Ez kb. 24 dollár/chip árat eredményez. Ez azért messze van a GT200 chip 70 dollár körüli előállítási költségétől. Ugye selejtarány az NV rendszerénél kritikus, mert csak cache szinten redundáns, ott is csak nagyon picit. Ha egy hiba van a TPC blokkban, akkor le kell tiltani (GTX 260), ha két TPC blokkban van hiba, helyből kuka a chip. RV770-nél hiba van a SIMD tömbben, kicseréled az shader egységet a tartalékra, ha két egységben van hiba, akkor ott a másik tartalék egység, csak akkor megy a chip a HD 4830-ba, ha három shader egységben van hiba, nyilván ilyen nagyon ritkán van, nem véletlen nem volt az elején csökkentett SP-jű HD 4800, egyszerűen kellett pár hónap, míg annyi hibás GPU összegyűlik, amivel lehet indítani egy HD 4830 sorozatot. Most meg megy a teljes kiszórás, eladni mindent mindegy milyen áron, már behozták a hasznot a cégeknek (Pl.: HD4830 80 euróért már eléggé nullszaldósnak néz ki, de eddig bőséges haszon volt rajta.). A GT200-nál a GTX 260 eleve két TPC blokk-ot tiltott, majd később ahogy javult a kihozatal jött az új GTX 260, mert szükség volt a teljesítményre a HD 4870 ellen.
-
dezz
nagyúr
Ha olyan semmiség pl. egy sokrétegű nyák, akkor miért volt ebből is cirkusz nemrég az Nvidia és a partnerei között?
Nem tudom, észrevetted-e, hogy a belépő szintű kártyák nyákja kisebb, sokkal egyszerűbb és kevesebb rétegű. A hűtőrendszerről is hasonló mondható el.
Vagy ha olyan semmiség egy chip ára, akkor miért térnek át a kisebb nm-ekre, amilyen hamar csak tudnak (sokszor először nem is a csúcsszegmensben)? Miért nem egy nagy chip az alapja az összes kártyának, belépő szinttől a csúcsig?
Ha még bőven beleférne a profitmarginba a további árcsökkentés, miért hagyta az Nvidia, hogy így előretörjön az AMD?
Azt elhiszem, hogy az ilyen 150 ezres kártyákon komoly extraprofit van, de azok hol vannak már? Az AMD alaposan lerángatta az árakat, most már 50 ezerért is kapsz csúcskártyát. Valahol itt lehet a profitábilitás választóvonala...
Egyébként olyan már nincs, hogy ATI, mint különálló management, ez már csak egy márkanév, mindent az AMD irányít.
rocket: A 80%-os kihozatali arány az jó lenne. Selejtarányként már nem annyira.
-
rocket
nagyúr
Pontosan senki nem tudja, de amit te irtal osszeget a #101-ben az totalis baromsag, megtalalod a GT200 wafer-rol a kepet a PH cikkben, jelenleg kb. 4800$ egy 55nm-es 300mm-es wafer ara a TSMC-nel, vegyel hozza nyugodtan ekkora GPU-hoz irrealisan magas 80%-os kihozatali aranyt, aztal kezdjel szamolgatni
Es akkor meg nem beszeltunk a nyakrol amit te fostos nyaklapnak hivsz, kozben 10+ retegu nyakokrol van szo, amik raadasul igen sok alkatreszt tartalmaznak, a nyakra kerulo alkatreszek se bunoszkent jarnak melle, es akkor meg mindig csak az osszeszereles kozben jarunk hutes nelkul."Ha ez igaz lenne nem lenne 20k-ért VGA a piacon egyáltalán, hát semmi értelme nem lenne veszteségesen alsókategóriát gyártani"
20k-s VGA-ra nem GT200 GPU kerul.
Az NV legnagyobb gondja jelenleg, hogy a mai napig nem tudtak teljesitmeny/meretben megfelelo GT200-ra epulo GPU-kat csinalni, ezert is szivnak, csak azert nem lett totalis csod az egesz, mert ott a G92, amivel versenykepes termekeket feltudtak/feltudnak mutatni, de mar ott is rezgett a lec parszor, ezert kellettek az atnevezgetesek. -
priti
addikt
és ezt te elhiszed? ki tudja a gyártón kívül, hogy mennyibe kerül a gyártás? ha így számolom ennyibe ha úgy számolom amanyiba, nyilván nem az anyagára ennyi. Ha ez igaz lenne nem lenne 20k-ért VGA a piacon egyáltalán, hát semmi értelme nem lenne veszteségesen alsókategóriát gyártani
-
priti
addikt
Monopol helyzethez és a velejáró piac megtartásához az kell, hogy le legyél védve, hogy manipulálni tudd a konkurens gyártók által hozott termékek teljesítményét, különben betörnek. Egy piacot nem elég megszerezni meg is kell tudni tartani és itt akkora a pénz, hogy akár óriási beruházással is megéri betörni ha elég nagy piaci részesedést tudsz szerezni, azaz a technológiai előny önmagában nem lehet elég, mert nem tudod mivel versenyzel amíg a betörni akaró piacra nem dobja és az intelnek se kell a szomszédba menni tőkéért például. Az NV nem volt abban a helyzetben amikor a recesszió megindult, hogy képes legyen megvédeni a piacát egy vadonatúj fejlesztéssel szemben gazdaságosan, de ez nem jelenti azt, hogy durvább árképzéssel sem. Ha az enyém a cég akkor lehet hogy azt gondolom, hogy jobban járok ha az ati a konkurens mint ha mondjuk az intel, hisz ne legyünk naívak, ekkora csontot egyedül rágni sokáig nem lehet ha nem vagyunk bebetonozva és nem vagyunk.
Ha az ati seggreül, (ezt nem úgy értem hogy csődbemegy, hanem úgy hogy visszaszorul kellő mértékben a piaci részesedése ahhoz hogy eladják) akkor az a helyzet jön elő amit leírsz, hogy az NV megpróbálja valahogy bebiztosítani a monopol helyzetét gyorsan, de más se hülye, azaz ahogy ez az állapot beáll születik egy döntés arról, hogy ezt megvárják és lemondanak a piacról vagy betörnek, azaz a "most vagy soha" persze kézenfekvő hogy úgy törnek be, hogy megveszik az atit és belenyomnak tőkét fejlesztésre, ami persze így meg is történt annó, majd hülyék lesznek lemondani ekkora nyereségről. Most is eladhatná adott esetben az atit az AMD az Intelnek például, vevő lenne rá ne aggódj, hisz a fejlesztés csak pénzkérdés és ha tuti utána a piaci részesedés, akkor tuti a haszon is, szóval az NV-nek nem érdeke hogy az atit sok sok profit feláldozásával legyengítse, mert mi van ha eladják egy tőkeerős új tulajnak aki kicsinál? Az NV-nek szerintem a nyugi a tuti és inkább a biztosat választotta a bizonytalan helyett azaz hagyta, hogy erősödjön egy kicsit az ati, benne van persze amit mondasz, az hogy tehetetlen, de ahhoz túl nagy hogy azt feltételezzem, hogy megszerezhető, ha viszont tehtetlen és tényleg nincs annyi tőkéje ahogy írod hogy dobbantson egy új sorozattal (erősen kétlem) akkor még az is lehet hogy megéljük, hogy felvásárolják őt is, mint az atit. -
Abu85
HÁZIGAZDA
Bőven?
... A első szériás GeForce GTX 295 azért lett kivonva a piacról, mert 450 dolláros ajánlott fogyasztói áron 50 dolláros veszteséget termelt kártyánként. Ezért van itt az új verzió, mert azt 400 dollár körüli átlagos áron lehet gyártani (aszem 50 dollárt faragtak az egy nyákosítással és a GT200-ak kihozatala is javult azóta - jelenleg úgy 75 dollár lehet egy GT200 költsége, nagyon optimista becslés szerint). 30K-ért brutális veszteség lenne.
Nézz jobban utána, mit mennyiért gyártanak. -
Abu85
HÁZIGAZDA
És ez szerinted érdekli a multiplatform fejlesztőket? Elárulom, hogy minden multiplatform játék fejlesztését PC-n kezdik meg, még akkor is ha nem jön PC-re. Persze után a PC-s portot megfelelően optimalizálni kell, ez az ami a legtöbb esetben hiányzik. Ezen a helyzeten akar javítani a DX10/10.1/11 az egyszerűbb felépítésével.
Ami pedig a DX11-et illeti idén már lesz ilyen API-ra épülő játék (sőt játékok), persze a többi játék nem megy tovább a DX10.1-nél.
AZ NV-nek a kvázi monopólium álom lenne. Pontosan azért lett olyan a G80 amilyen, ha az AMD nem veszi meg az ATI-t, akkor már nem lenne vörös oldal. Ez egy tudatos terv volt, hogy beáldozzuk egyes DX10 eljárások sebességét a nagyobb általános teljesítményért, ami DX9 alatt fontos. Az ATI másképp gondolkodott, nekik eleve az volt az elképzelésük, hogy egy olyan architektúrát fejlesszenek, amit 3-4 generáción keresztül lehet majd használni. Nyilván ez korszerű felépítést követelt, ami most jó, de anno nem volt az. A CUDA része is le volt vajazva a dolognak. A G80-hoz nagyon illik a CUDA, így a legtöbb fejlesztő konkurens hiányában áttért volna arra a rendszerre. A gyártók pedig beállnak a CUDA mögé, innentől kezdve az NV úgy manipulálja a konkurensek teljesítményét ahogy akarja. Ezután nem lett volna elég jó terméket csinálni, sokkal erősebb kellett volna, hogy a CUDA GeForce-ra optimalizált kódját ellensúlyozza. Mindkét terv bedőlt, ezért vannak most ott ahol vannak. Nyilván azt az elején lehetet sejteni, hogy "világuralomra" törni kockázatos. Ha buksz, nagyot buksz.
-
priti
addikt
Értsétek már meg hogy nincs ilyen hogy "drágán gyártott csúcskártya" és mekkora érvágás egy ilyet olcsón eladni. Nincs ilyen.
Ez egy marhaság. Közel ugyanannyba kerül legyártani az összes kártyát egy sorozaton belül. Az összeset. Nincs olyan, hogy veszteséggel adnak el kártyát, teljesen el vagy tévedve. Csak az árképzésben feláldozott haszon a bukta. Ha az NV 30k ért adna újonnan egy GTX295-öt maga a gyártás bőven nyereséges lenne, bőven, hát ne viccelj már, még a 15k-s végfelhasználói árnál is megérné maga a gyártás a marketingcsatorna hasznával együtt, hiszen erre példa van egyes belépőkártyáknál. Gondold át, egy fostos nyáklap az egész, anyagköltségről beszélünk, a gépsorok üzemeltetése közel ugyanannyi pénz, szinte tökmindegy mi pottyan le a végéről. A fejlesztés a drága, az agyat kell megfizetni, ezt kell megérteni. Az kerül sokba. Amikor már potyognak a darabok az már lófing. Persze nyilván összefügg hiszen részben ahhoz kell a bődületes extraprofit a gyártáson, hogy az fedezve a fejlesztés bődületes költségét még mindig nyereséges legyen, de csak részben, mert ez az extraprofit valami eszméletlenül elszállt, sokkal nagyobb a mozgástér az árképzésben még rendszeres fejlesztés mellett is, mint ahogy te azt leírod, nade az NV minimálisat fejlesztett hoppá, hát évek óta csak átnevezget a bődületes extraprofit meg ott van neki is ugyaúgy mindenen, az összes eladásán, tudod te mi pénzt kivettek a VGA piacból? Eszük ágában sincs innen kivonulni. Addig erősödik az ATI amíg hagyják, egyértelmű hogy hatalmasat tud dobbantani egy NV sorozat bármikor és fog is, mert az Ati nem tud diktálni. Kevés ahhoz. A fejlesztés a beruházás a gyártás a nyereség kápísi? A recesszió komplexebbé teszi a történetet, de az NV fejlesztése sokkal nagyobb pénzt hozott, sokkal tovább életképes az NV sorozat, hiszen átnevezgetéssel évekig kitart, ezaz igazi előny, ez a pénz. Nem volt érdekük válaszolni, csak kaszálták a pénzt, arattak. Majdmost vetnek ne aggódj.
-
dezz
nagyúr
Huh... Ez az erdő csak a te fejedben létezik...
Nekem egyátalán nem úgy tűnt, mintha az Nvidiának nagyon a kedvére lett volna az elmúlt időszak... Lásd kényszerű, cseppet sem kívánt árcsökkentések, elviselhetőség határára szűkölő profitmarginok, elpártoló partnerek, stb.
Milyen stratégiáról beszélsz, részleteznéd? Szóval szerinted szándékosan hagyták megerősödni az ATI-t, ill. AMD-t, hogy így vegyék elejét a többi cég versenyzési kedvének? Milyen többi cég? VIA?
Az persze igaz, hogy az AMD-vel még nehezebben tud versenyezni bárki (diszkrét kártyákat illetően legalábbis, mert az Intel a gyengébb IGP-ivel is uralja az IGP piacot)... Beleértve az Nvidiát is...
Középkategóriában labdába sem rúgtak az Nvidia kártyák az általad leszólt 3xxx sorozathoz képest. Most is kénytelenek a korábbi, drágán gyártott csúcskártyáikat kínálni az AMD olcsó középkártyái ellenében... Szóval itt is miről beszélsz?
A csúcskártyák csak a piac nagyon kis részét teszik ki! Szerinted az AMD nem tudna összerakni valami óriáschipet, csak hogy elmondhassa, hogy ővé a legkomolyabb chip? Hát dehogynem. Csak éppen minek? Hogy páran verhessék rá a... mellüket, mint pl. te a GT200-ra?
Költői kérdések...
-
priti
addikt
"nincs kapacitás külön GPU piacra nevező architektúrát fejleszteni"
Feltételezés abu, feltételezés, arra van kapacitás amire a stratégia kapacitást biztosít. Azért az NV nem a sarki közért, milliárdos szervezetdinamizálások lehetnek sitty-sutty-pikk-pakk...
Nevetséges egy jó sorozatot követően azt feltételezni, hogy az Ati diktálni képes, hiszen a hardvereken szoftver fut, azért ez erősen rugalmatlan piac -
priti
addikt
Van egy fa, amitől nem látjátok az erdőt és ez a fejlesztés időbeli eltolódása a két gyártó között, ami az egyértelmű straégia béli különbséget támasztja alá, de semmi többet, a stratégia eltérő, ami nem is csoda, hiszen a két gyártó és a vonatkozó két piaci részesedés nem egy súlycsoport volt az ati 2xxx 3xxx harmatgyenge sorozatát követően meg pláne nem. Másképpen kezelték a gazdasági recessziót is. Az NV megtehette, hogy nem fejleszt számottevő mértékben, a válságra érzékenyebb ATI nem. Bizonyára te is látsz némi összefüggést aközött, hogy minden játék úgy indul, hogy bejön az NV logo és aközött hogy éppen a játékkészítők "gátolták" a fejlődést az ultramodern ati VGA-kban rejlő hardveres erőforrások nem kellő hatásfokú kihasználásával, nincsenek véletlenek, hogy arról ne is beszéljek, hogy azért az NV-jé a legerősebb VGA továbbá az NV-nek nem biztos ám hogy az az érdeke, hogy az ATI a recesszióban seggreüljön, mert ketten sokkal könnyebben védik az iparágat az ide betörni akarókkal szemben és az NV-nek kényelmes ez a helyzet hogy az ati láncát húzza-ereszti kiszámíthatóvá téve a jövőt, mint ha "egyedül" maradna úgyértem túl nagy piaci részesedéssel maradna, amire már megérné betörni más attitűddel mondjuk egy intelnek, szóval nem rossz ez az NV-nek egyáltalán, hogy az Ati egy picit talpra állt, mert hát lássuk be elég nagy volt ott a car a két gyenge sorozat után amivel ha rosszúl kezelik a recessziót... hát igen.
Ami a DX11-et illeti majd akkor szóljatok, ha kijött a DX11-es konzol, mivel a játékok zöme konzol átirat.
-
Abu85
HÁZIGAZDA
Pontosan ... annyit tennék hozzá, hogy a DX10 kari is tud majd DX11-es motort futtatni nagyon sok megkötéssel, ami sebességre és a képminőségre is komoly hatással lesz.
---
Geometry Shader-nél pedig a GT200 az első NV chip ami nem adja meg magát. Ehhez egységnyi szinten 6x akkora gyorsítótár dupla annyi regiszter kellett. Ez tranzisztorban meg is látszik. Nézzünk egy példát az RV790 és a GT200 aránylag könnyen összehasonlítható. Az átlagos teljesítmény hasonló (+/-10-20% eltérő grafikai feladatoknál). Méretben az RV790 275 mm^2, míg a GT200 470 mm^2. DX10.1 alapon a GT200 a többlet mintavételezőkkel és a szükséges változtatásokkal megnőne 520-530 mm^2 fölé. Az AMD architektúrája grafikus számításokban 80%-kal kisebb méret mellett hozza ugyanazt. Persze nyilván ennek a GPGPU-nál használatos szekvenciális kódokban megvan a maga kellemetlensége, de az AMD mondta, hogy őket a grafikus kártya piac érdekli, a GPGPU az másodlagos. Az NV chipje is jó, csak őket a GPGPU szegmens foglalkoztatja a GPU piac van alárendelt szerepben. Nyilván az NV mérnökei sem hülyék, ők is tudják a problémákat, csak nincs kapacitás külön GPU piacra nevező architektúrát fejleszteni. Valamelyik piacot fel kell áldozni, aztán reménykedni, hogy a konkurencia nem alázza le a rendszert. Ezért lett volna fontos a CUDA terjedése. Ez a rendszer a GeForce memóriamodelljéhez van optimalizálva, a többi chip hatékonyságát szoftveresen befolyásolhatta volna az NV. Ezzel a kecske jóllakik és a káposzta is megmarad. Nem véletlen zárkózik el minden gyártó ilyen mereven a CUDA-tól.
-
dezz
nagyúr
Na ha ő nem reagál, akkor megpróbálom én.
Szerintem arra gondolhatott, hogy a DX10.1 (és ha már úgyis nekiállnak, a Geometry Shaderek) kellően gyors futtatásához alaposabb változásokra volt/lenne szükség. De az is lehet, hogy ilyen nem tértént, csak valahogy beleügyeskedték a DX10.1 támogatást, a sebességgel nem foglalkozva, pusztán a Windows 7 matrica érdekében. Majd a tesztekből kiderül...
-
dezz
nagyúr
Ja, mellesleg az Nvidia nem csak úgy lesz@rta (önszántából) a VGA piacot, hanem egyszerűen nem tudott árban versenyezni (lásd jóval magasabb gyártási költségek), mivel hogy nem jótékonysági intézmény, hanem ők is a profitból élnek. Így is kénytelenek voltak jóval olcsóbban adni a cuccokat, mint szerették volna, ez alá már nem mehettek.
-
dezz
nagyúr
A DX10.1 csak az egyik dolog. Az Nvidiának a G80 és GT200 architektúrákkal jóval nagyobb chip-felületre volt szüksége ugyanahhoz a teljesítményhez, mint az ATI chipeknek. Ez nagyon is gyakorlati hátrány, hiszen így jóval többe kerül nekik ugyanolyan teljesítményű kártyákat kihozni. Ráadásul nm-ben is lépéshátrányban voltak, és egyelőre vannak is (bár a TSMC problémái a másik oldalt is visszafogják kissé). Ezt tetézte (ill. desktopon jelen időben) a DDR5 memóriák támogatásának hiánya is (u.a. sávszél feleannyi vezetékkel).
De a DX10.1-et sem lehet elintézni egy legyintéssel. Az Nvidia chipek nem csak úgy lustaságból nem támogatták. Azért nem támogatták, mert az architektúra miatt úgyis csak kisebb teljesítménnyel működött volna. (Ezt majd Abu részletezi, ha akarja.) Ezzel függ össze az is, hogy pl. a Geometry Shadereket is igen lassan futtatja...
Mind a DX10.1-et, mind a Geometry Shadereket éppen azért hagyagolták a játékkészítők, mert az Nvidia chipjei nem támogatták, ill. nem feküdt nekik. Ergo ők fogták vissza a fejlődést, nem pedig fordítva...
Van egy olyan dolog is, hogy a DX11 némi kompromisszumokkal futtatható lesz DX10.1 HW-en is. DX10-esen viszont nem.
-
priti
addikt
Csak engem zavar ez az ati-s nyálverés a máig teljesen felesleges 10.1-ről?
Úgy beszéltek az Nvidia-ról, mint ha le lenne maradva a gyakorlatban, pedig gyakorlatilag bazira nincs. Egyrészt nagyon gyorsan meg lehet számolni azon programokat, amik támogatják a 10.1-et és rendre mind gyönyörűen elfut az NV felsőközép kártyáitól kezdve mindenen eddig, szóval ez az egész 10.1 egy papírtigris néhány programmal mutatóba ami kb. marketing. Arra van sansz, hogy a közeljövőben elszaporodnak a 10.1-et támogató játékok valóban, de addigra meg itt lesz az új NV sorozat. Az ati előnye (ha van egyáltalán előnye, végtére is a 295 bizonyítja, hogy teljesítménybéli hátrányban nem az NV van) szóval ez a fene nagy előny ami hátrány a gyakorlatban abban ki is merül, hogy nekiáll olcsóbban adni az ati a kártyáit piacszerzés céljából ezzel csökkentve a jövőbeli hátrányát. Ismerve a tényt, hogy a belépő szintű és a csúcskategóriás VGA-k gyártási költsége közel azonos (még a 2 GPU-s kártyák gyártási költsége is lócsöcs) egyértelműen mutatja, hogy az ati semmi egyebet nem csinált, csak piacszerzés céljából levitte az árait, amit a NV is bármikor megléphetett volna, csak lecarta a VGA piacot magasról és nagyívben, mivel pontosan tudja, hogy ha nullát fejleszt, de elkezdi a 295-öt olcsón adni az ati megint visszaszorul, más a stratégia, ennyi, szóval ne misztifikáljuk már túl ezt a fene nagy ati előnyt, ami talán sosem volt igaz. A 10.1 egy ügyes marketing fogás eddig. Lehet hogy kinövi magát ha az nv kártyái is tudni fogják, de csak akkor, mert régóta látjuk és tudjuk, hogy fél piacra nem fejleszt senki költséges szoftvert ingyen. Uff.
-
RootRulez
félisten
A verseny az jó, de az odébb van még, hogy nV befogja ATI-t!
-
Ari18
őstag
mi van nVidia is fejlődik
-
Abu85
HÁZIGAZDA
válasz
antikomcsi #87 üzenetére
Azért nem látunk a HD4770-ekből semmit, mert a Sapphire raktárában alig áll a cucc egy napot (kb. megjön és viszik). A HD 4800 széria egyes termékei akár 20-30 napot is eltöltenek a garázsokban. Azért van különbség rendesen.
Ha rendelsz egy boltban HD 4770-et, akkor idővel sorra kerülsz, de raktárron jó ideig nem lesz, mert minden leszállított kártyára rendelés van. -
antikomcsi
veterán
Vagy azért, hogy a kiolvadó lábacskájú gpu-k megtépázott hírnevét (amit kb. ugyanúgy vesznek) helyrehozzák.
Akkor mi nagyon a 3. világ mögött lehetünk, mert a jó kihozatalból én hetek óta nem látok itthon 4770-et. Igaz, hogy magamnak úgyse vennék, csak valami olcsó kis teljesítményű gépbe, amiket kérni szoktak. Viszont oda jó a 4830, 21K-ért. Ez a válság a szerencséje most az atinak, ha nem lenne, és megengedhetne bárki magának 50K-ért vga-t, én senkinek nem ajánlanék 4890-alatt.
Másrészt ez az új mobil nagyvas, szerintem egész értelmes dolog, ha nem lesz a végére, mire a tacskó polcaira kerűl túl drága, a köré épített abakusszal együtt, akkor még jó vétel is lehet.
-
Abu85
HÁZIGAZDA
válasz
antikomcsi #85 üzenetére
Gondolom azért kezdenek mobil piacon, hogy az alacsony ellátottság ne legyen probléma. Az AMD-nél is jó a kihozatal, csak túlzott a kereslet a HD 4770-re.
-
antikomcsi
veterán
Az a jó az ilyen hírekben, annak ellenére, hogy végre történik valami, mégha pozítív is, egyesek találnak okot, hogy szídják a gyártót.
A legjobb, hogy egy asztali gpu erejét mérik páran a mobil megoldáshoz. Reméljük ez a 40-es gyártás nem olyan lesz, mint a konkurenciáé, hogy beharangozzák legyártanak 3 gpu-t, aztán ugyan azon a szérián visszaállnak 55nanora. A nép meg vegye csak a 96. ugyan olyan teljesítményű kártyát. Bár remélhetőleg 790-es selejtből több van, mint amennyi 740-ből volt, és lehet majd kapni az új vga-kat.
-
Devid_81
félisten
Akkor inkább kimegyek az usába 2 db ilyenért és még a repjegyem is benne volt 1.1millába
-
zed1983
őstag
Végre egy értelmes Nv-s hír
-
#06658560
törölt tag
válasz
Depression #78 üzenetére
Olvasd el mire írtam, aztán utána gondolkodj el, mi erős és mi nem.
stevve: Dx téma, az jött elő, hogy miért oly fontos, hogy megjlent. Vagy hogy elkéstek vele.
-
válasz
#06658560 #77 üzenetére
nagy ívben teszek a 7 premium plecsnire, nekem CAD alatti teljesítmény kell. Meg nagy felbontás. Innentől felejtsük el a DX-et.
Kinek-kinek...
és a játék mint olyan jobb, élvezetesebb lett tőle? ott töltenél előtte három éjszakát egyhuzamban, mert DX 10.1, vagy DX 11 és nem DX9?
Ez inkább asztali téma, nem notebook, de ez oylan, mint a trabi és az Audi. A trabi is megy és bírja az 50-et, de azért egy Audi mégis más.
-
válasz
#06658560 #77 üzenetére
"mióta papolom, hogí a játékélmény =/= grafikai élmény? ..."
Azért szerintem az fontos, hogy a játéknak ne egy GTX295 szörny kelljen, hogy ne csak diavetítésben tudj játszani.
"nagy ívben teszek a 7 premium plecsnire, nekem CAD alatti teljesítmény kell. Meg nagy felbontás. Innentől felejtsük el a DX-et."
Így már más. Akkor nem szóltam.
-
#06658560
törölt tag
mióta papolom, hogí a játékélmény =/= grafikai élmény? Írjanak élvezets játékokat, ne látványoskat. Egyébként ami képeket rendre betettetek tesztekbe, összehasonlítáaokba, hogy az új Dx akármennyi mennyit hozott az elődhöz képest, mennyivel szebb bármelyik rendszeren is a kép, egyrészt semmivel nem mutaott élethűbben, szebben számomra, másrészt az eltérések olyan kicsik votlak, hogy játékban végképp nem leetett volna észrevenni, statikus képen is lesnem kellett erősen, hogy mi a diffi. Ezért kurvára nem éri meg felhasználó oldalról a plusz. A játék meg nem AA-tól lesz élvezetes.
lezso: nagy ívben teszek a 7 premium plecsnire, nekem CAD alatti teljesítmény kell. Meg nagy felbontás. Innentől felejtsük el a DX-et.
SweetLou: és a játék mint olyan jobb, élvezetesebb lett tőle? ott töltenél előtte három éjszakát egyhuzamban, mert DX 10.1, vagy DX 11 és nem DX9?
-
Sweet Lou 6
addikt
válasz
#06658560 #72 üzenetére
Ezt már nálam sokkal okosabb emberek kitárgyalták már többször is az Ati vs. Nvidia híreknél, de a kedvedért mondok pár példát: a FarCry 2 igaz lassabb DX10.1-ben, de szebb is (ennek a bizonyítékáról kérdezd Abut), a HAWX gyorsabb 10.1-ben, és az első teljesen DX10-es fejlsztésű játék, a Stormrise is jelentősen gyorsul 10.1 alatt.
Na látom nem csak én gondolom így
-
Sweet Lou 6
addikt
Nekem erről a hírről hirtelen az jut eszembe, mikor az Ati kihozta a HD3000-es szériát DX 10.1-el és erre az Nvidia azt mondta, hogy minek a 10.1, soha nem lesz rá szükség...
Erre meg tessék... Tanulság: Nvidia jóslatainak ne higgyünk
-
Depression
veterán
Milyen furi, hogy eddig semmilyen fajta infó nem szivárgot ki róluk, most meg hirtelen itt vannak.
Asztali PC-be garantáltan nem fognak kiadni ilyesmit, már régóta tudni, hogy DX11-re készülnek az újak, amik visszafelé kompatibilisek. Nincs is értelme win7-re kijönni DX10.1-gyel. -
Ez még csak a notikról szól, oda meg úgyis villantónak kellhet a Dx11 is még, úgyhogy jó ez. Nem hiszem, hogy tolonagank a játékgyártók a Dx minden újításáért, amit azonnal implementálni is szeretnének.
Ez olyan, mint a teniszben az adogató előny, ami most az ATI-nál van, nem több.
-
gpatrik
tag
1,5 év után ez mire volt jó? Kicsit halottnak a csók fílingje van a dolognak. Ráadásul akkor már mé' nem DX11? Szegény fejlesztők most gyorsan összedobták a 10.1et, erre csinálhatják a DX11et is, vagy azzal is lehet várnak pár évet, készül az ATI a 12vel, akkor ők kihozzák gyorsan a 11.1et.
-
Az új modellek mindegyike ismeri a HD videók gyorsítását lehetővé tévő eljárásokat
Tehát PureVideo HD és relatíve nagy teljesítmény, kis fogyasztás... szimpatikus.
bartucc:
Aki notin, 17", 15-os lapotopkijelzőn néz 1080p-t, az oylan is.Gyakorlatilag nincs különbség egy 720p-hez képest ekkora kijelzőkön, szerintem. Ez akkor jó, ha kivezeted tv-re.
-
-
t72killer
titán
válasz
t72killer #61 üzenetére
"Az újítás minden bizonnyal kényszerű döntés volt, hiszen a Windows 7 Prémium minősítés megköveteli az előbb említett API támogatását." - nem inkább a DX 11-et kéne annak a karinak támogatni, ami prémium szinten viszi a win7-et? végülis Directx 11 van a windows 7ben, és a prémium SzVSz azt jelenti, hogy minden funkciót hiánytalanul ki tud használni az ember
#62: vagy tudták, hogy idén ősszel uis lesz DX11, minek foglalkozzanak a közbülső állomással?
-
#56573440
törölt tag
válasz
TazLeacher #48 üzenetére
lemaradtak. a játékfejlesztők nem is feküdtek szerintem rá annyira a technológiára, mert hiába írják meg hatalmas kiesés lenne ha csak az ati tulajok vinnék. duplán szpni meg szerintem senki sem szeret.
félreértések elkerülés végett: nem biztos hogy ha nv is kijön időben vele akkor most úszkálnánk a dx10.1-es címekben, de talán komolyabban veszik fejlesztői oldalról is. -
t72killer
titán
SzVSz egy modern játék még 800*1280-ban játszva is eléggé meg tudja izzasztani a mobil játékost, főleg, hogy egy laptopban a rendszer többi tagja sem über-tuning darab, hanem általában egy max 2.5-2.8GHz-es core2, a mobil ramok is lassabbak, stb.
Arra leszek kíváncsi, mikor kerülnek ezek a notikba, jó lenne, ha őszre már ilyenekkel árulnák az új példányokat.
-
t72killer
titán
válasz
venember83 #57 üzenetére
Ezeket 15+"-os notikba találták ki, tuti lesznek kifejezetten low-power megoldások 16 8 streammel, 6-8W alatt...
-
venember83
nagyúr
Kevesebbet fogyasztanak, oké, de a leggyengébb is szinte annyit fogyaszt, mint egy teljes, integrált videokártyával szerelt noti. Ezt azért kicsit soknak érzem még mindig.
-
t72killer
titán
válasz
WilliamGhost #52 üzenetére
Ennyi fogyasztással miért ne? Ma már 28W-ből megkapod azt a teljesítményt, amit 2 éve 100W-ért kaptál egy 8800GTS asztali kari képében.
A 250M különösen tetszik nekem, sacc/kb hozni fogja egy mobility 4850 - GTX 260M teljesítményét feleannyi fogyasztással.
Azért durva, hogy a csúcsdarab, GTS 260M kb annyit fogyaszt, mint a notimban doromboló FX570M, a 3x annyi shader ellenére
(megj.: a noti T9300-as CPU-val, 8cellás akksin 4 órát bír - úgy látszik, elérkeztünk a tényleg mobilis erőgépek korszakába)
-
ZooLee19..
tag
Nahh, itt is volt már az ideje:]
Ez úgytűnik elég erős kis felhozatal lesz notikba.És az az alig 40 watt amit a legerősebb megkajál:] -
WilliamGhost
tag
nah jó ez
..bár notebookba minek erőmű?
-
gfefe
őstag
röhely.... "de csak a GeForce GTS 250M és 260M képes a PhysX technológia futtatására."
most már van dx10.1 , de nincs physx....
-
rocket
nagyúr
-
TazLeacher
nagyúr
Többen írták, hogy "lemaradtak", meg, hogy "végre"...megmondaná valaki, hogy miről maradtak le? Mert lehet nekem maradt ki aza a sok szuper DX10.1-es cím, ami meg se mozdult az nV karikon?
Megmondaná valaki, hogy miben lett volna más a helyzet, ha már 1,5 éve van nekik is 10.1-es karikjuk? Jobban megy a fos Stormrise?
-
eziskamu
addikt
Lehet, hogy hülye kérdés, de tényleg beépítették a 10.1-es funkciókat, vagy a meghajtóprogival hekkeltek valamit, hogy azt is tudja?
-
14adam
addikt
Na végre.Remélem,hogy az Nv felhozza magát,és akkor nagy árcsökkenés lesz
De szép gondolatok
-
leviske
veterán
Azért egy 8800GTS kevés lesz még a RV740 ellen... A HD4770 megfogásához azért nem ártana egy teljes értékű, 128SP-al ellátott GPU, viszont ahogy látom, az új 40nm-es GPU-ba csak 96SP fért bele. (vagyis az, hogy nem adtak ki 128SP-os változatot, erre utal)
Amúgy ezt a GT200 architektúra dolgot nem értem. Arra alapozva a 162SP-s GPU-t kellett volna bevetnie az nVidia-nak, nem? Csak mert úgy rémlik, hogy a GT200-asok kisebb hatásfokkal dolgoznak játékok alatt, mint a G80. Rosszul emlékszem?
-
menalcas
őstag
Nem tudom itt miért vagytok kiakadva ezen a dx10.1 támogatáson, már mint buta kérdés hogy minek meg még butább kijelentés hogy nem kell, mert hát szó ami szó nem fogja mindenki kihasználni, de hát akkor is így is totál lemaradtak ezzel, már mint itt kopogtat a dx11 és még csak most jött ki a zöld dx10.1 elég szörnyű
-
rocket
nagyúr
Az M93 es az M97-re epulo termekeket eddig csak az ASUS-tol lattam, mig az NV 40nm-es mobil GPU-ira epulo termekeket mar a Computexen is jopar ceg mutogatta.
Regen az ATi mobil fronton nagyon eros volt, aztan az R420 utan megindultak a lejton, foleg az R520/R580 idokben (amikbol nem lehetett normalis fogyasztasu es teljesitmenyu mobil GPU-t csinalni) vesztettek sokat, mikozben a szegmens renduletlenul not, jol mutatja mennyire gyengek mobil fronton, hogy az NV meg a problemas G9x mobil GPU-ival se tudta elvenni a gyartok kedvet attol, hogy tovabbra is oket valasszak. (ez mondjuk azt is jelentheti az NV hasonlo uzleti strategiat hasznal mint amiert az Intel nem reg rekord buntetest kapott elso fokon.)Hiaba a nagyon jol sikerult es elonybol indult M93/M97, nem tunik ugy a jelekbol, hogy az AMD valtoztatni tudna a helyzeten.
-
divrapier
tag
a gddr 5-öt valaki elmagyarázhatná nekem. úgy tudtam a jelenlegi architektúra nem támogatja, csak a gddr 3-at, mint ahogy a gtx295 is azzal van szerelve.
-
^Clown
addikt
Jó hír! 250M-et ide nekem
-
kem
addikt
128bit?
-
rocket
nagyúr
GTS250M es a GTS260M mutat valamit mi varhato desktop fronton az RV740 ellen.
-
tzsolesz
nagyúr
Na igen, van már megint egy pár kártya, amit érdemes lenne tesztelgetni.
Pl. 4890 CF, új PCB-és GTX295 (melegedés, zaj, tuningpotenciál az elődhöz képest) 4730, 4790 ilyesmik.
Na meg most már lehetne tesztelni a két gyártó DX10.1-es teljesítményét is notebook téren.
Ajánlanám a Stormrise-t, és a HAWX-t is teszt alanynak.
Ad nektek munkát rendesen mostanában a két gyártó. Csak győzzétek.
cizoe #32:
(már nyomom is a google-t
)
-
Cagm^c
tag
Az átnevezéssel a 4790-re gondoltam. És nem véletlenül tettem idézőjelbe. Mert nem átnevezték, de egy újabb bőr a rókáról. K+F=0
Erről a hírről meg úgylátszik lemaradtam.
Az meg, hogy zöld fan vagyok-e? 2 gépem van, az egyik az adatlapomon, a másik meg egy pumás noti...
-
Ezt is megértük.
Eljutottak idáig is.
Remélem jobb szériái lesznek, mint az elmúlt időszakban. -
Killing
addikt
Végre 10.1
-
FRENK1988
veterán
Nah ezaz. Nem marad az ATi versenytárs nélkül. Árverseny RULZ
-
Ricco_hun
senior tag
Én csak azt nem értem, hogy hipp-hopp hogyan lett az nv-nek 40nm-es, dx10.1-es és gddr5-öt támogató gpu-ja. Ezekszerint mégsem hipp-hopp. Mert régebben arról volt szó, hogy az nv-nek teljesen át kellenne dolgoznia a g80 alapokat (sőt teljesen új felépítés kellenne), ahhoz, hogy a fentebb említett ficsőrök elérhetőek legyenek.
-
juliabrilke
veterán
Szuper! Lehet majd megint új neveket tanulni?
-
mephi666
nagyúr
látom lelki szemeim előtt a gts260m-ekkel szerelt "gémer notikat"... aranyárban... meg ahogy hipphopp leszoppantják az akksikat
nem lesz a közeljövőben 3d-s alkalmazásokra alapozott noti teszt? szívesen megnézném ezeket, hogy mit visznek...
-
Még egy ilyen vidám, örömteli hírt, máris boldog vagyok egész nap. Remélem legalább olyan anyagból készítik őket, amitől nem fognak a túlmelegedés miatt idő előtt elhalálozni.
Ha már ilyen késői dátumra rakták a 10.1 támogatását, sőt még asztali karikon sehol sincs, akkor mikor jönnek a DX11-esek? -
CPT.Pirk
Jómunkásember
Arról van hír, hogy a normális grafikus karijaiknak lesz-e DX10.1-es verziója? Szerintem a jelenlegi szériákból már nem fognak olyat csinálni.
-
tzsolesz
nagyúr
ATI diktál.....
Mondjuk ez tényleg csak muszájból volt...
Intel is beépíti a DX10.1-et? Mert neki is muszáj lesz ám.
-
Xaels
félisten
Helyes. Végre 1jó hír is az nVidia felöl. Csak maradjon meg a verseny a GPU piacon és remélhetőleg ez idejében figyelmeztetés az ATI-nak, hogy nem szabad abbahagyni a fejlesztést és túl sokáig 1 hullámot lovagolni...
-
TTomax
félisten
a textúrázó csatornákra illetve a ROP blokkokra vonatkozó adatok sem derültek ki.
Nesze semmi fogd meg jól,tehát akkor semmit nem tudunk...
-
zuchy
őstag
"Ettől függetlenül örömteli látni, hogy közel másfél év elteltével a zöldek is beépítették grafikus processzoraikba a DirectX 10.1-es funkciókat."
Talán visszatér a 8880GTS G80-as alapokon? 96 SP hm...
(#9) schwartz:
-
schwartz
addikt
Hiijnye, az NV a csucsra tor...
-
Mr.Csizmás
titán
nvidia
-
-
Cagm^c
tag
Fordult a kocka? Az ATi "átnevez" az nV meg elkezdett fejleszteni?
A mobil piacon ezzel nagyot üthetnek. Ennek így több értelme volt, mint a 4770-et kihozni a másik oldalon. -
HERR Z
veterán
-
00roli00
aktív tag
Most mé köll nekik a 10.1
-
Devid_81
félisten
Végre valami jó hír az nVidiáról!
A legerősebb VGA 38Wattja igen baráti érték! -
max-pain
senior tag
Jobb keson mint soha
Új hozzászólás Aktív témák
- BESZÁMÍTÁS! ASUS ROG STRIX SCAR 15 Gamer notebook - i9 12900H 16GB DDR5 1TB SSD RTX 3070Ti 8GB WIN11
- iKing.Hu - Samsung Galaxy S25 Edge Prémium dizájn, AI-élmény a zsebedben 12/512 GB
- BESZÁMÍTÁS! GMKtec NucBox M6 mini számítógép - R5 6600H 32GB DDR5 1TB SSD AMD Radeon 660M WIN11
- KERESEK: Poly Voyager 4320 M UC USB-C 218478-02M Part number: 77Z30AA
- Honor 400 Lite / 8/256 GB / Kártyafüggetlen / 12Hó Garancia
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest