Új hozzászólás Aktív témák
-
Z10N
veterán
Ha ez igaz, ez a konzolport szempontjabol kedvezo valamelyest, hogy mindenhol AMD megoldas lesz. Mas, "X720": ertem en, hogy Turks (480:24:8) egy fel Barts Pro felezett ROP-pal. De hogy a WiiU RV770 (800:40:16) nyers eroben elveri majd az eleg erdekes. Ez a 6x akkora teljesitmeny eleg sovany igy nezve. Egy Barts Pro azert elfert volna 28nm, hogy a fogyasztas se legyen gond. Hamar a GCN-t nem meri az M$ bevallani. Ami pont azert erdekes, mert anno a Xenos ezzel tudott nagyot durrantani. Most pedig lasd PRT/ID Tech5 egyenesen igenyelne ezt. A CC-t pedig beepitenem a XLive Gold-ba, hamar igy is fizetos
-
Egon
nagyúr
A GF4 MX nem volt átnevezés. Ott az volt a baj, hogy a 4-es szám nagyobb a 3-nál, holott technikai tudásban az MX gyengébb volt a GeForce 3 termékeknél.
Viszont amikor megjelent a boltok kínálatában, még javában lehetett kapni a GF3 Ti kártyákat, amik drágábbak voltak, mint a GF 4 MX - innentől kezdve véleményem szerint a júzer sara is valamelyest, ha pusztán a számozás miatt jobb teljesítményre számított, mint amit egy GF3 tudott.
Amúgy meg ha csak a számozást nézzük, pl. a 7300 GT számozása nagyobb a 6800 GT-nél, mégsem hiszem hogy gyorsabb lenne, és biztos az Ati-nál is találni ilyen példát...
Mindketten tudjuk, hogy az előző generáció csúcskategóriáját, a következő generáció középkategóriája szokta "hozni"; az alsó kategória - annak ellenére, hogy értelemszerűen magasabb számozást kap - nem tudja befogni.
Más kérdés, hogy korábban nem volt 3 kategóriára felosztva a vga-piac (a GF FX-ek és a Radeon 9000-res széria vezette be a markánsan elkülönülő alsó- közép- és felsőkategóriát), és míg a GF 2 MX (mint butított kártya) hozta az előző generáció teljes értékű kártyájának teljesítményét (igaz: GF1-ből nem készült butított kategória), addig a GF4 csak a két gerenációval korábbi GF2 magasabb kategóriájának teljesítményét tudta).Biztos hogy megvan a lapszám: 1996-2005 között (de lehet hogy 2006) az összes PC Guru megvan. Ha megtalálom, szívesen lefotózom a cikket, és elküldöm.
-
Abu85
HÁZIGAZDA
A GF4 MX nem volt átnevezés. Ott az volt a baj, hogy a 4-es szám nagyobb a 3-nál, holott technikai tudásban az MX gyengébb volt a GeForce 3 termékeknél. De ez nem átnevezés, csak enyhén szerencsétlen névválasztás.
Ha csak az átnevezés tényét nézzük, akkor a legjobb tudomásom szerint a Radeon HD 9100 volt ez első átnevezett kártya.Az érdekelne engem is. Ha megvan a lapszám mond meg. Hátha megvan az újság.
Akkor még nem voltam itt, de az FX AA-ja valóban nem volt a legjobb. Persze vihar a biliben kategória, mert érzékelhető hátrány nem igazán volt belőle. Voltak ott nagyobb gondok is. A szögfüggetlen Anizo igazából egészen az X1000-ig nem volt. Az kínál először teljesen szögfüggetlen algoritmust. A többi a szögek paraméterével játszott, de technikailag nem mondhatók ténylegesen szögfüggetlennek. Ha nagyon szigorúan nézzük, akkor a HD 5000 volt olyan, ami virágok helyett először kört rajzolt, de ennyire ne hasogassuk a szűrszálakat.
-
Egon
nagyúr
ATI Radeon 9100 volt. A 9200 egy módosított GPU. A 9100 lényegében ugyanaz, mint a 8500. Azért nevezték át, mert a 9000 lassabb volt a 8500-nál, így a termékskálához igazították az elnevezést.
Jogos, rosszul írtam...
Viszont annak örülök, hogy nem cáfoltad a GF4 MX, mint átnevezés cáfolatát, ergo egyetértesz velem...
Valamint leszögezhetjük azt is, hogy - a közvélekedéssel ellentétben- az első átnevezés az Ati nevéhez fűződik (hogy mit nevezünk "indokolt" és "indokolatlan" átnevezésnek, az másodlagos, és némiképp szubjektív).
Akkor kezdődik a baj, ha a képminőség romlik.
Éppen ez az. Emlékeim szerint az általam említett esetben romlott a képminőség is, ha nem nevezted át az ominózus .exe-t, de majd előásom az újságot, ha lesz időm.
A tájékoztatásról: az olyan eseteket látom problémásnak, hogy pl. a GF FX széria esetében, több oldalas cikkekkel ostorozták az nV FSAA képminőségét, addig arról valahogy szó sem esett, hogy az Ati a 9000-res szériában megszüntette a szögfüggetlen aniso-t; ellenben amikor az nV ugyanígy tett a GF 6-os szériában, egyből jött a bírálat...
-
Abu85
HÁZIGAZDA
A TechReport és a Hardware.fr eléggé jelentős portál technikai oldalról. A többség szintén tudott róla, csak annyira gyenge lett a játék, hogy jelentéktelennek érezték, így inkább úgy döntöttek, hogy nem tesztelnek vele, például a kedvelt Anand és a HardOCP pont ezt az elvet alkalmazza. Ez is egy opció természetesen. Mi inkább úgy döntöttünk, hogy leírjuk, hogy miért fut ennyire lassan, és tesztelünk vele.
-
Egon
nagyúr
Na ja; pontosan erre próbáltam meg rámutatni: a vörös oldal sem különb.
Ami A Crysis 2-t illeti: nekem úgy rémlik, hogy azok a bizonyos számítások mindkét oldal kártyáit terhelik, csak ezek - architektúrális okokból - az Ati-kon nagyobb fps-csökkenéssel járnak.
Mondjuk számomra érdekes az is, hogy erről az ügyről - talán 1-2, nem túl jelentős portál kivételével - hallgatott a külföldi online média, mint a sír...Itthon is jobbára csak Abu vergődött rajta keményen...
Nehezen tudom elképzelni, hogy az nV minden (elvben független) oldalt megvett volna kilóra...
Ergo az a történet számomra nem egészen egyértelmű (arról nem is beszélve, hogy inkább tűnik a Crytek, mintsem az nV sarának).
-
Abu85
HÁZIGAZDA
ATI Radeon 9100 volt. A 9200 egy módosított GPU. A 9100 lényegében ugyanaz, mint a 8500. Azért nevezték át, mert a 9000 lassabb volt a 8500-nál, így a termékskálához igazították az elnevezést. Szerintem ez indokolt volt, bár ez relatív. Akkoriban még ment a piac ilyen trükkök nélkül is, szóval nem hiszem, hogy haszonszerzés volt a fő cél. Az indokolatlan átnevezésekkel van szerintem baj, amik mostanában történnek. Például most is, hogy az olcsó mobil GPU-kat átnevezte az AMD és az NVIDIA. Ez felesleges volt.
Mivel a driver rengeteg rutint alkalmaz, így teljesen normális, hogy az exe alapján azonosítja be, hogy mely programhoz milyen rutinokat kell betölteni az előre megírt adatbázisból. Elég régóta így működik. Természetesen, ha módosítod az exe nevét, akkor az alaprutinok töltődnek be. Ez esetenként sebességvesztést eredményez. Minden GPU-hoz írt driver ilyen. Ez nem baj, mert világos, hogy nem lehet egy rutinnal kiszolgálni több százezer alkalmazást. Akkor kezdődik a baj, ha a képminőség romlik. Erre a GeForce FX esetében volt először példa, amikor az NVIDIA nem támogatta a DX9 24 bites precizitását. Az FX 16 és 32 bites módot támogatott. Na most 16 biten rosszabb volt a képminőség, míg 32 biten rossz volt a sebesség. Dönteni kellett. Tudjuk mi mellett döntöttek.
A specifikus optimalizáció nem gond. Manapság is alkalmazzák, hiszen látod, hogy folyamatosan nő az egyes alkalmazásokban a driver sebessége. Ezt az exéhez kötött rutinokkal lehet elérni, ami normális, csak az ne rontsa a képminőséget. Még a globális optimalizációkat érdemes megjegyezni. Ezek sem jelentenek gondot, csak tegyék kikapcsolhatóvá a driverben. Erre is elég korrekt megoldások vannak. Szinte minden kikapcsolható. Egyedül a DX9 alatt elérhető FP16-os HDR cseréje nem egységes a konzoloknál alkalmazott R11G11B10-re. Ezt mindkét cég alkalmazza a Dawn of War 2, az Empire Total War, a Need for Speed: Shift, az Oblivion, a Serious Sam 2 és a Far Cry című játékokra, de csak az AMD teszi kikapcsolhatóvá. Persze akkora gondot nem okoz, mivel eleve azért cseréli a driver a HDR-t, mert a játékot a konzolon R11G11B10-re szabták. Ezzel közel azonos képminőség mellett sebességet lehet nyerni. -
wsh13
tag
Nyilván mindegyik cég megéri a pénzét, hiszen profitorientált vállalkozások, ebbe pedig sok minden belefér. Tök felesleges bármelyik cég mellett érzelmi alapokon érvelni, de felesleges ugyanilyen alapon lehúzni, vagy utálni is bármelyiket. Ha meg lehet csinálni, hogy átnevezett kártyákat árulsz, mert a user még azt is boldogan megveszi, akkor ki a hibás? Hogy csalnak a tesztekben, az szintén nem akkora újdonság, és a PC-piac szinte minden szereplőjére jellemző, hogy kedvezőbb színben szereti feltüntetni a saját portékáját. Aztán hogy ezt ki, hogy éri el (pénzzel, "csítelt" driver-ekkel, vagy bármi mással), azt meg cége (és lehetősége) válogatja. A mostani legérdekesebb húzás (legalábbis számomra) az NVidia szponzorálta Crysis 2, amelyben ugye tök felesleges számításokat végeztet a játék az AMD kártyáival, mi több egy virtuális ócánt számolnak a Radeon-ok, aminek semmi értelme. Nonszensz. Ez mondjuk elég gusztustalan az nV részéről, bár jól jellemzi a Crytek-et is. Akiknek emellett még van pofájuk sírni a warez miatt.
-
Egon
nagyúr
Nem...
Ez a baj, hogy sokan abszolút tévedésben vannak (és érdekes módon, míg az AMD-vel kapcsolatban felmerülő "vádak" ellen a végletekig harcol a szerkesztőség egynémely tagja, a triviális téveszméket nV-fronton valahogy nem sietnek eloszlatni...).
A GeForce 4 MX nem átnevezett kártya. Egy új fejlesztés (NV17-es kódjelű GPU; a GF2-n NV15, a GF3-on NV20 volt), ami a teljes értékű GF2-k teljesítményét hozta, ennyi. Természetesen lehet kritizálni, hogy visszavetette a fejlődést, mivel csak a DX7-et támogatta (nuku shader modell, ennél már a GF3 is többet tudott), de attól még nem átnevezett chip volt. Beépített video enkóderrel rendelkezett (ilyen sem volt a GF2-ben, de a GF3-ban és a nagytesó GF4 Ti-ben sem), és pár fícsört kapott a teljes értékű GF4-től: LMA II, nFiniteFX II. Amúgy abból is látszik, hogy egész más chip döcögött a kártyán, hogy annak ellenére hozta a GF2 teljesytményét, hogy fele annyi pixel pipeline volt a kártyán (jóval nagyobb órajellel ment).
Az első átnevezett kártya az Ati Radeon 9200 volt (valójában 8500LE).Az NFS 3-ra gondoltál? Ott nem emlékszem hogy lett volna ilyen (Glide alatt volt pl. köd meg mittudomén, D3D alatt nem, de ez nem csalás). A köztudatban az nV 3DMark-os csalásai maradtak meg - pedig az Ati már korábban előadta, mégpedig a Quake 2-vel (a quake2.exe-t átnevezve és úgy futtatva, jól leesett az fps...). Erről többek között a korabeli PC Guru számolt be.
wsh13: erről beszéltem...
-
Egon
nagyúr
Ebben benne van az online sajtó is rendesen.
Találós kérdések: melyik cég követtel el az első driveres csalást (gyengébb képminőség, cserében magasabb fps értékek), és melyik programban? Melyik cég nevezett át először vga-t (azaz adott ki ugyanolyan chippel szerelt vga-t más (természetesen magasabb számozású) névvel, és melyik volt ez a vga? -
Egon
nagyúr
Egyszerű júzer szemszögéből lehet hogy nem, de egy olyan pozícióból, ami elvileg nagyobb rálátást jelentett a trendekre, szerintem igen. A DirectX nagyon durva sebességgel fejlődött, és nem mellesleg működött kb. az összes korabeli hardveren, míg a Glide csak a 3dfx kártyákon (márpedig akkoriban nem kétszereplős volt a vga-piac: a VooDoo 2 kortársa volt a TNT1 mellett az S3 Savage 3 (vagy 4?), a Matrox G200 és még az Intel i740 is...).
De tényleg nem akarok tovább offolni... -
Löncsi
őstag
-
Egon
nagyúr
1998-ban még valóban nem, de a trend (a DirectX, pontosabban a D3D térnyerése) már 1999-ben világosan látszott, elég volt csak a népszerű, minden évben megjelenő EA sportjátékok (pl. FIFA) 3D-s API támogatását megfigyelni: míg a Fifa 98 csak Glide-ot támogatott (utólag jött ki rá D3D-s patch, de nem igazán jól működött), addig a Fifa 99 már natívan támogatta mindkét API-t, a Fifa2000 pedig már csak D3D-s volt...
Ha ehhez hozzávesszük a már említett, folyamatosan meglévő felbontás- és színmélységbeli hendikepet, szerintem fejlesztőként (a mezei júzertől nagyobb rálátással a meghatározó folyamatokra) lehetett látni a véget...Nekem kizárólag nV-s kártyáim voltak eddig (illetve egyszer, a nem túl szép emlékű FX széria idején váltottam Ati-ra). Az első egy Riva128 volt: azért vettem meg a Voodoo1 helyett, mert egyrészt volt benne egy gyorsnak számító 2D-s rész (haverom valami S3 kártya + Voodoo kombóval nyomult; olyan lassú volt 2D-ben Windows alatt a gépe, hogy a fejemet fogtam), nem volt 640*480-ra limitálva a felbontása, mindemellett egy árban volt a két kártya.
Nem véletlenül vált népszerűvé az nV, bár tény és való: ők is elqrvultak valamelyest (nem mintha a konkurencia nem tett volna ugyanígy: csak valahogy az kevésbé került bele a köztudatba).
Abbafejezem, mert ez itt off... -
1998-ban nem így volt és ez volt akkor a munkám. Ezért kaptam a fizetésemet. A kollégának azt próbáltam meg ecsetelni hogy én nem holmi Glide játékos meg 3DMark ponthuszár multam miatt sirattam a 3dfx megszűnését. Sajnos sokan még vagy fiatalok voltak akkor és nem élték meg azt a világot vagy már akkor is a konkurrens megoldásokat támogatták. Én pl. 2001-ben ATI-ra váltottam és teljesen abbahagytam emiatt a programfejlesztést.
-
Egon
nagyúr
Erre hosszan tudnék reflektálni, de mivel nincs kedvem/időm írni, csak annyit jegyeznék meg, hogy
1. a Glide API a kezdetektől fogva halálra volt ítélve (mint minden nem platformfüggetlen dolog ebben az iparágban, lásd Abu véleményét a CUDA-ról),
2.nem az nV tehet arról, hogy a 3dfx életképtelennek bizonyult (egyébként is a fejlődés gátja pont a 3dfx volt: a konkurenciához képest rendre alacsonyabb felbontás és színmélység, textúraméret, generációkon keresztül),
3. miért vittek volna tovább egy életképtelennek bizonyult termékvonalat, saját maguknak állítva konkurenciát?
Egy tök racionális üzleti döntést hoztak, ezért őket kárhoztatni meglehetősen irracionális. -
Vannak dolgok amire az eltelt idő sem jelent feloldozást. Még 1998-ban amikor elkezdtem beleásni magam a Glide API-ba és azokra modulokat fejleszteni. Ekkor körvonalazódott bennem hogy a 3dfx világa lesz az egyém a későbbiekben. Tulajdonképpen 1997-től 2001-ig csak Voodoo kártyák voltak a gépeimben V1-től V5 5500-ig bezárólag amikért mai szemmel nézve is rengeteg pénzt adtam ki mert az volt a munkám része. Aztán jött egy dötnés 2000 Decemberben ami derékba tört mindent amit addig felépítettem. Nem volt sem további support, sem további HW-ek, még a folymatban lévő GLIDE projekteket is amikben én is részt vettem de facto törölték. Akkor megfogadtam hogy soha az életben nem fogok nVidia terméket tartalmazó HW-t venni. Ez azóta is tart és azóta is érvényben van és ahogy elnézem meg is marad, pedig 2002-2005 között nagyon is rezgett a léc.
A lényeg hogy én nem úgy "siratom" mint mások hanem nekem a döntés a munkámat törte derékba akkor és eltelt egy kis idő amíg helyre tudtam igazítani. Én akár 20 év múlva sem fogok másként gondolni erre mint most ennyi év után. A rossz emlékeket nem olyan egyszerű kitörölni.
-
wsh13
tag
válasz
Sennalacy #99 üzenetére
Tök felesleges lenne a 7970 egy konzolba. Minek? Mivel konzolos játékot csak arra az egyetlenegy hardverre kell fejleszteni, nem pedig 100 különböző konfigra, mint a PC esetében, így maximálisan ki tudják használni annak az egy hardvernek minden egyes paraméterét. Nem kell foglalkozni azzal, hogy fusson mindenen, így a végletekig lehet optimalizálni a játékot az adott konzolhoz. Ráadásul konzol fronton nem is cél a minél nagyobb FPS, mint PC-n. Elég a 30 is. Ebből következik az, hogy minek a méregdrága 7970 a konzolba, ha kisebb GPU is elég. 7 év telt el az X360 megjelenése óta, és még mindig nem lehet rá azt mondani, hogy annyira ronda lenne a játékok grafikája. Az átlag konzoljátékost hidegen hagyja a grafika, az FPS meg pláne. Megveszi a játékot, berakja és játszik. A másik oldalon meg csilingel folyamatosan a pénztárgép, ilyen, úgymond elavult hardver mellett is. Akkor minek is tegyen pl. a Sony 500 $-os 7970-et a PS4-be? Hogy fűtsön is a konzol télen?
-
vhunor
őstag
válasz
Sennalacy #99 üzenetére
Gondolj bele kicsit, hogy a kb. 500-600 dolláros piacra dobáskori árba belefér-e egy 7970 szintű GPU ára, és meg tudod-e oldani kis helyen csendben a megfelelő hűtését. A francnak kell egy 300W hőt termelő zúgó valami a tv alá a nappaliba. Tömegtermelésnél amúgy sem úgy megy, hogy fogod mindenből a legdrágábbat, legjobbat aztán hajrá. Milliónyi szempontnak kell megfelelni, ebből csak egy (igaz fontos) a teljesítmény.
-
vhunor
őstag
Nemtom, nekem sosincs hiányérzetem amikor átülök a PS3 elé, bár tény, hogy főleg exkluzív címeket tolok rajta, és egy Uncharted 3 vagy Infamous 2, Last of Us grafikai szinttel én bőven elégedett vagyok, tőlem lehet ilyen 2020-ig is. 7-8 éve nagyon elcsúszott valami, megy az egyszerűsítés, a "steamline-ing", közben MI, fizika, játékmechanikai megoldások, ötletek terén egy kalap szárított molylepkét sem ér a játékok nagy része, futószalagon öntik a szart a nyakunkba, a mobilos 1 dolláros tapiszarok meg csak gyorsítják a folyamatot. Minden játék az arcodba tolja a hinteket 84-es betűmérettel, villogva, hogy ezt nyomd ha répát akarsz hámozni, azt ha káposztát ültetni.
Meg kell nézni a Wii 1st party címeket, a buta 480p-re képes hardveren milyen nagybetűs JÁTÉKok vannak.
-
Sennalacy
aktív tag
Meg tudná világítani valaki számokkal, hogy miért elég egy 6670 egy közel 10 éves élettartamra tervezett nextgen konzolba? És mennyivel lehetne gyorsabb egy 7970-el? Máshol van a szűk keresztmetszet? Az előző generációnál évekig tartott mire a PC felzárkózott, azóta csak visszafogják a konzolok a PC-s fejlődést is, ezért látom problémának, ha egy ilyen gyenge GPUval szerelt költséghatékony változatot dobnak piacra. Nem merik a lehető legjobb hardvert összedobni, mert félnek, hogy túl jó lesz és 10 év után sem cserélik majd le az emberek? Komolyan nem értem ezt.. Őszintén szólva kissé hányok ettől a filozófiától minden területen PC-nél is, hogy csak annyival legyen gyorsabb, amennyinél már megéri váltani, nem annyival amennyivel a jelenlegi tudásunk engedné.
Egy 7970-el drágább lenne a konzol? Nyilván, bár a nagy mennyiség miatt javuló kihozatallal szerintem nem annyira, és ha jól sejtem ott valóban gurulna mindenkinek az álla a nextgen látványtól de így.. pláne ha még a 1080p helyett 4K-t veszünk, és 3D-t.. mert a megjelenítők erre haladnak.. -
TESCO-Zsömle
titán
Ha egy kicsit eljátszunk a gondolattal, hogy a PS4-be a Sony 1:1-be bevállalná a Kaverit* (Vagy mondjuk egy Piledriver*+GCN kombót, elvégre konzolnál az is megjátszható), abból legkorábban mikorra lehetne konzol?
Beleférne ez, ha a PS4 megjelenését ~1 évvel későbbre időzítik, mint az x720-ét?Mert ugye konzolnál nem okoz gondot olyan gyors RAM-ot integrálni az APU köré, ami már nem jelent szűk keresztmetszetet, szemben az asztali vonallal, ahol a DDR3 keményen korlátoz.
A Fusion-nak biztos nagyon nagy lökést jelenthetne, ha az egyik konzolba nem csak AMD GPU, hanem egyenesen egy Fusion-APU kerülne.
És vajon győznék gyártósorral az asztali és mobil vonal mellett a konzolokat is etetni?
* - Értelem szerűen a 'konzolosításhoz' megfelelő változtatásokkal.
-
wsh13
tag
Ezt értem, de ez sajna a lényegen nem változtat. Ebből az egyszeri user-nek csak annyi jön le, hogy a PS3 szarabb grafikailag, mint az X360. Miért?? Ja, mer' szarabb az nV GPU, mint az ATI. Az indokok nem érdeklik. Természetesen PC fronton ilyen különbség nincs, a két cég jó pár éve nagyjából egyenlő teljesítményre képes. Mindössze annyi a történet, hogy az nV-nek a PS3 projekt nem jött be annyira, mint az ATI-nak az X360. Persze lehet, hogy ennek folyományaként kacsingat most a Sony is az AMD GPU felé. Ettől még PC-s vonalon semmivel nem gyárt gyengébb kártyákat az AMD-nél (eddig legalábbis).
-
Abu85
HÁZIGAZDA
Ez egy nagyon érdekes dolog. Nyilván mindenki ismeri nagy vonalakban a sztorit, de azért megnézném a Sony-nál, hogy kinek jutott eszébe, hogy emulálják a textúrázást.
Az egész egy vicc volt. Jó a Cell, de nem mindenre. Azért nem nehéz megmondani, hogy a textúrázás emulálása egy nagyon komplex és erőforrás-pazarló folyamat, így már az elején látni kellett volna, hogy ez nem lesz jó.
-
vhunor
őstag
Az RSX alapvetően nem az NV miatt lett olyan amilyen, hanem a Sony kései felismerése miatt, hogy a Cell mellé mégis kell egy diszkrét GPU. Ennyire futotta a B tervből.
szerk.: azt én is
. De a tavalyi év alapján lassan el is hinném, hogy ilyen megtörténhetett (kódolatlanul tárolt milliós felhasználói adatbázis ugye...).
Arra is kíváncsi lennék, hogy olyan PS3 exkluzív címek, mint az Uncharted 2-3, God of War 3, Infamous 2, megvalósíthatók lennének-e x360-on ugyanolyan grafikával, esetleg fizikával (Infamous).
-
M@trixfan
addikt
Egyetértek. A két nagy gyárótól én is elvárom a csúcsot. Ez a 6670 sehogyan sem fér a fejembe nekem sem. Ez így olyan mintha még mindig 720p-re terveznének. Egy nextgen géptől az 1080p 60fps teljesen elvárható. Az 1080p-vel is egyetértek, projektoron is tökéletes. Egyébként az Eyefinity sem ér túl sokat ameddig nem lehet az oldalsó monitorok szögét beállítani Catalyst-ban, hogy helyes perspektívában nézhess oldalra.
-
Abu85
HÁZIGAZDA
Különbséget kell tenni a konzol és a PC között. Az RSX egy kismiska a Xenoshoz képest, de a PC az más. PC-n pont, hogy a GeForce 7 volt jobb, mert a kortársnak számító X1000 nem támogatta normálisan a VTF-et. Ettől persze itt is gyenge volt a dynamic branching, ami az UT3 megjelenésével keményen letolta a GeForce 7900 GTX teljesítményét a Radeon X1600 alá, de az ATI például nem támogatta a VTF-et. Persze az MS-nek a keze is benne volt, mert nem írtak elő kötelező formátumot a vertex textúrázásra, így a szabvány elfogadta az ATI R2VB eljárását is, csak ugye egy fejlesztőnek ez nem jó helyzet, mert ha vertex textúrázni akar, akkor van két eljárás, amire ki kell dolgozni egy-egy kódot. Ez erősen korlátozta az egész terjedését, pedig a vertex textúrázás eléggé jó fícsőr volt. Talán a legnagyobb előrelépés a DX9.0c-ben. Azóta persze a DX10 már jóval jobb specifikációt használ, így konkrétan előír formátumokat. Ez nagyon értékes reform volt az MS-től, mert így nem fordulhat elő, hogy egy gyártó félreértelmezi a szabványt.
-
wsh13
tag
Az évekkel lemaradást gondolom a PS3 GPU-ra értette a kolléga. És ebben igaza is van, az XBOX360 ATI/AMD GPU-ja lényegesen jobb/fejlettebb/gyorsabb volt a PS3-ban lévő nVidia megoldásánál. Ebből a szempontból pedig teljesen irreleváns, kinek mekkora adóssága van. PS3/Xbox360 GPU-k viszonylatában jobb volt az ATI, és ennyi.
-
cszn
őstag
Igen. Ez a része rendben van. Csak arra gondoltam naivan, hogy valamilyen módon ilyenkor még csak előre dolgoznak a fejlesztők, emulálás, korai tesztverziók meg egyéb kutyafüléknek köszönhetően.
(#83) Löncsi Itt arra célozott, hogy a 8-as széria előtt nem voltak valami innovatívak.
-
-
-
Abu85
HÁZIGAZDA
Egy konzolnál ez nem így megy. Ha 2013 vége a tervezett megjelenés, akkor már most működnie kell egy prototípusnak, illetve a rendszert az elmúlt év elején emulálni kellett a fejlesztőknek. Emellett egy évvel a start előtt konkrétan kész gép kell a hardver oldaláról. Ezután már csak a hűtésen változtatnak, és kialakítják a külső dizájnt.
Nagyjából négy évvel a megjelenés előtt tudni kell, hogy a konzolgyártó mit akar, mert a szoftverekhez ez nagyon fontos. Két évvel a megjelenés előtt működő prototípus kell a fejlesztőknek. -
Abu85
HÁZIGAZDA
Elég nagy felelőtlenség egy konzolt úgy magasztalni, hogy nincs benne a technológiád. Ilyet egy cég nem tesz, mert azzal a konkurens technológiáját erősíti.
Éppenséggel az AMD kezdte meg a Cloudos dolgot. [link] Azóta van konkrétan ide tervezett szerver is: [link]
Na most az AMD látva a játékosok számára nem éppen kedvező negatívumokat, mint a képminőség és a lag ... annyira már nem hisznek benne mint régebben. Inkább az API-k eldobásában látják a megoldást. A hardverrel persze támogatják a cégeket, mert ha már kifejlesztették, akkor el lehet adni a szervert, de a konkrét fejlesztési pénzeket ezen a vonalon visszafogták. A Fusion Render Cloudot persze frissítgetik új hardverekkel, de ez minimális költség, hiszen az alapok kompatibilisek az új Opteronokkal, és a PCI Express is fogadja a legújabb VGA-kat. Cloud (és itt nem csak a játékról van szó) az Opteronoknak értékes terep, mert sok mag van a processzorokban, vagyis sok virtuális gép igényét tudja kiszolgálni egyetlen szerver. Itt a több mag szimplán több virtuális gép kezelését jelenti.Az világos, hogy az AMD elzárta a pénzcsapot az OTOY elől, így mára csak szimpla technológiai partnerek. Utóbbi az OTOY számára fontos, mert a hardver az alapja a rendszereknek, így érdemes mindenkivel partnerkedni. Még az Intellel is partnerek, noha az Intel inkább a Gaikai-t támogatja anyagilag. Az OTOY új fejlesztési partnere az NVIDIA lett. [link]
-
vhunor
őstag
A mai csúcskategória túl sokat fogyaszt ahhoz, hogy konzolba kerülhessen. Amúgy csak meg kell nézni, hogy nyers erőben és képességekben mekkora különbség van az RSX/Xenos és akár egy HD 6670 között és el lehet képzelni, hogy direkt programozással mit lehetne kihozni a gyengusnak gondolt GPU-ból.
-
-
Egon
nagyúr
Túl sok a spekuláció.
Az, hogy egy adott újgenerációs konzolról melyik cég nyilatkozik először, számomra nem jelenti automatikusan azt, hogy a nyilatkozó cégtől fog származni bármelyik részegység.
Ezen az alapon, az nV jelentette be elsőként, hogy nagy fantáziát látnak a cloud computing-ban játék oldalról, és minő véletlen, a Sony is ebben látja a jövőt - máris lehet kombinálni... -
nem mondom, hogy 7970 kell konzolba, de azért a 6670 nagyon a "másik vég"
(persze tudomén, hogy ez utóbbi csak pletyka, de jó lenne ha konzolba előremutató cucc kerülne (gcn), nem pedig valami régi, de olcsó alsókategóriás cucc)
szvsz az "1080p/4xAA mindenre elég", uhd csak vakítás (játékokhoz, emberi szemhez) és tömegigény talán sose lesz rá
-
az a gond, hogy a 6x gyorsulás semmi. az 1080p, a 3D (igénye) ezt szinte önmagában el is viszi, de akkor mi marad a jövőre? 2013-as rajt mellett ennek a hardvernek kellene helyt állnia 2020-ban - nos ebbe igencsak rossz belegondolni, miközben 1 hónapja kapható a GCN-es 7970
az előző generációs konzolok talán sosem voltak ennyire lemaradva
-
lovagolhatunk a szóhasználaton, de ha belegondolok, hogy egy xenos szintű gpu mellett mit tudott volna kihozni a ps3ból a <tetszőleges sony belsős fejlesztő>, kissé mérges leszek a geforce7re*...
az nvidia évekkel volt lemaradva, csak a piaci részesedése kihúzta a
sz..bajból, de a mi szemszögünkből tisztán csak visszafogták a fejlődést. a korábban innovatív cég a geforce7 idejére maga lett a 3dfx*jöhet a kötekedés, hogy geforce8 így meg úgy
-
Sennalacy
aktív tag
Mire elég az X720nál rebesgetett AMD proci? Olyan becsléseket láttam, hogy 6x lesz gyorsabb mint a 360.. kérdés, hogy miben? A GPU elég gyengének tűnik a PC-s csúcskategóriához képest, ami első ránézésre meglehetősen szomorú.. de ilyen játékkihozatal mellett nem is csoda, hogy nem akarnak erősebb hardvert összetenni, mert már nem a PC a fő ellenfél, hanem a laptopok és okos telefonok. Szégyen, de megjelenik az Angry Birds PC-re is egy mai hír szerint..
Komolyan mondom anno amikor kijött a Quake megkérdezték volna, hogy hova várom a XXI. század második évtizedére a játékokat, nem egy platformos 2D-s "csoda" jutott volna eszembe, hanem inkább a Diablo renderfilmjeinek a szintje.
-
Én világ életemben anti nVidia ember voltam, legalábbis 2001 December óta mindenképp, de most már elkezdek kicsit aggódni miattuk. Ha néhány éven belül nem tudnak semmi komoly beszállítói szerződést produkálni akkor könnyen nehéz helyzetbe kerülhetnek mert nem lesz miből kifejleszteni az újabb technológiákat. Ez nekem mint kizárólagos AMD-s vásárlónak annyiból rossz hogy idővel nem lesz vetélytárs akit így vagy úgy de felül kell múlni.
Az a véleményem hogy a HPC szegmens és a Tegra széria önmagukban nem fogják eltartani a céget, nem beszélve az egyre szűkülő dVGA piacról... -
Abu85
HÁZIGAZDA
Nem a leszarozásról van szó. Ez csak egy szóhasználat. Ismerni lehet a hibáit, és látod, hogy mennyire építenek arra a fejlesztők, ami pont nem megy neki. Erősen kérdéses, hogy 800 pixeles minták mellett mi értelme van a dynamic branching alkalmazásának. Ez a technológia 128 pixeles minták mellett kezd hatékony lenni. A mai GPU-k rendre 64 pixeles mintákkal dolgoznak, ami elég jó, de a Xenos 16 pixelje ennél is hatékonyabb. Na persze figyelembe kell venni, hogy a 16 pixel csak akkor jó, ha van mivel elfedni az elérési időt. Ezért is ideális egy normál PC-s GPU-ban a 64 pixel, ami manapság általános lett. 32 pixelig talán le lehet menni, de nem mindig előnyös. A Xenos esetében azonban a direkt programozás ezen sokat segít.
Alapvetően minden viszonyítás kérdése, de a Xenoshoz képest az RSX egy erősen korlátozott képességekkel rendelkező rendszer. Persze ezen nem kell csodálkozni. Az architektúra alapja időben jóval korábbi fejlesztés, még ha a PS3 később is jelent meg. Ráadásul a PC-ben nem szokás nagyon előre tervezni, miközben az MS-nek konkrét igényei voltak a Xenosszal kapcsolatban. Ezért nem jó vészforgatókönyvben gondolkodni. A Sony későn jött rá, hogy a Cell önmagában nem lesz elég. -
Abu85
HÁZIGAZDA
Technikailag igaza van. Azt nem mondanám, hogy a GPU egy hulladék, de ha mondjuk nem rakják ki a fejlesztők az SPE-kre a dynamic branchingot, akkor szar lesz a teljesítmény. Ez a PS3 fő problémája, amire nagyon kell figyelni.
Van hasonló gondja persze az Xbox 360-nak is. A fő fegyvere a Xenosnak az EDRAM, ami 10 MB-os, és marhagyors 256 GB/s-os tempóra képes. Ez nagyon gyorssá teszi az AA-t, ami kedvező a fejlesztőknek. Egyedüli gond a kapacitás, mert deferred render esetén egy 720p-s képkocka 2xAA-val már 14 MB a color és a depth targetekkel. Ilyenkor a fejlesztők tilingot alkalmaznak, vagyis szeletekre osztják a képet. Ez egyszerűnek hangzik, de néha tiszta szopás. SSAO-nál ugye a mélységpufferre kell alapozni, de maga az eljárás eleve túl költséges, így trükköznek a fejlesztők. Kevés mintát vesznek és összemossák az eredményt a felbontás felén. Ez persze egy új render targetet követel, ami nem lehetséges. Erre a megoldás, hogy a back buffer tartalmát használják fel a mélységinfók kinyerésére, ami szar dolog, mert az effekt az előző képkockáról lesz számolva, viszont gyors, és alig észrevehető.
Minden konzolnak megvan a maga nyűgje, de tény, hogy az Xbox 360 felépítése egy multiplatform címnél jóval kedvezőbb. Kevesebb problémát kell leküzdeni. Exkluzív címnél persze ez nem lényeges, mert eleve úgy tervezik az egészet, hogy a konzol képességeihez illeszkedjen. -
Prof
addikt
Na vajon belegyömöszölnek egy hd7970 CF-et
-
Srodney
senior tag
én örülök az amd térnyerésének,abból a szempontból hogy így több pénz jöhet össze és hátha csak egy kicsit is ráléphetnének az intel tökére cpu ügyben,de azért ne szállítson már mindenhova,verseny is kell meg összehasonlítási alap hogy mi mihez képest mennyire relatív.
-
Ł-IceRocK-Ł
veterán
válasz
TESCO-Zsömle #45 üzenetére
És mellesleg ha így lesz, a felhasználók szemében is pozitív dologként fog elkönyvelésre kerülni.
-
TESCO-Zsömle
titán
válasz
Ł-IceRocK-Ł #42 üzenetére
Az AMD valszeg pozitívan áll majd a dologhoz. Számukra ez fegyvertény a "nagyokkal" szemben.
-
powergoku
tag
Támogatom az amd fejlesztőket.
De ez még szerintem egy kicsit odébb lesz.
-
Ł-IceRocK-Ł
veterán
válasz
TESCO-Zsömle #37 üzenetére
Ezzel lehet még igazán megbolygatni a dolgot. Kiváncsi vagyok hogy fognak ehhez a dologhoz hozzáállni.
-
dahneey
tag
Nem lenne hülyeség ha mindhárom konzolban AMD GPU lenne, sokkal könnyebben menne a portolás.
Ez most csak spekuláció a pletykák alapján:
Szerintem a PS4-ben már GCN lesz, ellentétben a másik kettővel. Ha jól emlékszem (és ha normális forrást olvastam) az új XBOX-ban Turks, a Wii U-nál viszont RV770 lesz. Érdekes, mert eszerint a Microsoftban nem APU lesz, mivel azokban a legjobb esetben is csak Redwood van. Ez valószínűsíti hogy ténylegesen AMD és IBM kooperáció lesz. Ennek ellenére a Turks még mindig furán hangzik, mivel nem hinném hogy a Microsoft a Nintendo alá lőné be a hardvert. Ráadásul hülyék lennének véletlenre bízni, mivel tudják hogy a későbbi PS4 start megint kontrázhat egyet. -
moli.hu
őstag
Maga a felhős modell nem zárja ki az exkluzív tartalmakat, hiszen a szerver oldalán korlátozni lehet a hozzáférést az adott programhoz.
most direkt egyszerusiteni fogok, de egy user-agentet mennyi ido athekkelni?
direkt egyszerusitettem. -
Apika
addikt
Az számomra sem szimpatikus, hogy elsődlegesen a felhős szolgáltatást alkalmazzák...
-
TESCO-Zsömle
titán
-
mikej95
aktív tag
Szép, eddig csak azt hittem az új XBox-hoz fog szállítani, erre olvasom lassan mindenkinek az AMD szállít.
-
vanye
senior tag
Az elterjedtség még nem feltétlen áll egyenesen arányos a jobb minőséggel. A Fusion APU-k már mióta piacon vannak, aztán érdekes, hogy noteszgépekben csak mostanában találtak utat a pl. a MM-hoz. (Bár ettől függetlenül az emberek még mindig inkább az Intel neve mellett tesznek hitet.)
-
he7edik.
addikt
válasz
TESCO-Zsömle #31 üzenetére
Esküdni mertem volna hogy R500 kódnéven futott a Xenos.
-
Ł-IceRocK-Ł
veterán
válasz
TESCO-Zsömle #29 üzenetére
Szóval a driver majd eldöntheti a dolgot. Ez így nagyon jó, mert akkor ahogy írtad is minek eldobni a kártyát, ha egy diver frissítéssel akár meg is oldható a dolog. Más kérdés az hogy, a régi dx 11 es kártyák és a GCN között milyen szempontokat kell figyelembe venni a driver megírásakor.
-
Abu85
HÁZIGAZDA
Nevezzük inkább Xenosnak. De technikailag valóban közelebb áll az R600-hoz.
-
TESCO-Zsömle
titán
-
he7edik.
addikt
válasz
TESCO-Zsömle #29 üzenetére
Pontosan az R520 variáns (R500) az van a boxban.
-
TESCO-Zsömle
titán
Ilyen jellegű információ még pletyka szinten sincs. Azt az egyet lenet biztosan tudni, hogy a Sony (ahogy korábban a Cell-el is) úgy most is már HW szinten felül akarja múlni az X720-at. Ezt azonos chippel nem fogják tudni elérni, ráadásul a PS4 később jön, szóval még van idejük várni. Az X720 a pletykák szerint már jóval korábban összeállt HW-esen, már gyártják bele a GPU-t. A PS4-nél reálisan nézve is beleférne a GCN architektúra.
És ne feledjük! Annak idején az X360-ba az R600 elődjét pakolták. Azt az architektúrát, amivel az AMD sikeresen fordított, és bejött nekik. Logikus lépés lenne a Sony-tól, ha megjátszaná ugyanez. Ekkora tételnél az AMD-nek semmibe nem tart egy a jelenlegi legkisebbnél gyengébb GCN alapú GPU-t összehozni...
Ł-IceRocK-Ł: Az új technológiák terén igen, de ugye a DX lényege a visszafele kompatibilitás, tehát csak attól, hogy egy játék DX11.1-es, nem kell fejvesztve eldobni a régebbi VGA-kat. Ráadásul -tudtommal- a VSC DX verzótól függetlenül is működik a DX11.1-ben, tehát a DX11-es kártyák alatt is futhatnak spéci kódok, ha a gyártók úgy akarják és a kártyák is képesek re. Ez innentől kezdve driver függő, mert nem a kártya mondja majd meg a DX-nek, hogy "képes vagyok rá, had jöjjön".
he7edik.: VLIW-nél nem is volna sok, de egy GCN-nél, amit kifejezetten a Bulldozer 'bal veséjének' szántak, bele az Integer magok helyére, már elgondolkodtató lenne a hozzá fejlesztett CPU-architektúra alkalmazása egyetlen APU-ba gyúrva a kettőt.
Asztali fronton a Kaveri ezt 2013-ban fogja megtenni és a Trinity-t váltja majd le.
Az X360-ban másfél évvel előbb jelent meg az R600 alapját adó architektúra, mint a piacon Radeon VGA formájában!
-
Abu85
HÁZIGAZDA
A unified shader talán nem olyan érvágás egy konzolnál, mert erősen lehet építeni a hardver képességeire. A fő baj szerintem az RSX-szel az volt, hogy a dynamic branching 880 pixelre volt végezve, míg a Xenos 16 pixellel dolgozott. A hatékonyság itt összemérhetetlen. Az Xbox fényévekkel jobb volt, és ez a modern grafikában nagyon számít.
Jó megfigyelés ... pont az UE3 a nagy dynamic branching kedvelő. Emlékszem, hogy amikor megjelent az UT3, akkor az új DX10-es kártyáknak jól ment, de a régi X1000 és a GeForce 7 esetében egy pite X1600 elvert egy GeForce 7900 GTX-et. Ez tipikusan a dynamic branching hatékonyságára vezethető vissza. -
he7edik.
addikt
Nem úgy tűnik:
"A PSM3 magazin legutóbbi számában belsős forrásokra hivatkozva azt találta írni, hogy a PlayStation 4 némileg erősebb lesz, mint az Xbox 720. Azt is tudni vélik, hogy az Xbox 360 utódja valamikor 2013 végén kerülhet piacra, míg a következő PlayStation csak hónapokkal ezután jelenik majd meg."
-
Geller72
veterán
Lehet, hogy csak annyi van az egész mögött, hogy míg az nvidia azt mondta, hogy 30 usd/darab, addig az amd meg mondjuk 27-re tett ajánlatot és ennyi. Nem lenne precedens jellege a dolognak..
. Előfordulhat, hogy míg az egyiknek fejlesztenie kellene nagy volumenben ebben az irányban, addig a másiknak már lenne egy majdnem teljesen kiforrott megoldása. Ki tudja.
-
marcias
őstag
Azt meg lehet tippelni, hogyha mind a három konzolgyártó AMD chipeket használ, akkor az ezekből származó bevétel mennyire lesz jelentős? Illetve, licenszelés lesz, vagy egy összegben fizetnek majd a konzolgyártók?
-
Ł-IceRocK-Ł
veterán
válasz
TESCO-Zsömle #16 üzenetére
Akkor lényegben ismét egy korlátozás is lesz, mármint arra értem hogy a grafikus kártyának támogatnia kell a dx11.1 es verziót, ha az új (régi) kódólást igénybe vegye.
-
Löncsi
őstag
válasz
TESCO-Zsömle #19 üzenetére
Igen, de PS4-be is ugyanaz az Oban chip kerül, vagy tévedek ? Legalábbis nem lepődnék meg.
-
TESCO-Zsömle
titán
Én úgy tudtam, hogy az az X720-nál várható.
Sundesz: Nem számít, hogy ismerik, nem szánnak rá időt. Multiplatform játékoknál, miután a "nyersanyag" elkészült, megadják a platformoknak e szükséges alap paramétereket és portolnak. Ezt követően minimális optimalizálás jön. Minél nehezebb az optimalizálás, annál kevésbé lesz jó adott idő alatt. Mert nem szánhatnak rá több időt, mint a másiknak, hisz általában egyszerre kell megjelennie a két fő konzolra.
A PS3-ba az RSX csak vész-forgatókönyv volt. Benne se kellett volna lennie. Eredeti elképzelés szerint a Cell csinált volna minden... És igen. Már nagyon hasonlót produkál a PS3 és az X360 a multiplatform játékoknál. Pedig nyers erőben a PS3 elveri az X360-at, mégse tud belőle profitálni...
-
Sundesz
addikt
válasz
TESCO-Zsömle #16 üzenetére
De mostmár - valamennyire - ismerik a Cell-t mind a külsős, mind a belsős fejlesztők egyaránt. A multiplatform nehézségeit szerintem nem a Cell okozta elsősorban, hanem a
gyengeés régivágású RSX (fix pipe-ok meg vertex-ek szemben a Xenos egységesített shader architektúrájával) és a fix 256 VRAM, illetve 256 MB rendszermemória. De ma már nagyon hasonlóan produkál az Xbox és a PS3 is multiplatform címekben, egy-két kivételtől eltekintve (Unreal motort pl. nem szereti a PS3). -
Löncsi
őstag
válasz
Ł-IceRocK-Ł #15 üzenetére
HD6670 mag várható (illetve variánsa), de csak spekuláció.
-
TESCO-Zsömle
titán
Csak az a baj, hogy 1-2 címért nem éri meg egy ennyire eltérő felépítést megjátszani, ha hagyományos felépítéssel és kicsivel több erővel minden multiplatform játékban el lehetne érni annyival többet a konkurensnél, amennyivel a HW erősebb. Értelem szerűen az egy-két exkluzív cím még a multiplatformokra is rátenne egy lapáttal.
Nem hiszem, hogy a Sony még egyszer belelépne ugyanabba a folyóba...
Ł-IceRocK-Ł: Biztosra vehető, hogy a konzolok megújulása jótékony hatással lesz a PC-s játékokra is. Ráadásul a DX11.1 újra engedélyezni fogja a VSC haszálatát, ami lehetővé teszi, hogy a kompatibilis VGA-kon/APU-kon olyan kódok fussanak le, amik nem részei az alap DX-nek. Ezzel gyakorlatilag kiskaput nyitnak a programozóknak, egyúttal a HW-gyártóknak is jó, mert az esetleges új kódok csak a kompatibilis HW-en fognak engedélyeződni.
Javítsanak ki a szakértők, ha tévedek!
-
Ł-IceRocK-Ł
veterán
válasz
TESCO-Zsömle #12 üzenetére
Ez így jónak hangzik, de vajon lesz e pozitív hatása a PC re írt játékok grafikai fejlődésére. Mert ugye mostanság nagyon sok a konzol-átirat, és ha egy erős, jó grafikai magja lesz a konzolnak, akkor javulhat a PC- szegmensben is a játékok grafikai tulajdonsága.
-
Sundesz
addikt
Szerintem a CPU ezúttal is Power-PC alapú lesz, akár Cell is lehet.
Cell-ben szerintem is lenne potenciál, egy-két exkluzív címben nagyon sok terhet levett a GPU válláról, így sikerült elég csinos látványt elérni pl. az Uncharted vagy a Killzone részekben.
-
Supra
tag
Én sajnálnám, ha a cell a süllyesztőben végezné... Kiváncsi lennék arra, hogy vajon hány százalékát használják ki mostanság!
-
TESCO-Zsömle
titán
Sejthető volt. Az AMD annyira elhúzott hatásfok terén, hogy ahol csak számít az energiaigény, ott ők adják a kézenfekvő megoldást.
Számomra itt már csak az a kérdés, hogy a Sony bevállalja-e a GCN-t. Az eddigiek alapján ugyanis az X720 VLIW architektúrát fog alkalmazni. Az viszont nyílt titok, hogy a Sony most is überelni akarja a MS-ot, amire a GCN egy elég jó módot jelentene, pláne ha később is jön a PS. Hosszú távon biztos kifizetődőbb lenne.
Nagyon akkor lepődnék meg, ha CPU-t is az AMD-től vásárolnának, mitöbb -ha már GCN- rakhatnának bele egyenesen Kaveri APU-t, vagy annak egy korai változatát.
-
válasz
freemanone #8 üzenetére
a ps3 esetén úgytudom a dedikált nv gpu csak vészforgatóköny volt, így az ötlet eleve "bukásra" volt ítélve. más kérdés, hogy ha nincs dgpu, akkor mekkorát hasal a ps3... vszeg már lenne ps4
-
freemanone
addikt
Nah mi történt? Csak nem, nemjött be az NV a PS3-nál mint ahogy várták?
Érdekes konzol generáció elébe nézünk, így hogy mindenhova egy cég szállítja a GPU-t!
A zöldikének nem ártana összekapnia magát. -
fecg21
aktív tag
-
a fejelsztőknek gondolom ez jó, feltéve, hogy hasonló architekturát kapnak mindhárom paltformon ...
-
stratova
veterán
Ez így érdekes lesz, ha AMD adja a három konkurens konzolnak a GPU-t.
-
fecg21
aktív tag
Véleményem szerint igen-elképzelhető, esetleg a Sony visszatér oda ahol a PS2-nél abbahagyta, vagyis nagy valószínűség szerint el fogják hagyni a Cell processzort. Vagy azt a vonalat folytatják amit a PS Vita konzolnál is.
Új hozzászólás Aktív témák
- Netfone
- Drága lesz a terméktámogatáson túl használni Windows 10-et
- Óvodások homokozója
- Spórolós topik
- BestBuy topik
- D1Rect: Nagy "hülyétkapokazapróktól" topik
- Autós topik
- Házi barkács, gányolás, tákolás, megdöbbentő gépek!
- Steam, GOG, Epic Store, Humble Store, Xbox PC Game Pass, Origin Access, uPlay+, Apple Arcade felhasználók barátságos izgulós topikja
- One otthoni szolgáltatások (TV, internet, telefon)
- További aktív témák...
- DELL PowerEdge R630 rack szerver - 2xE5-2650v3 (20 mag / 40 szál, 2.3/3.0GHz), 32GB RAM, 55992Ft+ÁFA
- Azonnali kézbesítés az év bármely pillanatában
- Microsoft Windows, Office & Vírusirtók: Akciók, Azonnali Szállítás, Garantált Minőség, Garancia!
- Dell Latitude 3340 Core i3-4005U CPU hibás laptop
- BESZÁMÍTÁS! MSI B550M R7 5700X 32GB DDR4 1TB SSD RTX 4070 12GB NZXT H710I Be Quiet 650W
Állásajánlatok
Cég: FOTC
Város: Budapest