Új hozzászólás Aktív témák
-
szmiagor
tag
akkor vége a játékozásnak
-
Vigilante
őstag
2017-ig akkor kihúzom a 4GHz-es i7 920-al meg a 2db GTX480-al (800MHz/4000MHz)!
-
#65675776
törölt tag
A flame-et be lehet fejezni!
-
dezz
nagyúr
Esetleg ha linkelnéd, hol olvastad... Következtetés vagy eredeti információ...? A topic alapjául szolgáló cikket olvastad? Lehet, hogy az itt (is) leírt információkat értette félre valaki? Pedig, ha akarják, tervezhetik úgy ezt a chipet is (mint a maiakat, amit szintén nem csak PC-s videókártyán használnak), hogy adott esetben rátehessék egy PC-s videókártyára is, egyéb alkalmazási területek mellett. Hogy végül ráteszik-e majd, attól függhet, lesz-e még rá igény (vagy a központi "prociban" lévő GPU elegendőnek bizonyul az esetek többségében), illetve nem ütközik-e az Nvidia akkori érdekeivel, stb.
-
teratti
senior tag
Szia!
Bocs ha már volt nem nagyon olvastam bele a témába de olvastam valahol, hogy az Nvidia 2017-től nem gyárt VGA-kat, mert a konzol piacra akar koncentrálni...Igaz ez? -
KAMELOT
titán
válasz
CocooN-z #198 üzenetére
Tudod a kínai / japán és ehhez hasonlóaknak jók az ilyen talicska dobozok. Szórakoznak rajta mint a kisgyerekek. Nem tudsz rajta semmit csinálni csak megnézed a statjaidat meg ,hogy milyen játékaid vannak. Tárolni sem tudok adatokat ,torrentozni sem tudok, skype stb.
Nekem PC kell amin tudok mindent csinálni feltenni bármilyen OS-t és abban dolgozni ,stb. Továbbá szeretem nagyban nézni a világot. Ezért tervezek még a monitorom mellé még 2 darabot ,persze mindent a legkisebb költséggel.
Ilyen iPAD meg hozzá hasonlókon mit nézzek. Éppen ,hogy elfér rajta a cucc. Max képek birizgálására jó az semmi másra. -
KAMELOT
titán
Jó lett ez a topik!
Beszélnek a semmiről! Nem mindegy ,hogy ilyen amolyan emilyen a GPU!?!?
Örüljünk ,hogy van GPU és mindenki ízlésének / pénztárcájának megfelelőt vesz.
Aki nem akar külön GPU-t venni az vesz AMD APU-t vagy INTEL Sandy Bridge-t. Persze belészól a márkahűség is.
Nem kell itt filózni a semmiről.
Ez van! Ezt vásárolhatjuk meg. Hogy mit csináltak HPC-be meg mit nem kit lérdekel. Az volt.
Ma már sokkalta fejlettebb a technika. Ilyen jövőbe irányuló tervek meg ez ,meg amaz tűnik el nem sokat érnek. Úgyis egészen más lesz.
Mi lajikusok sajnos nem tudunk belé szólni abba mit lenne érdemes gyártani és mit nem vagy mi költséges és mi nem.(#196) csaabz: Nem csak az számít , de sajnos az az egyedüli olyan játék ami a legjobban megterhel egy kártyát / a legszebb látványt adja / legjobb részletezettségű grafika. BF3 is okés ,de nekem az engine eléggé hasonlít a SOF3-ra
-
csaabz
őstag
Egyebkent csak az szamit, mennyivel megy rajta a Crysis?
-
dezz
nagyúr
-
Angel1981
veterán
"Lehetséges, de azt ugye tudod, hogy már a 8800-as alapjául szolgáló chipet sem elsősorban PC-s videókártyákhoz tervezték, hanem HPC vonalra (számolási célra)?"
Ez most komoly?
Abban a tudatban éltem, hogy az azért még ténylegesen, kizárólag játékra tervezett chip volt, most egy világ dőlt össze bennem! -
proci985
MODERÁTOR
válasz
proci985 #187 üzenetére
mmint a nagy felbontással szerintem az a baj, hogy ahhoz képest, hogy mennyit nyerünk vele, eszméletlenül számításigényes (annak járulékos költségeivel). qHD/4k desktopon aeroval szerintem már meg tudna fektetni egy középkategóriás alatti videokártyát számítási igényt nézve.
-
proci985
MODERÁTOR
ezzel gyönyörűen össze is foglaltad a helyzetet.
nakos: 2560x1600 tényleg sok lehet, azokról több helyről is hallottam, hogy már fel kell osztani a képernyőt (külön programmal), mert egy ablakkal nehéz teljesen kihasználni. túl hosszúak lesznek a sorok, weboldalakat 1280 pixel szélesség fölé nem szokás optimalizálni. kb hasonló problémák, mint multimonitoros setupoknál, csak utóbbiaknál van felosztás. qHD és 4k portok és kábelek miatt is szívás lenne, eszméletlen sávszél kéne. szebbek lennének picit a betűk... és? aztán persze a jövő dönti el.
180fokos körbe kijelző már megépíthető (eyefinity5), árat leszámítva viszont bejön a probléma, hogy játékon kívül gyakorlatilag minden másra alkalmatlan. produktivitásra túl széles, nehéz átlátni (az én háromkijelzős setupom is 140-150 centi széles, és ez még egy relatíve pici setup), filmezni nem jó, játszani sem mindenre. helyigény is hatalmas, akinek nincs sok helye (nagyvárosokban ez általános probléma), annak eleve be sem fér.
-
dezz
nagyúr
Ja, most látom, az előbb nem azt írtad (véletlenül), hogy "Melyik erv tamasztja is ala azt, hogy az apuk miatt koltenek kevesebb penzt gpu fejlesztesre?", hanem azt, hogy "Melyik erv tamasztja is ala azt, hogy az apuk miatt nem koltenek kevesebb penzt gpu fejlesztesre?" Cseles... Kár, hogy nem mondtam olyat, hogy ennek semmi szerepe ebben, hanem azt, hogy a jelen helyzetért elsősorban (#149) nem ez a felelős.
Kifejtenéd, hol látod azt, hogy kimondottan az AMD APU koncepciója miatt lassítottak be, illetve költöttek kevesebbet valamilyen feljesztésre? Az Nvidia leginkább az Intel és a konzolok miatt ment el HPC irányba, az AMD-nél pedig az első igazán általános számításokra gyúrt architektúra a GCN.
-
dezz
nagyúr
válasz
hugo chávez #179 üzenetére
Hát ez az... Ott van az a teljesítmény nagyon szépen! Csak az embereknek nem nagyon akaródzik már minden évben jól bevásárolni. Hogy miért? Hát nem azért, mert elő van írva nekik, hogy csakis Brazost, Llanót vehetnek és letörik a kezüket, ha komolyabb diszkrét kártyát vesznek mellé... (Vagy ugyanez a SandyB-vel, de ott mindenképpen kell legalább valami kisebb videókártya, ha nem akarunk szenvedni.) Nem. Hanem mert nincs rá túl nagy motiváció. A konzolportok elmennek így is... (És amúgy is válság van.)
Mellesleg, a többség a korábbi években is max. középkategóriás kártyákat vett, de még az sem volt általános.
Ha az AMD innentől kezdve évről-évre egyre jobb APU-kat kínál, elérhető áron (márpedig ez lehet az aduja az Intellel szemben), azzal éppen, hogy előre mozdíthatja a dolgokat ebből a megfeneklettségből... Lehet, hogy egyre kevesebben vesznek csúcskártyákat (amik szerintem még egy darabig lesznek), de a tömegeknél adott lesz egy egyre erősebb bázis.
Pikari: Lehetséges, de azt ugye tudod, hogy már a 8800-as alapjául szolgáló chipet sem elsősorban PC-s videókártyákhoz tervezték, hanem HPC vonalra (számolási célra)? Ha lesz még igény 5 év múlva külön videókártyára, kihozhatnak ebből is egyet. Bár valószínűbb, hogy inkább egy teljes játékplatformot hoznak ki vele, azaz önmagában lesz a gép/konzolféleség alapja, komolyabb játék-célokra.
[ Módosította: #65675776 ]
-
Pikari
veterán
meglepő nyilatkozat.
ha a szavak mögé látunk, akkor ez valószínűleg a geforce történetének végét jelenti. -
hugo chávez
aktív tag
Hát, amennyire én látom, nincs különösebb baj a teljesítménynövekedéssel, pl. 2007-ben Radeon HD 2900 XT (R600 XT) 475 GFLOPs - 2012-ben Radeon HD 7970 (Tahiti XT) 3789 GFLOPs, vagyis ~5 év alatt nyolcszoros teljesítménynövekedés. Jó, az Nvidiánál kisebb mértékű volt 2006-ban GeForce 8800 GTX (G80) 518 GFLOPS - 2010-ben GeForce GTX 580 (GF110) 1581 GFLOPs, de, amennyire tudom, a Ferminél elsősorban az volt a cél, hogy jobban kihasználható legyen, nem pedig a mindenáron történő, elméleti teljesítmény növelése és, majd a Kepler lesz a nagy dobás, ahol elvileg azonos fogyasztás esetén háromszoros lebegőpontos teljesítményt remélnek a Fermihez képest. És, ugye a cikkben szereplő Echelon projekt, ahol 2017-ben már 32 TFLOPs single prec. teljesítményt várnak.
A játékokat meg kár idekeverni, mert, szerintem, ott a legfőbb felelősök a konzolgyártók, azokon belül is a Microsoft a DirectX-szel és emiatt legalább annyira gyűlölöm a Microsoftot, mint néhányan
az Intelt.
-
dezz
nagyúr
Már úgy érted, melyik érv cáfolja, hogy elsősorban az APU tehet róla, hogy mára mennyire belassult? Nos, az összes.
Azzal, hogy az APU-k 2006 és 2011 eleje-közepe közötti állítólagos lassító szerepét vitattam, azzal a mostani ilyen hatásukat nem vitatom! (Csak azt, hogy akár csak ma ez lenne a fő "bűnös" ebben.)
Márpedig 2006-tól kezdődően lett egyre látványosabb a lassulás. Akkor jöttek ki az új konzolok és kezdte egyre többen átállni rájuk, mind a játékfejlesztők, mind a gamerek (kivéve persze a hard-core-okat). És a többi esemény is az előző években történt. Az APU-k hatása max. tavalytól datálható, és elég nagy botorság mindent nekik betudni. Ha ezt nem fogod fel, hát nem tudok mit csinálni.
[ Módosította: #65675776 ]
-
KAMELOT
titán
(#137) Angel1981 (#138) lenox és dezz
Persze ez mind szép és jó. Igen a legnagyobb igény a egyszerű gyors kicsi gépekre van.
Ugyebár nem soknak van GTX580 meg i7-2600K proci a gépében. Ehelyett inkább olyan megoldásokat választanak ahol nem kell GPU tehát vagy az alaplapra.......mostanában már a CPU-ba van integrálva.
Ha lényegében ilyen vonalon megy a PC piac akkor szerverekhez nem fognak kelleni hatalmas épületek elég lesz 1-2 szoba.
Lényegében a tápellátásnál is kéne valamit fejlődni. Tápokat kicsinyíteni nem lehet. vagy igen???
Táblagépeknél meg megint az áramellátás a gond. Meddig bírja állandóan újratölteni stb.
Meg az a kis kijelző...az nem az én világom.
De mindenképpen ez a jövő. Kis helyen nagy teljesítmény. Ahogy már írták. CPU GPU RAM egy lapkán. iPHONE meg a többi. -
Jack@l
veterán
Nemtom mi a francon vitáztok, rohadt egyszerű a dolog, semmiféle optimalizáló, mérnökileg ésszerű dolog nincs az egész apu koncepcióban. Két dolog van: marketing, és pénz. A nagy kártyák fejlesztésére skótok költeni, inkább beépítgetik APU-ba az eddigi fejlesztéseket, és eladják újra neked ugyanazt drágábban, + a proci árához is hozzácsapva, az ematt még gyorsabban cserélődő alaplapokról nem is beszélve. Ez fog menni 3-4 évig, aztán szétteszik a kezüket, hogy nem gondolták volna hogy zsákutca...
Csak a vak nem látja, hogy azért szorítják vissza a csúcs gpu fejlődését, mert így nem nő a szakadék annyira az APU csodák és a csúcs GPU-k között, és a szutykok még éppenhogy jók lehetnek játékra, amivel a vérpistikéket meg lehet etetni(a sok marha azon fightolnak egy PROCINÁL, hogy melyikbe van "erősebb" videokártya).
Mi lenne ha az átlag grafika DX11-el egy crysis 2 vagy BF3 lenne mostanában minden játéknál? Ugye hogy rohadt kelendő lenne a GPU a casual gamereknél is? -
dezz
nagyúr
Márpedig de, pontosan az történik. Te ezeket állítod:
"Sokkal inkabb azt erte el az apu koncept, hogy belassult a gpu fejlesztes, nem no olyan utemben a teljesitmeny, mint lehetne, mivel nem eri meg fejlesztesre kolteni a penzt." (#138)
"mondom, szerintem ez a fejlesztes visszafogas az apu koncept egyik eredmenye." (#141)Én meg azt mondom, hogy ez így hülyeség. És nem csak ezt mondom, hanem számos érvvel is alátámasztottam, amiket te továbbra is ignorálsz.
"Gondolod, hogy csak par fejben letezett? Akkor gondold at."
Jól van, lovagolj a szavakon... 2006-ban vették át az ATI-t, akkor kezdték megismerni a mérnökök a másik cég terveit és kitalálni, hogyan is lehetne összeilleszteni a kettőt, stb. Az első termék csak majd' 5 évvel később jött ki! Mi köze mindennek azokhoz a dolgokhoz, amiket a #160-asban írtam? (Ide véve még a válságot.) Erre válaszolj!
"Nem gondolom, hogy amellett kell ervelnem, hogy az apuk kovetkezteben csokkennek a vga eladasok"
Nana, már kezdesz ferdíteni, most már jelen időben beszélsz... Igen, most már kezdi kifejteni az ilyen irányú hatását ez is, ezt nem vitatta senki. Csakhogy itt most a 2006-2011-es időszakról van szó, halihó!
-
dezz
nagyúr
válasz
Angel1981 #168 üzenetére
Nem csak hogy "abban látták" (láthatták volna rosszul is), hanem az adott technológiai keretek között az volt a legjobb megoldás. Pl. a '80-as években még nem volt beintegrálva FPU (komolyabb matematikai számításokra szolgáló egység) és az MMU (memóriakezelő [memóriavédelem és virtuális memória] egység), mert azok is kitettek önmagában egy nem kicsi chipet, így a beintegrálásuk még túl drága mulatság lett volna, chipterület szempontból. Akinek kellett, külön megkaphatta. Aztán ahogy telt az idő, fejlődött a gyártástechnológia és nőttek az igények is, ezekre egyre nagyobb szükség lett, miközben a túl drágából "nem nagy extra" lett. Most is hasonló esettel állunk szemben, csak a GPU-val (ami, ha valaki még mindig nem fogta volna fel, nem csak grafikai számításokra használható, a CPU-t jóval meghaladó számítási potenciállal). Bár vannak fontos különbségek is.
Jellemző, hogy sokan úgy mondanak sommás véleményt, hogy fogalmuk sincs az egész dologról... De aki még egy ilyen kis szösszenetet sem tud elolvasni (már linkeltem 1-2x), azt nagyon tudom sajnálni.
(#169) lenox: Már megint csak mismásolsz. Korábban azért hangsúlyoztad, hogy már előbb (egyes dolgok tekintetében csak néhány hónappal) létezett (pár fejben) a koncepció, hogy ezzel bizonyítsd, hogy az egyik következett a másikból. Holott valójában nagyrészt független folyamatokról van szó. De a direkt összevetést persze kerülöd. Ha le akarsz tenni valami érdemlegeset az érvek asztalára, fejtsd ki szépen, hogy következtek az APU ötletéből azok a dolgok, amiket írtam? Tudod, ha állítasz valamit, az alá is kell támasztani valamivel. Attól nem lesz igazabb, hogy ismételgeted.
-
lenox
veterán
Amilyen ervet irtal, az az en ertelmezesem szerint arra vonatkozott, hogy korabban voltak mar a valtozasok, mint az apu, de szerintem nem vetted figyelembe, hogy az amd apu konceptje 2006-ban mar megvolt, szoval ami utana tortenik, az mar nem elotte van.
Nyilvan nem gondolom, hogy egy ok valtja ki a gpu fejlesztesek lassulasat, de az apuk hatasat fo oknak gondolom.
Szerintem erted a kulonbseget a kozott, ha a sajat allitasomat tagadom, meg a te ertelmezesedet, vagy az altalad nekem tulajdonitott allitasokat. Szoval ne keverd ossze. -
Angel1981
veterán
20 év, az nagyon nagy idő, azalatt annyi minden történik a chipiparban, nem csoda, hogy hol ilyen, hol olyan elvek kerülnek előtérbe.
Mivel folyamatos volt a fejlődés az elmúlt 15 évben is, nem lehet azt mondani, hogy a szeparáció zsákutca volt, csak egyszerűen akkor abban látták a fejlődést, most meg az integrálásban.
Engem nem zavarnak az irányváltások, ha ténylegesen többet / jobbat kapok a pénzemért. -
dezz
nagyúr
Ezeket a dolgokat nem csak úgy kitalálják. Az ilyen sommás ítéletek helyett esetleg megpróbálhatnád egészben látni a dolog hátterét.
Az Amiga 500 azért sem jó példa, mert az állítólagos bővíthetetlenség csak egy kifogás volt. (Főleg, hogy előtte már létezett az Amiga 1000 is és semmi akadálya nem volt -- akár architektúra, akár OS szinten -- a későbbi, PC-hez hasonlóan bővíthető "nagyvasaknak" sem.) Az meg miért lett volna baj, hogy az alap egy a korát megelőző chipset?
(#165): Esetleg azt, aki tudja, milyen sok felhasználót szipkáznak el a notebookok, tabletek és okostelók...
(#166) lenox: Ezeket ki is írta: "Sokkal inkabb azt erte el az apu koncept, hogy belassult a gpu fejlesztes, nem no olyan utemben a teljesitmeny, mint lehetne, mivel nem eri meg fejlesztesre kolteni a penzt." (#138)
"mondom, szerintem ez a fejlesztes visszafogas az apu koncept egyik eredmenye." (#141)Tök jó, hogy az ellenérveket simán figyelmen kívül hagyva, állandóan csak ugyanazt ismételgeted, aztán még jól le is tagadod.
-
lenox
veterán
Ez a "minden rosszról az AMD tehet" olyan egy kiforgatott badarság, hogy te sem hiheted.
??? Hat igen, nem is tudom, honnan huztad elo. Szerintem valamit nagyon felreertettel... Nem mondtam, hogy ez rossz, a mindent nem is ertem, hogy jon ide, mondjuk az ketsegtelen, hogy az amd a legjobb apu teren, meg hogy en szivesebben latnam, ha minel gyorsabb gpuk lennenek, de ez valami fobiad lehet max, hogy en az amd-t okolom, meg az is, hogy valami gonosz szandekot kepzelek moge. Ez leginkabb gazdasagi torvenyszeruseg. Amugy mult heten kezdtem el a 7970-re a fejleszteseket, es baromi elegedett vagyok vele, ez hogy illeszkedik a kepbe?
-
Jakuu
őstag
Erdekes. 20 evente mindig valami okos megmondja az iranyvonalat, ami altalaban pont ellenkezo, mint amit mondtak addig. Kozben csak a piaci szereplok akarjak igy megtomni a zsebuket.
Emlekezzunk az Amiga 500-ra. Erdekes modon ott az integraciot vetettek fel hibakent a PCvel szemben.
Most visszaternek oda es kitalaljak, hogy megis csak az integracio a jo ut. 20 ev mulva majd ismet jon valaki aki az integraltsagot fogja felvetni hibakent. -
Sennalacy
aktív tag
Az lehet, hogy az eladások 30%-ot estek, de ennek szerinted mennyi köze van az általános válsághoz, vagy a szinte kizárólagossá váló "konzolport" hozzáálláshoz a szoftver gyártók részéről, ami több éves hardvereken is elfut..
Arról nem is beszélve, hogy ők maguk oszották fel a piacot és duzzasztották fel mesterségesen az eladásokat, felső kategória, középső..alsó közép.. stb. Ők maguk is követik azt a gyakorlatot, hogy a régebbi modelleket csak átnevezik és egyel alacsonyabb szegmensben indítják, így nyilván ezt a felhasználó otthon is megteheti átnevezés nélkül, hogy egyik évben egy kategóriát visszalép, pláne úgy, ha a programok nem is igénylik a fejlesztést. Nem tartom kizártnak, hogy ők még driverből vissza is fogják a kártyákat, hogy az eladásokat maximalizálják évről évre az új modelleknél. Ezen tényezők hatását nagyon nem kéne elfelejteni amikor ilyen következtetéseket vonnak le, hogy a piac haldoklik meg sorvad. Inkább tegyenek érte valahogy, hogy a kártyáikat vérbe izzasztó (nem mesterségesen!, hanem valódi látványbeli javulást hozó) programok kerüljenek ki. Akkor senki nem fog Angry Birds-öt játtszani pc-n, és az eladások is növekedhetnek.Lehet integrálni, platformosodni, ha nincs szükség teljesítményre... ha csak azt kell lekicsinyíteni ami már évek óta ki van fejlesztve.. De a PC-s eladásokat ilyen és ilyen grafikával lehetne fellendíteni. Utóbbi már lassan 4 éves, két generációval ezelőtti kártyához adták ki, és máig semmit nem láttunk belőle. Így hogy várnak eladásokat? A 30% a fentiek tükrében még így is csoda.
-
Narxis
nagyúr
Integrált GPU powa! Durva, hogy ez lesz a jövő, nem gondoltam volna.
-
dezz
nagyúr
Jó, akkor úgy mondom, hogy nem csak és kizárólag üzleti szempontok vannak itt, hanem technológiai is.
Mit tehetett egy papíron is csak címszavakban létező elgondolás arról, hogy (elvileg a túlzott kalózkodás hatására) a játékfejlesztők előtérbe helyezték a konzolos fejlesztéseket és a legtöbb játékot (illetve már amit) onnan portolják PC-re? (És ahogy teltek az évek, az így készült jétékok egyre kevésbé tudták kihasználni az újabb és újabb videókártyagenerációkat.) Mit tehetett arról, hogy az Intel kitúrta a többieket a chipset vonaláról (ami ugye leginkább az Nvidiának fájt), és mivel pusztán a(z előző miatt amúgy is szűkülő) diszkrét videókártyák piacára építeni kockázatos lett volna, az Nvidia elment HPC (és ultramobil+okosteló) irányba? Mit tehetett arról, hogy az egész világ elment ultramobil és okosteló irányba? Mit tehetett a gyártástechnológiai problémákról, amik miatt több fejlesztést is le kellett állítani és visszavinni az előző node-ra?
Ez a "minden rosszról az AMD tehet" olyan egy kiforgatott badarság, hogy te sem hiheted.
-
lenox
veterán
Azt, hogy nem a lehúzásról szól az egész történet.
Az mitol lehuzas, ha ugyanannyiert adjak, de nekik kevesebbe kerul? Egyebkent nyilvan nem csak arrol szol, hogy egy termeken maximalizalni akarjak a nyereseget, hanem arrol is, hogy a piac nagyobb szeletet probaljak megszerezni maguknak. De azt is irtam, hogy ha aput veszel, akkor nem kell masik cegtol gpu-t vegyel, ez sem a lehuzas szerintem...
Már évekkel ezelőtt elkezdődött a lassulás
2006 elott? Mert akkor mar megvolt az amd apu konceptje... Szoval szerintem tevedsz, nem kezdodott el a lassulas az amd apu konceptje elott.
-
dezz
nagyúr
"Ez mit jelent, es miert erdekes?"
Azt, hogy nem a lehúzásról szól az egész történet.
"Mult idoben nem igaz, mert mar korabban elkezdodott???"
Már évekkel ezelőtt elkezdődött a lassulás, független okokból kifolyólag (lásd, amiket írtam), miközben a Brazos és az SB (bár az még nem mondható igazi APU-nak, de legalább már nem ultragyenge IGP van benne) kb. egy éve jöttek ki, a Llano pedig (mint első komolyabb APU) csak fél éve és eddig nem is túl sok vizet zavart.
Az APU-s dolog nem ok, hanem inkább okozat, illetve törvényszerűség, a fejlődés következő kézenfekvő, elkerülhetetlen lépcsőfoka.
Hozzátenném, az Intel az IGP-s piac és úgy általában a piac nagy részének megtartása érdekében amúgy is kénytelen lett volna fejleszteni az IGP-it, amit aztán így is-úgy is be kellett volna tennie a CPU mellé (az NB-vel egyőtt), mert így költséghatékonyabb. Az AMD és az Nvidia meg ott állhatott volna megfürödve, ha nem próbálnak ők is időben lépni (az Nvidia először a HPC szektor felé, akkor még nem lehetett tudni, hogy a Win8 az ARM-ot is támogatni fogja [kérdés, mennyire lesz ott sikeres, de mindegy]). Mindkét cégnek alapvető érdeke, hogy az Intel előtt járjanak abban, amiben ők a jobbak: GPU-s mikroarchitektúrában, megspékelve a GPU és a CPU innovatív összegyúrásával.
(#156) Loha: A (nagyobb) GeForce-ok már egy ideje ilyenek, és az AMD-s GCN is ilyen, de attól még ki lettek hozva PC-s videókártyaként is. Igaz, mint ahogy szó volt róla, egyre kisebb irántuk a kereslet.
Szerintem ebből az Echelonból is próbál majd az Nvidia otthoni megoldást is faragni, csak az már nem egy videókártya lesz egy PC-be (nincs szüksége külső procira, van neki saját), hanem egymagában lesz egy komoly játékgép. Szerintem lesz igény akkor is olyan gépekre, amik többet tudnak, mint egy okosteló vagy okostévé...
Hacsak nem mos el mindent a "vihar" (felhősítés)...
-
Loha
veterán
Most nem ezért, de szerintem az Echelonnak semmi köze nem lesz az otthoni gépekbe szánt GPU-khoz, vagy APU-khoz, ez egy rackszekrénybe/szerverfarmra szánt megoldás, szuperszámítógépekre optimalizálva. Ettől még lehet kihalnak 2017-ben a dedikált GPU-k, de biztosan nem az Echelon miatt...
-
nakos
senior tag
Olyan hogy kizart dolog nincs, itt csak egy tenyezo van es az az ido. Meglatjatok de nagyon hamar el fog jonni ez a korszak. Szerintem elobb is mint 2017. Nagyon kozel allunk ahhoz hogy grafikailag ma elfogadhato teljesitmenyt kapjunk APU-tol is. Nezzetek meg a technologiai fejlodest pl az Ipadoknal. Tegra 3? Es mekkora karoszeriaba van mar bepakolva? Az egesz "PC" azert van meg mindig eletben mert rengeteg "gyartoi erdek" kapcsolodik hozza. Siman le tudnak mar azt gyartani most ha nagyon akarnak hogy egy korszeru jatek szepen fusson dedikalt VGA nelkul is, de egyelore meg sokak nem erdeke. Tobbet lehet keresni es tobb em,bert ertekesitoi halozatot es lancolatot lehet fentartani ha kulon aruljuk a cuccokat (alkatreszenkent) mintsem egyben.
Egy masik kollega mondta a felbontast. Ide is egy megjegyzes: Igen de minek is van szukseg 1920x1200-nal lenyegesen magasabb felbontasra?
Jelenleg en egy 2560x1600-ast hasznalok es soknak tartom hetkoznapi hasznalatra... Ha majd megcsinaljak a felkorives monitort hogy 180fokot erzekelj, akkor lesz ertelme de addig felejtos. Laptopokba elobb utobb meglatjatok teljesen ki fog halni a dedikalt cucc, mert boven eleg eros lesz az APU hogy minden szepen fusson. Jo irany a Tegra 3 es az Ipad is...
Szep lassan el kell koszonni a PC szerelgetestol, mint ahogy mamar a tuningnak es a vizhutesnek sincs akkora szerepe mint 5-10 eve. Persze csak akkor "HA" a fent listazott gyartoi ERDEKEK is ugy akarjak.
-
zoltanz
nagyúr
Akarom mondani PS2 Emotion Engine 2000 -ben készűlt.
Egy MIPS alapú magból, két vektor processzorból (VPU), egy grafikus interfészből, egy 10 csatornás közvetlen memória-hozzáférésből (DMA), egy memória kontrollerből, egy képfeldolgozó egységből (IPU) és egy bement-kimenet interfészből áll. -
Abu85
HÁZIGAZDA
Szerintem az APU koncepcióját már jóval hamarabb kitalálták. Úgy gondolom, hogy a gondolattal már mindenki kacérkodott az előző évezred végén, csak nem merték elkezdeni a fejlesztést. Aztán jött a Cell ezzel az iránnyal, és mindenkit sokkolt a teljesítménye és az ehhez mért fogyasztása. Valószínű, hogy ezért indultak be a fúziós fejlesztések, mert a Sony-IBM-Toshiba trió bebizonyította, hogy a koncepció működik.
-
lenox
veterán
Az első bekezdésed kissé egysíkú...
Ez mit jelent, es miert erdekes?
Miről beszélsz? Legalább is így múlt időben, biztos nem igaz. Már akkor elkezdődött a belassulás, amikor az APU-knak híre-hamva sem volt.
Mult idoben nem igaz, mert mar korabban elkezdodott???
Amugy szerintem nem igaz, az apu konceptet nekem 2006-ban prezentalta az amd, szerintem akkor meg szo nem volt a gpu fejlesztes visszafogasarol, meg atnevezgetesrol. A g80 jott ki ugye akkor ev vegere, az tudtommal eleg versenykepes volt, bar sokat fogyasztott, az igaz.
Remelem nem lesz megint sertodeses kotozkodes, ezt az egysikuzasra meg a mirol beszelsz-ezesre mondom.
-
dezz
nagyúr
Az első bekezdésed kissé egysíkú...
"Sokkal inkabb azt erte el az apu koncept, hogy belassult a gpu fejlesztes, nem no olyan utemben a teljesitmeny, mint lehetne, mivel nem eri meg fejlesztesre kolteni a penzt."
Miről beszélsz? Legalább is így múlt időben, biztos nem igaz. Már akkor elkezdődött a belassulás, amikor az APU-knak híre-hamva sem volt. Elsősorban ezek a dolgok felelősek:
- A konzolok térnyerése és a hozzájuk való alkalmazkodás.
- A HPC irányú GPU-fejlesztés elkezése, először az Nvidiánál, miáltal kevésbé lett versenyképes a PC-s változat (nagy és többet fogyasztó chipek).
- Korábbiaknál jóval komolyabb gyártástechnológiai gondok. -
dezz
nagyúr
Ez a fejlődés útja... Technikailag ezért: [link]
Ha ez nem következne be, éppen az lenne a(z amúgy is megtépázott) nem-casual PC-s gaming vége! Miért? Ezek a piaci okok:
1., a tömegigények a kisebb egybegépek (és egyre inkább a mobilizálhatóak) irányába tolódnak el, ahol jelentős előny az integráltság -- így a diszkrét videokártyák piaca olvadóban van;
2., az IGP-k teljesítménye már ma elért egy olyan szintet, amivel az emberek többsége beéri;
3., törpe piacra nem lenne érdemes teljesítményigényes szoftvert sem fejleszteni;
4., az IGP-k piacának többségi birtokosa az Intel! És ők bizony külső nyomás nélkül (AMD, Nvidia) csak annyira fejlesztenének, ami kiszolgálja a tömegigényeket, sőt még ezt is igyekezve visszafogni. A komolyabb PC-s gaming sosem volt az Intel asztala, nincs meg a kellő felkészültség, tapasztalat és szaktudás, így az ilyen irányú fejlesztés számukra költségesebb és nehézkesebb.Ergo, ha az AMD nem építene be egyre komolyabb GPU teljesítményt az APU-kba (plusz nem dolgozná össze őket egyre inkább, APU formájában, új lehetőségeket teremtve, ami további, sőt fő versenyelőny lehet), illetve az Nvidia nem csinálná ugyanezt, csak ARM alapon, akkor éveken belül itt állnánk komolyabb, átlag user által is elérhető GPU teljesítmény nélkül... (A komolyabb cuccok kizárólag profi munkaállomás/HPC hw-ként készülnének, ennek megfelelő áron.)
Lehet, hogy így is ez lesz, de a 4. pont adhat reményt: leginkább ilyen téren lehet jó eséllyel felvenni a versenyt az Intellel! Tehát, a cél: egyre nagyobb GPU teljesítményt beépíteni az APU-kba (adott keretek között), és elérni, hogy miközben persze a többség ezekből is középkategóriásat vesz (amit az Intel is tud kínálni, jelenleg legalábbis), legyen igény a komolyabb változatokra is.
Mindenesetre, WS/HPC szintem vitathatatlan az APU-k előnye a sima CPU-kkal és GPU-kkal szemben, így a fejlesztésekben mindenképpen ez a meghatározó és a követett útvonal... Természetesen a mindenkori lehetőségekhez képest legnagyobb teljesítmény elérésének igényével. Hogy ebből mennyi szivárog majd le a PC-s vonalra (mert hogy nagyobb teljesítményű cuccokat nem fognak külön csak PC-s vonalra fejleszteni, mint ahogy már most sem), alsó, középső vagy felső kategória is, az majd elválik.
Mindez persze még évek...
-
Abu85
HÁZIGAZDA
Az NV úgymond ütős platformja még időbe kerül. 2014-ben tervezik a Maxwellt. Addig semmilyen szinten nem tudják megtámadni az asztali piacot. Esetleg nettop, amire egyébként lenne is igény, és érdemes is átgondolni, mert ez a piac növekszik.
Az NV-nél is egyre nagyobb kérdés lesz az Android lényegi értelme. A Google próbálja úgy fejleszteni az úgymond hivatalos portot, hogy az egyszerűséget sugározzon a felhasználó felé, vagyis, ha felmész a marketre, akkor lásd, hogy az alkalmazás mely Android verziót követeli minimum, és azon biztos fut. Az OpenCL-t valszeg integrálják a következő fejlesztésre, mert már az ARM-tól kezdve egy csomó vállalat igényt tart rá, ám az NV igazából a CUDA-ra tart igényt, de ezt a zártsága miatt nem fogják beépíteni. Éppen ezért kell egy saját Android port, aminek meg ott lesz a hátránya, hogy nincs hivatalos market támogatás. Pontosan ezért rajong annyira az NV a Windows 8-ért, mert nincsenek olyan kötöttségek, ami az Androidnál. Jó lehet mondani, hogy ezek jórészt az egyszerűséget szolgálják, és van is benne valami, de egy cég számára ez gáz, mert ők pont azzal versenyeznek, hogy xy dolgot tud a mienk, amit a másik nem.Ami platform jön az a Wayne. Ez az új generációs Tegra. Valszeg az év végére lehet kész, és ez lesz az első olyan SoC, ami támogat CUDA-t, és egyéb nyalánkságokat. Alapjaiban egy kepleres IGP-t kap. A Kepler elég jól skálázható lesz, de egyes részeit érdemes lecserélni, mert mégis mobil piacról beszélünk. Itt azért fontos a fogyasztás. Valszeg a Cortex magok is A15-ösek. Ez már azért elég jó rendszer. Nyilván integrálás szintjén inkább egybeolvasztásról van szó, mint architekturális integrálásról, de ennyi elég egyelőre. 2013-ban lehet, hogy továbbmennek. A Maxwellt eredetileg 2013-ra tervezték, szerintem, hogy ne legyen ez az év elhagyva, így készülhet egy erősített Wayne, kifejezetten nagyobb teljesítményre 20 watt körüli fogyasztással.
-
Abu85
HÁZIGAZDA
A fejlesztések megszűntek, ami eléggé előrevetíti, hogy mit akarnak a cégek. A termékkategória megszűnéséig még várni kell, mert amíg az átnevezésekkel eladhatók a termékek, addig el is adják őket. Azt nem várhatod el tőlük, hogy csak azért, mert az IGP-k előretörnek zárják be a bizniszt. Ennek akkor jön el az ideje, ha a befektetéseket nem lehet visszahozni. Ilyen átnevezős fejlesztésekkel nyilván a befektetés kellően alacsony szinten tartható, csak ennek az az átka, hogy az IGP-k legyorsuljak őket.
A fejlesztés visszafogása a piac 30%-os csökkenésének eredménye. Mondom, hogy az AMD fejlesztett egy új belépő GPU-t, de az eltűnt a roadmapról. Lombok volt a kódneve, rá tudsz keresni. Jelenleg ennek a helyén a Turks van, amit most is megvehető. Az igazán új generáció az AMD-nél három lapkából áll ... Tahiti, Pitcairn és Cape Verde. Az NV esetében legjobb tudomásom szerint szintén három lapka lesz, amit a GF108 továbbvitelével egészítenek ki. Látszik, hogy az IGP-k elleni küzdés szélmalomharc. Ráadásul az Intel úgy építette fel a 2011-ben bemutatott Ultrabook és thin Mini-ITX platformot, hogy ne lehessen dGPU-t építeni beléjük. Ez szintén kedvezőtlen az eladásoknak. Az Ultrabook még elmegy, mert egyelőre kevés az eladás, de a thin Mini-ITX platform az AIO-k szabványosítására készült, és ez a szegmens növekszik a legjobban az asztali piacon. VGA-gyártóknak fel kell fogni, hogy az emberek már az asztalon sem nagy ATX-es házat vesznek, hanem SFF-t, apróbb tornyot, nettopot, vagy AIO gépet. Lehet a trendek ellen küzdeni, de nem éri meg, mert a fogyasztó dönt a vásárlásról. Jobb ötlet meglátni ezt és beállni a trendek mögé, azaz kiszolgálni a piac új igényeit.
-
lenox
veterán
Mondjuk tegyuk hozza, hogy az nvidia platformban en azert meg annyira nem hiszek. Mar ugy ertem, hogy lehet, hogy lesz mukodo platformjuk nemsokara, de mig az elterjedt lesz desktop piacon, ahol a diszkret vga erdekes, addig meg sok ev eltelik szerintem. Mobil oldalon mas a helyzet, de ott nincs diszkret vga. Szoval nem latom, mitol tudna az nv platform szinten szolgaltatast kinalni, nem lesz kinek. Nekik szerintem meg sokaig az lesz az erdekuk, hogy a platformjuk nelkul is minel tobbet tudjon a kartyajuk.
#142 De hat kivel vitatkozzak, ha Abuval se? Kb. o az egyetlen aki nem a masik fikazasaval ervel...
-
lenox
veterán
Megszunt vagy nem? Nem... Amugy olcsobb kartyak is vannak meg mindig.
Kulonben szerintem az jol latszik, hogy apuval kb. a gyengebb 128 bites kartyakig lehet konkuralni jelenleg, felette nem, mert nem eri meg tobb csatornas memoriaelerest csinalni, meg tul sok cache sem fer bele egyelore. Ez kb. 70-80 dollaros szint jelenleg. Az ez alatti kartyakat gondolnam, hogy a korabbi technologiakon alapulo gepekhez lehet meg eladni csokkeno utemben, de folotte csak a marketing szivatja a piacot, szoval az meg sokaig kitart. Persze azt ertem, hogy nem eri meg ra tul sokat fejleszteni, ez van, mondom, szerintem ez a fejlesztes visszafogas az apu koncept egyik eredmenye.
-
Abu85
HÁZIGAZDA
A társítás mindegy lesz. Az AMD és az NV tervei is úgy irányulnak, hogy a dGPU-k több szolgáltatást kínálnak majd platform szintjén, mint más gyártó APU-jával. Ez egy alapvető reform lesz a piac életben tartására. Azt nyilván nem tiltják meg, hogy az Intel mellé berakd a VGA-t, de nem fog annyit tudni, mint gyártói platformban. Ha már szart sem keresnek a VGA-piacon, akkor legalább fizesd meg alá a platformot. Ez ennek az elvi működése. Ha ez nem tetszik, akkor hamarabb is eljön az integrálás korszaka. A hsz-edben ott a kulcsmondat. A cégeket az érdekli, hogy mennyi pénzt keresnek. A VGA-n nem sokat, a platformon ... na azon már lehet keresni. Az IGP a konzumer GPU-piac legjobban tejelő része, ez vitathatatlan.
-
Abu85
HÁZIGAZDA
Csak éppen nem sok embernek kell 100 dolláros VGA. Nem a felső kategóriás termékekkel esett a piac 30%-ot eladásban. Az alsó részeken van visszaesés. 30% egy év alatt baromi agy szám. Pont elég arra, hogy értelmetlenné váljon az olcsó termékek fejlesztése, vagyis jön az átnevezés, amit ugye már mindkét cég elkezdett. Azért ne légy olyan naiv, hogy egy egészségesen működő piac jellemzője a vásárlók átverése, a régi termékek átnevezésével.
-
lenox
veterán
De a cegeket inkabb az erdekli, hogy mennyi penzt keresnek, es kevesebb alkatresz kisebb koltseget jelent, pedig toled ugyanannyit kernek, szoval nagyobb a nyereseg. Raadasul ha egyben van a cpu-gpu, akkor nem veszel mastol gpu-t.
Amugy szerintem egyelore nem kell felteni a gamer pc-t, olcso gepbe tul sok csatornas memoriarendszer nem gazdasagos, a frekvenciat meg viszonylag lassan novelik, szoval egy viszonylag alacsony teljesitmenyszint fole nem tudnak menni apuval egyelore. Sokkal inkabb azt erte el az apu koncept, hogy belassult a gpu fejlesztes, nem no olyan utemben a teljesitmeny, mint lehetne, mivel nem eri meg fejlesztesre kolteni a penzt.
-
Angel1981
veterán
"Szerintem a mostani PC konfiguráció alegjobb mindenki számára. Olyat raknak össze amilyet akarnak."
Ebben teljesen egyetértek, csak az a baj, hogy ez a szegmens évről évre ha lassan is, de biztosan szűkül, és ebből adódóan egyre inkább mostohagyerekként fogják kezelni a gyártók...
-
KAMELOT
titán
Nem értem ezt a CPU-GPU egymás mellé tételét. ha ezt szeretnék csinálni akkor gamer konfigoknak lőttek tehát nem lesznek szabadon választható konfigok.
Jó megoldás lenne ,de konfigurálhatóság szempontjából semmit nem ér.
Főleg egy hardcore gépnél akkor CPU-nak 12GB ram és GPU-nak 6GB ram kell.
Esetleg akinek több kell...... Másik kell valami BIOS konfiguráció is ahol lehet állítani mennyit ramot használjon CPU /GPU.
Továbbá olyan ramokat kell gyártani ami a CPU/GPU-val kompatibilisek.
Igaz addigra már gondolom lesznek 16/32GB-s rammodulok egyben. Szóval elég sok mindent kell majd bütykölni,hogy ez megvalósuljon.
Szerintem a mostani PC konfiguráció alegjobb mindenki számára. Olyat raknak össze amilyet akarnak. Esetleg ha valammi nem tetszik vagy pluszba valami kell akkor megvásárolják. -
gaben1117
senior tag
Ha arra gondolok, hogy pl. notebookokba már milyen teljesítményűt tudnak pakolni...Még lehet is belőle valami.
-
Angel1981
veterán
válasz
Csabroncka #123 üzenetére
Ez tény, de az NV kijelentése a jövőre vonatkozik; 3-5 év múlva, különösen, ha a programozók is ráállnak erre az irányra, akkor az APU lesz a bajnok.
(Én egyébként az sem tartom elképzelhetetlennek, hogy pont a teljesítménynövelés céljából lesznek 130W feletti TDP-vel rendelkező APU-k is.) -
byZsolt
tag
vátozunk, és minden váltizik, ennyire egyszerü.
-
proci985
MODERÁTOR
Crysist láttam 3,5 giga memóriát használni, swappelni pedig a raptor miatt egy időben mindig pontosan tudtam, mikor csinálja (hangos volt
). rendesen kell alá HW, de jelenleg már megy elég szépen (3840x1024et bírja egy 6950en highon).
2005-2006 körüliek közül én nem emlékszem olyanra, ami rosszul menne. mégiscsak a northwood éra vége volt, 6600-1950prok idején.
-
P.H.
senior tag
Nézőpont kérdése, de játsszunk a szavakkal:
a paneleket, amiből 8 egyformát lehet rakni egy dobozba, az Intel és az AMD is ma pl. CPU-nak hívja (Xeon vagy Opteron), de tőlem hívhatjuk másnak is, de attól még az ugyanolyan, mint egy mai CPU. Ma QPI-n vagy HyperTransport-on keresztül tudnak egymással kommunikálni, lehet kitalálni más interface-t, de a lényegen az sem változtat. Persze az olcsó PC-be ilyen nem fog kelleni, már ma sem kell, csak a workstation-ökbe, vagy ha valami extra dolgot akar csinálni az user.Nézőpont kérdése
Mindenki azzal indul, amivel tud: az NV a Cuda Core+ARM párosítással, az AMD a GCN+Bulldozer felállással, az Intel meg a Larrabee-utódok integrálásával.
-
válasz
proci985 #122 üzenetére
Igen, de ha olyan trágya módon írták meg, hogy 2Gb-nál többet nem használ RAM-ból, afelett mindenképpen swappel, akkor swappelni fog. Ha idióta, optimalizálatlan fizikai motor van benne, akkor akadni fog. És hasonlók.
Kérdezd meg Silenzio-t, milyen dolgok akadnak a gépén, ami azért egy 3 (néha 4) magos AMD-n, egy jobbféle VGA-val (mikor milyen) 2005-2006-os programoktól szégyen.
-
Srodney
senior tag
hát azért nem csoda hogy az nv ezt mondja,aggódni meg akkor kell ha már amd is letesz a diszkrét vga-rol,akkor már nem lesz miről beszélni,de vki már mondta hogy ez egy ciklus ami ismétlődik...de valahol a fúzió lényege ez...
-
proci985
MODERÁTOR
a FEAR nagyon szépen fut, mellesleg eléggé régi. crysis meg a mai napig a legszebbek között van, highig pedig gyönyörűen skálázódik. stalker szintén remekül skálázódik, static shadowokkal egy x800gto már szépen vitte.
másik oldalról meg oké, tegyük fel az SW a rossz, de öt éves programokról beszélünk. azóta kb nyolcszorosára kellett ugrania a HWnek moore törvényéből kiindulva.
-
-
proci985
MODERÁTOR
válasz
Csabroncka #103 üzenetére
pénz nem minden. a fizikát nem lehet lefizetni
. legalábbis gyorsan semmiképpen.
játékokra meg annyit, hogy van olyan 4-5 éves játék a piacon, amit még mindig nem bír el rendesen egy IGP. FEAR 20-35fpssel megy maxon 1024x768ban egy intel hd3000ren (6550Dvel megvolt 50+ is), és akkor az még nem a Crysis, ami novemberben szintén 5 éves lesz. vagy a Stalker CoP, ami márciusban. link
-
waithEard
őstag
Én már látom a jövőt, ahol egy slot 1 szerű foglalatba fogjuk benyomni a cpu-t, és mellé a GPU-t, ha nagyobb teljesítmény kell.
-
Abu85
HÁZIGAZDA
Azok olyanok, mint egy átlag procimag. De valszeg belerakhatsz a termékbe egy csomót. A 8-at nem tudom, hogy az NV hogyan számolta, szerintük ez lehet az ideális szám. Tekintve, hogy ez tervezet, így ez változhat.
Inkább az energiahatékonyság miatt van ez a fene nagy integrálás. A gyártástechnológiák fejlődése, ha nem is áll le, de lassul. A procik teljesítményének normális skálázásához hamarosan nem lesz elég plusz két procimag, vagy hasonló dolgok. Újszerű elképzelések kellenek, ezek közül az egyik lehetőség, hogy a magok képességeit butítják, és több magot raknak a lapkába. Most itt nem Atom szintűre kell gondolni, de jelentősen gyengébbre, mint ami manapság megszokott. Ez probléma, mert valamilyen szinten még mindig fontos az egyszálú teljesítmény, még ha a throughput szinten egy sokmagos Atom agyonverne egy pármagos mai procit, ugyanakkora fogyasztással. A heterogén elképzelések azért ennyire népszerűek a gyártóknál, mert ugyanolyan megoldást kínálnak a dark siliconra, mint a sok pici mag, ám megmarad a viszonylag magas egyszálú teljesítmény, és a throughput is brutálisan skálázható lesz.
-
Abu85
HÁZIGAZDA
Ezt a hsz-emből szűrted le? Mert ott nem volt ilyen dolog. A szuperszámítógépekbe nem fejlesztenek külön terméket. Általában a lapkák több piacon is átívelnek. Egy desktop CPU-ba szánt mag hasonló felépítéssel ott van a szuperszámítógépekben is. Lásd a Zambezi és az Opteronhoz használt Orichi. Hasonlóan a GPU-kra is ez a jellemző.
Miért szerinted élnek? Én úgy látom, hogy az AMD és az NV átnevezte az aktuális generációt a 100 dollár alatti szinten. Abszolút nem látok új generációs, 28 nm-es lapkát az olcsó termékekben, és a roadmapokon sincsenek feltüntetve. Az AMD-nél a tervezett Lombok is eltűnt, mintha sosem létezett volna, pedig létezett. Ott volt a régi roadmapokon.
A gyártók tudják, hogy szélmalomharcot vívnának az IGP-kkel, így ide új termékeket fejleszteni kidobott pénz. Inkább meg kell érteni, hogy a piac mobil termékeket akar, és rágyúrni az IGP-re, illetve a platformra, amivel a tömegek igényei kielégíthetőek. Ez szimpla gazdasági tényező. A tömeges igények kielégítése hozza a pénzt. -
P.H.
senior tag
Sosem értettem azt a hozzáállást, miszerint a mérnökök által ezerszer átrágott, pro és kontra érvek százait figyelembevevő tervek negatív, "nem elég" vagy akár "semmire sem való" felhangokkal átitatott fórumhozzászólásokban végzik. Pedig megfordítva egy semmilyennek látszó mikroarch-ról is lehet olyan cikket írni, ami után az embernek must-have érzése támad.
Nyilván mindegyik cég a nyereséget hajszolja (itt ebben az esetben pl. az is mérlegelendő, hogy egy CPU-ba és a GPU mellé is építeni egy-egy PCI-Express interface-t mekkora lapkahelyet foglal, míg összetenni őket és a GPU-nak is adni egypár - ezen a képen pár pixel méretű - TLB-t a virtuális címfordításhoz mennyivel kevesebb gyártási költség), vagy azt nézni, hogy a Wheel of Reincarnation is ezt a célt szolgálja (a memóriavezérlő + DMA vagy az I/O CPU-ba költöztetése is elsősorban költségcsökkentés, másodlagos hatása csak a csökkentő latency; lásd Atom).Ez a cikk csak megerősített abban, hogy itt nem arról van már szó, hogy a GPU beköltözik a CPU-ba: sokkal inkább arról, hogy a CPU-k - mint kisebb jelentőségű egységek - beköltöznek a GPU-ba. Különben mi a francot keresne egy erős integer-feldolgozás benne a GPU-ban? "Ez maximum három integer, egy memória és két dupla pontosságú lebegőpontos operációt jelent egyetlen részelemen. Ezenkívül az utasításarchitektúra támogatja a részleges utasításszavak párhuzamos végrehajtását, vagyis az előbb vázolt lehetőség mellett négy szimpla és két dupla pontosságú lebegőpontos operáció végrehajtása is lehetséges."
A Bulldozer is elindult ezen az úton, csökken a különálló CPU-magok végrehajtási képessége a korábbiakkal összevetve, míg a GCN esetén "A fentebb már említett skalárfeldolgozó némileg különc a CU-n belül. Ez lényegében egy integer ALU, mely 8 kB-os dedikált regiszterterületet kapott."
Tegyük hozzá ezt:
Two consecutive SGPRS's can be combined to store a single double precision work of 64 bits.
A fully functional “scalar unit” with independent arbitration and decode
– One scalar ALU or scalar memory read instruction processed per cycle
– 32/64 bit Integer ALU with memory read support
– 512 SGPR per SIMD shared between waves, {SGPRn+1, SGPR} pair provide 64 bit register
Scalar Data Cache 16 KB –64B lines, 4 Way Assoc, LRU replacement policy
– Peak Bandwidth per CU is 16 bytes/cycle
Scalar ALU instructions
– 32-bit arithmetic integer ops
Basic signed/unsigned integer arithmetic
Support for extended wide integer arithmetic
Compare (integer, bit, min/max), move and conditional move (select operations based on SCC)
– Rich set of 32b/64b bit-wise, bit-field, and bit manipulation ops
– Constants Operands
32b literals and float or integer hardware constants
– Scalar Condition Code (SCC) register
Read-Only data from memory via Scalar Data L1 Cache
– Read 1, 2, 4, 8 or 16 dwords from data cache into adjacent SGPRs
– Use either simple 64-bit address or resource constant
– Takes either an immediate offset or offset from SGPR
Special Ops
– Read 64b hardware Time Counter
– Invalidate Scalar R/O L1 data cache
Mi ez, ha nem egy user-space műveletvégző mai, 64 bites integer és 32/64 bites nem-SIMD (pl. x87) CPU - továbbfejlesztett - leképezése? Ugyan nincs ring0...ring3 megkülönböztetés, nincs megszakításkezelés, System Management Mode, és egyéb exotikus dolgok sincsenek (azaz a kernel mode-ok hiányoznak, ez majdan is a CPU-magok feladata), csak számítási kapacitás.Ez az egész valóban fájdalmas lenne programozói szempontból, ha nem lennének alattuk (már most vagy hamarosan) virtuális ISA-k a programoknak: a CUDA már most beépült (szó szerint) a fordítókba, az FSA is hamarosan be fog (mondjuk amit megjelenik, nem csak ígéret lesz). Utána csak az lesz a lényeg, hogy mivel lesz lefordítva a megírt program.
[ Módosította: #65675776 ]
-
miresz
veterán
Én nem bánom,ha legalább minimum egy 79xx szintű GPU-t bele tudnak integrálni.Ezzel csak az lesz a gond,ha GPU-t akarok cserélni,mert kevésnek bizonyul,hiába elég a processzor ereje dobhatom az egészet a csába,de még lehet a lapot is tokozás miatt. Ráfizetünk szerintem keményen erre az integrálásra.......
-
-
-
dezz
nagyúr
Nem a konzolokról van szó, hanem az APU-król. Évek óta megy erről a téma.
(#103) Csabroncka: Ezen jót mosolyogtam, köszi!
Valóban. De ha ennek tudatában írtad a #98-ast, akkor esetleg némi magyarázatot is fűzhetnél hozzá, hogyan is gondoltad. (Ja tudom, rittyentenek egy 2x erősebbet még jövőre.
)
-
havasa
aktív tag
válasz
Csabroncka #103 üzenetére
Erre elég az Intel pénze jelenleg, van hová fejlődniük az biztos.
#104 Angel1981: nem hivatalos.
-
pakriksz
őstag
alig várom már hogy eltűnjön akkor pc-ről a physx nevű borzalom és átvegyék a helyét értelmes nem dzsunka fizikai motorok, na meg a "meant to be slowed" játékok. De szép lenne.
-
-
válasz
Csabroncka #98 üzenetére
Ez mondjuk reális. De az Nvidia ha jól csinálja, pont betarthat az Intelnek.
Illetve az AMD is jól benne van már az APU-ban.Alaplapot gyártani meg mindenbe kell.
@dezz : Valóban nem követem a konzolos dolgokat, meg egyébként sem, mert annyira azért nem érek rá. (Ettől a számítógépet még bekapcsolhatom?
)
-
dezz
nagyúr
Elképzelés!? Te se sokat olvasgattál mostanában a témában...
A köv. Xboxban tudhatóan IBM-AMD koprodukciós APU lesz (CPU: PowerPC-féleség, GPU: GCN).
(#98) Csabroncka: Te miről beszélsz? Ez itt az Nvidia terve. Az Intel éppen, hogy kaparhat, ha akar valamit ellene.
(#96) staccato: Aha, a mai játékokkal. 5 év múlva pedig 5 év múlvai játékok lesznek...
Új hozzászólás Aktív témák
- Készpénzes / Utalásos Videokártya és Hardver felvásárlás! Személyesen vagy Postával!
- Gigabyte AORUS Radeon RX 6800 XT MASTER 16G
- ZOTAC RTX 3070 8GB GDDR6 Twin Edge OC Eladó!
- Készpénzes / Utalásos Videokártya és Hardver felvásárlás! Személyesen vagy Postával!
- 8GB-os RX570 - RX580-as VGA kártyák +1db RX 5500-as VGA eladóak
- Vállalom telefonok,tabletek javítását ,(szoftveres hibát is,frp lock-ot is)márkától fügetlenűl
- ÚJ Microsoft Surface Laptop 7 13.8" 2K - 120Hz Érintő - Snapdragon X Elite - 16GB - 512GB-2 év gari
- MacBook, Apple M1 / M2 kompatibilis dokkolók, DisplayLink 4K, USB-C, Type-C
- GYÖNYÖRŰ iPhone 13 512GB Starlight -1 ÉV GARANCIA - Kártyafüggetlen, MS3079, 100% Akkumulátor
- BESZÁMÍTÁS! ASRock B550M R5 5600 32GB DDR4 512GB SSD RTX 4060 TI 16GB Zalman N5 Chieftec 700W
Állásajánlatok
Cég: FOTC
Város: Budapest