Új hozzászólás Aktív témák
-
mclaren777
senior tag
Méggyorsabb és mégolcsóbb VGA karikat a népnek!
-
Abu85
HÁZIGAZDA
válasz
yakuza.tora #83 üzenetére
Ha sok a függőség a kódban, akkor akár sokkal többet is. A TFLOPS mint általánosan elfogadott irányadó adat igazából csak egy adott architektúrán belül irányadó.
-
Manbal
senior tag
válasz
RockyHorror #23 üzenetére
Ennek köze nincs a fermihez. Ez egy Ivy Bridge CPUval olyan űber brutális lesz, hogy kb. 10x gyorsabban fogja vinni a jelenlegi DX11es cuccokat, mint egy i7+HD6970
-
juzer78
tag
Ezzel a heterogén programozással csak egy a bajom, hogy egymás termékeire nem tesztelik, azaz AMD grafikával és Intel CPU-val nem fog működni, vagy nem úgy fog működni, ezzel elvész a szabad eszközválasztás, mert ha ki akarod használni maximálisan akkor kénytelen leszel AMD CPU-t használni AMD grafikával, vagy Intel-t Intellel ha a másik oldalról nézzük. Tulajdonképpen a gyártók megpróbálják magukhoz láncolni a felhasználót, sőt ha már megvetted és használod, akkor következőnek is nagy valószíbnűséggel ugyanazt a platformot fogod venni, mert ha elégedett vagy, nem akarsz lemondani semmiről, vagy esetleg úgy érezni hogy elköltöttél fejlesztésre egy vagyont, és inkább visszaléptél, mint sem előre, az inkompatibilitás miatt.
Abu85: Alapvetően nem gond az, hogy a Xenos-t másolja a MS mert, a techdemók kivételével ott alkalmazták először. Csak az a gond, hogy ahogy mond is, hogy másképp akarják használni. Valószínűleg a DX12-re át is gondolják, bár azok alapján ahogy az AMD felépíti az új architectúrát, van egy olyan sanda gyanúm, hogy nem.
-
juzer78
tag
Botrány? Hol élsz? Én is HD6xxx-es szériás kártyát használok (6870-et) eredetileg nem akartam váltani, de aztán mégis úgy alakult, és semmi botrányos dolgot nem tapasztalok.
Egyet lehet mondani, ha nagyon megerőltetjük magunkat, de arról nem tehet a kártya, ez pedig az elnevezés, de ahogy jönnek ki az újabb driverek, úgy fejlődik a sebessége is.
A 6xxx-es szériát úgy kell felfogni, mint a 4890-et, csak ott generáción belül maradt, és kevesebb optimalizáció történt, itt nagyobb változtatást eszközöltek.
Úgyhogy ez a botrány, ez amolyan városi legenda kategória!
-
P.H.
senior tag
Kb. úgy leszek vegyítve, hogy a lehető legkevesebb szabadságfokot hagyják meg a fordítónak, (mivel ez statikus esetben - Itanium - nem járható út, dinamikus esetben - JIT, Radeon - sem elég optimális bizonyos bonyolultság felett).
A vége val'szeg az lesz, hogy CPU assembly-szerűen közvetlenül lesznek programozhatók a "shader"-ek, csak pár év alatt meg kell a piaccal értetni, hogy a kompatibilitásnak/átjárhatóságnak teljesen vége (legfejlebb driverek szintjén megoldható, ezt kapjuk ma, a teljesítmény feláldozásával - ez a legrosszabb megoldás).Ehhez az az egyetlen lépés kell, hogy az AMD ne akarja törvényszerűen az Intel lépéseit lekövetni (csak ehhez a lépéshez viszont nehéz vezetőt találni
).
Ahogy ez megvan, úgy nem nagy ellenállás lesz hamarosan a PC-k esetében sem, ahogy a konzolok piacán sincs. -
Abu85
HÁZIGAZDA
Szerintem az új architektúra tervezésénél az elsődleges szempont az volt, hogy a 2013-as Fusionbe mi kellene. A Fusion stratégiából három lépcső ismert: heterogén integrálás, ami a Llano lenne, az integrálás optimalizálása lesz a Trinity, míg a következő nagyobb lépcsőfok az architektúrális integrálás. Az AFDS diái szerint ez jelentené azt, amikor az APU CPU és GPU magjai teljesen koherens memóriát oszthat meg egymással, és rendelkezzenek egyesített címtartománnyal. Az új CU ide készült, de a további tervek ismeretlenek. Annyit tudni, hogy áttervezett Bulldozer lesz next gen shader core-ral. Az alapokat mindkét esetben ismerjük már ... a Bulldozerről sok az adat, és a next gen shader core is bemutatkozott. A kérdés már csak az, hogy hogyan lesznek ezek vegyítve.
-
ddekany
veterán
válasz
Meteorhead #68 üzenetére
"csak lusták a programozók"
Nem tudom melyik játékfejlesztő cégre alapozod ezt, de amennyire tudom, a játék fejlesztés pont hogy igencsak strapás terület programozóknak. Főleg nevesebb cégeknél. Mellesleg a programozó azt csinálja, amire ad pénzt (= időt) a munkáltatója, és komolyabb helyeken ahol elvárás az odaadás és szintetikus lelkesedés (és tudtommal pont játék fejlesztésnél jellemzőbb ez) lehet azzal is csak 5x12 órában van kész határidőre.
"Csak lusták vagyunk gondolkozni.."
Ha a kis cégeknek honlapokat összehányó tipikus kókler PHP-makikból indulsz ki, akkor talán... bár akkor is, mihez képest, mert ugye mindenki azt teljesíti alul 10+ %-al, ami feladata, ami adott esetben a felmosás vagy jegyárusítás. Amúgy a nem-gondolkodás pont a programozói állásra nem jellemző, hisz az egész semmi más csak agytorna és agyszívatás. Max. még többet és többet és jobban kéne. De vannak emberi és idő korlátok, és persze motiválatlanság is. De lehet nagyokat álmodni, csak járatlan úton, úgy kifuthatsz a határidőből, hogy sej. Ja, és persze járatlan útra valószínűleg drágább szakemberek kellenek... és magasabb a kockázata a kudarcnak.
-
ddekany
veterán
válasz
atti_2010 #67 üzenetére
Ez a cikk arról szolt, hogy általánosabb számításokra hegyezik ki a GPU-t mint a (Direct3D/OpenGL-es) 3D grafika. Ha csupán arra akarnák ezt használni mint eddig a GPU-kat, akkor épp hogy alacsonyabb fogyasztást érnének el GPGPU nélkül. Az CPU-val egy lapra helyezés meg már az előző generációban megvolt.
-
kerelo
aktív tag
Jó és részletes cikk.Köszi
-
Abu85
HÁZIGAZDA
Értem a viccet
, de komolyra fordítva a szót, hatalmasat néznék. A felvásárlás ugyanis azt jelentené, hogy az Intel önállóan nem képes a heterogén érába belépni. Nagyon meglepő lenne, ha csak most jönnének rá erre mivel egy közös fejlesztés az NV-vel leghamarabb 2015-re valósulna meg, ami azt jelenti, hogy minden más gyártó elhúzna mellettük. Az Intelnek most kell APU nem 2015-re. Komoly integrálás pedig 2013-ra kell ... a 2015 minden szempontból nagyon késő.
2007-ben vagy 2008-ban még lehetett ezen gondolkodni. 2011-ben már felesleges. -
Meteorhead
aktív tag
Hogy mikre lehetne ezt használni? Egyet mondok, kettő lesz belőle: játékok. Mindenki tudja, hogy a GPUt egyedül a játékok hozták el arra a szintre, ahol most állnak, a GPGPU mint tervezési szempont mondjuk 2 éve van jelen. Addig meg örültek, hogy szoftveresen általános számításra is rá lehet venni a cuccot más számítására. Olyan brutálisan új játékélményt lehet produkálni a számítási teljesítmény növelésével, hogy az emberek hanyatt dobnák magukat. Ehhez csak fejlesztői fantázia és erőbefektetés kéne. Viszont az emberek sajnos lusták.
Elég rég megvan a lehetőség, hogy atom brutál vektorosított SSE kódot lehessen CPU-ra fordítani OpenCL-lel, irrrgalmatlan élethű (vagy fiction) fizikát lehetne játékokba rakni, törhető tárgyakkal, miegymás... csak lusták a programozók. (És ez igaz) Ez nem fejlesztési idő kérdése, csak gondolkodás kérdése. 3 hét engine tervezéssel, 2 hónap algoritmus írással, 2 hónap optimalizálással és 4 hónap teszteléssel lehetne egy játék motort írni. (Ezzel párhuzamosan render engine-t) Csak lusták vagyunk gondolkozni...
Ez az egész zero-copy integrált GPU-val pedig... durva tudna lenni.
-
nagyon kíváncsi vagyok rá,legalább annyira mint a Bulldozerra.
-
ddekany
veterán
Nagyon agresszíven elkezdték nyomni a "heterogén korszakot" mindenhol... Világos, hogy néhány célterületen óriásit lehetne ezzel ütni (pl. offline 3D rendering, u.i., az olyan tetű lassú jelenleg, hogy üvöltene a különbség), meg szakmailag izgalmas az egész... csak, legalábbis ahogy én látom, itt a valódi motiváció annyi, hogy a CPU/GPU/SoC gyártásban érdekeltek eléggé lelassultak mind a MHz emeléses mind a mag sokszorosításos mókában, haladni meg ugye muszáj, ezért most megpróbálják ezt tolni. Ezért aztán kíváncsi vagyok, hogy mennyire lesz ez kihasználva szoftver területen és mikortól, és egyáltalán mely területeken lesz ennek jelentősége. Pl. nem gondolom, hogy ez hasznos lesz irodai alkalmazásokban és úgy általában gazdasági rendszerekben, melyek tán a legfontosabb alkalmazásai a számítógépeknek. Ugyancsak nem látom hogy lesz ez hasznos webszervereken (persze kivéve ha az oldal dominánsan kép/hang feldolgozással, tehát nem csak lejátszás foglalkozik). Stb. Tehát hol lesz ez hasznos a nem-specialista PC-ken? Kapásból lehet mondani a multimédiát, de hát abból a lényeg, ami az egyszerű lejátszás, már egy ideje megoldott hardver szempontjából (a szoftveres bénázások más tészta). Mi lesz vajon az ok, ami miatt mindenki ilyen gépet akar majd? Azon kívül persze, hogy csak ilyet lehet kapni...
Esetleg szebb videó skálázás, frame szám növelés filmeknek, egyéb feljavítás (mert ugye az átlag ember bármi ilyet lát is, mikor durván elállított kontrasztú hibás képarányú adást nézett eddig egész nap, és fel sem tűnt neki, nem hogy zavarta volna). Meg játékok. Vajon a PC-k 99%-ának ez ennyi lesz? Vagy lesz más is?
-
Abu85
HÁZIGAZDA
Szerintem a tesszellálás javításához először a szoftveres alapokat kell elővenni. Az MS DX11-es futószalagja ebből a szempontból nem hatékony, és ezen kell elsődlegesen javítani. Amíg ez nem tröténik, meg addig a hardverek csak a rendelkezésre álló raszteres erőforrás nagyfokú pazarlásával képesek mikropoligonokat renderelni.
A probléma alapját abban látom, hogy az MS a DX11-ben az AMD Xenos megoldását másolja. Ez alapvetően nem baj, mert az xBox-ban jól működik, de a PC-n közel sem úgy szeretnék használni a fejlesztők, mint a konzolban. Na ez már sokkal inkább probléma. Magát a motort simán meg lehet tartani, de a feldolgozás és a raszterizálás menetét át kell gondolni. -
Abu85
HÁZIGAZDA
Itt igazából a heterogén érában pont az a lényeg, hogy az IGP alaposan kivegye a részét a munkából, mert a teljesítmény/fogyasztás aránya messze a CPU-magok alatt van. A szerverben is ugyanez a lényeg, csak sokkal több maggal. Ha ez nem lenne fontos, akkor senki sem tervezne heterogén módon programozható processzor, ellenben 2011 van, és minden vállalat útitervében ilyen processzor szerepel.
-
juzer78
tag
válasz
Meteorhead #49 üzenetére
"Az továbbra is hibának tűnik, hogy van tesszelátor," Nem hiba, nézd meg ahogy emelkedik a felbontás, úgy jönnek fel a Radeonok tesszelációs teljesítményei, egyre kevésbé jelentkezik a ROP-ok limitáló hatása. Egyszerűen a ROP-ok limitáló hatását kell csökkenteni vagy megszűntetni!
"nem szégyen a konkurenciától a jót ellesni." Amikor ezt elkezdték feljeszteni, akkor a Fermi is csak a tervezőasztalon figyelt...
-
Abu85
HÁZIGAZDA
A sweet spot bőven megtartható az új architektúra mellett is. Nem kell 500 mm^2-es GPU-t tervezni. A rendszer skálázható, szóval kettő 300 mm^2-es GPU is megoldás. A HPC-be már nem igazán, oda kell egy 500 mm^2-es. Bár az AMD-nél gyanítom, hogy a HPC-szervereket inkább a Fusionnel támadnák.
Az NV is csinálhatna sweet spot stratégiát. Annyit jelentene, hogy nem lenne GF100/110 a kínálatban, és akkor 2xGF114 lenne a toppon. Mondjuk igazából mindegy mi van ott, mert a HD 6990-et még két GF110-zel sem tudták fogni, így a GTX 590 dolog stratégiailag értelmetlen volt, de van és meg lehet venni.
Az olcsó rétegnek természetesen okvetlenül fontos a VLIW. Az NV compute architektúrájával nem tud versenyezni a GF114 alatt. A GF116 már számottevő hátrányban val a lapkaméret/teljesítmény szintjén, és ez az olló lefelé egyre csak nagyobb. Ha az AMD bevetné a kicsiknél ezt az architektúrát, akkor ugyanebben a hajóban evezne, és túlzottan nagy chipekre kényszerülnének.(#58) Bici: A fő fejlesztési szempont biztos, hogy a Fusion volt. Ez az AMD fő stratégiája: mindenhova Fusiont. Persze ha már kész a GPU, akkor lehet minden más piacot támadni.
Mondjuk ez a mindenhova Fusiont nem egyedi stratégia. Például az NV-nél is ugyanez fog menni, csak mindenhova Maxwellt szöveggel. Tulajdonképpen a heterogén éra 2013 felé teljesen beérik, és akkor az AMD-nek az számít, hogy Fusiont vegyél, az NV-nek az, hogy Maxwellt, míg az Intelnek az, hogy Haswellt. Minden más szempont másodlagos lesz. -
Coccer
tag
válasz
Plazmacucci #28 üzenetére
Egy jó bicikli túra a doktor úrral?
nevezek én is....
(#24) Brae: Nem annak a leszármazottait használja még ma is aki AMD vga-t használ
Nem volt az rossz, csak csiszolatlan!
-
Abu85
HÁZIGAZDA
válasz
Angel1981 #54 üzenetére
Eléggé úgy néz ki, hogy durva átalakuláson megy keresztül a piac. Az biztos, hogy az AMD a Caymant megtartja az alsó régióban, valszeg nem akarnak abba a hibába esni, mint az NV, hogy nagyon nagy lesz a kisebb chipek mérete. Ugye itt onnan kell számolni, hogy egy Barts és egy GF116 kiterjedése hasonló, de a teljesítmény szempontjából a Barts álvahagyja a GF116-ot. (Radeon HD 6870-GTX 550 TI összehasonlítás alapján). Ezzel az architektúrával a Barts teljesítménye 40 nm-en, nem hozható 250 mm^2-en belül, vagyis a kisebb lapkák miatt muszáj megtartani a régebbi, durván grafikai központú architektúrát. Tekintve, hogy a Trinity továbbra is VLIW rendszer, és a Dual Graphics szolgáltatást hosszútávon gondolja az AMD, a legkisebb két GPU-ban biztos megmarad a VLIW. Feltételezésem szerint a legkisebb ráadásul VLIW5 lesz. Talán még a középosztályban is.
-
Abu85
HÁZIGAZDA
válasz
yakuza.tora #51 üzenetére
Nem tudom, hogy mekkora méretben hozható az új GPU ezzel az architektúrával. Játszani persze lehet a számokkal, így teszem azt egy 24 CU-s lapka 800 MHz-en 2,45 TFLOPS.
Mindenképpen 4 CU többszöröse kell, mert a skalár gyorsítótás 4 CU között van megosztva. Feltételezésem szerint egy 4 CU-s tömböt vezérel egy ACE és a hozzá tartozó menedzsment.
Az biztos, hogy egy 4 CU-s csoportban lehet számolni 256 utasítás/ciklussal, ami 512 flop/óralej. Ebből tudtok számolgatni, ha gondoljátok.
Ugye az 512-őt már csak a MHz-cel kell megszorozni, és megkapod a 4 CU számítási teljesítményét MFLOPS-ban. Ehhez szépen hozzá lehet adogatni a tömböket.
Azt mindenképpen megjegyezném, hogy nem vagyok mérnök, de azt feltételezem, hogy egy 24 CU-s GPU 230 mm^2-be belefér 28 nm-en, de nem tudom, a legtöbb paramétert még, így egy durva kerekítést alkalmazta a többi részegység helyigényével. -
Angel1981
veterán
-
rumkola
nagyúr
válasz
RockyHorror #23 üzenetére
persze, csak az a jóslatok szerint annak alkalmatlannak kellett volna lennie a játékra, ez meg hulvafasza lesz
-
Abu85
HÁZIGAZDA
válasz
Meteorhead #49 üzenetére
A Fermiben is van tesszellátor. A shaderek nem csinálnak semmit. A shadereken a tesszellálás overkill, egyszerűen túl komplex a folyamat, így brutálisan lassú lenne az emuláció.
Nem tudom miért terjedt el az a nézet, hogy a Fermi a shadereken tesszellál. Ha ott tesszellálna 1 fps lenne mindenhol a sebesség.Valóban sok még a megválaszolatlan kérdés, de szerintem nem is volt cél ezeket megválaszolni. Egyszer úgyis megjelenik, és akkor mindenki megtud mindent.
-
Abu85
HÁZIGAZDA
válasz
Angel1981 #46 üzenetére
A mostani DX11-es futószalagra épülő grafika ezzel az architektúrával háttérbe szorul. Pontosabban megy, ahogy a Fermin is, csak a lapka ennél sokkal többre is képes, így kvázi sok lesz a felesleges tranyó a GPU-ban a DX11-es futószalag igényei szempontjából.
A játékok jövője viszont kérdéses. Ennyire compute rendszerek mellett tényleg ott a szoftver render lehetősége. Gyanítom a next-gen konzolok is erre mennek, szóval technikailag a DX11 csak azoknak lesz fontos, akik nem akarják kihasználni a lehetőségeket, vagy üzleti szempontok alapján megközelítve nincs meg a kifogyhatatlan anyagi hátterük a szoftver render motorhoz. Az MS egyébként itt húzhatna egy nagyot majd a DX12-vel. A futószalag egy része még mindig hasznos, így talán megoldható, hogy az új futószalag egyes lépcsőit tetszőlegesen kicserélheti a fejlesztő. -
Meteorhead
aktív tag
Lehet, hogy valamit nem írtak le (vagy én értem félre), de ez olyan brutálisan grafika orientált, hogy az már csuda. Egy CUban 16 utas SIMD egység, ami négy folyamatból fogadja az utasítást? 4 művelet 16 adaton?? Ezt GPGPU-ban lehetetlen kihsználni. Olyan fevktorizált kódot kell írni, amit nagyon sok esetben lehtetlen. A VLIW architektúra NAGYON jól vektorizálta a skalár kódot, de ez azért volt, mert nem SIMD egységek voltak. Most tényleg kisebb a teher a compileren, de a kártya túl nagy része félek pocsékba megy a grafika oltárán (ahová jó a 4 széles SIMD).
Az továbbra is hibának tűnik, hogy van tesszelátor, és nem a shaderek csinálják. Fermin nagyon bejött ez a dolog, és nem szégyen a konkurenciától a jót ellesni. (Nem mintha ez az architektúra önmagában nem hajazna arra) Minden újítás nagyon örvendetes (aszinkron szálütemező!!, írható másodszintű gyorsítótár, 64kB LDS...)
Ez nagyon brutál architektúra, bár mint mondottam volt, valami info nekem még hiányzik, hogy ebből hogy lesz GPGPU...
-
Ł-IceRocK-Ł
veterán
Erős váltás, kiváncsi vagyok hogy teszt alatt hogy produkál.
-
arn
félisten
szerintem rajottek, hogy nem jo, hogy az nv szabadon garazdalkodik azon a teruleten - a pcs jatekos nagyon szuk piac lesz, viszont a compute piac meg eleg jol tejel (arrol nem is beszelve, hogy tokmindegy milyen formaban, de ez a jovo)
az hogy utana hova integraljak, az mas teszta - szerintem hosszabbtavon szerverekben lesz erdekesebb a fusion, mert az otthoni felhasznalasi szint nem fogja a fejlodessel tartani az utemet (most sem tartja), egy szukseges szint felett nem fogja tovabbi vasarlasokra ingerelni az embereket a puszta teljesitmeny. eddig gyk ez mozgatta a piacot, de massal kell megfogni az embereket. erzodik is valamifele vergodes a piacon, hogy korabban az adott formaba kerult uj tartalom, most meg folyamatosan ujrapakoljak a gepeket (nettop, tablet, etc), es ez allitja uj kihivasok ele a hwgyartokat. kicsit hasonlo a helyzet a 80as evek kozepehez, amikor sokfele formaju gep jelent meg, es nem igazan volt vilagos, hogy melyik lesz a befuto, es melyik fog eltunni a sulyesztoben. ez az internet hatasa.
-
Abu85
HÁZIGAZDA
válasz
atti_2010 #40 üzenetére
A Trinity annyira nem nagy előrelépés a Llanohoz képest. optimalizált integráció. A Következő lépés sokkal komplexebb lehet, mint vártuk. Ez a CU nagyon compute rendszer, így a Bulldozer moduláris felépítését figyelembe véve még az FMAC-ot is ki lehet cserélni rá, vagy szimplán kiegészíteni. Lényegében egy CU-ban ott van négy 512 bites SIMD vektor. A nyers FLOP/ciklus teljesítményt nézve egy CU agyonver minden CPU-t.
-
Abu85
HÁZIGAZDA
Gyanítom, hogy a HD 7000 kettészakad. A Cayman és a régi tranzisztorbarát architektúra megmarad a kisebb GPU-knak. Az új architektúra megy a nagyobbakba. Még azt is el tudom képzelni, hogy a legkisebb HD 7000 egy Caicos die shrink, mivel a Deccan platformról az a pletyi járja, hgy marad a VLIW5 motor. Eléggé meg lesz keverve a dolog.
Az új arc egyébként eléggé compute központú. A régi grafika központú volt. Tekintve, hogy mennyire éles a váltás biztos be lesz célozva a HPC és a prof piac. Bár elsődlegesen biztos, hogy a harmadik generációs Fusion alapjainak a lefektetése a cél, az mindennél fontosabb, csak addig még sok idő van (úgy 2013-ban lehet a megjelenés, az év végét értve ezen), és érdemes közben piacokat szerezni, ha már ilyen a GPU. -
Abu85
HÁZIGAZDA
Az NV már döntött az ARM mellett. Nekik is megvan minden, a Fermi alapjai ugyanúgy fejleszthetők, szóval simán bevehető a Maxwellel a piac.
Az Intel számára a Larrabee a kulcskérdés, mert az lenne a válasz ezekre, csak egyelőre nem úgy működik, ahogy azt elképzelték. Na de idő még van.
-
atti_2010
nagyúr
Olyasmit lehet most olvasni, hogy a Bulldozer 2. generációja már olyan lesz mint az Intel féle Sandy, azaz CPU és GPU egyben és jön egy új tokozás is, és abba már ez a non-VLIW megoldás kerül.
A Sandy nem is APU csak egy proci egybetokozva egy IGP-vel, az viszont amire gondolsz a Trinity lesz, az AMD-nek most is van igazi APU-ja a Llano.
-
juzer78
tag
Ez bizony a HD7xxx szériában fog jönni és még az idén. A Cayman egyfajta kényszer volt a Fermi miatt, valszeg akkor még nem volt kész az amiről most megindultak az első információk. És ki tudja milyen rejtett képességékkel rendelkezik?! Mert a Cypresshez képest igen sokat nőtt méretében. A következő APU-k is a VLIW4 felépítést fogják használni, - volt erről egy dia valahol -, de sajnos ez az optimalizáció nem sikerült annyira jól, mint a Barts esetében. Ott megmaradt a VLIW5, reméljük az APU-k esetében kijavítják azt amit elrontottak.
Olyasmit lehet most olvasni, hogy a Bulldozer 2. generációja már olyan lesz mint az Intel féle Sandy, azaz CPU és GPU egyben és jön egy új tokozás is, és abba már ez a non-VLIW megoldás kerül.
Az Intel féle Larrabee kb a GTX470 szintjén üzemel, ami nem olyan rossz, szerintem hiba hogy az Intel nem adta ki, talán szoftveres oka lehet, de ami késik nem múlik...
-
jockas
senior tag
válasz
Angel1981 #36 üzenetére
Mert szerintem ennek még nem sok köze van/lesz a HD7xxx kártyákhoz. Ha azt az elméletet nézzük, hogy a diszkrét kártyák az alsó kategóriában kihalnak, akkor első körben az alsó kategóriás APU-kban lesz bevezetve, aztán tovább a középkategóriásokba is (a 6xxx -es kártyák is két külön architektúra, így miért ne lehetne egy harmadikat bevezetni az APU-kba, amik később továbbfejlesztett, optimizálva jönnek majd HD8xxx-es kártyáknál).
A másik verzió meg az lehet, hogy a HD7xxx két architektúrát fog képviselni és csak a drágábbik verzióknál lesz ez + APU-k.
Ha viszont a teljes HD7xxx széria ezzel lesz, akkor a Cayman egy teljes zsákutca és pénzkidobás volt...Szerk: Ha mi itthonról látjuk, hogy milyen jó irányba halad(hat) az AMD, akkor vajon az Intel mit tudhat? Nem hinném, hogy le kéne őket írni még a a tényleges harc előtt. Sőt...nem ezen az oldalon olvastam, de pont most tett egy kicsit (vagy nagyon?) keresztbe az AMD-nek (a sokak által emlegetett FMA-val), pedig eddig nem volt róla szó...
-
Angel1981
veterán
Megjelenési dátumról miért nincs szó?
-
arn
félisten
fura, hogy a caymant ilyen gyorsan melloznek... nem lehet hogy firegl van megcelozva? onnan meg a cloudok. azon a teruleten eleg nagy szeletet harap az nv.
-
Raucher
tag
attól, hogy az AMD innentől csak APUt gyárt majd, attól még fog élni Szegény Szabolcs akinek kéne HD gyorsítás de nincs sok pénze kártyára.
A gyártópartnerek, igény szerinti mennyiségben, továbbra is gyártanak ilyen kártyákat, csak a belépőszintű/(közép kategóriás) kártyák fejlesztését szünteti meg az AMD.
Ma is lehet AGP-s VGA kártyát kapni, sőt nemrégiben egy ISA buszos új VGA kártyát is bemutattak. (Bár nem hinném, hogy széles vásárlókörre számítanak az ISA esetében.) -
leviske
veterán
Nincs indokuk hosszú távon megtartani azt a szegmenst, ha egybe is tokozhatják az adott kategóriába szánt processzorral. Az nVIDIA meg sok vizet nem fog már zavarni, már nem is tudom hány generációnál maradt ki az alsó kategória (jött ki 400-as, vagy 500-as G/GT?).
(#30): Szegény Szabolcs eddig nem sokszor lett figyelembe véve. Ettől függetlenül persze nem azt kell várni, hogy egyik pillanatról a másikra fognak eltűnni a piacról a diszkrét, alsó kategóriás videokártyák, de az APU korszak bekövetkeztével rohamosan fog csökkenni az igény ezekre a kártyákra és pár Szegény Szabolcs miatt nem fognak gyártósorokat fenntartani.
-
attiLANte
tag
válasz
Plazmacucci #28 üzenetére
Szerintem ma már ne akarj többet bevenni - az a 64 kB-os cucc LDS lesz inkább...
-
vinibali
őstag
nem érted mire gondolok
megpróbálom más példával elmondani. attól, hogy mostanában a 4 ütemű motor a divat, 2ütemű olajat ugyan úgy gyártani kell, mégha az igény sokadrésze a mondjuk 20évvel ezelőttihez képest. tudom nem jó példa, de azért teljesen nem lehet kihagyni ezt az "iparágat". attól, hogy az AMD innentől csak APUt gyárt majd, attól még fog élni Szegény Szabolcs akinek kéne HD gyorsítás de nincs sok pénze kártyára. majd nyilván a gazdasági szakértők kielemzik mekkora lesz az "igény" de nem hinném, hogy egyről a kettőre nem lehet majd diszkrét VGA-t kapni
-
Angel1981
veterán
Azt írta "egyik napról a másikra nem lehet" - a kettő között különbség van.
Egyébként igaz; nem a gyártók, hanem az igények fogják megszüntetni.
A másik viszont szerintem nem egészen úgy lesz, ahogy írod; 1-2 év és tényleg a kutyának nem fog kelleni a belépő szintű dedikált VGA, az általad említett "szűk réteg" a közép és felső kategóriát fogja venni, bár szerintem 3 év, és a középkategória is komoly veszélybe kerül. -
64 kB-os LSD
Kérek -
Franklin
addikt
Nem lehet megszüntetni? Az igények fogják megszüntetni. Egy nagyon szűk rétegnek lesz csak szüksége dedikált GT210 és 5450 szintű vga-ra, belőlük pedig nem lehet megélni.
Persze nem egyik napról a másikra, ez tény. De a folyamat már elindult, látható. Lásd: ITT és ITT (utolsó bekezdés).
"A cél viszont egyértelmű: logikailag el kell fedni a CPU és a GPU közötti különbséget."
-
Brae
őstag
Kicsit tartok én ezektől a forradalmi újításoktól, nehogy az legyen, mint a HD2900XT-vel...
De majd meglátjuk. -
RockyHorror
csendes tag
ÖÖÖÖÖ..... akkor most mivan?? Feltalálták a Fermit?
-
Joachim21
őstag
CU(DA) magok az AMD-nél?
-
yakuza.tora
addikt
Arra azért kíváncsi lennék, hogy a lapkaméret növekedés milyen mértékű fogyasztás növekedést eredményez majd?
-
antikomcsi
veterán
Egy páran ezt már tavaly megmondták, persze akkor le lettek hülyézve. A kérdés felmerül, hogy akkor ki is van lemaradva? Mindenesetre reménykedjünk, hogy nem úgy sül fel, mint a 2900XT, vagy a gtx 480.
-
leviske
veterán
válasz
Angel1981 #13 üzenetére
A "gémereket" nem érinti, mert valószínűleg csak a HD7900-asok kapják meg ezt az architektúrát, a HD7800-asok és az alattuk lévők arra az architektúrára fognak alapozni, amire a HD6900-asok.
Megjegyzem ez elég érdekes taktika az AMD-től, de nem feltétlenül rossz értelemben.
(#11) sutszi: Akkor megkövetlek.
(#14) gekkoXT: Lehet, hogy hülyeséget írok, de ezt nem az Adobe-nak kéne megoldania?
-
gekkoXT
senior tag
Mikor lesz támogatva az AMD-nél a Mercury engine ami az Adobe premiere pro-ban van?
-
Angel1981
veterán
"az új felépítés biztosan nem bánik olyan kíméletesen a tranzisztorszámmal, mint az aktuális generáció, így a kisebb termékek mellett egyszerűen túl nagy lenne a lapkák mérete a rendkívül bonyolult vezérlés, és a sok extra képesség miatt, amelyek főleg az általános számítások mellett lesznek kamatoztathatók"
Ajajaj - akkor "gémer" szemszögből nézve a következő generációk veszíteni fognak a hatékonyságukból, igaz?
Mármint nem lesz annyival gyorsabb, mint amennyivel többet fogyaszt, és drágább, mi?
(á lá GTX480) -
Fermi à la AMD
-
Ja ezt nem hagytam figyelmen kívül. A különböző teljesítménykategóriák jövőben alakulásáról gondolkodtam. Ahogy írod pl a 2013-as generációban nem látom valós esélyét diszkért alsó és középkategóriás kártyák megjelenését. Kizárólag APU-kal egybeépítve lesz elérhető ez a kategória. Akinek szüksége lesz a nagyobb grafikus teljesítményre az pedig vesz még egy diszkrét kártyát aminek a teljesítménye önmagában is a felső kategóriába nevez..Ha nagyon sarkos akarok lenni, lényegében azt látom, hogy pl 2013-ban csak felső kategóriás diszkrét videokártyákat lehet majd kapni.
-
vinibali
őstag
igen így lesz, ezt már valaki peddzegette is, de másnak nem is lenne értelme. sőt én már azt is megkockáztatom, hogy ilyen szintű architektúraváltással talán az AMD már abszolút nem gondolkodik diszkrét VGA-ban, inkább csak APU vagy semmi
#8 CYBERIA: szerintem erre az Intel nagyon nehezen lép majd... az AMD nagyonn jól tudta már évekkel ezelőtt, hogy ez a lépés gyakorlatilag majdnem sakk-matt. a kezükben van egy ATI ennél nagyobb utőkártyát nagyon nem tudnék elképzelni...hacsak annyira nem haverkodnak össze az nVidiával, hogy meg is vegyékna jó ez már tényleg fikció de tudjuk semmi sem lehetetlen
-
leviske
veterán
Teljesen egyértelmű, hogy az APU-kat akarják nyomni a továbbiakban, de rossz részből következtetsz. Ez az architektúra később (valószínűleg már a 2013-as generációban) az APU-k részét is fogja képezni, csak addigra szereznek vele némi tapasztalatot.
(#7) vinibali: Jövőre az Intel is megérkezik a partiba, ahogy már egy előző cikkben Abu írta is. De egyébként amíg az Intel ilyen mértékben uralja a piacot, a fejlesztők úgy sem mehetnek el mellette szó nélkül, szóval azért nagy forradalomra nem érdemes számítani. Viszont az tény, hogy egy egészséges verseny van kialakulóban az AMD/Intel/nVidia közt.
(#10): Az azért talán túlzás, hogy nem gondolkodnak diszkrét GPU-ban, csak az alsó és később a középkategóriában válnak majd feleslegessé.
-
vinibali
őstag
ha ez a húzása bejön az AMD-nek, és tényleg a heterogén programozásra komolyan rááll mindenki. én azt mondom, hogy nem lesz itt ellenfél.... még az akármilyen erős Intel CPU-nak sem lesz olyan számítási teljesítménye mint egy jókis APUnak
röviden annyi a lényeg, hogy most fejtetőre áll a világnagyon nagy változások lesznek itt. a rendszerváltáshoz tudnám hasonítani, bár akkor még nem éltem
-
Nekem úgy tűnik, hogy az AMD a középkategória felső rétegét illetve az abszolút felső kategóriába szánja GPU-it a jövőben...Az alsó/közép kategória maradékát az APU-kkal szeretné lefedni...Legalábbis én az utolsó bekezdésből egy ilyen hozzáállást olvasok ki.
-
htibi20
csendes tag
Én nem teljesen értettem,egyébként jól hangzik
-
blackydan
senior tag
Reméljük tényleg nagy durranás lesz a 7000-res széria.
-
oPalRx7
aktív tag
fermi amd módra? én még mindig az "R600"at kedvelem, bár tény hogy azzal már nicns előre...
-
callmeakos
veterán
Jónak hangzanak. Csak csinálják meg jól is.
Új hozzászólás Aktív témák
- PowerColor Red Devil AMD Radeon RX 6800 XT 16GB Garanciával!
- Asus DUAL-RTX5070-O12G nVidia 5070 12GB GDDR7 OC videokártya bontatlan dobozában eladó!
- GIGABYTE RTX 5080 16GB GDDR7 GAMING OC - Új, 3 év garancia - Eladó
- Gigabyte GeForce RTX 2060 6GB Garanciával!
- Gigabyte Geforce GTX 1070 G1 Gaming 8GB Garanciával!
- Apple iPhone 15 Pro 128GB, Kártyafüggetlen, 1 Év Garanciával
- Samsung Galaxy A53 128GB, Kártyafüggetlen, 1 Év Garanciával
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7500F 32/64GB RAM RX 7800 XT 16GB GAMER PC termékbeszámítással
- Eladó 2db Nokia steel hr hibrid okos óra dobozával
- BESZÁMÍTÁS! Gigabyte H110M i5 6500 8GB DDR4 240GB SSD GTX 1050Ti 4GB AeroCool V3X Green nBase 600W
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: Laptopműhely Bt.
Város: Budapest