Új hozzászólás Aktív témák
-
Brown ügynök
senior tag
Ígéretes. Ezek a mérnökök megérdemlik a "Jómunkásember" címet.
-
con_di_B
tag
"Even though the results presented in this paper strongly
suggest that existing CUDA applications are not sensitive to
the latency or bandwidth of the GPU-CPU link, it may be
that applications developers are forced to spend extra efforts
to achieve this property when designing CUDA applications.
It is still the case that most CUDA applications are developed
and deployed on discrete GPU systems due to their significant
share of the total GPU market."Szóval ahogy mondtad, ők is óvatosan fogalmaznak azért.
-
nandon
tag
Engem lelkesít ez az AMD-s cucc... Vannak kétségeim, de az a szoftveres támogatás felfutási ütemével kapcsolatos...
Egyébként meg, az AMD nem engedhet meg magának túl nagy bakikat, mert ő a kisebbEzt világosan mutatja az x86 elmúlt 10 esztendeje (K7-K8-Ati felvásárlás-K10).
Az AMD piaci részesedése akkor sem tükrözte a technikai erőviszonyokat, amikor az AMD birtokolta a "legerősebb asztali CPU" címet. -
lenox
veterán
-
dezz
nagyúr
"Pont ugyan úgy kell programozni ezt is, mint ahogy eddig is kellett egy CPU(akár több magos)+ diszkrét GPU párost."
Most miért is ismételgeted ezt, dacára annak, hogy már többször is leírták, személy szerint neked, hogy nem így van?
(Főleg, hogy ezt már a HD3xxx-től méred.) Esetleg elkerülte a figyelmedet con_di_B #82-es hsz-e? Idézem:
"A HD3000-es szériánál még csak a Stream volt (Close To Metal?), a HD4000-esek tudnak OpenCL 1.0-át, atomi műveletek és osztott memória támogatás nélkül (= félkarú óriás), és csak a HD5000 után beszélhetünk elfogadható OpenCL támogatásról"
Tudod, mi volt a Close To Metal? Egyfajta ASM kódolás... A OpenCL már nem ilyen, de az 1.0 meglehetősen kezdetleges volt. Oké, hogy HD5000-től már volt 1.1, no de arra alapuló IGP még nem létezett.
Továbbá, az OpenCL (vagy akár a DirectCompute) alkalmazása is teljesen más, mint a CPU-s többszálúsítás.
Ha mindezt továbbra sem érted, hát tényleg maradj a kaptafánál, akarom mondani a multimédiánál...
lenox: Világos, hogy sok feladatnál sokkal többet számít a nagy memóriasávszél, mint a késleltetések (bár általában nem árt, ha az utóbbi elfedhető). Ezek főleg olyan műveletek, ahol nagyon sok adattal, de nem túl bonyolult műveleteket kell végezni. Végülis a játék-grafika is ilyen. De vannak olyanok is, ahol kevesebb adattal, de jóval bonyolultabbakat. Ilyen lehet adott esetben pl. a ray-tracing (meg ugyebár itt fontos a véletlenszerű memóriahozzáférés hatékonysága is, tekintve pl. a VRAM és a main ram eltérő időzítéseit). Ezeknél elég lehet az a 27 GB/s (feltételezem, ez a Llanora vonatkozik), illetve később "jelentősen több". (Meg ha most nincs, később biztos lesz hozzáférés a L3-hoz is.)
A Zacate-t (és az Ontariot) meg nyilván az IGP-k és low-end kártyák szintjén kell megítélni ilyen szempontból, nyilván nem egy súlycsoport egy komolyabb GPU-val, akármennyire is egy APU.
Elég baj, ha ilyen sokáig tart 1-1 számítási feladat indítása a GPU-n, ezen később bizonyára jelentősen javítanak majd, pl. az OpenCL1.2-ben.
-
con_di_B
tag
-
Abu85
HÁZIGAZDA
válasz
Bogyó bá' #167 üzenetére
A lábak számától függ a nyomtatott áramkör bonyolultsága is. Jelen pillanatban ennyire van lehetőség. Ha nagyon méret állnak rendelkezésre, akkor nyilván lehetne többet tenni, jobban integrálni, de a Brazos egy kis kiterjedésű platform, vagyis egy fizikai mérethatárba be kell férni. A jelenlegi technológiák mellett ennyi lehetséges. Annyira a SATA nem probléma, inkább a PCI Express csatornák száma fontos. A Brazosban 4+4 van egy-egy lapkában. Nyilván a jövőben lehet még jobban integrálni, de jelenleg egy Hudson M1 komplexitású déli híd integrálásával nem jársz jobban.
Amit leírsz az jó egy netbookba, de notebookba, nettopba, SFF PC-be és alaplapra több kell. A Brazos a netbook mellett még ezekre a piacokra is nevez. -
Bogyó bá'
nagyúr
Tudom, hogy a fizikailag kialakítható lábak száma korlátozó tényező, de pont egy netbook/nettop kategóriájú (ahol leginkább számítana a méret és fogyasztás) gépet amúgy sem szokott az ember ezernyi perifériával bővíteni. 1 db SATA port, sztereó hang, 3-5 db USB (3 db külső + 1 db a beépített kártyaolvasónak + 1 db a webcamnak)
a legtöbb esetben elegendő lenne... -
Abu85
HÁZIGAZDA
válasz
Bogyó bá' #165 üzenetére
Az északi híd már teljesen ott van a prociban, hiszen ha megnézed a Fusiont, és az Intel Sandy Bridge rendszerét, akkor integrálva van a memóriavezérlő, és a PCI Express vezérlő. Most a GPU-n volt a sor. Az ultra alacsony fogyasztású rendszereknél egy éven belül elérhetjük a teljes integráltságot, vagyis a PC-ben is megjelenik a SoC. Az ARM-os rendszerek már ilyenek.
A déli hí integrálásával az fő baj, hogy aránylag sok extra lábkivezetésre van szükség. Az ilyen Atom jellegű dizájnba 500 maximum 550 láb fér bele. Ha ennél több, akkor az jelenleg már nem jó. -
Bogyó bá'
nagyúr
Mi lehet az oka, hogy a processzorgyártók nem a chipkészletektől próbálnak "megszabadulni", a processzorba integrálva azt? Néha nagyobb fogyasztású, mint maga a processzor (pl. Intel Atomos chipkészletek...) Korszerűtlen gyártástechnológiájuk miatt (65nm - 90nm) a fizikai méretük is túl nagy, sőt többnyire még az alaplapi "hang-kodek" is külön IC. Miért nem ezeket a viszonylag egyszerű áramköröket építik egybe a processzorral?
-
Abu85
HÁZIGAZDA
Működött a heterogén programozás CPU és GPU-ra, de az APU hatékonyabb. A mostani lépés az első ebből a szempontból, az AMD-nek volt bátorsága meglépni. De idén még több gyártó meglépi ugyanezt, csak nem PC-s architektúrával.
Én a hírben azt állítottam, hogy a fúziós (integrációs) modellel egy csomó út nyílik meg előtted. A cikk első fele ezt taglalja. Nyilván ez fontos kérdés, mert a júzer látja, hogy mindenki integrál, de senki som érti miért.
-
lenox
veterán
válasz
freeapro #161 üzenetére
Na pont a directx-hez szinte semmit nem ertek, bocs. OpenGL, OpenCL, Cuda az oke. Szoval ha az opengl-re gondolok egyreszt nem gondolnam, hogy belathato idon belul driver nelkul mukodjon csupan mikrokoddal, de nem is ez a lenyeg, hanem hogy jo nagy szoftver overheadje van, nem a pcie latency az erdekes.
Szerintem en is pont azt irtam, hogy fogyasztas szempontjabol kiraly, csak el kene olvasni. Nekem annyi nem tetszik, hogy itt ajnarozzatok az integraciot, hogy ez mar lehetove teszi a heterogen processinget, ami eddig ertelmetlen volt, mert a pcie busz visszafogta. Egyreszt eddig is koszoni mukodott, masreszt ez a mostani egy igen pici lepes ebbol a szempontbol.
#160 Termeszetesen van, mar irtam is, hogy milyen kellene legyen a killer rendszer, a mostani sok szempontbol jo, spec heterogen processing hatekonysaga szempontjabol eleg kis lepes az eddigiekhez kepest, lasd eddigi hozzaszolasaim, hogy miert. Ehhez kepest te ugy allitod be, mintha eddig semmit nem lehetett volna csinalni, most meg mar mindent, ezzel en nem ertek egyet.
-
freeapro
senior tag
DirectX, OpenCl egy szoftveres API. Ha eddig DX-ben kiadtad a Draw parancsot, az először felinicializálta (PCIe csatornán keresztül) a diszkrét GPU-t egy adott feladatra, aztán átnyomta a VB-t a PCI csatornán, átküldte a paramétereket PCI csatornán. Ha ez hatékony lenne, akkor nem írták volna le, hogy batch-ben köldd az adatokat megspórolva az inicializálást minden objektumra és VB küldést.
Ez hogy fog kinézni fusion-ban? Driverek, oprendszerhívások és I/O műveletek helyett majd valami microcode fut le az APU-ban. Adat utaztatás helyett majd valami közös cache adatcsere lesz (nem a Brazos-ban!).
A többszáz wattot zabáló csúcs diszkrét GPU-kat nyilván nem fogja lehagyni, hiszen a csúcsteljesítményért a legújabb csúcs játékodért hajlandó vagy pazarolni, de SOKKAL HATÉKONYABBAN MŰKÖDIK!
Ez a lényege! Érted? És mivel ott van a prociban és egyszerű használni egy csomó ma még előre sem látható lehetőség van benne.
Pl gondolj bele ma hány grafikai és fizikai engine van a piacon. Kevés. Agyon kell optimalizálni, hogy működjön valahogy, ami pénz és idő igényes. Ezt csak nagy gyártók engedhetik meg maguknak. Így a PC játékpiacon ma csak drága és kevés játék van. Okostelefon fronton sokkal élvezetesebb és egyszerűbb játékok vannak amiket lényegesen kisebb cégek csinálnak.
-
Abu85
HÁZIGAZDA
Már megint eljutottunk egy lényeges kérdéshez. Szerinted van előnye a rendszerszintű integrációnak? Mert az az érzésem, hogy elbeszélünk egymás mellett. Nem a Brazosra gondolok, hanem úgy általánosságban.
Az, hogy mi költözik hova nézőpont kérdése. A lényeg ugyanaz, hogy a CPU és a GPU egy lapkában lesz, és komplett platformot ad. Aztán mellé rakhatsz akármit, akár két foglalatot is csinálhatsz az alaplapon, a lehetőségek határtalanok, ám az alapkoncepció mindig az integráció.
dezz: ezen ne múljon.
-
dezz
nagyúr
Jobb lett volna úgy a cím, hogy Beindult az AMD fúziója.
-
lenox
veterán
Erdekes, hogy pl. a #128-ban tudtad meg idezni tolem, hogy szerintem milyen elonye van az integracionak, de mostanra meg mar ugy tudod, hogy szerintem nincs elonye, es nyomatod, hogy kit hulyezek le ezzel mar tobb hozzaszolas ota. Terelesnek jo, de amugy nem tartom melto hozzaallasnak, gondolkozz el ezen szerintem. Legyszi a nevemben mostantol ne hulyezz le senkit, majd en megteszem, ha ugy latom jonak, koszi.
És mégis ki mondta, hogy a második vagy a harmadik generációs Fusion alatt már nem lesz combos memóriaalrendszer?
Egyelore nem tudok senkirol, aki mondta volna, de azt, hogy mi hianyzik meg az igazi fejlodeshez, azt spec. en mar pont mondtam, ez az egyik. Ugyhogy en varom is, hogy lesz, teljesen logikus lepes lenne. Aztan arrol lehet otletelni, hogy ez azert draga lesz entry level alaplapra tenni, de kell, ezert fel lehet rakni a memoriarendszert a gpu/cpu integralt chippel egy kartyara, es azt bedugni az alaplapba, vagyis hogy idovel az en tippem szerint nem a gpu fog lekoltozni a cpuba, hanem a cpu fog felkoltozni a 'grafkartyara', legalabbis a desktopon. De monduk ez csak egy tipp.
-
Abu85
HÁZIGAZDA
Tehát, akkor szerinted az Intel teljesen feleslegesen dolgozott, amikor az új generációs Atomot lekicsinyítették. Ehhez képest, azért volt olyan netbook, amibe alig fért bele a termék. Ez a netbook nem születhetett volna meg a régi Atommal.
Nem, te azt mondtad, hogy az integrációnak nincs előnye. Persze az már fejlődés, hogy eljutottunk oda, hogy a méret lett a lényeg. Pár hsz még és meglátod az integráció előnyét.És mégis ki mondta, hogy a második vagy a harmadik generációs Fusion alatt már nem lesz combos memóriaalrendszer? Az előnyök a rendszerszintű integrációval kézzel foghatóak. Ezt látja a piac összes szereplője. Ha szerinted nincs előny, akkor csak lehülyézed a mérnököket, mert mindenki ilyen irányba fejleszt. Most akkor mi van? Van előnye az elgondolásnak, vagy hülyék a mérnökök, hogy ilyen irányba mennek. A kettő kizárja egymást.
-
lenox
veterán
Nem, nem neztem meg, mert nincs jelentosege, az egesz amiatt jon fel, hogy lehet-e a mobil eszkozben x16, igen lehet. Es igen, jol latod, hogy a meret a lenyeg, erted, nem a maximalis teljesitmeny. Eddig is ezt mondtam.
Konkrétan az események szinkronjára gondolok. Az egy buszon keresztül nagyon fáj. Eddig ezért nem használták a fejlesztők, mert olyan késleltetések mellett, ami van a buszon értelmetlen. A rendszerszintű integráció értelmet ad ennek.
Ez szerintem tevedes, pl. en is hasznaltam. Nyilvan en csak egy vagyok, de ettol meg lehetett hasznalni, aki akarta hasznalhatta, nem tulzottan valtozik semmi azzal, hogy most joval kisebb latency van, illetve annyi valtozik vele, hogy bizonyos algoritmusok ezzel hatekonnya valhatnak, kar, hogy csak limitalt teljesitmeny mellett van igy, ha nagyobb teljesitmeny kene, akkor nincs kis latency opcio, mert muszaj diszkret gput hasznalni, azzal ugyanis gyorsabb a rendszer.
Én nem a Fusionról beszéltem, amikor az integráció értelmét elemeztem, hanem a konkrét előnyökről, amiért minden vállalat erre megy. Bár szerinted minden cég idióta mérnököket alkalmaznak.
Nem tudom mire velni, hogy tovabbra is ugy teszel, mintha nem ertened, hogy nem csak egy cel lehet, pl. a max teljesitmeny biztos nem volt cel 2011-re, nem is ertek el, ettol meg uzletileg ennek van ertelme. En a mernokoket biztos nem idiotaztam le, de a mernokok tul szoktak latni a marketing rizsan. Spec en mar 2006-ban is kerdeztem az amd-seket, amikor jottek fusion-t prezentalni, hogy jo, de mit csinaljak vele, ha nem raknak ala gyors memoriabuszt, akkor ez tul gyors nem lesz. Mondjuk ok nem is ertetlenkedtek ennyit, mint te, hanem mondtak, hogy igen, de nem is az a celja.De a köztük lévő kommunikáció lassú, és a buszok fejlődése sokkal lassabb, mint ahogyan a lapkák fejlődének
Igy van. Ezzel egyutt ha kiherelt memoriarendszert raksz az integralt chiped ala, akkor nem gyorsulni fog, hanem lassulni. Ahhoz, hogy gyorsuljon kell nagy memoriasavszelesseg is. Ezt kene mar felfogni. Persze sejtem, hogy valojaban mar reg egyetertesz, csak kotod az ebet a karohoz.
#151:
A késleltetés érzékenységnél meg maradok annál amegfogalmazásomnál, hogy sokkal többször, mint gondolnád.
Ahogy tetszik, nyugodtan lenezhetsz, szerintem van mar akkora szakmai elismertsegem, hogy ebbe ne halljak bele
.
#153:
Bocs, de ezek nem összehasonlítható dolgok. A PCIe busz latency-t a belső adatbusz latency-vel hasonlítsd össze, az opencl API hívás idejét meg egy DX API hívás végrehajtási idejével.Ok, majd elgondolkozom rajta. De szerintem nincs igazad, mivel a vegrehajtasi ido nem csak pcie latencybol all, tehat erdemes tudni, hogy ennek a latencynek mekkora jelentosege van az egesz processing szempontjabol, tehat hogy hogy viszonyul a tobbi idohoz. Pont ezert erdekes, hogy mar pl. az opencl kernel launch overheadjehez kepest is elhanyagolhato, ugyhogy erre hivatkozva allitani, hogy a diszkret gpu-s rendszerek annyival lassabbak, mint az integraltak, hogy foglalkozni sem erdemes veluk, eleg erdekes.
#155:
Mit keverek szerinted? Pontosan mit mivel? Amugy abban egyetertunk, hogy a high-end gpu-k erosebbek, nem pont ezt mondom mar sok hozzaszolason keresztul?
Kulonben pont most portolok fizika szamitast gpu-ra, szerintem kepben vagyok. -
freeapro
senior tag
Ennek az APU design-nak a bottleneckje a memoriabusz. A gpu-t etetni kell adattal. Vajon ez hogy fog jobban menni, ha a cpu/gpu parosnak osszesen van elmeleti 27 GB/sec-je, vagy ha osszesen 180 GB/sec-je van. Szerintem a masodik esetben, szerinted az elsoben... Emlekszel, mi volt felirva az nv abrajara amire hivatkozol? 1.4 TB/sec.
Itt is keversz dolgokat. A Fusion egy átfogó neve a heterogén fejlesztéseknek, ami most kijött az a Brazos platform, a low end vége a fejlesztésnek, amit nettopokba meg táblagépekbe szánnak. Ezt felesleges hasonlítani a high-end gpu-khoz. Ha majd kijön a liano, akkor közelebb lesznek az értékek, de az is gyengébb lesz mint egy direkt high end gpu a megfelelő feladatra és a megfelelően optimalizált programmal.
De a lianoban majd lehet vegyesen használni a az integrált gpu-t a diszkrét gpu-val. Például fizika számításra integrált gpu-t használsz, mert kisebb adatmennyiségnek többször neki kell futni (ütközés számítás), majd a renderelés lépést batchelten el lehet küldeni a diszkrét gpu-nak.
A teljes rendszer így is gyorsulni tud. -
erdoke
titán
Várjuk meg, mit mond a MS ezzel kapcsolatban. Nem vagyok benne biztos, hogy a CES folyamán részletes információkkal szolgálnak arról, hogy pontosan milyen lesz a Windows 8, illetve hogy külön lesz ARM-es változat, vagy egybegyúrják az egészet. Program oldalról is kérdéses az egész, virtualizációval pont a hely- és energiatakarékosság veszik el.
-
freeapro
senior tag
A kesleltetes alatt a latency-re gondolsz? Mert ugye azt mar irtam fent, hogy egy opencl kernel launch kesleltetese tobb 100-szor annyi, mint a pcie busze, tehat tul sok jelentosege nincs.
Bocs, de ezek nem összehasonlítható dolgok. A PCIe busz latency-t a belső adatbusz latency-vel hasonlítsd össze, az opencl API hívás idejét meg egy DX API hívás végrehajtási idejével.
-
freeapro
senior tag
Dehogynem: single core > multi core > hetrogen
Hogy értsd, hogy miről beszélek: próbáltam DX játékot csinálni, a doc és a példák alapján vertex buffereket csináltam az objektumokra, kiszámoltam a mátrixokat és szépen egyesével kipakoltam a képernyőre. Állati lassú lett. Ekkor elkezdtem mégegyszer átnyálazni az SDK docot és többszázoldalas nyomtatásban tényleg ott volt az egysoros megjegyzés, hogy a graf kártyák azt szeretik, ha nem csak úgy összevisza küldjük az adatokat, hanem az azonos objektumokat egyszerre batchben szeretik kiiratni.
Hiába pár sor a kódodban egy API hívás ha mögötte több száz soros driver kódot kell végrehajtani és rendszerek között kell kommunikálni aminek nagy overheadje van, akkor azt másképp kell csinálni.
De ha egy chipeben lesz az egész, lehet, hogy újra elővehetem a programomat és most jól fog futni...Ennél jobban már tényleg nem tudom elmagyarázni..
-
con_di_B
tag
No-no-no, nézd vissza, hogy én mikor mit állítottam pontosan. Pl. már a #82-es hsz-emben is benne van, hogy bivalynak ezután is a felsőkategóriás diszkrét GPU lesz bivaly. (Csak ott kiegészítettem egy optimista jövőképpel.
1-2) Ergo, én azt mondom, hogy meglepően jó lesz. De azért azt ne várjuk, hogy eléri akár a bokáját is a Cayman-nak, ennyire még egy cég sem volt hülye, hogy a 100eFt-os csúcskártyája tudását odaadja neked egy-két dolláros feláron. (Nem is tudná, de nyilván NAGYON nem is akarja.)
A késleltetés érzékenységnél meg maradok annál amegfogalmazásomnál, hogy sokkal többször, mint gondolnád.
(Egyébként akkor nem érdekelhetnének az AMD cuccai GPGPU szempontból, mert EZ az architektúra (GPU-n belül), eleve pont, hogy csak "bizonyos extrém esetben" versenyképes mondjuk a Fermi-vel.
)
3) Persze, ugyanazt mondjuk.
Szóval, én eddig is ezt mondtam, azt, hogy kihalnának a diszkrét GPU-k, amíg össze se mérhető a rendszermemória sávszélessége egy sajátkártyás cuccéval, addig erre aligha kerül sor. Viszont ez a piacnak csak kis része, amelyik felhasználó igényel ilyen kártyát. Ilyen szempontból még meg is lehet érteni ha valaki azt mondja "el fog tűnni", de én pont nem mondtam, ne rajtam verd le.
"Na ne kezdj el visszakozni, szo sem volt ugyanannyi penzrol meg tdp-rol vagy helyrol, pontosan a felsokategorias gpu-krol volt szo" - de ezt mi értelme egyáltalán összehasonlítani? Csodák nincsenek, azért felső kategóriás, hogy jobb legyen ennél. A legalja diszkrétekkel kell/szabad összevetni.
Ami viszont vitatéma volt a fórumban, hogy most mérföldkő-e vagy sem. Szerintem teljesen védhető az álláspontod, de vmelyik hsz-emben meg írtam, hogy akkor innentől kezdve minden újonnan vásárolt PC-szerű gépben ott fog mosolyogni egy egész korrekt OpenCL implementáció. NEKEM ez mérföldkő. x600-as VGA-nál gyengébbet meg soha nem vettem, szóval mint VGA engem speciel hidegen hagy majd az asztali verziója is, de az nagyon jó, hogy van, és hangyányi igazítással viszi ugyanazt a kódot. (Elvben. Aztán majd meglátom amikor szüttyögni kell vele, milyen lesz.) Egyébként meg ha ez nem az, akkor nem tudom mi. Anno az integrált memóriavezérlőt is mérföldkőnek tekintettük, pedig az egy triviálisabb dolog ennél.
-
Abu85
HÁZIGAZDA
Remélem megnézted, hogy az első generációs Atom mennyivel nagyobb kiterjedésű, mint a második generációs. Főleg az Ion platformmal.
A Pine Trail és a Brazos ennél kevesebb helyet követel. Mindez ugye feltétel, mert a gyártók is csökkentik a termékek tömegét, és vastagságát, következésképpen kisebb dizájn is kell az alaplap területén. Lehet, hogy még nem vetted észre, de 2011-ben az a cél, hogy az eddig bemutatott netbook és notebookoknál vékonyabb termékek lássanak napvilágot. Akár extrém vékony Macbook Air stílusúak. Ehhez elengedhetetlen egy apró alaplapi dizájn, amire elfogadható fogyasztás mellett egy mód van. Gondolom kitalálod, hogy mi.
Konkrétan az események szinkronjára gondolok. Az egy buszon keresztül nagyon fáj. Eddig ezért nem használták a fejlesztők, mert olyan késleltetések mellett, ami van a buszon értelmetlen. A rendszerszintű integráció értelmet ad ennek.
Én nem a Fusionról beszéltem, amikor az integráció értelmét elemeztem, hanem a konkrét előnyökről, amiért minden vállalat erre megy. Bár szerinted minden cég idióta mérnököket alkalmaznak.
Nem, nem arra az ábrára gondoltam. A bemutató csak egy elméleti dolog volt. Az NV azt vizsgálta, hogy mire jó a CPU (más néven latency optimized core) és a GPU (throughput optimized core). Külön külön fel voltak sorolva az előnyök és a hátrányok, vagyis egymás kiváltására nem jók. Itt jutott el az elmélkedés oda, hogy miért alkalmazzunk a gépekben CPU-t és GPU-t. De a köztük lévő kommunikáció lassú, és a buszok fejlődése sokkal lassabb, mint ahogyan a lapkák fejlődének, vagyis találni kell valamit, amitől gyorsabban kommunikálhatnak. Konklúzió: megoldás az integráció és heterogén módon programozható lapka. A chipben van latency és throughput optimized core, vagyis a programozó dolga sokkal szabadabb, és természetesen közös memória. Nyilván itt kérdés volt, hogy mi lesz a latency optimized core, amire nem érkezett válasz, de én feltételezem az ARM-ot, mert a Windows 8 futni fog rajta. Ergó az NV egy olyan platformot kínál, amin fut majd a Windows 8, ami elég nagy szó. A hírek szerint a Kepler már ilyen lesz, de a Maxwell biztos. Arról nincs szó, hogy lesz-e belőlük hagyományos grafikus kártya PC-be. Elképzelhető, mert kivitelezhető dolog, de a platform fontosabb, sőt a NV integrációja nem zárja ki, hogy ne rakj mellé pár NV GPU-t. Ezekkel a módosításokkal a cGPU operációs rendszert tud majd futtatni, és ez az NV célja, komplett platformot kínálni, és elszakadni az Intel akaratától. -
lenox
veterán
válasz
con_di_B #147 üzenetére
1-2. Dontd el, hogy azt allitod, hogy bizonyos extrem esetben, vagy leggtobbszor igy van. Elobbi eset szamomra nem erdekes, utobbi esetben ezek szerint te azt allitod, hogy barmely gpu-s feladatban a szinkronizacio miatt ez a platform tobbszor gyorsabb lesz, mint barmely diszkret gpu. Arra meg akkor fogadjunk.
3. Ha jobb a masolgatas, akkor nyilvan masolgatni kell. De ez erosen feladatfuggo, hogy mennyire lehet elfedni a kesleltetest, es hogy mennyi adatot, milyen gyakran kell elerni.
Szerintem nem erdemes nagyon talalgatni, hogy mit gondolok, meg szerintem gpu temaban is eleg jo tapasztalatom van. A konkret esetben pontosan azt gondolom, hogy ezt a platformot es egy eros diszkret gpus platformot osszehasonlitva atlagos feladatnal ennel komolyabb bottleneck lesz a bandwidth, mint a diszkret gpus esetben a kesleltetes.
#148 Na ne kezdj el visszakozni, szo sem volt ugyanannyi penzrol meg tdp-rol vagy helyrol, pontosan a felsokategorias gpu-krol volt szo. Latom vegiggondolva mar kezded atlatni, es igy probalsz kihatralni, de resen vagyok. Mar evek ota errol van szo egyebkent, Abu szerint az integracio miatt a diszkret gpu-k kihalnak, szerintem es meg neha mas is egyetert a diszkret gpu-k addig mindig nagyobb teljesitmenyt fognak hozni, amig nem lesz az integralt chipnek olyan memoriarendszere, mint amit a vga-kon csinalnak (egyebkent a ket allitas nem teljesen ellentetes, hiszen hiaba gyorsabb valami, ha uzletileg nem tud megelni). Nyilvan nem az entry level vga-krol van szo, hanem az erosebbekrol, legutoljara 100 dollar felettieket emlegettunk. Ez a platform is egyelore a 40-50$ koruli vgakig er csak fel. Mondjuk az tisztesseges, nem azt mondom, de nem nagyon latom, hogy merfoldko lenne altalaban, csakis az integralt megoldasok kozott.
-
con_di_B
tag
"Ettol fuggetlenul en elhiszem, hogy lehet olyan alkalmazast irni, hogy gyorsabb lesz ezen a platformon, mint diszkret gpu-val, pl. latency benchmark, csak azt ketlem, hogy az atlagos, de jol megirt alkalmazasoknal igy lenne."
Nyilván a csúcs az, ha van külön NYÁK-on egy 300W-ot evő szörnyed 4GHZ-es GDDR5-el, de itt most az a kérdés, hogy ha ugyanennyi pénzből/TDP-ből/méretből kell kihozni egy megoldást, ami tudja azt amit az APU, akkor szóba jön-e a diszkrét megoldás.
- Ekkora helyen sztem még csak a RAM-ja se férne el.
- Ekkora fogyasztással az sem lenne erősebb, mint GPU.
- Viszont külön lapka-nagyobb méret stb.Értelemszerűen, ha építeni akarnának egy "szörny" APU-t, amibe beletokoznák a Cayman-t, akkor borulna az egész, mert bejönne az amit mondasz, hogy ugyanúgy éhen hal, csak neki meg a sávszélesség lenne kevés. Még ennek is az, mondjuk tisztán grafikai felhasználásnál, csak kárpótolja az alacsony latency. De ez nem ökölszabály. Az se véletlen, h az első, kizárólag felső-kategóriában megjelenő Bulldozerben nincs is integrált GPU. Meg a felsőkategóriában később sem lesz, jó eséllyel.
Ui: ennél a latency vs. bandwith dolognál gondolj csak arra, hogy a diszkrét GPU-kra jobban hasonlító, alaplapi chipkészletbe integrált GPU-kon mennyit dobott mondjuk egy 1333MHz-es SidePort a közelébe építve, az akár 2GHZ-es DDR III rendszermemóriához képest az alacsonyabb késleltetés miatt. (Ugyanúgy 64 bit volt a sávszélesség, amivel elérte.) Ez meg ahhoz képest is nagyságrendi ugrás. Persze nem ezt demózták az AvP2-vel, hanem a LLano-t.
-
con_di_B
tag
1) Bizonyos értelemben mindegyikben, mivel a GPU-kban nincs és nem is lesz normális folyamatvezérlés. Szóval ha te nem adod meg explicite event-ekkel, akkor is kell.
Pl. ha kitalálod, hogy te 16536*16536*16536-os párhuzamos rácson akarsz dolgozni, simán lehet h az implementáció hagyni fogja neked, de a GPU maga erre nincs felkészítve, ezért a CPU fogja neked felosztani a feladatot kisebb blokkokra szekvenciálisan végrehajtható formában. És akkor máris nem vezérlési idő, hanem vezérlési idő*K.
Pl2. vannak alapból blokkoló utasítások. Az sem feltétlenül GPU-n belül történik.
Ha megnézel egy profiler-t, akkor láthatod, hogy bizonyos esetekben a CPU-time a GPU-time akár kétszeresét is elérheti. Magyarán a CPU-nak majdnem annyit kellett szarakodnia a vezérléssel, mint amennyit a GPU effektív (?) munkavégzéssel töltött.
2) -||-
3) Lehet, csak az utána nem IMC-n, hanem PCI-Expressen keresztül fogja elérni, az meg fáj. Annyira fáj, hogy még a másolgatással is jobban jársz.
Egyébként a késleltetés maga az fontosabb probléma, mint gondolnád, a GPU-kban pl. azért van úgy megoldva, h van kismillió végrehajtóegység és kismilliószor*N kezelt szál, hogy az éppen éhező work-item végrehajtását gyorsan le lehessen cserélni azéra, amelyik éppen kapott adatot. Így el van rejtve a késleltetés.
A gond ott kezdődik, hogy egy komolyabb kernelnek akkora a regiszter/lokális memória igénye, hogy nem tudsz belőle túl sok szálat "tárolni", ugyanis a GPU-n nem kifejezett verem oldja meg a szálváltást, hanem akkora baromi nagy regisztertömb van benne, hogy konkrétan mindegyik szálnak megvannak a saját regiszterei, a szálváltás meg csak annyi, h éppen melyik regiszterkupacból zavarjuk be az adatokat a végrehajtókba.
-
lenox
veterán
válasz
con_di_B #144 üzenetére
1. Igen, de kivancsi vagyok, hogy az alkalmazasok hany szazalekaban kell masodpercenkent tobb ezerszer szinkronizalni es megis gpu-t hasznalni, mert akkor lenne ennek jelentosege. Szerintem elenyeszo, de mondd, ha tevednek.
2. Igy van, azert is irtam, hogy a pcie latency microsec nagysagrendu, vagyis a 7GB/s-nek ez nem reciproka. Es ennek megint csak akkor lenne jelentosege, ha masodpercenkent sok ezer egymastol fuggetlen transzfert kene inditanod, ami megint csak az alkalmazasok elenyeszo reszeben van.
3. Diszkret gpu-nal is lehet, es megint ismetelni tudom magam, hogy mikor van jelentosege a pcie nagyobb latencyjenek.
Ettol fuggetlenul en elhiszem, hogy lehet olyan alkalmazast irni, hogy gyorsabb lesz ezen a platformon, mint diszkret gpu-val, pl. latency benchmark, csak azt ketlem, hogy az atlagos, de jol megirt alkalmazasoknal igy lenne.
-
lenox
veterán
És szerinted egy Atom méretű holmiban lehetséges volt akkor PCI Express x1 kapcsolatnál többet kiépíteni?
Nvidia Ion? X16 + 4*X1.
És a dedikált GPU fedélzeti memóriájába Panni néni majd bevarázsolja az adatokat ugye?
A másik dolog, amiről megfeledkezel az a késleltetés. Minél több buszt használsz, annál több időd megy "kárba".
Nem tudom, hogy ertetted-e az elozo hozzaszolasomat. Amikor a transfer speedrol beszeltem, az neked nem azt jelentette, hogy az adatok bemennek, vagy kijonnek a gpu fedelzeti memoriajabol? Erted, apu vs pcie, egyiknel ennyi a transfer speed, a masiknal annyi... A kesleltetes alatt a latency-re gondolsz? Mert ugye azt mar irtam fent, hogy egy opencl kernel launch kesleltetese tobb 100-szor annyi, mint a pcie busze, tehat tul sok jelentosege nincs. Ha csak arra gondolsz, hogy ki kell varni, mig odaernek az adatok, akkor meg az a transfer speedel fugg ossze, lasd fent.
Ettől függetlenül megértettem a mondandód, és nyilvánvaló, hogy azért megy minden vállalat ebbe az irányba, mert nem jár előnyökkel.
A masodik felebol ugy tunik nem erted, hogy tobb szempont van, amiben ez a mostani Fusion jobb a diszkret gpu-knal, a sebesseg spec. nincs koztuk. Pl. SoC-nal neveben is benne van, hogy az integraltsag a fo tenyezo, nem a sebesseg, hogy ezt milyen megfontolasbol hoztad fel peldanak??? Na majd meglatjuk a teszt eredmenyeket, ha lesznek, vajon egy csucs amd vagy nv kartyaval lesz-e nagyobb a teljesitmeny, vagy anelkul...
Azert meg egyszer megprobalom. Ennek az APU design-nak a bottleneckje a memoriabusz. A gpu-t etetni kell adattal. Vajon ez hogy fog jobban menni, ha a cpu/gpu parosnak osszesen van elmeleti 27 GB/sec-je, vagy ha osszesen 180 GB/sec-je van. Szerintem a masodik esetben, szerinted az elsoben... Emlekszel, mi volt felirva az nv abrajara amire hivatkozol? 1.4 TB/sec. Na ok etetik adattal rendesen. Mondjuk ezt mar tobb, mint egy eve mondjuk neked emlekeim szerint, es meg mindig nem hiszed el. -
con_di_B
tag
1) Heterogén számolás közben nem kizárólag adatmozgatás van, hanem egyszerű eseményalapú szinkronizáció is. Ez pedig nagyon érzékeny a késleltetésre, effektíve sok adatmozgással azzal nem jár.
2) A késleltetés nem a sávszélesség reciproka, szóval más a diákon is marhaság ez a 7GBps vs. 27GBps dolog, mert valószínűleg nem ez a nagyobb ugrás.
3) Nem kötelező semmit sehová másolni. Ha tudjuk, hogy nincs önálló memóriája, mint egy diszkrét VGA-n van, akkor shared host memory-t is lehet használni. Úgy meg máris elég nyerő a dolog, mert ír valamit a CPU valahová, aztán házon belül szól a GPU-nak, hogy ott van, nesze, mire ő tökugyanazon a memóriavezérlőn keresztül el is éri egyből. (Igen, RAM-ból, de másolni nem kell. És RAM latency << PCI-Express latency.)
Ha meg még a cache-ben is ott van az adat, az pláne nagyon jó lenne, de mint azt megvilágítottad, ez nem a Sandy Bridge. Majd legközelebb.
(Azt mondjuk nem tudom, hogy az L3 az az IMC szintjén van-e, mert ha igen, aminek lenne értelme, akkor mégiscsak nyert ez is.)
-
Abu85
HÁZIGAZDA
És szerinted egy Atom méretű holmiban lehetséges volt akkor PCI Express x1 kapcsolatnál többet kiépíteni? Az Intel csak azt tette, amit tenni kellett. Adott a vezérlőbe négy PCI Express csatornát, mert nem volt többre lehetőség. Az AMD sem ad többet a vezérlőben. A proci ad plusz négyet, ha szeretnél mellé még egy Radeont. Ergo a haladás gyakorlatban kimutatható, és miért? Mert ott az IGP a prociban. Eleve arról sem szabad megfeledkezni, hogy az Ion 2 megnöveli az Atom platform méretét, mivel három lapkád lesz. A Brazos esetében marad kettő. Megint kézzel fogható az előny. Arról meg senki sem tehet, hogy az NV-nek nincs PC-s platformja. Nyilván erre az NV is rájött, és szarják is le a PC-t, mivel ott az ARM, amire építettek is platformot.
És a dedikált GPU fedélzeti memóriájába Panni néni majd bevarázsolja az adatokat ugye?
A másik dolog, amiről megfeledkezel az a késleltetés. Minél több buszt használsz, annál több időd megy "kárba".
Ha megnézed, akkor a cikk két részből áll. Az egyik a fejlődést és a jövőt mutatja be, ami az AMD ábrája alapján készült, de ugyanilyen az NV ábrája is, amikor a saját elképzelésüket mutatták be a heterogén korszakról. Ez mutatja azokat az előnyöket, amit egy hibrid processzor jelenthet a hagyományos processzorokhoz képest. Hasonló a dolog ahhoz az időszakhoz, amikor az FPU bekerült a CPU-ba. Ugyanez történik meg, csak a GPU-val. Ez a folyamat első lépcsője. Illetve, ha nem ragaszkodunk a PC-hez, akkor például a Tegra 3 is ilyen. Sőt lényegében szinte az összes 2011-ben bemutatandó SoC ilyen lesz.
Ettől függetlenül megértettem a mondandód, és nyilvánvaló, hogy azért megy minden vállalat ebbe az irányba, mert nem jár előnyökkel.
A második rész a Brazos platformról szól. Ott nincs is benne, hogy ez az integrálás előnyt jelent a diszkrét kártyákhoz képest. Csak az van taglalva, hogy az APU minden egyes gyártófüggetlen ipari szabványt képes gyorsítani. -
lenox
veterán
Ne ferdits, te jottel elo az ion2-vel,hogy ahhoz kepest mekkora haladas. Pont azt mondom, hogy persze, ahhoz kepest haladas, csak kar, hogy a nem mestersegesen lekorlatozott es szivatott platformokon x16 van, raadasul 2.0, ahol annyival tobb a bandwidth, hogy nem korlatoz semmit.
Mobil iranyban mar lattam benchmarkot, olyan 3-4 GB/sec-et tud memoria teren, ezt tehat jol elveri a pcie x16. Desktop benchmarkot meg nem lattam, de az vilagos ugye, hogy az elmeleti meg a valos sebesseg az nem ugyanaz, ezert is irtam, hogy valos. Eddig nagysagrendileg 50-60%-at tudtak hozni az elmeleti sebessegnek, nem latom, miert ne felteteleznem, hogy ezutan is ennyit fognak tudni, szoval a valos lesz mondjuk 13-16 GB/sec desktopon, es mivel ugyanonnan olvasod az adatot, ahova irod, ezert ez 6.5-8 GB/sec-es pcie sebessegnek felel meg. A pcie buszon valos 5-6 GB/sec adatot lehet atvinni, tehat ez mondjuk 25-30%-os novekedes a transzfer speedben (de ennel joval nagyobb hatrany processzing kozben, szoval nemigen eri meg). Persze csak akkor, ha olyan programot futtatunk, ami csak egy iranyba kommunikal, mert a pcie full duplex, tehat ott visszafele is tud menni kozben ugyanez, akkor spec 30% hatranyban van ez rendszer a pcie--hez kepest. Ugyhogy szerintem ezt a 'Ha szerinted...'-et kicsit elhamarkodtad. Nem vagy alig gyorsabb az adatcsere, es nem belso.
Az a bajom amugy a cikkel, hogy azt sugallja, hogy ez mekkora performance elonyokkel jar az eddigi rendszerekhez kepest. Pedig valojaban csak az eddigi integralt rendszerekhez kepest jar performance elonnyel, a diszkret gpu-val ellatott rendszerekhez kepest nem. Persze az igaz, hogy az elso integralt lapka, ami heterogen processinget is tud. Csak ettol nem lesz gyorsabb, mint egy korabbi lapka diszkret gpu-val. Ez hianyzik belole.
-
Abu85
HÁZIGAZDA
Mert erre van tömeges igény. Durván alacsony fogyasztású lapka, ami mindent tud, amit most tudni lehet. Nyilván az AMD mint cég a tömegek igényét szeretné kielégíteni, mert a pénzből élnek.
Aki nagyobb teljesítményt szeretne, és nem számít neki a fogyasztás, az nem ezt fogja vásárolni. -
Zyelor
aktív tag
Bocsi, hogy ilyen tudatlanul itt közbe kérdezek... De mi értelme van ennek? Frankó új platform, meg IGP, de miért van erre szükség? Annak mi haszna lesz belőle aki nem akar hiperszupervékony Notebookot, vagy hasonló eszközt? Szvsz. semmi... Asztali PC-k-be nem érzem szükségesnek az ilyet, max. irodai, vagy netes használatra.... Valagi elmeséli nekem, hogy ez miért jó, és miért van hasraesve tőle mindenki?
Én ebben nem látok akkora potenciált, mint anno. a többmagos rendszerekben.... Lehet velem van a baj... -
erdoke
titán
Az én laptopom első generációs Core2 2,8 GHz-en, 14,1-es 1440x900-as kijelzővel, de a 6 cellás normál akksival 4 órát simán elnetezek rajta, miközben nem melegszik. Ehhez képest az újabbakból egy LV változat biztosan érezhetően kevesebbet fogyaszt hasonló teljesítmény mellett, és akkor még az igazán alacsony fogyasztású laptopokról nem is beszéltünk (kisebb méretű és felbontású kijelző, ULV proci, stb). Olcsó (90 ezres) AMD-s Acer persze 2 órát megy... Szóval a teljesítmény/fogyasztás mutató az érdekes, és nem hinném, hogy a Sandy Bridge szegmensében van hasonlója az AMD-nek. Talán még az idén lesz, de eddig minden évben ezt hittük.
Viszont az egész hír nem erről szól, nem az asztalival együtt említhető teljesítményű laptopokba szánják a Fusion-t.
-
-
CrAck69
senior tag
kíváncsi leszek egy ilyen netbook árára már várom... hajrá AMD
-
Ayg0
senior tag
válasz
Oliverda #121 üzenetére
amd-ék nem a percre pontosságról ismertek, de legyen igazad és akkor karácsonyig esik annyit az áruk, hogy magyar halandó is meg tudja majd fizetni.
480sp? az minek felel meg? hd 4770/4850? nem mellesleg ha már a gpu is az uma-t használja majd, az - a dedikálthoz képest - nem fogja vissza a teljesítményt? ha igen, akkor kitörölhetem mind a 480sp-vel... -
Ł-IceRocK-Ł
veterán
Normálisabb és használhatóbb újítás mint a 20 mag egy processzorban, mert minél több mag annál "jobb".... jobb a fenét. Van egy határ ahol a plusz mag már fölösleges, és csak "átverés" szaga van.
Az sem elhanyagolható dolog, hogy rágyúrnak a platform fogyasztásának együttes szabályozására. Főleg most hogy az energiarák az egekben és még most fog emelkedni. A multimédiás képességek támogatása és hardveres gyorsítása rendszerszinten, egy nagyon jó dolog. Én személy szerint örülök neki, hogy végre van valami amit az AMD igen jól csinál, és haladnak a fejlesztéssel, és beintenek az intel keszeg Szandi hídjának....
-
Abu85
HÁZIGAZDA
Zsír, nekünk pont 25 képkockánk van. Máris ott vagyunk a határon. Ergo 1080p-ben már nem jó koncepció a PCI Express x1. Ez a baj az Ion 2-vel, ez az amiért a Hulu vagy más webes videólejátszás 720p-n, vagy afölött már akad. Ha szerinted az jó, hogy 1080p-ben akad a flash, akkor azzal nyilván nem tudok mit csinálni, neked találták ki, akkor az Ion 2-t.
Persze mobil eszkoznel ar/meret/fogyasztas szempontjabol jobb, mint ugyanez diszkret gpuval. Desktopnal is jobb, de csak gazdasagilag, mert az intel vagy az amd maguk begyujtik az osszes penzt, nem kell chipsetgyartonak adni, vagy entry levelnel gpu gyartonak (bar ez mar a chipsetbe integralt vga-nal is megvolt).
Pontosan ez a lényeg. A piac durván mobil irányba tart. 2010-ben több mobil PC-t adtak el, mint asztali, ez a szám 2011-ben drasztikusan növekedni fog. Már nem a desktopra fejlesztenek a cégek, hanem mobilra és szerverre, majd ezekkel a fejlesztésekkel betömik a desktopot. Ergo a felhasználók, akik eleve mobil irányba mennek, ezzel csak nyernek, mert idézem tőled "ar/meret/fogyasztas szempontjabol jobb". Neked win, mert integrálva kapod ezt, a gyártónak win, mert olcsó, a notebook gyártónak win, mert pici és ez neki szintén olcsó a kevesebb anyaghasználat miatt. Mi a probléma akkor a koncepcióval? Nem viccből megy mindenki erre.Ha szerinted a belső 27 GB-os adatbusz lassabb, mint a PCI Express által biztosított 7 GB/s-os, akkor tényleg nincs miről beszélni.
Ott van az ábrán, hogy mi hiányzik. Communication overheads. Ez meg is van említve, de ettől még a belső adatcsere majdnem négyszer gyorsabb. Ez tény. Sok feladatra ez sem elég, de valahol el kell kezdeni. Nyilván szakaszokra kell osztani a fejlesztést, az AMD most elhozta az első heterogén módon programozható PC-s lapkát. Majd legközelebb továbbmennek. Ez mind benne van a hírben. Más cég még ennyit sem csinált meg. -
stratova
veterán
válasz
Bogyó bá' #99 üzenetére
A fent idézett, az eszmefuttatásom egy részlete volt.
A lényeg az lett volna, hogy hajlandó vagyok lemondani a nagy teljesítményről netán komolyabb felszereltségről, a tartósságért cserébe.
(Erre talán jó példa az IBM régi R sorozata, nem kerül annyiba mint a T sorozat, nincs roll cage váza, szerényebb a felszereltsége és teljesítménye, mégis tartósabb mint egy átlagos notebook bár kevesebbet nyújt annál azonos áron, de amikor ma még a ThinkPad brand-et is elbagatelizálják mit keressen az ember újonnan?
Azért, hogy egy notebook dizájnos, bambusszal borított, Ferrari, Lamborghini nem akarok fizetni, de ha választhatnék akkor azonos árban lemondanék a plusz teljesítményről a megbízhatóság javára).
Viszont vélt választ is írtam a problémára, marad a használt noti.Elnézést az OFF-ért részemről a kérdés ebben a topikban lezárva, viszont ezzel kapcsolatban szívesen hallgatok meg véleményeket javaslatokat más topikban ahol a téma aktuális. Azt, hogy fogyasztói társadalom vagyunk tervezett élettartamú termékekkel magam is tudom, a legkisebb rosszat keresem.
-
lenox
veterán
Pcie x1-en nagysagrendileg 25-szor tud a 720p-s adat odamenni majd visszamenni egy masodperc alatt. De nem x1 van a normalis rendszerekben hanem pcie 2.0 x16, azon mar akar 500-szor is tudna, szoval semmi szukseg ennel gyorsabbra. Az x1 nyilvanvaloan azert volt, hogy az ion2-t szopassa az intelt. Mert annyira felt a nem integralt gpu-tol, amit nem o ad el. Ez pont az ellen erv, amit te mondasz, nevezetesen, hogy csak az integralt, egybetokozott rendszer a nyero, ha igy lenne, akkor mi szuksege lett volna erre az intelnek?
Igen az APU heterogén programozása az lényegében CPU+GPU, de nincs közte lassú busz, vagyis az eddigiekhez képest az adatcserével sokkal bátrabban lehet bánni.
Ezt mar sokadjara irom, hogy nem igy van. A Fusion eseteben is ki kell menni a memoriaba, ott at kell masolni a masik memoriateruletre az adatot, es utana tudja a masik egyseg hasznalni. Lehet, hogy par szazalekkal gyorsabb lesz, mint ugyanez a pcie buszon keresztul, viszont joval lassabban fog processzalni, raadasul amikor mindket oldal processzal, akkor osztoznak a savszelessegen. Ahhoz, hogy gyorsabb legyen az adatmozgatas, ahhoz is az kell, hogy 10-12 GB/sec folotti valos memoriasavszelesseget tudjon (es akkor meg a processzalasrol nem beszeltunk). Egyelore semmelyik desktop nem tud ennyit, lehet, hogy most majd fog tudni, a mobil verzio spec joval kevesebbet tud, szoval az nem lesz gyorsabb, mint diszkret vga-val.
Nem azzal van a baj az integralasnal, hogy egyben van a cpu es gpu es esetleg ezek kozvetlenul kommunikalhatnanak, amit a Fusion eseteben meg nem tesznek meg (tehat a Fusion is oda-vissza toltoget), hanem azzal, hogy egy mai normalis gpu-t egy mai alaplap architektura csak eheztetni tud. Ha barki (akar az nv is) felpakol egy kartyara 100-200 GB/sec savszelessegu memoriarendszert, es ehhez koti oda az akar kulon, akar egyben levo cpu magjait es gpujat, akkor az egy killer rendszer. Ha ugyenezt 10-20 GB/sec-es memoriarendszerrel teszi, akkor az semmi kulonos. Persze mobil eszkoznel ar/meret/fogyasztas szempontjabol jobb, mint ugyanez diszkret gpuval. Desktopnal is jobb, de csak gazdasagilag, mert az intel vagy az amd maguk begyujtik az osszes penzt, nem kell chipsetgyartonak adni, vagy entry levelnel gpu gyartonak (bar ez mar a chipsetbe integralt vga-nal is megvolt).
Persze, lehet abrat mutogatni, hogy ez a cpu teljesitmeny novelesenek egyetlen utja. Abban meg az a csusztatas, hogy igen, a cpu teljesitmenyet noveled ezzel, de nem a cpu/gpu paroset. Szoval azzal lehet ervelni, hogy ez gazdasagilag nyero, az viszont tevedes, hogy ez teljesitmeny szempontjabol nyero lenne. Ahhoz meg 2 dolog hianyzik, a gyors adatcsere (ami szerinted megvan, de szerintem meg nincs), es a gyors memoriarendszer. Az elsot egyebkent nem lenne lehetetlen megcsinalni, tobb lehetoseg is kinalkozna ra (pl. chipen beluli levelx cache-en keresztul (bar ez eleg sok problemat felvet), vagy pl. hogyha masolas nelkul at lehetne adni az adatot), lehet, hogy egy kovetkezo generacioban benne is lesz valamilyen megoldas, de egyelore ezek nincsenek meg. -
Solten
őstag
"A Brazos platform tehát támogatja a DirectX 11-es, az OpenGL 4.1-es, az OpenCL 1.1-es, az OpenGL ES 2.0-s valamint a DirectCompute 5.0-s API-t, továbbá az UVD 3.0 motor kezeli a H.264/AVC, az MPEG-2/4, a VC-1, a DivX és az Xvid videók gyorsítását egészen Full HD felbontásig. Ez még nem minden, ugyanis az APU-k az úgynevezett HD Internetet is támogatják, vagyis a képesek a Direct2D és a DirectWrite felhasználásával a weboldalak megjelenítését gyorsítani, továbbá támogatják a WebGL-t is, ami a böngészőablakban futó háromdimenziós animáció gyorsítását teszi lehetővé, illetve a flashanimációk gyorsítása sem jelent akadályt. További extra, hogy elérhető a 3D-s tartalmak megjelenítése is, ám a 3D-s Blu-ray lejátszáshoz olyan termékre lesz szükség, amin HDMI 1.4-es vagy DisplayPort 1.2-es csatlakozó található."
Veri najsz... veri najsz...
-
Rawulf
őstag
Mostantól mondhatom, hogy:
Real Multimedia HTPC is Fusion!
Vagy nem? -
DRB
senior tag
Azt hiszem félreértetted(te is). Én nem a heterogén programozás előnyeit nem értem, hanem azt nem volt egészen világos, hogy ha egy kupak alatt van a CPU a GPU-val az miért ekkora nagy lépés előre. De már megértetem, hogy még ha a proci közvetlen is tud kommunikálni a diszkrét GPU-val még annál is gyorsabb és jobb megoldás az APU.
-
DRB
senior tag
válasz
freeapro #111 üzenetére
Senki nem beszélt itt egyszálú meg nem heterogén programozásról!
Pont ugyan úgy kell programozni ezt is, mint ahogy eddig is kellett egy CPU(akár több magos)+ diszkrét GPU párost. Többen is leírták, hogy semmivel sem lett egyszerűbb ezt programozni mint amikor külön voltak az egységek, úgyhogy nem is értem mire írtad amit írtál, meg úgy egyébként sem túl helytálló.
Szóval gyakorlatilag "csak" az adatbusz nem léte, vagyis inkább rendkívüli rövidsége és ezáltal megnövekvő gyorsasága az előnye. Ezt ki is fejtették a többiek, és fel is fogtam, csak ezt én nem láttam olyan óriási előnynek, de úgy tűnik ez mégis nagyon sokat számít, ergo tévedtem. És majd biztos lesznek tesztek ahol ahol össze lesz hasonlítva egy ilyen APU egy CPU + GPU párossal, ami egyébként tök ugyan olyan mint az APU, csak nem együtt laknak, és látni fogjuk/fogom, hogy mennyi az annyi.
De, hogy megnyugodjatok, tényleg elhiszem, hogy ennyit számít ez közelség a két egység között és sikerült eloszlatni a kétségeimet(nagyjából).
-
P.H.
senior tag
APU-n azért könnyebb programozni, mert az ember jópár dolgot, ami diszktét GPU-n lassabban megvalósítható volt, már előzetes számítások (adatcsere időigénye pl. - alapján) is eleve elvetett, megoldható.
Igaz, nem könnyebb programozni, de kifizetődőbb. Az FPU-t sem volt anno könnyebb, aztán egyre többen használták, be is épült a CPU-ba.
Pedig ahhoz egyetlen dolog kellett, a CPU felismerte a nem neki szánt utasításokat, és továbbította megfelelő lábain az FPU-nak. Erre pl. az Intel-nek manapság is vannak már megoldásai pl., csak ugye minek, amikor már vannak a piacon kész, platformfüggetlen megoldások.A heterogén megoldások jobban kiterjesztik a párhuzamosítás lehetőségeit, mint a többszálúsítás, ez a grafikai eredetükből is látszik: klasszikus példám az, hogy egy nagyméretű színes képet akarsz fekete-fehérré tenni. Ha CPU-programozó vagy, akkor egy processzoron írsz egy (minőségigénytől föggően) 5-10-15 utasításból álló ciklust, ami lefut minden pixelre, egymás után - némi átfedéssel, OoO miatt. Majd beleizzadsz, hogy jó teljesítményt nyújtva 2-4-8 magon jobban, gyorsabban fusson le ugyanez (az adminisztáció, elosztás, szinkronizáció időigénye miatt). Ugyanezt megírod egy GPU-like architektúrára, hogy fusson le minden pixelre ugyanaz az 5-10-15 utasítás, a hardware + driver pedig kezeli neked, hogy hogyan, mi módon párhuzamosítva, te csak azt látod, hogy gyorsabb, mint CPU-n (pl. OpenCL).
Hozzátéve, hogy egy GT9500-ból vagy egy GT220-ból ily módon kihozható számítási teljesítmény kb. egy 4/6 magos CPU-éval egyezik, a CPU-többszálúsításánál könnyebben elsajátítható programozási modell mellett, akkor szerintem billen a mérleg asztalon is.
-
vsvector
csendes tag
Sziasztok
Kezdenek jönni a képek és a cikkek is
http://www.bit-tech.net/hardware/motherboards/2011/01/04/amd-zacate-mini-itx-motherboards-preview/1 -
adalbert1
veterán
Teszt mikorra várható? Kíváncsi vagyok hogy az Atomra épülő megoldásokat mennyire veri el, és hogy asztali processzoroktól mennyire marad el.
-
freeapro
senior tag
DRB kicsit fárasztó vagy!
Eddig volt egy jó elméleti lehetőség. Azt ígérte az OpenCL, hogy tudsz CPU-n meg GPU-n is feladatokat végrehajtatni. Írtál rá egy programot ahogy elképzelted, hogy működnie kellene. Kipróbáltad: nem ment. Akkor elkezdted az elképzelést közelíteni a valósághoz, meg optimalizálni, meg guglizni, hogy hol a hiba, mások mit találtak ami működik, mik a soha nem publikált best practice eljárások stb. Nagyon sok vesződés árán csináltál valamit ami alig lett jobb mint a sima egyszálú program. Jó esetben. Rossz esetben kiderült, hogy ezt még nem lehet megcsinálni. És itt elment a kedved az egésztől.
A heterogén felépítés pedig végre azt nyújtja mait ígért. Fut a cucc az APU-n amihez ha CPU kell akkor ahhoz nyúl, ha GPU akkor ahhoz, kicsit még mindíg rosszabb mint vártad, de lényegesen jobb mint az egyszálú program. És ekkor megszereted.
-
jap
aktív tag
hülye-kérdés:
ez nem támogatja a 64 bites dolgokat? "Bobcat x86"....vagy "2 x86 CPU Cores (40nm "Bobcat" core - 1 MB L2, 64-bit FPU)"?
-
Na, mire hazaértem melóból már látom meg is válaszolták
röviden, amiért könnyebb programozni:
a kisebb késleltetés miatt nem kell annyira kínosan ügyelni az optimalizációra, kisebb adatcsomagokat is megéri küldözgetni, adott kód sokkal kisebb darabokra bontható, így amellett, hogy esetenként könnyebb, akár gyorsabb eredményt is dobhat, mint egy brutl különálló vga
amiért ugyanolyan nehéz:
Szintén "szét kell szedni" a programokat a megfelelő módon, mint eddig.Szal, tömören: ugyanolyan nehéz rá kódolni, mint eddig, csak mégsem(tudod, a veréb között semmi a különbség, mert mindkét szrnya ugyanolyan, főleg a bal
), és potenciálisan gyorsabb az eredmény.
Nagyjából ennyi. Plusz ehhez jön még, hogy a programozók is kezdenek hozzászokni a többszálban gondolkodáshoz, plusz egyre kiforrottabbak a nyelvek/fejlesztői környezetek.
-
con_di_B
tag
Ez egyszerű válasz lesz. Vagy van egy összetákolt programfelületed, amiben minden hardverre külön írsz kódot (CUDA, CTM), procikra külön írsz assemblyben kódot a kritikus részekre, vagy van egy egységes, általános felületed, amiben a különböző dolgokban jeleskedő hardvereket egyszerre érheted el (OpenCL). Ez egyszerűsít a képleten. De ehhez tényleg nem kell Fusion.
Fusion ahhoz kell, hogy ne a gépek 1%-ában legyen elég gyors OpenCL implementáció, hanem minden újonnan vásárolt gépben legyen, akár desktop, akár notebook, akár netbook vonalon => onnantól fogva máris megérni elkezdeni (ki)használni.
(Szerk: meg az, amit Abu írt
)
-
Abu85
HÁZIGAZDA
Igen az APU heterogén programozása az lényegében CPU+GPU, de nincs közte lassú busz, vagyis az eddigiekhez képest az adatcserével sokkal bátrabban lehet bánni. Ez adja az egész előnyét. Ez csak az első lépés az úton. Mint írtam a hírben is, még ennél is lehet jobb kommunikációs lehetőségeket biztosítani, így még többször lehet az adatokat a magok között vándoroltatni, ami még gyorsabb feldolgozáshoz vezet.
(#104) lenox: Arra gondolj, hogy egy feladatot átadsz a GPU-nak, akkor az időbe telik. Például a flashgyorsítás jelenleg úgy működik, hogy a CPU átadja a dekódolásra váró streamet a GPU-nak, majd a feldolgozás megtörténik, és a GPU visszaadja az eredményt a CPU-nak, majd az utómunka után mehet ki a végső eredmény. Ezért hal meg az Ion 2 a Hulu weblejátszón már 720p-ben. A PCI Express x1 egyszerűen akkora késleltetéssel jár, hogy ez az út járhatatlan. Ilyen helyzetekben előny az integráció.
Ez láthatóan minden cég számára világos, nem véletlenül van/lesz a hátuk mögött platform. Attól nem kell félni, hogy az izmos GPU-kat kiváltják ezek a rendszerek, de az egész IT ipar erre megy, és ennyi cég nem tévedhet. Nyilván dönthetnek a még több CPU mag mellett is, de az ábrából látható, hogy elértük a korszak végét. Ugyanezt az ábrát mutatta be az NVIDIA az SC10-en, ahol magyarázták, hogy miért raknak latency optimized CPU magokat a következő generációs lapkáikba. Persze ők más szempontból közelítették meg a kérdést, hiszen nekik GPU-ik voltak, de a konklúzió dettó ugyanez volt, vagyis az egyetlen út a hibrid rendszer. Azt nem tudni, hogy a latency optimized CPU az NV-nél mit jelent, de gyaníthatóan ARM architektúrát. Az lenne a leglogikusabb, mert az ARM-ra elkészül a Windows 8, vagyis az NV onnantól kezdve nem függ az AMD és az Intel processzoraitól, mert egy cGPU-val képes futtatni a rendszert. -
lenox
veterán
Mar a masik topikban (link) is kertem, erre mutass mar legyszi egy linket, mert szerintem ilyen, hogy a gpu es a cpu egymassal kozvetlenul adatot cserel nincs egyelore, meg nem is latom, hogy hogyan lehetne, hiszen egy 80 shaderes (2x40) tomb akkor tud jo kihasznaltsaggal dolgozni, ha pl. 1000 threadet inditasz el rajta, akkor pedig legtobb esetben 1000 pl. 32 bites eredmenyt kapunk, ezt hova rakjak a cpuban? Mert szerintem egyelore sehova, szepen ki kell menni a memoriaig. Persze esetleg kesobb lehet majd pl. kozos levelx cache, de most nem igy mukodik.
Nem feltetlenul kapcsolodik, csak felvetnem, hogy tudtommal egy opencl kernel launchnak tobb nagysagrenddel nagyobb a kesleltetese, mint akar a pcie akar a memoriabusznak (100 vs 1 microsec). -
DRB
senior tag
Akkor nem tudom, de nem itt van a félreértés(már ha van), a szó itt is a különbözőségre utal. Úgyhogy továbbra is marad a véleményem: az eddigi hardverekhez(CPU+ diszkrét GPU) is heterogén programozásra volt/van szűkség, így ezen a téren nincs változás, nem könnyebb az APU-t programozni mint egy CPU + diszkrét GPU kombinációt, ergo ha zsákutca a többszálú "homogén" programozás(tényleg az lenne, vagy csak a programozók maradtak le a kanyarban??) akkor a heterogén többszálú programozás mitől ne lenne az?
És még egyszer hangsúlyoznám, és nem elsősorban a mobil vonalra gondolok(szóval valójában szét offolom a topikot), ott tényleg hasznos ez a fejlesztés, amúgy is az IGP volt többségben eddig is, és ez mit sem fog változni.
-
Abu85
HÁZIGAZDA
Kaptam a Mini-ITX lapokról adatot. Az áruk 130 és 200 dollár között lesz felszereltségtől függően. Ha jól láttam, mindenki az E-350-es APU-t használja.
Szerk: Látom DeckardCain már előre dolgozott.
Na majd holnapra én is átnézem a kínálatot.
-
Abu85
HÁZIGAZDA
A felépítés szempontjából kétféle processzormagot különböztetünk meg. A hagyományos értelemben vett CPU késleltetésre érzékeny, míg a GPU rengeteg szállal dolgozik, és főleg az adatpárhuzamos feldolgozási modellt követi. A kettő koncepció teljesen eltérő, és másfajta feladatokban jók. Nyilván erre van példa is. Egy CPU ugyanúgy képes a 3D-s grafikát kiszámolni, csak pokolian lassan. A heterogén feldolgozás lényegében arról szól, hogy az adott feladatott az a mag végezze, amin a feldolgozás a leghatékonyabb.
-
Bogyó bá'
nagyúr
"...Nincs mindenkinek 300e Ft-ja egy business kat. notebookra..."
Akinek nincs annyija (nekem sem), az nem vesz olyat. Ennyi...
A gyártónak nem érdeke, hogy fél áron adja ugyanazt a tudást és tartósságot, ha duplán is el lehet adni. Sőt, a mai világban semmi nem tartós, mert akkor elesnének a jövőbeni fogyasztóktól. Fogyasztói társadalom, vagy mifene... -
DeckardCain
senior tag
Jöhetne már.
-
Boxi88
őstag
Nagyon szuper! Már az első héten "egymásnak esik" az intel és az amd az újabb fejlesztéseikkel, remélem ez ránk felhasználókra csak pozitív hatással lesz!
-
DRB
senior tag
Közben valamin gondolkoztam, és lehet itt csúszik el nálam a dolog. Leírnád, vagy akár Abu85, hogy itt, hogy kell érteni azt, hogy heterogén programozás, heterogén írány, stb? Van egy olyan gyanúm, hogy nem egyre gondolunk, ugyan a szó jelentése világos és egyértelmű, de lehet. hogy ebben a kontextusban mást jelent mint ahogy én azt gondolom.
Programozást én is tanutam, de aztán elkanyarodtam a multimédia fejlesztés irányába, így nem mindig minden világos ha programozásról van szó, úgyhogy ha nem is ragadtam le, de elsősorban az actionscript az én területem.
-
Ja, persze, abban teljesen igazad van. Programot többszálúra megírni sokkalta nehezebb, mint egyszálúra, már ha lehet egyáltalán, ez természetes (és ugye a GPU még erre tesz egy péklapáttal). Szerintem ide tartozik még, hogy a senior/junior arány nem valami jó a programozók között, ami mégjobban nehezíti a dolgokat ilyentéren.
Szerintem a probléma gyökere ott van, hogy a mai programozók -köztük én is- amikor programozni tanultak, akkor még jó gépnek számított egy 386dx. Teljesen más paradigmába "nőttünk bele". Evvan, előbb-vagy utóbb, de átszokik mindenki. -
Abu85
HÁZIGAZDA
Pontosan erről van szó. Az AMD a tartalmak gyorsításhoz szükséges leghatékonyabb utat kereste. Jelenleg ez az. Amihez a célhardver a hatékony, ahhoz célhardver van benne és így tovább. Az eredmény kézzel fogható ... 18 watt max TDP, és minden aktuális és jövőben bevezetésre kerülő internetes tartalom gyorsítható, a lehető legalacsonyabb fogyasztás mellett.
-
DRB
senior tag
Jó jó ez világos, én csak azon lovagolok, hogy többen is azt hozták fel érvként, hogy most ez milyen egyszerű, és lehet, hogy mint hardver tényleg az(sőt biztos), de hozzá írni bármilyen szoftvert pont olyan nehéz mint eddig.
Szerk:
Mármint úgy értem eddig a CPU+ diszkrét GPU pároshoz.
De hangsúlyozom, hogy én kicsit elkanyarodtam(már) az asztali irányába, a mobil vonalon biztos ez lesz a jobb megoldás. -
mrhitoshi
veterán
Hát ez egyre jobban felcsigáz. Remélem jó áron lesznek, itt gondolok a mobil és asztali árakra is. Mindig is nézegettem a laptopokat, de sose kápráztattak el a teljesítményükkel és ahhoz tartozó árukkal. Remélem ez most fordulni fog.
-
con_di_B
tag
Egy "mezei" 8 szálú prociban is ugyanúgy vannak lappangó SIMD képességek, pláne most, hogy jön az AVX is. Az új, heterogén programozási felületeket ezekre is lehet implementálni, és akkor máris "gyorsítva" van. Készülgetnek is vele.
he7edik barátunknak abban nincs igaza, hogy egy CPU mag felépítése feleslegesen komplex stream jellegű feladatok megoldására, szóval a mostani irányvonal arról szól, hogy hogyan tudnánk performance/watt alapon nagyobb elméleti hatékonyságot elérni ezekben a gyakran használt feladatokban.
-
Ha jók az információim, akkor elvileg asztali vonalon -egyelőre- úgy lesz, hogy a low-end, meg max a middle szegmensben lesz APU, a többiben sima, nyilván baromira erős CPU.
Így viszont szerintem a kétségek megintcsak el vannak oszlatva, a megfelelő gpu-val mint azt fentebb tanult kollegánk is említette bőven elegendő akár egy x2 250-es athlon is mindenre, amire egy potenciális vásárló használni fogja a gépet. Pl. internet, HD filmezés. Ezekre dosztelég két, viszonylag magas órajelű processzormag, meg egy mindentvagyészbőlvagyizombólgyorsítok GPU
A felsőházban pedig természetes, hogy a halálnak nincs rá (APU) szüksége, de ott egyelőre nem is lesz. Aztán, hogy mit hoz a jövő, azt majd meglátjuk. -
#95561216
törölt tag
Most sajnálom igazán, hogy anno nem a nvidia-val fúzionált
az amd..
-
buzus
aktív tag
Ha az Intel képes lett volna erősebb, kevesebbet fogyasztó IGP-t alkalmazni az Atom mellé akkor most nem lenne nagyon miről beszélni. Tetszik az AMD elgondolása, várok még a netbook vásárlással. Remélem eljön az a kor is mikor a gyártási költségek csökkenése a kész termékek minőségének javulásával fog együtt járni.
-
DRB
senior tag
Na igen, ezen akadtam fenn én is, ehhez a rendszerhez is úgy kéne megírni egy programot, mint egy több magos procihoz, annyi különbség, hogy az egyik egy GPU. Viszont ez a lehetőség eddig is fenn állt, de nem volt kihasználva.
Viszont annyit azért hozzáfűznék(a többi hsz-mhez is), hogy ez a megoldás, a kétségeim ellenére is, még mindig jobbnak tűnik(számomra is) mint egy a chipset-be integrált GPU, mobil vonalon. Az asztali szegmens már egy másik kérdés, oda jobban vágnak a kétségeim. Ez akartam korábbiakhoz is hozzátenni, de mindig lejárt a szerk. idő.(#82) con_di_B:
Amit leírsz a hsz-d utólsó bekezdésében az mind igaz, csak épp nem egyszerű, és eddig is ez volt a gond, nem egyszerű sok CPU-ra progit írni, nem egyszerű sok CPU+GPU-ra progit írni, és ez most sem változott meg ezzel.
-
con_di_B
tag
Ne csodálkozz, hogy nem lelkesek.
A HD3000-es szériánál még csak a Stream volt (Close To Metal?), a HD4000-esek tudnak OpenCL 1.0-át, atomi műveletek és osztott memória támogatás nélkül (= félkarú óriás), és csak a HD5000 után beszélhetünk elfogadható OpenCL támogatásról, ami egyébként továbbra is bugos, GPU-n.
Az AMD-nek van ezen kívül CPU-s OpenCL megvalósítása is, ami stabil, de kegyetlenül lassú értelemszerűen.
Az NV-nek ott van a CUDA, ami elvisz a hátán egy egész korrekt OpenCL implementációt, ráadásul nekik a régebbi hardvereiken is jó az implementáció.
Az Intel meg még most szerencsétlenkedik a sajátjával, alpha verzió, vehetjük úgy, hogy nincs is.
Ezek után senki ne lepődjön meg, hogy nem hemzsegnek az OpenCL-re fejleszteni kívánó lelkes fejlesztők. Simán lehet olyan HELYES programot írni, ami éppen per-pillanat egyik GPU-s implementáción sem fut le.
Hogy a témához is szóljak, viszont abban a távoli jövőben amikor már sikerül drivert írniuk OpenCL-hez, nagyon jó lesz ez a FUSION még akár diszkrét VGA mellett is, mert az OpenCL-ben egyszerre több computing device-ot is vezérelhetsz, szóval én el tudok képzelni olyan programot, ami mondjuk kirak egy lassú de relatíve önállóan elvégezhető feladatot a diszkrét böhömnagy GPU-ra, mellé egy szinkronizáció igényesebbet a Fusion GPU-ra (mert azt alacsony késleltetéssel éri el), és akkor még ott van az 1-4 mag hagyományos, folyamatalapú többszálúságra. De ezt meg a feladat határozza meg, ha a feladatot nem lehet szétosztani így, akkor hiába minden, de azért a néhány wattért amennyi az integrált GPU TDP-je lehet, nagyon-nagyon megéri már a lehetőség is.
-
CPT.Pirk
Jómunkásember
Nem is mellé rakják.
Fordítva ha felteszed a kérdést, hogy minden téren versenyképes konkurenciát akarsz állítani a létező, jól hordozható gépek piacán levő versenyzőknek, akkor egy nem túl erős proci mellé milyen vga-t tennél, hogy túlmutass a többieken?
Nem véletlen tették az Atom mellé az Ion-t sem, csak itt már nem cpu+vga, hanem APU van. -
Giot
addikt
Nehéz elfogadni hogy jó pár év VGA+CPU párosítgatás után lassan eljutunk oda hogy csak APU-t (
) kell választani. Meg ANYU-t (Motherboard)
Igen tudom hogy jelenleg még csak a Laptopokba szánt változatról van szó a cikkben.
Hm azért ebben az évben csak beújítok még egy VGA-t. Kitudja meddig tehetem.
Komolyra fordítva, én üdvözlöm az újításokat, remélem a szoftverfejlesztők is hasonló lelkesedéssel fogadják. -
"Mindez oda vezet, hogy az extra magok beépítése a teljesítményt alig növeli meg a megfelelő szoftverek hiányában, vagyis a többmagos elgondolás skálázhatósága lassan zátonyra fut."
Ja, kérem, tudni kéne programozni. Elég sok tisztességesen megírt szoftver fut sokprocesszoros szervereken, csak ugye azt rendesen meg is kell alkotni.
Ne már a szofvergyártók kényelme legyen az elsődleges szempont. -
he7edik.
addikt
Nem látom értelmét hogy egy low-end proci mellé egy ilyen IGP-t integráljanak.
-
CPT.Pirk
Jómunkásember
válasz
szabibeni94 #72 üzenetére
Az előbbi lelkes újonc kolléga hozzászólását sem értettük, de a tied sem kapcsolódik a cikkhez kicsit sem.
-
szabibeni94
csendes tag
Intel E8400 forever...na meg az ATI HD4870
-
válasz
metalstorm #68 üzenetére
Tény, hogy jó a 250-es X2 (tudom, nekem is az van), de
a) hogy is jön ez ide?
b) min/miért is röhögsz?
Ez valahogy most nem jött át -
metalstorm
aktív tag
Olyan jókat tudok nevetni ezen a csodaprocikon!
Bár 100% hogy nagyon jó,AMD párti vagyok...de a kis CPU AMD Athlon II X2 250 Box AM3 még mindig nagyon jó!
-
-
Ayg0
senior tag
Az AMD a koncepciót úgy tervezte, hogy a felhasználónak semmiről se kelljen lemondania amellett, hogy egy rendkívül alacsony fogyasztású APU dübörög a burkolat alatt.
kis kötekedés: ezen a teljesítményszinten a dübörög szó szvsz erős túlzás, nem ide való még akkor sem, ha egy atom gyalázó konkurenst köszönhetünk a brazos apu-k személyében. ezt leszámítva remek cikk lett.
más... a lynx kiskereskedelmi forgalomban való megjelenését mikorra prognosztizálja az amd? '11 q2/q3?
-
berVi
senior tag
"Mert azért be kell látni hogy a jeleleg a játékipar a legjövedelmezőbb a szoftver piacon."
citation needed. másrészt a szoftverpiac nem csak a pécéból áll ám. mások pont azt rebesgetik, hogy a játékkészítők húznak a konzol felé, meg a játékosok is. plusz az teljesen mindegy, hogy a szoftver-piacon mi a legjövedelmezőbb, az amd nem szoftvergyár. rengeteg munkaállomás van a világon, meg azok az emberek, akik a gépen csak neteznek, filmeznek és zenét hallgatnak, mint én és a legtöbb ismerősöm.
-
DRB
senior tag
válasz
csstriker86 #58 üzenetére
Értem én, hogy benzin, de mitől megy?
-
Értem, kössz. Én azt hittem hogy van lehetőség a kliens oldali gép erőforrásait is hasznosítani valahogy, bár így jobban belegondolva csak feleslegesen túlbonyolítaná a dolgot. Valahogy úgy vagyok vele, hogy nem szeretem ha valami feleslegesen kihasználatlanul marad, bár azt se, ha valami feleslegesen energiát fogyaszt!
-
stratova
veterán
Hát igen, akkor nekem és a magamfajtáknak marad a használt de jó esetben még garos vétel a hajdanán 200+, 300e kategóriából.
Így a technológiai késéért cserébe nem hullik majd szét 4 év múlva. Ha meg rám szakadna a bank, akkor is az első dolgom egy garanciahosszabbítás lenne egy új notebooknál.(Az Acer helyére meg valami T60-T61 körüli notit javaslok talán egy CoreDuo még belefér majd. Az Acer 1500-as Celeronjához képest már az is jelentős teljesítménynövekedés és nem esik szét)
Hallottam hírét, hogy Lenovo volt kedves felhígította a ThinkPad nevet..
-
csstriker86
csendes tag
Egy ilyet el tudnék viselni nasként hat darab 6 Gbps-os SATA3 és ha lehetne olyan SATA Port Multiplier találni ami ezt a sata3-at ismerné nos az 5*6=30 merevlemezt jelentene csak szerintem még ilyen nincs csak sata2-ben láttam eddig. (első hozzászólásom már régóta figyelem az oldalt)
-
DRB
senior tag
"az Intel-Radeon páros nem tetszik neki"
Nekem full AMD-s a gépem, és használnám is az olyan progikat amiket írsz, de évek óta(nagyjából a HD38xx óta) fennáll a lehetőség, hogy írjanak ilyet de alig teszik.
Én multimédia fejlesztő vagyok, lelkes is vagyok, de a programozó kollégák valahogy nem azok, de majd rugdosom őket kicsit, sőt bele is kontárkodok a munkájukba ha kell, mint ahogy ők is az enyémbe.(#55) CPT.Pirk:
Azért akad olyan konvertáló program ami kihasználja a CPU+GPU párost, de nagyon kevés.
Lehet, hogy most több lesz majd(remélem), és azt is hogy nem kötelezően csak APU-n fognak menni. -
CPT.Pirk
Jómunkásember
Nem bólogatunk hozzá vadul, pl. mikor a többmagos procik kezdtek bejönni, akkor John Carmack beszélt róla, hogy sokkal jobb lenne, 1 gyors proci mag, mint több, de lassabb. Úgy igazából nem hatott meg senkit, főleg h. nem is igen kivitelezhető. Szélsőséges példa erre a Win Vista, amit kevesebb, de gyorsabb procimagra készítettek fel, aztán a felhasználók meg alátettek több, de lassabb magot.
Eddig is volt pár alkalmazás, ami ki tudta használni a gpu erejét pl. videó kódolásra, tényleg ott van rajta egy rakás ram, ami nyilván gyors és alkalmas is nem csak a 3D-s játékok adatainak tárolására, viszont hogy közben a proci is dolgozzon azon, vagy valami hozzá kapcsolódó feladaton, azt nem fogod tudni összehozni, a köztük lévő nagy késleltetésű adatbusz miatt.
-
buherton
őstag
Anno az első CPU+IGP integrálásnál, tettem egy olyan hsz-t, hogy ez lesz a jövő efelé fognak menni a dolgok. Persze mindenki jól lehurrogott a topicban, hogy mekkora nagy sz.r az egész, meg lassú meg stb... Hát tessék!
-
Abu85
HÁZIGAZDA
A lelkesedés eddig is megvolt. Készülnek is az OpenCL-es programok. Egy DVD felkonvertáló már van is, az nagyon cool. Tesztelgetek egy arcfelismerőt is. Egyelőre kevés sikerrel, sajna még béta szegény, az Intel-Radeon páros nem tetszik neki. Full AMD-s platformon persze szó nélkül megy a rohadék. Mindegy, majd a végleges.
A saját memória nem olyan jó dolog. A hatékony heterogén feldolgozás egyik alapja, hogy közös memória kell, persze ettől ritkán jelent jelenleg hátrányt.Az nem kérdés, hogy a diszkrét GPU-ra mindig lesz igény, de az már nagyon lényeges szempont, hogy mekkora. Az asztali VGA-k piaca, már most nem jövedelmező, mi lesz itt jövőre. Nézd meg a VGA-gyártókat. Szinte mindenki ugrik máshova. Sokan alaplapot fognak gyártani, de van aki az SSD piac felé megy.
(#48) Zanik: A te gépednek a felhős modellnék csak az a dolga, hogy a kapott, kész képkockát kirakja a képernyőre.
-
^Clown
addikt
Az AMD magasra tette a lécet, remélem a szoftvergyártóknak és a programozóiknak sikerült majd átugraniuk valahogy.
Továbbra is hajrá AMD
Nekem nagyon tetszik a Fusion.
stratova: szerintem az üzleti gépekben is meg fog jelenni a Fusion előbb-utóbb, de ettől még a bolti ár nem fog csökkenni (célzok itt a 300K-s ármegjelölésedre).
Íme, itt az egyik előfutár: Lenovo X120e (a neve ne tévesszen meg, ez nem ThinkPad, csak ráaggatta a Lenovo...) -
stratova
veterán
Remélhetem, hogy ezek a Fusion-os fejlesztések végre bekerülnek HP, Lenovo, DELL notebookokba/netbookokba és nem csak mezei hanem üzleti modellekben (vagy legalább a normális anyaghasználattal rendelkező kategóriában) is fellelhetőek lesznek?
Ismerősi és családi körben sajnos egyre zavaróbb jelenség, hogy hamarabb hullik szét egy notebook mint azt mi leváltanánk, illetve idővel egy eszköz gazdást cserél eladás vagy kidobás helyett.
Szerintem nem én lennék az egyedüli, aki a masszívabb (nem rugged vagy semi rugged kategória) kialakításért cserébe feláldoz valamennyit a teljesítményből. Nincs mindenkinek 300e Ft-ja egy business kat. notebookra.Acer Travelmate 2410 repedező fedlap már 2. alkalommal (többször cserélve nem lesz széria hiba).
Asus A6Vm szintén lassan kevésbé látványosan de repedő kijelzőkeret és fedlap.
IBM R50e semmi baja csak ma már rémesen lassú, de roll cage nélkül is megbízható, hiába fapados. Jól szerelhető/dokumentált a HMM-nek köszönhetően. De vásárlásakor ez volt az egyik legdrágább (2004) A többiek szerintem idővel bontással végzik, ezt meg nem lenne érdemes mert nem is ér annyit és baja sincsen.
Fujitsu Siemens Amilo itt még nincs panasz de ez az előbbieknél pár évvel újabb modell, én már féltem.
-
DRB
senior tag
Ezt is értem amit mondasz, sőt egyértelmű is volt számomra eddig is, de még midig nem világos, hogy ez mitől hozza meg a lelkesedést. Sőt az is felmerült bennem, hogy rendben, hogy az adatok nem kerülik meg a "fél földet" mire a GPU-tól elérnek a CPU-ig(meg vissza), de azért pl a diszkrét VGA-n lévő rengeteg saját memória, ami ráadásul igen gyors is, vagy a 10x(vagy még több) nagyobb GPU teljesítményt a csökkentett késleltetésekkel sem lehet utolérni, legalább is jelenleg semmiképpen, de hogy a jövő mit hoz azt nem tudni, viszont ahogy fejlődik az integrált GPU úgy fejlődik a diszkrét is, már ha akarják. Így hiába nő a APU teljesítménye, úgy nő a diszkrété is.
Nade nem én irányítom a világot, pedig ha rajtam múlna akkor biztos lenne ilyen is, de nem mint egyetlen járható út, csak mint egy estleges lehetőség. Igazából ebben az egészben azt érzem, vagy inkább úgy fogalmazok: azt is érzem, hogy valaki(k) megmondja(mondják) mi a jó nekünk és mi meg vadul bólogatunk hozzá. -
Ł-IceRocK-Ł
veterán
Erre kiváncsi leszek! Go AMD!
-
Abu85
HÁZIGAZDA
És az adatok vándoroltak a hatványozottan lassabb PCI Express felületen keresztül. Nem véletlen, hogy a valós időben számított feladatoknál a fejlesztők nem engedtek meg maguknak két adatcserénél többet. Sőt még az egy is sok, mert irtózatos késleltetéssel jár. Egy ilyen APU-ban a késleltetés sokkal kisebb, vagyis több adatcsere is megengedhető. Például egy játékban a GPU-s fizika számításánál szigorúan CPU->PPU(ez számolja a fizikát)->GPU az út. És ez mind azért ilyen megkötött, mert az adatok lassan vándorolnak az alaplapi buszokon. A rendszerszintű integrálás mellett megcsinálható egy olyan út is, amiben az IGP visszaadja az adatokat a CPU-nak további feldolgozásra és ez lapkán belüli kommunikációval legalább háromszor eljátszható. Ha ugyanezt az alaplapi buszokkal csinálnád, akkor olyan késleltetéssel jelenne meg a képkocka a képernyőn, hogy nem tudnál megfelelően reagálni a világra, mert az az információ, amit te látsz, már rég nem valós. Itt kis időegységekről beszélünk, de érezhető lagról lenne szó. Kb. az ilyenek miatt gondolkodik mindenki fúzióban.
Az előny kézzel fogható. Persze a késleltetést tovább kell csökkenteni, hogy minél több adatcsere valósulhasson meg.
-
_szantos_
csendes tag
Sztem már a mostani (K125, K325, K625 + HD 4200) AMD-s próbálkozás sem volt rossz.
Csak nem terjedt el, ill. a küszöbön a fusion és mindenki arról beszél - nem mitha nem lenne helyes. -
DRB
senior tag
Nem értem a mi a különbség ahhoz képest ami eddig volt(most tíz centivel közelebb került a GPU a CPU-hoz), ettől mi lett "heterogénebb"? Persze sok minden egyszerűbb, ez tény, de nem ez lett mint cél megjelölve, hanem a programozhatóság, de az pedig nem változott. Eddig is lehetett CPU+GPU-ra írni programot, eddig is volt OpenCL, tehát a lehetőség adott volt, de mégsem lelkesedett túlzottan ezekért senki. Most ettől a lehetőségek nem lettek jobbak, így pont nem vágom mitől lenne nagyobb a "lelkesedés".
-
Abu85
HÁZIGAZDA
Hát a hardvergyártók nem tudják fogni a fejlesztők kezét. Ez mindig így volt. Minden váltás nehézkes, de ha nem léped meg, akkor azzal csak rosszabb lesz, emlékezve, hogy mi történt az egymagos éra végén. Hosszútávon nincs más út, és ez mindenkinek világos. Integrál is bőszen mindenki.
Az Internet ennek csak egy szelete. A tömegek elviszik az egészet a csicsás külső felé. A gyártók ezeket az igényeket csak ki akarják szolgálni. A többi a fejlesztőkön múlik. A GPU kihasználása eléggé megragadja a fantáziát, az AMD-nél létezik már 4D Quaternion Julia fractal OpenCL-en keresztül számolva, valós időben megjelenítve WebGL-en keresztül. Igazából a WebGL az ami forradalmi lehet jelenleg, mert tényleg egészen újszerű az egész élménye. Az NV-nél is folyamatosan erről beszélnek, hogy ez lesz a flashjátékok új generációja.
(#35) Dave™: Mert nem mértem még le a teljesítményt.
-
Nekem már most kevésnek tűnik anyum otthoni igp-s P4-e böngészéshez néha, jó adblock-kal még elviselhető valamennyire, mondjuk ez csak egy jó öreg 2ghz-es northwood
Azt meg már szerintem rég megtanulhattuk, hogy nem az a lényeg, hogy mivel érné be a felhasználó.... /bizonyos esetekben, pl technikai fejlődés, ez érthető is/ nem azt mondom, hogy az irány jó vagy rossz, egyszerűen ez az irány
-
Én kicsit tartok ezektől a gpus gyorsításos jövőtől. Ugyanis a rendelkezésre álló erőforrások nem arra fognak elmenni hogy az eddigi megoldások gyorsabban, jobban működjenek, hanem hogy legyen mivel kitölteni azt megint a működés határáig.
Amíg a 90-es évek közepén-végén az animgifes "eyecancer" oldalakkal töltődött meg a memória, ezredforduló elején a flash megjelenése vitte el a sávszélességet, ami addigra már egészen megfelelő volt, utána a flash elvitte a maradék erőforrásokat megint, lassan már kevés volt a p2 az átlag böngészéshez. Majd elkezdődött a videók flashbe ágyazódása, aminek köszönhetően már a p3 se volt elég a "felhőtlen böngészési élményhez". Mára eljutottunk oda, hogy szinte bármilyen lap főoldalának a hasznos információ csupán töredéke az egyébként jelen lévő adat mennyiségnek, mert úgy nézz ki minden mint 10-15 évvel ezelőtt, csak az animgif szerepét átvette a villogó, zenélő, videós flash bannerek tömkelege (valaki vette a fáradtságot, nem tudom már ph-n vagy valamelyik levlistán, és megnézte mennyi az index főoldala adblockkal és anélkül..előbbivel 400-500kB, majd több mint 6MB).
Személy szerint én azt prognosztizálom, hogy a böngészőgyorsítás ha beválik, pár éven belül megint kötelező lesz váltani akár az igp-s p4ekről is, nem csak az atomokról, mert használhatatlan lesz a web ha nincs egy legalább aktuális viszonylatok közt alsókategóriás, játékra is korlátoltan alkalmas gpu a gépben / cpuban....pedig én (és sokan mások) beérném egy rendes html/css kombóval
-
Abu85
HÁZIGAZDA
Az asztalon nem lesz gond. Még Windows 7-ben sem, mert a GPU DirectX 11-es, így az Aero DX10.1 módban futhat, vagyis nagyon kevés memóriát kell használnia. Az Atomnál is ez a fő probléma. Ha van egy csomó ablak nyitva, akkor az mind helyet foglal. A DX10.1-es Aero csak az aktuális ablak helyét foglalja.
(#28) DRB: Nem lesznek sokkal jobb szoftverek a több processzormag szempontjából. Ezért kell a heterogén irányba menni, mert ami most van, az egyre problémásabb. Majd aztán kiderül, hogy az új irány problémamentesebb-e. Nyilván ennek is meglesznek a buktatói idővel. Aztán lehet megint agyalni, hogy hovatovább, de addig még évek vannak hátra.
-
DRB
senior tag
"További probléma, hogy a többmagos processzorokat messze nem egyszerű programozni, és ez a magok számának növelésével csak nehezebb lesz. Mindez oda vezet, hogy az extra magok beépítése a teljesítményt alig növeli meg a megfelelő szoftverek hiányában, vagyis a többmagos elgondolás skálázhatósága lassan zátonyra fut."
Az a baj, hogy a megfelelő szoftverek hiányában ez sem fogja semmivel növelni a teljesítményt. Nem egészen értem, hogy ha eddig nem voltak a többmagos procikhoz megfelelő szoftverek, akkor most, hogy még egy "extra mag" bekerült a prociba ettől most hirtelen lesznek jó szoftverek?
-
joi29
őstag
-
Dave™
nagyúr
Amennyiben a böngésző támogatja. Na de a gpu az tiszta, nem az a kérdés, hanem hogy a számítási teljesítménye az 1GHz-es Ontarionak hozza-e a másfélszer akkora órajelű Atom N550 teljesítményét. Azzal tisztában vagyok, hogy az órajel megtévesztő lehet (lásd atom), de nem tudom erősebb-e az Ontario az Atomnál ezen az alacsonyabb órajelen. Normál, hétköznapi felhasználás szempontjából (gördülékeny multi tasking meg hasonlók).
-
Most. De ha jól értelmezem, nem ez a végső cél. Ennyit gyakorlatilag most is megtehetsz egy külön cpu, és igp vagy diszkrét kártya segítségével is, csak most hogy összeköltöztek, kisebb az adatok által bejárt út.
De ha jól értem, nem az lesz ennek az egésznek a lényege, hogy egy kupak alá teszik az "összetevőket". De javítsatok ki, ha tévedek -
joi29
őstag
válasz
deathtania #15 üzenetére
Nem igazán.
A gpu csak a támogatott programokban fog besegíteni pl konvertálás,
ahol a cpu lebegőpontos számítási kapacitása nem elegendő. -
JanR
addikt
Uristen az a video
-
Dave™
nagyúr
Elég lesz az 1GHz-es 2 magos C-50-es az Atom N550 @ 1,5GHz ellen?
-
gyiku
nagyúr
the future is fusion, nem veletlenul ez a szlogen mar reg ota
-
CsendesMark
aktív tag
Azt hiszem, most már az Intel atomnak is megérkezett a nemezise
-
Egyre nagyobb érdeklődéssel várom az AMD újdonságait. Leírva ez nagyon szépen hangzik, reméljük tesztek alatt is hasonlóan fogunk bólogatni
Mondjuk részemről engem majd az asztali PC-s újdonságok érdekelnek, mintsem a hordozható megoldások. -
deathtania
senior tag
ezt jól értelmezem, hogy a Fusion lényege, akkor hogy a lapkára szerelt grafikus mag kiegészíti a processzor számolási teljesítményét? szal mintha lenne 2x1,6Ghz+500Mhz-s magom? mert akkor ez hatalmas lehetőség tényleg
-
attiati
veterán
Az első igazi desktop apu-s konfig reálisan mikor várható kishazánkban?
-
Gergosz2
veterán
Na ezaz!
A sandy bridge egyik gyengéje szerintem a fogysztás!
De a fusion!
Szerintem ez hozza meg az áttörést a hordozható gépek piacán.Mert szerintem az nem nevezhető éppen jónak hogy egy laptop 2-3 óra alatt lemerül és melegszik mind a zsiguli motor.
Nem is beszélve a gyorsaságról.De!
Azt még nem látom tisztán hogy aztali gépekben hogy fog teljesíteni.Mert azért be kell látni hogy a jeleleg a játékipar a legjövedelmezőbb a szoftver piacon.De azért még kéne egy két teszt.
-
Hát a videón besírtam
-
Asszem a következő netbook amit veszek már erre fog épülni...
-
CPT.Pirk
Jómunkásember
A HD6000 széria megjelenésekor az UVD3-ra az itt lejrtakon kívül még ezt is írtátok: 7680x4320 -ra emelkedett a maximális támogatott felbontás. Ezzel most mi a helyzet? Maradt 1920*1080?
-
mcsabee
senior tag
Ez nagyon komoly, tisztára sci-fi feelingem lett. Reméljük tényleg annyira jó, mint amennyire tűnik.
-
Móci
addikt
Nagyon ígéretesnek hangzik, remélem tényleg oda fog verni.
A videó meg: -
lsc
nagyúr
Az adatai nem rosszak, reméljük a teljesítménye is jó lesz.
-
Hajrá...
Új hozzászólás Aktív témák
- iPhone-t használók OFF topikja
- exHWSW - Értünk mindenhez IS
- Lakáshitel, lakásvásárlás
- Erős törpe: ASUS NUC 15 Pro+
- Az Apple bemutatta az iPhone 17-et
- 5.1, 7.1 és gamer fejhallgatók
- Futás, futópályák
- Milyen autót vegyek?
- Nem tetszik pár profi eSport játékosnak, hogy Intel CPU-val kell játszaniuk
- ThinkPad (NEM IdeaPad)
- További aktív témák...
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest