Új hozzászólás Aktív témák

  • bajnokpityu

    félisten

    Tudni esetleg, hogy lesz-e R9 APUs procijuk?
    Ahogy olvasom, mégiscsak ugyanaz az APU lesz ezekben is,mint ami az A10-esekben van :(

  • mzso

    veterán

    válasz #32839680 #305 üzenetére

    Majd amikor már az AMD csődbe ment majd lehet, hogy kapnak valami büntikécskét, ami azt kiszabó szervek zsebébe megy. Ami ugye az AMD-n már nem fog segíteni. Meg a felhasználókon sem akiknek már csak jól felülárazott monopol procik elérhetők, és nem is jutottak hozzá jobb ár érték arányú AMD procikhoz amikor még lehetséges volt az Intel elnyomása miatt.

  • dezz

    nagyúr

    válasz ukornel #303 üzenetére

    Hasonló adatokat "közöltem" jómagam is annó a néhai Bulldozer (most már Carrizo, stb.) topikban egy hasonló eszmecserében, de lusta voltam rákeresni. [*]

    Nem lett volna ez olyan rossz, ha kapásból a Steamrollerrel jönnek ki (korábban kezdve a fejlesztést, más által nem akadályoztatva). Majd köv. évben shrink 22nm-re (Intel által bérgyártva [*] ), majd Excavator, majd újabb shrink, majd Zen. Mint ahogy az Intel csinálja titokban, izé, Tick-Tock-ban. [*] Vagy akár az Excavator shrinkjét kihagyva, ahogy most csinálja az AMD (úgy tűnik, az Excavator egyszeri 28nm-es jelenség lesz).

    * = :)

    (#297) morgyi: Szerintem a korábbi perek után ezt most nem mernék/merik majd megtenni.

  • ukornel

    aktív tag

    válasz dezz #302 üzenetére

    Így van!
    A #293-asban a SB-nél hozzászámoltam magok méretéhez az L2-t, a Bull-nál nem - szép nagy az L2 cache, de legalább lassú...

  • dezz

    nagyúr

    válasz ukornel #293 üzenetére

    A Sandy Bridge-ben is van 8 MB L3. A (a cellánként több tranyót használó) L2-ben van nagy eltérés: 1 MB (SB) vs. 8 MB (DB). Nem elhanyagolható a Hypertransport portok területe sem, amiből a desktop változatnál 4-ből 3 le van tiltva, de a helyet attól még foglalja.

  • #85552128

    törölt tag

    válasz #32839680 #299 üzenetére

    Elegendő grafikus teljesítményt ott sem fogsz kapni az IGP-vel, mert a legtöbb laptopba single channel ramot raknak, vagy raksz még mellé vagy 2 modulosat nézel drágábban, de az IGP-k többsége ott sem erőbajnok.

    "Ha nem kell grafikus teljesítmény és beéred 0 terméktámogatással, és nem hosszútávra tervezed a lapost, vagy nem akarsz OS-t frissíteni később akkor jó az Intel.
    Ha akarsz min 4 év supportot, újabb wddm-hez drivert később meg ilyen apróságokat, akkor jó azért a full AMD konfig.
    "

    Meg lehet oldani a driver-frissítést - igen nem hivatalosan, de meglehet viszont az AMD CPU teljesítménye nem lesz jobb az Intelestől + mostanra már a dedikált GPU-ik helyett is jobb fogyasztás a Maxwell az alacsonyabb fogyasztás/hőtermelés miatt.

    Egyébként 2009-es Mobility 4XXX series AMD-től nem kapta meg a W8 támogatást sem, ez még 3 év support sincs...
    Ugyanígy a 2012 és 2013-as Trinity/Richland sem fog Windows 10 WDDM 2.0 drivert kapni, tehát annyival nem mondanám jobbnak az AMD helyzetét driverek terén...

  • trufa12

    addikt

    Én azonnal vennék egy full amd pc-t ha jól sikerülne...
    csak úgy miért ne alapon, meg ha olcsóbb lenne (ami valószínű az lenne mint az intel)

    Csak kár hogy köv év elejére semmi se lesz belőle, majd max az új vga-kat akkor már ki bírom próbálni, mert tervezem év végén eladni a pc-m aztán egy újat össze rakni 4-500 ból

  • #85552128

    törölt tag

    válasz #32839680 #297 üzenetére

    "Most is ezt csinálják."

    Most elég jó okuk van rá...
    IGP-n kívül más előnyük nincs az AMD APU-knak, de abból meg szinte bármilyen elég, ha erősebb kell megy hozzá egy dedikált.

  • ukornel

    aktív tag

    válasz dezz #292 üzenetére

    "még a Bulldozer kiadási évében szerződtették Papermastert, aki vélhetően el is kezdett dolgozni egy stábbal az új uarch alapjain, valamivel később pedig Jim Keller is beszállt a "buliba"... Tehát, nem volt itt töketlenkedés, csak hát egy vadi új uarchhoz idő kell."

    Pont ezt akartam én is írni.
    Valószínűleg már a Bulldozer szimulátorbeli eredmények láttán elkezdtek leizzadni a mérnökök, de még bíztak az órajelekben. Aztán a rossz kihozatal és a katasztrofális szivárgás láttán maradék reményeik is elszálltak, és -innentől feltételezés- azonnal elkezdtek mentőöv után kapkodni. Így még abban az évben leigazolták Papermastert, de Kellert csak a következő évben, mert még volt egy kis dolga a az A7-tel.
    Nyilván velük kezdődött meg a Zen tervezése, onnantól 2016/17 fordulója öt év, annyi idő kell is a nulláról való újratervezéstől a forgalomba kerülésig. 2013-ban még nem nagyon lehetett mit mondaniuk a készülő új mikroarchitektúráról.

  • ukornel

    aktív tag

    válasz ukornel #293 üzenetére

    Ja, persze, megvan: az Zambezin (Bulldozer) volt L3 cache is, méghozzá szintén 8 MB a négy modulhoz.
    Az APU kiviteleken (Trinity, Kaveri) nem volt L3.

    dezz
    "a Llano már 32nm-es volt, miközben a Deneb/Thuban még 45, így valószínűleg kivitelezhető lett volna akár L3-mal is a 8 mag. Most nem tudok utánaszámolni a méreteknek."
    A Llano-ban egy mag 9,7 mm2; két mag és a hozzá tartozó 2 MB L2 pedig 32 mm2. A Bullhoz hasonló értékek ezek - valószínűleg kivitelezhető lett volna.

  • ukornel

    aktív tag

    válasz Fiery #286 üzenetére

    Érdeklődéssel olvasom az eszmecseréteket... :)

    Egy apróbb hozzászólás:

    "igy nezett ki tranyoszamban es die meretben a ket proci:
    Zambezi: 1200M / 315 mm2
    Sandy Bridge: 1160M / 216 mm2
    Csak ugye ne felejtsuk el, hogy a Sandy Bridge-nel a joval kisebb die es nemileg kevesebb tranyoban me'g az iGPU is benne volt!
    "

    Ha jól emlékszem, a magok méretéről ezek az információk jöttek:
    1 Sandy Bridge mag 18,4 mm2; + 2 MiB L3 29,5 mm2
    1 Bulldozer modul 18,0 mm2; + 2 MiB L2 30,9 mm2
    Mi a bánattól lett végül 100 mm2-rel nagyobb a Zambezi lapka, ha a magok/modulok mérete hasonló, ugyanannyi volt belőlük a lapkán (4), ráadásul a SB-ben volt IGP is? :F

  • dezz

    nagyúr

    válasz dezz #290 üzenetére

    Közben rábukkantam Oliverda nemrégi cikkére, amiben ez olvasható:
    "[...] nem is csoda, hogy néhány éve kvázi nulláról egy teljesen új x86-os koncepció kidolgozásába fogott az AMD. A vállalat ehhez 2011-ben műszaki igazgatónak szerződtette a processzorguruként emlegetett Mark Papermastert, majd alig egy évvel később egy újabb gurut, Jim Kellert csábították vissza a sikeres Apple processzorok tervezőasztala mellől."

    Azaz, még a Bulldozer kiadási évében szerződtették Papermastert, aki vélhetően el is kezdett dolgozni egy stábbal az új uarch alapjain, valamivel később pedig Jim Keller is beszállt a "buliba"... Tehát, nem volt itt töketlenkedés, csak hát egy vadi új uarchhoz idő kell.

    (Tavaly olvastam is Kellerrel egy rövid interjút, amiben beszámolt a fejlesztésről és hogy csinálják már egy ideje, bár mintha konkrétumokat még nem mondott volna.)

  • dezz

    nagyúr

    válasz dezz #290 üzenetére

    Látom, félálomban megfeledkeztem róla, hogy a Llano már 32nm-es volt, miközben a Deneb/Thuban még 45, így valószínűleg kivitelezhető lett volna akár L3-mal is a 8 mag. Most nem tudok utánaszámolni a méreteknek. Annak is utána kellene nézni, milyen órajeleket tudott elérni a Llano a maga 32nm-ével. Lehet, itt volt a gond. Vagy talán úgy voltak vele, hogy még ha ez így nem is rossz, nem tudnak már vele továbblépni, miközben a Bulldozer, még ha nem is olyan jó, de továbbfejleszthető és úgy már jó lesz. Jobb is lett, csak lassan és nem eléggé. De ennyire nem lehet mindent előre látni, erre szoktak panaszkodni a chiptervezők.

  • dezz

    nagyúr

    válasz Fiery #286 üzenetére

    "inkabb a Sandy Bridge-hez kellene hasonlitani"

    Igaz, de az AMD nem tudhatta évekre előre, hogy akkor pontosan mi lesz Intel oldalon. Ne feledkezzünk meg az SB 1 MB L2-jéről sem, szemben a BD 8 MB-jával, ez sem kevés helyet foglal. Pusztán a CPU magokat véve kb. egyforma területet foglalnak. És pár sokszálas alkalmazásban teljesítményben is egálban voltak (8150 vs. 2600K). Az egy-/kevésszálas teljesítmény és a fogyasztás hibádzott, ami persze el is döntötte a meccset.

    "Na, az AMD pont ezt csinalta az utobbi X evben"

    Ez a látszat, de ha megnézzük a dolgok hátterét (éppen ezt tettem), rájöhetünk, hogy nem egészen így van. Nem kellene őket teljesen hülyének nézni.

    "az x86 teljesitmenyen dolgoznak ezerrel"

    Ehhez azért nem volt szükségük valami hatalmas revelációra, évek óta nyilvánvaló, hogy szükség van egy új uarchra, csak ez náluk nem egészen úgy megy, mint az Intelnél, hogy egy 2. vagy 3. csapat kezd el dolgozni rajta, miközben az aktuális dolgokkal is foglalkozni kell.

    "Marmint mire akarod a HBM-et hasznalni?"

    Hát erre, csak a GPU helyén egy APU-val. Így lehet unified, egyszerűsödik az alaplap és az utóbbi gyártóit sem kell győzködni. Miért ne működhetne olyan jól, mint az Intel eDRAM-ja? Persze, hogy mikor lesz ilyen, azt nem tudom.

    "En ugy tudom, a Fiji me'g 28 nanon fog keszulni, de mar HBM-et hasznal."

    És szerinted a 4096-bites memóriabusz (128~256 GB/s) nem hoz némi teljesítménytöbbletet, egy új verziójú GCN chip társaságában? Jövőre meg jöhet a 14(/16)nm.

    A GPGPU-s API-kra gondoltam. Szerintem a Carrizo és főleg a jövőre érkező asztali APU már használható cuccok lesznek. És úgy tűnik, okosteló/tablet vonalra is kezdenek érkezni a HSA alapú chipek.

    "2013 nyaran me'g szo nem volt a Zenrol"

    Vagy csak nem kötötték az orrodra. :)

    "valamikor 2014-ben kezdodhetett el a fejlesztes, vagy a nagyon korai szakasz esetleg 2013 kozepe-vege tajan"

    2-2,5 év alatt 0-ról kész termékké egy új uarch?

    "Ergo 5 evet vartak arra, hogy a GPGPU-val eljussanak valahova, 5 evig tokoltek."

    Ha 2010-ben volt a BD tapeout-ja, akkor is max. 4 évet tököltek (volna), ha a Zent tényleg csak 2014-ben kezdték el. De ez is csak akkor áll, ha feltételezzük, hogy kapásból neki tudtak volna állni az új fejlesztésének, ha akarnak, amin a BD elkészült. Az Intel megteheti, mert legalább két csapat dolgozik ezen, egymást váltogatva (~fél időben az új uarcht fejlesztve, ~fél időben pedig shrinket és egyéb finomításokat végrehajtva), az AMD-nél ugyanaz a csapat végzi a kettőt, de legalábbis nincs kapacitás két fejlesztés teljesen párhuzamos futtatására. Azt pedig nem tehették meg, hogy leállnak a Bulldozernél és több évig azt nyomják, amíg el nem készül a Zen.

    "6 vagy 8 magos Llano, iGPU nelkul."

    Minimális különbség van a Deneb/Thuban és a Llano CPU magjai között és a Llano L3-mal sem rendelkezett, így lényegében egy Athlon II-nek felelt meg CPU oldalról. Sőt, ki is jött néhány Llano alapú, letiltott IGP-vel rendelkező proci Athlon II brand alatt (X4 651/641/638/631). Szóval, a 6-magosod egy Athlon II X6 lett volna. :) A 8-magosban talán lett volna ráció, de nem tudom, hogy hogy szerepelt volna L3 nélkül, azzal pedig már elég nagy lett volna.

    Ja, már emlékszem, kitűzött cél, hogy csak hétköznapi programokkal vagy azok bechmarkosított változatával (pl. CineBench) tesztelnek. No de a (szinte) semminél azért csak jobb egy szintetikus teszt, főleg, ha az csak "félig" szintetikus (nem belső sávszéleket mérő tesztek, hanem hétköznapi programokban is előfoduló feladatok). De amúgy lehet valahol nézni AIDA64(/SANDRA)-(e)s GPGPU-s összehasonlításokat APU vonalon (Intel is)?

    (#287) Dr. Akula: Én már igen, és ez alapján nem egészen így gondolom. Sőt, inkább attól félek, hogy jóval nagyobb függőséget képes okozni, mint a megszokott forma.

  • leviske

    veterán

    válasz Fiery #285 üzenetére

    Nem azt mondtam, hogy a vásárlókat kéne, hogy érdekelje, hanem a befektetőket, akik az egészből most annyit látnak, hogy az AMD két év HEDT fejlesztés nélkül is egy gond nélkül választható alternatíva a piacon. Teljes GPU piaci részesedésben az AMD-re még mindig nagyobb veszélyt jelent az Intel, mint az nVida. Ezt meg ugye az aktuális X86 teljesítménynek köszönhetik, nem a Radeonok csúcstartó hiányában 'állítólagosan' kialakult hírnevének.

    Hogy irreálisan látom a piacot, az nem kizárt, elvégre nem vagyok szakértő és eleve egyre kevesebbet foglalkozok az itteni folyamatokkal. Viszont a fentebb leírt véleményemet nem a levegőből kapkodtam össze, hanem tapasztalatok alapján írtam, amiket meg a xtremesystems és társai látogatásával szereztem. Vannak olyan emberek, akik ebben a kategóriában is érzelmek nélkül nyúlnak a pénztárcájukhoz, de ezeknek az embereknek meg elég annyi, ha az Intel se tud egyértelműen első maradni és máris a választás se lesz egyértelmű.

    Viszont átgondolva, amiért a specifikációk alapján irreális a 800-1000 dolcsis sáv, mégha a teljesítmény esetleg engedné is, az a PCIE sávok száma GPU irányba. Mivel megálltak 16-nál, míg ugye LGA2011v3-on 24-38 közt változik, függően attól, hogy melyik processzort választod. Szóval tényleg reálisabb, hogy amennyiben esetleg a LGA105x-es zászlóshajót sikerül lepofozni, akkor a csúcs képviselőt esetleg belövik $400-450 környékére.

    Amúgy AMD fanboynak azokat tartom a HEDT kategóriában, akik még a mai napig is AMD cuccokra alapoznak kemény gépeket (rendre FX-9 vagy széttuningolt FX-8 + 980 vagy 780Ti SLI, stb - számomra is meglepő mennyi ilyennel össze lehet futni fórumokon). Az Intelen való ragadást Conroe óta annyira tartom Intel fanboyságnak, hogy amennyiben nudli lesz a Zen, valószínűleg én is szemrebbenés nélkül fogok váltani. (Mert onnantól válik véglegesen világossá, hogy hiába a szimpatikus koncepció, ha nem képesek az előnyeit a valóéletbe átültetni. Aktuálisan van még némi bizodalmam a Fusion-ben.)

    (#283) Peat;): A fogyasztás/teljesítmény az architektúrából adódik. Az nVidia ebben nagyobbat tudott húzni, mert a mostani szériát nem kell egyszerre a professzionális piacon is tartaniuk, ellenben az AMD-vel. A Tonga esetén elég volna annyi, ha kiderülne, hogy aktuális formában nagyon durván vissza volt fogva. Erre meg emlékeim szerint a mobil verziókkal összehasonlítva még esély is van.

  • #06658560

    törölt tag

    válasz #32839680 #275 üzenetére

    Hogy ez mennyire így volt itt a megfelelő topikokban!

    Az APU nem grafikára van! ->Mutass előnyt más alatt! ->De az APU dGPU helyett van!
    Ehhez jött az APU mindent lever vágyálom, skálázódás, fogyasztás, hűtés problémáinak ignorálásával.

    A HBM memóriának lesz még GPGPU gondja szerintem a méretkorlát miatt.

  • Dr. Akula

    félisten

    válasz dezz #282 üzenetére

    Nyilván még nem, de a 3D mániából kiindulva ez a csoda is 3 napig fog tartani. A google glassos felhasználási módot sokkal életképesebbnek tartom (mész az utcán és infokat közöl ahhoz amit látsz, mondjuk bolt vagy moziműsor), de azt meg kb. betiltották.

  • Fiery

    veterán

    válasz dezz #282 üzenetére

    "Rendben, de vajon milyen terveket tettek le eléjük a mérnökök?"

    Valoszinuleg egy rosszat es egy me'g rosszabbat, es a legkevesbe rosszat valasztottak. Maskepp elkepzelesem sincs, miert bolintottak volna ra a Bulldozerre.

    "Ez végülis sikerült, hiszen a 8x50-ek kb. akkorák, mint az Ph2 X6, de sokszálas alkalmazásokban jócskán verik azt, elérve az akkori i7-ek szintjét is, igaz, jóval magasabb fogyasztás mellett."

    Ize, szerintem meretben es tranyo szamban a Zambezit nem a Phenom II X6-hoz, hanem inkabb a Sandy Bridge-hez kellene hasonlitani. Nagyjabol a Sandy Bridge i5 es i7 kozotti teljesitmenyt hozta anno az elso Zambezi, mikozben igy nezett ki tranyoszamban es die meretben a ket proci:

    Zambezi: 1200M / 315 mm2
    Sandy Bridge: 1160M / 216 mm2

    Csak ugye ne felejtsuk el, hogy a Sandy Bridge-nel a joval kisebb die es nemileg kevesebb tranyoban me'g az iGPU is benne volt! Ez alapjan pedig jol lathato, hogy mennyire rossz volt mar az elso Bulldozer is. Se teljesitmenyben, se die meretben, se tranyo szamban nem volt versenykepes :(

    "Csak hát túlzottan megelőzték a korukat."

    Hat ezaz. Lehet elore menekulni, a jovot epitgetni, a kovetkezo evtized technologiajan dolgozni, de nem szabad(na) kozben elhanyagolni a jelenben felmutatott teljesitmenyt sem. Az Intel procik kapcsan is ki lenne mindenki borulva, ha mondjuk az AVX-512 tamogatas oltaran felaldoznanak a 4 magbol 1-et a Cannonlake-nel, es igy kisebb teljesitmenyt kapna a juzer. Hiaba mondana az Intel azt, hogy "Majd figyeljetek meg, mekkorat lep a Cannonlake, ha lesznek AVX-512 gyorsitott szoftverek". Na, az AMD pont ezt csinalta az utobbi X evben, es jol lathato, hova jutottak ezzel a hozzaallassal :(

    "Most azt mondták, hogy a CPU a lényeg? Vagy azt, hogy az IS ugyanolyan fontos?"

    En ugy altalaban az egesz eloadas eszenciajara gondolok, amikor azt mondom, hogy most lathatoan mas kerult fokuszba. Nyilvan nem fogjak azt mondani, hogy a GPGPU, a HSA vagy epp az eros iGPU innentol nem szamit, hiszen azzal sajat magukat is szembekopnek. De az eloadas uzenete -- szamomra legalabbis -- egyertelmuen annak tunt, hogy az x86 teljesitmenyen dolgoznak ezerrel, hogy abban oriasit lepnek elore jovore. Vegre nem az igergetes megy az API-krol meg GPGPU-rol, hanem ismet kompetitiv x86 teljesitmenyt akarnak letenni az asztalra. Az lenne a non-plusz ultra, ha amellé még egy eros, HSA 1.0 compliant iGPU-t is tudnanak adni, ez egyertelmu. Es ha a Zen maga jol sikerul, akkor nincs is semmi akadalya egy ilyen mindent-vero APU-nak. Mas kerdes, hogy TDP tekinteteben hogyan fog alakulni a helyzet, de a Zen elvileg abban a tekintetben is kompetitiv lesz.

    "Szerintem a HBM-mel ez is el fog jönni."

    Marmint mire akarod a HBM-et hasznalni? Mert ugye megosztott (unified) rendszermemorianak nem tudod hasznalni, legalabbis az AMD legutolso ilyen jellegu probalkozasa (Kaveri + GDDR5) sem jott mar be. Miert pont most tudnak meggyozni a piacot arrol, hogy DDR4 helyett HBM-et hasznaljanak a PC-s alaplapokon? Ha pedig near memory vagy L4 cache-szeru megoldasra gondolsz, akkor az elvileg nem mukodhet olyan jol osszessegeben, mint az Intel eDRAM-ja, hiszen a GCN nem tamaszkodik annyira a gyors cache-ekre, hanem sokkal inkabb a memoria savszelesseg a lenyeg. Abbol pedig eros korlatok koze szoritja magat az AMD, ha dual channel DDR4-et hasznal az APU-khoz. Egy bizonyos magszam (iGPU CU) felett az ugyanugy nem fog skalazodni, mint ha egy Kaveriba raknal 16 db CU-t. Amig az AMD vagy epp az Intel nem tud brutalis memoria savszelesseget pakolni az iGPU-k ala, addig nehezen tudjak azok befogni a dGPU-kat.

    "A Maxwellel nem vagyok képben, de a 14nm+HBM egyelőre megoldást nyújt."

    En ugy tudom, a Fiji me'g 28 nanon fog keszulni, de mar HBM-et hasznal. Tehat az "egyelőre megoldást nyújt" inkabb jovo ido kellene hogy legyen, a 14 nano okan ;)

    "Szerintem az API-k harca le fog csengeni"

    Melyik API-ra gondolsz? GPGPU vagy low-level grafika? De akarmelyikre is gondolsz, az API-k harca csak akkor tudna lecsengeni, ha vagy kihalna az API-k fele, vagy egy adott hardver mindent tamogatna _rendesen_. Sajnos egyikre sincs sok esely, foleg ha beleveszed a kepbe az ultramobil szegmenst is :(

    "Nem hiszem, hogy ez szándékos volt. A fentiek fényében egyfajta kényszerpályán voltak."

    Ugyan... A Zambezi szimulatorbeli elso tesztjei ota eltelt mennyi ido is? Legyen csak 5 ev, joindulattal, bar inkabb 6 ev lehet az inkabb. Annyi ido alatt mar boven nekilathattak volna barmikor palyat modositani. Rengeteg penzt, idot es energiat oltek a GPGPU temaba: ha annak csak a felét mashova allokaljak az utobbi 3 evben, ma mar piacon lehetne a Zen.

    "Tudjuk, hogy mikor kezdtek neki?"

    2013 nyaran me'g szo nem volt a Zenrol, amikor az AMD-vel (eloben) beszelgettem. 1 evvel kesobb, 2014 nyaran viszont mar dicsekedtek vele, hogy elkezdtek a fejlesztest, egyelore me'g korai szakaszban vannak, me'g a szimulatorban sem mukodik a cucc. 2014 nyaran mar konkretan Zenkent hivatkoztak ra. Ergo valamikor 2014-ben kezdodhetett el a fejlesztes, vagy a nagyon korai szakasz esetleg 2013 kozepe-vege tajan. De akarhogy is, nem azt kell nezni, hogy mikor kezdenek neki, hanem hogy 2 termek piacra dobasa kozott mennyi ido telik el. Hiszen a Bulldozert is X evig fejlesztettek, mire piacra kerult, ugyanugy a Zent is. Viszont ha a piacra kerules kozott van mondjuk 5 ev, akkor durva becslessel, hunyoritva lehet 5 ev a fejlesztesek megkezdese kozott is. Ergo 5 evet vartak arra, hogy a GPGPU-val eljussanak valahova, 5 evig tokoltek. Ez az en olvasatomban legfeljebb akkor lett volna elfogadhato vagy "oke", ha az eredeti architektura lenyegesen jobban sikerult volna. Egy eleve nem versenykepes architektura utodat ennel sokkal hamarabb el kellett volna kezdeni fejleszteni.

    "Mi lett volna helyette?"

    6 vagy 8 magos Llano, iGPU nelkul. Ne mondd, hogy az annyival rosszabb lett volna, mint a Zambezi. Es legalabb lett volna lehetoseguk azonnal dolgozni az utodon, nem vesztegettek volna el 5 evet, es nem alltak volna neki sok olyan Bulldozer alapu projektnek, ami utana amugy sem kerult piacra. A piacra kerult Zambezi, Trinity, Vishera, Richland, Kaveri, Carrizo-n felul a kukaban vegezte a Komodo, a Sepang, Macau, Terramar, Dublin, az eredeti Richland (masnak indult, mint ami lett belole), az eredeti Kaveri (ami piacra kerult, az a Kaveri 2.0). Ezek mind-mind rengeteg penzt es idot vittek el, ehelyett gondolom azt, hogy sokkal jobb otlet lett volna massal foglalkozni (Zen).

    "Akkor ugye jól gondolom, hogy a Richlandnál a mikrokód változott?"

    A Richlandnel sokkal tobb valtozas volt a Trinityhez kepest, mint amit a Godavari tartalmaz. A Richlandnel pl. a CPB (Turbo) viselkedesen, mukodesen is valtoztattak, fejlesztettek. Ami aztan a Kaveriba nem is kerult be, sz'al ezek "erdekes" dolgok :U

    "A SANDRA-ban mintha lennének. De az AIDA-ban miért nincsenek?"

    Marmint mi nincs az AIDA64-ben? OpenCL GPGPU benchmarkbol eleg sok van benne, 12 metodus. Raadasul direkt a mar letezo (x86/x64/MMX/SSE/AVX/AVX2/FMA/XOP-rol) CPU benchmarkokat portoltuk GPGPU-ra, hogy direktben ossze lehessen hasonlitani a GPU es CPU teljesitmenyet. A Kaveri piaci rajtjanal mar piacon volt a sajat GPGPU benchmark megoldasunk. Az megint mas kerdes, hogy melyik ujsagiro akarta ezt hasznalni a Kaveri tesztelesehez.

  • Fiery

    veterán

    válasz leviske #281 üzenetére

    Ne erts felre, en nem mondom, hogy az nVIDIA 3x jobb GPU-t gyart, mint az AMD. Csupan azt mondom, hogy a piac jelenleg azt mutatja, hogy 3x kelendobbek az nVIDIA GPU-k. Ez nem segit az AMD-nek, plane azok utan, hogy eleg sok penzt beleraktak az ATI-ba anno. Es mellesleg ez a pelda is mutatja az, hogy mennyire fontos a kiralykategoria hazon belul tudasa: ha elveszited a leggyorsabb GPU vagy leggyorsabb CPU cimet, az alsobb kategoriakban is sokkal nehezebb lesz eladni az amugy adott esetben versenykepes termekeidet is. Az nVIDIA a Titan szeriaval pont az biztositja, hogy ove maradhasson a teljesitmenybeli korona, es onnantol az AMD dolga me'g nehezebb a megfizetheto GPU-k eladasaval is. Az semmit nem szamit, hogy a Titanbol csak par ezer db kel el, a cim, a tron, a brand a lenyeg. Az meg a piacot egy egesz kicsit sem erdekli, hogy mennyi penzbe kerul valamit kifejleszteni. Nincs az a vasarlo, aki ilyen alapon valasztana. Ar/teljesitmeny az mas teszta, az alapjan sokan valasztanak, de nem a fejlesztesi koltseg alapjan.

    Es erre rakotve, az egy dolog, hogy maskepp latjuk a dolgokat, az rendben van. Az a nagyobbik baj, hogy Te kicsit irrealisan tekintesz a 800-1000 dollaros CPU-k piacara, ill. azok vasarloira. Azt gondolod, hogy aki ennyi penzt kolt procira, az rajongasbol teszi ezt. Hat nem. Akinek ennyi penze van procira, _es_ hajlando is procira kolteni, az egesz egyszeruen a leggyorsabb CPU-t akarja a PC-jeben tudni. Ilyen egyszeru. Ha az AMD hirtelen letenne az asztalra ma egy 5960X-nel erosebb CPU-t, rengeteg altalad Intel hivonek gondolt Sandy Bridge-E/Ivy Bridge-E/Haswell-E tulajdonos fogna a PC-jet, kivagna belole az alaplap+CPU-t, es beujitana egy zsir uj Zen konfigot. Akinek van ennyi penze es hajlandosaga is ilyen sok penzt kolteni egyetlen nyavalyas CPU-ra, az lesz*rja a markanevet, az egyszeruen csak a legjobbat akarja, akarki is adja neki. Gondold csak meg, mennyi mindent kaphatsz egyetlen ilyen CPU arabol. Egy csucskategorias Apple tablet 700 dollar, me'g az sincs 800-1000 dollar. Egy MacBook Air alapmodell -- ami alapmodell dacara sem egy low-end masina -- kompletten 900-1000 dollar. Komplett tabletet vagy ultrabookot kapsz egyetlen HEDT proci araert. Aki pedig megis CPU-t vesz, az nem fogja a 2. legjobbat venni ennyi penzert. Suta parhuzam, de nem hagyhatom ki: ha 10 eve egyutt vacsorazhattal volna az Apollo 11 legenysegenek egyetlen tagjaval, kit valasztottal volna? Ugye hogy Neil Armstrongot ;)

    Arrol nem is beszelve, hogy ha az AMD-nek nem sikerul ujra a leggyorsabb desktop procit letennie az asztalra, akkor tovabbra is szenvedni fog az alsobb kategoriakban is. Az AMD viragzasa akkor valosult meg, amikor ketseg nem ferhetett ahhoz, hogy teljesitmenyben (is) a legjobbat kinalta az x86 desktop CPU-k piacan. Sot, a szerver piacon is akkor indult be a szeker az Opteronnal, amikor egyertelmuen gyorsabb volt, mint a Xeonok. Egyszeruen muszaj a kiralykategoriat elhoditani, kerul amibe kerul, kulonben tovabbra is menni fog a vergodes az APU-k piacan :( Nem veletlenul probalkozott be az AMD az FX-9590-nel sem: ugyanez a cel vezerelte oket, csak ugye ott mission impossible volt valoban meghoditani a HEDT-t. De arra boven jo volt, hogy egy kis buzz-t generalt a ceg korul. Jovore viszont nem buzz kell, hanem valodi eredmenyek.

    Kivancsi lennek egyebkent, hogy mi alapjan gondolod valakirol azt, hogy Intel vagy AMD fanboy. Ha pl. valakinek a Conroe ota csak Intel procijai vannak a gepeben, de minden valtasnal felmerul benne, hogy AMD-re alljon at, de mindig elmegy a kedve tole, mert teljesitmenyben nem kapna elegendot a zoldektol, az Intel fanboy? Vagy ha nem, akkor mi kell ahhoz, hogy valaki fanboy legyen? Hogy fel se meruljon az AMD mint otlet? Ha me'g igy is lenne, marmint nyilvan sokan vannak igy, szerinted nem lehet az ilyen gondolkodasmodnak, berogzulesnek fokent inkabb az az oka, hogy a media mar hosszu evek ota masrol sem szol, mint hogy jon egy uj AMD CPU vagy APU, es hogy jo-jo meg jo ara van, de egyszeruen lassabb, mint amit az Intel kinal? Az AMD a 90-es evekben eljutott oda, hogy az emberek agyaba beegett az, hogy az Intel a draga es gyors proci, az AMD az olcso(bb) es lassu/lassabb proci. Ezt sikerult eloszor az Athlonnal kicsit megvaltoztatnia az AMD-nek, majd az Athlon 64-gyel egyertelmuen megvaltoztatnia. Aztan az egesz ment a levesbe, es mára visszajutott az AMD oda, ahol a 90-es evekben volt. Megint az van az emberek agyába égve, hogy az Intel a draga es gyors proci, az AMD az olcso(bb) es lassu/lassabb proci. Ezt az Athlon/Athlon 64-gyel ugy sikerult anno megvaltoztatni, hogy letettek az asztalra egy vitan felul leggyorsabb desktop procit. Ujra sikerulhet ezt megtenniuk, de ahhoz megint kell egy vitan felul leggyorsabb desktop proci. A masodik legjobb nem lesz eleg, mint ahogy anno a 90-es evekben sem volt eleg.

  • Fiery

    veterán

    válasz #32839680 #279 üzenetére

    Nem mondanam, hogy egyedul a szettagoltsag a problema. Felsoroltam, hogy mi minden a problema szerintem, es ezek kozul egy a szettagoltsag. Az semmikeppen sem tesz jot, ha mindenki a sajat feje utan megy. Az OpenCL pedig nehezkes, es jol latszik, hogy nem sikerult az iparagat meggyozni arrol, hogy azt hasznalja mindenki. A rengeteg compiler bug, az SVM nelkuli rendszereknel a memoria masolgatas, a hosszas inicializalasi sallangok mind azt okozzak, hogy ha bele is akar kezdeni az ember, hamar elmegy a kedve az egesztol. Amikor egy fejleszto hozza van szokva ahhoz, hogy szokoevente egyszer (se) talalkozik a VCC-ben, GCC-ben, ICC-ben (stb, tehat egy akarmelyik klasszikus C --> x86 vagy ARM compilerben) compiler buggal, akkor nagyon idegesito az, amikor egy tok egyszeru OpenCL kerneltol elhasal az X gyarto OpenCL compilere. Erre az igeretek szerint megoldast nyujthat (majd, valamikor) a HSA, csak ugye a HSA-val (+ SVM) kellett volna az egeszet elkezdeni, es akkor -- talan -- ma nem itt tartana a GPGPU.

  • Peat;)

    veterán

    válasz leviske #281 üzenetére

    Nem akarok hülyeséget írni, de mint ha a 285-ös kb kétszer annyit kajálna mint a 960-as. A teljesítménye meg gyenge, kicsit 960-as alatt van, tehát komoly fejlesztés nélkül csak még nagyobb fogyasztással tudnak előrelépni. Arra meg nvidia megrántja a vállát és kiad egy butított 970-est, 960ti néven. 285-ös szinte mint ha nem is lenne a piacon, totális bukásnak tűnik számomra, vagy valamit eltájoltak vele, vagy ha nem és ennyit tud akkor elég rossz öletnek tűnik erre építkezni. :F Aztán meglátjuk, jó lenne árcsökkenés a középkategóriában.

    Az utóbbi hónapok eladásait tekintve, ha az nvidia eredményeiről lehetne vitatkozni mekkora siker, akkor nem értem milyen jelző lenne helyénvaló az AMD helyzetére. Ennyire ne legyünk már fanboyok, a piacot szerezni mindig sokkal drágább, az nvidia meg ezt tökéletesen nagy profitmarzzsal abszolválta, amióta van nvidia és ati ilyen differencia talán nem is volt..gyászos a helyzet és ezzel jó lenne ha AMD szembe nézne.

  • dezz

    nagyúr

    válasz Fiery #273 üzenetére

    Végülis nincs túl sok különbség a full-extrás fórumhozzászólások és a blogbejegyzések között. Lehet az egyszerű személyes bejegyzés is, nem csak címlapos írás. Megvan az az előnye, hogy nincs szétszórva és mindegyikhez kapcsolódik saját topik is, ahol ráérősen ki lehet vesézni. Bár én is sokszor utólag jövök rá. Illetve néhány dolog részletesebb leírásának már eleve nem állok neki a fórumban, mert úgy vagyok vele, hogy majd egyszer ott leírom, csak ezt idő hiányában halogatom.

    Rendben, de vajon milyen terveket tettek le eléjük a mérnökök? Vélhetően azért folyamodtak ilyen különös megoldáshoz, hogy ezzel próbálják kompenzálni a gyártástech. lemaradást, azaz így próbáltak több teljesítményt kihozni kevesebb tranzisztorból. Ez végülis sikerült, hiszen a 8x50-ek kb. akkorák, mint az Ph2 X6, de sokszálas alkalmazásokban jócskán verik azt, elérve az akkori i7-ek szintjét is, igaz, jóval magasabb fogyasztás mellett.

    Sokáig úgy gondoltam egyébként, hogy az - amúgy sovány - int. blokkokat 2x órajelen akarták járatni eredetileg, csak ez nem jött össze, ezért voltak kénytelenek az egész chipet magas órajelen járatni. Meg ugye a decode egység működése sem stimmelt. Állítólag az Intelnek hasonló tervei voltak eredetileg a P4-gyel és talán innen merítették az ötletet, ami egyben azt jelentheti, hogy már akkoriban kezdek neki a Bulldozer uarch fejlesztésének. Vagy ha később, akkor talán azt gondolták, nekik talán sikerül, ami az Intelnek nem. Ez persze csak feltételezés, de az a két ALU int. blokkonként egyszerűen túl kevés.

    Nyilván jobb lett volna, ha kapásból egy Zen-féleséggel kezdenek. Egyszer majd talán kiderül, miért nem tették.

    "Nem mondtam, hogy az AMD talalta ki/fel a GPGPU-t."

    Tudom, be is akartam tenni egy "ugye" szócskát, ezzel jelezve, hogy ezt persze mindketten tudjuk és ez is egy afféle leszögezés, nem utolsó sorban pedig pluszinformáció azoknak, akik még olvassák, talán nem mindenki tudja.

    Bizonyos vagyok benne, hogy az ATI beolvasztását az alkalom szülte. A cég komoly gondban volt az R600-assal. Az AMD mérnökeinek segítsége nélkül valószínűleg zátonyra futott volna a dolog, ami könnyen a cég csődjéhez vezetett volna, ezért mentek bele a fúzióba. Még jól is jártak anyagilag a tulajdonosok, vélemények szerint túl sokat is fizetett az ATI-ért az AMD. És ha már megvették, kezdeni kellett vele valamit. Plusz akkorra már érezhették, hogy CPU oldalon elhúz az Intel, így hát előre menekültek, mint már nem először. Ez az előre a GPGPU és a CPU-GPU kooperáció. Csak hát túlzottan megelőzték a korukat. Sokan beleestek már ebbe a "hibába".

    Most azt mondták, hogy a CPU a lényeg? Vagy azt, hogy az IS ugyanolyan fontos?

    "Az idealis megoldas egy SVM-es eros CPU + eros iGPU paros lenne"

    Szerintem a HBM-mel ez is el fog jönni.

    A Maxwellel nem vagyok képben, de a 14nm+HBM egyelőre megoldást nyújt. IGP terén sem nevezhető még elavultnak a GCN. Persze előbb-utóbb nyilván lépnek majd, ahogy eddig is.

    Szerintem az API-k harca le fog csengeni, ha nem csak egy elméleti vetélkedés lesz, mert rendelkezésre fognak állni megfelelő HW-ek és neki lehet állni dolgozni.

    "Az x86 CPU-oldalt is bealdoztak a GPGPU eroltetese miatt."

    Nem hiszem, hogy ez szándékos volt. A fentiek fényében egyfajta kényszerpályán voltak.

    "Azt hittek, majd az OpenCL meg a HSA megoldja a gyenge CPU problemajat"

    Csak remélték, de nyilván tudták, hogy amint lehet, a CPU oldalt is helyre kell rakni.

    "a Zambezi tervezese kozben mar azonnal nekiallnak a Zenen dolgozni"

    Tudjuk, hogy mikor kezdtek neki? Már tavaly emlegette az AMD a Zent és nyilván akkor már rég nem a kezdeti stádiumban voltak (nem szokás olyan korán felfedni a dolgokat). Évekig tart egy ilyen fejlesztés.

    "Vagy piacra sem kellett volna dobni"

    Mi lett volna helyette?

    "Igen, ez az elmelet."

    Több, mint elmélet, hiszen ma sem sok-sok magos CPU-k dolgoznak a 2D/3D grafikán. Mobil vonalon még hangsúlyosabb lesz a dolog!

    Tagadhatatlan, hogy az AMD a HSA kezdeményezője és fő fejlesztője, de a SoC-készítők jól felfogott érdeke is, hogy ne csak az ARM legyen a közös nevező. (Sőt, a MIPS-es Imagination is a szövetség részese.)

    A Renderscriptről ez olvasható a Wikipedián: "Renderscript is designed to always run on the various Android platforms regardless of hardware type. Its goal is code portability for various architectures and not performance." Szerintem a későbbiekben együtt tud majd élni az OpenCL-lel, kiegészítve egymást. Talán az utóbbival az a baja a Google-nek, hogy nem mindenhol elérhető. A végső megoldást valószínűleg Java GPGPU-s kiegészítése hozza majd el. Akkor majd versenyezhetnek a gyártók, hogy ugyanaz a kód hol fut jobban.

    Ut. bek: Persze, tudom, csak most már nem az AMD mérnökei dolgoznak a gyártástech. csiszolgatásán. Bár nyilván kapnak visszajelzéseket és ez alapján ők is végezhetnek kisebb módosításokat, ami egy újabb steppinghez vezet. Mindegy, majd kiderül. Akkor ugye jól gondolom, hogy a Richlandnál a mikrokód változott? (És úgy tűnik, ez valamiféle ROM-ban van, nem flashban, a procin belül.)

    u.i. Meg is feledkeztem a Folding@Home-ról, az is nagyon korán elkezdte alkalmazni a GPU-t. Ma már andoidos kliens is van hozzá, bár még csak a CPU-t használja.

    (#276): A SANDRA-ban mintha lennének. De az AIDA-ban miért nincsenek?

    (#274) Dr. Akula: "A VR szemcsik sztem ugyanolyan buzzword lesz"

    Próbáltad már?

    "mint a 3D, elején jópofa, utána leszoknak róla az emberek."

    Vannak, akik eleve elutasítók (sokszor mert nem képesek hozzászokni vagy térlátási problémáik vannak), vannak, akik számára csak érdekesség és vannak, akik nagyon is kedvelik. Nekem úgy tűnik, az utóbbiak sincsenek olyan kevesen.

    (#275) morgyi: Bizony, a tech. újságírók jelentős része is nagyon lassan értette meg, mi a fene az a GPGPU vagy hogy van egyátalán ilyen. (Nem itt a Ph!-n.)

    Az, hogy az AMD sem ezt domborította ki, azért volt, mert nem igazán volt mit mutogatni ilyen téren. Viszont a játékok jobban futtak rajta, mint az Inteleken. Csak hát egy valamirevaló, de főleg gamer laptopban evidens a dGPU.

    "Vagy ha ezt szeretné valaki, akkor a VGA mellé integráljon CPU-t ne pedig fordítva."

    Ez egyelőre nem történt meg, bár lehetett hallani ilyen tervekről, viszont pl. az Nvidia nagy hangsúlyt fektet rá a jövőre tervezett Pascalnál, hogy a ("rendes") CPU könnyen és nagy sebességgel érje el a GPU-hoz tartozó RAM-ot, ami elősegíti a kettő közötti jobb kooperációt.

    (#279): Elég furcsa, hogy sok komoly ipari program még a többszálúsításig sem igazán jutott el.

  • leviske

    veterán

    válasz Fiery #270 üzenetére

    Vegyük figyelembe, hogy az aktuális termékskálára mennyit költött az nVidia és mennyit költött az AMD. Utóbbi a fejlesztésekre költött pénzt ennyi idő alatt rég vissza tudta forgatni az eladásokból. Hogy az nVidia friss fejlesztését 3x jobban viszik, arról még lehetne vitatkozni, hogy mekkora siker.
    A GTX960 elég jól megfoghatónak tűnik a Tonga-val, tehát annak a 300-as reinkarnációja vélhetőleg kellőképp mentes lesz a sávszélesség- és memória mennyiségbeli korlátoktól. Így én annyira a mainstream-et nem féltem. Nyilván a mostani béna verziójától senki nem várhatott komoly eladásokat.

    Akkor álljunk meg egy pillanatra és gondolkodjunk. A 800-1000 dolláros árkategória már messze enthusiast vásárlóközönséget takar. Itt igen is vannak Intel és AMD fanboyok és első sorban az AMD-nek nem az Intel hívőinek megszerzése a dolga - hiszen ez borzasztóan sok és felesleges pénzkidobás egy olyan vásárlói kör megszerzése érdekében, amitől a hasonló költségeket igénylő professzionális piacon többszörös hasznot lehet bezsebelni -, hanem az Ő pártjukon állók felbuzdítása a vásárlásra. Ez nem sikerült a FX-9000 procikkal, teljesen érthető módon. Közel azonos teljesítményszint esetén ez egészen másképp is alakulhatna.

    Mindenesetre úgy látom egészen másképp látjuk a dolgokat, de ez nem az első eset. :DDD Első sorban a Zen-nek a 2016-os útitervet kell teljesítenie, hogy a Broadwell-E procik pályafutásával egy időbe essen az övé.

  • erer1000

    őstag

    válasz #32839680 #279 üzenetére

    Autocad-be még azt se oldották meg hogy több magot használjon :'D

    hiába van 4-6-8magos proci, max 1et eszik :C

    Kevesebb hangulatjel is elég lesz.

    [ Módosította: Oliverda ]

  • #85552128

    törölt tag

    válasz #32839680 #275 üzenetére

    "Valamiért az AMD elképzelései a GPGPU terén, nem ért össze a marketinggel, mert ott meg játékteljesítményt demóztak az IGP-k erejével, holott arra nem elég, és sosem lesz elég."

    Nem fullon 4xMSAA-val/60 FPS-sel, de elég. Leginkább játékfüggő, régebbi és most is népszerűbb címekhez akár az 1080p@30+FPS medium beállítás sem kizárt (ugye nem is olyan régen még ez is elképzelhetetlennek tűnt...) És ugye a DDR3 jelenleg a legnagyobb limitáló tényező nem maga az iGPU. Jobb memóriával a 20-30k-s VGA piac már most kiváltható lenne IGP-kel. Jobb gyártástechnológiával és mondjuk HBM-mel pár év múlva meg akár az is elképzelhető, hogy csak a csúcskategória maradna...

  • Fiery

    veterán

    válasz #32839680 #275 üzenetére

    Nehez tarsprocesszorkent tekinteni az IGP-re, amikor nem hogy szoftverek, de me'g benchmarkok sincsenek ra. Pl. --> AMD Kaveri APU: hozott is, meg nem is

    Idezet a cikkbol:

    "Továbbra sem túl rózsás a helyzet jól használható, valamint mérhető OpenCL alkalmazások terén, így ezen képesség vizsgálatához továbbra is a LuxMarkot használjuk, illetve új tagként debütál az AES EncryptDecrypt nevű kis program."

    A vicc az, hogy az AESEncryptDecrypt pedig nem mas, mint egy AMD APP SDK sample program: "Copyright ©2012 Advanced Micro Devices, Inc. All rights reserved." :) Sz'al azt akár ki is huzhatjuk a kinalatbol, plane mivel le sem fut(ott) Intel iGPU-n, meg ugy altalaban fura otlet egy AMD altal fejlesztett "benchmark" progit hasznalni mas hardveren. Meg mellesleg x86 CPU-kon a hardveresen gyorsitott AES amugy is gyorsabb, mint GPU-kon, sz'al tobb szempontbol is ertelmetlen az AES-t belerangatni egy GPGPU temaba.

    Persze ez egy cca. 14 honapos cikk, de sajnos a helyzet azota sem sokat javult, azota se gazolunk terdig a GPGPU szoftverekben vagy epp benchmarkokban.

    "Valamiért az AMD elképzelései a GPGPU terén, nem ért össze a marketinggel"

    Az AMD marketingjevel nem volt gond, marmint nyomattak a GPGPU-s temat a szoftver fejlesztoknel is, csak azok nem nagyon akartak/akarnak megmozdulni. Az AMD tenyleg megprobalta, de nem sikerult -- egyelore.

  • Dr. Akula

    félisten

    "a vállalat bizonyos mértékben ki szeretné vonni magát a belépőszintű PC-k piacáról, ugyanis ez a szegmens meglehetősen volatilis, helyette pedig inkább a kiszámíthatóbb közép és csúcskategóriára helyeznék a hangsúlyt"
    Ezt így ilyen i3 szintű procikínálattal nehéz lesz, a marketingadatokat legalább maradéktalanul hoznia kell a Zennek hogy ebből valóság legyen.

    "az AMD beszélt 2016-ról is, amikor egy újabb GCN architektúra érkezik, aminek kódneve egyelőre ismeretlen. Ez a fejlesztés elsődlegesen a teljesítmény/fogyasztás mutató megkétszerezésére fókuszál"
    Magyarul: a 380-as Radeon még mindig radiátor lesz elsősorban? Mondjuk ha már választani kell teljesítmény és fogysztás közt, inkább az előbbire szavazok (legalábbis asztali gépben, mobilban nem), ilyen szempontból jól lépett az AMD.

    A VR szemcsik sztem ugyanolyan buzzword lesz mint a 3D, elején jópofa, utána leszoknak róla az emberek. Ma már az se hoz senkit lázba, ha az orra alá finganak 4D-ben.

    Az alacsonyszintű API-któl kicsit félek, de félhetnének a gyártók is, az mondjuk nem nagyon segíti elő az eladási mutatókat ha egy GTA szintű játék majd rosszabbul fog futni az új kártyán mint az előzőn. Kicsit más, de ugyanígy nem rohant senki a boltba PS4/X1-ért amikor először csak prevgenre jött a GTA5. 1 évig feleslegesen rakták ki a polcra.

  • Fiery

    veterán

    válasz dezz #272 üzenetére

    Nincsenek blogger ambicioim, de annak orulok, ha hasznosnak talalja valaki a postjaimat.

    "A Bulldozer vonalra tekintesz úgy, mint az inkompetens vezetőség hibájára? Felsővezetői döntés lehetett, hogy pont erre mentek el akkor?"

    Barmelyik cegrol is legyen szo, mindig a vezetoseg hibaja, ha felrecsuszik valami. Nekik kellett donteniuk arrol, hogy a klasszikus dizajn helyett egy ilyen erdekes megoldast (CMT) reszesitsenek elonyben, es hogy extrem magas orajeleket celozzanak be -- a NetBurst latvanyos bukasa utan par evvel, ugyebar. De nem csak az volt a hiba, hanem az is, hogy a Fusion projektnek egyaltalan nekikezdtek az ATI felvasarlasaval. Erre persze lehetne azt mondani, hogy anelkul most nem lenne APU meg nem lenne konzol biznisz -- de en meg erre azt mondom, hogy akkor siman lehet, hogy helyette lenne egy eros x86 architekturajuk, amivel me'g meglenne az a piaci reszesedesuk es stabil helyzetuk a szerver piacon, ami az Athlon 64 / Opteron idokben volt anno. Es jol latszik az Intel penzugyi jelentesein, hogy manapsag az x86/PC piacon a szerverekbol lehet penzt csinalni, a tobbi maximum a vegetalasra eleg. (A konzolokbol meg nagyjabol ehenhalni lehet, ha az AMD egykori meretet nezzuk. Mostansag lehet hogy jol jon nekik az a penz, de aranyaiban eleg keves az, hosszutavon, a kezdeti boom utan)

    "Értem, amit írsz, de a GPGPU koncepció nem az AMD szüleménye."

    Nem mondtam, hogy az AMD talalta ki/fel a GPGPU-t. De az AMD epitette a teljes piaci strategiajat a GPGPU-ra, mig masok legfeljebb reszben. Az AMD-nel mar hosszu evek ota minden a GPGPU-rol (Fusion, APU, Stream majd OpenCL, HSA, stb) szol, mindennek az a magyarazata, mindenre az a mentseg, mindenre az a reakcio. Egyedul a topikhoz kapcsolodo hirben taglalt befektetoi eloadas szolt arrol, hogy megis az x86 a lenyeg, es megsem minden a GPGPU-rol szol. Breath of fresh air -- ahogy az angol mondja.

    "Akkor persze ez még nagyon nehézkes és korlátozott volt, de mozgatta a programozók fantáziáját."

    A fantaziaval azota sincs gond. Csak ez kicsit olyan tema, mint a megujulo energia: rengeteg (fel)megoldas letezik mar most is, de hosszu evek utan sincs egyelore igazan tuti megoldas (Kerek mindenkit, hogy ebbe most ne kosson bele, ne menjunk el egy eco vita iranyba, csak mint peldat hoztam fel egy hasonloan nehezen megfoghato, hasonloan nehezen megoldhato problemara)

    "Én mindenesetre nem úgy látom, hogy egy elvetélt dolgot próbálnak élesztgetni, hanem olyasmiről van szó, ami lassan érik be, de addig is nevelgetni kell."

    Nezopont kerdese. Ha egy ilyen nevelgetesi proceduraba belerokkan kozben egy ceg, ha (lassan) a csod szelere kerul, az nem jo dolog :( Annyit nem er az egesz, akarmilyen igeretes technologiarol legyen is szo.

    "Adott esetben a dGPU-s GPGPU is hasznos tud lenni, de sokszor szükség lenne egy helyi CPU-ra, mert vannak feladatrészek, amik annak fekszenek igazán."

    Ezt senki sem vitatja. Csak epp egy dGPU-val me'g nehezebb bánni, es igy me'g kevesbe van esely arra, hogy mainstream feladatokra is be lehessen fogni a dGPU-kban rejlo teljesitmenyt. Az idealis megoldas egy SVM-es eros CPU + eros iGPU paros lenne, amivel egyszerre lehetne kivaltani a videokartyakat es a mostani nem tul eros GPU-val szerelt APU-kat is. Csak persze ott meg a TDP a problema, a memoria alrendszer, az alaplapok bonyolultsaga, stb. stb.

    "Ezt nem igazán tudom értelmezni, hogy a Kaveri óta nem sok minden változott, hiszen az az AMD legutóbbi, már piacon lévő APU-ja."

    Arra probaltam celozni, hogy azota valahogy nincs szo arrol, hogy majd milyen oriasi valtozasok jonnek az iGPU-khoz. Igen, a Llano --> Trinity --> Kaveri vonalon boven volt valtozas, minden lepcsonel radikalisat huzott az AMD, most viszont szo nincs ilyesmirol sem a Carrizonal, sem a Carrizo utoda kapcsan. GCN egyszer, GCN ketszer, GCN sokadszorra is. Amivel a Maxwell megjeleneseig nem is volt baj, de most mar ideje lenne megint lepni egy nagyot elore az AMD-nek, iGPU-ban is. Fokent, mert az Intel iGPU-k jonnek fel, mint a talajviz. Hogy mivel lehet az AMD-nek villantani iGPU-ban? Pl. eDRAM, HBM, stacked memory, uj architektura, stb.

    "Van valami gond a GCN-nel, hogy mindenképpen le kellene cserélni"

    A Maxwell ota van. Azota jol latszik, hogy a GCN mar nem csucstechnologia. Amivel nincs is baj, vegul is mar 4 eve nyomja az AMD, de pont ezert is kellene mar hozzanyulni az orajel reszelgetesen es az aprobb tweakeleseken tul is.

    "A Renderscript is a GPGPU-ra épít, itt tehát csak az API-k harcáról van szó... Nem a GPGPU hasznossága kérdőjeleződik meg."

    Szerintem felreerted azt, amit mondani akarok :) Nem azt mondom, hogy a GPGPU mint koncepcio rossz vagy haszontalan vagy ertelmetlen. Dehogyis. Azt mondom, hogy a szethuzas, fragmentacio, egymasra kopkodes, toketlenkedes es me'g ki tudja mi miatt az utobbi 10 evben sem sikerult senkinek letennie az asztalra egy olyan koherens megoldast, amivel konnyen kiaknazhatova valna a GPU-k ereje altalanos celokra is. Ezt igeri a HSA, csak ugye az API-k harca miatt megint nem fognak a fejlesztok egy koherens, egyseges, minden (vagy legalabbis a legtobb) platformon hasznalhato megoldast kapni. Es ha a fejlesztok nem kapjak meg azt, amivel a legtobb hardvert egyszeruen meg tudjak celozni, akkor nem is fogjak megmozditani a hatsojukat.

    "Na hát azért kellett ahhoz a CPU oldal meglehetős gyengélkedése is."

    Az x86 CPU-oldalt is bealdoztak a GPGPU eroltetese miatt. Azt hittek, majd az OpenCL meg a HSA megoldja a gyenge CPU problemajat, es igy nem kellett nekik idoben osszekapni magukat az x86 fejlesztesben. Ha nem a GPGPU buvkoreben elt volna az AMD, akkor a Zambezi tervezese kozben mar azonnal nekiallnak a Zenen dolgozni, es akkor mar reg piacon lehetne a Zen, es ujra versenykepesek lehetnenek az x86-piacon. Nem baj, ha valaki hibazik, csak idoben fel kell ismerni, es ki kell javitani. A Zambezirol mar a szimulatorban lehetett latni, hogy nem fog mukodni, azaz hogy nem lesz eleg eros az aktualis konkurenciahoz kepest. Vagy piacra sem kellett volna dobni, vagy ha mar megis piacra dobtak, akkor azonnal le kellett volna allni arrol a vonalrol. Maximum me'g a Trinity belefert volna, de aztan annyi, dobni kellett volna az egesz Earthmoving core vonalat. A Cats (Jaguar/Puma) vonalon tisztan latszik, hogy a mernoki tehetseg abszolut megvan (vagy megvolt, anno) az AMD-nel: tudnak ok rohadt jo x86 CPU magokat tervezni, ha az van fokuszban. Ezert is lehet remenykedni a Zenben, ezert is varhato, hogy ha gyartassal es az ido tenyezovel nem lesz gond, akkor eljohet ujra az "Athlon 64 korszak". Csak epp a Zent meg lehetett volna csinalni 3-4 eve is mar, ha nem a GPGPU-ra tett volna fel mindent az AMD...

    "Egyszerűen azt diktálja az energiahatékonyság történye (amit Abu szintén szokott emlegetni), hogy amit sokkal hatékonyabban tud ellátni a GPU, még a grafikán kívül, azt rá kell bízni."

    Igen, ez az elmelet. De elmeletben az IA-64 is jo volt, a Transmeta is jo volt, stb. stb. Vannak olyan problemak, amik a gyakorlatban nem megvalosithatoak oly modon, hogy az a tomegeket tudja celozni. A GPGPU egyelore ebben a fazisban van, aztan majd meglatjuk, ki tud-e torni ebbol.

    "Talán nem akarják készakarva helyzetbe hozni az AMD-t"

    Akkor megiscsak HSA = AMD? :D Ezt mondom mar egy ideje ;) Vagy ha nem igy van, akkor ha a HSA-t helyzetbe hozod, azzal miert hoznad pont az AMD-t helyzetbe? ;) Viccelek, nehogy komolyan vedd :DD

    "Ez igaz, de az OpenCL-t már ismerik páran, ezért először nyilván ezzel próbálkoznak (vagy próbálkoztak). Lehet, hogy később áttérnek a Renderscriptre, már ha kimondottan Andoidra akarnak fejleszteni."

    Ha kifejezetten Androidra fejlesztesz, es nagyon erdekel a GPGPU, akkor miert varnal a javas HSA-ra, ha egyszer ugyanazt (khm, najo, tudom, hogy nem ugyanaz, de fogjuk ra) megkapod mar most, egyenesen a Google-tol? (Renderscript) Ehhez kepest, nem latok tul sok renderscriptes appot sem.

    "Amúgy mi teszi lehetővé ezt a 100-200 MHz-es bumbot? Tekintve, hogy a gyártást már külső cég végzi. Az utóbbi érdeme?"

    A Godavari tulajdonkeppen egy uj Kaveri stepping, amiben aprobb modositasok, gyartastechnologiai optimalizalasok is vannak. Cca. 1-1,5 evvel a tomeggyartas elkezdese utan abszolut normalis (mas CPU gyartoknal is), hogy annyit tudnak faragni az eredeti die-on, hogy belefer a TDP-be 1-200 MHz clock bump. Ez teszi lehetove pl. az i7-3960X utan az i7-3970X piacra dobasat, a Haswell Refresh-nel is a hasonlo merteku clock bump-ot, stb. A Godavarinal inkabb az a kerdes, hogyan sikerul +10% orajelet kihozni az iGPU-bol, de velhetoen ez is a die optimalizalasanak es a gyartastechnologia melyebb ismeretenek koszonheto.

  • dezz

    nagyúr

    válasz Fiery #269 üzenetére

    Ez apróbb módosításokkal mehetne is egy Logout bejegyzésbe. :)

    A Bulldozer vonalra tekintesz úgy, mint az inkompetens vezetőség hibájára? Felsővezetői döntés lehetett, hogy pont erre mentek el akkor?

    Akkoriban sokan szídták a moduláris fejlesztési koncepciót is, mostanra már talán látszik, hogy nem volt értelmetlen a dolog, hiszen lehetővé teszi az aktuális céloknak vagy elvárásoknak meg megfelelő könnyebb építkezést a meglévő elemekből. (A mostani prezentációban is hangsúlyt kapott, puzzle-lel jelképezve.)

    Értem, amit írsz, de a GPGPU koncepció nem az AMD szüleménye. Már az első programozható shaderes GPU-knál elindultak ilyen próbálkozások. (Most néztem meg, pl. a "QJuliaPS2_0.exe" 2005-ös, de voltak korábbiak is.) Akkor persze ez még nagyon nehézkes és korlátozott volt, de mozgatta a programozók fantáziáját. Valószínűleg senki sem gondolta volna, hogy így 10 évvel később még mindig csak az első nagyobb lépéseknél fogunk tartani. Mindenesetre, az AMD ezt akarta "meglovagolni" és egyben egy új szintre emelni. Nagy kár, hogy közben a CPU oldalt egy kicsit elbaszarintották.

    Valóban lassúcskának tűnik a HW alapok fejlesztése, valószínűleg túl kockázatosnak ítélték meg, ha nem csak kisebb lépésekben haladtak, így egyszerre mindig csak egy főbb új komponest vittek be a rendszerbe.

    Én mindenesetre nem úgy látom, hogy egy elvetélt dolgot próbálnak élesztgetni, hanem olyasmiről van szó, ami lassan érik be, de addig is nevelgetni kell.

    Adott esetben a dGPU-s GPGPU is hasznos tud lenni, de sokszor szükség lenne egy helyi CPU-ra, mert vannak feladatrészek, amik annak fekszenek igazán. (Úgy tudom, az Nvidia is elindult ilyen irányban, csak ugye x86 licent hiányában ARM alapon, nem tudom, hol tart most ez a dolog.) Meg hát ugye dGPU-n sem mentesül jelenleg a programozó minden nehézségtől.

    Ezt nem igazán tudom értelmezni, hogy a Kaveri óta nem sok minden változott, hiszen az az AMD legutóbbi, már piacon lévő APU-ja. :) Én a Llano->Trinity->Kaveri sorozatra gondoltam, ahol nem kis változások voltak IGP oldalról (is). Azt nem mondanám, hogy eközben Intelnél semmi sem történt a CPU oldalon, de azért túl forradalmiak sem voltak a változások. Lényegében kb. mint AMD-nél a Bulldozer vonalon. A Carrizo IGP-je minden bizonnyal szintén GCN alapú, kisebb-nagyobb csiszolásokkal. Van valami gond a GCN-nel, hogy mindenképpen le kellene cserélni?

    (Nem tudom, mikor írta azt Abu, a DX8-9-10-11 korában még érvényes volt, a Mantle mellett már talán kevésbé áll. De hát a fő kérdés, hogy érdemes-e lecserélni vagy sem.)

    A Renderscript is a GPGPU-ra épít, itt tehát csak az API-k harcáról van szó... Nem a GPGPU hasznossága kérdőjeleződik meg.

    "Az AMD viszont az utobbi 10 évét feltette a GPGPU-ra, es mivel a GPGPU sehova nem jutott, az rantotta magaval az AMD-t is."

    Na hát azért kellett ahhoz a CPU oldal meglehetős gyengélkedése is. Sőt, inkább úgy mondanám, hogy a CPU oldal gyengélkedése lassította be a GPGPU és a GPU-GPU kooperáció előretörését, ami az AMD fejlődéshez való hozzájárulását illeti. (Intel oldalról pedig az, hogy egyrészt nekik az IGP-n kellett és még kell jócskán fejleszteni, másrészt nagyobb érdekeltségük van a CPU-ban.) De ezek szerintem mind csak halogatni tudták és tudják egy újabb korszak eljövetelét, meggátolni nem. Egyszerűen azt diktálja az energiahatékonyság történye (amit Abu szintén szokott emlegetni), hogy amit sokkal hatékonyabban tud ellátni a GPU, még a grafikán kívül, azt rá kell bízni.

    Na az nem kis kockulás lenne. :D

    "HSA-ra epul, csak epp jol titkoljak"

    Látod!? :) De hogy ez miért van, azt ne tőlem kérdezd... Talán nem akarják készakarva helyzetbe hozni az AMD-t, vagy hogy túlzottan nyeregben érezze magát, vagy ilyesmi. (Végső soron alapvetően konkurencia.)

    1) Ja, én is nagyon várom, mikor épül be végre a natív és kényelmesebb GPGPU-támogatás a Javába, mindenestre előbb-utóbb megtörténik. (Tudom, ilyenre nehéz építeni, de legalább tudjuk, hogy lesz ilyen.)

    Az okostelefonok és tabletek robbanásszerű elterjedésével igencsak meghatározóvá vált a Java is. Ha megjelenik valamilyen javás program, amit sokan használnak, az portolásra kerül más platformra is. De olyan alkalmazások is lehetnek, amik kimondottan okostelefonokhoz vagy tabletekhez "illenek".

    2) Én is csak 1.2-vel találkoztam. Kísérletezgetésre ez is jó lehet.

    3) Ez igaz, de az OpenCL-t már ismerik páran, ezért először nyilván ezzel próbálkoznak (vagy próbálkoztak). Lehet, hogy később áttérnek a Renderscriptre, már ha kimondottan Andoidra akarnak fejleszteni. Vélhetően egyelőre kivárnak és addig is kísérletezgetnek.

    (#271): Amúgy mi teszi lehetővé ezt a 100-200 MHz-es bumbot? Tekintve, hogy a gyártást már külső cég végzi. Az utóbbi érdeme?

  • Fiery

    veterán

    válasz dezz #268 üzenetére

    Az mindenkepp jo dolog, ha a Seattle egy kiforrott termekkent kerul piacra. Az viszont nagyon rossz, hogy 1 ev kesessel, es hogy a K12-t is arrebb tolta 1 evvel. Vagy azt a Zen tolta arrebb? :) A fene se tudja, de mindenesetre az is kesobb jon.

    A Godavarinal pedig nem a steppinget meg reviziot meg egyebeket kell nezegetni. Godavari = Kaveri + cca. 100-200 MHz x86 clock bump + cca. 10% iGPU clock bump. Ennyi. Jobb lett volna Kaveri Refresh-nek hivni, az egy oszintebb kodnev lett volna, de vegul is mindegy, hiszen a szakmai kozosseg a bemutatonal ugyis pontosan latni fogja, hogy mekkora fejlesztesrol is van szo valojaban. Kicsit jobban eladhato termek lenne, ha legalabb -- a Haswell Refresh platformhoz hasonloan -- uj chipsetekkel es uj alaplapokkal egyutt erkezne a frissites, de en nem tudok rola, hogy "A98X" vagy hasonlo chipset keszulne a Godavarihoz. Ha pedig nincs uj chipset, akkor velhetoen az uj alaplapok is maximum annyit tudnak majd villantani, hogy lesz rajtuk USB 3.1 -- viszont tovabbra sem lesz M.2 slot :(

  • Fiery

    veterán

    válasz leviske #263 üzenetére

    dGPU: Arra gondolok, hogy az nVIDIA 3x tobb dGPU-t ad el, mint az AMD. Ez nem kicsit megborult piac lett. Teny, hogy barmikor megfordithato, ha az AMD eloall valami utos ujgeneracios kartya csaladdal, csak epp jelen allas szerint rovidtavon csupan a felsohaz kap frissitest (Fiji), az igazan mainstream vonal pedig nem. Ahhoz, hogy legalabb a kiegyensulyozott 50-50% allapot bealljon, a Fijinel joval tobbre lesz szukseg. De egyelore nem latszik a horizonton pl. a GTX960 uj ellenfele, az Rx 300-as szeria inkabb atcimkezes lesz, mintsem valodi uj generacio...

    "A 800-1000 dolláros kategória megcélozásához szerintem bőven elég, ha elérik, hogy ne legyen ennyire egyértelmű, hogy melyik cég termékei képezik a csúcsot. Ehhez nem kell nyers erőben erősebb processzort összerakni a konkurenciánál, csak egy okosabb és sok területen ügyes terméket, ami közel egál helyzetből tud indulni és egyes fontosabb területeken első helyre ugrani."

    Te teljesen hulyenek nezed azokat az embereket, akik kepesek 800-1000 dollart kolteni egy CPU-ra? De most komolyan :) Akinek van ennyi penze, es me'g hajlando is ennyi penzert CPU-t venni, az nem a masodik legjobbat akarja, hanem az egyertelmuen legjobbat. 1000 dollarnal dragabb desktop CPU nincs (a Xeonokat ne szamitsuk desktop procinak, az ws es szerver proci), ergo ha valaki 1000 dollart ad egy prociert, az a legdragabb procit veszi, ami desktop PC-be illesztheto. Ha a legdragabbat veszed, a legjobbat, leggyorsabbat akarod kapni, es nem egy okos meg ugyes termeket.

    Ha pedig a Zen alapu HEDT proci azonos aron kb. azonos teljesitmenyt fog biztositani, mint az Intel HEDT megoldasai, az egy erdekes szituacio lenne, de akkor sem hiszem, hogy az emberek az AMD fele huznanak. Akkor ugyanis me'g mindig ott lesznek a brandhez kapcsolodo stigmak, pl. hogy az AMD az utobbi idoben nem a teljesitmenyrol volt hires, ez pedig az emberek agyaba ivodott. Plusz, az Intel HEDT platformja igen jol marketingelheto a 4 csatornas DDR4-gyel, ami ellen nem lesz utokartyaja az AMD-nek. Me'g akkor is, ha nem jelent semmilyen valodi elonyt, akkor is a több = jobb keplet alapjan az Intel HEDT platformja fog nyerni. Ergo abszolut letszukseglet lesz, hogy a Zen HEDT CPU teljesitmenyben is egyertelmuen le tudja gyozni a Broadwell-E-t.

  • Fiery

    veterán

    válasz dezz #262 üzenetére

    "A MS, az Apple és sok másik is kicsiként kezdte és aztán elég gyorsan meghatározóvá váltak."

    Igen, de ez a fajta siker inkabb az ujonnan indulo cegekre jellemzo, nem az olyan regi motorosokra, mint az AMD. Az AMD kicsikent kezdte, szepen novekedtek, jol lovagoltak meg az x86 hullamokat egy darabig, aztan jott az inkompetens vezetoseg es lenullazta az elozo 20 ev erofesziteseit. Mindig nehezebb egy regi, becsontosodott ceget megujitani es ujra energiaval megtolteni, mint egy zsir uj ceget -- ami mondjuk 1-2 jo otletre epit -- felfuttatni. Nem veletlen, hogy sokszor nagy, regi cegekbol kivalt kisebb csapatok startupokat inditva jutnak el a vilaghirnevig, es utana egy masik nagy mamut adott esetben par milliard dollarert megszerzi a kis ceget a remek otlete miatt.

    "Az AMD is kiveheti ebből a részét a HSA-val és az egész CPU-GPU házasítás úttörőjeként (talán a K12-vel is)."

    Az igazan jo otletek nem 10 evig szoktak huzodni, mire attorest ernek el veluk. Nem mondom, hogy ez esetben nem lehet maskepp, csak hogy nem tipikus, hogy eddig **szkolodik egy ceg egy koncepcioval, es a vegen megis sikerre tudja vinni. Az Intel is szenvedett sokaig az Itaniummal, es nem is lett sikeres. Az IT berkeiben altalaban egy jo otlet nagyon hamar felfut, aztan X ideig tarol. Nem tipikus az, hogy csomo idot kell varni egy jo otlet materializalodasara.

    "Leszűkítve az x86-ra, sokkal jobban is elsülhetett volna a Fusion téma, jobban előtérbe helyezve a GPGPU-t és a CPU-GPU kooperációt, ha az AMD eddigi APU-i nem lettek volna félkarú óriások. Nem értesz ezzel egyet?"

    Fene tudja. Szerintem hasonloan jart volna abban az esetben a Fusion tema, mint ahogy az AVX-AVX2. Azaz, anelkul is remek teljesitmenyt jut a proci, a szoftverek es jatekok 99%-ahoz teljesen jo, a maradek 1% hasznositja a plusz feature-t. De mondjuk ez most is igy van a GPGPU piacon, van azert a szoftverek 1%-a (kb), ami valamilyen formaban a GPU-t is megdolgoztatja.

    Egyebkent ami szerintem igazan segithette volna a GPGPU koncepcio terjedeset, ha sokkal korabban behozzak az SVM-et, ha sokkal korabban behozzak a HSA-t, es ha tenyleg egyszeruen, compiler fejfajasok nelkul lehetne programozni az APU-kat. Ja, es az is sokat segitett volna, ha nincsenek dGPU-k :) Akkor ugyanis a gyartok (AMD + Intel) me'g inkabb ra lettek volna kenyszeritve arra, hogy igazan utos iGPU-t szereljenek a CPU-tokba, es akkor me'g nagyobb lenne a "kisertes" a szoftver fejlesztoknel, hogy kiaknazzak az APU-kban rejlo nagy teljesitmenyt. Mert a jelenlegi helyzet az, hogy vagy szivatod magad a memoria masolassal es a CUDA/OpenCL nyavalyaival, es ha megfelelo kodot tudsz csinalni, akkor egy dGPU-n brutalis gyorsulast erhetsz el; vagy SVM-es APU-ra fejlesztesz mondjuk OpenCL 2.0-ban, de akkor joval kisebb teljesitmenyt kapsz (mint egy kepzeletbeli SVM-es, eros dGPU-nal kapnal), es raadasul a piac sokkal kisebb szeletet tudod megcelozni (a Kaveri + Broadwell egyutt nehany %-a csupan a PC-piacnak). Tehat szerintem a kulonbozo problemak -- az SVM-es APU-k kesoi bemutatkozasa, a HSA lassu elkeszulese, az APU-k relative alacsony teljesitmenye, a programozasi nehezsegek, a dGPU-k meglete, az API-k gancsolasa (Google, Apple, Microsoft, nVIDIA, AMD mind-mind mas API-t szeretne) -- egyuttesen, egymasra raerositve okozzak azt, hogy a GPGPU, dacara minden fejlesztesnek es erofeszitesnek, nem tud kitorni a retegtermek csapdajabol.

    "Miért, talán nem került egyre fejlettebb és nagyobb teljesítményű IGP az AMD APU-iba? (Dehogynem.)"

    Arra gondolok, hogy most az a kozvelekedes -- nem alap nelkul --, hogy az Intel csak marginalisan fejleszti az x86 CPU reszt, es erosen fejleszti az iGPU reszt; mig az AMD most az x86 CPU reszre van rafekudve (Zen), es az iGPU reszt -- latszolag, erzesre -- kicsit hanyagolja, hiszen ott a Kaveri ota nem tortent semmi, es iden es jovore sem ugy nez ki, hogy inkrementalis fejlesztesnel tobbre futna. Abu mar szamtalanszor leirta, hogy a GPU-kban az a remek dolog (vs. x86 SIMD vagy MIC), hogy 4-5 evente le lehet cserelni az architekturat egy zsir ujra, hogy a bottleneckektol meg lehessen szabadulni, es jelentosen lehessen novelni a teljesitmeny/fogyasztas mutatot. Nos, az AMD reszerol a GCN 2011-ben mutatkozott be, tehat iden vagy jovore -- ha Abunak hiszunk -- idoszeru lenne a csereje. Errol megsincs egyetlen szo sem, egyedul inkrementalis GCN fejlesztesrol beszel az AMD. Oke, hogy (latszolag vagy epp technikai szemszogbol nezve) me'g mindig jol mukodik a GCN, de a Maxwell peldajan latszik, hogy sokszor mas tenyezok dontenek a piaci sikerrol.

    Sz'al fentebb csak arra akartam utalni, hogy ez a velekedes nem biztos, hogy megallja a helyet. Nem gondolnam ugyanis, hogy az x86 reszt az Intel akarmeddig inkrementalis fejlesztesekkel akarna tovabbvinni: itt az ideje (Skylake), hogy valami radikalis fejlesztes keruljon a prociba. Ha pedig most megsem kerul be, akkor a 10 nanos shrinknel (Cannonlake) be fog kerulni.

    "Oké, tehát az Apple nem támogatja az OpenCL-t iOS-en. Van helyette Metal. Más szóval, magát a GPGPU-t ők is fontosnak tartják..."

    En is azt irtam, hogy sajat elkepzelesuk van a problema megoldasara. A problema csupan az, hogy mar hazon belul is eros a fragmentacio, hiszen az x86 alapu rendszereknel OpenCL van, az osszes tobbinel meg nem. nVIDIA-nal ott a CUDA, a Google a Renderscriptet tolja es kopkod az OpenCL-re, a Microsoft pedig a D3DCS-t szeretne inkabb tolni a mobil eszkozokon. Igy fejlesztoi szemszogbol nem egyszeru az elet :) Ilyen helyzetben me'g ha meg is lenne a fejlesztoben a szandek, hogy szivassa magat a GPGPU temaval, vajon mire es hogyan kezdjen el fejleszteni?

    "Miért is ne lehetne értelmes alkalmazási területet találni neki?"

    Nem azt mondtam, hogy nincs ilyen terulet, hanem hogy nincs szoftver. Igeny lenne ra, lehetoseg is lenne ra, megsem mukodik a GPGPU a szeles tomegek szamara. Fentebb irtam a problemakat, amik ide vezetnek. Ezzel persze nincs baj, ha egy hardver gyarto nem a GPGPU-ra epiti szinte a teljes termek strategiajat... Az Intel pl. csak ugy mellekesen foglalkozik ezzel, az nVIDIA pedig csak reszben epit a GPGPU-ra, fokent olyan teruleteken, ahol nem problema a specializaltsag, ahol nem mainstream a felhasznalas eleve (Tesla/HPC). Az AMD viszont az utobbi 10 évét feltette a GPGPU-ra, es mivel a GPGPU sehova nem jutott, az rantotta magaval az AMD-t is.

    "Fontos tények leszögezése, amik neked sem újdonságok, mitől kioktatás?"

    A stilus szurta a szememet. De valoszinuleg eloben maskepp hangzott volna, ezert is lenne jobb ezekrol pizza mellett ertekezni, ugy szerintem sokkal inkabb elo tudna mindkettonk adni a mondandojat ;)

    "De, az van, meg pár felületes infó, de ha a részletekre vagy kíváncsi, hamar falakba ütközöl. Jó esetben NDA alatt adnak ki infókat, vagy még úgy sem. Ezt neked kellene a legjobban tudnod"

    Miert pont a HSA tamogatast hallgatnák el ezek a cegek? A feluletes roadmapeken is az ilyen alap dolgok fel szoktak lenni tuntetve.

    "Akkor ez mi a fene?"

    Ha nem tevedek, nem a HSA 1.0 rajtjara keszult el, nem HSA 1.0-ra epul, es nem mellesleg, nem latom a HSA emliteset sem. HSA-ra epul, csak epp jol titkoljak :) ( me'g Abu sem emliti a hirben, hogy ez HSA-re epul, az pedig mar nem semmi :)) ) Ezt hivjak a HSA Foundation szembekopesenek...

    "Kész, hasznos program talán még nincs, de rákeresve az "OpenCL Android"-ra számos ilyen irányú fejlesztésről szóló oldal és topik jön elő, azaz előbb-utóbb jönnek ilyen programok."

    Egyedul a kesztermek szamit, tervekkel tele van a padlas. Nezd meg, hany tervezett processzora volt az AMD-nek, es vegul evente hany tervet tettek fel a polcra. Egy szoftver cegnel ez plane igy van, ha nem jutnak elorebb egy projekttel, mert az alapok rosszak, akkor torlik es foglalkoznak valami massal.

    "Az lenne a furcsa, ha nem jönnének"

    Az lesz a furcsa, ha jonnek ;)

    Az androidos OpenCL implementacio pedig egeszen addig tunik frankonak, amig az ember el nem kezd behatobban foglalkozni vele. 3 alapveto problema van vele:

    1) Az Android SDK-nak meg ugy altalaban az Androidnak nem resze az OpenCL, tehat minden gyarto olyan implementaciot rak a keszulekre, amilyet akar. Lehet jo, lehet nagyon rossz minosegu is a stack. Javabol nem tudod meghajtani az OpenCL-t, hanem nativ kodot kell hozza fejlesztened. Az Android app fejlesztes egyik legvonzobb tulajdonsaga a Javaban valo kodolas: rettento egyszeruen meg lehet oldani bonyolult problemakat is, nem kell csomo hulyeseggel foglalkozni, es nagyon gyorsan lehet egy appot elkesziteni. Amikor mar nativ kodhoz kell nyulni, onnantol szivas az egesz, es a fejleszto ott talalja magat, hogy a jol megszokott meleg pocsolyabol ujra vissza kell ugrania a 3 meter mely hidegvizes medencebe. Ha Javarol probalsz ujra nativ kodolassal szorakozni, plane hozza me'g az OpenCL kernelt is meg kell csinalnod, az baromira elveszi az ember kedvet az egesztol. Az egesznek, mindenestul Javaban kellene mukodnie, ezt igeri a HSA, elvileg ez meg lesz valamikor oldva. Kerdes, hogy mikor? Iden? Jovore? Es mar megint ott tartunk, megint ugyanaz a problema van: a jovo igerete a GPGPU, nem a jelen technologiaja. Plusz, ha meg is csinaljak a javas HSA implementaciot, azzal me'g mindig csupan a Javaban keszitett szoftverekhez lesz jo az egesz, es az osszes tobbi platformra ez sem lesz megoldas.

    2) Ha nem tevedek, egyetlen androidos OpenCL implementacio sem OpenCL 2.x, azaz egyik sem tamogat SVM-et. Java kod, keverve nativ koddal, plusz OpenCL kernel kodolas, plusz memoria masolgatas, plusz nativ kod <-> Java kod interop, plusz a debuggolas nehezsege ---> a jo franc se akarja sz**atni magat ezzel.

    3) Az a teny, hogy a Google a Renderscriptet tolja, es hogy az OpenCL csupan megturt statuszt kapott az Android okosziszteman belul, nagyon nem abba az iranyba tereli a fejlesztoket, hogy pont az OpenCL-lel kezdjenek foglalkozni. Kapasbol a Renderscript sokkal egyszerubb, az az Android rendszer resze, lehet Javaban kodolni, nem kell hozza nativ kod, stb. Ha pedig a Google akarja, barmikor kiranthatja a szonyeget az OpenCL alol, valamilyen mondvacsinalt indokkal. A "Don't be evil" mar egy ideje lejart lemez, sajnos. A Nexus 4-rol is milyen ugyesen letakaritotta a Google az OpenCL implementaciot, ha esetleg valaki emlekszik me'g arra a fiaskora. Persze abbol azert nem lett nagy botrany, mert ugysem hasznalta semmilyen szoftver az OpenCL-t...

  • dezz

    nagyúr

    válasz Fiery #20 üzenetére

    Gondolom így, hogy a 20nm ugrott és vele együtt a SkyBridge, van lehetősége a mérnököknek "matatni" még egy kicsit a Seattle-lel is. :) Talán egy újabb steppinget hoznak ki, talán a mikrokódján csiszolnak még (*), esetleg csak az AGESA kódon javítanak.

    * Ha jól sejtem, a Richlandnál is ez változott, hiszen steppingváltás nélkül jelentek meg új utasításkészletek a vonatkozó wikis lap szerint. És talán a Godavarinál is csak itt van változás, ha ott sincs steppingváltás.

    (#267) Agregator: Ami azt illeti, akadt néhány alkalmazás, ahol már a 8150 is be tudta előzni picivel az aktuális i7-et.

  • Agregator

    csendes tag

    válasz antikomcsi #250 üzenetére

    Pedig igen is sokat számt az az 1-2%! lehet hogy végre hosszú évek után talál egy progamot az AMD ahol 0.001%-al az i7 felé kerekedik, és végre kiélheti magát az a személy, aki a grafikonokat tervezi! Jó magas piros oszlopot rajzolva AMD teljestménye felé és egy vékony kis kék pöttyöcskét az intel teljestménye felé, hogy arányban kb. a 100 szorosa legyen. Aztán elégedetten hátradől és elsziv még egy jointot.

  • HoaryFox

    őstag

    Hajrá AMD, csak ígérgetésből meg tervekből már valami kézzelfoghatót (és maradandót) is alkossatok! :K

  • dezz

    nagyúr

    válasz leviske #263 üzenetére

    Az előzőben az FX-ekre gondoltam a revízióváltással kapcsolatban, nem a Trinityre. Apropó, az viszont fura, hogy a Trinity->Richland váltásnál ugyanaz maradt a stepping, legalábbis a kódja, még csak nem is B0-ás lett, holott megjelentek olyanok a Trinityk között.

  • dezz

    nagyúr

    válasz leviske #263 üzenetére

    "A Godavari meg ugyanúgy Steamroller, mint a Kaveri, lévén, hogy a Kaveri lapkáról beszélünk, talán minimálisan optimalizált formában."

    Elvileg egy újabb stepping. Régebben is új nevet kaptak ezek. Kérdés, milyen érdemi változásokat hoz. Sokat nyilván nem.

    (Mostanában nem sokat "vacakol" az AMD steppingekkel... Bár a Bulldozer->Piledriver váltás lényegében egy revízióváltás, B2/3->C0. De steppingváltások nincsenek, illetve csak ha nagyon muszáj.)

  • leviske

    veterán

    válasz Fiery #222 üzenetére

    Most még az mondható el, hogy 2 évnyi felesleges költekezés nélkül is versenyképesek a felsőkategóriában és vígan kínálhatnak $400 és $1000-os árakon termékeket. Erre fog most megérkezni a GTX980 ellenfele vélhetőleg 500-550 dolcsi környékére, vagy fölé. Függően attól, hogy mennyire lesz tényleges ellenfél és mennyire lesz félúton az új Titan felé.
    Nem teljesen értem, hogy milyen kiegyensúlyozatlanságról beszélsz a dGPU piacon, hiszen ha valaki eddig nem vett GCN kártyát az még a mai napig megteheti szájbiggyesztés nélkül a HEDT szegmensben is. Ezzel szemben processzor piacon azért vitathatatlan, hogy AMD-t választani kompromisszumokat igényel.

    A Kaveri-t pedig nem azért hoztam fel, mert HEDT piacra szánt terméknek tartom, hanem mert elég jól tükrözi a cég megváltozott hozzáállását. Olybá tűnik, hogy háttérbe szorult a mennyiség és előtérbe a termékenkénti haszon. Nem kizárt, hogy ez a Zen korszakban is fennmarad. A 800-1000 dolláros kategória megcélozásához szerintem bőven elég, ha elérik, hogy ne legyen ennyire egyértelmű, hogy melyik cég termékei képezik a csúcsot. Ehhez nem kell nyers erőben erősebb processzort összerakni a konkurenciánál, csak egy okosabb és sok területen ügyes terméket, ami közel egál helyzetből tud indulni és egyes fontosabb területeken első helyre ugrani. Erre meg van sansz, ha továbbra is komoly kapcsolatban marad a cég a szoftverfejlesztőkkel. Ráadásul aktuálisan ott vannak a CMT felépítésből származó kudarcok tapasztalatai és a konkurens Nehalem architektúrájával elkezdett útjának eredményei.

    Csak én a továbbiakban is a GloFo miatt kételkedem.

    u.i.: Ez lehet mégis Fiery topik lesz. ;]

    (#253) Z10N: A Carrizo elvileg már integrált SATA/USB és egyéb vezérlőkkel jön. Ezért nem tudom, hogy milyen hagyományosan vett "chipsetet" tudnak még az alaplapra tenni. És gondolom a közös foglalat miatt az egész AM4-re jellemző lesz ez.

    A Godavari meg ugyanúgy Steamroller, mint a Kaveri, lévén, hogy a Kaveri lapkáról beszélünk, talán minimálisan optimalizált formában.

  • dezz

    nagyúr

    válasz Fiery #258 üzenetére

    Nem írtam, hogy fanboy vagy, csak megállapítottam, hogy egyes dolgok (fölényeskedőnek tűnő és túlzó) odadörgölése (1-1 smilyval tűzdelve) inkább fanboyszerű megnyilvánulás, mint szakmai, nemde? Másrészt ezek csak felesleges mellékszálakat indukálnak, ezért tettem javaslatot a mellőzésükre.

    A MS, az Apple és sok másik is kicsiként kezdte és aztán elég gyorsan meghatározóvá váltak. Az okostelefonok és tabletek beköszöntével pedig az ARM és egy sor alig ismert cég vált meghatározó tényezővé. Az AMD is kiveheti ebből a részét a HSA-val és az egész CPU-GPU házasítás úttörőjeként (talán a K12-vel is).

    Leszűkítve az x86-ra, sokkal jobban is elsülhetett volna a Fusion téma, jobban előtérbe helyezve a GPGPU-t és a CPU-GPU kooperációt, ha az AMD eddigi APU-i nem lettek volna félkarú óriások. Nem értesz ezzel egyet?

    "Marmint IGP oldalrol _is_. Ne allitsuk be az Intelt egy olyan cegnek, aki az AMD-vel ellentetes modon mozog, azaz az x86-ot lesz*rjak, es csak az IGP-t fejlesztik. "

    Miért, talán nem került egyre fejlettebb és nagyobb teljesítményű IGP az AMD APU-iba? (Dehogynem.)

    Oké, tehát az Apple nem támogatja az OpenCL-t iOS-en. Van helyette Metal. Más szóval, magát a GPGPU-t ők is fontosnak tartják...

    "Van, marmint diagnosztikai szoftverek meg benchmarkok. Es azon kivul? Valami ertelmes felhasznalasa az OpenCL-nek?"

    Ha nem lehet ilyen, akkor nyilván nem lesz. Ha lehet, akkor pedig lesz. Miért is ne lehetne értelmes alkalmazási területet találni neki?

    Fontos tények leszögezése, amik neked sem újdonságok, mitől kioktatás? :F

    "Nem letezik ARM es Qualcomm roadmap sem"

    De, az van, meg pár felületes infó, de ha a részletekre vagy kíváncsi, hamar falakba ütközöl. Jó esetben NDA alatt adnak ki infókat, vagy még úgy sem. Ezt neked kellene a legjobban tudnod. :U

    "Szerinted miert nem jelent meg megsem egyetlen rohadt hardver sem a HSA 1.0 bejelentese idejere idozitve? Es azota sem, csak ugy mellesleg..."

    Akkor ez mi a fene?

    Kész, hasznos program talán még nincs, de rákeresve az "OpenCL Android"-ra számos ilyen irányú fejlesztésről szóló oldal és topik jön elő, azaz előbb-utóbb jönnek ilyen programok. Az lenne a furcsa, ha nem jönnének.

    (#261) morgyi: Dehogy vannak tiltva! Van fent néhány egyszerűbb programocska és egy sor OpenCL-es fejlesztésről szóló könyv is. [link]

  • sid.:Rc211v

    őstag

    válasz Feri1977 #49 üzenetére

    lol :) Az ok hogy neked elég egy 6300 szintű proci, de ki ne találd már, hogy fölösleges az i7. Képzeld vannak nagyobb igényű emberek is. Valószínű azért lehet kapni i7-et mert mindenkinek elég egy 6300. Megnézném mit kezdene a 970-emmel. Egy i3 is jobban meghajtaná sztem. Használtan már elég jó áron lehet kapni i5-i7-et. Nem akkora összeg. Jobban megéri mint az AMD. Persze újan más tészta. peace

  • Fiery

    veterán

    válasz dezz #252 üzenetére

    "Te Fiery, nem lehetne, hogy egyes mondatok kiragadása és fanboyszerű lereagálása helyett inkább egészben válaszolnál 1-1 bekezdésre, a lényegre koncentrálva?"

    En a lenyegre szoktam fokuszalni. Vagy azt szeretned, hogy inkabb minden mondatra kulon-kulon valaszoljak, az olyanokra is, amikre nincs mondandom? Amugy meg visszautasitom a fanboy jelzot, en nem vagyok fanboy, akarmennyire is szeretnek sokan azt gondolni. Mar tobb topicban is leirtam ezzel kapcsolatban az allaspontomat, itt nem fogom leirni, mert mar qrvara unom, hogy akarmit irok, valaki mindig elkezdi a szemelyeskedest. Ez egy szakmai topic, nem egy Fiery-topic.

    "Más a trendek és más az ipar szabályainak megváltoztatsa. Az előbbit akár kisebb cégek is képesek megváltoztatni, ha valami olyat kínálnak, ami más fontos szereplőknek kimondottan hasznos. Lásd pl. ARM."

    A gyakorlat nem ezt mutatja. Marmint hogy a kis cegek igazan komoly valtozasokat tudnak eszkozolni az x86 PC piacon -- amirol ugye szo van alapvetoen, hiszen ez egy Zen topic. De me'g ha tegyuk fel, egy kis ceg meg is tudja a trendeket valtoztatni, abbol is sokszor az jon ki, hogy pont az a kis ceg tud legkevesbe profitalni belole. Hogy ennek mi az oka, nos, ezt mindenkinek a fantaziajara bizom. Mindenesetre ha az AMD az utobbi 10 evet nem azzal toltotte volna, hogy legvarakat epitget es az API, Fusion, ARM meg hasonlo dolgokra fokuszal a klasszikus x86 CPU fejlesztes helyett, akkor siman lehet (_lehet_, nem biztos), hogy elorebb tartana.

    "Most! Hadd emlékeztesselek, hogy egy olyan topikban beszélgetünk, ami többek között a Zenről szól, ami kiegyenlítettebbé teheti az erőviszonyokat, Intel vs. AMD és CPU vs. IGP terén is."

    Ezt nem vitatja senki, en sem. Csak ugye ott a felteteles mod. Bar, az alapjan, amit az AMD allit (+40% IPC), ha a vegrehajtas idoben es megfelelo modon megtortenik, akkor nem ketseges, hogy az eroviszonyok sokkal kiegyenlitettebbek lesznek a jovo evben.

    "Arról nem beszélve, hogy az Intel is ott van ezen a pályán, csak ők IGP oldalról erősítenek"

    Marmint IGP oldalrol _is_. Ne allitsuk be az Intelt egy olyan cegnek, aki az AMD-vel ellentetes modon mozog, azaz az x86-ot lesz*rjak, es csak az IGP-t fejlesztik. Plane a Skylake hivatalos rajtja elott ne mondjuk ezt ki: az uj architekturaban barmi lehet, kicsi es nagy fejlesztes is.

    "Az Apple pont az OpenCL egyik fő propagálója, legalábbis desktopon. Nem tudom, teló/tablet fronton mi a helyzet, mindenesetre a SoC-jaikban lévő PowerVR IGP-k a Series 6 óta támogatják az OpenCL 1.2-t."

    Szerintem ennek nezz utana alaposabban :) Az Apple anno az OpenCL-t nagyon tolta, igen, de "erdekes" modon az iOS-es keszulekek egyike sem tamogat OpenCL-t, semmilyen formaban, es terv sincs ilyesmire. Ergo az Apple altal ertekesitett keszulekek tulnyomo tobbsege nem tamogat OpenCL-t, es jelen allas szerint nem is fog, hiaba tudná az IGP amugy ezt a kepesseget. Ez a rideg valosag, sokszor nem a vas tudasa donti el a dolgokat. Az Apple lesz**ja valojaban az OpenCL-t es a HSA-t is, sajat terveik vannak a problema megoldasara.

    "Az újabb Tegrák támogatják a CUDA-t és az OpenCL támogatás is be lett jelentve."

    Igen, a Tegra K1 es X1 (piaci reszesedesuk 0,1% alatt lehet valahol) tamogatja a CUDA-t, de az OpenCL-t nem, es akarmit is jelentenek be, hidd el, nem fogja az nVIDIA elsietni a dolgot. Nekik a CUDA tamogatas a lenyeg, az OpenCL-t csak muszajbol csinaljak, ha az adott piac megkoveteli. Az ultramobil piacon az OpenCL nincs tulzottan elterjedve -- hiaba tamogatja X fele SoC jelenleg is, ha egyszer szoftverek nincsenek ra --, es amig nem terjed el jobban, addig az nVIDIA sem fog sietni az OpenCL stack-kel.

    "A SoC-ok többségében alkalmazott IGP-knél ott van az OpenCL-támogatás: Adreno, Mali, PowerVR, Vivante, stb."

    Marmint csak az ujabbaknal, es ott sem mindegyik verzional. A Vivante egyebkent erdekes allatfajta, naluk hiaba tudja adott esetben egy SKU, az arra epulo eszkozon megsem mindig talalhato OpenCL implementacio. De teny, hogy terjed az OpenCL tamogatas, bar azt sosem probaltam konkret OpenCL kernel futtatasaval, hogy ezek milyen minoseguek. Mar szamtalanszor leirtam, hogy a compilerek ugy nagy altalanossagban sz*rok szoktak lenni, igy nem lepodnek meg azon sem, ha az ARM, Qualcomm (stb) OpenCL stack-ek is tele lennenek bugokkal. Az Adreno 330 driverben mar talaltam a device info resznel crash-t, sz'al nincs tul jo eloerzetem a compilerekkel kapcsolatban sem...

    "Szoftveres támogatás is van Android alatt:"

    Van, marmint diagnosztikai szoftverek meg benchmarkok. Es azon kivul? Valami ertelmes felhasznalasa az OpenCL-nek?

    "Az AIDA for Androidban mikor lesz ilyen? :) Látom, device listing már van"

    Majd lesz, az ultramobil benchmark nem egyszeru tema, ha az ember jol akarja csinalni. Pontosabban, igazan jol nem is lehet csinalni a hoproblemak es throttling miatt... De ez nagyon off.

    "Továbbá, mint tudod, az ARM, az Imagination (MIPS) és a főbb SoC-készítők többsége (Broadcom, MediaTek, Qualcomm, Samsung, STMicroelectronics, Texas Instruments, Toshiba, stb.) tagjai a HSA Foundationnek"

    Igen, de a tagsag nem kotelezi oket semmire.

    "Mint szintén tudnod kell, a hw területén lassan őrölnek azok a bizonyos malmok, még csak nemrég készült el a HSA 1.0"

    Es akkor hogy van az, hogy ha a Khronos bejelenti az OpenGL 4.4-et (csak egy pelda), akkor mar aznap jon melldongetve az nVIDIA, hogy itt az elso OpenGL 4.4 compliant ForceWare? Nem csipem a kioktato stilusodat, de csereben en is hadd legyek kioktato: ugye tudod, hogy a HSA Foundation tagjakent lenyegeben 2-3 evre elore megvan a specifikacio fejlesztesi, validalasi es veglegesitesi roadmap minden HSA tag cegnek? Tehat pontosan tudtak, hogy mikorra varhato a HSA 1.0 veglegesitese, hogy abban mi lesz, mirol szol. Szerinted miert nem jelent meg megsem egyetlen rohadt hardver sem a HSA 1.0 bejelentese idejere idozitve? Es azota sem, csak ugy mellesleg... Nem lehet, hogy megis csak az az oka ennek, hogy a SoC gyartok egesz mas dolgokkal vannak elfoglalva es/vagy lesz*rjak az egesz HSA mizeriat?

    "és idejekorán semmelyik gyártó sem fedi fel a terveit."

    Hat persze hogy nem :DD Nem letezik ARM es Qualcomm roadmap sem, es abszolut nem egy AMD-fele roadmapet bemutato cikkhez kapcsolodik ez a topic sem. Oh, wait...... :W

    "A telós szoftverfejlesztők is kezdenek mozgolódni, jól jön a plusz számítási teljesítmény."

    Peldakat kerek ilyen szoftverekre. Lehet betas is, de benchmark nem lehet.

  • t72killer

    titán

    válasz Apollo_21 #256 üzenetére

    "igp fronton igen csak az AMD a jobb" - Ez bizony így van, és kb akkora fölénnyel vezetnek, mint amekkorával CPU-téren a kékek. A gond ott van, hogy míg a hiányos igp-t ki tudod pótolni dVGA-val, ha a CPU-ból hiányzik az erő, arra nincs bővítőkártya. Igazából az AMD-re tökéletesen passzolhatna a subnotebook/ultrabook/netbook/tablet és a HTPC szegmens, lévén ott nem kell őrült nagy CPU erő, viszont a sok médiafogyasztás miatt, hasznát venné az ember az IGP-nek. Na honnan is hiányoznak pont az AMD-re épülő termékek? a szubnoti/ultrabook/netbook/tablet és a mini-PC piacról :((( . Pedig a most érkező Carrizzo-L is tök jó lenne, de szokás szerint ezt is el fogják b&@#ni, és majd belerakják 17"-os förmedvényekbe. -> ne legyen igazam. :U

  • Apollo_21

    addikt

    Én személy szerint bár cseréltem Intelre 1éve...de 25évig AMD-s voltam.
    Csak is azért vettem Intelt mert hajtott a kiváncsiság hogy tényleg mi is az igaz "a többet is tudna a vga-d" mondtat részletből...bevált igazuk volt többet tud...
    Viszont a hozzászólók többsége elfelejti azt ha annyira fikázhatjuk az elmaradt cpu 1szálas tudás miatt az AMD-t akkor az APU-kban is találjunk már kifogást mert ott pl igp fronton igen csak az AMD a jobb...
    Kevesebb pénzből kisebb piaci részesedéssel..amúgysem lehet túlnagyot álmodni.
    Én várom az Am4-et, jólesz az ahogy egy Am3+ még mindíg tud olyan jó lenni mint egy i5....csak számításba kell venni h nem a legjobb vga dukál mellé és máris levan a gond.

  • Z10N

    veterán

    válasz leviske #212 üzenetére

    A Godavari-nak kellene Excavator-ral jonnie. Mar hogyne kene uj chipset. Az usb3.1-t es az m2 sata-t mar elvarnam a kovetkezo alaplapomnal. Mondjuk csak akkor fogok valtani amikor mar jo aron lesz a ddr4 es tul leszunk a Zen 1st gen-n.

  • dezz

    nagyúr

    válasz Fiery #225 üzenetére

    Te Fiery, nem lehetne, hogy egyes mondatok kiragadása és fanboyszerű lereagálása helyett inkább egészben válaszolnál 1-1 bekezdésre, a lényegre koncentrálva? ;)

    Más a trendek és más az ipar szabályainak megváltoztatsa. Az előbbit akár kisebb cégek is képesek megváltoztatni, ha valami olyat kínálnak, ami más fontos szereplőknek kimondottan hasznos. Lásd pl. ARM.

    Leírtam: igen, a gyengélkedő CPU oldallal csak félkarú óriás az APU. Most! Hadd emlékeztesselek, hogy egy olyan topikban beszélgetünk, ami többek között a Zenről szól, ami kiegyenlítettebbé teheti az erőviszonyokat, Intel vs. AMD és CPU vs. IGP terén is.

    Arról nem beszélve, hogy az Intel is ott van ezen a pályán, csak ők IGP oldalról erősítenek. Ezen kívül az AMD és a HSA az ARM-os cégeknek nem csak átvehető mintákat, hanem kész megoldásokat is kínálnak.

    - Az Apple pont az OpenCL egyik fő propagálója, legalábbis desktopon. Nem tudom, teló/tablet fronton mi a helyzet, mindenesetre a SoC-jaikban lévő PowerVR IGP-k a Series 6 óta támogatják az OpenCL 1.2-t.

    - Az újabb Tegrák támogatják a CUDA-t és az OpenCL támogatás is be lett jelentve.

    - A SoC-ok többségében alkalmazott IGP-knél ott van az OpenCL-támogatás: Adreno, Mali, PowerVR, Vivante, stb.

    - Természetesen az Intel termékei is támogatják.

    - Szoftveres támogatás is van Android alatt:
    o OpenCL on Mobile Devices
    o Getting Started with OpenCL on Android
    o OpenCL Info app @ Google Play
    o OpenCL ES Phone GP(GPU) Android Benchmarks from SiSoftware
    (Az AIDA for Androidban mikor lesz ilyen? :) Látom, device listing már van.)

    Továbbá, mint tudod, az ARM, az Imagination (MIPS) és a főbb SoC-készítők többsége (Broadcom, MediaTek, Qualcomm, Samsung, STMicroelectronics, Texas Instruments, Toshiba, stb.) tagjai a HSA Foundationnek. Nem történik semmi? Mint szintén tudnod kell, a hw területén lassan őrölnek azok a bizonyos malmok, még csak nemrég készült el a HSA 1.0 és idejekorán semmelyik gyártó sem fedi fel a terveit.

    "A valosag (a jelenben) az, hogy a gyartok teljesen massal vannak elfoglalva, mint hogy HSA-val vackolodjanak."

    Azt nem tudni, hogy a HSA-val kapcsolatban milyen fejleszések mennek a háttérben, de annyira azért nincsenek mással elfoglalva, hogy az OpenCL támogatásra ne helyezzenek hangsúlyt és ne biztosítsanak OpenCL fejlesztői SDK-kat is (lásd fent). A telós szoftverfejlesztők is kezdenek mozgolódni, jól jön a plusz számítási teljesítmény.

    (#235): Dehogynincs. :U

    (#223) eight: Ott van pár sorral feljebb.

  • antikomcsi

    veterán

    Hú, de irigyellek Titeket, hogy péntek délután, egy jelenleg nem létező termék, saccolt teljesítményének 1-2%-án "vitatkoztok". :DDD

    Most komolyan!

    Kívánom, hogy ez legyen a legnagyobb probléma az életünkben! :R

  • Bici

    félisten

    válasz Oliverda #245 üzenetére

    A hibátlan számítás szerint valóban nem 45%, hanem 47, mivel 1,05*1,4=1,47
    Viszont oda írtátok, hogy "nagyjából", így nem értem én sem a dolgot.

  • Oliverda

    félisten

    válasz #06658560 #247 üzenetére

    Szerintem pedig a nagyjából 45%-ba pont belefér még a 43, a 44, a 46 és a 47 is, de persze minden lényegtelen apróságba bele lehet kötni. Inkább maradok egy kissé pesszimista és lefele kerekítek, ha nem bánod.:)

  • #06658560

    törölt tag

    válasz Oliverda #245 üzenetére

    Én annak az állításnak az igazsága alapján mondom, hogy nem jön ki a matek.

  • #06658560

    törölt tag

    válasz Bici #244 üzenetére

    A tíz százalékot kevertem nevezékileg.

  • Oliverda

    félisten

    válasz #06658560 #243 üzenetére

    Steamroller->Excavator: 5%
    Excavator->Zen: 40%

    Ez alapján szerinted nem állja meg magát a kijelentés, miszerint nagyjából 45%-ot gyorsulhat a Steamrollerhez képest a Zen?

  • Bici

    félisten

    válasz #06658560 #243 üzenetére

    De ha csak az a másfél, vagy két százalék eltérés a baj, akkor milyen tíz százalékról írtál a #236-os hsz-ben?

  • #06658560

    törölt tag

    válasz Oliverda #241 üzenetére

    Mindezen módosítások hatására egy magot (szálat), illetve azonos órajelet feltételezve átlagosan 40%-os IPC gyorsulásra számítanak az Excavator architektúrához képest, ami így például a Kaveri APU-ban található Steamrollerhez viszonyítva már nagyjából 45%-ot jelenthet."

    Ezt számoltam.

  • #67688960

    törölt tag

    válasz Feri1977 #49 üzenetére

    úú, de akkor sose lesz menő százrugós prockód! ;]

  • #06658560

    törölt tag

    válasz Bici #239 üzenetére

    Én azt számoltam, ami a cikkben le van írva. Márpedig az AMD esetén is több fejlődés volt 3,5%-nál.

  • Bici

    félisten

    válasz Bici #238 üzenetére

    Pontosabban számolva 47% jön ki a steamroller és a zen között.

  • Bici

    félisten

    válasz #06658560 #236 üzenetére

    Nem lehet h kevered a neveket?

    Piledriver = 100%
    Steamroller = 110%
    Excavator = 115,5%
    Zen = 161,7%

    161 / 110 = 1,463
    Szerintem erre lehet mondani, hogy "nagyjából 45%", nem?

  • Oliverda

    félisten

    válasz #06658560 #236 üzenetére

    Tudnál egy kicsit világosabban fogalmazni? Nem értem pontosan mivel van problémád...

  • #06658560

    törölt tag

    válasz Oliverda #234 üzenetére

    Viszont ti ezt írtátok a cikkben, ami így nem igaz, ha az a tíz százalék gyorsulás ott van. Ergo valaki matekból megbukott.

  • Fiery

    veterán

    válasz ukornel #230 üzenetére

    "Egy másik topikban emlegettelek is, aztán sayinpety írt valamit."

    Oke, tehat ha jol ertelmezem, ez egy szabvanyon kivuli HSA alapu megoldas, amivel OpenCL kernelt lehet futtatni. Akkor ehhez mar csupan OpenCL kod kellene. Ami nincs, plane nem mobil eszkozokon. De majd lesz... ;)

  • Oliverda

    félisten

    válasz #06658560 #229 üzenetére

    De a Piledriverhez képest 10%-ot gyorsult a Steamroller, és feljebb ahhoz próbált meg viszonyítani a kolléga a grafikonnal (AMD FX).

  • Bici

    félisten

    válasz #06658560 #232 üzenetére

    Olyankor, amikor még legalább két olyan ismeretlen van a képletben, amiknek a várható ingadozása nagyobb, mint 1,4%, akkor szerintem nem trehányság ekkora tűréssel számolni.
    Plána, hogy pesszimista volt (lefelé kerekített) a számolásnál.

  • #06658560

    törölt tag

    válasz Bici #231 üzenetére

    Ha trehányok vagyunk, akkor dehogynem,

  • ukornel

    aktív tag

    válasz Fiery #225 üzenetére

    "minden munkat az AMD vegez _latszolag_. Ugy tunik -- de biztos ez csupan a latszat --, hogy senki sem foglalkozik a dologgal az AMD-n kivul. Hol vannak a bejelentesek a Qualcommtol es a MediaTektol?"

    Egy másik topikban emlegettelek is, aztán sayinpety írt valamit.

    #227 Oliverda
    "Steamroller: ~+10% Excavator: ~+5% Zen: ~+40%
    Tehát összesen ~55% lehet az IPC boost
    "

    Sőt, mivel ezeket nem összaedni, hanem szorozni (1,05x1,10x1,4) kell, az már összesen 61,7% IPC gyorsulás lenne :K

  • #06658560

    törölt tag

    válasz Oliverda #227 üzenetére

    Valahogy nem jön ki a matek. Ha a Zen Lesz a közös pont, akkor Excavatorhoz mérten +40%, Steamrollerhez mérten +45%, ami azt jelenti, hogy Excavator =1,036 Steamroller.

  • Oliverda

    félisten

    válasz eight #226 üzenetére

    Steamroller: ~+10%
    Excavator: ~+5%
    Zen: ~+40%

    Tehát összesen ~55% lehet az IPC boost. Persze erre még rájön az órajel.

  • eight

    senior tag

    válasz Oliverda #224 üzenetére

    Ez igaz, de azért még ők sem mertek meredek vonalat húzni az Excavatorig :)) (de azért tényleg remélem hogy legalább az Ivy-t eléri mert elvileg a Skylake-re is legalább 15%+ mondanak a pletykák, és akkor megint itt maradunk verseny nélkül :((( )

  • Fiery

    veterán

    válasz dezz #221 üzenetére

    "Nem hiszem, hogy az AMD meg akarta volna változtatni az ipar alapvető működését"

    Hat pedig egyesek ezt mar evek ota hirdetik :)

    "Az ATI beolvasztása is nagyrészt ezt a célt szolgálta."

    Lassan 10 eve mar ennek. Hova jutottak vele? Gyakorlati eredmenyt tekintve.

    "Ez előbb-utóbb megváltozik."

    Igen, ezt halljuk mar lassan 10 eve. Mindig jovore jon az attores. Ugyanigy mindig a kovetkezo ev volt David Coulthard eve a Forma-1-ben :))

    "egy pillantást kérlek az okostelós/tabletes procigyártók újabb termékeire! Szinte mindenhol ott látom az OpenCL támogatást."

    Mindenhol? Apple? WP? Tegra? Azert ne tulozzunk. Raadasul, a PC-piacon sokkal jobb a helyzet, lenyegeben mindenhez van OpenCL tamogatas (kiveve VIA x86 CPU-k es VIA IGP-k), es megsem botlok allandoan OpenCL-re optimalizalt mainstream szoftverekbe. Okostelefonra/tabletre pedig me'g egyet sem lattam, de biztos csak nem figyeltem eleg erosen :)

    "Ráadásul az ARM és több SoC tervező cég is benne van a HSA szövetségben."

    Megsem tortenik semmi. Es minden munkat az AMD vegez _latszolag_. Ugy tunik -- de biztos ez csupan a latszat --, hogy senki sem foglalkozik a dologgal az AMD-n kivul. Hol vannak a bejelentesek a Qualcommtol es a MediaTektol? Hol vannak az emlitett 2 ceg roadmapjen a HSA-ready SoC-ok? Egy masik topikba mar beirtam ezt, de erdemes itt is megemliteni. Gugli kereses:

    hsa site:amd.com = 4330 results
    hsa site:qualcomm.com = 4 results
    hsa site:mediatek.com = 98 results

    "És ezen a területen minden GFLOPS számít, nem marad el sokáig a szoftveres kihasználás sem."

    Hiszem, ha latom. A valosag (a jelenben) az, hogy a gyartok teljesen massal vannak elfoglalva, mint hogy HSA-val vackolodjanak. Pl. 64 bites sajat ARM magok (Qualcomm), sajat GPU IP (MediaTek + Samsung, ha nem tevedek), 14/16 nanos termekek bevezetese, a tulmelegedessel valo folyamatos kuzdelem (Qualcomm), stb.

    "CUDA: Egy haverom 15+ éve szállít GPGPU-s megoldásokat. Alapvetően Nvidia alapra, mert ezt kérik a megrendelők és bár a srác maga is Nvidia-szimpatizáns, annak nem igazán örül, hogy olyan nyílt szabványok helyett, mint az OpenCL a zárt szabványú CUDA-t kell használnia."

    Irtam fentebb is, hogy vannak egyedi felvillanasok, egyedileg fejlesztett megoldasok, amik remekul mukodnek egy-egy megcelzott hardver architekturan. Altalanos megoldasok, ami mukodik legalabb AMD + nVIDIA GPU-kon, es mainstream megoldas/szoftver, viszont alig van. Ez a valosag, ez a jelen. Minden mas wishful thinking.

  • Oliverda

    félisten

    válasz eight #223 üzenetére

    Nem érzem, mivel ez az egész eleve egy rossz elméleten alapszik. Add hozzá a Steamroller és az Excavator gyorsulását is, mivel az FX-ek még a Piledriver architektúrát alkalmazzák. Na már most ezzel így csak annyi lesz a gond, hogy egy deka konkrét mérési eredmény nincs még az Excavator magokról.:)

  • eight

    senior tag

    válasz Oliverda #220 üzenetére

    Természetesen egyik sem, de azt hittem magától érthetődő mit akartam mondani. Te azt "érzed", hogy ha a képen látható procikhoz hozzáadjuk az Excavator nyúlfarknyi gyorsulását akkkor elérné az Ivy-t, mert szerintem nem (bár jó lenne).

    szerk.: @dezz mi a baj a Cinebench-el, számoljunk inkább pí-t?

  • Fiery

    veterán

    válasz leviske #212 üzenetére

    "megjött 2 olyan API"

    Majd az API kerdesre terjunk vissza akkor, amikor az AMD dGPU piaci reszesedese meghaladja az nVIDIA-aet. A piac a jelenrol szol, a jelenben biztositott teljesitmenyrol, es nem arrol, hogy majd egyszer valamilyen most me'g nem letezo operacios rendszer alatt, egy most me'g nem letezo grafikus API-n egy most me'g nem letezo videokartya milyen teljesitmenyt nyujt a most me'g nem letezo jatekokban :) A nagy pofonnak en is orulnek, mert jobb lenne egy kiegyensulyozottabb dGPU piac. Egyebkent, ha a piac nem a jelenrol, hanem a jovorol szolna, akkor a Kaveri best-seller lenne ;)

    "A Kaveri esetében se az árral próbálták helyzetbe hozni a termékeket."

    Es nem is sikerult tul sokat eladni belole. De a Kaveri nem HEDT proci, hanem mainstream desktop/mobil APU. Az utobbi kategorianal erosen szamit az ar/ertek arány, ezt sosem vitattam. A problema mindossze az, hogy ha evrol evre nem tudsz kinalni csucsteljesitmenyu procit, akkor az alsobb kategoriakban sem tudsz eladni, mert a nevedhez (AMD) hozzatapad az, hogy "nem eleg gyors". Az emberek (marmint a tobbseg) pedig nem jutnak el odaig, hogy utananezzenek, valojaban egy i3 vagy egy A8 a jobb valasztas :(

    "Szegény Excavatorból még nem láttunk semmit, de már lesajnálás tárgyát képzi. :DDD A pletykált DDR4 memóriák miatt nekem se tűnik annyira elszállt ötletnek, hogy a Carrizo desktop verziója csak AM4-be érkezzen már meg. Úgyse az lesz a fő termék."

    Kerdes, hogy mennyire van ertelme ezzel vacakolni, ha mar a Kaveribol sem sikerul(t) sokat eladni. Maximum annak latnam ertelmet, hogy igy jobban segitenek az AM4 platform terjedeset, lenne mainstream desktop megoldasuk DDR4 memoriaval, es legalabb valami ujdonsagot tudnanak villantani jovore.

  • dezz

    nagyúr

    válasz Fiery #154 üzenetére

    Nem hiszem, hogy az AMD meg akarta volna változtatni az ipar alapvető működését, ők csak alapot akartak és akarnak adni az amúgy is éledező GPGPU-s irányvonalhoz. Az ATI beolvasztása is nagyrészt ezt a célt szolgálta. Sajnos a CPU-s oldal meggyengülése nem kedvezett a dolognak, mert így egyelőre félkarú óriás az APU (AMD oldalról és és Intel oldalról is, csak ellentétesen). Ez előbb-utóbb megváltozik.

    Nem tudom, miért gondolod, hogy egyedül van ezzel az AMD. Vess egy pillantást kérlek az okostelós/tabletes procigyártók újabb termékeire! Szinte mindenhol ott látom az OpenCL támogatást. Ráadásul az ARM és több SoC tervező cég is benne van a HSA szövetségben. És ezen a területen minden GFLOPS számít, nem marad el sokáig a szoftveres kihasználás sem.

    "de tovabbra sem valik mainstreamme"

    Egy a PC-k felől egyre inkább az okostelefonok és tabletek felé forduló világban (amit már nem az Intel és a Microsoft ural) a fentiek fényében ezt így nem jelenteném ki. :)

    CUDA: Egy haverom 15+ éve szállít GPGPU-s megoldásokat. Alapvetően Nvidia alapra, mert ezt kérik a megrendelők és bár a srác maga is Nvidia-szimpatizáns, annak nem igazán örül, hogy olyan nyílt szabványok helyett, mint az OpenCL a zárt szabványú CUDA-t kell használnia.

    (#196) t72killer: Nem értem, miért annyira meghatározó a CineBench. 1. Több ismerősöm is rendereléssel keresi a kenyerét, egyik sem a Maxon Cinemát használja. Nem is tudom, kik használják ezt? 2. Ez egy Intel által szponzorált termék, más renderelőkhöz képest - ha nem is sokkal, de - jobban kedvez az Intel prociknak.

    (#219) eight: 1. Itt nincs Excavator.
    2. Nem IPC összehasonlítás. (Nem azonos az órajel.) Oké, ez most mellékes, az összkép és lemaradás számít.
    3. CineBench. :U

  • Oliverda

    félisten

    válasz eight #219 üzenetére

    A grafikonon lévők közül melyik AMD proci rendelkezik Excavator magokkal amihez képest a ~40%-ot mérték?

  • MZperX75

    addikt

    válasz t72killer #217 üzenetére

    Egyenlőre álmokról beszélünk nem? :DDD

    Vagy inkább az AMD mer nagyokat álmodni,de az Intel ezt színesben teszi....

  • t72killer

    titán

    válasz MZperX75 #214 üzenetére

    "fél évre Zen után INTEL 10nm -en gyárt majd sorozatba"

    fogalmazzunk pontosabban: azután fél évvel, amikorra az AMD megálmodta a Zen piacra kerülését.

  • MZperX75

    addikt

    AMD-Apple párosban bíztam valamikor a FUSIO (APU) elején, 3-4 éve ,hát nem lett ilyen.
    Jók ezek a tervek ,most azonnal!!!
    1-1.5 év múlva 14nm-en ,már nem biztos jó lesz,hogy lesz-e akkora durranás?Főleg úgy,hogy fél évre Zen után INTEL 10nm -en gyárt majd sorozatba,cégek illetve a szoftveres oldal Intelt követik már jó pár évtizede,hiába az innováció,fejlesztés jövőbe nézés AMD részéről.
    10%-ot birtokló cég ne akarjon világmegváltó dolgokat ,mert nem így működik a büdös kapitalista világ.
    DE:
    Azóta nem váltottam APU-t ,Llanóm van A8-3870K,lehet de nem biztos,hogy lesz X86-os procim még egy itthonra.

    Nem kell feltétlenül az embernek ilyen olyan szar kütyükre költeni a pénzét erőforrásait,hétről hétre hónapról hónapra nem valós vágyak vezette.Az élethez mindezek kellékek nem szükséges .

    Azt kövezettek meg!

  • #06658560

    törölt tag

    válasz leviske #212 üzenetére

    "Szegény Excavatorból még nem láttunk semmit, de már lesajnálás tárgyát képzi."

    Most mit vársz? Földmunkagéppel bányászni lehet, nem építeni. ;]

  • leviske

    veterán

    válasz Fiery #205 üzenetére

    Azért azt az nVidia-ról se lehet állítani, hogy annyira éber volt, elvégre csendben megjött 2 olyan API, ami nem feltétlen kedvez nekik a HEDT piacon, meg úgy általánosságban sem. Mert, ha effektek lesznek rondábbak az új Titan-on, mint akár csak a Fiji-re épülő kártyákon (pedig gondolom nem azok lesznek az ellenfelei), akkor az elég nagy pofon lesz.

    Mindenesetre a Zen kapcsán nem feltétlen kell azért jó ár/érték teljesítményű processzorokra gondolni, mert esetleg nem múlják felül az Intel csúcs megoldásának a nyers erejét. A Kaveri esetében se az árral próbálták helyzetbe hozni a termékeket.

    Aktuálisan az Intel $600 és $999 közé nem szokott pozicionálni semmit és egy gyengébb processzorért nem feltétlen csökkentenék a zászlóshajó árát. Bőven beférne oda egy olyan megoldás, ami nem a piac legerősebb processzora, de teszem azt benne volna a topban. Magyarán, ha olyan erőviszonyok alakulnának ki, mint amik a Core 2 (45nm) és Phenom II közt lehettek volna, ha egyszerre jönnek, akkor teljes magabiztossággal lőhetnének be egy "sikeres" processzort $800 környékére és a 500-180 közti árszegmensben se lennének egy darabig kötelesek lekövetni az Intel esetleges árcsökkentéseit. Pedig anno a Phenom II még a Core 2 ellen se aratott osztatlan sikert, hiszen magasabb órajelekkel tudott helytállni.

    Én ezt is kissé optimista eshetőségnek érzem, de sokkal reálisabbnak tűnik, minthogy az AMD fölé ugorjon az Intelnek annyira, hogy vészmegoldáshoz kelljen nyúlniuk a "teljesítménykorona" megtartása érdekében.

    (#211) Z10N: Szegény Excavatorból még nem láttunk semmit, de már lesajnálás tárgyát képzi. :DDD A pletykált DDR4 memóriák miatt nekem se tűnik annyira elszállt ötletnek, hogy a Carrizo desktop verziója csak AM4-be érkezzen már meg. Úgyse az lesz a fő termék.

    Chipset nem tudom hogy egyáltalán kell-e még ezeknek az alaplapjaira, hiszen a Carrizo-ban már minden a prociba lett integrálva és gondolom ez azért a Zen alapú cuccokkal sem változik.

    (#210) eight: Ne feledjük el, hogy a Kaveri X86-os részéből nem létezik 8 szálas verzió, ill nem tudom, hogy az IPC beli gyorsulásokban mennyire kell megjelennie a CMT felépítés elhagyásának. Tehát annyira egyszerűen nem lehet következtetni. Itt inkább akkor lesznek gondok, ha nagyon alacsony órajelekre kényszerülnek 14nm-en.

  • Z10N

    veterán

    -Vishera AM3?
    -Fel dollar reszvenyenkenti novekedes, eleg keves a korabbiakohoz kepest.
    -Ez a kozos AM4 jonak igerkezik. Kivancsi leszek milyen chipsetek lesznek.
    -Az FM2+ -nak akkor ennyi volt.

    "amely a korábbi hagyományokat követve az AM4 jelölést kapja meg, ahol a szám most is a támogatott memóriaszabványra, azaz jelen esetben már a DDR4-re utal"

    FM2+? :)

    "a hetedik generációs APU még egy Excavator CPU-magokra épülő megoldás lesz"

    Ez viszont nem jo hir.

    A Nintendo boritekolhato es ezzel egyeduralmon van az AMD ebben a szegmensben.

  • eight

    senior tag

    válasz Oliverda #198 üzenetére

    "Tegyük fel, hogy sikerült elérni Haswell vagy a Broadwell IPC-jét."

    Ezt most nem értem. Ahogy már írtam is, ők maguk mondták hogy 40%-os IPC növekedést fognak produkálni (és gondolom azt is csak a legoptimálisabb szituációkban, de természetes érthető és elvárható, hogy a marketingesek a legnagyobb számot írják rá a színes képeikre). A 40%+ az nem még mindig csak a Sandy környékén lenne?

  • Bici

    félisten

    válasz Hobbbyt #206 üzenetére

    Nem biztos, hogy lesz gyártó váltás CPU területén, hiszen a GloFo is a Samu 14nm-es FF eljárását fogja használni, így lehet majd válogatni közöttük.

  • Hobbbyt

    őstag

    Hogy is van ez? Merj nagyot álmodni?

    Mindenesetre a tervek szépek :) Azt is pozitívnak tartom, hogy új bérgyártó után néznek.. a samsung abban nagyon-nagyon jó.

  • Fiery

    veterán

    válasz leviske #204 üzenetére

    "Szerintem az AMD-nek bőven elég lenne, ha sikerülne a Zen alapú processzorokat belőni azokra a teljesítményszintekre, amiket Oliverda is írt."

    Meglatjuk. En mindenesetre nem latom ertelmet egy jo ar/teljesitmenyu HEDT procinak. Az a szegmens nem az arrol szol, hanem az abszolut teljesitmenyrol. Ha nem igy lenne, mindenki LGA105x platformot hasznalna. Oke, hogy a HEDT egy vekony szegmens, de eleg egyszeru elvek szerint mukodik.

    "Az nVidia eladások meg úgy nem annyira meggyőzőek, hogy egy - zászlóshajóját tekintve - lassan 2 éves kollekció ellen harcolnak."

    A szamok szamitanak, nem a korulmenyek. Amugy meg, mikor is erkezik az uj Radeon generacio a Fiji alatti szegmensekbe? Vagyis, mikor lehet szamitani arra, hogy a 2 eves kollekcio megujul? Nyar vege, osz eleje? Addig marad a 3x-1x arány? Kicsit hosszu sikerszeria ez az nVIDIA-nak, es ne felejtsuk el azt sem, hogy az AMD-vel parhuzamosan az nVIDIA is keszul a kovetkezo generacioval. Az AMD egyszeruen elaludt a dGPU szegmensben, es innen (24% piaci reszesedes a dGPU piacon) ugyanugy nehez lesz visszajonni, mint a Zennel az x86-piacon. Mindenesetre en szurkolok nekik, csak epp nem all jol a szenajuk...

  • leviske

    veterán

    válasz Fiery #201 üzenetére

    Ja így már értem.

    Mindenesetre a HEDT piacon nincsenek annyira egyértelmű pozíciók teljesítményben. Van, ahol a LGA2011 se tud versenyre kelni a LGA105x-es cuccokkal. Szerintem az AMD-nek bőven elég lenne, ha sikerülne a Zen alapú processzorokat belőni azokra a teljesítményszintekre, amiket Oliverda is írt.

    A Radeonokat meg azért hoztam ide, mert aktuálisan a HEDT piacon ténylegesen versenyképes produktumait képviselik a cégnek. Az nVidia eladások meg úgy nem annyira meggyőzőek, hogy egy - zászlóshajóját tekintve - lassan 2 éves kollekció ellen harcolnak.

  • Fiery

    veterán

    válasz Interceptor #200 üzenetére

    Az AMD jelenlegi, publikus tervei alapjan semmilyennel. A 2016-ban piacra kerulo Zenek elvileg csak CPU-k lesznek, nem APU-k. 2017-ben johetnek az APU-k, de hogy addigra epp milyen iGPU lesz a meno az AMD berkeiben, azt most me'g nehez lenne megjosolni.

  • Fiery

    veterán

    válasz leviske #199 üzenetére

    Fentebb irtam, hogy a 10 magos HEDT processzor tulajdonkeppen mar kesz van az Intelnel :) Csak Xeonnak hivjak jelenleg. Nem kell semmit tervezni, nem kell rajzolgatni. Athuzod a nevet a tokon, atirod Core i7-re, es piacra dobod. Ennyi.

    "Azt meg azért erősen kétlem, hogy az AMD teljesítménykoronát akarna rabolni jövőre."

    Ha nem azt akarjak, akkor baj lesz, ugyanis csak az az egyetlen lehetseges megoldas szamukra. Az ar/teljesitmenyt tekintve vonzo ajanlatokkal most sem elnek meg, plane nem a HEDT es szerver szegmensben...

    "Már az is szép teljesítmény lesz, ha sikerül megalapozottan visszajuttatni a processzoraikat a Radeonok által most is képviselt árkategóriákba."

    Mi koze a Radeonoknak a Zenhez? :F Amugy sem tul jo pelda a Radeon, manapsag, amikor a dGPU szegmensben 3x tobb GeForce fogy, mint Radeon :U

Új hozzászólás Aktív témák