Új hozzászólás Aktív témák
-
dezz
nagyúr
Az AMD Discovery gamer tablet projektje a Mullins SoC APU-ra épül, aminek 2W az SDP-je... 4 Puma CPU mag van benne, vélhetően 1 GCN CU (64 SP). Futtathatóvá akarják tenni rajta a Battlefield 4-et...
Mobil low-power és alsó-mainstream szintre a Beema jön, 10-25W, 2/4 Puma CPU mag, 2 GCN CU (128 SP).
-
dezz
nagyúr
válasz
#32839680 #133 üzenetére
Kezdjük ott, hogy neked lehetnek súlyos szövegértelmezési problémáid, hiszen kimondottan kisebb fogyasztású cuccokról volt szó, márpedig az általad a #127-esben felhozott FX-9590 + Hawai XT páros a legkevésbé sem az... (Még oda is írtad a fogyasztásokat.)
Gamer tabletől és más, kisebb fogyasztású, casual gamereknek szánt dolgokról volt szó, amelyek egyben az eladásokat vezetik.
Ha pl. 50W a keret, akkor nem biztos, hogy egy CPU+dGPU páros ebből többet tud kihozni, mint egy GCN-es APU. Egyre kisebb kerettel ez egyre inkább igaz.
"De ha eljut addig az APU-ba pakolható IGP teljesítményszintje, mint a mostani mainstrem VGA-ké, addigra akár egy középkategóriás VGA már rég +2 generációnál tart akár, nagyobb teljesítménnyel"
Ez eddig igaz volt, de pont az általad is említett, a fogyasztás kisebb csíkszélességek melletti csökkenésének lelassulása miatt nem lehet már ugyanilyen ütemben növelni a teljesítményt, mivel senki sem akar 600 wattos VGA-kat.
"Hogy lenne már mindegy, hogy egy akkora APU-ban ami csak kicsit nagyobb egy sima CPU-nál benne van a GPU-is, vagy egy még egyszer akkora GPU is ott figyel a CPU mellett"
Talán ideje lenne közelebbről is megnézned az AMD APU-kat, mert nagyon nem csak kicsit nagyobb egy sima CPU-nál, hanem a lapka fele az IGP... A Kaveri IGP-je kb. annyit fog tudni, mint egy HD7750 DDR3, ami mobil vonalon nem kevés, de desktopon is sokan ilyenen játszanak. Főleg a casual gamerek, akikről szó volt.
"Másrészt meg a dGPU-val ellátott laptopok nagy része még most sem kis fogyasztású, ergo nincs behatárolva a teljes rendszer fogyasztása 40-50 wattra."
Az 50W feletti fogyasztású, dGPU-s laptopok nem kimondottan a mainstreambe tartoznak.
-
dezz
nagyúr
válasz
#06658560 #126 üzenetére
Ahol 100W alatt akarnak maradni a CPU+GPU párossal (desktop). Számold bele a videókártya független tápáramköreinek veszteségét és VRAM fogyasztását is!
Tabletnél esetleg!? Létezik dGPU-s tablet? Legtöbb notebooknál hol van a fogyasztási küszöb? Ultráknál?
Mobil vonalon nagyobb akadály szerintem az AMD CPU-k nagyobb fogyasztása, ami miatt a casual gamerek inkább Intelre szavaznak, de legtöbbször azért van komolyabb gépeknél dGPU, mert az Intel IGP-je gyenge. Ha hasonlóan erős lenne, mint az AMD (főleg amilyen lesz hamarosan), sokkal kevesebb gépben lenne dGPU.
"Annó" arról volt szó, miért nem fúzionált az Intel az Nvidiával, mi izgatja az Intelt és mi nem. És hogy attól, hogy "az AMD a PC-re is át akarja hozni a konzolokból származó előnyét" "csak a hardcore gamer piac veszik oda", vagy nagyon is komoly hatással van a casual gamer piacra (ami Abu szerint sokkal jobban izgatja az Intelt), legalábbis annak egy részére. Erre volt példa az AMD féle gamer tablet is, de nyilván ennél többről van szó.
(#127) morgyi: Olvasd már el, miről is beszéltünk, akkor talán tudni fogod...
Idézetek magamtól:
"Mobil vonalon tök mindegy, hogy APU vagy CPU+GPU, mindegyiknek szűkös a TDP kerete. Azaz, amit írsz, legfeljebb desktopra igaz. De ott is csak a csúcskategóriában, mert a mainstreamben szintén a fogyasztáscsökkentésre törekszenek.",
"Hogy jönnek ide a top CPU+GPU párosok?",
"ha az egész rendszer fogyasztása korlátozott". -
#06658560
törölt tag
Ajajj, komoly gondok vannak szövegértéssel. Az az állításom, hogy a CPU+dGPU vonal grafikailag jobb lesz, mert nem korlátozza a TDP limit annyira, a két külön rész külön- GPU esetén igen nagy limitje miatt. Ezt hol cáfolja az, hogy mainstreamben a fogyasztáscsökkenésre mennek rá? Attól még midnig korlátozni fogja a TDP limit az APU-kat a külön rendszerekhez képest.
-
dezz
nagyúr
-
Oliverda
félisten
A tablet és az ultrabook oké, de nem pont erre gondoltam, sokkal inkább a GPU-kra. Ha valóban csak a tokozás miatt váltatnának, akkor a <200mm2-es GPU-kat minden váltásnál még inkább a korábbi technológiával gyártanák le, hisz egy 50%-kal nagyobb lapka még általában elfér ugyanazon a tokozáson.
-
#65675776
törölt tag
válasz
Dare2Live #116 üzenetére
Csak annyira hudenagyot, hogy a kisebb csíkszélesség többnyire teljesen más elrendezést követel a tranzisztorok szintjén. Lehet a dieshot-okon minden ugyan ott van, csakhogy nem az a lényeg, hanem az, hogy az adott részegységen belül hogyan kapcsolódnak egymáshoz a tranzisztorok. Ezt pedig minden váltásnál át kell tervezni. Ez az a fizikai dizájn, amiről Abu beszél. És ezt meg lehet csinálni adott csíkszélességen is. Ugyan olyan ez, mint egy konzol, csak nem sw, hanem hw szinten. Maga az technológia nem változik, csak mivel jobban kiismerik a tervezők hatékonyabb dizájnokat tudnak építeni rá. Maga a kapcsolási rajz ugyan az lesz még ettől, legfeljebb minimálisan változik.
-
Fiery
veterán
válasz
Oliverda #115 üzenetére
A kisebb tokozas igen-igen jol jon, ha tabletet vagy ultrabookot gyartasz. Nem eleg a fogyasztast csokkenteni, nyilvan azzal is hosszabbodik az akkumulatoros ido; de me'g jobb, ha tobb helyet is tudsz hagyni az akkumulatornak. A Haswell-ULT is mar egy nagyot lepett elore a SoC megoldassal, a Broadwell-ULT "Y" (cca. 8W TDP) variansa pedig me'g kisebbre veszi a CPU-tokot. Haswell-ULT es Broadwell-ULT "U" (15W es 25W TDP): 40x24 mm, Broadwell-ULT "Y": 30x16,5 mm. Nem tunik nagynak a kulonbseg, de egy 8 colos tabletnel jelentos hely megtakaritast jelent.
A Broadwell alapu ultrabookok es tabletek el fognak szaladni 10-15 orat egy feltoltessel: ezert mar megeri par milliardot belenyomni a 14 nanoba
Plusz, a 14 nano nelkul nem lehetne megcsinalni a Knights Landing-et meg a Skylake-et sem -- legalabbis anelkul nem lennenek kompetitivek.
-
Dare2Live
félisten
-
Oliverda
félisten
Ha tényleg csak a kisebb tokozásra mennének, akkor nem érné meg dollármilliárdokat belefeccölni.
"A Qualcomm és a Texas Instrument szokott ilyet csinálni az egyes node-okon. Kihoznak egy lapkát elsőnek, majd rá 10 hónapra kihozzák ugyanazt de már 30-40%-kal kisebb fogyasztással."
Jó, de ezzel az NVIDIA és az AMD több milliárd tranyós GPU-i még nem lesznek kisegítve...
mod: [link]
-
Abu85
HÁZIGAZDA
válasz
Oliverda #112 üzenetére
Kisebb lesz a helyigénye a lapkának, így kisebb tokozással is megoldható.
A Qualcomm és a Texas Instrument szokott ilyet csinálni az egyes node-okon. Kihoznak egy lapkát elsőnek, majd rá 10 hónapra kihozzák ugyanazt, de már 30-40%-kal kisebb fogyasztással. Persze ezt elköltik sebességre, de a lényegen nem változtat.
(#113) Sir Ny: Itt az az elektronmennyiség számít, ami még kezelhető statisztikailag nagy tömegként, így a fizika és nem a kvantumfizika törvényei vonatkoznak rájuk. Jelen pillanatban mindenki ugyanott tart a 32 nm óta. Emiatt halt meg a Dennard Scaling. 2003 óta tudjuk, hogy eljön a nap, amikor nincs tovább. Még van tovább, mert csak az bástya egyik dőlt be, így lehet másra optimalizálni, de pár év és ennek is vége.
(#115) Oliverda: Azokat szoftverből kell kisegíteni.
-
Oliverda
félisten
Akkor miért szenvednek ennyit az alacsonyabb csíkszélességgel, ha ugyanazt az eredményt el lehet érni a korábbi technológiák optimalizálásával?
"például a TSMC-nél, hogy ugyanazt a lapkát egy év múlva már 30-40%-kal alacsonyabb fogyasztással gyártsák ugyanazon a csíkon"
Pontosan melyik lapkánál?
-
Abu85
HÁZIGAZDA
válasz
Oliverda #110 üzenetére
Ebben nincs semmi extra. Szimplán más fizikai dizájnról van szó, ami hoz ennyit. Így érik el a gyártók azt például a TSMC-nél, hogy ugyanazt a lapkát egy év múlva már 30-40%-kal alacsonyabb fogyasztással gyártsák ugyanazon a csíkon. A fizika törvényei meghatároznak dolgokat, de amellett még ezernyi lehetőség van optimalizálni a gyártástechnológiát.
-
Abu85
HÁZIGAZDA
Sajnos a 32 nm-en elértük azt a szintet, aminél kevesebb elektronból nem lehet bekapcsolni a tranyót. Minden, amit nyerünk fogyasztásban azt tervezéssel nyerjük. Ezen a CMOS-on nem tudunk változtatni. Talán a grafén megoldás, de arra is inkább csak fél szemmel tekintünk, mert vannak olyan nyűgjei, amire nem ideális építeni.
Alapvetően két álláspont feszül egymásnak manapság. Az egyik a pénzt nem sajnálva átlépni bármire, ami nem CMOS. A másik a maradni a CMOS-on, amíg nincs egyértelműen jobb, és addig a szoftverekbe ölni a pénzt. -
dezz
nagyúr
válasz
#06658560 #100 üzenetére
Mobil vonalon tök mindegy, hogy APU vagy CPU+GPU, mindegyiknek szűkös a TDP kerete. Azaz, amit írsz, legfeljebb desktopra igaz. De ott is csak a csúcskategóriában, mert a mainstreamben szintén a fogyasztáscsökkentésre törekszenek.
Aztán, a másik tényező: egy APU-ban szorosabban összedolgozhat a CPU és a GPU, amivel energiát lehet megtakarítani.
És itt van még az az eset is (ami egyre inkább előtérbe kerül majd, főleg az új konzolok kapcsán), amikor van diszkrén GPU is a rendszerben, az IGP pedig nem grafikázik, hanem a CPU-nak segít be az adatok előkészítésében.
(#104) Fiery: Nyilván nem úgy értette, hogy örök időkre.
(#105) Abu85: Ebben egészen biztos vagy? Nekem úgy tűnt, jelentős fogyasztáscsökkenést hozott az Intelnél a 22nm (ellenben az órajelek nem nagyon nőttek általa).
-
Abu85
HÁZIGAZDA
A Dennard Scaling a konkrétum rá. Sajnos ez a szabály már 32 nm óta nem működik. 1-2%-os előrelépés érhető el, mert beleütköztünk egy olyan mérethatárba, ahol elértük azt az elektronmennyiséget, amit még éppen lehet statisztikailag nagy tömegként kezelni. A 32 nm óta ez a még statisztikailag nagy tömegként kezelhető elektronmennyiség felel a tranyók bekapcsolásáért, és ez fog felelni 7 nm-en is. Ezen sajnos nem tudunk változtatni, mert a következő lépcsőben már a kvantumfizika törvényei uralkodnak.
-
Abu85
HÁZIGAZDA
A javulásnak több köze van a fizikai dizájn változtatásához mint a csíkszélesség csökkenéséhez. Közel ugyanezt elérték volna 22 nm-en is. Önmagában a csíkszél ma már szinte semmi előnyt nem ad a fogyasztásra vonatkozóan. Az előny a kisebb helyhasználatra vonatkozik. Ezért is nyitják meg más előtt a gyártósorokat, mert fogyasztásra vonatkozó előnyt ezzel senki sem szerez.
-
Fiery
veterán
válasz
Meteorhead #97 üzenetére
"mindenre elég"
Hanyszor hallottuk ezt mar. "640 KB ought to be enough for anybody". A 8 CU is csak addig eleg, amig legfeljebb Full HD-ban, a jelenlegi jatekokkal jatszol. Ki tudja, a jovobeni jatekoknak milyen igenyei lesznek, plusz jon a 4K (de minek...)
"Mégis milyen bebérokban reménykedik Intel emellett?"
Az Intel maskepp kepzeli el a PC-s grafika jovojet, mint az AMD vagy az nVIDIA. Majd kiderul, kinek lesz igaza.
"A csíkszélesség csökkentésével a fogyasztás (és a hőtermelés) nem javul számottevően"
Ezt is hallottuk mar, aztan "furcsamod" a Broadwell demo 30% fogyasztas csokkenesrol szolt. Ami elsosorban a Haswell 22 nano --> Broadwell 14 nano valtasnak koszonheto.
-
Abu85
HÁZIGAZDA
válasz
Meteorhead #97 üzenetére
Nem tudom mennyire lehet casualnak nevezni (az is meg nem is), de ez az egyik érkező Mantle-ready cím a koncepcióra: [link]
Emellett a Sims 4 is Gaming Evolved tabletre is optimalizált kezelőfelülettel. Ez is inkább a casual/hardcore közötti határvonalon toporog. Igazából elég egyszerű az AMD koncepciója. Nem fogja győzködni a gyártókat arról, hogy rakjanak össze tableteket az APU-kra. Azt a pénzt, amit nekik adna elkölti olyan exkluzív dolgokra, amit csak az AMD platformokon lehet előhozni. Ezzel úgy gondolják, hogy a gyártók úgyis rákényszerülnek a gamerek igényeinek kiszolgálására. -
Lomha 8V
addikt
Nem hülyeség, én az AMD helyében ott gyártatnék.
És sűrűn küldeném át csavarhúzóért a kollégákat az Intel üzemébe, körülnézni.
-
#06658560
törölt tag
válasz
Meteorhead #99 üzenetére
Normális, ideális esetben a játékok kihasználják a CPU-t és a GPU-t is egyidejűleg. A GCN viszont mindkét részt fogyasztást figyelve engedi meghajtani, így a fogyasztási limit beleszól a mókába. Az igények nőnek, ma már az FHD-n játék fullos felbontással nem kevesek kiváltsága, így bizony a tényleges optimális teljesítménykihasználás és a valóságos elég nagy szakadékot jelenthet.
Teszem azt AMD-nél egy APU mantle alatt sem fogja utolérni a mostani top CPU+GPU párooskat (legyen mindegyik AMD). Mert nem gazdálkodhat annyiból. -
#06658560
törölt tag
válasz
Meteorhead #97 üzenetére
"koncepció nagyjából verhetetlennek tűnik teljesítmény/ár/fogyasztás tekintetben. Számomra tök nyílvánvaló, hogy a leges-legfelső kategóriájú gamer igényektől eltekintve egy GCN-es APU minden igényt ki tud szolgálni. 512 GCN mag Kaveriben, és 128 Temash-ban mindenre elég."
Na ez az, ami nem igaz, a központi egységek korlátozott TDP keretei miatt.
-
Meteorhead
aktív tag
Őőőő, akkor lehet én látok bele túl sokat, de a gamer tablet koncepciója az AMD-nek (codename: whatever) kiket céloz meg, ha nem a casual gamereket? Az APU koncepció nagyjából verhetetlennek tűnik teljesítmény/ár/fogyasztás tekintetben. Számomra tök nyílvánvaló, hogy a leges-legfelső kategóriájú gamer igényektől eltekintve egy GCN-es APU minden igényt ki tud szolgálni. 512 GCN mag Kaveriben, és 128 Temash-ban mindenre elég. Még BF4-et is demóztak tableten. Mégis milyen bebérokban reménykedik Intel emellett? Ez az egész történet a PC-re is igaz, nem csak mobil eszközökre.
A csíkszélesség csökkentésével a fogyasztás (és a hőtermelés) nem javul számottevően, ráadásul a lapka is kisebb lesz méretben, amitől csak nehezebb lesz elvezetni a hőt róla. Azon látszik Intel vezető szerepe gyártástechnológiában, hogy baromi sok fix-funkciós cuccot pakolnak bele a chipbe (lásd JPEG dekóder), amik ritkán melegednek, ezért úgymond hasznosan lehet hízlalni a chipet vele. Mivel GCN bazi okos, ezért azt gondolnám, hogy az AMD sem gondolkozik túl sok fix funkciós egységben, hanem IGP-ből akarnak kitolni minél több mindent, bár pont erre cáfol rá a titkosítós ARM mag a procijaikban.
Minden bizonnyal jót tenne AMD-nek is kitapasztalni a 14nm-es node-okat, de szerintem nem akarják beáldozni ezért a GloFo és a TSMC-vel vett szoros kapcsolatukat a konkurens gyártószalagjainak az oltárán.
-
litvitcsak.a
tag
Érintőlegesen de a cikkhez tartozik a dotcom-on közzétett fejtegetés. Ez is a gyártókapacitás megnyitásának okára világít rá.
-
kromatika
veterán
mi az a FPGA?
-
#65675776
törölt tag
Nyilván az intelnél sem most jelentkezett a probléma, csak eddig nem foglalkoztak vele. Egyébként meg elég sok lapka készül ma is a világ minden táján 45nm-en, vagy akár még nagyobb csíkszélességen. Az intelnek ezek a sorok már nem igazán kellenek, ergo csak áll bennük a pénz, frissebb technológiájúakra cserélni meg elég kemény összeg lenne, és még nekik sem éri meg. Főleg ha ezek a sorok csak 200mm-es vagy még kisebb wafer-eket használnak.
-
Igen, ezt értettem a
"Az is lehet, hogy a régebbieket nem tudják már kihasználni, és lassan nem térülnek meg ilyen fejlesztési tempó mellett."
mondat alatt.
Érdekes jövő elé nézünk, ha már a legpénzesebbnél is problémás a fejlesztés finanszírozása. A többieket már rég (úgy 10 éve) elérte ez, úgyhogy valami új dologra lesz itt hamarosan szükség. Én reménykedem benne, hogy ez majd színesebbé teszi a piacot, a kreativitás megint szerephez jut, és lesznek megint olyan nevek, mint Cyrix, NexGen stb. -
Abu85
HÁZIGAZDA
Valószínű az is közrejátszik, hogy gyors átállásokban gondolkodnak már, így a 22 nm-es kapacitásból egyre több lesz kihasználatlan. A korábbi eladom és vége modell nem fog annyira működni, mert hónapokig ott fognak porosodni a gyárban a gyártósorok, miközben a gyár viszi a pénzt és nem tudja magát fenntartani. Gondolom látják, hogy milyen ütemmel dolgoznak most, és mennyi pénz a fenntartás, így félő, hogy a gyors átállásokkal veszteségessé vállnak. De ha a gyár fenntartja önmagát azzal, hogy más kihasználja a gyártósort, akkor még növelhetik is a nyereségüket. A befektetőknek nem tetszik az egész, de üzletileg abszolút érthető döntést hozott az új vezér. Még a kisebb csíkkal sem nyernek sokat a többiek, mert önmagában a fogyasztás ettől már nem csökken komoly mértékben.
-
dezz
nagyúr
Világos, de ez nem megoldhatatlan probléma. Az IBM-nek már több szabadalmaztatott eljárása is van számottevő mennyiségű hő elvezetésére a "szintek" közül.
(#81) erdoke: De az is látszik, hogy onnan már nem nagyon kell a továbbiakban visszavenni.
A kulcs az órajel és a feszültség, a kettő összefügg. Magasabb órajelekhez magasabb feszültség is kell, ami négyzetesen növeli a fogyasztást és ezzel együtt a hőtermelést. A többszintes procik a megszokottnál alacsonyabb órajelen fognak járni. Viszont elég nehéz olyan mikroarchitektúrát készíteni, ami alacsony frekin jó egyszálas teljesítménnyel rendelkezik. Rövid távon leáldozóban van az egyszálas teljesítménynek... Ezért nem izgatja magát emiatt az AMD sem. Inkább a többszálúsításra, párhuzamosításra próbálja rávenni a programozókat és ezt igyekszik meg is könnyíteni a számukra.
-
Gondolom, itt arra gondolt, hogy a csíkszélesség csökkentésével már nem nő a fogyasztás olyan mértékben, mint régen. Ha pedig nem csökken a fogyasztás számottevően, akkor nem tudnak több logikát rárakni ill. órajelet emelni. Ha csak annyi az előnye, hogy kisebb, akkor egységnyi felületnek arányosan olcsóbbnak kéne lennie, de itt is korlátoz a lábkivezetés, hiszen az nem lehet tetszőlegesen kicsi (lásd kicsi GPU-k keskenyebb memóriabusszal).
Aztán hiába van meg nekik kutatási szinten egy-egy gyártástechnológia előre, a tömegtermelés alatt is kibukhat valami, ami kis szériánál nem, lásd 90 nm, vagy most a 14. Én egyébként csodálkoztam, milyen könnyen vették a 22 nm-t a Tri-Gate-tel.
Azért azt jó lenne tudni, melyik processeket "nyitja meg". Lehet, hogy a 14 nm-es túl drágára sikerült, és marad szabad kapacitás, mert a kisfogyasztásúak túl drágák lesznek az ARM-hoz képest, az x86-ból meg nem lehet már annyit eladni, mint kéne. Az is lehet, hogy a régebbieket nem tudják már kihasználni, és lassan nem térülnek meg ilyen fejlesztési tempó mellett.
Én nagyon örülök ennek a hírnek, kb. tíz évvel ezelőtt meg kellett volna nyittatni velük a gyártósorokat, hogy élénkebb verseny legyen. Gyártáshoz mindig is nagyon értettek, architektúrákhoz már nem annyira -
dezz
nagyúr
Az egyes node-okhoz használt technológiák fejlesztése jópár évvel korábban kezdődik. Azaz amit mi most látunk, azt ők 5+ éve tudják. Ahhoz meg nem kell különösebb jóstehetség, hogy közeledik a fal, egyszerűen az atomok mérete miatt. Több éve folynak is a 2.5D és 3D fejlesztések. Én arról beszélek, hogy kicsit furcsa, hogy ilyen R&D kiadások mellett még nem piacérett.
-
VaniliásRönk
nagyúr
A trigate tranzisztorok 3D-sek, de ettől még teljesen 2D-ben vannak szervezve.
#69 Sir Ny: Az emberi agy mindössze kHz-es tartományban működik, de ezt brutális komplexitással ellensúlyozza. Másrészt az emberi agyhoz hasonlóan belső hűtést is lehet alkalmazni, az IBM több megoldáson is dolgozik.
#70 dezz: A 2.5D a rétegelt, a 3D az rendes 3D, ha azt megoldanák az igazi áttörés lenne, akár sokkal durvább gyártástechnológia mellett is.
-
dezz
nagyúr
válasz
VaniliásRönk #67 üzenetére
Én sem értem, ezekből a monumentális összegekből (ami egyébként szerintem túl sok, felmerül bennem a gondolat, hogy valamekkora részét nem is erre költik) miért nem 3D-ben kezdtek terjeszkedni már évekkel ezelőtt? A stacking megoldások is kísérleti fázisban vannak még.
(#68) Fiery: Nyilván több kapurétegű chipekre.
(Megjegyzem, valójában minden tranzisztor 3D-s, hiszen egymás fölött vannak az elemei.)
(#69) Sir Ny: De igen, ha a nagy mennyiség által lényegesen csökkenthető az órajel.
-
Sir Ny
senior tag
válasz
VaniliásRönk #67 üzenetére
a tranzisztoronkénti fogyasztást nem csökkentené pedig..
-
Fiery
veterán
válasz
VaniliásRönk #67 üzenetére
Mire gondolsz pontosan? Mar most is 10 reteguek a CPU magok, es az Intel 3D tranzisztorokat hasznal.
-
Fiery
veterán
válasz
#32839680 #63 üzenetére
Mi koze a "kezelhető fogyasztás"-nak a processzhez?
Marmint, barmilyen node megvalosithato 5 nm-ig (lefele), csak kerdes, hogy megeri-e a varhato fogyasztas csokkenes a processz kifejlesztesebe befektetett egyre tobb es tobb penzt. Az Intelnek 5 nm-ig vannak tervei, 2020-ig bezarolag, de minden processz valtas dollar tizmilliardokat (!) emeszt fel, beleertve az uj gyarak epiteset, felszerszamozasat, stb. is
Hogy 2020 utan mi lesz, az egy jo kerdes
Remelhetoleg legalabb egy gyartonak hamarosan lesznek arra az evtizedre is konkret tervei. Konnyen lehet, hogy a kovetkezo evtizedben mar nem az Intel lesz a vezeto ezen a teruleten, barki johet ugyanis egy vadonatuj otlettel, megoldassal, amivel beelozheti a jol megszokott "bagázst".
-
Cooley18
aktív tag
Nincs is annál jobb, amikor még a rivális eladásaiból is hasznot lehet húzni.
-
Crucio
aktív tag
válasz
atti_2010 #60 üzenetére
Volt is róla hír, hogy egyre nő a kisebb csíkszélesség kifejlesztéséhez szükséges költség, nem? Valamiért így rémlik
Egyébként szerintem a PC piac szűkülése is közre játszik benne, talán a befektetők/igazgatóság így vár plusz profitot..
Tudom, tudom, így is elég jól áll az Intel -
berVi
senior tag
Ez a hir leginkabb azert erdekes, mert par honapja meg azt jelentettek ki, hogy nem lesz ilyen.
-
SylverR
senior tag
Utálom ezt a hülye időkorlátos szerkesztést...
Kérem a moderátorokat, hogy az 53-as kommentem közbülső részét töröljék. Első és utolsó mondat maradhat, de törölhető a teljes komment is.Fiery: a 34-es kommentért bocsánatot kérek.
-
Oliverda
félisten
válasz
Blindmouse #55 üzenetére
A 32 nm-es még biztosan megvan, persze valószínűleg nem a 3 évvel ezelőtti kapacitással.
-
atti_2010
nagyúr
válasz
Blindmouse #55 üzenetére
Szintén, milyen tokozási technológiák érhetőek el?
Régi node -ok természetesen csak az Intel féléből lehetnek elérhetőek.
A tokozást máshol végzik ott csak a lapkák készülnek el. -
Blindmouse
senior tag
És akkor ezt azt is jelenti, hogy a régebbi node-ok is elérhetőek, vagy azok le lettek építve? Szintén, milyen tokozási technológiák érhetőek el? Tesztelés? Mert ha odavágják hozzád a 14nm-es szilíciumot, azzal nem sokat érsz.
-
dezz
nagyúr
A "dual vector/scalar design" egy az alapötletek közül. A megvalósítás és maga az architektúra nagyon más. A 16-wide vector ALU-ban pedig nincs semmi különös egy GPU-nál.
A GCN fejlesztésekor kiemelt szempont volt a GPGPU-s kódok futtatásának hatékonysága, így adja magát a dolog. (Az összetettebb kódok futtatására való alkalmasság a VLIW-re jellemző egyszerűbb shader fragmentek tömegeinek "blokkosított" futtatása helyett.)
(#29) Fiery: Szerintem ezek nem egymás "majmolása". Hanem fontos fejlesztések szükségszerű átvétele.
(#53) SylverR: Azt nem Fiery írta.
-
Abu85
HÁZIGAZDA
A Larrabee főtervezője John Gustafson volt. Ő volt az első, aki az Intel vezetőségének megemlítette, hogy az egész jó ötlet, de nem fog működni. A Knights Ferry-ről le is állt és a Knights Cornert kezdte fejleszteni úgy, hogy skálázódjon. Aztán ráhagyta a vezetőséggel a harcot és átment az AMD-hez. Andrew Richards is otthagyta a projektet még a Knights Ferry lelövésénél. Ő a szoftveres oldalát biztosította volna a rendszernek, de egyetértett abban számos társával, hogy az x86 teher. Neki annyiban más lett az életútja, hogy nem ment át az AMD-hez, de akkor hagyta ott a Larrabee-t, amikor az FSA (HSA elődje) először felmerült ötletként. Most a HSA egyik nagy támogatója a MulticoreWare-en keresztül, ilyet akart az Intelnél is kierőszakolni, csak nem akart harcolni a vezetőséggel.
-
Sinesol
veterán
Pedig van hasonlosag a larabee es a gcn közt...
"I can’t help but to also make a comparison to Intel’s aborted Larrabee Prime architecture here. There are some very interesting similarities between Larrabee and GCN, primarily in the dual vector/scalar design and in the use of a 16-wide vector ALU. Processing 16 elements at once is an incredibly common occurrence in GPUs – it even shows up in Fermi which processes half a warp (16 threads) a clock..... "
Na de mind1 valoszinüleg te jartasabb vagy a temaban, nem vitatom én mindössze sajat eszreveteleimnek adok hangot mar ha szabad...
-
-
dezz
nagyúr
Ez nem így van. Attól, hogy a Larrabeen dolgozó mérnökök is bekerültek a csapatba (már ha igaz), a kettő felépítése teljesen más. Nem írnál ilyet, ha kicsit is ismernéd őket.
(#45) Abu85: Egyes ötleteket persze vehettek át. Főleg, ha publikus volt és nem védte szabadalom. Bár szerintem valami nagyon alap ötletekről van szó.
-
Abu85
HÁZIGAZDA
Sok ötletet lopott a GCN a Larrabee-től. Az Intel eleve nagyon világgá kürtölte, hogy milyen ötletei vannak. Ezek előnyeit nem nehéz észrevenni, és beépíteni az aktuális fejlesztésbe. De a legfőbb Larrabee-s mérnökök akkor mentek át az AMD-hez, amikor már a GCN kiadásra várt. Tehát nem ők rakták össze, csupán az AMD elolvasta a Larrabee-s doksikat és beépítették a jó ötleteket. Ezért nem érdemes a termék megjelenése előtt 5-6 évvel elmondani, hogy minek is készül, és több oldalas doksikban részletezni, hogy ezt hogyan érik el.
-
Sinesol
veterán
Pedig igy van, a Larabee-t fejlesztö mernökök kerültek az Amd-hez es ott volt lehetösegük elhagyni azokat a butasagokat mint pl az x86 eröltetese amiket az Intel nyomatott es amik miatt müködésképtelen bukas volt...
Ebböl lett a Gcn ami szinte a javitott Larabee csak a hibai nelkül és igy ilyen formaban tökeletesen müködöképes. -
dezz
nagyúr
"Hat mivel a Larabee-re epül a Gcn"
Semmi köze hozzá. Honnan lehet ilyen baromságokat szedni?
(#29) Fiery: Csak nem mert reverse-engineeringet folytatott az Intel, majd amit tanult, be is építette a saját termékeibe, és miután az AMD beperelte, utólag megegyeztek.
[link] (Kb. amiért 20 éve haragszol az AMD-re, csak nekik még előzetes megállapodásuk is volt, amit az Intel felrúgott, de egy bíróság első fokon már az AMD-nek adott igazat és ezzel feljogosította a műveletre.)
Bár kérdéses, hogy ez az újabb fejlesztésekre is vonatkozik-e, mint pl. GCN.
(#42): Az, hogy neked kínai, nem jelenti azt, hogy egy procitervezőnek semmiség valóban rendesen átlátni és megérteni (nem csak olyan műkedvelő szinten, hogy ez itt a regiszterkészlet, stb.).
-
Fiery
veterán
A GPU-k mukodeset viszonylag egyszeru atlatni, hiszen rengeteg ismetlodes van bennuk. De egyebkent ha fogsz egy modern CPU-t, es lefejted rola a bazinagy ismetlodo reszeket (pl. L2, L3 cache-ek), letakarod az uncore-t (az ugysem annyira izgalmas -- egy-ket kivetellel) meg az iGPU-t, es a klasszikus x86 magok kozul csak egyet nezel, akkor az is egy atlathato dolog tud lenni, ha valaki arra megy ra, hogy megertse a mukodeset. Erdemes megnezni pl. hogy milyen pici egy Jaguar vagy Silvermont mag, ha a cache-ek, uncore es iGPU nelkul nezzuk.
Az, hogy nekunk kinai egy CPU vagy GPU die shot, hogy sokaig tart ertelmezni egy GCN vagy Fermi melylelektant targyalo cikket, az nem jelenti azt, hogy aki CPU (vagy GPU) tervezessel foglalkozik, az ne látná at par honap alatt egy konkurens architektura mukodesenek lenyegi reszeit. De velhetoen nem ezzel torodnek a legtobbet, hiszen ha jol megnezzuk, nem az latszodik a GPU-piacon, hogy egymast masolgatnak a cegek (1-2 kivetellel, tudom-tudom), hanem mindenki sajat kutfobol tervezget es fejleszti a sajat agyszulemenyet.
-
Fiery
veterán
"Komolyan vicces Fiery Intel-imádata"
Csak azert, mert azt irtam, hogy a GCN-t ismeri az Intel kivul-belul, es odairtam, hogy ez visszafele is igaz? Vagy az a felmondat mar nem kerult elolvasasra? Vagy csak nem sikerult ertelmezni? Akkor leirom egyertelmuen: az AMD is ismeri kivul-belul az Intel iGPU-k (es az nVIDIA dGPU-k) mukodeset, felepiteset, trukkjeit (ha vannak olyanok). Amugy meg fejezd be a szemelyeskedest, a kutya nem kivancsi a szemelyeskedesre, ez egy szakmai topic.
-
Thrawn
félisten
Ha egy Chipworks ilyen szinten ki tud vesézni egy chipet, szerinted az Intel mit tudhat?
Sir Ny: Öööö, HE? Ezt hol írta?
#37: Óvatosan az efféle benézésekkel, mert csak úgy izzik a levegő már hetek ótaSylverR rá is cuppant anélkül, hogy ellenőrizte volna a forrást. Hiba
-
Thrawn
félisten
Ó dehogynem, mindent tudnak a teljes felépítéséről
-
Sinesol
veterán
Hat mivel a Larabee-re epül a Gcn nemvaloszinü hogy hatalmas csodákat látnának...nemvaloszinü hogy különösebben erdekelné az Intelt...
Masreszt meg mire 2-3 ev mulva mainstream vonalon beérik a dolog és csak Apu-k lesznek megfelelö szoftveres környezettel akkorra mar amugyis vege lesz a Gcn skalazhatosaganak és uj architecturaja lesz az Amd-nek is...valoszinüleg már most is készen van a tesztlaborokban.
Kb azt a szintet kell akkorra elérnie az Intelnek de van idö meg böven addig kiderül mi lesz. -
dezz
nagyúr
Ha az AMD nem gyártat velük, az nem kis részben azért lesz, hogy ne könnyítsék meg a GPU technológiájuk kiismerését.
(#21) Kopi31415: Szitán.
-
Sinesol
veterán
Amennyi baja volt mar az Amd-nek a GloFo-val a helyükben inkabb váltenék Intelre.
Elég vastagon benne van a gyartastechnologiai elöny is az Intel dominans szerepeben, az Amd-nek mindenképpen megérné beülni a tutiba
A pénznek nincs szaga mindenki jol jarna.Habár ha hirtelen javulnanak az Amd cpu-k akk valoszinü nem lenne rest árat emelni az Amd, akkor mar böven megtehetné, ostobasag lenne azt hinni hogy törödnek a vasarloikkal, nekik is csak a profit számít, csak ma még nem kerhetnek többet... egyelöre.
-
-
Abu85
HÁZIGAZDA
A konzol az Intelt sosem érdekelte. Az sem érdekli őket, hogy az AMD-re építenek. Maximum az érdekli őket, hogy az AMD a PC-re is át akarja hozni a konzolokból származó előnyét. De ettől sem fostak be, mert csak a hardcore gamer piac veszik oda, az Intelt pedig ez nem igazán izgatja. Sokkal több figyelmet szentelnek a casual gamer rétegnek. Az érdekelni fogja őket, ha az AMD itt is izmozni akar a GCN-nel és az alacsony szintű eléréssel, de erre még nem utal semmilyen akciója a konkurensnek. Ugye a Plants vs. Zombies Garden Warfare inkább csak névben lesz casual, de inkább komolyabb cucc lesz játékmenetben.
-
kcsa
veterán
Szerintem simán vállalják AMD-nek is a gyártást. Max olyan árat mondanak, hogy ne akarjon odamenni
-
Abu85
HÁZIGAZDA
JHH nem akarja eladni az NV-t. 6 éve sem akarta és ma sem akarja, csak akkor, ha a felvásárló cég vezére lehet. Ugyanez állt az AMD+NV fúzió útjában és ugyanezért nem vette meg őket az Intel. Ma már kár ezen rágni magukat, mert az NV az ARM-ra építi a GPU-it, tehát ha meg is vásárolják őket, akkor az Intelnek át kell állnia ARM-ra. Az a baj, hogy a nulláról 5 év tervezni valamit, addig pedig kellenek a termékek. 6 éve kellett volna megvenni az NV-t, mert ma már annyira más irányba mennek, hogy egy mai fúziónak leghamarabb 2017-re lenne eredménye.
-
Mate
nagyúr
Köszönöm a tudattágítást
Érdekes a dolog.
Lehet valóban rövidtávon érné csak meg Intelnek a dolog, bár látszólag nagyon messze vannak még az AMD szinttől.
Továbbá azzal, hogy amd-re épülnek az új konzolok, így intelnek nagyon meg kell becsülnie minden egyes százalékos piaci részesedést, mert eléggé egy lábon állnak. Bár már telefonokat is csinálnak intel x86 alapokra, amik tudásban és fogyasztásban egyáltalán nem rosszak.
-
Egon
nagyúr
Pár évvel ezelőtt, egy ilyen összeolvadás Abu rémálma volt -ergo biztos jó lett volna...
Mostanság azzal szokta nyugtatgatni magát, hogy egy ilyen akció már elkésett: az AMD több év előnyben van, így már nem opció az Intel számára.
Az igazság valszeg Fiery-nél van (legalábbis én is így gondolom): mivel az Intel teljesen eltérő úton jár, pár éves távlatban (amíg ki nem derül, hogy az adott fejlesztések - avagy innovációk, hogy Abu-t idézzem...- életképesek-e vagy senem), nem nyernének az nV-vel semmit.
No meg az sem növeli egy fúzió/felvásárlás esélyét, hogy a két cég a múltban már párszor erősen ferde szemmel nézett egymásra (ez nem utalás Huang papa rasszára...).
-
Fiery
veterán
válasz
#25954560 #11 üzenetére
"szinte biztosra veszem h csinalnak par even belul arm-os procit is, hogy le tudjanak fedni olyan teruleteket is, ahol eddig nem voltak jelen."
Kizart. Mar most is van kozvetlen ARM-konkurens termekuk x86 alapokon (Bay Trail), ami felveszi a versenyt az ARM-okkal. Raadasul ott a Quark is, amivel lefele terjeszkednek, es az is x86. Biztos lehetsz benne, hogy nem fognak ARM-mal vacakolni, ha x86 alapokon is tudjak ugyanazt a teljesitmenyt es teljesitmeny/fogyasztas arányt produkalni.
-
#25954560
törölt tag
az intel 'vegtelen' eroforrassal rendelkezik, nem akar osztozkodni.
bebuktak mar az i740-nel korabban, viccesek voltak az eddigi integralt gpu-i is, de most mar haladnak valamerre.
es a piac meg mindig nem az APU-kat igazolja, csak nehany teruleten.
korabbi hir volt h arm-ot gyart az intel. mar akkor sejtheto volt h barkinek fog barmit. ami nekem nem tiszta, hogy mennyi tudast szereznek ok ezzel. szinte biztosra veszem h csinalnak par even belul arm-os procit is, hogy le tudjanak fedni olyan teruleteket is, ahol eddig nem voltak jelen. -
Fiery
veterán
Abszolut logikus lenne egy Intel-nVIDIA fuzio, de az nVIDIA CEO-ja Jen-Hsun Huang -- allitolag -- egesz mashogy kepzeli el ezt a fuziot, mint az Intel vezetosege. Jen-Hsun mindenkepp a fuzionalt Intel-nVIDIA CEO-ja akarna lenni, az Intel pedig inkabb megtartaná az aktualis vezerkarát. Ergo az Intel klasszikus akvizicioban (ceg felvasarlas) gondolkozik, mig az nVIDIA inkabb fuzioban. Raadasul, es ez talan még nagyobb baj, az Intel most teljesen maskepp kepzeli el a PC-s grafika es GPGPU vonal jovojet, mint az nVIDIA, teljesen mas utat valasztottak. Ha az Intel tervei bejonnek, akkor nem lesz szukseguk az nVIDIA-ra -- ha nem, akkor azzal nagyot zakozhatnak, de akkor még mindig ott lesz az nVIDIA-val valo fuzio mint opcio.
-
Mate
nagyúr
Kezdeném azzal, hogy segg hülye vagyok a témához, de régóta foglalkoztat valami.
Az AMD megvette ügye anno az ATI-t aminek következtében (gondolom én) tudnak nagyon jó APU-kat gyártani (legalábbis úgy tudom, nagyon egyszerűen fogalmazva, hogy így hívják azokat a CPU-kat amik képet is adnak)
Míg a másik két fő piaci versenyző az intel és az nvidia csak saját területekön jeleskednek. Értem ez alatt, hogy intel ütős cpu-kat, míg nvidia ütős vga-kat tud letenni az asztalra.
Nem érné meg nekik összefogni és együtt fejleszteni procikat amivel fel tudnák venni a versenyt ati-val?
-
Taragas
aktív tag
De azért kész lenne, ha az amd így tudná leküzdeni a gyártástechnológia hátrányt... És a poén az lenne, hogy mind két fél jól járna...
-
DaveJr
őstag
Szerintem pont azok lehetnek a potenciális bérlők akik a TSMC gyártó soraihoz korlátozottan férnek hozzá. A kapacitás jelentős részét viszi el az nVidia és talán még az AMD is gyártat velük GPU-t, bár ezt lehet h rosszul tudom.
Biztos, hogy jót fog tenni a piacnak ez a dolog. Szerintem még az ár csökkenés is várható lesz, mert több helyen több chip jöhet ki -
Szerintem az utolsó rész lehet itt a lényeg... sokba fáj az új gyártástech.
Kell egy kis haszon mástól is beszedve. -
Youri
veterán
AMD, Diffused by Intel
Új hozzászólás Aktív témák
- Samsung Galaxy S25 - végre van kicsi!
- Milyen kompakt digitális fényképezőgépet?
- Sweet.tv - internetes TV
- iPhone topik
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- Milyen légkondit a lakásba?
- Kerékpárosok, bringások ide!
- Apple Watch Sport - ez is csak egy okosóra
- Nintendo Switch 2
- Tőzsde és gazdaság
- További aktív témák...
- Apple Watch Series 7 GPS+LTE 41mm
- Asus ROG Strix G713PI 17.3" QHD IPS Ryzen 9 7845HX RTX 4070 32GB 1TB NVMe gar
- Dell Latitude 7400 !!14" full hd, i7 8665U, 16GB RAM, 512 Gb SSD, jó akku, szép állapot!
- Professzionális fotó- és videófelszerelés bérlés
- XPS 7590 15.6" 4K IPS érintő i7-9750H GTX 1650 16GB 512GB NVMe ujjlolv gar
- Epson Workforce DS-530II dokumentumszkenner
- Azonnali készpénzes Intel i3 i5 i7 i9 12/13/14 gen processzor felvásárlás személyesen / csomagküldés
- ÁRGARANCIA!Épített KomPhone Ryzen 7 7700X 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- GYÖNYÖRŰ iPhone 11 128GB Red -1 ÉV GARANCIA - Kártyafüggetlen, MS3126, 98% Akkumulátor
- Samsung Galaxy A32 5G 128GB, Kártyafüggetlen, 1 Év Garanciával
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest