Keresés

Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz TTomax #14 üzenetére

    Ez is ugyanolyan pasztás, mint az Ivy Bridge. A 22 nm nem viseli el a kupak forrasztását. Annyiban romlott a helyzet az Ivy-hez képest a hőmérséklet szempontjából, hogy az integrált VRM extra hőt termel. Persze lehet ezt is kupaktalanítani, és akkor jobban hűthető. Esetleg vannak az alaplapra tokozott megoldások. Azok kupak nélküliek mindig.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz haly #24 üzenetére

    Jobb paszta van benne, de a változás azért nem szembeötlő, mert a VRM integrálásra került. Tehát amennyi hőt termelt régen az alaplapon a VRM, azt mostantól a lapka termeli. Ezért látszanak romlónak eredmények, de a VRM hőtermelését kivéve a képletből valójában javult a hőelvezetés, csak a Haswell eközben sokkal több hőt is termel, tehát végeredményben az Ivy mögött van ebből a szempontból.

    (#25) TTomax: Ha a Broadwellre gondolsz, akkor az jelenleg nem szerepel LGA1150-es formában az útiterven. Abból nagy az esély, hogy csak alaplapra tokozott megoldás lesz. A Skylake a következő LGA tokozású Intel APU két év múlva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Bici #34 üzenetére

    Mert erre az alkalmazásra optimalizálnak drivert, míg az AMD és az NV nem.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz zoltanz #37 üzenetére

    Fagy az Intel OpenCL driverével. Azért nincs benne. Majd később, ha több időnk lesz, akkor felrakjuk az AMD OpenCL driverét az Intelhez is.

    (#39) Bici: Dolgozunk rajta, csak nyakunkon a Computex, így arra is készülni kell. Mi is azt valljuk, hogy valós alkalmazás kell ide, de ezeket nem lehet csak úgy berakni, mert úgy járunk, mint az OpenCL-es x264-gyel, és azt nem szeretjük teszt közben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Klikodesh #85 üzenetére

    Az integráció nem igazán jó nekik, mert ezt is igen komoly áron tudják skálázni. A GT3-as IGP 1,2 milliárd tranzisztorból áll, és csak az eDRAM mellett gyorsabb, mint az AMD 600 millió tranzisztort használó előző generációs IGP-je. Tehát eDRAM nélkül konkrétan lassabb. Erről írtam, hogy ezt a mostani architektúrát még nem lehet úgy skálázni, mint a konkurens megoldásokat. Gyakorlatilag 600 millió tranzisztor csak arra megy el, hogy minden elemével megduplázzák a shader+render blokkot. Ennél a Kepler és a GCN, de még a VLIW4 is nagyságrendekkel rugalmasabban skálázódik, mert a blokkok nincsenek egymáshoz kötve. A következő lépcsőben valószínű az a logikus lépés, hogy találjanak egy jobb utat a skálázásra, és úgy duplázzák meg a teljesítményt, hogy közben a tranzisztorszámot nem növelik egyáltalán. Ez nehéz ügy, de meg kell csinálnia az Intelnek, mert egy nagyobb generációváltással később már egy milliárd tranzisztort is el lehet egy logikátlanul épített architektúra skálázásával pazarolni.
    Csak, hogy miért lényeges ez az tranyószám. Az AMD ugyanennyi tranzisztorból HD7750-nel megegyező IGP-t épít. És az NV is képes lehet jóval nagyobb teljesítményre a megadott keretből. Ha az Intel nem csinál másik architektúrát, akkor nagyjából két és félszer több tranzisztorból álló IGP-vel tudják a konkurens IGP-k teljesítményét hozni. Tehát az integráció az Intelnek addig nem kedvez, amíg nem skálázódik jól az architektúrájuk.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz =WiNTeR= #115 üzenetére

    Semennyivel. Ez az architektúra a határait feszegeti. Már így is szinte mindent megdupláztak benne, amit volt értelme, és pár százalékra volt elég. Maximum több magot lehet beletenni.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Graphics #117 üzenetére

    Nem olyan könnyű azért egy procit lesarkazni. Nyilván lehetséges lesz ezt is, de nagyon szakszerűtlenül kell ahhoz a hűtőt felszerelni, hogy ebből gond legyen. Szóval ez nem hiszem, hogy problémát jelent majd a kupak nélküli Intel prociknál.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz UnSkilleD #121 üzenetére

    A Skylake az a jelenlegi doksik szerint egy olyasmi fejlesztési szint lesz, mint az év végén érkező Kaveri. Főleg az IGP-re koncentrál vele az Intel. Egy új architektúra lesz és mély integráció. De erről még nagyon kevés az adat. A processzor teljesítménye nem fog lényegesen javulni. Többet számít, hogy az új IGP legyen nagyon erős, skálázódjon és legyen a processzormagok teljes értékű koprocesszora.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Klikodesh #148 üzenetére

    Nem a jobb-rosszabb architektúráról van szó, hanem arról, hogy valami skálázható-e. Rengeteg cég tervez ma GPU-t. Nem csak az AMD, az NV vagy az Intel, hanem ott vannak a mobilban nyomuló vállalatok. Egy tucat cég legalább van. GPU-t összerakni nem nehéz. A működő GPU-t már kihívás, de ami igazán nehéz az a skálázódó GPU. Oka van annak, hogy ma csak az AMD és az NV tud 2-300 wattos tartományban skálázni. Ez az ok pedig a tervezés, azzal a 20 év tapasztalattal, ami mögöttük van. Ezt röviden nagyon nehéz elmagyarázni, de ha ránézel egy GCN és egy Kepler GPU-ra (lehetőség szerint valami nagyobb lapkára, mert azon jobban látszik), akkor szembeötlő, hogy mennyire sok blokkból állnak, de ami érdekes, hogy ezeket a blokkokat úgy tudják skálázni, hogy egymástól elkülönülnek és x-y blokk elhelyezésével a teljesítmény közel lineárisan nő a gyakorlatban ezzel megközelítve az elméletben várt értékeket. Az ultramobil részen tapasztalt cégek ettől nagyon messze vannak, bár az is igaz, hogy ők 2 watt alá is benéznek, viszont 20 watt fölé már nehezen mennek, jórészt nem is erőltetik ezt a szintet. Elméletben ezek az architektúrák is skálázhatók, csak nagyon romlik a hatásfokuk egy bizonyos szint után. Viszont, ha más fogyasztási tartományban is, de az ultramobil megoldások is igen szépen skálázódnak. Főleg az új architektúrák. Az Intel van ebből a szempontból a legjobban lemaradva a Gen6-7-7.5 generációval. Nekik minden extra feldolgozóblokkhoz (ami most két shader és egy render tömbből áll) új setup motort kell tervezni, amit a többi cég már nem tesz meg, mert beletervezték a rendszerekbe, hogy azok bizony skálázódni fognak. Egyszerűen raknak bele x-szer több setup részleget. A másik gondja az Intelnek, hogy a feldolgozóblokkot konkrétan le kell másolniuk, vagyis egy blokkhoz képest a két blokk, az kétszeres tranyószám, a három háromszoros, a négy négyszeres és így tovább. Tehát minél nagyobb teljesítményt kell építeni ezzel az architektúrával, annál nagyobb az elpazarolt tranzisztorok száma. Ez a probléma, és ez nem fenntartható. Ezért az integráció az Intelnek a legrosszabb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Klikodesh #323 üzenetére

    Erre nem tudok reagálni, mert nem én teszteltem, Oli pedig majd csak Tajvanban lesz legközelebb gépközelben.

    (#327) fordfairlane: Már ebben a generációban kellett volna alternatíva. Amikor konkrétan a teljes felépítést kell megduplázni, az azt jelenti, hogy elérte az architektúra a határait. Nyilván nem csak nekem tűnik fel, hogy az 1,2 milliárd tranyóból nem tudják hozni az AMD előző generációs architektúrájának a teljesítményét, ami ráadásul fele annyi tranyóból áll. Az eDRAM az egyetlen dolog, ami előnybe rakja az Intelt (kivéve MSAA-val, mert az nagyon gyenge hatásfokkal működik még mindig, pedig csak a Z mintavételezőket kellene négyszerezni), anélkül nem elég jó a hardverkonfiguráció, szóval az IGP-t tervező csapat rendkívül vérszegény munkát végez. Ha ennek a teljesítményét a következő körben 50%-kal növelik, akkor az 1,8 milliárd tranzisztor, hozzávéve a setup motornál szükséges modernizálást gyakorlatilag 2 milliárd tranyót kell költeni az IGP-re. Csak összehasonlításképpen ennyi tranyóból építette az AMD a Bonaire-t (HD 7790), vagy az NV GF114-et (GTX 560 Ti) annó. A GT3 IGP+50%-ot mindkét cég kihozná 700-800 millió tranzisztorból. Minden esetben feltételezve az azonos memsávszélt az IGP-knek.
    Ami az érdekes, hogy mi lesz helyette. A Gen7.5 működik, de nem skálázható jól. A Larrabee jobban skálázható, viszont nem működik. A harmadik opció a ZiiLabs, amit éppen felvásárolt az Intel, de ezt meg nem grafikai számításokra tervezte a Creative. Nincs is az architektúrában textúrázó, hanem emulálja azt, sőt, mindent emulál.
    Feltételezve azt, hogy a Gen7.5-ön kívül nincs semmi az Intelnél az aktuális architektúrát kellene gatyába rázni. Én helyből kezdeném a shader tömbökkel. Az EU-kban a két 128 bites vektormotorból az egyiket el kell dobni. Felesleges az a 4+4 co-issue. Nem véletlen nem épít senki ilyen rendszert. A tömbökben 256 kB-os URB van. Elég 64 kB is. A programokat eleve 32 kB-os LDS-re optimalizálják, így nyolcszoros méretű tárat annyira értelmetlen fenntartani, a kétszeres még elmegy, annak még van értelme. Mivel kevesebb az ALU, így egy textúrázót el kellene dobni a tömbökből. A render blokkokból az L3-at ki kell vágni és egy LLC után helyezett közös tárra lenne szükség. Abból is elég 128 kB, így nem kellene minden render blokkal 256 kB-os büntit elviselni a tranyóhasználatnál. Ezek lennének az alapvető változások, amelyeket én logikusnak látnék. Rengeteg tárat ki lehetne dobálni a hardverből, és alapvetően a teljesítményt ez nem befolyásolná.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #366 üzenetére

    Az Intel sematikus tranyószámokat ad meg. Az a tervben annyi, de gyakorlatban sok tervben szereplő tranyó egy helyett négy lesz. Ugyanaz a móka, mint a Sandy és az Ivy idején. Az Intel a valós helyett megint a sematikust tartja fontosnak. Az 500 millió valós tranyó a fullos feldolgozó blokk és 200 millió a setup. Mivel a GT3 konkrétan kétszerezi a blokkot, így 1,2 milliárd a végeredmény.
    Az eDRAM nélküli GT3-as IGP 10-30%-kal lassabb az eDRAM-os verziónál. Ez alatta van az A10-5800K IGP teljesítményének.
    Ezt az architektúrát vagy gyökeresen átdolgozik, vagy kidobják a kukába. Az nem versenyképes, hogy kétszer több tranyóval sem hozza a konkurencia teljesítményét. Az eDRAM az jó dolog, de remélhetőleg nem vezeti félre az Intelt, mert ha ezt az irányt viszik tovább, akkor irtózatos többlettranzisztort költenek majd az IGP-kre a jövőben.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz madgie #403 üzenetére

    Az MS és a Sony is a szokásos termékciklusra készül. Ezúttal a konzolok helyzete annyival jobb, hogy a PC ma igen messze van tőlük tudásban. Ez akár hosszabb életciklusra is lehetőséget ad.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Enszuke #406 üzenetére

    Nem érted félre. Ez a baj. Ezért rossz ez az architektúra. Pakolják bele a tranzisztorokat, duplázzák a végrehajtókat, és mindezek ellenére nagyon messze van a teljesítménynövekedés a lineáristól. Ezt a jelenséget úgy hívják a GPU-knál, hogy a skálázódás valamilyen limitbe ütközött. A limit az kérdés, de valószínűleg elég komplex lehet a gond. Kell egy radikálisan új architektúra.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sinesol #408 üzenetére

    Nem érted. Bármennyi feldolgozót belepakolnak ebbe nem fog skálázódni, vagyis nem nő majd a teljesítmény lineárisan. Akár 5000 feldolgozó tömböt is belepakolhatnak, és csinálhatnak 1 m^2-es chipet is, de amíg limitbe ütközik valahol a feldolgozás, addig nem nő a teljesítmény. Ez az architektúra elérte a végét. Abszolút nem gazdaságos skálázni. Tervezni kell helyette egy másikat. Lehet egyébként ennek köze van ahhoz, hogy az Intel pár éve pont megkérdőjelezte azt, hogy a GPU fejlesztők minek cserélnek 4-5 évente architektúrát új ISA-val és minden mással. Nos, hát azért, hogy ne ütközzenek ilyen gondba.

    (#409) madgie: Az új konzolok is kitudnak számolni 4K-s képet. A hardver képes rá, csak a fejlesztők szerint nincs értelme.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz HeavyToys #415 üzenetére

    Ha terveznek egy sokkal jobban skálázódó architektúrát, akkor igen.

    Majd jön. Ha elmondom pontosan, akkor kiherélnek.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Enszuke #422 üzenetére

    Nem a semmiért, de messze van attól a szinttől, amit elméletben hoznia kellene egy duplázásnak. A sebesség többsége az eDRAM-ból származik. Azt lehagyva sokkal rosszabb lenne az előny. Itt alapvető gondok vannak az architektúra működésével. Soha nem láttam ilyet GPU-tól, így nehéz ezt hova tenni, de tisztán látszik, hogy sok tranyót igényel, és gyenge a skálázódása.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz P.H. #427 üzenetére

    Mindenképp az új architektúra a nyerő, mert az izomból megoldás két generáció múlva 1-1,5 milliárd tranzisztor elpazarlását jelenti. Ráadásul nem tudni, hogy hol a limit. Ha az ISA a gond, akkor van egy pont ami után már nem alacsony a skálázódás, hanem konkrétan megszűnik. Ha ezt elérik, és nincs új architektúra, akkor az négy év vegetálás egy teljesítményszinten. Kizárt, hogy ez a kockázat megéri az izomból verziót.
    22 nm-en annyira nem teszi helyre a dolgokat. Ott van a Radeon HD 7660D az Iris Pro 5200 mögött. A GRID 2-ben előtte, és ez az első Intel támogatású játék, amit a hardverre optimalizáltak. És eközben a Radeon IGP-ben feleannyi tranzisztor van. Ezt a gondot nem lehet maguk előtt görgetni, mert a GCN jóval hatékonyabb, mint a VLIW4, és tényleg közel lineárisan skálázódik. A mobil vonalon is ha át akarnak állni a saját IGP-kre, akkor ott nem engedhető meg, hogy szokszázmillióval több tranzisztorból hozzák a konkurencia teljesítményét. A ZiiLabs felvásárlása egyébként itt értelmet nyer. Ennek a csapatnak a fejlesztése a legjobban skálázódó architektúra a piacon, ha nem is használják ezt fel, a szaktudást megvették, hogy mégis hol a titok a jó skálázáshoz.

    Az L4-et használhatja a proci is, de főleg az IGP-nek csinálták, illetve inkább adatmegosztásra. Ez a memória kvázi úgy működik mint az LLC, tehát az IGP oda ír ahova akar kvázi kontroll nélkül. De ez a procinak már nem olyan nagy gond, mint az IGP LLC-be írása az SB idején, mert a magok saját kis területét nem zavarja.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sinesol #430 üzenetére

    Igen. Akkor ezt félreértettem.
    Így ahogy írod jobban értem. És lényegében úgy van, ahogy írod. A konzolt a tudás szempontjából a Kaveri már idén beéri. A későbbi APU-k akár többet is tudhatnak, vagyis a konzol le lesz hagyva.
    A hardver szempontjából egy Kaveri és egy GCN-es Radeon VGA párosítása több tempót ad majd, mint a konzol, és ez már az év vége. Szóval a PC a hardver szempontjából elég hamar beéri a rendszereket. A legfőbb gond a szoftver lesz, mint mindig.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #458 üzenetére

    Desktop LGA1150-es Haswell eleve nem lesz GT3-mal.
    Mobil Richland lesz az ellenfele. Abból a 35 wattos verzió IGP-je 5%-kal lassabb, mint az 5800K IGP-je. De ez a verzió meg eleve feleannyit fogyaszt, mint az eDRAM-os mobil Haswellek.
    Skálázási verseny van, és az eredményekből tisztán látszik, hogy duplájára növelve az IGP blokkják a teljesítmény meg sem közelíti a duplázást. Ez az architektúra így nem jó. Szerintem ezt az Intel is látta az első teszteknél és azért vették meg gyorsan a ZiiLabsot bőven áron felül.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz gbors #476 üzenetére

    A GT3-at okkal nem hozzák le desktopra. Hiába duplázták meg a feldolgozók számát a teljesítmény a GT2-höz képest csak 20-30%-kal nőtt. A lényegi gyorsítást az eDRAM hozza, de az nem fér rá az LGA1150-es tokozásra. Én is furának tartottam, hogy nem lesz GT3, de én eleve úgy számoltam, hogy a kétszeres feldolgozó az közel 95% tempónövekedés lesz a GT2-höz képest. A gyakorlat azonban nem igazolja az elméletet, szóval így valóban teljesen értelmetlen a GT3-as IGP LGA1150-es prociba.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #480 üzenetére

    Nagyon nem fejleszthető értelmesen. Ha megduplázod a tranyószámot, de meg sem közelíti az eredmény a gyakorlatban a közel kétszeres gyorsulást ilyen kis teljesítménytartományon belül, akkor az az architektúra a határaihoz közelít.

    A6-5400K: 3DMark11 - 900 pont körül
    A10-5800K: 3DMark11 - 1650 pont körül
    Ennek így kell skálázódnia.

    (#484) Atom_Anti: Tekintve, hogy az IGP teljesítményét vizsgáljuk csak, így ez az ami számít.
    Minden mobil IGP állítja az órajelet. A Richland Radeon HD 8650G még igen vállalható ebből a szempontból, hiszen 600-720 MHz-ig tart ez a tartomány. Ha 120 MHz zavar, akkor a Haswell IGP-k 200-1300 MHz-es tartományától sikítófrászt kapnál. De ezek az órajeltartományok bevett dolgok a mobil termékeknél, nem olyan nagy probléma, hiszen a mobil eleve egy kompromisszum.

    (#498) gbors: GT3 tesztből csak a 3DMark graphics score lesz érdekes, mert csak a U és az Y procik kapnak ilyen IGP-t. Semelyik más. De már megerősítették, hogy a GT3 az azonos órajelen ~15%-kal több, mint a GT2. Ez nagyon kevés az én nézőpontomban, hiszen a feldolgozókat konkrétan megduplázták mindenhol. Ebből a szempontból az is érthető, hogy miért nincs GT3 a normál fogyasztású termékekben. +15%-ért nem éri meg még 500 millió tranzisztort beépíteni egy chipbe. Az eDRAM segít rajta, de az architektúra elérte a skálázási határt.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #504 üzenetére

    Mivel ki akarjuk zárni a processzort a képletből, így csak a 3DMark graphics score a használható, mert az előre számolt jelenetekkel dolgozik, így bármilyen processzor mellett megegyező eredményt ad az IGP teljesítményére.
    Minden programban bottleneck? Fura lenne, de nyilván elképzelhetőnek tartanám, ha az Intel a GT3-as dizájnt nem csak az U-s termékeknél vetné be. Inkább tűnik ez egy olyan döntésnek, hogy a GT2->GT3 váltás teljesítményelőnye más modellekben nem ér meg plusz 500 millió tranzisztort.
    Szerintem logikus a GT3-at valahova berakni. Nem a teljesítményelőny miatt, hanem hogy lássák hol van a limit.
    Skálázódási gondokra pedig nem először látnánk példát. A Larrabee is azért nem jött VGA-nak, mert 10-12 mag beépítése után a skálázás megszűnt a grafikus programokban. Hiába raktak bele még 2x magot a teljesítmény nem nőtt. A GMA alapjaira épülő architektúrát azaz a Gen7.5-öt lényegében most skálázza először az Intel. Amikor tervezték az alapokat lassan 8 éve nem biztos, hogy gondoltak arra, hogy itt ezt még skálázniuk is kell majd egyszer.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz MongolZ #502 üzenetére

    eDRAM-ot sehogy sem tudunk szimulálni. Ezt lehetetlen megnézni így.

    (#508) Enszuke: A 3DMarkban kizárt. Ebben a programban most pont az a jó, ami amúgy rossz. De nekünk pont arra van szükségünk most, hogy a proci legyen kizárva, hogy az IGP állandó turbón menjen.

    (#509) lenox: Nem az architektúra a gyenge, hanem a skálázódás fura. Logika azt diktálja, hogy ha kétszer több tranyót építesz be, akkor legalább egy 90% pluszt jelent teljesítményben. Főleg figyelembe véve, hogy tényleg megduplázódott az összes egység. Ehhez képest még az eDRAM-os verzió 1,2 milliárd tranzisztoros IGP-vel képes kikapni egy HD 7660D-től a GRID 2-ben például, ami egy erősen Intel szponzorált játék. Utóbbinak se eDRAM-ja nincs, illetve csak 600 millió tranyó van az IGP-jében. Ezt nem mondanám jó rendszernek. Itt valami baj van, mert ennek elvben kétszeresen vernie kellene az említett játékban a HD 7660D-t. Ilyen eredményekkel ez minden csak nem jól működő architektúra. Ettől még a termék nem gyenge, csak ilyet még nem láttunk GPU-tól. Legalábbis a gyakorlatban nem. Nyilván elvben a Larrabee ugyanilyen problémával küszködhetett, de azt nem tudtuk tesztelni, mert el lett kaszálva.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #520 üzenetére

    Vannak gyártói eredmények. Furán teljesít mindenhol. Persze ez relatív, de mondjuk úgy, hogy nem 20-30%-ot vártam egy IGP duplázástól.
    De még ha a skálázódást nem is számoljuk bele, akkor is sok sokszázmillió tranyótöbblettel hozni egy konkurens kifutó architektúra teljesítményét ... Az AMD Cape Verde Prót épít ennyi tranyóból egy IGP-be. Ez így nagyon nem jó. Mivel tisztán látszik, hogy a Genx architektúrát nem skálázásra tervezték, így logikusnak tartom, hogy a tranyótöbblet a blokkok konkrét duplázásából ered. Így csak az ultramobil réteg tervez GPU-t, de ott nem jelent gondot ennek a skálázása, mert TBR architektúrákról van szó. Az AMD és az NV már felosztja a rendszert 10 különálló blokkra és azzal skáláznak. Utóbbi nyilván sokkal hatékonyabb.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #525 üzenetére

    De mi nem a rendszer skálázhatóságára vagyunk kíváncsiak, hanem csak az IGP-jére. Ezért jó a 3DMark itt, mert minden egyéb komponenst kizár a képletből. Ha pedig már az IGP skálázásra rossz, akkor a rendszer skálázásán az nem segít.

    (#524) HeavyToys: Gondolom úgy, ahogy a többi GPU-architektúránál. Rendkívül specifikus ISA-t használnak, amibe eleve bele van tervezve a skálázódás. Igazából ezért nem értettem még régen az Intelnek azt a mondatát, miszerint elég egy GPU ISA és arra lehet építeni 20-30-40 évig, vagy tovább, így el lehet dobni az API-kat is. Gondolat szintjén ez jó, de oka van annak, hogy minden GPU-t fejlesztő 4-5 évente csinál egy új architektúrát. Ez biztosítja a skálázhatóságot. Nehezemre esik elhinni, hogy az Intel még mindig azt hiszi, hogy a GPU-t úgy is lehet tervezni, ahogy egy processzort. A Larrabee-nak elég nagy pofonnak kellett lennie, hogy ezt a gondolatot elhessegessék a mérnökök. Vagy a vezetőség köti az ebet a karóhoz? :F

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Enszuke #529 üzenetére

    Biztos. A Furmark az egy fos, mert egy rendkívül szintetikus program, rendkívül szélsőséges helyzetet kreálva. Arra alapozni teljesen hibás minden szempontból, mert egyetlen valós program sem fog olyan körülményeket biztosítani.

    (#535) MongolZ: Ha a blokk sokszorosítása a limit, akkor az órajel csökkentésével semmit sem érünk el, mert a limit a rendszerben marad. A blokkot meg nem lehet letiltani.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz lenox #530 üzenetére

    A TDP keret az Intelnél mindig úgy van belőve, hogy a 3DMarkok grafikai tesztjeinél az IGP turbó maxon legyen végig. Ez egy legális csalás a részükről, hogy minél több pontot érjenek el. Ez jelen helyzetben kellemes, ha vizsgálni akarod a rendszert. Összességében persze köze nincs a játékokban mérhető erősorrendhez.
    Konkrétan ez a teljesítmény 1,2 milliárd tranyóból és 128 MB eDRAM-ból igen érdekes. Mint mondtam eDRAM nélkül már a 600 milliós HD 7660D tempója alatt van az IGP. Valami nincs rendben valahol a rendszeren belül, mert sokszorosan több tranyót kell költeni a teljesítményre.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz kovsol #539 üzenetére

    A grafikus driver az opció, a profil az nem, mert az Intel nem igazán profiloz. A drivert majd meglátjuk, mert mostanában benne van a levegőben, hogy a nulláról újra akarják írni.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz Sinesol #543 üzenetére

    Majd ha bejelentik akkor.

    (#547) Bici: Egy Bull mag kevesebb tranyót használ az Intel magoknál. Ennek egyik alappillére, hogy egy csomó mindent megoszt a modul, amit magos elvnél kétszer kell beépíteni. A magasabb freki ezt korrigálja. A modulos felépítés mellett azért döntöttek, mert jóval hatékonyabban használható az FP feldolgozó ilyen környezetben. Ezek ugye nem grafikus vezérlők tehát egy FP műveletnek igen magas késleltetése is van. Az integrációt továbbgondolva pedig ki lehet váltani a Flex FP-t a GCN CU-kkal. Ma minden AMD fejlesztésre az az integrálásra van felkészítve.

    (#546) Sinesol: Az reális, hogy +800-1000 MHz ezeknél a prociknál +100 wattot jelent. Még hízelgő is. Jellemzően inkább +150 wattot szoktak mérni. Nem véletlen, hogy a gyártók körülik ezeket a 4,x GHz fölötti órajeleket. Drasztikusan nő a termék fogyasztása.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Abu85

    HÁZIGAZDA

    válasz priti #578 üzenetére

    A meghajtókat nyilván újra kell írni. Közel hat évig rossz irányba fejlesztette őket az Intel. Ezt az irányt le kell állítani, és kezdeni kell az újraírást. De ez nem olyan egyszerű ám egyébként. Jó egy évbe telik majd, mire ennek eredménye lesz, és még egy év, mire az új rutinokhoz beprofilozzák a rendszert.

    Nekem mindegy, hogy kidobják-e vagy sem, de ha nem skálázódik az architektúra, akkor az Intel később a konkurens hardverek teljesítményét 1-2 milliárd tranzisztorral többől fogja kihozni. Tehát fel kell tenni a kérdést, hogy a szoftverrel vagy a hardverrel van a baj, mert ha a hardverrel és a szoftvert fejlesztik, akkor az egy node-dal kisebb csík előnye teljesen elmegy az IGP-re. Ami opcionális ezzel az architektúrával, hogy belső multi-GPU-t hoznak létre. Gyakorlatilag nem sokkal több a második blokkhoz hozzávágni egy setup motort és akkor az úgy működne, mint a CF illetve az SLI, csak külön GPU-k nélkül. Ezzel a skálázódás magas lehet, de hozza magával az AFR gondjait.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

Új hozzászólás Aktív témák