Új hozzászólás Aktív témák
-
canabis5
csendes tag
Húzhatók lesznek ezek?
-
canabis5
csendes tag
Szerintetek mennyi lesz a max. órajel?
Bull. sem volt rossz ár/teljesítményben, illetve olyan programokban, ami hajtotta az összes modult. Szálanként nyilván sehol sem volt, de renderelő-tömörítő alkalmazásokban tudott meglepetést okozni.
A legtöbb felhasználó, mint én is, játékra használja a pc-t.
Tudtommal mindent ZsIntelhez optimalizálnak, ennek ellenére is jó lehet az Am4?
Elmúltak az idők, mikor még tudott csodát művelni a kis cég. Sajnos.....
Az Rx széria sem tudja azt, mint amennyire istenítették. -
sb
veterán
válasz
stratova #345 üzenetére
Ez világos, igazából ugyanazt erősítik amit elmondtam: A Raven, főleg ultramobil TDP sávba jövő, jó hatékonyságú elég messze van még. Addig pedig a korábbi gyenge AMD cuccok mellé a már rég létező Carrizóból és az azóta még jobb BR-ből sem láthattunk/láthatunk jóformán semmit. Kicsit luxusnak érzem.
Egyedül a 4W-ig leskálázott Zen magos APU-ról nem tudtam és kissé meglepett. De igazából csak azért, mert utána se néztem, annyira nem is érdekelt.
Valóba megoldható lehet, hiszen az Intel is hasonlóan nagy TDP range-bendolgozik a core magokkal. (Nomeg más ultramobil gyártók is megmutatták az utóbbi 1-2 évben, hogy nem csak a gyenge, sokmagos megoldások életképesek 15W alatt hanem a kevés, erős maggal is tudnak valamit kezdeni.) -
Simid
senior tag
válasz
Oliverda #349 üzenetére
Értem. Nem gondoltam, hogy méretben ilyen kis különbségek vannak. Viszont ha nem órajelből és nem a méretből adódnak a nagy TDP és teljesítmény különbségek, akkor ezek nyilván architektúrális sajátosságokból következő dolgok. Csak azt akartam mondani, hogy ezek a sajátosságok ugyan úgy gondot jelenthetnek egy kimondottan ultramobilra szánt gyártástechnológiánál, még akkor is ha az órajel hasonló. Nincs semmi infom amúgy ami erre utalna, csak felmerült bennem ez a lehetőség.
stratova: Szerver, mobil, de még HEDT vonalon is elég a 3Ghz körüli alap órajel. Mainstream desktop az ahol kevés lehet, de az a legszűkebb piac.
-
Oliverda
félisten
Gyártástechnológiáról van szó. Amúgy nézd meg az újabb ultramobil processzorok dizájnjait (Apple A9, Samsung M1, stb.). Már nyoma sincs az 5-6 évvel ezelőtti irányvonalnak, mindegyik ki van gyúrva elég szépen. Két Twister mag 3 MB L2-vel kb. 13 mm2-t foglal, egy Zen mag 512 kB L2-vel pedig nagyjából 5 mm2-t, leosztva pedig jóformán alig van különbség.
Nyilván sok múlik a mikroarchitektúrán is, de a Zen-t nem magas órajelre tervezték, valószínűleg a 2,5-3 GHz lehetett a megcélozott aranyközépút.
-
Simid
senior tag
válasz
Oliverda #347 üzenetére
Igen erről volt már szó korábban, de gondolod, hogy ebből a szempontból az órajel a meghatározó? Úgy értem egy ultramobil dizájn elsősorban nem az órajelekben különbözik desktop/szerver vonaltól, hanem architektúrálisan (persze tudom, a kettő közel sem független egymástól).
Ha megnézzük a SD820 vagy a legújabb Exynos alulról nyaldossák a 3Ghz-et. Ehhez képest egy desktop procinál max 30-40%-kal látunk magasabb órajelet és - ahogy említetted is - az igazán lényeges piacokon (mobil, szerver, egyedi SoC stb) nem is ez a meghatározó.
Ez sem elhanyagolható különbség, de egy sor egyéb paraméterben (lapka méret, TDP, számítási teljesítmény) ennél jóval nagyobb különbségek vannak az ultramobil és az X86 architektúrák között. Inkább ezektől lesz valami ultramobil vagy sem.
Arra akarok kilyukadni, hogy ha a ZENnek hátránya lesz abból, hogy egy ultramobilhoz tervezett gyártástechnológián készül, akkor ez a hátrány lehet nem fog eltűnni akkor sem ha alacsony órajelekre lövik be, sőt! Lehet akkor ütközik ki igazán. Rosszul látom? -
stratova
veterán
BR nem is megy le 4,5 W-ra, abból a felezett [1/2 doul/szál] Stoney Ridge is 15 W-os (pl A6-9210). Más kérdés, hogy ilyen TDP-re van FX-9800P is nyilván magasabb áron.
Szerintem Intel mintára készülhet itt 4,5 W TDP és a boostnál természetesen rövid időre ők is átlépnék a TDP limitet. Illetve a legnagyobb konfiguráció is a mostani 4 magos core complex felezése lenne [2/4 mag/szál] pl. max 4 MB L3-mal és GPU-val 1,0-1,3 GHz CPU alap órajellel agresszív boosttal.
Az sem véletlen, hogy Raven csak később jön egyrészt summit ridge-en több hasznot lehet szerezni, másrészt ilyen alacsony TDP-re és a felső házban magasabb órajelre, kell a kiforrottabb gyártástechnológia, újabb steppingek. A TDP kezelés CPU és GPU között már Kaveri óta elég dinamikus, Carrizo és BR óta pedig még agresszívebb.
-
sb
veterán
válasz
Plasticbomb #340 üzenetére
Tudom, kb. csak én írtam eddig, hogy kellene a BR.
Azért is tettem most is zárójelbe, hogy "átmeneti". A Raven még k* messze van, addig egy - sejthetően - jól sikerült BR tökéletes lenne sokaknak, nem csak Zen-re várós megoldásként. Eleve pl. HTPC-be az összes mostani AMD-k le vannak már maradva. HEVC, HDMI 2.0, alacsony TDP-n is hatékony architektúra: ezt mind hozná a BR és ebbe a szegmensbe még akár felesleges is lenne a Zen erősebb cpu magja.@Simid:
Igen, mire leírtam már eszembe jutott nekem is. Ettől függetlenül nem láttam még erre utaló jelet csak most. Eleve azt hittem a Zen alatt marad a BR is párhuzamosan majd. Egyébként azt nem gondolnám, hogy nem lesz hatékony. 4W-on hatékony kell legyen, mert akkor semmi értelmes nem lesz belőle ilyen TDP mellett. -
-
Plasticbomb
addikt
Jó a BR, mert 1: ki lehet adni, ergo pénzt hoz, 2 aki mindenképpen gondolkodik AM4-re váltásban, az bizony meg fogja venni az alaplapot, és sokan vagyunk úgy, hogy akkor már azt használnánk. Szóval mire jön a Zen CPU, addigra a környezet ott van, csak be kell fektetni a CPU-t.
-
sb
veterán
Most nézem, hogy a Raven mobilban 4W-ig le fog menni? Ezt nem néztem volna ki egy (majdnem) HEDT-re tervezett architektúrából. Elég jól lehet vele legózni ezek szerint.
Viszont a BR létjogosultságát akkor ez is megkérdőjelezi. Persze erre a 1-1.5 évre azért jó lett volna a BR is még akkor is ha csak röpke "átmeneti" megoldás ebben a formában.
-
Petykemano
veterán
válasz
#90933760 #337 üzenetére
Nem tudhatjuk, hogy ha rendelkezésre állt volna folyamatosan csökkenő méretű fd soi processz, milyen módosításokat tettek volna, amivel növelték volna az ipc-t. Ne felejtsd el, hogy az intel közben két komoly nodeváltást hajtott végre, ami nagyonis lehetővé tette a bufferek és pufferek lépésenkénti növelését) Idővel lehet, hogy eljutottak volna a magonként 3 alu egységig, vagy komolyabb fpu-ig, ahogy a pildriverben is szüntettek meg szűk keresztmetszeteket. A főbb hibák ma már ismertek. (Writethrough cache, osztott és emaiatt nagy, és emiatt Nagy késleltetésű cache, opcache hiánya) Csak a steamrollertől nem ez lett a fókusz, hanem olyan technológiák, amelyek más designokban is, nodetól függgetlenül hasznosak.
Ezzel együtt tényszerű, hogy ha már ennyi.mindent változtatni kellene, hogy jó legyen, célszerű resetelni és nem cipelni a holt terheket.
Számomra hihetőbb, meggyőzőbb, hogy a koncepció célja a több modul dolgozhat egy szálon elképzelés volt, miközben több szálon a legjobb throughput eredményt hozza, mint hogy csupán csak a throughput lett volna a cél. Az is igaz persze, hogy 2006-2007 környékén még joggal gondolhatták azt, hogy a cpu magok számának növekedése és az azt kihasználó programok majd időben lineárisan alakul (3-4 évente megduplázódik a magok száma és ezt 1-2 évvel követik a programok)
Ez tulajdonképpen az intel taktikája miatt nem lett így: a sandytől kezdve elhúztak ipc-ben, miközben a throughputot pótolták smt-vel. Mivel a legtöbb gépbe már akkor is max 4 magos proci volt, és ez így is maradt, ezért megállt a skálázódásra való törekvés. -
#90933760
törölt tag
válasz
Petykemano #336 üzenetére
Nem lett volna nagy jövője megfelelő gyártástechnológia mellett se, 5GHz-nél többet úgy se hoztak volna ki belőle, márpedig ott se voltak túl acélosak, inkább csak normálisak. Meg lejjebb csúszott volna legfeljebb a TDP 95W-ra. Ez nem sok minden. A Bull nem lett nagy jövőre tervezve. Kérdés, miért is így álltak neki annak idején? Miért nem egy hagyományosabb megoldásnak?
-
Petykemano
veterán
Az eredeti bulldozer mikroachitektúra, a ma CMT-ként ismert felépítés a pletykák (múltba révedő mesék) szerint azt célozta, ami épp ellentéte a ma alkalmazott HÍper-Threading megközelítésnek. Utóbbi megközelítés lényege az, hogy a processzor széles, sok feldolgozóegységet tartalmaz (ALU, meg ilyesmi), cserébe nagyon komoly frontend (ütemező, stb) szükséges, amelyek etetik a feldolgozóegységet: a programkódot minél inkább tudják - out of order módon - úgy ütemezni, hogy minél több utasítást lehessen egy órajelciklus alatt végrehajtani, annál gyorsabb és annál inkább ki tudja használni a feldolgozóegységeket. Ha ez mégse sikerül, akkor jön képbe az SMT, vagyis hogy ha nem sikerül 3-4 utasításra osztani a feladatokat (Instruction Level Parallelism), akkor a fennmaradó számolóegységeket egy másik programszál használhassa.
Az eredeti bulldozer mikroarcitektúra, a ma CMT-ként ismert felépítés a pletykák (múltba révedő mesék) szerint azt célozta, hogy a CPU mag legyen szűk, 2 feldolgozóegység széles, mert akkor nem kell "okosnak" lennie, tehát egyszerű. (Nyilván nem véletlen, hogy az intel is csak szép fokozatosan emelte a feldolgozókat 3-ról 4-re, mert nem egyszerű etetni) Ez több független szál esetén helytakarékos és remek throughput teljesítményt nyújt. De - és itt jön a mitológia - a közös hardverelemeket használó magoknak tudniuk kellett volna elvileg akár egy szálon is dolgozni. Ezt nem sikerült összehozni.
De ennek az elméleti elgondolásnak a hagyatéka megmaradt, ami sokmindent megmagyarázna: a közös és nagy, ráadásul writethrough L1 és L2 cachet, amelyek létfontosságúak ahhoz, hogy közös szálon tudjanak hatékonyan dolgozni. A Carrizo az élő példa arra, hogy a nagy cache rontott a késleltetésen és hogy ez mennyit számít. Az intel procik pedig arra élő példák, hogy 256KB L2 cache is elegendő (a cache mérete és késleltetése ugyebár tradeoff)
A magas órajel a design része volt. De úgy, hogy a modul magjainak egy szálon való dolgoztatását nem sikerült összehozni, így a frekvencia maximalizálása végképp kényszerpályává vált.
Nem állítom, hogy feltétlenül nagy jövő előtt álltak a bulldozer procik, de ami végképp kinyírta az a megfelelő node hiánya. a 32nm is csak köhögve jött össze a GF-nak és azt követően a 28nm-es FD-SOI-t, ami sokat segített volna a fogyasztáson elkaszálták. Helyette maradt a 28nm bulk, ami nem hozta a szükséges frekvenciákat, ugyanakkor nagymértékben se a fogyasztást, se a lapkaméretet nem csökkentette, ezért a visherák maradtak 32nm-en pályafutások végéig.
-
#90933760
törölt tag
Csak egy architektúra fért bele a keretbe desktopra, nem fért be mellé külön APU és külön CPU.
Intel se csinál ám sok mindent Sandy óta, sőt Nehalem óta, simán csak reszelgetnek. Azt az AMD is csinálta minden alkalommal, sőt nagyobbakat ugrott lépésenként, mint az Intel, csak épp ekkora lemaradást az se hozott be.Ezt nem tudom, tanulhattak volna a Netburst hibájából ők is. Legésszerűbb ok az, hogy 8 magnak nagy hely kell, APUban az IGPnek hely kell. A modulos cucc meg kis helyet foglalt, viszont kellett az órajel hogy menjen is. APUkból még az L3 is ki lett dobva így is, mert gondolom hely kellett meg tranyószám csökkenés.
-
KisDre
senior tag
válasz
#90933760 #333 üzenetére
Na akkor más megközelítésben, miért nem csak az APU-kra alkalmazták mondjuk a modul-os részt? Hisz azért az sejthető volt hogy a GPU-CPU ilyen mód kombinálása nem fog egyből beérni, gondolva OpenCL-re és társaira. Esetleg túl drága lett volna két külön irányt vinni?
Értem azt is hogy nem egy nap akármilyen processzor fejlesztése, csak fura hogy közben meg a konkurens lapátszámra dobálja az újat, a mára már mondjuk megszakadt tick-tock elven. Kiindulva a büdzsék közti különbségből még ez is érthető volt, de gondolom 2010 tájékán még csak nem volt ekkora nagy a különbség a két cég között. szerk.: Gondolva közben arra is, hogy a Phenom II-ig mégis viszonylag egy tempóban haladtak.
Vagy rosszul értelmezem a dolgokat?
szerk2.: Amúgy fura ez a magas órajel ellensúlyozta volna a dolgokat. Sok helyen olvasom. De mikor egész eddig arra mentek hogy egy órajel ciklus a lehető legjobban ki legyen használva, most miért gondolkoztak másként? Hátha exponenciálisan nő a teljesítmény és nem lineárisan? Sok dolgok nem értek, de ez logikai hibának tűnik
-
#90933760
törölt tag
Mert nem két nap összedobni egy teljesen új procit, évek kellenek hozzá. Rájöttek, hogy nem jött be, neki is álltak vele foglalkozni, ennek most fog megjönni a gyümölcse. Épp ezért nagyon fontos jól átgondolni hova mit merre lépnek, mert ha félresikerül akkor jó időre keresztbe raknak maguknak. Ezen bukhat esetleg az Intel is, ha a szilícium utáni anyagon ők elcsúsznak, az AMD meg nem. Megfordulna a kocka. De addig már nem úgy néz ki, legfeljebb csak felzárkóznak.
Nem jött be nekik a Bulldozer, mert nagyon gyenge lett a single thread, amit a magas órajel ellensúlyozott volna, de az sem teljesen és a fizika is közbeszólt, magas TDP.
Ha annak idején rendesen optimalizáltak volna 8 szálra, nem itt lenne a dolog. De a mai napig kell a single thread, abból nem lehet leadni. Ezen el is siklott az egész, az Intelnek volt 4 erős magja plusz még a HT, az AMDnek volt 8 gyengébb, amiből a lószarul megírt alkalmazások használtak 1-2-3-4-et. Ahol pedig többet, ott jött képbe a HT és az erősebb IPC. Nyert az Intel, legalábbis nem győzött az AMD.
És akkor az APUkban rejlő lehetőségek, meg a GPU munkára fogása is elsiklott elég szépen, pedig bitang erő lett volna azokban is. -
KisDre
senior tag
Amúgy akármennyire AMD fan vagyok, nem értem hogy miért nem fújtak visszavonulót (=Zen-t) már a Bulldozer után? Vagy a Vishera amolyan menteni a még menthetőt dolog volt?
[Bulldozer teszt 16. oldal] Most csak olvasgattam ezt a régi tesztet az elejétől, és elhiszem hogy kecsegtető volt a "modulos" rendszer, meg hogy majd így lesz kiváltva a HT, de mi volt az oka hogy nem jött össze? -
válasz
jacint78 #328 üzenetére
Pletyik szerint az alap az a Jaguar, mivel ugyanazok a mérnökök dolgoznak a Zenen is. Itt az az érdekes, hogy a Jaguar (és a Bobcat) alapja meg a K8.
Ha a fenti igaz, akkor a CPU történelem ismétli önmagát: Az Intel anno a Pentium 4-től (~Bulldozer) várta a megváltást, de sajnos bazi sokat fogyasztott, stb. Így mobilnál visszanyúltak a Pentium 3-hoz (~K8), így lett a Pentium M (~Jaguar). Aztán végül abból jött a Core 2 Duo (~Zen), mert kiderült, hogy a P4 (~Bull) egy zsákutca.
-
-
SirRasor
addikt
Nem vagyok jártas ebben a ZEN-ben és most nincs sok időm elolvasni. Lényegében hasonló megoldásra jutottak, mint intelék HyperThreadingje? Vagy ez jobb hatásfokkal működik? Bár ez lehet inkább konkrét tesztekből fog kiderülni.
-
A realitás talaján maradva, ezek az eredmények még semmit sem jelentenek, de egyet értek veled. Csodát nem kell várni, de ütőképes proci lehet a Zen.
Én már akkor is elégedett lennék, ha azonos fogyasztás mellett 15%-on belül lenne a teljesítmény és kedvezőbb lenne az ára (nem is kellene sokkal). -
Plasticbomb
addikt
A polaris megjelenése előtt 5$ körül alakult a részvény árfolyam, most 7.62$on áll épp. Szóval jelenleg a piac nagyon pozitív az AMDvel kapcsolatban, ez elég erős erősödés. Én amondó vagyok, hogy már most is rengeteget kaszálhattak az elmúlt két - három hónapon, és amikor megjelennek a lapok, +BR, illetve a Zen, még simán fog ez duplázódni. 10-15$rra szerintem simán fel fog menni. De ha elbacarintják... Akkor lőttek nekik. Részvények lezuhannak a pi***ba, ők meg kb ebihal üzemmódra kapcsolnak.
-
Simid
senior tag
válasz
jacint78 #311 üzenetére
Szerintem ez volt az a setup aminél a legjobban virít a 6900K-hoz képest. Így is csak szűk volt az előny, szóval biztos nem kell csodát várni.
Biztosra akartak menni és azt, hogy mekkora tétje van egy ilyen bemutatónak is nagyon jól mutatja az AMD részvény árfolyam alakulás a rendezvény után.Azt pedig azért fontos tisztázni, hogy milyen prociról beszélünk, mert te is 4Ghz-t említettél, ami HEDT vonalon meg intelnél is csak álom (nyilván nem tuningról beszélünk). Csak viszonyítás képp. Fél éve még egy 8 magos 3Ghz-es Haswell volt a csúcs Intelnél 140W TDPvel. Most a Zen ES tudja ugyan ezt, ha minden igaz jobb IPCvel és alacsonyabb fogyasztási kerettel. Szerintem ez bíztató azoknak akik a realitás talaján mozognak.
-
gyurkikrisz
őstag
easy katka intel
-
Balala2007
tag
De remélhetőleg (és feltehetőleg) a BD vonal kimondott cache-gyengesége itt nem reinkarnálódik.
Az tuti, hogy az eddigi legjobb AMD cache-ek lesznek a Zenben. Amit itt irtam elso kriteriumot, az bejonni latszik.
Masik topikban irtam korabban melyebben a Zen reszletekrol, ezek meg most is allnak; 1,2,3,4,5,6,
-
#90933760
törölt tag
válasz
jacint78 #311 üzenetére
Lehet nem volt stabil, és pofáraesés volna főleg nekik, ha bedobna egy kék képet a nagy bemutatón, ez semmi formában nem fordulhat elő.
És azért még addig az ideig mire megjelenik, csiszolnak annyit, hogy a 3.2-t tudni fogja, de szerintem ha a 3-at viszi is már nagy dolog, elvégre most először konkurencia lesz a HEDTnek, mert eddig egy mezei i7 is épp csak kapott valamit, azt is évekkel ezelőtt... Nem féltem annyira ezt a procit.
Viszont a 4 magos mezei ember prociját inkább, ott tudniuk kell a 4 GHz-et legalább, ha jót akarunk. -
dezz
nagyúr
válasz
jacint78 #308 üzenetére
Ha nem lesz elérhető a 3GHz ésszerű TDP mellett, akkor legalábbis félrevezető ezen a frekin hasonlítgatni. Ha a közelében sem lesz, akkor pedig gyak. csalásnak minősülne. Nem túl jó kifogás, hogy nem tudták előre, elérhető lesz-e.
Itt a topikban is többen 4-magosnak nézték, mellesleg alig ismert, csak nem rég jelent meg. Mi mit számít?
-
Petykemano
veterán
Alapvetően igen, azonban nem az a szokásos monolitikus felépítésű, tekintve a core-complex megoldást, ami a későbbiekben érdekesen fejlődhet, pl. a complexen belül sokkal szorosabbá válhat az együttműködés, ilyesmi.
Ennek szerintem leginkább a legózásban van jelentősége. Fiery beszélt arról az AT fórumon, hogy az intel valami kétszeres ringbusszal oldja meg a magok kapcsolódását és hogy egy bizonyos magszám fölött nem jó megoldás, azért nem látunk annál nagyobb magszámú Xeon procikat se.
Meg nyilván Core complexet csak el kell venni az APU-hoz.
Számomra az a kérdés, hogy lesz-e és ha igen, mire lesz, ami a Corecomplexek között Last Level Cache-ként funkcionál.
Valami olyasmire gondolok, ami nem biztos, hogy a Summit Ridge-en elérhető. De egy 16 (4CCX) vagy a 32 magos Naples (8CCX) esetén már lenne értelme ráfűzni a Core Complexeket valami LLC-re, amire a GMI-n keresztül csatlakoznak.
"Az eddigi write-through megoldás helyett write-back-re módosult az L2 elérése"
Jól tudom, hogy az Intel eddig is az utóbbit alkalmazta? Az AMD meg, ki tudja miért, ragaszkodott az elsőhöz. Nem kis változás. Vajon csak elszántság kellett hozzá, vagy más is?
Szerintem ennek ahhoz lehet köze, hogy az eredeti modulkoncepciónak része volt az, hogy a két mag egyazon programszálon dolgozzon. Ebben az esetben nagyon fontos, hogy közös tárolókból dolgozzanak, és hogy az adatok azonnal megosztódjanak. Az L2-t mondjuk én se értem, az vidáman lehetett volna write-back.
-
jacint78
addikt
Tudni még nem tudunk semmit az biztos, legfeljebb sejthetünk valamit, részemről is csak spekuláció volt az előbbi. De azért felmerül a kérdés, ha a 6900 alapban 3.2-őn megy 8 maggal, akkor lehetett volna mondjuk 3.2-is a tesztórajel. Azért gyanús ez nekem egy kicsit na.
-
#90933760
törölt tag
válasz
jacint78 #308 üzenetére
Mert páran odáig jutottak csak el, hogy az asztali 4/8 i7-et verte el az 8/16-os Zen. A 6900K nem a 6700K magasabb órajelű tesója, ahogy az elsőre tűnne, de ezt jópáran nem tudják.
Azért annyin teszteltek, mert az volt a vállalható alap. Nyomhatnának 250W-on is teszteket, de minek ha egyszer úgy sem akkora lesz és ha a kiadásig nem faragnak belőle, pláne pofára esés. A 3 GHz-et meg biztos tudni fogja, nem lesz botlás vele később se. Elvileg.
Az Intel se sokkal jobb a 3.2-vel egyébként. Az a 4 Gigás turbo talán 1-2-3-4 magig érvényes, nem a 8-ra.
A lényeg majd az lesz, hogy 4 magon mit tud a Zen, ott el kell szöknie az órajeleknek ha jót akarunk, mert valóban ahogy írták is különben megkapjuk újra a Phenom szériát. Ami bár még mindig jobb, mint a modulos. -
Petykemano
veterán
válasz
jacint78 #305 üzenetére
Most nem találom, hogy hol olvastam, de állítólag a Papermaster azt mondta, hogy a zen egy kicsit kevesebbet fogyasztott, és mindkét chip a 95W-os TDP-n belül volt.
Ettől függetlenül persze attól még lehet, hogy ha elkezdik felterekni, akkor meredekebben emelkedik a fogyasztás, mint az intel 14nm-én.Annak, hogy miért 3Ghz-en demoztak több oka is lehet. Az egyik nyilván az, hogy ez a szint, amit stabilan tud. De 4Ghz-et a BDW-E se tud 8 magon. A fixált 3Ghz-es órajelnek azon kívül, hogy nem tud többet, lehet oka az is, hogy nem akarták vagy ES lévén nem tudták még felfedni, hogy milyen turbó frekvenciákat fog tudni elérni.
Reméljük a Hotchipsen többminden kiderül.
-
jacint78
addikt
De akkor miért csak 3GHz-en teszteltek? Szerintem nem lenne durva csalás, mert ez nem a végleges verzió és nem is mondtak semmiféle fogyasztási adatot, tehát nem hazudtak.
A Zen ES 95W TDPvel 2.8GHz orajelet tud.
Nem, az csak a cél, de még nem létező termék tudtommal. Amúgy miért ne lenne egyértelmű, hogy mi az a 6900K miért kellett volna azt odaírni? Ezt koráűbban sem értettem, mit számít az?
-
Simid
senior tag
válasz
jacint78 #305 üzenetére
Jól írta dezz, hogy oda kellett volna írni, hogy milyen CPU is a 6900K, mert sokan nem tudják.
A Zen ES 95W TDPvel 2.8GHz orajelet tud. A 6900K meg gyárilag 3.2Ghz 140W TDPvel, ennyit tudnak most kihozni 8c/16t procinál ők is, szóval a 4Ghznek a közelében sincs. Fogtak a kettő közötti értéket és mindkettőt ezen tesztelték, hogy jelezzék: Megvan a szükséges IPC! Szerintem csak erről van szó.
-
dezz
nagyúr
válasz
Balala2007 #304 üzenetére
A 486 már nagyon rég volt, talán igaz sem volt.
Meglepő, hogy a BD előtti néhány családban WB volt, mert ahhoz képest cache benchmarkokban mindig jóval szerényebb átviteli sebesség értékeket produkáltak, még ha a procik összességében jól is szerepeltek. Azt reméltem, ez most egy csapásra megváltozik, akkor tehát a WB önmagában nem garancia erre. De remélhetőleg (és feltehetőleg) a BD vonal kimondott cache-gyengesége itt nem reinkarnálódik.
(#305) jacint78: Az durva csalás lenne, ami később elkerülhetetlenül kiderülne, amivel igencsak lejáratnák magukat.
-
jacint78
addikt
Ó jaj... A késésből és a 3GHz-re fixált tesztórajelből arra következtetek, hogy visszatérnek az első phenomos problémák.... Konkrétan, hogy IPC-ben jó ugyan, viszont magas órajelre nem képes, tehát nem lepődnék meg, ha kiderülne, hogy a villantott tesztpéldány rendesen megvolt feszelve a 3GHz-hez is és evett vagy 200W-ot.
Talán már csak ezt kell megoldaniuk, mert nyílván nagyobbat durrrant volna, ha mondjuk 4GHz-en demóznak, ami az intelnek nem probléma ugye.
-
Balala2007
tag
Jól tudom, hogy az Intel eddig is az utóbbit alkalmazta?
Nem,
Intel reszerol Write-Through cache volt az elso 486 szeriakban, illetve a Netburst(P4) mindegyikeben.
AMD reszerol WT volt a korai 486-osokban illetve a Fam15h (Bulldozer) szeria mindegyikeben.Ezeken kivul a Write-Back hasznalata az altalanos.
Új hozzászólás Aktív témák
- Igényes Gamer PC - Ryzen 5 9600X - 32GB DDR5 - 512GB SSD - Asus TUF RTX 3070 Ti - Vízhűtés - 850 táp
- Apple iPhone 14 128 GB Fehér 1 év Garancia Beszámítás Házhozszállítás
- Lenovo X13 Yoga 2in1 Thinkpad WUXGA Touch i5-1145G7 vPro 16GB 256GB 4G LTE GPS Win11 Pro Garancia
- LG 65B4 - 65" OLED - 4K 120Hz 1ms - NVIDIA G-Sync - FreeSync Premium - HDMI 2.1 - PS5 és Xbox Ready
- ÁRGARANCIA!Épített KomPhone i5 14600KF 32/64GB DDR5 RAM RX 9070 16GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest