Új hozzászólás Aktív témák
-
válasz
Dyingsoul #140 üzenetére
Szia!
Nem vettem kötözködésnek, tudom miről beszélsz. Inkább arra gondoltam, hogy nincs semmi gond a rendszerrel, de tényleg elég erősen utána olvastam, mert az anyagi keret korlátozott volt, valamint AMD-s gépet elég rég dobtam össze. Ezért lett MSI 350 -s lap alá BIOS frissítéssel,de egyébként a minimum és a maximum FPS számom magasabb, nem igazán foglalkoztam vele sokat, hogy menyit nőtt,de 4460 azért elég alap kis proci, nem a legmagasabb órajelekkel, ahhoz képest a 2600X egy kis szörnyeteg.
Nem ultra, szinte mindent lowra szoktam tenni, már elég régóta Online FPS függő vagyok és az effektek engem zavarnak. Szóval low beállítás kivéve a textúrák, ottt medium, és a felbontás FHD felbontás, resolution scale 1, azt nem veszem le azért 70 % ra. Többi, AL, Shadows Motion blur stb kikapcsolva vagy low settings. -
válasz
szmörlock007 #138 üzenetére
Hát köszi
Keresztfiam gépe lesz, már nagyon várom, hogy átadhassam neki.( ballagásra) -
Pár órája végeztem egy 2600x gép összerakásával. Egy 4460 I5 processzor/ rendszert váltott.
Jelenleg minden abszolút smooth, elsőre összeállt a rendszer, igaz minden egyes elemet előtte átnéztem YT-n és fórumokon mennyire támogatott.( gigabyte B350 gaming deszka- Gtx 1060 MSI Armor kártya 8 GB DDR4, ( GEIL EVO 3000 Mhz).(SSD még nincs, hétfőn ér ide, egy 1 TB HDD-n ül a rendszer) simán ment a Win telepítés, minden driver elsőre felkúszott, semmiféle anomália/ kifagyás / újraindulást nem tapasztaltam. PUBG alatt egy Be Quiet Pure Rock hűtővel 60 Fokos a proci 55 % kihasználtság mellett. Húzva nincs a proci, alap órajeleken megy.
Nagyon pozitív benyomásom van eddig róla. -
Whysperer
addikt
válasz
clyvejhamma #127 üzenetére
Jo hat nem mindneki gondolkodik 4k-s layer horda kepekben a WC-s selfik vilagaban.
nezd el nekik!
-
válasz
Carlos Padre #134 üzenetére
Igen ,közérdekű infó vagy személyes vélemény,de ez mindegy, erre van az offtopik gomb. Ennek amit most itt játszol viszont semmi közérdekű tartalma sincs, tehát nyugodtan használhattad volna a hozzám irányuló üzenetedre a privát gombot, mert így csak szemét szemét hátán a topikban.Tehát ha valami problémád van, akkor használd bátran a privát gombot, egyéb esetben ignoráld a hozzászólásomat aminek első része válasz volt valakinek , aki nem te vagy,második része pedig egy személyes vélemény,ami továbbra sem neked irányult, ha csak nem vagy a PH-n szerkesztő -újságíró,de azt gondoltam ez egyértelmű. Üdv! ja és
-
hokuszpk
nagyúr
válasz
SECTORnooB #126 üzenetére
gondolom holnaptol kizarolag autoval jarsz.
-
válasz
Carlos Padre #130 üzenetére
Gondolod neked szólt a vélemény nyilvánításom?+ kacsintó szem.
-
secretgarden
aktív tag
Még a végén beelozi az AMD az Intel-t? :-)
-
válasz
Carlos Padre #128 üzenetére
Amennyi hír jön mostanában róluk ez is értékelendő .( lenne)
Én tisztában vagyok vele miről szól a hír. -
nemlehet
őstag
válasz
Dyingsoul #114 üzenetére
Jó van persze persze... Az ilyen anekdotákat tök fölösleges ide böffenteni, mert kb semmi köze ahhoz, hogy amd vagy intel. Te tényleg elhiszed, hogy egy amd procinál reális működés az, hogy állandóan lefagy meg bugzik? Továbbá te tényleg komolyan gondolod, hogy ez csak és kizárólag a CPU gyártó miatt van, olyan apróságok mint alaplap, memória mennyisége és sebessége, HDD/SSD sebessége és esetleges hibái az meg ugye smafu..
Ezekről a storykról hogy "DevanaBélaésnekiszarjazájemdé" kedves kollégám jut eszembe. Szerinte szar az android, mert amikor a 15k-s valami szolgáltatói sajátmárkás 1 magos csodáról váltott iPhone 7-re akkor az iPhone mennyivel gyorsabb meg stabilabb volt. Nyílván a 15x árkülönbözet meg a kb 5 évnyi technológiai előny az smafu, az android volt a szar.... -
Ragnar_
addikt
Jelenleg az R5 1600x-em húzva 3850-re de alulfeszelve CPU Queenben az alap i7-8700k mögött van 2%-al. Igaz, hogy a 8700k-t is lehet húzni, és akkor 20-25%-al jobb lesz, de az ára meg kb. 40%-al 'jobb'. Szóval én azt kaptam a Ryzentől eddig amit vártam, sőt kicsit paráztam a Ram mizéria miatt, de még egy kis tuning (feszesebb időzítések) is belefért. Én várok a Proci vásárlással míg kb. ugyanaz a közép árkategória + 30%-ot tud majd alapon. A játékoknál meg már a szoftvereken lenne a sor, bár kétlem, hogy nagyon sokat szöszölnének a 8+ szálra optimalizálással, mikor a jelenlegi konzolok 8 magosak, és a PC játékok 90 %-a konzolport, és sokan tolják még 4c/8t i7-el. De mintha az id tervezné a következő idtech motor sok szálig skálázódását, és ott szituációfüggően egy R5 6c/12t jobban teljesíthet, mint egy i5 6c/6t amely procik ugye kb. ugyanabban az árszegmensben vannak jelenleg, bár ki tudja mi lesz a helyzet mikorra jönnekl az első játékok ilyen multithreading skálázódással. Meg ugye kérdés még játékos vonalon hogy milyen CPU lesz a következő konzolgenben, mert kb. azt is figyelembevéve lesz érdemes procit venni a jövőben.
-
Whysperer
addikt
válasz
Dyingsoul #114 üzenetére
Erdekes ezeket olvasni. Kollegam itt londonban MPC-nel Ryzen 1700x vett munkara es meg egyszer nem volt neki problemaja vele otthon pedig azert mennek a simulaciok vele eleg durvan. Maya/Houdini/Zbrush/Unreal Engine ezeket hasznalja ,d emeg nem szamolt be problemarol Otthon. Sot amit hozzatennek ,hog ybent itt XEON van minden asztalnal es O pont azt meselte,hogy nagyon szepen dolgozik a Ryzen a Xeonhoz kepest otthoni munkara. Azert van viszonyitasi alap. Nem testekben ,hanem azert napi 8-10 orat toljuk a studioban es aztan otthon is megy a munka hasonlo karakterekkel . Azert erezni lehet mi micsoda. O eddig meg csak pozitiv tapasztalattalirt rola.
Bar lehet jatekoknak hulladek a dolog,de munkara ilyen dolgot amit leirtal ,hogy stabilitasi problema es hasonlokat nem tapasztalt a srac.
Egy negativ az volt,hogy hangos volt a gyari huto es rakott rak egy masikat. ennyi.
-
namaste
tag
A skalár egység egy kis része a CU-nak, ezért nem tehető felelőssé a magas fogyasztásért. Ehelyett a magas feszültség és a sok memóriaművelet inkább okolható.
#71
Ezek a számok hogy jönnek ki?#73
Mutass egy GT 1030 tesztet 8 magos processzorral, lássuk hogy skálázódik 2, 4, 6, 8, ... maggal. -
Dyingsoul
veterán
Öööö nem. Ismerek olyan embert, aki játék előtt újraindítja a 2600-al szerelt gépét mert egyébként valami probléma van (crash, fagyás stb). Másik ismerősöm szintén a Ryzent választotta és ő is mindig cumizik valamivel és gyakran halljuk tőle, hogy ez meg az nem működik crashel vagy épp megfagy. Beismerni persze egyik sem akarja azt, hogy lehet jobb lett volna intelt venni mert amikor épp működik akkor nagyon jó teljesítményt nyújt.
Másrészt nekem fejlesztésre is kell a gép és az AMD-vel azon a téren is csak a nyűg van. Intel sokkal stabilabb fejlesztői szemszögből. Cégnél is használunk AMD gépeket, hát a pokol tüzére kívánjuk őket egytől egyig (a rendszergazda amolyan ott spórolunk ahol csak tudunk hozzáállású).Félreértés ne essék én ettől függetlenül tisztelem az AMD-t azért mert előrukkolt a Ryzennel és remélhetőleg tovább szárnyalnak majd a Zen 2-vel, így legalább meg lesz szorongatva az eddig unatkozó Intel. Azt is megértem, hogy sokak igényeit teljesen kiszolgálja az AMD és semmi problémájuk nincs a rendszerrel. Mondjuk az 1900X gondolatával én is eljátszogattam de ennyi.
-
alton1978
tag
Bingo. 3D Vizualizációhoz kell a "sok" memória és otthoni környezetben még inkább, mert ugye nincs a szomszéd szobában 200 processzor jó pár terrabyte-nyi memóriával, amit bármikor felhasználhatok... Szóval, jobb ha van, mint nincs. És egyébként filléres dolgok az alkatrészek, ahhoz, hogy egy-egy projekt ezen ússzon el!
Egyébként azt nem tudtam ( nem törődtem eddig a videokártyával sokat ), hogy a VEGA-t lehet etetni rendszer memóriával is. Jó, ha ezt is tudom. -
alton1978
tag
A videokártya - jelenleg - irreleváns a memória mennyiségétől. Egy sima 1060-as bőven kiszolgál, még 4K-s textúrázásnál is, igaz...ott már el-el fogy, de az Unreal Engine-nak nincs problémája. Inkább memória legyen több, mint videokártya. Játszani meg max Original Sin 2, minden hónap 31.-én.
A lényeg, hogy 1 32-es G.Skill kit mellé még betennék még egy 32-es G.Skill kitett, csak, hogy jó legyen. De - ahogy látom - ZEN2-höz is marad a DDR4, akkor viszont nem lesz gondom pár évig. Nem mellékesen majd a mostani Ryzen megy render node-nak. Abba is kelleni fog a memória...Tudod, ha pénz csinálsz a géppel, akkor nem igazán számít, csak az, hogy erős és stabil legyen. Nem mondhatom a kliensnek, hogy bocs, de nincs annyi memória a gépben, hogy ezt a munkát most nem vállalom. Volt már rá egyszer példa.
-
alton1978
tag
válasz
jattila48 #46 üzenetére
Semmi részecske szimuláció. 2 oka van. Egyrészt egyre drágább lesz a memória, kár csökkenésre várni, mert -szerintem - olyan nem lesz. Másrészt pedig dolgozom a gépen. 3D és az elég gyorsan felzabálja a memóriát. 32-ből egy 4K-s rendéréles alatt szépen felszippantja a 20-22GB-ot. + a többlet memóriát a MAX kihasználja és nyugodtan ráindíthatom a ZBrusht + Substance Paintert is, meg 1-2 textúra és képszerkesztő programot is. A több(let) memória mindig jobb és már 1x-2x belefutottam rosszul felépített scene-be, ahol a 32GB elillant.
Ha részecske szimulációt csinálnák, akkor bizony 128GB alatt lehet, el sem kezdeném, főleg ha animáció.
-
Intel és NV két különböző hozzáállású cég, NV évek óta nem alszik. Most sincsenek elkésve, ütem szerint hozzák a kártyákat, nincs halasztgatás.
A héten elég nagy hir volt,hogy ,hogy a google cloud is átállt Volta kártyákra,ide sajnos nem fért be a napi 3-4 AMD ,Intel hir közé... -
paprobert
őstag
válasz
Lacccca87 #90 üzenetére
Egy kétpólusú, tipikus kishal-nagyhal felállásban mindig ez a felállás:
-a nagyhal jobb termékekeket gyárt, drágábban
-a nagyhal ül a terméken, és lehetőségeihez képest szinte alig fejleszt, csak a lehető legkevesebbet fejleszti, úgy hogy megtartsa a vezetést.
-a nagyhal nem akarja kinyírni az egyetlen konkurenciát.-a kishal rosszabb termékeket gyárt, olcsóbban.
-a kishal keresi a kitörési pontot, a.k.a. innovál amennyit tud, hátha ezzel a feje tetejére tudja állítani a piacot egy esetleges irányváltásnál.A helyzet viszont az, hogy a legkisebb technológiai többszörös, azaz az a minimum feature set, amivel egy terméknek rendelkeznie kell, szinte mindig a nagyhal határozza meg. Nagyon ritka az, hogy egy technológia annyira must get a piac számára, hogy a nagyhal piacbefolyásoló ereje ellenére utat tör magának.
Hiába volt osztott erőforrás az FX-ben, ott helyben kihasználatlan maradt, majd az idő előrehaladtával totál jelentéktelenné vált.
Hiába volt beharangozva a heterogén éra a Kaverivel, mindenki érti hogy miért jó dolog a közös memóriacímtér, de már az is lassan történelmi távlatba kerül, és nem vált fősodorrá.
Hiába sokkal inkább egy CPU-GPU hibrid a GCN, az első generáció erőben már nem üti meg a szintet, és fél-háromnegyed lábbal még mindig az xbox360-DX11-nvidia, azaz az előző konzolgeneráció technológiai színvonalán vagyunk. -
Lacccca87
addikt
Szerinted ki a kutyát érdekel egy 1030? Az bármi alatt megfekszik. Nem tudom hogy jön ez ide egyébként, abszolute nem releváns. Értem hogy neked most a kis Vega APU a varászszó de nem ezen kell lovagolni.
A NV nem olyan rég járt nálam 1 hónapja sincs, szóval még a váltás sem lehet kifogás.
Az a baj Abu hogy a jelen az az hogy játékokba nincs gond, sőt sehol nem látni ÉLES helyzetekbe hogy gond lenne abból amit már itt fél évtizede hajtasz. A szintetikus tesztek meg engem speciel nem érdekelnek hogy sikerül kihozniuk az esetek 1%-ban valami jelentős eltérést.
Ezt kellene megérteni, és azt is ha annyira rossz lenne az NV felépítése akkor most nem arról beszélnénk hogy az RTG-ta konzolok, bányászat mentette csak meg a csődtől.
-
Abu85
HÁZIGAZDA
válasz
Lacccca87 #102 üzenetére
Attól függ, hogy mikor járt nálad a GeForce. Az NV csak nemrég tért át az emulációra. Előtte a mintavételezőbe való bekötést támogatták. Az nekik is gyors, csak ezt elvetették. Valószínűleg azért, mert a tesztekben tényleg izomprocesszorokkal mérnek, ahol egy CPU oldali binding kiegészítést nem gond, viszont gond lehetne abból, ha kifut az erőforrásból a hardver, és ezt inkább nem várták meg. Elhanyagolható az a teszt, ahol átlagos processzorokkal nézik a hardvert.
Ezek nem fícsőrök, hanem a működés alapvető feltételei. Minden API alkalmaz bekötést. A DX11 szimpla CPU oldali binding API-t használ erre, a DX12-től kezdve van lehetőség a közvetlen bekötésre, vagy a mintavételezőbe vagy a multiprocesszorba.
Mint írtam ez a jelen. Nézd meg a tesztet, hogy mennyire lelassul DX12-ben a GT 1030, holott semmi nem indokolja. DX11-ben ugyanezekben a tesztekben fel is gyorsul. Egyszerűen a szoftver oldali DX12 implementáció limitekbe ütközik.
-
Tyrel
őstag
válasz
Pete55555 #96 üzenetére
Hát részben úgy értettem... A felsőkategóriás kártyájuk gyengébb mint a konkurenciáé, drágább, egy bő évet késett hozzá képest, és csak április óta kapni normálisan, még ha messze MSRP felett is.
A középkategóriás kártyáik /Polaris/ papíron még versenyképesek, de azokkal is elég komoly készletezési gondok voltak, így valós piaci verseny hónapokig nem volt. (tudom a 1060 ára is felment, de azt legalább lehetett kapni végig, így aki akkor vásárolt gépet, nem kérdés mit rakott bele) A Polarissal viszont az a gond, hogy önmagában nem elég a piaci részesedés egészséges szinten való tartásához, e nélkül pedig a fejlesztők egyre kisebb figyelmet fognak fordítani a GCN architektúrára. "Egész pályás letámadást" kellene indítaniuk, ahogy a CPU részleg is tette, máskülönben nagyon sokan nem fogják komolyan venni őket.
Persze abban igaza van pl. Abu-nak, hogy a GCN nagyon jó, és az iparág egyes megbecsült fejlesztői ennek hangot is adnak, de a játékok 98%-t nem ezek az emberek írják. Nem azt akarom ezzel mondani, hogy a többi fejlesztő egy balfasz, sokuk nagyon ügyes, de mind, mind profitorientált cégeknél dolgoznak, ahol egyes megoldások technikai szépsége a kutyát nem érdekli... az viszont annál inkább, hogy a piac 70-80%-t lefedő GPU architektúrán hibamentesen fusson a termékük, és ez már jó ideje az nVidia kártyáit takarja.
Nem vitatom hogy jó-e a GCN, sokadik GCN-es kártyámat nyúzom, nyilvánvalóan jó, de be kellene végre látniuk hogy nem működik az a stratégia amit a GPU piacon nyomnak már lassan egy évtizede. Tényleg úgy gondolom, hogy csak a FreeSync, ETH mining, és a konzolok tartották életben a Radeon GPU-kat az utóbbi időben. Pedig ez lehetett volna egészen máshogy is, ha nem öntenék az architektúrájukba vödörszámra a "talán egyszer jó lehet valamire" típusú modulokat...
-
Lacccca87
addikt
Aham,ja. Akkor eddig miért nem érzem? Tényleg nem látod a fától az erdőt? Járt nálam 1060 is egálba voltak a 480-al az esetek 80%-ban a maradékból meg 10-10% hogy éppen melyik címbe melyik gyorsabb.
DX12???????? A játékok 90%-a DX11 a mai napig szóval az elmúlt években egyszer sem lett volna szükség ezekre a featurokre.
Az a baj Abu hogy lehet hogy sokan kárognak ellened de igazuk van, elvesztetted az objektivitásod, nem vagy hajlandó a jelent vizsgálni, mindig csak a jövő ami meg ígéretekkel van tele.
-
Televan74
nagyúr
Jövőre Zen2 -t és Navit szeretnék vásárolni.Jó lesz ha összekapja magát az AMD.
-
Abu85
HÁZIGAZDA
válasz
Lacccca87 #97 üzenetére
Nézd meg a Ryzen 2400G tesztet. A DX11-es tesztekben a GT 1030 kifejezetten jól megy, ahogy kell. A DX12 tesztekben egyszerűen valami limitálja. És az a limit a meghajtó, az emulációnak kell némi prociidő, amit mondjuk egy átlagos VGA-teszten nem látsz, mert 16 szálas procival tesztelünk, de amint egy megfizethetőbb procira váltasz, rögtön látod ennek az implementációs iránynak a hátrányát. Az AMD ugye nem használja a CPU-t bekötésre, tehát ott nincs ebből hátrány. Ha mondjuk átváltanánk DX11-be a GT 1030-cal az érintett játékokban, akkor gyorsulna (kb. a Vega 11 elé ugrana nagyon picivel), mert ott kivettük a DX12 implementáció emulációjának a terhelését. És ez a jelen. Te például a Ryzen 2400G-nél lassabb i5-6400-as prociddal simán érintett lennél ugyanettől, ha nem így tervezte volna a GCN-t az AMD és inkább emulálnának egy CPU oldali binding kiegészítést.
-
Lacccca87
addikt
Just saying hogy az elmúlt 2-3 évben nem igazán láttunk rá implementációt hogy szükség lett volna rá. Szóval just saying alapon min az RX5-ös szériáig kihagyhatták volna ezt a live GPU-k ból.Ja és Just saying érdekes módon manapság a játékok normálisan elfutkorásznak egy i3-on is 2mag 4 szál mellett és az elmúlt években leginkább GPU limit volt jellemző...just saying.
Értem a technikai hátterét csak maradjunk a jelenben is. -
Legyes
tag
Szerintem az AMD-nek hosszú távú terve van, nem egy mindent elsöprő, villámháború. Jó irányban haladnak. Kicsi pénzből, a semmiből építettek fel egy piacot és hypeot egyetlen dizájnra, ami csak gyártásilag volt optimális. De el is mondták, hogy kétségbeesett, mindent egy lapra lépés volt a Zen. Kidobták, jó alapokat adott, de kissé kiforratlan lett. Majd most a Zen másfél alatt faragtak a RAM támogatáson, és ami fontosabb a CPU belső sebességein. Mindenki fikázta a CCX+ Infinity fabric dizájnt, hogy mennyire nem életszerű, meg hogy lassú. Mégis ez a jövő. Plusz az IF ügye nem csak a procikban van, hanem a GPU-kban is, nyilván nem véletlenül. 1 éve egy gyártó sem szavazott bizalmat az AMD-nek, nem volt kapható alaplap hozzá, a RAM támogatottság szörnyű volt. Mégis, szerintem nagyobbat szakítottak 1 azaz egy Zen dizájnnal, mint bárki remélhette volna. Én 6 éve vagyok AMD-s (5 évnyi FM1, és pár hónap AM4), és még mindig nem bánom. Drukkolok az AMD-nek, hogy érjenek csak ide a mobil Zen-ek és a beágyazottak is. Az XFR2 pedig kb. értelmetlenné tette a tuningot, olyan jól sikerült.
-
Abu85
HÁZIGAZDA
válasz
Lacccca87 #90 üzenetére
Utólag nem olyan egyszerű ám beletervezni egy hardverbe mondjuk a pure bindless képességet. Az NV a Volta esetében sem csinálta meg, hordozzák a bindless alapot, mert a modernizálás olyan mértékű módosítást igényel, amit a memóriamodellnél kell átdolgozni, de addig lemenni azt jelenti, hogy újra kell tervezni mindent. Szóval vagy helyből jó vagy az újításokra, vagy nagyon sokáig csak emulálsz. Vannak persze könnyen betervezhető képességek, mint például a ROVs, vagy a barycentrikus koordináták tetszőleges kiolvasása, de valamihez nagyon mélyre kell menni. Annyira, hogy nem is mennek le, hanem írnak rá egy CPU oldali kiegészítést. Sokszor ez járható út, a tesztekben iszonyatosan erős procival tesztelnek, tehát van min futtatni az emulációt.
-
Lacccca87
addikt
válasz
Cyberboy42 #89 üzenetére
Ezzel csak az a baj hogy már a GCN óta valahogy mindig az a mondás hogy megelőzte a korát. 4-5 széria alatt beláthatták volna hogy a legtöbb beépített funkciót azóta sem használják ki. Az megint más kérdés hogy most már kezdenek megjelenni olyan megoldások amik igen. Ilyen esetben az lenne a jó megoldás hogy leülnek szépen a mérnökök nem nyúltkálnak az új dolgokhoz hanem a meglévő rendszer polírozzák fel rendesen. A jövőbemutató dolgokat meg ráérnek később belelapátolni.
Lehet magyarázkodni hogy miért ne mígy csinálták, de lássuk be hogy ha a felesleges sallangot kivágták volna akkor nem kizárt hogy jelentősen csökkentik a kártya fogyasztását, vagy azonos fogyasztás mellett extra ténylegesen felhasnálható tranyókkal tömik ki. -
Cyberboy42
senior tag
hadd szoljak hozzá énis.
Ezzel úgy nagyjából egyetértek, sőt, a felmérések szerint az átlag user van hogy cssak azért vesz nvidia kártyát, akár egy középkategóriásat is, mert a piacon az aktuális legerősebb vga egy nvidia kari, és hiába volna amd-től egy jobb ár/érték alternatíva. Szóval ezek miatt is oda kéne figyelnie amd-nek arra hogy mit hoz top szinten. Ugyanakkot!
egy gpu fejlesztése nem egy hétvégét vesz igénybe, és Abu már máskor is szépen levezette ,hogy hogyan kell kitalálni és megtervezni egy csipet akár évekre előre, és kitalálni hogy vajon mik lesznek az igények a jövőben ráadásul amd-nek nincs akkora erőforrása hogy párhuzamosan is mehetnének fejlesztések, és ami zsákutcának bizonyul azt majd szépen megya kukába. alapvetőleg jól ki van találva a Vega, csa khát egy picit mintha megelőzte volna a korát, egyszerűen még nem futottak föl azok a fejlesztések amik ki lehetnének használva.
Viszont, ahogy én látom van esze is az amd-nek ugyanis elsősorban a fejlesztők felé nyit, csinál és ajánl csipeket, hogy minél korábban, és minél többen ezekre írjanak ,és ez legyen az a hardver amiből ki lehet indulni. Mindenképpen hosszú távra gondolkodik az amd, de csak így van esélye felkapaszkodni a vonatra amin nvidia a masiniszta -
Dyingsoul
veterán
válasz
Lacccca87 #35 üzenetére
Hát... a quantum számítógépet illető fejlesztéseket nem tudom mennyire követted. Én egy kicsit belenyaltam de úgy látom, hogy még nagyon a sötétben tapogatóznak emellett pedig ezen a területen egy aprónak tűnő probléma is évtizedekkel tolhatja el a fejlesztéseket. Sok clickbait cikk jelent meg a témában, én nem azokat vettem alapul. Emészthető, tldr stílusú cikk a témában.
-
Abu85
HÁZIGAZDA
A nem fog futni és a nem jól fut között nagy a különbség. A DX12 és a Vulkan emiatt teljesen jó alternatíva a piacnak. Alapvetően a memória kezelését kell csak finoman értelmezni. Vagy DX12 esetében ott az RSL, míg Vulkanhoz ott a VMA.
Ha pedig valaki sajátot ír, akkor az implementáció tekintetében gyakorlatilag ugyanazt használják a gyártók a két API-n. Ez egy jó kiindulási pont. [link]
-
Tyrel
őstag
Ami most megjelent az a Zen+, inkább gyártástechnológiai előrelépést, kisebb optimalizálásokat takar, de architekturálisan szinte ugyan az mint az előző Ryzen generáció.
A Zen 2 (ami a Ryzen 3000 lesz ha minden igaz) új architektúrát / új processzormagokat takar... meg mondjuk egyben a 7nm-re váltást is, de elviekben ott nem a gyártástech. előrelépés miatt kapja a kettest.
-
Tyrel
őstag
válasz
szmörlock007 #81 üzenetére
A Glide-ra gondoltam, amire ugyan úgy megváltóként tekintettek mint most az AMD a Mantle-re, aztán a DX12-re, aztán meg a Vulkan-ra, hogy na majd az az API elterjed és majd az szépen kihasználja a hardverükben rejlő előnyöket és majd azzal jól földbe döngölik a konkurenciát...
Mérnöki szempontból ez nem is hülyeség, hardverközeli API mindegyik, lehet vele sokkal gyorsabb kódot írni, csak az nem fordul meg a fejükben hogy innentől kezdve az másik GPU-kon nem fog futni (vagy nem jól, részletkérdés), tehát egy csomó embernek nem lehet majd eladni a vele készült játékokat, tehát a fejlesztők nem fognak ebbe az irányba menni.
Értem és még alá is írom annak az elvét hogy minél "okosabb" GPU-t csináljanak, szép gondolat, de nem piacképes. Ez nem az AMD hibája (csak az hogy ezt nem látják be), még csak nem is a gamer-eké, konkrétan az egész nyugati kapitalizmus és fogyasztói társadalom erre az "élj a mának!" felfogásra épül. Megveszik most a legjobbat, ami nem az AMD terméke, majd ha jövő ilyenkor már nem az a legjobb, a kutyát nem érdekli, vesznek helyette másikat (ami szintén nem az AMD terméke lesz). Így pörög a piac, ebben van a haszon, akármilyen szomorú is.
-
Cifu
félisten
válasz
szmörlock007 #81 üzenetére
Akkor is, most is arról szólt az élet, hogy ki mennyi FPS-t csinál az adott játékban / tesztben. De inkább az adott tesztben (ugyebár a 3D Mark ekkor élte virágkorát).
Ezzel együtt a 3Dfx nem egy adott ok miatt bukott el, hanem több rossz döntés párhuzamosan döntötte be. Az STB Systems felvásárlása, ami miatt az végfelhasználókat kiszolgáló gyártók elfordultak a cégtől (és az nVidia chipjeire építve jó kis kártyákat hoztak ki), a Napalm program vontatott fejlesztése, a VSA-100 koncepció késése és az ekkor divatos trendek (32bit, Hardware T&L, nagy méretű textúrák) lassú lekövetése együttesen hozta el azt, ami miatt végül a 3dfx összeomlott.
A "jövőnek élt" bizonyos szintig igaz, hiszen ott volt a kezükbe az SLI, amivel rendesen megelőzték a korukat, és az ATi is kénytelen volt "lemásolni" ugye, amikor az nVidia a 3dfx felvásárlása után integrálta a saját kártyáihoz. A VSA-100 koncepciója se volt rossz... csak éppen rohadt drága volt. Ez megint egy olyan dolog, hogy ha sikerült volna a rendes gyártásminőséget garantálni, a fejlesztési ütemterveket betartani, akkor a 3dfx megelőzhette volna a korát... De van ott elég ha...
-
zolka95
őstag
Mitől Zen2?
Én azt hittem van első és második generációs zen, ami ugye idén jelent meg.
Ez a Zen2 elnevezés mit takar?
-
szmörlock007
aktív tag
Üdv
Függetlenül a hozzászólástól, mit csinált a 3dfx amivel mindig a "jövőnek élt"? Ezt már nem egy embertől hallottam, de ez teljesen fals információ. A 3dfx, a voodoo2-nvidia Tnt, és a voodoo3-Nvidia Tnt2 korában(1998-1999) pont, hogy ők részesítették előnyben a sebességet a látvánnyal szemben(pl: igazi 32 bit támogatásának hiánya, igaz a voodoo 16 nbiten is nagyon jó képet adott stb...)
Az nvidia modernebb, fejlettebb funkciói voltak(nagyobb textúra támogatás pl)míg a 3dfx csak arra figyelt, hogy aktuálisan a legtöbb fps-t pumpálja ki a rendszer. -
Tyrel
őstag
válasz
Pete55555 #78 üzenetére
Ha úgy gondolnám hogy le kéne húzni a rolót nem vettem volna Vegát...
A Polaris valóban versenyképes még, de a felett már nincs ütőképes fegyverük, és ez mára oda vezetett hogy az nVidia már nem is kényszerül versenyhelyzetbe. Folyamat jönnek a pletykák hogy a Volta késni fog, meg hogy az alsó-közép kategória valójában meg sem fogja kapni, stb. Ráérnek mint Pató Pál úr...
Szerintem ez az AMD sara, ha hagyták volna ezt a hülye Vegázást a fenébe és simán csak építenek egy nagyobb Polarist GDDR5X memóriával most sokkal előrébb lennének, a piacon meg lenne verseny.Nem is értem miért vagyok hülyének nézve amiért ezt akarom; nézzetek a processzor piacra, pontosan azt csinálták amit a GPU piacon is kellett volna. Eldobták a hiper-szuper, jövőnek készülő, álmodozós design-t, helyette csináltak valamit ami viszonylag olcsón gyártható, moduláris, MA versenyképes, az Intel meg kapásból nyakon is fosta saját magát.
Pontosan ugyan ezt meg tudták volna tenni a GPU piacon, de nem tették, mert az RTG-t még mindig álmodozó majmok vezették. Nem kell messzire menni, a 3dfx pont így ment csődbe... -
Pete55555
addikt
mert ha tisztán csak az ár/teljesítmény alapján kellene megélniük a MA gaming piacán, akkor már csomagolhatnának is...
Aki mégegyszer leírja ezt, ha modi lennék, már rég kitiltottam volna, akkora hülyeség, és 1000x meg lett cáfolva.
RX470/480 - 570/580 tökéletes alternatíva 1060 3/6Gb-re, megfelelő árazással. (bányászlázat most ne keverjük bele)
Ugyanez 1050/1050 Ti - 560 2/4Gb vonalon.
Az, hogy felső kategóriában le vannak kicsit maradva, még nem jelenti azt, hogy le kéne húzni a rolót -
S_x96x_S
addikt
>Hiába van a GCN felkészítve erre meg arra, hol van a játék ami profitál belőle?...
>És olyan játékra gondolok amivel ténylegesen játszanak is nagyobb tömegek,
>nem az ilyen "csak Benchmark-ra jó" cuccokra mint a Doom."GCN is also used in the graphics portion of AMD Accelerated Processing Units (APU), such as in the PlayStation 4 and Xbox One APUs."
https://en.wikipedia.org/wiki/Graphics_Core_Next -
Tyrel
őstag
Ez papíron nagyon jól hangzik, de gyakorlati haszna nincsen, mert a fejlesztők kizárólag csak akkor írnak olyan kódot ami a piac egy részét hátrányosan érinti, ha külön megfizetik őket érte. (lásd. GameWorks köhömm)
Hiába van a GCN felkészítve erre meg arra, hol van a játék ami profitál belőle?... És olyan játékra gondolok amivel ténylegesen játszanak is nagyobb tömegek, nem az ilyen "csak Benchmark-ra jó" cuccokra mint a Doom.
Értem hogy elvi szinten ez így miért jó, meg örülök is neki hogy ilyet tud, de annak nem, hogy a gyakorlati teljesítménye kárára teszi ezt. Az emlegetett felelős mérnöknek illene észben tartania, hogy ha a MÁNAK nem tud versenyképes hardvert kiadni, akkor tök feleslegesen tekintget álmodozva a holnapután felé, mert holnap már nem fog fizut kapni.
Szerintem nagy szerencséjük van a FreeSync-el, meg a bányászat által keltett videokártya felvásárlási hullámmal, mert ha tisztán csak az ár/teljesítmény alapján kellene megélniük a MA gaming piacán, akkor már csomagolhatnának is...
A "jövőbiztosság" tisztán hozzáadott érték kellene hogy legyen, nem kompromisszum alap. -
Abu85
HÁZIGAZDA
válasz
Lacccca87 #72 üzenetére
Ezek a fejlesztések a konzolokba készültek. Ott akartak korlát nélküli programozást. Aztán átjött ez a modell a Mantle-be és onnan a DirectX 12-be is. Persze a Microsoft egy kicsit butította, így a valóságban nem memórialimites a DirectX 12 bekötése, hanem csak kétmillió bejegyzés a követelmény, de ez is elég nagy szám, még ha nem is korlát nélküli. De a lényeg igazából az emuláció hiánya. Ennek ugyanis vannak mellékhatásai. Például a CPU oldali terhelés megnő a beszúrt binding API által. Láthatod a Raven Ridge tesztben, hogy mekkora különbség van a DX11-es és a DX12-es eredmények között, ha a Vega 11-et hasonlítod a GT 1030-hoz. Nem azért esett vissza a GeForce teljesítménye DX12-ben, mert kicseréltük a hardvert, hanem mert nem raktuk alá a tipikusan használt nyolcmagos izomprocit, ami elfedné az NV DX12-es implementáció emulációjának hátrányait.
Rendben van, hogy a tesztekben 8 maggal rendelkező, 4 GHz-re húzott Core procikkal van elég erőforrás a binding kiegészítést futtatni az NV driverben, de ez egyáltalán nem életbiztosítás, főleg akkor, ha nem veszel mellé legalább nyolc szálas procit otthonra.
-
Lacccca87
addikt
Sokszor említettük már ilyen világfontosságú dolgokat ami miatt meghal egy egy rendszer, de sosem lett így. Értjük a technologiai oldalát is nem kell ezerszer elmagyarázni, de jelenleg semmi értelme. Ezeket a fejlesztéseket ráértek volna belepakolni a most készülő következő generációs GPU-ba mert ha jól emlékszem/tudom már az első GCN-be is benne volt de akkor meg még a DX12 a kanyarba sem volt. Most már a kanyarba került és van is 1-2 megvillanása, de nem általános. Felelős mérnök nem tervez olyat a jelenlegi generációba ami majd 3-4 év mulva lesz releváns.
Párhuzamot vonahtunk az elekromos autókkal is egyébként, elfutkorásznak az utakon 300-500Km-es hatótávval de amíg nincs kiépítve a rendes töltőhálózat kb semmit nem ér.Itt az a gond, hogy nincs meg a megfelelő vezető aki megmondja hogy mi az amit éppen nem kellene beletenni mert felesleges és csak azért van benne mert "techbuzik" és minden s@rral kitömik emiatt.
-
Abu85
HÁZIGAZDA
Rengeteget nyernek rajta. Nem kell emulációt alkalmazniuk a DirectX 12-nél a legmagasabb bekötési szinthez. Ehhez a GCN-nek maximum 16 skalárregiszterre van szüksége aktív wavefrontonként, vagyis a regiszterhasználat legrosszabb esetben sem lesz több 2,5 kB-nál. Ha emulálnák, akkor mondjuk egy dinamikus és divergens indexelés sokkal több vektorregisztert venne igénybe aktív wavefrontonként. Az NV implementációja pont ilyen, és legrosszabb esetben a bekötés 256 kB-nyi regisztert ehet multiprocesszoronként. Egy shaderrel ki tudod végezni az egész emulációt, és akkor onnantól kezdve a hardver semmire sem jó. Lényegében nem tudsz ellene tenni semmit, csak összetenni a két kezed, és imádkozni a jóistenhez, hogy ne írjon senki ilyen shadert. Egy felelős mérnök ilyet nem csinál, ők terveznek és nem reménykednek.
-
Tyrel
őstag
Ez így tök jól hangzik, de évek óta jól láthatóan csak hátrányuk van belőle, legalább is játék fronton - ezeket a kártyákat meg állítólag arra gyártják...
Szóval miért kell nekik a GPU-n belülre ALU-kat pakolászni, ha nem nyernek rajta semmit, csak arcon csapják vele az energiahatékonyságot?Ha professzionális piacon nyernek vele az a gamereket nem hatja meg, tervezzenek akkor külön GPU-t.
Félreértések elkerülése végett egy Vega56-ot nyúzok és nagyon jó kártyának tartom, de tele van a GPU-ja "felesleges szeméttel". Ha nem akartam volna FreeSync-et, ill. ha tetszenének, vagy egyáltalán meg tudnám fizetni a G-Sync monitorokat, akkor jobban jártam volna egy nVidia kártyával.
Ez a Vega kicsit olyan mintha egész évben úgy járnál az autóddal hogy a tetőig tele van pakolva a nyaralós cuccal, csak azért mert az évben 1 hetet nyaralni mész. Persze csinálhatod ezt azért is mert a zombi apokalipszisre vársz, de láthatóan nem jött el az elmúlt évtizedben... (az AMD folyamatosan telepakolta az összes GPU-ját olyan részegységekkel amik sosem váltak hasznára, lásd. pl. Xenos tesszelátor)
-
Abu85
HÁZIGAZDA
válasz
jattila48 #65 üzenetére
A tartalomvizualizáció az, amikor csinálsz egy borzalmasan részletes modellt, mondjuk egy animációhoz, és az a modell akkora lesz végül, hogy nem fér bele egy átlag VGA memóriájába. Tehát két lehetőség van, vagy építesz egy szervert megfelelően sok memóriával, amiben a CPU-val megnézed, hogy jól fog-e kinézni a tartalom az animációban, vagy veszel egy Vegát (feltéve, hogy nem akarsz a tartalom szétbontásával vesződni, hacsak nem muszáj nem akar senki).
Az biztos, hogy eléggé extrém igénynek számít otthoni szinten, azért nem teljesen átlagos mondjuk 40 GB-os tartalmat tervezni otthon, de alapvetően a hardverek eléggé olcsók már, hogy ez egy lehetőség legyen. Ritka, de megfizethető gépet kapni hozzá. -
Lacccca87
addikt
-
-
Abu85
HÁZIGAZDA
válasz
jattila48 #54 üzenetére
Nem érted. A Vega úgy működik, hogy te felhasználóként beállíthatod, hogy mennyi memóriát kapjon a GPU. Lecsíphetsz neki egy rakás RAM-ot, és aztán a HBCC elintézi a többit. Ha van 128 GB RAM-od, akkor abból 56 GB-ot odaadhatsz, és akkor a Vega 64 GB-os VGA-ként fog látszani a programok felé. Az más kérdés, hogy otthon ez nem valószínű, hogy kihasználható, de persze lehet akkora méretű tartalom, amihez kell ennyi memória, különben a program egy out of memory üzenettel leáll.
-
#16939776
törölt tag
Sajnos nincs hozzá háttérismeretem hogy a 1 csatornányi helyi memóriavezérlő és a CCX-ek közti kapcsolat fedezi e a +2 mag által generált forgalmat. Ez elöl a következő generációs memóriavetélővel, szélesebb magok közti kapcsolattal elhárul az akadály ha egyáltalán volt ilyen.
A CCX-ek duplázása már 4 csatornányi memóriát kíván, az desktopra elég nagy luxus lenne. Ezt szerintem nem lépik meg. (Szerintem az általánosabb igények mellett felesleges is lenne ide 16/32 vagy 24/48 szál)
(#52) Bandit79: Azt a káoszt amit okozott a zen, azt a terveik felgyorsított végrehajtása okozta, szóval valamennyire csak aludtak. 100% hogy van új arhitektúra, ahogy 5 évvel ezelőtt is volt. Kérdés az hogy mikor tartják annyira jónak hogy indulásnál mindenkit levegyen a lábáról, de maradjon benne annyi, hogy következő 10 évig, nagyobb csíkszélesség váltás lehetősége nélkül minden évben el lehessen adni újra.
-
Lacccca87
addikt
Ezt már ezerszer átbeszéltük más témákban. Nem nagyon van neki varázskalap amiből bármikor előhúz bármit. Egyszerűen elaludt és mire felkelt elhúzott mellette az AMD. Ez jól látszik most is hogy csak tűzoltás amit művelnek. Összevissza foglalatok meg chipsetek. A gyártástechnológiára is azt hitték van még min 1 évük de a többiek szépen feljöttek és ráléptek a nyakára.
Jelenleg 2 áthidaló megoldás lesz aztán meglátjuk. -
Bandit79
aktív tag
válasz
#16939776 #42 üzenetére
Szerintem úgymond altat az Intel most, annyit húz ki a mostani archból amennyit tud. Nem véletlen a pont annyi telhesítménynövekedés amennyi az AMD ellen kell...
Sztem bőven van a tarsojukban már. Egyszer csak meglepik a piacot viszonylag kissebb időintervallumu beharangozással ,mint azt megszokhattuk.
Nem értem , hogy gondolhatják itt sokan ,hogy azért ,mert az AMD most szórja ki a Zen hegyezgetéseit, attol hátrányban lesz az Intel. Gondolom nem aludtk az elmúlt években.. -
Abu85
HÁZIGAZDA
Nagyon egyszerű a dolog. Korábban már leírtam. A GCN egy memória-alapú architektúra. Nagyon leegyszerűsítve ennek az a lényege, hogy maga a multiprocesszor bármilyen bekötést el tud végezni a host CPU nélkül. Ergo minden egyes ebből származó limit maga a memória, amennyi adat abba belefér, annyi köthető be. Ahhoz, hogy egy hardver úgy működjön kell bele egy olyan rész, ami tényleg ki is tudja váltani a CPU munkáját. Ez a GCN CU-kon belül az integer skalár ALU. Ez csinál minden bekötéssel járó munkát. Ennek az az előnye, hogy korlát nélküli a hardver programozhatósága, viszont hátránya, hogy ezek az egységek fogyasztanak. De hosszabb távon ezek nem fognak kikerülni, sőt az a pletyka járja, hogy a skalár egység kap majd lebegőpontos ALU-t is.
(#49) jattila48: Az egy GPU-architektúra. Az a lényege, hogy a felhasználó állíthatja be mennyi memóriát rendel a GPU-hoz. Ha 64 GB RAM-ja van, akkor simán hozzá tud rendelni 48 GB-ot, és akkor lényegében lesz egy 48 GB-os VGA-ja. A driverben van egy csúszka erre, ami 12 és 64 GB között állítható.
-
Tyrel
őstag
Szerintem ott sem magával az architektúrával van baj, "csak" a gyártási oldalon. Persze ez részben adódhat tervezési gondokból is, de nekem az jön le hogy a GCN logikailag nem működik rosszul, csak a fizikai megvalósításával vannak mindenféle problémák. (nem értek hozzá, talán túl messze vannak egymástól a logikailag összetartozó komponensei, túl nagy a szivárgás, vagy akármi)
Ha nem kéne nagyon megerőszakolni az áramkört még ahhoz is, hogy a konkurenciánál 10-20%-al alacsonyabb órajeleket el tudjon érni, akkor semmiféle sebességbeli lemaradásuk nem lenne, sőt...
-
arn
félisten
válasz
#16939776 #42 üzenetére
szerintem az intel akkor kerulhet nagyobb lepeshatranyba, ha elkezdik a ccxeket lecserelni tobbmagos verziokra. gyk semmit se kell a mostani koritesen valtoztatni. kivancsi leszek, hogy a zen2nel mar az elejen meglepik e ezt, vagy kivarnak vele, ket evbe siman beleferne.
a folytatas lesz kerdeses, mert a mostani ccxeket meg siman duplazzak, de utana se a pcs platform, se a technologia szintje nem lesz tul jo partner a tovabblepeshez. ott fog vhol kifulladni a ryzen projekt.
most ott tartunk, hogy a megjeleno processzorok ralicitalnak a konkurenciara, a threadripper es a mainstream ryzen is gyorsabb volt, min az aktualis intel ajanlat, es varni kellett a valaszra. utoljara ilyen az athlon-p3 es a a64-p4 korszakban volt.
-
#16939776
törölt tag
válasz
Lacccca87 #20 üzenetére
Intelnek le kell cserélnie a CPU arhitektúrát, és a monolitikus csippeket, valamint életre kell keltenie a 10nm-es majd az 5nm-es technológiájukat, hogy versenyképes maradjon.
Ez 2-3 év előny AMD-nek, ez után még Intelnek meg kell győznie a piacot hogy az ő új architektúrájára optimalizáljanak, ne a zen-re ami 3-4 éve kint van addigra.Szerintem nincs nagy esélye, hogy némi erőlködés után beleragadnak a ryzen projektbe.
-
Gibo
senior tag
válasz
Lacccca87 #35 üzenetére
Ne legyen igazam, de szerintem még 6-8 évig inkább elreszelgetik a mostani technológiát. Aztán e mellett lehet, hogy a háttérben már mindenki egy új koncepción dolgozik, ami átlépi a korlátot...Ugyanakkor ha csa ka csíkszél elméleti csökkenésének sebességét nézzük, még a mostani processzorokat is van hova optimalizálni.
-
#65675776
törölt tag
Figyelembe véve, hogy a legtöbb cég az új revíziójú lapoknál csak a foglalatot cserélte le, ez nyilván nem igaz. Gondolom a "váltás" az alaplapgyártók kérése volt.
Egyébként az FX energiagazdálkodása és feszültségkezelése annyira eltéárt az előtte és utána jövő prociktól, hogy ott legalább indokolt volt a váltás. De az AMD meg tudta volna tenni, hogy ne kelljen úl lap, az AM2 -> AM2+ váltás a prociknál sem igényelte, sőt, az AM2 -> AM3 sem. Csak bizonyos enrgiamanagement funkciók nem működtek a régebbi lapokkal.
-
janeszgol
félisten
válasz
Lacccca87 #20 üzenetére
Akkor veszünk mást. Ezen nem kell aggódni. Drágább lesz a többi, mert nem lesz konkurencia? Nem kell megvenni. Majd lesz olcsóbb is, ha rájuk rohad.
Én inkább azon aggódnék, hogy konkurencia hiányában elmaradhatnak/késhetnek a bravúros fejlesztések az összes oldalon. Az már probléma. -
arn
félisten
válasz
Lacccca87 #29 üzenetére
9 ev alatt... nezd meg azt megelozo 9 evet, vagy a ryzen megjelenese utani idoszakot majd. megfogadtam, hogy akkor cserelem le az i7 4770et, ha 2x gyorsabb lesz a mainstream teteje (hedt nem erdekel). most jott el a csere ideje. szerintem a kov cserere nem kell ot evet varnom, szerintem ket even belul itt lesz a ketszeres ugras (vmi 16 magos csoda).
-
leviske
veterán
Igazából az XFR3 önmagában is vonzóbbá teheti az új lapokat anélkül, hogy megszüntetnék a kompatibilitást. Ráadásul még mindig ott van opciónak, hogy az 500-asokkal esetleg nem csak 16PCIE sávot adnak a vásárlóknak (elvégre a Zen1-ben is jelentősen több volt a processzorban, mint amit kivezettek).
Olyan architekturális változtatást meg nem tudok elképzelni, ami indokolná a váltást. Az Epyc még egy indulóban lévő termékvonal, stabilitásra van szüksége, amihez a SP3-at meg kell tartani. Ha meg az marad, sok érv az AM4 ellen sem szól majd.
Persze ettől még a gyártók megléphetik, hogy nem frissítik a 2017-es alaplapjaikat.
(#31) daa-raa: Meg hát az AM3 és AM3+ közti kompatibilitás hiányát is ezzel magyarázták. Annak ellenére, hogy egy 1 évvel korábban még arról volt szó, hogy lesz teljes AM3 támogatás.
(#34) Lacccca87: Ha úgy érzékeled, hogy valaki trollkodik, arra a legjobb megoldás mindig az, hogy nem reagálsz semmit.
-
Manbal
senior tag
igen, itt csak költői módon lehet rámutatni bizonyos dolgokra... a lényeg hogy megy a marketing 1000rel, kézzel fogható dolog meg majd lesz belőle jövő év végén, és persze az amit most füllentenek, hogyan fog viszonyulni a végleges kézzel fogható tárgyhoz képest, majd kiderül... a lényeg hogy az Intel "küszködik/szenved és szánalmas", aki mást mond az tiltva lesz és troll
-
Lacccca87
addikt
Azért magszám ide vagy oda, az IPC kb duplázódott (azonos kategóriájó procikat nézve i3/i3új i5/i5új stb...), szóval volt fejlődés bőven.
-
arn
félisten
válasz
Lacccca87 #22 üzenetére
a teljesitmenyek egy teljesitmenyplafon fele konvergalnak, magokat lehet skalazni, amugy nagy ugast nem fogsz latni. illetve a corenal is gyk visszatertek egy korabbi architekturahoz, 2-4x a magokat, ebbol lett az ugras
a nehalem volt architekturalisan az utolso igazi lepcso, azota a hegyezgetes megy, most ugyanezt csinalja az amd gyorsitva. valoszinubb egy hasonlo teljesitmenyszint mindket gyarto reszerol a kozeljovoben.
az amd architekturaja rugalmasabban skalazhato jelenleg, az intelnek sokkal korulmenyesebb a monolitikus magokkal buveszkedni. nem csodalkoznek, ha ok is visszaternenek oda, amit a core2vel megleptek, es a ryzenes ccxel leporoltak. nem ez a leggyorsabb megoldas, de a leghatekonyabb gyartasi szempontbol. 7 nanon kisebbek lesznek a magok, lehet a mostani tokozasokba lehet elferne a 8 magos ccx is.
igazabol eleg lenne az amdnek most a negy magos ccx melle egy hatmagosat csinalni, es 4-24 magig siman lefedne mindent, anelkul, hogy barmifele komolyabb valtoztatast kellene csinalniuk.
-
Lacccca87
addikt
Mert jelenleg kb lényegtelen a piaci verseny szempontjából. Most kb egy szinten vannak és ez így is lenne jó ha maradna. De ne felejtsük el hogy anno az intel képest volt nagyot lépni a Core szeria megjelenésével. És most sem kizárt hogy új architektúrán dolgoznak mivel szemmel látható hogy a mostaninak kb itt a vége, innen már nem lehet ésszerűen skálázni felfele.
Egyébként a 6 év toporgás túlzás. 6 év távletból mengézed a két hasonló kategóriájú procijuk közötti különbséget akkor jelentős növekedést tapasztalnál. Az viszont tény hogy egyes generációk között nem volt hatalmas ugrás 10-15%/azonos órajelen.
-
Lacccca87
addikt
Jelenleg csak 1 dolog foglakoztat és ejt gondolkodóba. Amit most megcsinált CPU szinten az AMD az tök ugyanaz mint anno a Radeonoknál. Megvan a sweetspot, hozzá a teljesítmény és a kellemes fogyasztás is. A gondom nekem ezzel annyi hogy fennáll a veszély hogy ismét beleragadjanak mint a Radeonoknál aztán csak a szenvedés fog menni. Próbálják majd skálázgatni de igazából semerre nem fognak haladni és a végére lesz az egészből egy 2. buldózer.... a mostani siker meg kb olyan rövid életű lesz mint anno az Athlon X2 procik.
-
-
alton1978
tag
Jól hangzik! Nem tudom, hogy DDR4-et fog-e használni, mert engem az jobban érdekelne, mint a csipszet.
Most tervezek a Zen1-ben 32-ről 64-re bővíteni, mert kellene, meg van 2 szabad slot...de, ugye számomra nem kérdés, hogy amint jön a Zen2, váltok is.
A kérdés, hogy érdemes-e vennem még 32GB DDR4-et, vagy a ZEN2 már DDR5-öt fog-e használni, így meg inkább kivárjak a memória bővítéssel? -
arn
félisten
nagy pofon lesz az intelnek lassan...
-
#16939776
törölt tag
Ár-értékben esélyes hogy körbe pisilik intel kínálatát. De amíg 1-2 nagyobb OEM nem áll teljes váll szélességgel mögéjük, bevállalva a szankciókat a kék oldalról, addig nem számíthatnak bizalomra, vagy nagyobb volumenű eladásokra.
Desktop-ra kész tejjel mézzel folyó performance-kánoán lesz, talán mobil-ba is beletenyerelnek ezekkel.
-
Érdekes ez a csíkszélesség dolog. Pár éve még többen állították, hogy 10nm alá bemenni már szinte lehetetlen lesz, mert akkora lesz az elektron szivárgás jövőre meg itt a 7nm.
Jelenlegi tudásunk szerint hol van a vége?
-
jedis
senior tag
És ezek már 6/12-es CCX-ek lesznek ? Mert valami ilyesmit rebesgettek anno, hogy 7nm-en már beletolnak plusz két magot CCX-enként a Zen2-be.
Ha ez így lesz, akkor 2019 végére, vagy 2020 elejére jöhetnek is a 6/12 -es Ryzen2-es APU-k, Navi IGP-vel .
-
Bandit79
aktív tag
Erről amíg kézzel fogható lesz ,hány szösszenet fog születni itt a Ph-n?
Csak költői....
-
Tyrel
őstag
Arról mikor kezdenek el beszélni, hogy az az "AM4 2020-ig releváns marad" mit takar majd?... Zen 2-höz kelleni fog új chipset, vagy pl. egy X470-el elmegy?...
Szerintem jelenleg ez sokkal érdekesebb kérdés mint a Zen2 pontos megjelenési dátuma...
Új hozzászólás Aktív témák
- Acer notebook topic
- Subaru topik
- exHWSW - Értünk mindenhez IS
- Pulzust is mér az Apple az AirPods Pro 3
- iPhone topik
- Mégis mi értelme az Xbox PC-nek, ha limitálja a hardverválasztékot?
- Autós topik
- Debrecen és környéke adok-veszek-beszélgetek
- Nintendo Switch 2
- Google Pixel topik
- További aktív témák...
- Intel Core Ultra 9 285K - Új, Gari 2028.08.05. -ig - Eladó!
- Intel Core i7 - 12700 12Mag / 20Thread - LGA1700 - 3.6GHz - 4.90 GHz, 25M Cache
- Intel Core i9-12900K 16-Core 3.2GHz LGA1700 (30M Cache, up to 5.20 GHz) Processzor!
- Amd ryzen 5950x + Msi x570s carbon wifi + Team Group 8Pack Edition 32GB samsung b die .
- i5 12400F dobozában, még 2 hónap Aqua garanciával
- LG 65NANO81T3A 165 cm / 65 4K UHD NanoCell Smart TV 6 hó garancia Házhozszállítás
- Telefon felvásárlás!! Apple iPhone 16, Apple iPhone 16e, Apple iPhone 16 Plus, Apple iPhone 16 Pro
- Egyedi ékszerdobozka
- Bomba ár! HP EliteBook 840 G8 - i5-1145G7 I 8GB I 256GB SSD I HDMI I 14" FHD I Cam I W11 I Gari!
- Panasonic CF-XZ6 AIO all-in-one laptop tablet 2k touch i5-7300u speciális ütésálló rugged
Állásajánlatok
Cég: CAMERA-PRO Hungary Kft.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest