Új hozzászólás Aktív témák

  • Abu85

    HÁZIGAZDA

    válasz Jack@l #47390 üzenetére

    Sokat. Az a memóriakonfiguráció 35 wattot eszik. Ebben a generációban a memóriák nagyon nagy fogyasztók lesznek. Vége a 20 wattba bőven belefér szintnek. Ezért is volt kritikus fejlesztési szempont jelentősen csökkenteni az RDNA2 fogyasztását az RDNA-hoz viszonyítva, mivel így korrigálni lehet a memória extrém fogyasztását.

    (#47395) Devid_81: A termékmintának megvan a 3 GHz vízzel is. A probléma a fogyasztás. Ehhez a szinthez már 400 watt fölé kell menni. Nem feltétlenül éri meg. Az RDNA2 elsődlegesen a perf/wattban lép jelentősen előre, és ebből adódik, hogy sokkal nagyobb órajelre is képes, mint az RDNA. Meg persze ezen segít a CDNA busza is.

    (#47400) Petykemano: Nem tudsz a korábbi adatokból kiindulni, mivel a memória PHY-t folyamatosan tervezik. Az RDNA2 esetében áttervezték, mert a Microsoft és a Sony is ilyen memóriaszabványt használ.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • paprobert

    senior tag

    válasz Abu85 #47401 üzenetére

    Egy naiv és egy elborult kérdésem is lenne.

    Dupla kapacitású GDDR6 lapkák nem tudják kapásból felezni a lapkák számát és ezáltal a fogyasztást? (nem követem a témát, lehet hogy ilyen nem létezik még)

    Ha valóban 100W környékére kúszik az aktív állapot, akkor nem lenne érdemes dinamikus órajel és feszültségskálázást tervezni a memóriáknak?
    Pl. Tudna futni JEDEC szabványon kívül brutál feszültség mellett 21 Gbps-on, vagy ha az ideális teljesítmény úgy kívánja, akkor futhatna redukált VRAM órajelekkel, emberi fogyasztással, így a TBP keretből több juthatna a GPU-nak.
    Mindezt akár realtime balanszírozva.

    [ Szerkesztve ]

    640 KB mindenre elég. - Steve Jobs

  • Abu85

    HÁZIGAZDA

    válasz paprobert #47402 üzenetére

    Kell egy minimum lapkaszám az adott memóriabuszhoz. 512 bithez például 16 darab lapka. 256 bithez 8. Ennyi kötelező. De például ha lenne elég nagy kapacitású memóriastack arra, hogy 256 biten 16 GB memóriát lehessen hozni 8 memóriával, akkor nyilván annak a fogyasztása nem lenne annyira magas, mintha a 16 GB-ot 16 memóriával hoznád 256 biten. De egyelőre nincsenek erre megfelelő memórialapkák, ugyanis a legfőbb fejlesztések a gyártóknál a HBM2-es és a DDR5-es megoldások. A GDDR6 egy másodvonalbeli technológia. Nem marad sokáig velünk, így annyira sok pénzt nem is raknak bele. A legmodernebb gyártástechnológiákat, mindig a fontos megoldások kapják meg, vagyis a HBM2 és a DDR5.

    Sok dolgot lehetne csinálni, de ahhoz pénz és idő kell. Viszont pont ezt a kettőt nem szeretik áldozni a gyártók egy olyan irányra, ahol téglafalban ér véget az út. Erről nem fogod meggyőzni őket, mert tudják nagyon jól, hogy a sávszélességigényes területen a HBM-nek bitang nagy fórja van, tehát ha nem most, akkor a következő körben már arra ugrik mindenki. Így meg ugye minek a következő körre valami nagyot fejleszteni a legacy vonalra.
    A legtöbb ötlet ilyen ott veszik el, hogy senki sem fizeti majd meg. Úgy meg felesleges.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Alogonomus

    őstag

    válasz Petykemano #47400 üzenetére

    Én is végszükség esetére írtam az 512 bitet. Jó lenne 384 bitből megoldani, de az Nvidia is elszánt, amit a speciális hűtőrendszer és a 600 W-ig használható betápkábel is jelez, így AMD sem lehet szívbajos.
    AMD valószínűleg sokáig nem kap még egy ilyen jó lehetőséget. Nvidia gyengébb node-ra kényszerült, Intel jövőre sem tud érdemi ellenállást felmutatni, DIY után már a pre-built és custom téren is kezd beindulni az AMD szekere, konzolok már elkészültek, Zen3 is kész van. Most tudna a VGA-területre koncentrálni hosszabb ideig.

  • Kupszi

    aktív tag

    Úristen hova jutottunk... gamer csúcs VGA-k 300-400wattal?!

    Emlékszem amikor fogtam az Ati 9500Pro-mat, na és ha akkor valaki azt mondja lesz 400wattos kártya akkor kirögöhöm. De csak csak eljutunk ide, és akkor pár év múlva akár elérhetjük majd at 500-at is. Sose lehet tudni.

    Pipapapa strikes back again! Avagy újabb tégla a falba!

  • TESCO-Zsömle

    félisten

    válasz Kupszi #47405 üzenetére

    "640kB-nak mindenre elégnek kell lennie mindenkinek." ;)

    Sub-Dungeoneer lvl -57

  • b.

    félisten

    válasz Alogonomus #47404 üzenetére

    nem kényszerült ő sehova. ha akarta volna vagy szükségesnek érezte volna akkor kiperkálja a pénzt a 7 nm-re, mert megteheti a bevételeik alapján bőven .Mint volt róla hír a z 5 nm nagy részét már előre befoglalták, gondlom az sem véletlen mert MCM dizájnhoz elengedhetetlen a kisebb csíkszél. Várjuk meg a végét mielött múlt időkben beszélünk egy meg sem jelent kártyacsaládról.

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • GeryFlash

    veterán

    válasz TESCO-Zsömle #47406 üzenetére

    Csak éppenséggel ez nem előrelépés hogy felb*sszuk a fogyasztást és jé van perfomance boost. Ha hozzávesszük hogy gyártástechnológiai előrelépés is van akkor ez kifejezetten szégyen. És nyilván jobb lesz összeségében a perf/watt teljesítménye egy 3060nak mint egy 2080S-nek csak éppen ha kiszámolod akkor kijön hogy nagyjából annyival mint amennyi az új node-dal jön. Vagy annyi se.

    Arról nem beszélve hogy mik ezek a szánalmas VRAM-ok. 10GB-ot raknak a 3080-ra? Amikor 2017-ben is volt már 11GB a 1080TI-on vagy másfél éve 16GB a Radeon VII-en... Ilyen olcsó lesz a 3080 hogy ezen kell spórolni? Esetleg 1440p-re akarnak árulni 800-1000 dolláros VGA-t?

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • TeeBee73

    addikt

    válasz Kupszi #47405 üzenetére

    A Hercules kártya, a 15"-os papírfehér monitorral, egy 16MHz-es 286-al, 2MB memóriával, és egy 40MB-os vinyóval, szépen elvolt a Baby házban, a 200W-os noname táp mellett. :)
    Más: Volt anno' 512 bites HIS HD2900Pro-m, blower hűtéssel, nem is volt meleg, hangosnak sem mindtam volna.

    "4Z 1N73LL1G3NC14 4 V4L70Z45H0Z V4L0 4LK4LM4ZK0D45 K3P3553G3" -573PH3N H4WK1NG

  • b.

    félisten

    válasz GeryFlash #47408 üzenetére

    "Ha hozzávesszük hogy gyártástechnológiai előrelépés is van akkor ez kifejezetten szégyen. És nyilván jobb lesz összeségében a perf/watt teljesítménye egy 3060nak mint egy 2080S-nek csak éppen ha kiszámolod akkor kijön hogy nagyjából annyival mint amennyi az új node-dal jön. Vagy annyi se."

    ha hozzávesszük hogy egy meg sem jelent kártyacsaládról nyilatkozol :N
    Amúgy meg hol a probléma abban ha olcsóbban kevesebb fogyasztással kapod meg ugyan azt a teljesítményt? leírtad hogy jobb perf / watt lesz szerinted. Nem értem mit vársz ,drágábban több fogyasztással kéred? szerintem megoldják ha erre van igényed.. :DDD
    a ramokról nem tudunk semmit még egyelőre annyit pletykálnak [link] hogy több rammal jön mindegyik kártya több verzióban és a felsőházban lényegesen gyorsabb kivitelben...

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • GeryFlash

    veterán

    válasz b. #47411 üzenetére

    Jó b. tudom hogy te azzal is elé lennél ha 3 évente 20% javulás lenne hisz a bőrjakós az istened és hát milyen jó már hogy amiért 1 hónapja x összeget fizettél azért most x minusz 20%ot csak tudod ez normális a cége quarterről quarterre profit rekordokat dönt tehát minden jól van.
    Az hogy te beéred azzal hogy annyit javul a perf/watt mint amennyit a TSMC/Samsungtól kvázi ,,ingyen" kapnak, és ehhez még hozzáb*sznak x fogyasztást miközben az architektúrából meg kb nem jön semmi az vicc.

    ,,ha hozzávesszük hogy egy meg sem jelent kártyacsaládról nyilatkozol nulla konkrét információval reális hogy háborogsz :N"

    Abu információra támaszkodom, azok alapján olyan fogyasztású kártyák jönnek hogy röhej. Nem csak az Nvidia hanem az AMD is, csak éppen az AMD magához képest tudott igenis fejlődni az Nvidia meg lezüllesztette a perf/watt mutatóját. Most így kb. mindketten ugyanott lesznek, csak hogy az Nvidia az előnyét herdálta el. Csak nehogy a kövi generációnál már Intel féle realtiy checket kapjanak.

    ,, a ramokról nem tudunk semmit még egyelőre annyit pletykálnak hogy több rammal jön mindegyik kártya és a felsőházban lényegesen gyorsabb kivitelben..."

    Tényleg azt mondod hogy több VRAM-mal fognak jönni mint az előző gen? Wáoh ez igen :R
    Ha a 3080-ból valóban lesz 800-1000 dollár között 10GB-os kiadás az azt fogja jelenteni hogy a next-gen játékoknál (nem, nem a cyberpunkra gondolok, az nem az, azt szerintem fogja vinni 4k/60ban) nem lesz elég VRAM 4k-ra csak 1440p-re. Ki a franc olyan ostoba hogy vegyen egy a konzolnál közel kétszer drágább kártyát úgy hogy nem képes 4k-ra? Ne válasuolj, ha valakik akkro a PC játékosoknak aztán mindent le lehet tolni a torkukon. Kivéve azt ha csinálnak egy grafikai extrákkal bővítetett portot a Horzion Zero dawn-ból, akkor leállnak sírni hogy mekkora szar hogy 2080S-en se 60FPS, bezzeg a Death Stranding ugyanezzel a motorral mennyivel jobban fut. Éppen csak azt nem látja a hülyéje hogy az egyik egy ctrl+c ctrl+v port a másikba meg melót raktak és jobban néz ki PC-n, de ugyanúgy lecsavarhatja a grafikai szinten PS4 pro szintre. Nem, ő ezért hisztizik és veri a seggét a földhöz. Na ők fizetnek ki egyetlen grafikus hardverért többet mint egy teljes systemért ami 4k/60at fog tudni.

    Egyébként meg nem csak a VGA gyártók felelősségét venném elő hanem a memóriagyártókét tovább megyek a versenyhivatalét akik engedik továbbra is a memória kartell tündöklését. 2020-ban ott tartunk hogy ugyanakkora memórialapkák GDRR6-on mint a 2 generációval korábbi GDDR5-ön.

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • b.

    félisten

    válasz GeryFlash #47412 üzenetére

    :DDD :DDD
    Ehhez nem tudok mit hozzatennni, az év kommentje lett.Feleslegesen járatod le magad.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Zartszelveny

    csendes tag

    válasz GeryFlash #47412 üzenetére

    "Nem csak az Nvidia hanem az AMD is, csak éppen az AMD magához képest tudott igenis fejlődni az Nvidia meg lezüllesztette a perf/watt mutatóját. Most így kb. mindketten ugyanott lesznek, csak hogy az Nvidia az előnyét herdálta."

    Ez konkrétan abból fakad hogy AMD most szedte külön a compute illetve a gaming arch-ot. Az Nvidia ezt korábban meglépte ugye ebből az utóbbi generációkban érezhető előnye is származott. Kíváncsi leszek most hogy fognak alakulni a dolgok.

    Abu írta azt is, hogy különösebb ugrást nem fog hozni maga a csikszelesseg csökkentés, mert a finfet elérte kb a határait. Kövi nagy ugrás majd gaafet bevezetése után lesz várható.

    De gyartastechnologia ide vagy oda a fejlődés viszont kell... Ez meg most a fogyasztás rovására megy a felső kategóriában. De aki oda vesz kártyát azt annyira talán nem is zavarja. A közép kategória meg megmarad normális keretek közt.

    A memória résszel egyetértek, ha már ilyen rohadt drága rakják meg rendesen és ne azzal sporoljanak. :))

    [ Szerkesztve ]

  • GeryFlash

    veterán

    válasz Zartszelveny #47414 üzenetére

    Hát nem tudom, a Qualcommnál Applenél és az AMD CPU részlegénél (tehát nem csak az ultra low TDP SOC-ok) nem azt veszem észre hogy ne hozna sokat a csíkszélesség csökkentés.

    Persze még mindig nem tudjuk biztosra min fog gyártatni az Nvidia, lehet ez a gyenge perf/watt abból is adódik (a sok 1GB-os lapkák mellett, amik oké hogy fogyasztanak de nem ennyit) hogy az NV 10nm Samsungon fog gyártani, esetleg 8nm Samu ami amennyire én tudom half-node és marginálisan jobb mint a 10nm-jük, ergo alig lesz előrelépés náluk gyártástechnológiában. Inkább bevállalják hogy az AMD felzárkózzon hozzájuk, a csúcs kártyájukat belövik majd Big NAVi + 5-10%-ra valami elb*szott fogyasztást is elvállalva, a lényeg hogy övék legyen továbbra is a leggyorsabb kártya amúgy meg minél nagyobb haszonkulccsal adják ugyanazt a kártyát mint az AMD.

    Igazi verseny szerintem 5nm-en lesz majd, Abu szerint (ha jól emlékszem) oda mindketten terveznek VGA generációval.

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • Busterftw

    veterán

    válasz GeryFlash #47415 üzenetére

    Az elmult ket gen epp azt mutatta meg, hogy a gyartastechnologia nem minden, inkabb az architektura.
    Pont az Nvidianak nem kellett top node, az AMD jobb node-n rendre alulmaradt.

    En nem nagyon rugoznek ezen, foleg amig nincs kinn teszt.
    Ha vegre az AMD egalban is lesz az Nvidiaval, en ugyanugy nem fogok tapsolni mint eddig, mert jobb node-n teszi azt.

  • Abu85

    HÁZIGAZDA

    válasz Zartszelveny #47414 üzenetére

    Nem abból fakad. A perf/watt az adott tranzisztorstruktúra végnapjain abból ered, hogy mennyire ismered ki az adott node-ot. Kell két vagy három kör mielőtt jól tudod majd használni. Az AMD-nek a prognosztizált 50%--os perf/watt ugrása ugyanazon a 7 nm-es node-on pusztán az a tapasztalat, amit a Vega 20 megjelenése óta gyűjtögetnek. Nagyjából mostanra sikerült úgy megérteni ezt a csíkszélességet, hogy hatékony lapkát tudnak rá tervezni.

    Ugyanez lesz 5 nm-en is. Meg a GAAFET-ig bármin. :)

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • Zartszelveny

    csendes tag

    válasz Abu85 #47417 üzenetére

    Erre utaltam én is itt:

    "Abu írta azt is, hogy különösebb ugrást nem fog hozni maga a csikszelesseg csökkentés, mert a finfet elérte kb a határait. Kövi nagy ugrás majd gaafet bevezetése után lesz várható.."

    De nyilván okkal lett szetvalasztva az RDNA és a CDNA.
    Mármint csak van különbség abban hogy mire használják inkább el a tranzisztorokat.
    Vagy ha nem akkor mi miatt történt ez?

    @GeryFlash

    Szerintem a mobil soc-ok illetve a zen chipletek nem nagyon hasonlíthatóak GPu-hoz. Így az elért fejlődés üteme sem. Mármint eleve a méretük sokkal kisebb illetve a cél felhasznalas sem ugyan az.

    [ Szerkesztve ]

  • Abu85

    HÁZIGAZDA

    válasz Zartszelveny #47418 üzenetére

    A CDNA támogatni fog egy csomó olyan adatformátumot, ami az RDNA nem. Emellett máshogy épül majd fel a cache-szervezése is. Leginkább az AI miatt lett szétválasztva, mert a jó AI teljesítmény grafikai szempontból eléggé hasztalan.

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • GeryFlash

    veterán

    válasz Abu85 #47417 üzenetére

    Tehát akkor az RDNA3 ha valóban 5nm jön mint ahogy több helyen írták akkor nem valószínű ilyen ugrás szerű javulás? TSMC vs Samsung vonatkozásban ha jól olvasom az infókat a TSMC még egy bőrt lehúz a FinFET-ről viszont emiatt 2021-ben lesz 3nm FinFETjük tömeggyártásban, míg a Samsung 2021vége/2022 elejére hozna 3nm GAAFET-et. A TSMC-nél elvileg 2023-24ig kéne várni 2nm GAAFET-re.

    Reális ez hogy a Samsung jelenlegi egyértelmű hátrányból így lelépi a TSMC-t? Nincs benne egy Intel szintű fiaskó a korai GAAFET kihozatallal?

    Amennyire én látom az adott csúcs node-ok tömegygártása azt jelenti hogy akkor jön velük a Qualcomm+Apple, utána +0,5-1 év és AMD szerver proci, majd 1-1,5 év AMD konzumer proci, és csak a tényleg tömeggyártás után 1,5-2 évvel jönnek a VGA-k. Szóval reálisan lesz még egy 5nm FinFET kör 2022 környékén és talán 2024 vége felé láthatunk GAAFET-en készülő VGA-kat?

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • Alogonomus

    őstag

    válasz GeryFlash #47415 üzenetére

    "Inkább bevállalják hogy az AMD felzárkózzon hozzájuk, a csúcs kártyájukat belövik majd Big NAVi + 5-10%-ra valami elb*szott fogyasztást is elvállalva, a lényeg hogy övék legyen továbbra is a leggyorsabb kártya "

    Pont ezt nem várhatják meg, mert amint az AMD takarékosabban hozza ugyanazt a teljesítményt, máris nyert, mert onnantól bármikor túl tudja teljesíteni az Nvidia kártyáját azonos fogyasztás mellett.
    Pascal pont az erős perf/W érték miatt volt elöl, míg a Turing az átlagos perf/W mellett adta a sugárkövetést. Most viszont mindkét gyártó kártyája ugyanazt fogja tudni, csak különböző perf/W érték mellett. Amelyiknél ez kedvezőbb lesz, lényegében az győz, mert várhatóan nem 1-2% különbség lesz az értékek között, így driveres ügyeskedéssel aligha lehet azt kiigazítani.

  • Pipó

    őstag

    válasz Alogonomus #47421 üzenetére

    "Most viszont mindkét gyártó kártyája ugyanazt fogja tudni, csak különböző perf/W érték mellett."

    Mégis, ez miből ilyen tényszerű? Az AMD gpu hívőknél a megjelenés előtt minden nap emelkedik kicsit a várt teljesítmény, míg végül már el is hiszik, hogy "na, majd most". Az eredmény pedig: lassabb, melegebb, rosszabb perf/Watt, hónapokig alig lehet kapni, majd a csodadrájver megoldja a bugokkal együtt, stb. Ha mégis bejönne valami véletlenül, akkor a NV majd bejelent egy Super verziót már másnap, amit harmadnap olcsóbban, jobb mutatókkal már meg is vehetsz. Ha mást nem, akkor egy RT nélküli verzióval. Az NV-nek nagyon fontos, hogy piacvezető legyen minden téren, és pünkösdi királyságot sem enged át.

    "Vannak győzelmek, amiktől jobban alszik az ember. És olyanok is, amik ébren tartanak." Broadchurch - Kis fekete szir-szar rózsaszín biszbasszal a tetején? - Az is vaaan!

  • Jack@l

    veterán

    válasz Pipó #47422 üzenetére

    Amit megcsinált eddig 12nm vs 7-el.

    A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

  • Malibutomi

    nagyúr

    válasz Pipó #47422 üzenetére

    Eddigi leakek NV oldalrol:

    3-400W fogyasztas

    Rosszabb 8nm node a 7nm elleneben

    12 tus uj tapcsati

    Persze ez mind pletyka egyelore, de egyik sem mutat a szuper energiahatekonysagra

    Amd meg vegre kivagja a felesleges compute egysegeket a gamer kartyakbol.

    Szoval eselyes hogy csukodik az ollo, es kozelebb lesznek perf/wattban

    [ Szerkesztve ]

  • Petykemano

    veterán

    válasz Alogonomus #47421 üzenetére

    nem értek egyet abban, hogy a perf/W lenne az erősebb szempont. Az inkább valamiféle jolly joker kártya, ami nem azt mondom, hogy nem számít, de valójában kisebb a súlya, mint amilyennek látszik. Vagy úgy mondanám: önmagában nem nem akkora a súlya. És ez az analógia jó is lesz!!

    Az ász mindig is a királytermék volt. Ha emellett a perf/W kártyából is ászod van (persze a kettő nem független egymástól) akkor jó lapjaid vannak.

    Az intel példáján látszik, hogy hiába hozza az AMD mondjuk 2x olyan jó perf/W mutatóval közel ugyanazt a teljesítményt, valójában a közel ugyanaz nem elég jó. az az ~5% - a lényegesen rosszabb perf/W mutató ellenére - nagyonis számít. (Lehet, hogy nem neked, meg nem nekem, de az 5% elég lehet arra, hogy hardware reviewerek azt válasszák a benchmark rigbe valami brutál hűtővel, hogy minimalizálják a CPU bottlenecket. LEhet, hogy ezt még értelmesen el is magyarázzák, de aki nem néz naphosszat ilyen videókat vagy cikkeket, az csak azt látja, mindenhol intel van, tehát nyilvánvalóan az a legjobb.)

    Tehát nem azt mondom, hogy a perf/W nem számít, csak azt, hogy a perf/W önmagában nem döntő erejű. Szerintem ha az 5700 XT mondjuk csak 150W-ot fogyasztott volna 225 helyett, több fogyott volna belőle, de mondjuk csak 10, maximum 20%-kal tolódott volna el ennek a szegmensnek a részaránya.

    Tehát nem azt mondom, hogy a perf/W nem számít, csak azt ha az AMD-nek úgy sikerül ez a széria, hogy az abszolút elsőséget nem szerzik meg, de mérhetően jobb perf/W mutatóval kínálják a kártyáikat, attól én - legalábbis rögtön - drasztikus elmozdulást a piaci részesedésben nem várnék.

    Találgatunk, aztán majd úgyis kiderül..

  • GeryFlash

    veterán

    válasz Pipó #47422 üzenetére

    ,,. Ha mást nem, akkor egy RT nélküli verzióval. "

    Jaja RT nélkül 2021ben, az biztos nagy siker lenne :DDD Illetve nyilván ez is így megy ha nem lenne elég jó a mostani széria pár hónap és jön a super széria :B

    [ Szerkesztve ]

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • Pipó

    őstag

    válasz Malibutomi #47424 üzenetére

    Annyira szurkoltok az AMD-nek, hogy el is hiszitek ami az NV-nek kedvezőtlen szivárgás. Ha az AMD-nek csak ennyi volna a megoldás, hogy kivágjuk, amitől rosszabb és máris jobb lesz, ugyan mi a fészkes fene miatt nem tették meg évekig? Direkt szopatták magukat?
    Egyben biztos vagyok: azon a napon, mikor az új AMD kártyát meg lehet venni itthon kiskerben, jobb adottságú NV kártyát vehetsz majd ugyanazon az áron. És ez igaz lesz az energiahatékonyságra is.
    Ezeket nem szivárgásokból, hanem a realitásokból szűrtem le. És egyáltalán nem vagyok az AMD ellen, végre támadnának fel, de ez szerintem hiú ábránd. Utoljára 1900XT-m volt tőlük és akkor megbántam, hogy lecseréltem 8800Gt-re, de ma más szelek fújnak.

    "Vannak győzelmek, amiktől jobban alszik az ember. És olyanok is, amik ébren tartanak." Broadchurch - Kis fekete szir-szar rózsaszín biszbasszal a tetején? - Az is vaaan!

  • Jacek

    veterán

    válasz Pipó #47427 üzenetére

    Temészetesen semmi nem biztos, de jók a csillagok együtt állása :DDD :DD Nem gondolom az NV verést még jó esetben sem, de tisztes helytálást várok el.
    Nem érdekel a 3080Ti/90 de ha a 3080 ellen tudnak állítani egy kártyát azonos áron is AMD veszem ennyi.

  • Pipó

    őstag

    válasz GeryFlash #47426 üzenetére

    RT nélkül nem élet az élet. :N Neked van?

    "Vannak győzelmek, amiktől jobban alszik az ember. És olyanok is, amik ébren tartanak." Broadchurch - Kis fekete szir-szar rózsaszín biszbasszal a tetején? - Az is vaaan!

  • Abu85

    HÁZIGAZDA

    válasz Pipó #47429 üzenetére

    Ez nem arról szól, hanem az a baj, hogy előbb a hardvernek kell ott lennie, és csak utána jönnek rá a szoftverek. Ha továbbra is jönnek RT nélküli szériák, akkor azzal a gyártók az RT terjedését gátolják, vagyis továbbra is egy csomó tranzisztort költenek el feleslegesen a lapkákba. Meg lehet azt játszani a nulladik vagy első generációnál, hogy a lapkák egy részében kihagyod, de a tényleges terjedést azt segíti elő, ha mindenhol ott van. Emiatt az új szériánál még eléggé alap fícsőrnek kell majd lennie.

    [ Szerkesztve ]

    Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.

  • GeryFlash

    veterán

    válasz Pipó #47429 üzenetére

    2021-ben kiadni RT nélküli csúcskártyát felérne egy piaci harakirivel. Miközben szerinted akár ez lehetne akár az NV presztizs terméke amivel meggyőzik a vásárlót hogy az ő kártyájukkal kaphatják a leges legjobb élményt. Mármint kikapcsolt RT-vel.
    Mennyire gondoltad te ezt át?

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • JóképűIdegen

    tag

    válasz Petykemano #47425 üzenetére

    "Szerintem ha az 5700 XT mondjuk csak 150W-ot fogyasztott volna 225 helyett, több fogyott volna belőle, de mondjuk csak 10, maximum 20%-kal tolódott volna el ennek a szegmensnek a részaránya."
    - ez szerintem mindent megvaltoztatott volna, megjelenhetett volna a Big Navi RDNA1-en is meg ugyis ha 2 gpu-t drotoznak egy vga-ra es most sokkal bizakodobban tekintenek az RDNA2 fele.

  • Petykemano

    veterán

    válasz JóképűIdegen #47432 üzenetére

    "ez szerintem mindent megvaltoztatott volna, megjelenhetett volna a Big Navi RDNA1-en"
    Ebből a perspektívából, persze, igen. Az elérhető teljesítmény és a perf/W nyilván nem független értékek.

    Találgatunk, aztán majd úgyis kiderül..

  • Jacek

    veterán

    válasz JóképűIdegen #47432 üzenetére

    Ez csak AMD-nél gond? Csak pl most az 5%-al gyorsabb 2070S-em 248w szopokázik kicsit megrántva :D Ott kell a teljesítményhez de az AMD termelje az áramot.
    Eddig ment a mantra hogy juj jaj fogyasztás pfff Vega kazán, most meg kuss a szállíngozó 300-400 wattos ipari inverteres videokártyákhoz.. :D

  • Alogonomus

    őstag

    válasz Petykemano #47425 üzenetére

    Perf/W előny azért ér sokat, mert valóban jolly joker kártya. Bármikor gond nélkül bevethető, és azonnali eredményt hoz.
    MInden hűtésnek megvannak a korlátai, és amelyik gyártó ezekbe a korlátokba jelentősen később ütközik bele, annak elég a gyengébb gyártó kártyájának a hűtését a saját kártyájához használni, és állandóan a konkurens kártya teljesítménye fölött maradhat.

    Intellel az AMD egyszerűen csak nem állt le egymagos sebességben szkanderezni azért az 5%-ért. Zen 2 processzorok így is fogytak, így is ellátási nehézségek jelentkeztek. 3950X 150 wattból maradt le 5%-kal, amit kihívást kereső tuningolók bőven be is hoztak, amikor elengedték a processzort magasabb fogyasztásig, de még mindig nem az Intel 300 wattos szintjéig. AMD is simán megtehette volna ezt, ha akarja.

    5700 XT esetét pedig már leírták.

  • Pipó

    őstag

    válasz GeryFlash #47426 üzenetére

    Simán el tudok képzelni új kártyát RT nélkül. A jelenlegi szériánál is megcsinálta és volt rá igény. Mellette vehetsz RT-set, ha a pénztárcád engedi. Egy szóval sem mondtam, hogy ez lenne a presztízs termék egyébként. AMD-s kifejezéssel élve simán lehetne "népkártya". Szerintem lesz olyan új generációs AMD is, amiben nem lesz RT. A "legeslegjobb élmény" nagyon drága.

    "Vannak győzelmek, amiktől jobban alszik az ember. És olyanok is, amik ébren tartanak." Broadchurch - Kis fekete szir-szar rózsaszín biszbasszal a tetején? - Az is vaaan!

  • Busterftw

    veterán

    válasz Jacek #47434 üzenetére

    300W-ot a 2080Ti most is bekajal(hat), csak a Vegaval ellentetben tarsul hozza megfelelo teljesitmeny is.
    Veganal nem magaval a fogyasztassal volt gond, hanem az Nvidia ugyanazt a teljesitmenyt -80Wal (nem tudom pontosan) hozta. :K

  • Petykemano

    veterán

    válasz Jacek #47434 üzenetére

    Én mondtam azt, hogy szerintem a "Vega kazán" probléma nem, vagy inkább elsősorban nem abból fakadt, hogy a Vega sokat fogyasztott, hanem abból, hogy a magas fogyasztás ellenére milyen szinten versenyzett.

    Legalább két példa is van, ezeknek a cégeknek a korábbi életéből, ami bizonyítja azt, hogy a magas (szignifikánsan magasabb) fogyasztás brandérték, vonzóerő szempontjából negligálódik/negligálható, de legalábbis érvelhető, amennyiben azzal együtt az abszolút teljesítmény előny megtartható.
    Az egyik a nemrégiben kiadott intel Lake sorozat legutolsó tagja.
    A másik pedig az Nvidia fermi architektúrája, amivel kapcsolatban szintén születtek mémek,de azért a gúnyolódásnak az élét elvette, hogy a lényegesen magasabb fogyasztás ellenére orrhosszal gyorsabb volt, mint az AMD vetélytársa.

    Az AMD-nek egyébként számos architektúráját nyomorította ( fennálló versenyhelyzetben ) meg az a jelenség, hogy nem skálázódik - vagyis a konkurenciához viszonyítva alacsony(abb) frekvencián következett be az a pont, ami felett nagyon meredeken emelkedett a fogyasztás.
    - A polaris eleinte ilyen volt: [link] a későn és 12nm-en kiadott RX 590-cel sikerült valamit találni: [link]
    - a vega ilyen volt, [link]
    a zen és zen+ ilyen volt. [link]
    (A zen2-nél talán inkább az IF frekvencia emelése jelent problémát.)
    Az RDNA viszont az elődőkhöz képest elvileg jobban skálázódik.

    Az, hogy hol kezd meredeken emelkedni a görbe ott számít, hogy mennyit nyersz vele.
    Például a vega 56 és a vega64 között a tpu adatbázisa szerint ~10% különbség van és ezért 295-210 = 85W-tal, azaz 40%-kal magasabb fogyasztással fizetsz.
    Az 5700 és 5700XT között ~15% a különbség és 225-180=45W-tal, azaz 25%-kal fizetsz.

    Lényegesen jobb skálázódás.

    Azt nem állítom, hogy ha az RDNA-t pörgeted 295W TDP-vel, akkor ott is ilyen jó skálázódási értékek jöttek volna ki. (Valószínűleg nem)
    De ha az architektúra megengedte volna, hogy mondjuk további 75W-ért 15-20%-kal magasabb teljesítményt vasalj ki belőle, akkor lehet, hogy érdemes lett volna.

    Ennek megfelelően, ha és amennyiben az nvidia architektúrája 300-400W között is még jól skálázódik, akkor a gigamega fogyasztási érték ellenére is megérheti ilyen nagy fogyasztással pörgetni. És ha a megszokott fogyasztási értékekhez képest +100-150W fogyasztás hoz mondjuk 25-30% többletet, akkor arra senki nem fogja azt mondani, hogy kazán.

    Ennek ellenpéldája a vega liquid volt. Ami beszívta a +100W-t és ilyen 2-3%-ot yieldelt, ha jól emlékszem. Remek példája volt annak, hogy iszonyú energiát lehet vele spórolni, ha kicsit visszaveszed.

    Találgatunk, aztán majd úgyis kiderül..

  • GeryFlash

    veterán

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • Petykemano

    veterán

    válasz Alogonomus #47435 üzenetére

    "Perf/W előny azért ér sokat, mert valóban jolly joker kártya. Bármikor gond nélkül bevethető, és azonnali eredményt hoz."

    Ahogy fentebb írtam, a perf/W skála nem lineráis. Lehetséges olyan architektúra, amelyik egy meghatározott teljesítményszinten remek perf/W mutatóval bír, de ha 5-10%-kal feljebb tolod, akkor már borzalmas. És lehet olyan architektúra is, amelyik ugyanazon teljesítmény és fogyasztási értékek mellett a skálázódási görbének egy más meredekségén foglal helyet.

    Ugye most itt arról beszélünk, hogy mondjuk 250-300W és hogy érdemes-e, lehetséges-e 350-400W-os kártyát gyártani.

    Ami az intel vs amd kérdést illeti, szerintem az AMD-nél nem döntés kérdése volt az 5% ST lemaradás behozása. Ha ez így lett volna, akkor legkésőbb az XT sorozat kiadásával ezt meg is tették volna.

    Ne érts félre, én nem akarom elvitatni a zen2 érdemeit és legkevésbé egekbe magasztalni az 5%-os ST különbséget. csak azt mondom, hogy a remek perf/W ellenére azon a ponton, ahová a 3950X és az XT sku-k eljutottak, megállt a zen2 skálázódása.

    Találgatunk, aztán majd úgyis kiderül..

  • TESCO-Zsömle

    félisten

    válasz Alogonomus #47421 üzenetére

    Még ha be is következne amit írsz, konzumer piacon akkor is ott lesz, hogy az egyik nVidia, a másik meg nem. Mikor éppen aktuâlsan az AMD/ATI megoldásai voltak jobbak, akkor se rohantak az emberek Radeont venni.

    Sub-Dungeoneer lvl -57

  • Alogonomus

    őstag

    válasz Petykemano #47440 üzenetére

    Egyértelműen (minden valószínűség szerint?) a sweet spot környékén (vagy csak kicsivel afölött) üzemelt a 3950 X, és valószínűleg első nekifutásra a Big Navi-t is a 250-300 W közötti sweet spot környékén tervezik kiadni. A kérdés az, hogy a 3800 Ti szintén 250-300 W közötti fogyasztással lesz egálban (vagy pár százalékkal magasabban), vagy 350-400 W közötti fogyasztással?
    400 W körüli fogyasztással hiába lenne a 3080 Ti a Big Navi előtt mondjuk 5-10%-kal, mert az AMD is fel tudja vinni további 100 W fogyasztási kerettel 400 wattig a saját kártyáját (a'la 5600XT), és máris visszavenné az első helyet. Ezért ér nagyon sokat a perf/W előny.

    Amikor 220 és 240 W a két kártya fogyasztása, akkor nem igazán számít a perf/W, de amikor 300 és 400, akkor nagyon számít, mert az egyik a léghűtés végső határát tesztelgeti, a másik pedig még kényelmesen hűthető, és szükség esetén ugyanúgy elvihető a léghűtés végső határáig, ahol esetleg már nagyon ellaposodik a "görbe", de +30% fogyasztásból valószínűleg így is kijön +15% teljesítmény.

    Persze Nvidia átválthat akkor folyadékhűtésre, és elképzelhető, hogy a 12 pines csatlakozóval elérhető 600 W környékén már az Nvidia "görbéje" mutat sokkal előnyösebb képet.

  • b.

    félisten

    válasz GeryFlash #47431 üzenetére

    2020 van és ezt tavaly nem olvastuk itt ezen a fórumon, hanem azt hogy az Rt semmire sem jó...Változnak az idők.
    a perf/ watt eddig leszarós volt itt szintén a vega 64 kártya és társai, BIOS-t hackelt mindenki és azt olvastuk hogy az RX 580 valójában gyíkfarok főzettel és denevér vérrel keverve annyit sem eszik mint a GTx 1060 és amúgy is ez nem téma mert le lehet hűteni. éves szinten ez két csomag cigi ára és amúgy is.. most meg egy meg sem jelent AMD generáció már kifejezetten alázza a meg sem jelent nvidia kártyákat és milyen menőség ez.
    Csak nehogy meglepődj mikor két 300 wattos kártyát fogsz látni ősszel a piacon ugyan azzal a teljesítménnyel. Az hogy a perf / watt döntő legyen 30 - 50 % eltérés kellene két hasonló teljesítményű kártya között, magyarul ha az nv hoz egy 3080 kártyát 300 wattból ami 2080 Ti+ 20 % teljesítményű pont senkit nem fog érdekelni ha AMD hoz ugyan ilyet 250 wattból.. az ár lesz a döntő és az egyéb szolgáltatásokban lévő teljesítmény nem az 50 watt eltérés fogyasztásban mondjuk.

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • do3om

    addikt

    válasz Alogonomus #47442 üzenetére

    Az AMD nem fog benne tartalékot hagyni, legalábbis szerintem. Főleg felső kategóriás kariban.
    Ez a fogyasztási tartalék meg.... Azért sántít. Mivel jók ebben a karik ha visszaveszik, a sebesség pedig minimális szinten csökken.
    Csak ez fordítva is igaz, azt hiszed férne még a fogyasztási keretbe de rohattul nem. Alig húzol rajta és elszáll, méghozzá adott gyorsulás sokszoros fogyasztást okoz, nem egyenletes az arány.
    De ezt valaki azt hiszem már írta is.
    Itt a két gyártó egy dolgon tud jót lépni, ha akar, de az fáj... Neki. Az ár. Mindent leszarunk ha az ár olyan.

    [ Szerkesztve ]

    Ha érdekel valami szerelési anyag írj privátot. Eladó Schneider Mágneskapcsoló 18,5kW/38A

  • GeryFlash

    veterán

    válasz b. #47443 üzenetére

    Nem csak az idők változnak, hanem most jön ki egy (két) új generáció videokártya miközben az új konzolok raytracing támogatásos játékok dömpingjét hozzák magukkal a következő években, ki az az idióta aki most beruház nagy összegben vga-ra de raytracing támogatás nélkül? Aki most vesz VGA-t jó eséllyel a következő 2-3 évre vesz. Értem hogy ki akarjuk hozni hogy mennyire megérte Turingot venni DXR 1.0 miatt, és hogy ,,na mivan most mégis jó az RT? :DDD"

    Csak éppenséggel most
    1.) Következő években lesznek normális számban RT suppportos játékok
    2.) A DXR 1.1 teljesen más minőségben és sebességben fogja elhozni az RT-t mint a korábbi FPS felező de cserébe kevés sugarú DXR 1.0
    Igen változnak az idők, hirtelen megéri ezek után olyan VGA-t venni ami támogatja a DXR 1.1-et.

    Egyébként meg ne nekem címezd ezt, én mindig azt mondtam ha egy árban van ugyanolyan teljesítményű Radeon vs Nvidia akkor vedd inkább az NV-t mert egyrészt kevesebbet fogyaszt másrészt talán pár játéknál már a DXR előnyeit is élvezheted. Nem is tudom mikor ajánlottam utoljára AMD-s VGA-t Nvidia-val szemben.

    ,,most meg egy meg sem jelent AMD generáció már kifejezetten alázza a meg sem jelent Nvidia kártyákat és milyen menőség ez.
    Csak nehogy meglepődj mikor két 300 wattos kártyát fogsz látni ősszel a piacon ugyan azzal a teljesítménnyel."

    Te elolvasod amiket én írok vagy csak a szalmabáb érveléssel, saját árnyaiddal hadakozol? Biztos vagyok hogy nálad nem a szövegértelmezési képességeken múlik ez, hanem az NV való rajongás és az ebből fakadó objektivitás vesztés.

    Csak mert ugyanezt írtam le, egyrészt nem, nem fogja alázni az AMD az Nvidiát, kb egál lesz mindenben a két generáció ahogy a leakek és infók alapján tájékozódunk. Se VRAM-ban se perf/wattban nem számítok jobbra AMD oldalon mint NV-nél. Csak éppenséggel az AMD magához képest óriásit javult, miközben az Nvidia alig valakivel többet mint amit nodebol elvárható volt. A VRAM-ot ugyanúgy fel lehet hányni mindkét gyártónak, de mint írtam ott azért a memóriagyártók felelősége is előjön ezekkel a röhejes méretű memória lapkákkal amikből rá kell celuxozni egy vagont a VGA-ra, ezáltal is részben megdobva a fogyasztást.

    ,, nv hoz egy 3080 kártyát 300 wattból ami 2080 Ti+ 20 % teljesítményű pont senkit nem fog érdekelni ha AMD hoz ugyan ilyet 250 wattból.. az ár lesz a döntő és az egyéb szolgáltatásokban lévő teljesítmény nem az 50 watt eltérés fogyasztásban mondjuk."

    Ilyen biztos nem lesz, mivel az AMD hozza később kártyáit, ha az AMD tudna hozni 250 wattból olyat mint az NV 300ból akkor az AMD szintén 300 watton hozna valami erősebbet. De ez még az 50%-os perf/watt javulással (RDNA1-->RDNA2) sem reális. Nem számítok jobb perf/wattra AMD-től, vagy maximum valami iszonyat (<5%) marginális szinten. Viszont a tendencia jól látszik. Aztán az más kérdés, hogy ez a tendencia azonnal mehet a kukába, ha legközelebb az Nvidia nem a profitmaximalizálásra megy rá, és nem egy olcsó szar nodeon gyártat hanem mondjuk ugyanazon mint a rivális. A saját szempontjukból egyébként nem mondom, jól csinálják, most még éppen belefér, de következő generációnál ezt a luxust már nem hiszem hogy eljátszhatják.

    A perf/watt mutatót nem azért hoztam fel, mert nekem vagy a vevőknek annyira számítana fogyasztás, de annál jobb benchmark hogy egy adott gyártónak a VGA generációja mennyire fejlett nem igen van.

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • Jack@l

    veterán

    válasz GeryFlash #47445 üzenetére

    Nagy RT-zésre azért nem kell számítai konzolon... :D (fullhd, 24 fps, de az is éppnehogy)
    A minősége valóban más lesz az 1.1-el, rosszabb(erre találták ki az újítást, hogy lehet eygszeruen butitani a dolgokat).

    [ Szerkesztve ]

    A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.

  • GeryFlash

    veterán

    válasz Jack@l #47446 üzenetére

    Az mitől butítás hogy csak hit esetén jön vissza a kilőtt sugár? A konzolon való RT-t meglátjuk, szerintem nem lesz vele gond, nyilván nem lesz PC szintű de nem fog felbontás/fps kárára menni, akkor inkább abból vesznek vissza. De majd kiderül persze.

    Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?

  • b.

    félisten

    válasz GeryFlash #47445 üzenetére

    valóban nem neked akartam szánni egy részét a kommentemnek hanem Alogonomus nak is.
    A konzolok sem jelentek meg DXR1.1 játék sem jelent meg azt sem tudjuk a Turingok hogyan viselkednek alattuk vagy az Ampere RDNA hogy fog ....csak marketing maszlag van semmi más...
    Eddig konkrétan egyetlen egy játéknál sem amit láttam PS5 re vagy Xboxra nem éreztem hogy én next gen játékot látok. Ilyen még soha nem volt egy generáció váltásnál sem a konzolok terén. Mielőtt elfogultsággal vádolnál imádom a konzoljaimat mindhárom gyártótól van konzolom Switch , One , Ps4 pro itt figyel, aki ismer az tudja,de erre is azt tudom neked mondani, hogy ezek konzolok nem fogják ezt hozni jó ideig mint amit beleláttok páran. meg kell várni hogy megjelenjenek, hogy egyáltalán lássuk mire képesek, mert jelenleg ha ez így maradakor el leszek a PS4 pro-val...
    A fogyasztásról újra leírom neked hogy nem tudod mi az igazság mert nem jelentek meg a a kártyák..
    mai pletyka szerint a csúcs GPU 230 wattot eszik és ehhez jön 60 watt a ramoktól de 60-90 % gyorsulást pletykálnak mellé, ez hol nem előrelépés szerinted egy lassabb nodon ha igaz lesz egyáltalán? ebben is hihetnél nyugodtan ugyan úgy ahogy a negatívumokat hiszed el... a RAM nem tudjuk.. jelen állás szerint lesz 3080 16 GB vagy 8 GB vagy 12 GB vagy 10 GB vagy 20 GB és stb verzióban,amit6 majd Nv felold később 12 GB ra szoftveresen meg hasonló hülyeségek vannak már tálalva.... van oldal aki azt írja mindjárt 2 féle lesz a 3080 ból és a 3070 ből és hogy lesz 2 féle 3090... semmit nem tudni még, semmit. Ha akarod belinkelek ide neked mai 5 megbízható oldalt az általuk kiadott táblázattal, csak ez nem az a topik... Ezért írtam feljebb értelmetlen háborognod a semmin előre és lefutottként elkönyvelned bármit is...

    [ Szerkesztve ]

    "A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)

  • Petykemano

    veterán

    válasz Alogonomus #47442 üzenetére

    "Egyértelműen (minden valószínűség szerint?) a sweet spot környékén (vagy csak kicsivel afölött) üzemelt a 3950 X"

    Ezt nem tudom, mire alapozod.
    Szerintem csúcsra van járatva. ST-ben nem igazán tud feljebb menni. Nem TDP miatt. A feszültség nagyon magas lenne.

    MT használat esetén a TDP a limit, magasabb TDP-vel Lehetne magasabb frekvencia, de nem éri meg.
    Egy 150W-os Sku MT-ben lehet, hogy 10%-kal jobb eredményt érne el, de a 4.7GHz ST turbó és mondjuk gamingben nem lenne jobb.

    "A kérdés az, hogy a 3800 Ti szintén 250-300 W közötti fogyasztással lesz egálban (vagy pár százalékkal magasabban), vagy 350-400 W közötti fogyasztással?
    400 W körüli fogyasztással hiába lenne a 3080 Ti a Big Navi előtt mondjuk 5-10%-kal, mert az AMD is fel tudja vinni további 100 W fogyasztási kerettel 400 wattig a saját kártyáját"

    Úgy látom, nem ment át, amit mondtam.
    Épp az volt a lényege, hogy nem törvényszerű, hogy 300W fogyasztás esetén +100w-tal ugyanúgy +10%-ot hozzá lehet adni két különböző architektúra, két különböző design esetén.

    Erre remek példa az AMD intel. A zen2 szerver chipeket alacsony (sweet spot) frekvencián üzemelnek és adott TDP keretbe így kétszer annyi mag belefér, vagyis szignifikánsan jobb perf/w mutatóval bír.
    És ugyanaz a két mag közül a kevésbé energiahatékony eléri az 5.3GHz-et, a másik 4.7GHz-nél megáll. És ez nem amiatt van, mert előbbit engedik 2x annyit fogyasztani.

    Találgatunk, aztán majd úgyis kiderül..

Új hozzászólás Aktív témák