Új hozzászólás Aktív témák
-
KROK640
nagyúr
Na oszt LHR van-é?
-
KROK640
nagyúr
"Sajnos a termék leggyengébb pontja a listaára, amely a Founder’s Edition esetében 1999 dollár lesz" - de sajnos csak nagyon kevés szerencsés lesz aki mindössze ennyiért hozzájut.
Kiváncsi leszek, hogy hány év múlva tehet egy átlag polgár ilyet a gépébe, bár sandás, hogy ezeknek soha nem lesz elérhető áruk. (sok régi csúcs kártya ma is drága, drágább mint megjelenésekor) -
Kansas
addikt
Azok a 2 éves Samu 8nm-es kártyák se ettek ám keveset... a "sima" 3090 is vígan bekajálta a 350-400W-ot, ez meg ahhoz képest majd 200MHz-vel gyorsabban ketyeg a GPU(picivel nagyobb is) és vagy 70MHz-cel a VRAM is. Csodák bizony nincsenek, a fogyasztás a frekivel négyzetesen arányos... és nem tudom, az üzemi feszen emeltek-e(persze valahol biztos le van írva), de ha igen, az se jó irányba hajtja a fogyasztást...
Most hogy pont ugyanannyi-e a perf/W az azért azon is múlik, hogy mi az a "perf", mivel van mérve... azóta azért volt 2 architektúra-váltás, kerültek bele extra részegységek(RT/tensor magok), miegymás, nem pont ugyanannyira fekszenek ugyanazok a terhelések a két kártyának, de azért olyan nagyon nem lepődnék meg, ha a játékok és/vagy prod. alkalmazások egy részében durván stimmelne a perf/W a 1080-éra...
-
Az a fő különbség, hogy míg a sima léghűtés, vízhűtés, olajba mártás, stb. mind a környezeti levegő hőmérsékletére támaszkodik a hűtéskor, és ezért nem is tud az alá hűteni, a termoelektromos hűtésekkel tudsz lejjebb is menni, és az általuk megmozgatott, valamint termelt hőtől egy külön lépésben kell megszabadulnod. Erre nyilván egy aktív léghűtés vagy vízhűtés a legkézenfekvőbb, de ha pl. nem direct touch módon használod a tec-elemet, akkor más opciók is felmerülnek.
-
Kansas
addikt
Ha jól tévedek, a gyakorlatban az is "csak" a coldplate-ről húzza le a meleget, ami utána egy léghűtéssé alakul.
-
Kansas
addikt
Miért, van olyan, állandó használatra alkalmas hűtés, ami végső soron nem levegővel hűt?
Igazából a folyadékhűtések is annyit csinálnak, hogy áthelyezik a léghűtés helyét a közvetlenül a coldplate fölül a radiátorra, extra nyereségként ugyan a folyadék pufferhatása eltünteti a rövid kiugrásokat, de ha a léghűtő nem elegendő a radiátoron, akkor az egész hűtés nem megfelelő, ahogy a folyadék felmelegszik.
-
nevemfel
senior tag
Jaj de cép.
450 Wattal képes megbirkózni bármiféle léghűtés?
-
Kansas
addikt
A GTX1080 2016 májusában jelent meg, szóval de, 2 hónap híján 6 év a most megjelent 3090Ti-hez képest... konkrét GPU-król van szó, nem a sorozatokról. Nem 10xx-series vs. 30xx-series, hanem GTX1080 vs. RTX3090Ti.
-
Varázslóó
senior tag
Mindig az FE verzióhoz hasonlítják azt a % ot
3090 OC nál 5% jobb csak a 3090Ti Sima..
Viszont egy OC verzió már 7% al... 3090 FE nél biztosan 10%+ al gyorsabb a 3090Ti
De nekem a 3080 OC-m mindössze 2.5% maradt le a FE 3080Ti tól. Az a fránya OC verzió sokat dobhat... egy jobb 3080Ti OC meg 1% van elmaradva a 3090 től -
Dester31
tag
válasz
#57018880 #147 üzenetére
"A jelenlegi generációnak a 4k még nagyon nyögős-izzadós" - a 3070-re gondolsz? Mert 3080-tól felfelé (3080/3080Ti/3090) már a 4K az otthonos terep, 80-100 fps körül megvan minden ultrán, akár raytracinggel is. Ahol meg nem, ott elérhető a quality módú DLSS preset, az elég mindenhova.
-
#57018880
törölt tag
válasz
Vigilante #145 üzenetére
Szvsz, ha valakinek nem muszáj Ultra Preset-re kényszer-kattintania, akkor van talán 2-3 játék ahová több kell mint egy 3070/RX6700 jelenleg, azokban én a 1440p--> felskálázást választanám, vagy mivel többnyire single playerek, beállítanám kisebb frame lockra.
Ha a pénz nem számítana, akkor is valószínűleg a 3070 lenne az utolsó kártya a sorban amire költenék, mert már az sem tűnik kimondottan jól kibalancolt terméknek, a többi meg vastagon aránytalan.
A jelenlegi generációnak a 4k még nagyon nyögős-izzadós, majd talán a következő utáni tudni fogja fejlesztésekkel is, nem csak izomból.
Az nálam is igaz, hogy még a 3070 is kihasználatlan lenne, ..online játékok
.
-
Vigilante
őstag
-
joysefke
veterán
3090-nel osszevetve: ezt a 9%-ot nem tudom honnan vette Abu, nem azt mondom hogy nem lehet annyi csak mindenhol 10% vagy annal par %-kal nagyobb gyorsulast irnak. Erdekelne a source ami 9%-ot ir, csak mert maskepp felvetodik bennem a gyanu, hogy a vagy-vezerelt cikkiras tartotta fontosnak egy szamjegyu gyorsulast irni, ezzel is mutatva hogy mennyi nevetseges a termek (az egyebkent).
Itt több különböző felbontáson/ beállításon vannak összegezve az eredmények. 10% nem nagyon van meg a sima 3090-hez képest.
Végül leszedett ház oldallappal kellett teszteljenek, mert 50dB felett volt a hangerő az egyébként tágas házban. Abban amelyikkel egyébként minden VGA-t tesztelnek...
-
#72042496
törölt tag
válasz
Elit3Zotya #142 üzenetére
Nekem is fura volt, hogy mire számít?
A Series X jó cucc. Halk, teljesen jól megy vele a HDR10, a Dolby Vision, az Atmos hang, benyomom a kontrollert és kb. indul is a játék. Én ajánlom, főleg nappaliba egy jó tévéhez.
-
Elit3Zotya
addikt
válasz
#72042496 #23 üzenetére
Hát ennyierővel akkor sose vegyen az ember semmit, mert úgy is lesz jobb.
De igaz ami igaz én már tuti nem fejlesztek. Mikor még az rx480 meg 1060 volt még megérte szerintem. De most, jó ez a kis rx460, a wot megy rajta rendesen 900p-ben(Nagyobb kártyán is így használtam)Erősen elgondolkoztam egy series x beszerzésén, mert ezek a videó kártya árak nevetségesek, ezekről a csúcsokról meg ne is beszéljünk.
-
Vigilante
őstag
Hűha, már rohanok is eladni a 3090-esem. 🤡🤡🤡
-
arn
félisten
A kov generacional majd ez lesz arban es fogyasztasban a kozepkategoria. Johetnek az 500 wattos procik, vizhuteses ssdk.
-
#72042496
törölt tag
-
válasz
nonsen5e #126 üzenetére
Mivel még nincs magyar ára, így elég nehéz lenne azt megírni. Az msrp-t meg nem forintban határozzák meg. Akárhogy is akarod szépíteni, itt kb senkit nem érdekel, hogy neked külföldön 1 kw/h többe kerül.
Azt senki sem vitatta, hogy a fogyasztása sok. Viszont ha már le tudod írni, hogy havi 10eft pluszt jelent napi 3 óra játék, akkor tudd már leírni azt is, hogy ez nem Magyarországon van így.
”forintban kapom a fizetésemet és forintban költöm el, abszolút nem érdekel, hogy mennyi az euró árfolyam”
Itthon ennyi az áram, máshonnan nem lehet beszerezni, max ha magadnak állítod elő az áramot mondjuk napelemmel. -
Kansas
addikt
válasz
Komplikato #127 üzenetére
Ja, azt láttam én is, nem rossz...
-
nonsen5e
veterán
Fél lépéssel a "forintban kapom a fizetésemet és forintban költöm el, abszolút nem érdekel, hogy mennyi az euró árfolyam" előtt. Szűklátókörűség lvl.9000
Még szerencse, hogy a cikk is euróban adta meg a termék árát, és az egész prohardver lapcsalád is csak olyan termékekről ír amiket magyarországon terveznek / gyártanak ÉS forgalmaznak.
Nem utolsó sorban az meg továbbra is országtól függetlenül nevetséges, hogy mennyire pazarlóak manapság az újabb kártyák, áram árak ide vagy oda.
-
Cassi
őstag
válasz
Komplikato #115 üzenetére
Európában is kezd visszaállni az ár az MSRP közelébe. A 3070 Ti hivatalos ajánlott ára 649 euró, az Ebay-es ASUS shopban már 750 euróért lehet TUF-ot venni, ami eleve drágább mint a Founders modell. Szóval közel van már a kánaán.
-
Kansas
addikt
válasz
Komplikato #122 üzenetére
Melyik techdemóban? A völgyben játszódó Tomb Raider-klónban nem volt hardveres RT.
uhh, ezt nem külön hsz-be akartam...
-
Kansas
addikt
válasz
Komplikato #122 üzenetére
Tippre a Lumen nemigen fog futni butítatlanul a legbivalyabb kártyákon kívül máson, talán nem véletlen, hogy még mindig nem jelent meg a végleges UE5, és tudtommal játékok se jönnek ki vele még idén...
-
Kansas
addikt
válasz
Komplikato #120 üzenetére
A Lumen az raytracinget használ, pont. Csak tudja szoftveresen is, nem csak DXR-ből.
Tippre több lesz a DXR-t használó játék, mint az UE5 engine-t használó.
Nagyon kétlem, hogy az Epyc az UE5-től függetlenül is fogja licenszelni a Lumen-t, ahogy azt is, hogy bármelyik UE5-ös játék hardveres RT-támogatás nélkül érkezne... ha kell(és tudod), akkor bekapcsolod, ha nem, nem.
Az se valószínű, hogy a szoftveres raytracing gyorsabb lenne, mint a hardverből gyorsított. -
Kansas
addikt
válasz
#72688384 #118 üzenetére
Az UE5 egyébként támogatja a hardveres raytracinget(a Lumen az szoftveres raytracing), csak hogy képben légy... az más kérdés, hogy az első demóban valóban nem szerepelt...
Tensor mag meg a DLSS-hez kell, nem az RT-hez. -
#72688384
törölt tag
najó meggyőztél. valóban sokkal jobb ez a hadverlockkolt, fossápromótált useless feature mint pl az UE5 lumenje.
ráadásul utóbbi elég veszélyes is hiszen ott nem kellenek a tensor magok ugyanahhoz a hatáshoz és máris húzhatnák le a wc-n az évek alatt szépen felépitgetett marketingjüket a zöldek ráadásul még a befektetők is sipákolnának.
rohadt nagy szerencséjük van nvidiánál a kognitiv disszonanciával.
szóval hajrá raytracing, előrenemhátra.
[link] -
tibaimp
nagyúr
Egyetértek, ismét!
Lehet véleményt alkotni, de a normális keretek között, illetve lehet bizonyos hiedelmekben hinni, senki nem tiltja, csak azt kell elfogadni, hogy az "csak" hiedelem, vagy hitvallás, ahogy tetszik, nem feltétlen tényszerű.
A srácnak ott igaza van, hogy nagy erőforrás igénye van az RT-nek, mivel tulajdonképpen 2x kell megrajzolnia ugyan azt a VGA-nak, nagyon leegyszerűsítve, abban nincs igaza, hogy ez mit sem ér.
Pont ezért írtam, hogy számomra az RT talán az évtized legnagyobb grafikai ugrása volt, persze ez is játékfüggő, mert míg a CP2077-ben nagyon látványos, és a Shadows of TR-ben annyira nem láttam, nem fedeztem fel. -
#57018880
törölt tag
ASUS közben bejelentette, hogy VGA árat csökkentenek, bár ha jól emlékszem pont a csúcs kategória kimarad.
Pl: https://www.pcgamer.com/asus-reducing-msrp-graphics-cards/
Ha ez bejön, akkor 3090Ti kártya relatív értéke még rosszabb lesz.
-
Komplikato
veterán
válasz
Komplikato #54 üzenetére
Na, GigaByte már be is jelentette a Waterforce verziót.
-
-
Atee94
tag
gtx 1660 super 125 watt
Rx 5600 xt: 152 watt
rx 6600 xt : 160 watt
Rtx 2060: 164 watt
RTx 3060: 183 watt
Rtx 2070 192 watt
rx 5700 xt: 210 watt
rx 6700 xt 221 wattEzek csak a kártyára levetített gaming fogyasztás...plusz monitor, cpu plusz apróságok.
Source: https://www.techpowerup.com/review/sapphire-radeon-rx-6500-xt-pulse/35.html
Ha csak a nvidia xx60 sorozatát nézem a gtx 1660 125 wattos fogyasztásról eljutottunk az rtx 3060 183 wattos gaming fogyasztásához. annak ellenére hogy most nem elérhető áron van, ez az átlag kártya. -
Noukoum
veterán
Alapból te max fogyasztást nézel, nem átlagfogyasztást. Egy számítógép nem megy mindig maximum terhelésen. Azért ezt ne felejtsd el.
Egy átlagos kártya, mondjuk egy gtx 1660 120 watt. A többség vagy ehhez hasonló fogyasztású kátyákat használ. Ebben a szegmensben pedig nem volt 50 watt fogyasztásnövekedés. -
nubreed
veterán
válasz
fatpingvin #20 üzenetére
Ez már nem a racionalitásról szól, de még a sima 3090 sem. A kb. +9% teljesítmény + 100w fogyasztásért, + 500 dollár felárért... tuti megéri.
-
Hatalmas fogyasztás, hatalmas árazással, kell ennél jobb?
-
Atee94
tag
Sok kicsi sokra megy...Persze nem ez fog klímakatasztrófát okozni,de a szépen lassan felkúszó fogyasztás az átlag hardvereknél is érzékelhetően növeli a karbonlábnyomot. Ha 1 millió kártyánál az átlag fogyasztást 40-50 wattal növeled csak(vegyük csak az átlag 300-500 dolláros MSRP árakon bejövő kártyákat), azt már biztos érzékelni fogja földanyu, és sok kis dolog azért lassan összegyűlik, ami lassan, de biztosan azért sodor minket a katasztrófa felé. Az extra fogyasztás a GPU-nál egy hangyafasznyi,de ottvan, és a sok kis hangyafaszt azért már észre lehet venni. Persze ez csak sarkallatos példája a hardverpiacnak, de ellenben egy ps5/xbox széria, vagy egy átlag gép fogyasztásának az átlaga 250-350 watt , egy rtx 3090ti-val szerelt gép( és ha már van pénz lóvéra),sanszosan egy csúcs processzorral egy kis oc-val simán eléri azt a 700-1000 wattos fogyasztást. Más dolog hogy keveseknek adatik meg ez az anyagi lehetőség, de az átlaghoz képest mégis durva.
Az áramárról annyi, hogy igen valóban elszámolta a kolega, számolva a 300watt 3 óra/nap átlag gaming időt ami ha jól számolom 40*0,300(300 watt)*3*30=1080 forint, szemben egy átlag 40*0,800(800watt)*3*30=2880 forint ami nem annyira érzékelhető.Másik dolog, hogy általában akinek ilyen cucca van,sanszosan nem napi 3 órát használja ,de ez most mellékes, plusz ha "háztartási" áram követné a piaci ár jelenlegi alakulását(szimplán spekuláció ez már csak de azért 5x emelkedett), akkor azért az már 5400 forint lenne a 14400 forinttal szemben.
A többi fórumtárstól meg elnézést szeretnék kérni, ha esetlegesen nem néztem utána jobban a fogyasztásnak meg a többi dolognak, és ez miatt esetlegesen kicsit szélsőségesebb,kisarkítottabb, vélemények alakultak ki. -
Noukoum
veterán
Alapból rosszul számolt a kolléga, kb 1000 forinttal lenne több a villanyszámlája egy ilyen kártyával (az általa leírt használattal).
Nyilván fontos a fogyasztás, de villamosenergiát alacsony karbonlábnyommal is előtudunk állítani. Klímakatasztrófához nem az vezet hogy ez a kártya 300 vagy 500 wattos fogyasztással bír.
-
PuMbA
titán
Már törölték egy hozzászólását, de azt akartam írni, hogy az, hogy beír egy dolgot mindenféle magyarázat és tapasztalat megemlítése nélkül, jól jellemzi az ember nyitottságát. Én szívesen elbeszélgettem volna vele, de le kellett volna írni, hogy miért gondolja úgy, pár példával alátámasztani, mert önmagában egy kinyilatkoztatás nem tesz hozzá egy topikhoz sem és tanulni se tanul belőle senki :)
-
Akkor számolj újra, ezúttal ne fejben, mert az nem megy úgy látszik. 38Ft 1kw/h, te 500w/h-t használsz 3órán át, azaz 19ft*3*30=1710ft havonta. Egyszerűség kedvéért kerekítettem. Ha 24/7-ben megy 100%-on a vga, akkor dob 14eft-t. Nem azt mondom, hogy ez kevés, de amit írsz az 5x-ös túlzás.
-
Atee94
tag
Miközben az albérlet ahol lakunk párommal, összesen 2800 forint-3100 ft/hó az áramszámla úgy hogy van egy undervoltolt rx 6700 xt/ryzen 7 5800x(kb 300-350 watt fogyasztás csúcson egy titanium 600 wattos táppal ami ennek környékén 96+ százalékos hatásfokot tol. Egy ps5/laptop, ja meg minden energiatakarékos a lakásban. Hétköznap napi 2 óra game, hétvégén 4-5. Ezzel szemben egy ilyen szörnyeteg egy i9 12900ks-el, megfelelő hűtéssel és egy high refresh monitorral 800-1000 watt környékén is tud zabálni. Úgy hogy nyakunkon egy klíma katasztrófa, és szerintem pont nem ebbe az irányba kellene haladni.
-
PuMbA
titán
Szegény VGA gyártók millió dollárokat tolnak az RT fejlesztésébe és a hamarosan megjelenő VGA-k ebben fognak sokat előre lépni megint. Szerintem szólnia kéne jasso-nak nekik, hogy nem jól csinálják. Ő igazi szakértő
A Prohardver manapság már viccújságnak jobban elmegy, mióta rászabadultak az "igazi szakértők" az utóbbi 5 évben. Csak azt nem értem, hogy ha ennyire értenek hozzá, akkor miért nem dolgoznak az adott területen.
-
Dester31
tag
válasz
#72688384 #89 üzenetére
Gyanítom azért írod, mert nincs RT-s kártyád. Szerintem a legjobb dolog, ami a számítógépes grafika terén történhetett. Igaz, én 20 éve is rendereltem (móricka) raytracing képet, de akkor egy képkockán 800x600-ban küzdött egy komplett éjszakán át a gép. Most meg másodpercenként kapunk akár 100-at, 4K-ban... Nézd meg a Controlt vagy a Metro Exodust RT-vel és anélkül, egy izmos gépen, és ámulj. De akár a CP2077-et is. Ugyanolyan alap lesz idővel, mint a PhysX engine is lett.
-
GeryFlash
veterán
-
DRB
senior tag
válasz
GeryFlash #86 üzenetére
A RT-től lassabb lesz a 2060(meg az összes ray tracing-et támogató kártya), nem gyorsabb, úgyhogy ha ray tracing-el tesztelték volna, akkor még a 1070-et sem hozná, szerintem te valamit benéztél. Azt meg honnan veszed, hogy a TPU-n néztem? De most, hogy így felhoztad, megnéztem, és a tesztelt játékok között kb. egy sem támogatja a ray tracing-et(de tök mindegy, hiszen ettöl nem lenne közelebb a 1080-hoz, sőt...), vagy támogatta amikor tesztelték a kártyát, a nagyrészük még csak nem is DX 12-es, szóval elég fals amit írsz.
#87 b.: Nagyjából minden felbontásban, nem csak 1440p-ben.
-
GeryFlash
veterán
Raszterben inkabb pont ugyanannyira volt a 1070tol mint a 1080tol. Techpwoerup ne tevesszen meg, ott az RTX-et is beleszamoljak a releative perfoamnceba.
Inkabb a 900 ->1000 szerianal volt utoljara ket lepcsos ugras (tehat hogy az uj xx60 = xx80 illetve xx70 = xx80ti). A 1000 es 2000 kozott inakbb 1.5 lepcso de legalabb bejott az RTX, a 20 es a 30 kozott... HagyjukGave:
GTX 900 --> 2014 szeptember
GTX 1000 --> 2016 junius (21 honap)
RTX 2000 --> 2018 oktober (25 honap)
RTX 3000 --> 2020 szeptember (23 honap)
RTX 4000 --> 2022 augusztus(?) (23 honap)Nincsenek nagy difik, de a legkisebb idokozunel volt a legnagyobb altalanos teljesitmenynovekedes
b.: Maximum lett kesobb a mai jatekoknal, az fix hogy elotte feluton volt: [link]
-
hokuszpk
nagyúr
lehet tudjak, hogy az uj Intel csucs is hasonlo fogyasztassal jon, ezert igy uzennek, hogy ebbol ennyi performance hozhato ki, huzzanak vissza a tervezoasztalhoz
-
GeryFlash
veterán
Ha valoban az Intel 4 olyan fasza lenne hogy feluton lenne az N3 es N5 kozott akkor talan nem vallaltak volna be hogy az Applelel egyutt licitalva fizessenek a node-ert azert a csekely difiert
Persze 2-3 ev mulva visszaterhetunk ra, de szerintem ez az egesz pat Gelsinger hogy o egy mernok es vegre nem egy bankar van a ceg elen es most aztan az Intel jon vissza... Lehet iranyba allitotta a hajot de olyan lemaradasban vannak es olyan szemtelenul kamuzik. De persze majd kiderul, abban egeszen biztos vagyok hogy amig nincs GAAFET-juk (aka Ribbon FET) addig a FinFET eraban labdaba se rugnak. Ha tenyleg ugyanakkor hozzak a GAAFET-et mint a TSMC (illetve Samsung), tehat legkesobb 2025-ben akkor el tudom kepzelni hogy a nagyobb csikszelesseg ellenere (5 vs 2) meg tudjak kozeliteni a TSMC-t. Csak nem tartom valoszinunek.
-
válasz
GeryFlash #79 üzenetére
nem tudom, elméletileg az Intel 4 még nem szivárgott ki de azt állítják a 5 és 3 nm TSMC gyártás között lesz.
A 3 nm gyártást azt kiszervezték TSMC hez tehát elméletileg 3 lépcső lesz náluk 2024 ben. Intel 4 ami szerintük a TSMC 5 nél jobb.
Tesz a TSMC 3 nm amit bérgyártásban rendeltek meg, plusz jön a 20A ami elméletileg jobb mint a TSMC 3 nm. Majd összenézzük 2 év múlva -
GeryFlash
veterán
Szoval bar az Intel elso 7nm nodeja (Intel 4) a kiszivargott specifikacioban minimalisan, de elmarad a TSMC 7nm-tol, szoval ez fog kijonni 2023 elejen. Ami a TSMC-nel 2018 volt.
De ugyanakkor a 2025-re varhato 5nm-es 20A az nem csak jobb lesz a TSMC 5nm-nel, es nem csak az iden(?) erkezo TSMC 3nm-nel, hanem meg a 2024 vege-2025-ben erkezo TSMC 2nm GAAFET-nel is
Hulye TSMC meg volt olyan hulye hogy ezeket a lepcsoket egyesevel tegye meg 6-7 ev alatt, ahelyett hogy az Intel modjara 2 ev lezavarta volna a 7nm --> 2nm valtast.
-
válasz
GeryFlash #75 üzenetére
Igen az lehetséges, hogy nem 2-4 nm hanem 5-7
és szerintem is óvatosan kell kezelni. Intel ugye elhagyta a nm számozást, de elméletileg a 20A ás a 4 azt mutatja melyik nm hez lesz hozzámérhető tranzisztorszámban és fogyasztásban. Szerintük a 20A kompetens a TSMC 2 nm gyártásával és mindkettő választható bérgyártásra náluk 2024 ben. A 20A GAAFET ( vagy ahogy ők hívják Ribbon FET) már , tehát nem tartom kizártnak .Ráadásul egy helyről jönnek a gyártó gépeik. ahogy ezt közölte az INtel első számú vásárlója lesz az ASML High-NA EUV gépeknek , ha a gyártástech adott onnanntól tervezni kell tudni.
-
Kansas
addikt
válasz
GeryFlash #48 üzenetére
Szerintem meg de, felmerülhet, különösen azoknál, akik 165-240-360Hz-es monitorokon tolják. Egyrészt azoknak a monitoroknak a 99%-a max 1440p-t tud natívan, másrészt vannak olyan játékok(pl Cp2077, TW:Three Kingdoms), amikben még a 60fps-t se ugorja meg a 3090Ti sem 4K felbontáson(persze nyilván egyes settingeket visszább lehet venni, hogy menjen), és azért a 60fps az a minimum igénye bárkinek aki ennyit költ VGA-ra.
A 3-5 % pedig nyilván az összes felbontást figyelembe véve annyi. -
GeryFlash
veterán
Most vagy en vagyok reszeg, vagy a hardwaretimes van teljesen vakon. Szerintem ezek keveri a szezon a fa...mal. Itt van az Intel node eljarasainak a neve az atnevezesek utan . Na most mar kapasbol ott vagyunk hogy az Intel 4 es Intel 3 azok mind 7nm-es gyartastechnologiak.
Ahogy Abu irja a 2024-re vart 20A lehet az elso 5nm.De most megidezem Abu-t, tegyen rendet
De szeintem itt a balek ujsagirok butan besz*ptak amit az Intel osszemosott a nevekkel, es Gelsinger egyebkent sehol nem mondja azt hogy 3 vagy 5nm, csak a kodneveket emliti. Tehat peldaul hogy majd az 20A ami valojaban 5nm jobb lesz mint a TSMC 2nm.
Ne doljetetek be az Intel kamu neveinekEs dehogy lesz jobb. Persze 2023-ban jon a 7nm ami specifikacioban elmarad a TSMC N7-tol, de ra 1 evvel kesobb jon az Intel 5 (szinten 7nm) ami majd jobb lesz mint a TSMC 3nm
Az Intel jelenleg egy 4-5 eves lemaradasban van a TSMC-tol, ezt 2 ev alatt ledolgozni 3 ev alatt meg megelozni
Es en meg azt hittem hogy a Samsung tolja tul az igergetes contestet.
-
válasz
#57018880 #68 üzenetére
Ez szinte lehetetlen ennél sokka nagyobb előrelépés lesz, ez biztos.
ha Igazak a megbízhatónak tartott szivárogtatók pletykái, ( Kopite és Greymond)akkor 2-2,3x előrelépés lesz a csúcson .
ez azt jelenti, hogy a 4060 valahova a a 3070 ti vagy esetleg akár fölé( 3080) is érkezhet. -
-
válasz
GeryFlash #67 üzenetére
Nem tudom láttad e a legutóbbi Gelsinger nyilatkozatot, hát elég ambiciózus. [link] Kérdés mi ebből , ami a befektetőknek szól.
Konkrétan most azt mondja hogy 2024 ben felülmúlják saját 3 nm gyártásukkal a TSMC-t és bemutatják a 2 nm 20A-t. Most Amcsik minden pénzt erre fordítanak és Biden még több támogatás nyújt nekik, mint Trump, pedig az sem volt kevés.
Tehát elméletileg 2024 ben az Intel 3 nm és a TSMC 3 nm már összevethető lesz és valószínűleg az ADA utáni generáció ezekre lesz fejlesztve és 3 bérgyártó fele lehet menni a következő generációval már talán .
-
nonsen5e
veterán
Te jó ég már megint mi ez a fogyasztás.
Gyors fejszámolással ez napi 3 óra játékkal majdnem 10k-val dobná meg a villanyszámlám.
-
#57018880
törölt tag
válasz
GeryFlash #64 üzenetére
Techpowerup-ra már felvitte valaki a GF40 adatokat, nem tudom mennyire lehet hinni neki, de a 4060 TDP 200W 12pin csatlakozóval. Viszont elviiiileg 3060Ti+ szint. Ami kissé gyalázat, hogy a 4050-re 150W vittek fel és alatta ...semmi. Tehát most vagy egyszerűen elengedték az egész belépő szegmenst, vagy ami rosszabb "átengedték" (így árversenyre nagyon nem lehet számítani).
-
GeryFlash
veterán
Amugy ezt az Intel bergyartas annyira nem tudom hovatenni. Ebben a generacioban meg biztos nem lesz semmi, de mondjuk 2 ev mulva is maximum az ilyen 1030/3050/3050Ti kategoriaba tudom elkepzelni. Basszus az Intelnek a jelenlegi roadmapjuk szerint is csak legkorabban 2023-ban lesz 7nm-uk es 2025-re 5nm, ezzel maximum az also szegmensbe lehet gyartani. Az sem vilagos hogyan tudja jobb aron adni majd 2025-ben az akkor meg kiforratlan 5nm-uket az akkor mar 5 eves TSMC N5-tel szemben.
-
válasz
GeryFlash #64 üzenetére
Igen ezért is írtam hogy most lesz egy ugrás de utána szerintem megint fék lesz. Jön az MCM ami egy kakukktojás lesz mindkét fél részéről.
Közben AMD a Samsung felé érdeklődik Nvidia meg Intel fele bérgyártásról .Szóval sok kérdőjel van itt, már nem annyira egyértelmű ez a csíkszél előrelépés / kisebb fogyasztás. mert kb azt történik hogy ugyan akkora fogyasztáskeretbe belezsúfolnak 3x annyi Tranzisztort , nem fordítva közben meg itt van az is az hogy nem feltétlenül TSMC lesz a következő játékos generációk gyártása. -
#72042496
törölt tag
válasz
GeryFlash #61 üzenetére
Meglátjuk, bár én a 170-180 watton is húzom a szám. De power limittel még opció lehet, nem zavar, ha áldoznom kell a teljesítményből a hatékonyabb működésért cserébe. A 70-es sorozatra pedig már a legkomolyabb gyári hűtőket is ráteszik, összejöhet így egy halk üzem, kiderül.
#64 GeryFlash
A 60-as közelebb áll hozzám igen, már a 3060-akat is meg-megnézegettem érdeklődésből. -
GeryFlash
veterán
Az ADA biztosan jobban fog sikerulni, marmint nem kicsit hanem sokkal. Ahogy irtad, a 8nm alapbol egy halfnode. Igazabol marginalisan jobb mint a TSMC 12nm. Itt most kozel 2 generacionyi ugras lesz gyartastechnolgiaban, mert Huang bro vegre viritotta a lovet latva hogy az AMD jon fel. Szerintem azonos gyartastechnolgian megint egyertelmubb Nvidia leony lesz perf/watt-ban, de legalabbis 4k/Raytracingben mindenkepp.
,,7 vagy 6 nm TSMC ről nem lenne már hatalmas nagy változás" ---> persze hogy nem, de ez nem azert van igy mert a fizika torvenyei szabnak korlatat, hanem mert half node.
,,A 3 nm is már nehezebb lesz jön a 3 nm FinFET és 2 nm GAAFET amiről rohadtul nem tudni mit eredményeznek és a tranzisztorzsám jelenleg az egekig nő.Az energitakarékosságra a moduláris felépítés lesz a megoldás és a különböző 3D tokozási eljárások fejlődése."
Egeytertek
En egyebkent nem vagyok benne biztos, hogy ezen kivul jon meg FinFET alapu VGA generacio (tehat FinFET 3nm). Szerintem a mostani generacionak tobb mint 24 honapos ciklusideje lesz, utana meg egy Samsung/TSMC 2nm GAAFET.
Balika911: Hat ha az sok akkor 4060/4060TI. Ott is lesznek dragabb kiadasok jobb/halkabb hutokkel.
-
válasz
GeryFlash #45 üzenetére
Kicsit kulturáltabban nyilatkozz és főleg ne személyeskedj semmi szükség nincs a hisztire. Próbálj értelmezni.
Azt írtam, egyre kevesebbet fog hozni.
A 12 nm TSMC Turing és a 8 nm Samsung halfnode Ampere.
A Samsung eleve el van maradva a TSMC mögött és a 8 nm Ampere egy 10 nm eljárás halfnode verziója.
A jelentős változást már eleve kizárható volt ,nem is következett be.
Azt írtam az ADA remélhetőleg nagyobb előrelépést hoz 5 nm eljáráson 20 % nál ami valószínűleg így lesz, de nem azért mert 5 nm, hanem azért mert egy Samsung 8 nm ről váltanak.
Almát hasonlítasz körtével PS5 APU meg ARM alapú M1-gyel azt gondolom .
7 vagy 6 nm TSMC ről nem lenne már hatalmas nagy változás a Olyan 20 % ra tippelelek mint amit most kaptunk és ez lesz a tendencia.
A 3 nm is már nehezebb lesz jön, a 3 nm FinFET és 2 nm GAAFET amiről nem tudni mit eredményeznek és a tranzisztorzsám jelenleg az egekig nő.
Az energitakarékosságra a moduláris felépítés lesz a megoldás és a különböző 3D tokozási eljárások fejlődése. -
GeryFlash
veterán
válasz
#72688384 #60 üzenetére
Olyan szinten fogalmatlan vagy hogy kar vitazni veled.
Balika911: Elvileg a 4070-t most kisebb fogyasztasra varjak mint a 3070-nek volt. Ha megall 170-180 wattba +30% perfomanceszal akkor szerintem az egy jo deal lehet (marmint teoretikusan, nem szamolva a banyasz demand es chip hiannyal).
-
GeryFlash
veterán
válasz
Komplikato #54 üzenetére
Mindenesetre leghutessel es vizhutessel is van megoldas ra, hogy hutve legyen a 450 wattos fogyasztasa mellett, tehat a kollega sirnankozasa hogy ,,jajj de hat ezt huteni is kell majd" elegge ertelmetlen.
-
Komplikato
veterán
válasz
GeryFlash #48 üzenetére
Ha végtelen sok pénzem lenne és ilyesmit szeretnék, akkor valami gyárit inkább. Szoktak lenni gyári hybrid AIO hűtésű kártyák, meg EKL némelyik VGA gyártóval közösen szokott gyárilag vizes blokkos termék kiadni, van aki jobban bízik az épített vizes cuccokban. De egy ilyen drága kártyán nem sokan mernének hűtést cserélni.
-
Dr. Akula
félisten
Most is 3 8-as csati van a kártyámon, nem oszt, nem szoroz. De hogy ez 2k dollárból nem jön ki, az biztos, ennél a sima 3090 is 50%-kal többe kerül.
-
GeryFlash
veterán
válasz
#72688384 #46 üzenetére
Vizhutes. Akinek van ilyenre penze annak arra is. Azzal meg nem lesz problema.
Kansas: Szerintem egy 3090 vs 3090Ti meccsben fel sem merulhet mas merce mint hogy a 4K teljesitmenyt merjuk ossze. Ott a TU az altalad linkelt videoban kb 8%ot mert a Gamers Nexus meg rendre 10% felett. Azert ez nagyon nem 3-5%. De nyilvan nem megeros szerintem se, foleg nem par(?) honappal 4xxx rajtja elott.
-
Kansas
addikt
Akik meg teszteltek is(pl. LTT, HU. GN) általában 3-5%-ot mértek a 3090-hez képest, szórványosan 10% fölé kúszva... átlagnak magasnak tűnik a 9%, közelebb lesz az a
6-7%-hoz(az is leginkább 4K-ban), bár persze attól függ, hány és milyen játékkal tesztelnek - és nem úgy tűnik, hogy sokuk hajlandó lenne sokjátékos tesztet végigcsinálni vele... -
GeryFlash
veterán
,,nem nagy előrelépés de sajnos egyre kevesebbet fog hozni a gyártástechnológia egy darabig."
Azert ilyen ordas nagy kamukat ne toljunk mar, foleg toled nem varnam.
Nezd mar meg CPU-knal mit hoz a TSMC 7nm vagy utana az 5nm (pl M1max vs PS5 APU perf/watt). Rohadtul sokat dobnak meg mindig az egyes node valtasok (sot azon belul is a 2. koros optimalizaolos kiadasok), az egy teljesen masik kerdes hogy az sz*rrago Nvidia TSMC 12nm-rol Samsung 8nm-re valtott, ami egy hatar f*s de legalabb olcson kaptak (mondjuk azt nem tudom hogy a hulladek kihozatal maitt vegul mennyire volt megeros).
Nem veletlen lesz (kozel) 2-szeres perfomance az uj szerianal N5-n. Es a FinFET-et meg le se valtottuk. Abszolut sok kiaknazando teljesitmeny van a node valtasokban, csak ugye ki kell fizetni. -
Most komolyan, aki ilyet vesz, szerintetek nem sz@rja le a fogyasztást?!
-
ha nem is sokat de azért csökkent. ha megnézed a 3060 kb 1080 Ti szintű kártya kb 20 % kal kisebb fogyasztással. a 2070 nél pedig kb 10 % kal jobb mutatóval megy.
nem nagy előrelépés de sajnos egyre kevesebbet fog hozni a gyártástechnológia egy darabig.
Azért remélem a 4 vagy 5 nm ADA jobban fog sikerülni ebből a szempontból. -
kilua
senior tag
válasz
#72042496 #17 üzenetére
"Most meg már egy közepes is taszít, akkora benga kazánokat adnak ki"
Na igen, én az EU helyében nem csak a mosógép/porszívó fogyasztását szabályoznám, hanem a fogyasztói CPUknál/GPUknál is adnék egy limitet. A fejlődésnek arról kellene szólnia hogy azonos fogyasztás mellett növekszik a teljesítmény, nem erről.
-
#72688384
törölt tag
várva-várt
-
tibaimp
nagyúr
A TechpowerUp meg, ha jól számolok 12% növekedést hoz a 3090-hez képest. [link]
Mindegy, kb. ott van. És nem ez a hiánypótló VGA... -
130 Mh/s ?
-
#72042496
törölt tag
Amekkora VGA-fétis van a fórumon, simán elképzelem, hogy valaki nehezen összeszedi a pénzt egy ilyen kártyára (vagy a törlesztőre
), de közben egy gyengusz FHD monitort használ.
Láttam már olyat, aki itt verte a patáliát, mert végre összejött neki az akkori csúcs, aztán két hónappal később meg kiadott valami még gyorsabb Ti-t az nVidia.
-
ForRedGlory
félisten
Akár 9%...
-
Pár éve még a GTX 480 fogyasztásáról születtek mémek, ehhez képest az gyufaszál. Számomra szimpatikusabb volt a Maxwell-éra hozzáállása, kedvező fogyasztás és értékelhető teljesítmény. Mondom ezt most. Lehet, hogy csak "új" és döbbenetes ez a TDP érték, mivel évekig 250W környékén volt a csúcskártyák étvágya. Hozzászokjunk?
-
Segal
veterán
válasz
fatpingvin #11 üzenetére
Az a vicc hogy a 4***-es széria felsőbb tagjainál alap lesz szerintem ez a fogyasztás és idővel abból is érkezik majd tutira valami agyonszteoridozott Ti model
-
Cassi
őstag
CP ultra, raytracinggel, Full HD-ben:
3090 Ti = 83 fps
3090 = 82 fpsJó vétel volt, Pistike.
-
fatpingvin
addikt
kabaré ez a hardver. tényleg van pofa ekkora fogyasztású hardvert kiadni. a hatékonyság meg röhej, ennyi erővel vegyél 3 darab 1080-ast és ugyanott vagy.
-
Abu85
HÁZIGAZDA
Az NVIDIA mérte.
Az Anandtech is ugyanúgy ezt írta: [link] - "Gaming performance is expected to be 9% ahead of the original RTX 3090"
Más tesztet nem láttam, így azt tudom írni, amit az NV adott meg adatokat. Az 5% az nem tudom, hogy honnan van. Gondolom némelyik tesztelő valahol ennyit mért. De most ez nem annyira lényeges.
-
Hellwhatever
aktív tag
Van egy olyan érzésem hogy inkább benchmark release ez az nVidia részéről hogy meddig lehet majd elmenni az RTX 40 szériával árazás és fogyasztás tekintetében.
Meg valamit csak kellett dobni az RDNA 2 refresh-re.
Egyébként ezeket a számokat elnézve ahogy közeledik az ősz lehet hagyom én is a fenébe az enthusiast szintet fejlesztésnél és inkább összedobok valami alacsony fogyasztású ITX motyót.
-
GeryFlash
veterán
3090-nel osszevetve: ezt a 9%-ot nem tudom honnan vette Abu, nem azt mondom hogy nem lehet annyi csak mindenhol 10% vagy annal par %-kal nagyobb gyorsulast irnak. Erdekelne a source ami 9%-ot ir, csak mert maskepp felvetodik bennem a gyanu, hogy a vagy-vezerelt cikkiras tartotta fontosnak egy szamjegyu gyorsulast irni, ezzel is mutatva hogy mennyi nevetseges a termek (az egyebkent).
Amit viszont ket helyen is olvastam: 5%-kal gyorsabb egy 450 wattra eleresztett 3090-nel szemben. Akinek ez meger 2-2500 dollart par honappal az RTX 4xxx debutalasa elott, ami olcsobban romma fogja verni sebessegben (es talan feautre setben is), annak lelke rajta, par honapig valoban ove lehet a leggyorsabb konzumer kartya.
-
Zoolee19
senior tag
Lehet hitelt fel venni ha valakinek kell.
-
Megjelenés?
Új hozzászólás Aktív témák
- Magisk
- sziku69: Fűzzük össze a szavakat :)
- Motorola Moto G84 - színes egyéniség
- Eredeti játékok OFF topik
- btz: Internet fejlesztés országosan!
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Autós topik látogatók beszélgetős, offolós topikja
- Samsung Galaxy A54 - türelemjáték
- Ubiquiti hálózati eszközök
- Azonnali VGA-s kérdések órája
- További aktív témák...
- Bomba Ár! Fujitsu LifeBook E780 - i5 I 4GB I 250GB I DVDRW I 15,6" HD I Cam I W10 I Garancia!
- ÁRGARANCIA!Épített KomPhone Ryzen 7 9700X 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- Gamer PC-Számítógép! Csere-Beszámítás! R7 2700 / RX 5500XT 8GB / 16GB DDR4 / 256SSD + 1TB HDD
- SzoftverPremium.hu
- Samsung Galaxy A55 5G / 8RAM 256GB / Gyárifüggetlen / 12 Hó Garanciával
Állásajánlatok
Cég: FOTC
Város: Budapest