-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Raymond
titán
Ez a "hivatalos" NV verzio ami 240W tappal jon igy a SoC TDP nem lehet 240W. Az a tap ugy van dimenzionalva hogy a 2x 200Gbps halozati adaptereket is etetni tudja ha kell. Az hogy csak a GPU-nal kb. 100W lehet a max szerintem nagyon valoszinu. A kerdes meg mindig az hogy Carmack miert hiszi hogy 240W a GPU TDP.
-
Nem értem ezt a hozzáállást, szó nincs halvány lila fingról, a részleteket nem ismerjük, azok meg nem feltétlen számítak túl sokat. De mindegy.
#50241 b.: OK, de pontosan mi az, ami átment? Hacsak nem képes a GPU saját maga detektálni a részegységeit (amit személy szerint kizártnak tartok - és ha mégis igen, akkor meg az a kérdés, hogy miért csak a ROP érintett), akkor valamiért mindegyik típusnál készültek és alkalmazásra kerültek olyan konfigok, amik 8 ROP-pal kevesebbet tartalmaznak, mint a standard. Miért készült egyáltalán ilyen konfig? Hogy került a standard és a csökkentett ROP-os konfig párhuzamosan alkalmazásra? Ezt "gyártási anomáliának" nevezni erősen szőnyeg alá söprős feeling, és jellemzően valami sumákságot takar.
#50244 deathcrow42: hát, az AIB-ok felelősségét éppen lehet feszegetni, de csak ott, hogy nem fogták meg a hibát a saját QA-jukon, nyilván a keletkezéséhez semmi közük.
-
lenox
veterán
Olyan ertelemben nem tudjuk, mint ahogy azt sem tudjuk, hogy nemelyik szaz forintos erme nem alakul-e gyemantfelkrajcarra. Vagy van ilyen, vagy nincs, senki se vizsgalta meg mindet, mindenesetre azt azert tudjuk, hogy ha lenne ilyen, akkor tele lenne vele az internet. Szoval kozvetett bizonyitek azert van ra. De nem tudjuk, valoban, en is keresem a gyemantfelkrajcarokat. De persze tolem lehetsz laposfoldhivo, ha ugy tetszik.
-
Nem a mesélő képességeidre vagyok kíváncsi, hanem arra, hogy mire alapozod a felvetést. Nyilván egy olyan sztorihoz, hogy egy usernek elkezdenek fogyni az ALU-i, valami bizonyíték sem árt

Azt egy szóval sem írtam, hogy fogalmam sincs az egészről, csak azt, hogy nem tudom, részleteiben hogyan működik a dolog. Abban eléggé biztos vagyok, hogy valahol (ha nem a BIOS-ban, akkor alatta) kell lenni egy konfigurációs rétegnek, ami megmondja, hogy a GPU alegységekből melyik használható és melyik nem. Ez a réteg elvileg lehet dinamikus, és maga a GPU elő tudhatja állítani, csak egyrészt ez sokkal drágább megoldás, mint behajítani egy statikus mapet, másrészt lennének olyan következményei, hogy nem tönkremennek, hanem degradálódnak a chipek mondjuk egy SSD-hez hasonlóan, ilyesmiről pedig még sosem hallottam (de ha van, akkor érdekelne a leírása).
Szóval nem ennyi a történet, de ha nem akarsz konstruktív vitát folytatni, akkor nem akarsz.#50237 b.: gondolom, ha a BIOS nem követi az egységek számát, akkor bekéri valahonnan lejjebbről. Ez ugye megnyit egy olyan lehetőséget is, hogy igazából a chipekben ott van a teljes mennyiségű ROP, csak valamiért rossz konfigurációt kaptak. De véletlennek ezt is nehezen tudom elképzelni, valaki ebben sáros.
-
lenox
veterán
Udvariasan azt mondja, hogy ez qrvara nem igy van, a gyarban tesztelik, ami nem megy le lesz tiltva, ha kesobb romlik el, akkor annyi a kartyanak. Ez a kesobb elromlo rop, ami a gyarban meg jo volt ritka esemeny, nincs automatikus letiltasra felkeszitve a kartya. Nem is hallottal soha olyat, hogy valaki gariztatni vitte volna, mert amikor vette meg x rop volt, most meg 8-cal kevesebb, azert, mert nincs ilyen.
-
-
Ez elég futurisztikus, de ez önmagában nem érv, úgyhogy inkább kérdezek kettőt:
1. Hallottál már olyan kártyáról, amelyikről azt reportolta egy user, hogy idővel kevesebb részegység lett benne? Bármiből?
2. Mi oka lenne egy cégnek arra, hogy az általad elképzelt meglehetősen bonyolult öndiagnosztikát alkalmazza egy egyszerű statikus layout-konfiguráció helyett? -
DudeHUN
senior tag
Ez nem hiba. Erről is tudtak. gbors is párszor leírta miért.
Ha veszel egy 4 hengeres motorral szerelt kocsit és egy három hengerest kapsz nem mondod azt "Jó ez. Vettem volna mástól?". Nem azt kaptad, amiért fizettél. Ezért is cserélik. Tök nyolc másik gyártó mit ad ki. Nem is értem ehhez a témához, hogyan jön az AMD amúgy.
AMD meg esélyes ezt is elbénázza, ahogy szokta imho. Szóval tőlük aki megváltást vár az eddigi évek tapasztalatai alapján rossz helyen keresi az élményt. -
Arról, hogy nem lesz mindenki sógor, koma, jóbarát.Ez üzlet is. Pont azok támadták be akik tápos videókat csinálnak meg nagy gurunak állítják be magukat, kell a feliratkozás, meg a nézőszám.
Nem sok ilyen nagy név lesz az iparban már, mint Der8auer vag Igor.
Neki ezeken túl kell lendülnie- legalább is én így gondolkodom- miközben ilyen hatalmas oldalak és feliratkozók tömege meg mellette állnak és igazat adnak neki. -
Én értem csak nem értem miért meg vered a fejed a falba, mikor pont azt írom hogy igaza van csak abban nem hogy áldozatként állítja be most magát.
WH busters vagy a két tápguru egy oldal. az mellett meg van 6 másik aki úgy adott neki igazat és világított rá a problémára hogy nem tudták ezt előidézni amit ő de egy pillanatig nem vonták kétségbe a mérésnek a hitelességét . Az okát keresték.
Ez már itt a drámázás oldala, ezek felesleges körök.
Igor, Toms's Computerbase mind az ő pártját fogták és beigazolták miért van igaza anélkül, hogy előidézték volna a problémát. -
Folyamatosan követem az oldalát, és a videóit. Mindenki leírta hogy tiszteli a munkáját meg stb de nem tudták előidézni ugyan ezt amit ő normál esetben, tehát a kábel volt nála hibás vagy a csatlakozás. És mindenki erre a következtetésre jutott hogy ez a probléma úgy általában a leégett kártyáknál, nem csak nála.
Ráadásul a deep elemzéseknél kijött hogy Nvidia is kivette a balance ellenállásokat ez után, ha ehhez hozzájön a ferdén/ rosszul bedugott csatlakozó akkor meg van a gond
És ha egy ilyen profi ,mint ő is azt gondolja ,hogy az a kábel áll mint katiban a gyerek és még sem jó akkor a szabvány is kuka.
( Erre alapozzák amúgy most a csoportos pert is az 12V- PCISIG ellen is Nvidiánál pedig a biztonsági követelmények megszegése, az emberi élet védelme érdekében nem követtek el mindent( nem tudom a pontos megfogalmazást) valami ilyesmi lesz a vád alapja a reddit szerint)
Tehát összetett probléma.
Ha most ezt Der8auer úgy értelmezi mennyien neki mentek az gáz mert pont ez alapján lehetett kideríteni mi a gond. -
lenox
veterán
a problémás csatin megnő a fesz esés és jobban melegszik.
Szerintem meg nem, hiszen nagyobb aranyban esik az I, mint amilyen aranyban no az U, tehat az U*I csokken. A tobbi csatlakozo melegszik jobban.vagy azon az 1-2 csatin kell nagyon lecsökkennie a csati ellenállásnak
De minel jobban csokken az ellenallas, annal kisebb ho esik ra.Szerintem amikor 22,11,8,5,3 amper van, akkor kb. 1 kabel jo, a tobbi ketszeres, haromszoros, 4-szeres, 7-szeres ellenallasu, annak mar annyi.
-
-=RelakS=-
veterán
Olyasmi.
Az arcnak is igaza van. Ha ennyi vezetéken tuszkolsz át sok ampert, akkor nem ártana figyelni, hogy az tényleg át is menjen rajtuk. Még a végén tényleg jobb lenne egy vaskos érpár, az ha eltörik, akkor el van törve
Jöhetnek az aktív kábelek: aktívan figyeli, hogy a psu felől és a gpu felé melyik pinen hány amper rohangál, és ha sok kicsi vezetéket használ a két vége között, akkor azokon is kiegyenlíti az áramot. 100ezer egy kábelért 1,5 milliós kártyánál potom pénz, nem?
-
X2N
őstag
Szerintem is minden kártya össze van kötve minden érpáron a nyák oldalon, a probléma továbbra is a csatlakozó ahol annyira pici az érintkezési felület hogy ha bedugsz egy ilyen kábelt nem minden vezetéknél érintkezik megfelelően az érintkező, a kártyán meg nincs minden érnél áram monitorozás
-
-
hahakocka
őstag
Van még ZÖLD értitek
jelzés az oldalon s ennek örülök.
A többit pirosban látom már
Köszi. Husky s hokuszkp hozzászólása utánam csak megerősítette amit általában írtam iróniával.
2007 óta vagyok én is fent fórumon, nem mai csirke vagyok, sok mindent láttam már.
Elnézést.
Már én is nagyon várom a teszteket akkor január végén, már tényleg közel van.
Amúgy 750-en nézték meg az NV show-os videómat és 14 likeja van. Kommentekben folyton megerősítenek most ott az RT és DLSS és frame gen használók amit a latency-ről, artifactokról is írtam. S ők tényleg rég használják őket s mégis nekem adtak igazat mert a tapasztalataik sajnos hasonlók voltak. Ott legalább megértik mikről beszéltem néha itt is s ott is, s ott nem fanboyoztam amúgy még iróniával sem. S ott jobban is ismernek engem mint itt, hisz 13 év óta azért megy a youtube oldal. -
-
Yodamest
veterán
Lehet kissé nyers vagyok, de vannak objektív quality of life tényezők, amik mellett én már nem tudok elmenni. Ilyen a távirányító vs monitor alján lévő pöcök pecketése ujjbeggyel.
De ezt mindig építő jelleggel írom, én jót akarok csak, jó ajánlásokat mondani, amik tényleg hasznosak. Ilyen ez a tv stand is egyébként, világ legjobb dolga volt, hogy nem az asztalon tárolom a megjelenítőt. -
-
-
S_x96x_S
addikt
> mert Intel elintézte nekik.
Most hogy Pat lemondott/lemondatták/*
kérdés, hogy az Intel GPU stratégiája hogyan fog változni.Intel Announces Retirement of CEO Pat Gelsinger
https://www.intc.com/news-events/press-releases/detail/1719/intel-announces-retirement-of-ceo-pat-gelsinger
Dec 2, 2024 • 8:30 AM EST
David Zinsner and Michelle Johnston Holthaus named interim Co-CEOs. Holthaus also appointed to the newly created position of CEO of Intel Products. Frank Yeary named interim executive chair. -
S_x96x_S
addikt
> a több GPU közötti kommunikáció miatt van,
> nem azért, hogy gyorsabban érje el a ramota (gen6-al még gyorsabb) CXL sok mindent lehetővé tesz,
akár a CPU RAMjának az elérését is.de amúgy:
(Cache coherence, Expansion memory for GPUs, Flexible tiered memory configuration,..)
"NVIDIA - CXL BEYOND JUST ANOTHER INTERCONNECT"
https://www.youtube.com/watch?v=ZEC0zOQj9_IPersze a CXL nagyrészt szerveres játék ( még )
de egy PCIe 6.0 - adna valamilyen nVlink pótlékot.> Szóval desktopon az még odébb lesz.
lehet azért meglepetés is,
Ha az nVidia várhatóan kihozza a saját Arm - alapú PC-jét
akkor egy Grace-utód Workstation ( ~ amolyan Threadripper rivális - Blackwell Sajtreszelő ) is elképzelhető
És az AI miatt úgyis elkapkodják. -
Raymond
titán
Az hogy mennyi VRAM kerul majd a mobil verziokra szerintem attol is fugg hogyan alakul az egesz "AI PC" es "AI notebook" marketing. Mert az MS/Qualcomm/AMD/Intel most nagyon nyomja, mar valami valaszra kenyszerult is az NV es ott vannak a gaming AI dolgok is amiket bejelentettek. Es hogy az menjen ahhoz kell VRAM mert a model weights a mar most tele levo 8GB-ba nem fer meg pluszba bele. Tehat ha lesznek kvantizalt verziok amiket hasznalhatnak a jatekoknal ott a legkisebbek is lesznek 1-2-4GB csak arra.
Ha ez "must have" lesz akkor nem lehet 8GB a GPU-k mellett mert nem eleg. A 12GB lenne a minimum. Tehat az amit most eljatszottak hogy a 4060 es a 4070 is 8GB annak lottek. Az 5060-as sorozatnak kene ugy 12GB-vel jonnie es az 5070 vagy 12GB vagy 16GB.
Na persze ez majd kozel egy ev mulva es csak technikai talalgatas minek lenne ertelme aszerint mit nyomnak most.
-
D55
senior tag
Itt megint belegondoltam, hogy milyen világban is élünk épp. Mert ugye desktop kari ~= gamer kari, a felsőbb szegmensekben már szinte kizárólag. Szóval mintha arról beszélnénk épp, hogy hogyan oldják meg, hogy egy szép lapos sportautó ugyanazzal a motorral ne legyen gyorsabb egy böszme SUV-nál
Nem is gyalázat, már-már szentségtörés.És értem én, hogy üzlet, de akkor sem tudom mennyire jó ötlet ennyire könnyelműen másodrendűnek visszasorolni azt a piacot, ami egyrészt a technológia bölcsője, másrészt ha a gyártók oldaláról kellő méltósággal és tisztelettel kiszolgálják, akkor talán a világon egyedüliként képes mindenkori üzleti racionalitások nélkül is fennmaradni és tűzön-vizen elvinni a hátán az arra méltó cégeket, a gazdasági világ éppen zajló vagy akár éppen maga alá roskadó trendjeitől függetlenül is egy nagyon masszív, folyamatos keresleti forrásként jelen lenni pusztán érzelmi indíttatásoktól fűtve. Értsd: a gamer az mindig hűséges gamer lesz és mindig meg fogja venni amit elé teszel ha kellő alázatosságot mutatsz felé, akár az utolsó fillérjeiből is. Ellenben egy épp csődöt jelentő iparági szereplő egy-egy lufi kipukkanásának kellős közepén aligha fog tudni a hűséges vásárlód maradni...
Na mindegy, mert azt meg racionálisan be kell látni, hogy amíg majd egy ilyen lavina egyszer tényleg véletlenül maga alá nem temeti valamelyik ikonikus céget, vagy akár egy teljes szegmens iparágát és be nem üt emiatt egy a mostani chiphiányos időknél is sokkal fájdalmasabb kínálati válság, addig a gamer társadalom sem feltétlenül fog öntudatosabb érdekérvényesítő szerveződésekbe kezdeni... Pedig amúgy kb. pont az egyik legjelentősebb globális egységre képes társadalmi csoportot alkotja a tömege, tehát tényleg csak akarat kérdése lenne akár olyan szinten beleszólást nyerni a világ nagy dolgaiba, mint amilyen szinten és amilyen priviligizált minőségben arra a történelmi időkben kb. az egyház képes volt. És tudom, hogy ez mennyire vadul hangzik így a végére, eredetileg eleve csak egyfajta túlzásokba eső poénos konklúziónak szántam, de belegondolva talán nem is az
-
Ezek a chipek már régóta nem mennek fix feszültséggel és órajellel, alapüzemmódban is folyamatosan szabályozva vannak a célfogyasztás megtartásához. Ha belenyúlsz kézzel a feszültságszabályzásba, akkor nem árt, ha pontosan tudod, mit csinálsz, és hogy fog reagálni rá a driver / hardver (pl. érzi, hogy van még fogyasztás headroom, emelné az órajelet, csak nem lesz elég hozzá a feszültség, aztán fagyás).
-
Jellemzően 20% volt a price / perf javulás a Turingnál - nekem az a szar kategória, de azért nem 0-10. Ha az Ampere-t a Pascal-hoz nézzük, akkor olyan 120% javulás van - feltéve, hogy a 3080 tényleg 80-90%-kal gyorsabb, mint a 2080. Ez két generáció alatt elég tisztességes, egy generációra visszabontva kb. 50%.
-
KRoy19
őstag
Értem én, de azért az szerintem még kicsit odébb van, hogy azt lehessen mondani, hogy 8gb vram már kevés.
Persze én is szívesebben látnék több memóriát a 3070-en és 3080-on, csak akkor nyilván nem fértek volna bele a végül megszabott árba és ha csak 100 dolcsival drágább lett volna mindkettő, akkor egész más lett volna az emberek reakciója több vram ide vagy oda.
Lesz itt még több vram-os verzió az tuti, csak a launch-ra nagyot kellett ütni price/performance téren.
-
Totál arról szól a cikk, csak egy idézet belőle:
"The fastest rate at which humans appear to be able to process incoming visual stimuli is about 13 ms. Receiving a stream of data faster than this will only underscore the limits of our perception."De lehet, hogy ezt valóban nem írásban tudjuk megbeszélni. Over and out

-
Abu85
HÁZIGAZDA
Sokkal többet csökkentesz a késleltetésen, ha bedobsz a driverbe egy scene pacinget, és akkor a GPU azonnal kezdi a jelenethez tartozó képszámítást, majd azonnal küldi az eredményt a kijelzőre. Ilyen szempontból erre hivatkozni egy bullshit, mert már azon egy rakás késleltetést veszít a rendszer, hogy minimum két jelenetre előre van generálva a parancslista, vagyis egy ilyen kijelzővel visszanyersz az itt elbukott kb. 10 ms-ból másfelet. De ha a driverben kérsz egy scane pacinget, akkor nem másfelet nyersz, hanem azt a 10 ms-ot, amit a parancslista működése generál, és még ilyen monitor sem kell hozzá. Szóval attól, hogy egy monitor 360 Hz-en frissít, még a képszámításért felelős alapértelmezett pipeline ugyanolyan szar marad.
Ha pusztán az emberi látásból indulunk ki, akkor nagyjából 144 Hz-nek van racionálisan értelme. Minden efölött vagy valamilyen bugból, vagy azért ad rossz érzést, mert a képszámítás maga van rosszul vezérelve, és feltorlódnak a jelenetek a parancslistába, ami egyébként szintén lehet bugtól. Frissíthet a monitor 1000 Hz-en is, nem magát a problémát kezeli, így igazán látható előnye a 144 Hz-hez képest nem lesz.
-
Túl sokat olvasol bele mások hozzászólásába
Nem fikáztam semmit, csak tettem egy kijelentést, amit az emberi fiziológia kitűnően alátámaszt. Azt meg leszarom, hogy mi trendi és mi nem.
A 240Hz és a 360Hz megjelenítés közötti különbséget nem fogja sem látni, sem érezni senki, mert egyszerűen nincs arra berendezésünk, hogy 1-2ms különbséget vizuálisan érzékeljünk. Röviden ebben a cikkben összefoglalva - nem feltétlen a konkrét számok, hanem a nagyságrendek.
A 240 és a 360 FPS futási sebesség közötti különbség minden bizonnyal észrevehető egy CS:GO-ban, mert másképp viselkedik a játék. Viszont ennek semmi köze sem a látáshoz, sem a megjelenítőkhöz, amiből a téma kiindult. -
Egon
nagyúr
Hogy milyen realitások? Mondjuk olvasgass a témában, ajánlom az emberi érzékelés határai keresőkifejezést.
Egyébként meg vannak fent videók, ahol összehasonlítják pl. a 240, 144, 75, 60 Hz-es képmegjelenítést. Már ott is csak lassítva figyelhető meg különbség a 144 és a 240 Hz között (persze 60/75 és 144 között elég látványos különbség van). Egyszerűen vannak határai az emberi érzékelésnek.
De még egyszer: ha lesz vakteszt, elhiszem hogy bárki is lát különbséget, addig pedig maradok az önigazolás/placebo hatás verziónál, mivel az jóval életszerűbb. De kérdeznék valamit: ha megjelennek majd az 500-700-1000-3000 stb. Hz-es megjelenítők, akkor is ezt a dumát fogod nyomni?
Hol a határ?
Vagy szerinted nincs ilyen, és vannak köztünk bármire képes, infravörösben/ultraibolyában is látó szupermenek, a Kripton bolygóról?
Te mire alapozod, hogy bárki is lát különbséget a 240 és a 360 Hz-es megjelenítés között?

-
Raymond
titán
Fiziologia es eddigi tesztek. Kereshetnek es linkelhetnek meg magyarazhatnam, csak itt abba a csapdaba esunk hogy nekem kene bizonyitani a negativumot. De egyelore a te allitasod a pozitivum, igy ha te tudod hogy latni a difit akkor biztos van ra valami linkelheto bizonyitek erre. Ha meg nincs es megprobalsz keresni egyet akkor remelem megtalalod magadtol azokat amik megmondjak hogy nem latsz 240Hz es 360Hz kozott semmi. Sot azt se tudod megmondani melyik melyik, megkockaztatom meg akkor se ha egymas mellett fut rajtuk a jatek es csak a lathato FPS amiben kulonboznek.
-
Egon
nagyúr
Mondjuk a realitásokra.

Ez kb. ugyanaz, mint az egér USB hack 500 Hz vs. 1000 Hz. 1 ms a különbség; majd akkor elhiszem hogy bárki is érzékeli a különbséget (és nem a placebo-hatás) miatt mondja hogy az utóbbi jobb, ha korrekt vakteszten bizonyosodik be, hogy tényleg érzi a különbséget...
.
Egyébként meg válasszuk már ketté a két dolgot: Crytek arról írt. hogy van élet a 60 Hz-en túl, ami teljesen védhető álláspont: szerintem a gémerek zöme (megfelelő játékok esetén) tud különbséget tenni egy 60 Hz-es, és mondjuk egy 144 Hz-es kijelző megjelenítési sebessége, folyamatossága stb. között. Az meg egy másik állítás, hogy tud-e bárki (vagy mondjuk az emberek 99,9999%-a) különbséget tenni 240Hz es 360Hz között...
-
Raymond
titán
Az a helyzet hogy a 240Hz es a 360Hz kozott latni nem fog mar senki difit. Erezni ha erez akkor az pedig a hianyos jatekmotor miatt van, de ott meg mindegy hogy a monitor csak 144/165Hz vagy 360Hz mert ha az FPS megvan igy az abbol szarmazo elony szinten megvan ugyanis nem vsync-el jatszol.
-
Világszimuláció = a környezet és az egyéb szereplők állapotának kiszámítása. Itt az FPS azt jelenti, hogy másodpercenként hányszor számolja újra a testek (játékosok, lövedékek, környezeti elemek) pontos helyzetét (ami implicit magával vonja a fizikát és az AI-t). Nyilván minél magasabb, annál jobb - ill. egyes játékokban a játékos gyorsabban mozog, ha magasabb a szimulációs FPS.
-
Cifu
félisten
Az ilyen szövegek mögött erősen valószínűleg egy specializált teszt húzódik meg, ahol az új arch tündökölhet. Mondjuk egy Ray-Trace számítás ahol a több és modernebb RT mag miatt kétszer nagyobb teljesítményt hoz az új GPU, fele akkora fogyasztás mellett, mint mondjuk egy RTX 2060 esetében. A realitás inkább az, hogy azonos TDP mellett 30-35% plusz teljesítmény általános felhasználási céloknál. Ami még így is brutális ugrás lesz.
Egyébként azt eddig is sejthettük, hogy az Ampere komoly ugrás lehet eleve a 7nm-re lépéstől. A Turing önmagában is iszonyú jó teljesítmény/fogyasztás mutatókkal bírt, ha csak a Turingot raknák 7nm-re, minden más lépés nélkül, az is gigászi ugrás lenne...
-
nem dobnanak ki egy 1070 és egy 1060 sebességű GPU-t ha tele lenne a raktár.De egyébként szerintem nekünk ilyen szempontból mindegy mit mondanak ,ha egyszer jönnek az új kártyák.
A részvényeik nagyon jól vannak,folyamatosan nőnek december óta 20%emelkedest produkáltak .Magasabb az árfolyamuk,mint a banyaszlaz előtt bármikor. -
Jack@l
veterán
Milyen többi grafikára szeretnéd még a cuda-t használni? Az raytracing mindent lefed egy ideális világban. Ezt mondtam hogy célhardver ami nagyot dob rajta, nem a sávszél elsősorban.
Egy raszterizált grafikához 100+fps-hez sokkal nagyobb sávszél kell. (raytracing-el meg örül az ember ha megvan 40) -
KillerKollar
őstag
Elég egyértelmű hogy mit akar mondani... Az volt az állítás hogy a ray-tracinghez brutális sávszél kell majd. A Radeon VII-nek az van, az RTX 2060-nak meg egyáltalán nem, mégis a kettő közül az RTX 2060 tudja a ray-tracinget a Radeon VII meg nem. Magyarul még sem kell annyira brutális memória sávszél a ray-tracinghez.
-
BiP
nagyúr
Azt a küszöbszintet nem érte el a probléma, hogy külön rákeressek
, csak ami cikkekbe magamtól futottam bele, azokban nem volt alulról kép.(#22726) Jack@l : külalakra engem sem érdekel, (bár ez az evga tényleg a rondábbak közül való), mindössze csak kíváncsi voltam, hogy ha már megint egy újfajta SLI összekötő van, az milyen a műnyagon kívül. A korábbiak azért puritánabbak voltak, látszott a csatlakozás formája, ez meg el van takarva egy űrhajóval.
-
2xar
tag
Hogy a Te példádnál maradjak:
A teljes képhez hozzátartozik, hogy egy olyan országban fogja használni a szóban forgó kocsit, ahol az év 362 napján 15-20°C között van a hőmérséklet és csak 3 nap van szükség a klímára. Persze jön a globális felmelegedés és 10-20 év múlva már lehet ebben az országban is jól fog jönni a klíma, de addigra ez a kocsi már régen elavult lesz.
-
Abu85
HÁZIGAZDA
Tegnap erről szólt a hír: [link]
Azzal, hogy az NVIDIA emulálja az UAV-k és az CBV-k limit nélküli bekötését, a processzort használják fel, így nem tisztán hardveres a megoldás. Működik, de a CPU terhelése nagyobb lesz egy tényleg hardveres szinten bindless architektúrához képest, mint amilyen a Turing vagy a GCN. Ezért volt köcsög húzás az AMD-től, négymagos Core i7-tel tesztelni, mert tudták, hogy ezzel ők nem futnak procilimitbe ott, ahol a Pascal már vagy még limites.
Szerintem amúgy a Turing még gyorsabb is lehet. Azért nagyon számít, hogy az NVIDIA-nak most lett egy minden erőforrást bindless szinten kezelő hardvere. Erre valószínűleg korábban nem optimalizáltak, míg az AMD a kezdetektől mindent erre ír, és azért nem mindegy, hogy a meghajtót öt éve optimalizálják, vagy még csak most kezdtek neki.
-
Abu85
HÁZIGAZDA
A CPU-limit 4K-ban kisebb. Igazából 1080p-ben is hozza a 4K-s eredményt a Pascal, ha rakasz alá egy Threadrippert. De négymagossal jóval hamarabb CPU-limitbe ütközik.
(#22439) b. : Na ez jó! A proci ugyanaz, amit az AMD használt. Mindjárt felütöm a review guide-jukat, és bemásolom az eredményeket.
Szerk.: Ultra, ahogy nézem a beállítás ugyanaz volt:
Vega 64 LC:
1080p: 130
1440p: 105
2160p: 69Vega 64:
1080p: 125
1440p: 100
2160p: 681080 Ti:
1080p: 104
1440p: 89
2160p: 662080:
1080p: 126
1440p: 101
2160p: 65Az látszik, hogy a Turingnak nincs meg a CPU-limitje 1080p-ben és 1440p-ben.
-
- = Zk = -
félisten
övék a piac, akárhogy is nézzük.. ők diktálnak még.. AMD "talán" beleszól egyszer a piacba... ( teszem hozzá, nem bánnám én sem.. jó lenne látni megint egy kis adok-kapok cicaharcot
)de nekem most jó... CPU csere az első.. ( ofkorsz ott is megy a szenvedés
) aztán VGA... de csakis a 20X0 jöhet szóba nálam már... nekem kell az 1080Ti ereje, új kártyával.. RTX 2080 vs GTX1080Ti... nem kérdés 
-
Abu85
HÁZIGAZDA
Senki se mondta, hogy játszhatatlan lesz, de nézd meg a Forza Horizon 4-et, amit nem az NV ajánlásai alapján írtak. [link] - és ezekre már nagyrészt immunis a Turing, tehát nem annyira kritikus az NV-nek az, hogy sok szempontból ne kövessék a fejlesztők az ajánlásaikat. Az persze nagy kérdés, hogy ők mit akarnak, de rém egyszerű a Pascal teljesítményét visszafogni, és alapvetően bele sem lehet majd kötni, mert az NV majd védekezik azzal, hogy a fejlesztők csak azt csinálták, amit a Microsoft ajánl.
A raytracinget nem kell licencelni, az a DX12-nek egy kiegészítése. Az AMD is ír rá implementációt, de ők erről akkor beszélnek, amikor hozzák az év végi nagy frissítést, abban lesz többféle megoldás erre a Radeonokra és a Ryzenekre. Egyébként Pascal is tudná a futószalag egyes lépcsőit gyorsítani, tehát alapvetően az, hogy ezek a fallback layeren futnak már egy üzleti döntés az NV részéről, nem pedig egy technikai limit. Futhatnának natívan, mert például Vulkan alatt a Pascal gyorsítja a raytracinget a kísérleti kiterjesztéssel.
(#22421) b. : Azért ne tekintsük úgy, hogy a Microsoft erőforrás-kezelésre vonatkozó ajánlásai feleslegesek lennének. Az NV is tudta, hogy hiába ajánlják azt, hogy az UAV-ket és az SRV-ket is helyezzék az RS-be, ha olyan formátumot használ a program, ami direkten az RS nem is kezel. Ez ideig óráig jó volt, de nem lehet örökké komoly korlátok között élni, márpedig az elég nagy korlát, hogy bizonyos UAV és SRV formátumokat nem is lehet használni, mert ellenkezik az NV ajánlásaival. A Forza Horizon 4-et sem direkt írták lassúra a Pascalon, csupán eljutott a motor fejlesztése egy olyan szintre, ami már nem ideális a Pascalnak. Alapvető fejlődés van itt, ami az NV-nek sem baj már, mert van Turing, ami már jó ilyen környezetben is. Lehet persze, hogy a mai kódokban még nincs igazán rá optimalizálás, de a hardvernek működnie kell ott, ahol a Pascal már nem kevés teljesítményt veszít.
Én nem tartom azt valószínűnek, hogy az NV most direkt nokiás dobozokat visz a fejlesztőkhöz, hogy mégis a Microsoft ajánlásai a jók. Ellenben az bőven elképzelhető, hogy különösebben erre már nem fordítanak figyelmet, így mindenki eléggé szabadon eldöntheti, hogy milyen leképezőt ír. Ha olyat ami fáj a Pascalnak, akkor az egy vállvonás lesz, ha olyat ami jó a Pascalnak, akkor az is jó, a Turingnak baja ebből sincs.
A Pascalt, Maxwellt, Keplert egyébként ettől még támogatni fogják, és a GCN-t is támogatja az összes driver. Ez nem erről szól, hanem arról, hogy bizonyos optimalizálási megoldásokra mi mennyire érzékeny. A programfuttatást ez nem befolyásolja. -
Abu85
HÁZIGAZDA
Elég azt mondaniuk, hogy próbálták a fejlesztőket lebeszélni róla, de ők a Microsoft ajánlásait követik. Az eredmény mínusz 10-30% a Pascalnak, pedig az NV minden megtett, hogy ez ne így legyen, de sajnos olyan formátumokhoz nyúltak, amire nem optimális a Pascal. Szánjuk-bánjuk, esetleg tudjuk ajánlani a 2000-es sorozatot...
-
Dyingsoul
veterán
A bunkó stílusodra nem vagyok vevő.
(#21661) VTom: Lehet, hogy eddig is volt valami ilyesmi, de most, hogy device id-ban is megkülönböztetik őket szerintem ezzel újabb alkategóriákat hoznak létre a kategóriákon belül. Amiért eddig nem feltétlenül fizettél felárat, most az áremelés mellett még azt is meg kell fizetned.
(#21666): Ha eddig volt olyan, hogy mondjuk a sima gainward phoenix-edet felhúztad a phoenix GS vagy GLH órajelére, na ilyen ez után valószínűleg nem lesz.
-
Dyingsoul
veterán
Nem sok minden változott? Dehogynem! Ott írták a linkelt cikkben: az MSRP árak a selejtekre vonatkoznak kb... Az AIB partnerek megkapják, tesznek rá egy gyenge hűtést, mivel egyébként sem lesz bennük számottevő tuningpotenciál. Úgy képzeld el, mintha egy gyártónak lenne egy fantázianeve teszem azt Asus Dual és az mind ilyen low bines chip lesz. Felette meg lesz a Strix meg a Strix OC amibe a válogatott chipek mennek. Az előbbi lesz kb az MSRP áron, utóbbi pedig FE áron. Magyarul címke nélkül (mint pl a Ti jelzés) lesz kétféle kártya adott típusokon belül, csak minden gyártó más fantázianevet ad neki.
-
Z10N
veterán
"Jajj ne durcizz már."
Ezt az unokahugodnak, meg az unokaocsednek mondd.Megneztem. A lista feletol tenyleg van 70-75k-ert (135db-t dob a kereso). De ebbe mar nemelyik 1060/3G es lattam csakanyt is koztuk. Akkor vigyuk le az atlagot (75+100)/2=87,5k. Viszont akkor a 1070-nek meg ott a sok 100k-s. +12,5k +36% teljesitmenyert, van meg kerdes?
Valos arakat irtam...
75k vs. 95k (+26%)
80k vs. 100k (+25%)Nem erik el a 36%-s margint. Meg mindig egyertelmu. Szerintem zarjuk rovidre.
Mas: Ha mar a HVapro el lett kurvitv@, legalabb raktak volna bele egy ar atlagolot a kereses alapjan. Hasznos lenne. Vagy kiirna egy median-t egy intervallumra.
-
Z10N
veterán
Jelenleg 6-t latok ennyiert, ebbol 1-nel van emlitve, hogy banyaszott. Megneztem a tobbit is 100-110k kozott 49(!) van. Akkor vedd a 100k-t alapul, de meg ha az atlagot (105k) akkor is csak +10k. 1060/6G 90k vs. 1070 105k meg mindig egyertelmu. Errol ennyit. A temat lezarom a reszemrol, mindenki azt vesz amit akar.
Ui: Ahogy felettem a kollega kiemelte nem is a legolcsobbat emeltem ki direkt, ami 90k. Azt a hatart irtam be, amibol azert lehet vonni statisztikat (fel tucat).
-
Dare2Live
félisten
Nem a legolcsobb 1070et vette alapul. A legolcsobb 1070 90K. Legalábbis fél perc keresés után jelenleg ez. [link] 90Kft. És igen ha gariztatni kell akkor postázni kell, de van még rá 2év gari.
99kért pedig magyarország garis 1070 van aprón több is. pl
Ettől még persze 120, sőtt 140ért is árulnak 1070et. A fenti ráadásul úgy, hogy a bányász rigek bontása kb csak most indult. (+állítólag NV vhogy/akárhogy megvetette a raktáron lévő pascalokat gyártokkal. és ők se ülni akarnak rajta)
-
DigitXT
félisten
Szerintem elvinné a Corsair VX550-em is, de majd meglátjuk...
(Dehogynem volt tuning: a Q9650-em IBT alatt eszik 130W-ot,
tehát játék alatt ennél csak kevesebbet ehet*, és nem hiszem,
hogy a VGA képes azt a 300W-ot folyamatosan berántani...
)
Ugyenez igaz amúgy az összes rendszerkomponensre: semmi
sem megy folyton full terhelésen. Pl. ha a négy magot terheled,
s még a VGA is dolgozik, akkor nem valsz', hogy DVD-t is írsz.
(Persze ha nagyon túl akarod méretezni, vehetsz kW-os tápot.)*: Prime alatt pl. jó 20W-tal kevesebbel is beéri, nem is fűt úgy.
-
VinoRosso
veterán
nem az erős táp a para, hanem a több VGA, amihez 2 PCI-E kell min, de ha eleve 2 kell a kártyára, akkor 4. Mondjuk az enyémen van, de az előző chieftekemen pl nem volt ilyen. + Nem árt egy 5870 esetében természetesen az sem, ha le is tudja adni a táp a megfelelő áramerősséget a PCI-E ágakon.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Sapphire Pulse RX 6700 XT 12GB használt videókártya számlával és garanciával eladó!
- Msi Geforce RTX Gaming X Trio
- ASUS RTX 3070 Ti 8GB GDDR6X TUF GAMING OC Eladó!
- EVGA GeForce RTX 3060 XC BLACK GAMING, 12G-P5-3655-KR, 12GB GDDR6, Dual-Fan
- 27% - SAPPHIRE RX 7900 XTX Nitro+ 24GB DDR6 Nitro+ Videokártya! BeszámítOK!
- HIBÁTLAN iPhone SE 2020 64GB Black-1 ÉV GARANCIA - Kártyafüggetlen, MS4001
- BESZÁMÍTÁS! ASUS B560 i7 11700 32GB DDR4 512GB SSD RTX 4060Ti 16GB RAMPAGE Shiva A-Data 650W
- Bomba ár! HP Elitebook 8570P - i5-3340M I 8GB I 500GB HDD I DisplayPort I 15,6" HD I Garancia!
- GYÖNYÖRŰ iPhone 15 Pro Max 256GB Blue -1 ÉV GARANCIA - Kártyafüggetlen, MS3943, 100% Akkumulátor
- Gamer PC-Számítógép! Csere-Beszámítás! R7 2700X / 16GB DDR4 / RTX 3060 / 256SSD + 1TB HDD
Állásajánlatok
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest
Cég: BroadBit Hungary Kft.
Város: Budakeszi






)

)


