Új hozzászólás Aktív témák
-
#00137984
törölt tag
Szerintem a friss játékokra a 3.5GHz-es órajel és ez az integrált GPU nem ad majd elég teljesitményt (főleg nem az árához képest megfelelőt). Képes lesz majd gyorsabb órajelekre, és Raytracing árnyékokat és megfelelő szintű élsimitást nyújtani? Amig a friss játékok akár a GTX 1080 erőforrásait egyben elnyelik, addig egy ilyen megoldás alacsony 65W-os TDP-re korlátozva nem játékra van...
Majd idővel lehet hardver közeli API-ra optimalizálni, de nekem a hardver nyers teljesitménye számit a játékokban. Ez megint az AMD VEGA videókártyákra emlékeztet... Ha alúlfeszelik és nincsen túlhajtva, akkor a TDP és a hőtermelése normál szinten marad, de ezért igy a teljesitménye sok mindenre nem elég. Szerintem a játékfejlesztőknek ehez szintén lépéseket kell majd tenni, hogy az alacsonyabb órajelen és fogyasztáson használt egyre több magnak a teljesitménye a játékokban jobban érvényesüljőn. Egyszer majd a több mag együttes teljesitménye fog érvényesülni, de addig még néhány évet várni kell... 
-
#00137984
törölt tag
Szerintem a hardver részéről a TDP a legnagyobb gond. Egy lapkára integrálni az összetett feladatok elvégzésére képes GPU-t és a 8/12/16 magos CPU-t nagy fogyasztást és hőtermelést jelent. A keletkezett hő elszállitása nem kis feladat, már ez is sok pénzbe kerülhet. Az alaplapnak ehez igen jól megépitett sokfázisos tápellátást kell megtervezni (24-32 fázis), de még a tápcsatlakozást is nővelni kell (talán az 1x24 ATX tápcsatlakozás elég lehet, de még az akár 4x8pin 12V tápcsatlakozásra is szükség van). Az alaplapok energiaigénye a tápegységekre szintén kihatással van. Előnyt jelent az egy ágra nagy terhelést elviselő tápegység, ahogyan a tápkábelek számát szintén ki kell szolgálni... Talán egy tápegység nem is elég egy ilyen géphez vagy egy nagyon bivaly kell (850 W-os és egy ágra legalább 70A). Természetesen ezeket a költségeket a játékos szerintük majd ki fogja fizetni... Inkább konzolt vesz szerintem.

-
Petykemano
veterán
NV + csomagajánlat
Az ARM-ra építve miért ne rúghatna labdába? Az amazon most újított be armból. aaz ARM most jelentette be a neoverse N1-et, ami 7nm-en feleakkora TDP-ből tudja azt, mint amit a Rome (a slide szerint)
A cloud szolgáltatóknak érdekében állhat olcsóbb és kevesebbet fogyasztó ARM-ra átállá X86 helyett
A google-nek, MS-nak, Apple-nek érdekében állhat olcsóbb és jobb ARM magos notebookokat, vagy más asztali jellegű gépeket terjeszteni.Az nvidia mind az adatközpontos armizálódást, mind pedig a konzumer piac armizálódását meglovagolhatja. Az irány sikere persze nem csak rajta múlna. És itt persze nem a CPU lenne az IGP vivőanyaga, hanem kicsit fordítva, a CPU csak a belépő lenne, a csomagajánlathoz szükséges kötelező elem.
Azon kívül persze, hogy az AMD és az Intel mindent meg fog tenni az ARM-os átmenet megakadályozása érdekében, miért ne lehetne az nvidia számára ez járható út?
-
Petykemano
veterán
Az intel most adott ki IGP nélküli Coffee lake procikat. A jövőben persze nyilván az IGP nem így készül majd, de maga a lehetőség egyszeri és megismételhetetlen volt? Az intelnek le kell fednia a piacot az aljától a tetejéig gpu-val, vagy azt mondod, hogy ha te highend gputt akarsz, akkor is meg kell venned? Mi van, ha az AMD ad IGP nélküli procit olcsóbban, mint az intel, ami mellett ott lesz a mainstream gpu? a DIY piac elég kicsi ahhoz, hogy leszarják?
az AMD esetén a gpu memóriakapcsolata az IF-en keresztül fog menni, vagy dedikált memóriával rendelkező IGP-t fognak a cpu chiplet mellétenni az IF-re rákötve?
-
#85552128
törölt tag
Biztos, hogy azóta váltottak, mert a Battlefront volt az első ami PBR-t használt és azóta is mind támogatja, vagyis attól csak újabb lehet.
A 70-80% meg ne haragudj, de egyszerűen nevetséges, főleg hogy most sem igazán az átlag FPS számokkal van a probléma, hanem azzal, hogy nem stabil, többek között azért, mert a háttérben nem győz töltögetni, elvileg a streamingen már az első patch javítani fog valamit...
Amúgy ha a 2016-os motorverzióban már a "jó" DX12 van akkor a Battlefront 2 DX12-je miért olyan hulladék még mindig ?
-
#85552128
törölt tag
Ez a verziószám pont hogy direkt frostbite verziót ír, de ha tényleg ennyire eltérnek/összevissza vannak egymástól akkor meg nem sok értelme van őket összehasonlítani, mert gyakorlatilag külön vált a fejlesztés évek óta.
De azt remélem te sem gondolod komolyan, hogy a 2015-ös Battlefronttól régebbi motort használnak ami még egy 2014-es motorverzió.
"tehát az ezek által nyerhető +70-80%"
Azt meg hogy, az Anthem - egy openworld játék, akkor jobban futna mint a BFV és a Battlefront 2 ami gyakorlatilag csak egy statikus pályákat használó lövölde ? 
A Dice-t meg inkább hagyjuk, se a BF1 se a Battlefront 2 nem kapott frissített DX12 rendert, pedig nekik azért könnyebb lenne átrakni... A DX12-vel is szarakodtak és 3 játék kellett mire használható verziót tudtak összetákolni - és van egy olyan sejtésem ha az NV nem $erőlteti$ az RT-t még most se lenne használható DX12 a BFV-ben...
-
#85552128
törölt tag
2017-es frostbite verziót használ, szóval nemhogy az első, de még a 2. Battlefronttól is újabb.
A DX12-t meg tök felesleges volt a BF1 és Battlefront 2-be is belerakni, mert egyszerűen hulladék. Valószínűleg a BW is ezért nem engedélyezte, vagy nem is bajlódott vele, mert egyedül a BF:V amivel már használható, de az meg valószínűleg a legújabb motort használja.
-
hát gondoltam, hogy neked az tetszik.csak semmi meglepetés

EZT már nvidia ősszel nyilatkozta, hogy natív támogatás kell a motorokba, addig nem lesz nagy előrelépés ilyen téren a raszterizációhoz képest. Ugye pont ezért jött szóba a múltkor az Unreal 4 az nvidia találgatósban. Az pl jól fog kinézni RT effektekkel.[Epic adds ray tracing to Unreal Engine and hope to Nvidia’s RTX GPUs]
-
atok666
őstag
Ha csak 4kB adatra van szukseged egy 400MB adathalmazbol, akkor miert nem lehet 4kilobajtonkent kezelni azt a 400megas tombot? Vagy 100 drb 4 megasbol? Vagy maskepp felszeleteni. Sztem lehetne ezt optimalizalni. Ha meg megsem, akkor mondj valami konkret peldat legyszi, hogyan kepzeljem ezt el - marmint mikor van szukseg par kilora egy 400megas adathalmazbol, amit nem lehet osztani/optimalizalni.
Atok
-
HSM
félisten
Amúgy azért ennél bonyolultabb a helyzet.
Hülye példa. Jön veled szemben mondjuk egy NPC, majd elsétál melletted, nem biztos, hogy minden irányból látni fogod, mondjuk nem látod alapból hátulról, de ezt a játék nem feltétlen tudja előre, hogy te a következő pillanatban megfordulsz-e avagy sem. Tehát ha a játék előrelátó, az NPC hátuljának adatait is bemásolja akkor is, ha esetleg soha nem lesz szükség rá, így biztosítva, hogy ha hirtelen megfordulsz, akkor a hátulját is le tudja textúrázni lagok nélkül, amihez az kell, hogy az adatok előre ott legyenek előkészítve.
-
itt [link]jelent meg először a hír hogy az első szériás micron modulok voltak hibásak , aztán EVGA is hírül adta hogy Nv is váltott.[link]leírtva gyártási számmal,amiket főleg FE és pár gyártó tett magáévá, amik közül még sok most is kint van kiskereskedelmi forgalomban. Állítólag MSI azért nem adta ki először a gaming szériát, mert az összes azzal lett legyártva.
Aztán hogy ebből mi az igaz...huh jobbulást, Én bármit elviselek csak ne a fogam és a fülem fájjon, együtt érzek.
-
redditen megjelent erről egy cikk ugye anno. Mivel Nvidia nem cáfolta és nem is erősítette meg ezt kb tényként kezeli mindenki. írták, hogy nem akarják a Micront kicsinálni, mert a pascalnál is ugyan így voltak gondok és több partner visszamondta tőlük a rendelést. A biztos,hogy következő gennél Micron ramos kártyát nem veszek.
szerk:
beteg voltál? már ha nem vagyok indiszkrét a kérdéssel, ha igen akkor bocs
-
-
Raymond
titán
Ez nem szemelyeskedes hanem egyszeruen mas szavak nincsenek ra. Ha komolyan azt allitod amiket ott leirtal plusz hogy az az 1GB csomag amit linkeltel az van ugy a jatekokban hasznalva es ezert kell a temerdek VRAM akkor egyaltalan nincs mirol beszelnunk. De akkor inkabb ne is irj a temaban mert az abszolut alapokkal nem vagy tisztaban.
-
Raymond
titán
"...egy 2K-s textúra mondjuk foglalt úgy 7 MB-ot tömörített formátumon, addig ma ugyanez egy PBR pipelinnal 70-80 MB közötti. 4K textúránál ~30 vs ~300 MB-ról van szó. 8K-nál egy fémfelület tömörített PBR textúrázása ~1 GB, és ez egyetlen egy textúra."
Meg csak hetfo del van, azert talan vissza lehetne venni az eszement marhasagokbol mert kulonben mi marad kesobbre?
-
keIdor
titán
Mindjárt itt a Metro: Exodus is, kíváncsi leszek. Nem fogok meglepődni, ha ott is csúszás lesz RT ügyileg, és/vagy rosszul is fog futni.
Lehet ezt csűrni-csavarni, de ez az első generációs hardver alkalmatlan komolyabb RT-re, főleg ilyen 600GB/s környéki sávszéllel.
Ezért se értem az olyan kijelentéseket, hogy dehát a Radeon VII ezt se tudja, egyáltalán nem kár érte. Mire lesz Radeon Rays ez a Turing is már rég le lesz váltva. -
TTomax
félisten
Na de akkor is 20-30!%-os sebbeség csökkenés egy olyan motorral amit kimondottan DX12re írtak?Gyakorlatilag minden egy kategóriával gyengébben teljesít,mi lett volna ha DX11re írták volna?És még csak azt se lehet mondani,hogy specifikus arhitekutrális problémája van,mert mindennel abszolválja.
-
TTomax
félisten
"Ez régen azért nem volt jó ötlet, mert a DirectX 12-es leképezők memóriamenedzsmentje nem igazán szívlelte ezt a helyzetet, és például nehezen voltak kezelhetők a 8 GB-os, nem HBCC-s Radeonok. Mára viszont készítettek egy olyan kiegészítést az RSL-hez, ami ezt a problémát eléggé jól kezeli."
Ez régen azért nem volt jó ötlet,mert nem volt 8GBnál több VRAMmal rendelkező gaming vga,mára már van 16GBos,és azt is el kell adni valahogy... fixed for ya...
-
HSM
félisten
"...ennek igazából 12 GB kellene (...), de semmi gond, a játék közben korrigálja magát az alkalmazás, és a high textúrákat low-ra cseréli, ha elfogy a VRAM, tehát a futtatási teljesítmény ilyen módon adott. "
No, pontosan ettől tartottam, hogy vagy be se tölti, vagy futás közben kukázza. Sejthető volt, hogy nem sültbolondok voltak a fejlesztők, hogy ne tudták volna jobban, hogy 12GB VRAM kell-e az adott beállításnak, mint a user, aki nevetve mutogatja YT-on, milyen jól be tudja állítani a 12GB-os beállítást a 8GB-os kártyáján....

-
Loha
veterán
2010-ben az AMD már rég demózhatta volna a FreeSyncet laptopokon, ugyan úgy ahogy ezt megtették a G-Sync bemutatása után...
"Az meg nem úgy működik, hogy az AMD szépen meglátta a G-Sync-et, és gondolt egyet, majd gyakorlatilag egy év alatt áttolt az iparágon egy full szabványt a VESA-val."
Pedig pontosan így volt, mert nem kellett semmit senkin áttolni, csak az VESA eDP szabványából áttenni a VRR-t a VESA DP1.2 -be mint opcionális kiegészítést és kész.
Azért tudta az AMD olyan gyorsan demózni a FreeSyncet laptopokon, mert csak módosítani kellett hozzá a VGA drivert, és erre használni a már ott lévő 2009 -es eDP szabványt...
A bökkenő ott volt, hogy a laptopokban nincs monitor vezérlő chip, a GPU közvetlenül kommunikál a kijelzővel, viszont az asztali monitorokban meg van, amik nem támogatták a VRR-t, ezért az NV csinált magának egy monitor vezérlő chipet (a G-Sync modult), az AMD meg megvárta amíg a monitor vezérlő chip gyártók beépítették a VRR-t az chipjeikbe, ezért vártunk olyan sokat a FreeSynces monitorokra, ha csak firmware frissítésre lett volna szükség (ahogy azt páran állították) az 1-2 hónap alatt meglett volna...
-
Raymond
titán
Visszaterve a valosagba:
"Az egészet még az ATI találta fel, és 2006-ban szabadalmaztatták."
Amit linkeltel az egy Application es nem 2006-bol hanem 2008-bol, ha sikeresen szabadalmaztattal valamit akkor van Grant. Ennel nincs. Az a 2006 amire hivatkozol az a US11468887 aminel a status Abandoned. Van egy Grant is, a US9924134B2 csak az mar 2018 marciusabol van es 2014 oktoberi US20140307166A1 Application jovahagyasa.
Van ott az Intel-es US9924134B2 meg 2010-bol egy 2006-os Application-re es van ott egy rakat ehhez kapcsolodo NV-s is 2006-2009-as es benyujtassokkal es 2012-2013 jovahagyasokkal:
[link] [link] [link] [link] [link]
Ezek a regi dolgok mint a mobil eszkozokhoz voltak az eredeti idokben es az energiagazdalkodas volt a fo cel.
Visszterve 2013-ba, akkor oktoberben mutatta be az NV a G-Sync-et Montreal-ban. Aztan 2013 december vegen mar voltak monitorok es probalhattak akiknek kuldtek. Erre az AMD csinalt egy "ilyet mi is tudunk" bemutatot laptopokon. Ami nem volt meglepo mert az LVDS es az eDP-ben talalhato VRR-el csinaltak ezt (a G-Sync tobbet tudott es tobb celja volt mint a sima VRR, de ez most lenyegtelen). Az NV alltal bemutatott G-Sync viszont kulso monitorokra volt ahol a VRR funktio mar megvolt de csak DP-n keresztul es kartya/monitor tamogatas nem volt sehol. Amit az AMD is igy latott ezert kezdtek el ok is az egesz Freesync dolgot hogy legyen desktop+monitor kombinacioban is rendes VRR. A G-Sync nelkul ez nem tortent volna meg es annyi lett hogy az NV a G-Sync iranyba az AMD pedig a Freesync branding iranyaba.
-
HSM
félisten
Szerintem rajtuk kívül mindenkinek jobb lett volna, ha ezzel ki sem jönnek. Nincs mit sajnálni rajtuk.
Ha egyből ott lett volna a támogatás a szabványhoz is a cuccaikban a saját megoldásuk mellett, nem lenne egy rossz szavam sem. Így igazából örülök is neki, hogy végre vége ennek a megosztott őrületnek.

-
Itt az a kérdés ebből a felhasználó mit fog észrevenni hétköznapi játék, filmnézés közben, hogy a 300 képminőségi tesztből nem ment át mondjuk páron.
érdemes megvárni jan 15 után az első teszteket, mert véleményem szerint nem biztos, hogy észrevehető különbség lesz a 2 kártya között azonos monitoron, max a leírt specifikációkban.vagy az is lehet hogy szar lesz. Ki tudja?HSM: én csak multi miatt használok sync monitort, ott a 75 Hz nem sok mindenre való. Hétköznapi felhasználásra mondjuk hasznos azt elismerem.
-
pontosan NV fórumon azt írták hogy nem felet meg az NV minőségbeli követelményeinek. vagy alulról vagy felülről nem tudta a megfelelő tartományt.Képminőségről nem volt szó sehol ezt hol látod ? Jelenleg 100 Hz-s alatti monitorra nem is fogják rátenni a gsync plecsnit( mint ahogy egy csomó 75 hz-s monitoron rajt van a Freesync,ami vicces) ezt a felhasználó majd manuálisan bekapcsolja és kész, de tisztában lesz azzal, hogy nvidia nem ilyennek álmodta meg a gsyncet. Kicsit túlvariálod szerintem és próbálod lejjebb minősíteni ezt a dolgot.. A panel és az elektronika tudásához szoftveresen ugyan úgy lehet és kell támogatást írni geforcon mint radeonon, nehezen hiszem el, hogy szoftveresen a monitor oldaláról is van külön AMD specifikus támogatás a Vesa szabványon belül amit egy geforce ne tudna elérni vagy abszolválni, maximum annyi, hogy a vesa tartományon belül fog működni a geforce támogatás.
-
proci985
MODERÁTOR
ez se valoszinu, bizonyos helyzetekben harmadolja az FPSt.
Borderlands2 5760x1080 ultran lattam olyat (nem emlekszem, hogy 0 vagy 4 msaa mellett), hogy volt betonstabil 65-85 fpsem egy 1420on jaro 970 G1el, ami ha beindult a physx aktivan akkor leesett 20-30ra aztan ahogy befejezodott visszaallt az eredeti tempora.
mondanom se kell 15 percig neztem, hogy ez igy mi volt, aztan inkabb kikapcsoltam.
-
#00137984
törölt tag
[link] Még azt hozzáfűzném, hogy ha a Raytracing megjelenne a következő konzolokban, azért az a hardveres felépités meg az ott alkalmazott AMD videókártyákban jóval optimalizáltabb teljesitményt látnánk, mint amire az az első Nvidia RTX széria képes volt. Nagy csodát még ott sem várhatunk el, de ha FullHD/120Hz-re vagy a Raytracing 60Hz-re képes lenne, az a PC Gamingnek most egy jó nagy maflást jelenthet.

-
Raymond
titán
Alapbol ON, de mas problemak vannak itt:
"Leginkább azt határozza meg, hogy a GPU egyszerre hány képkockát számolhat előre az aktuálison túl."
Ez egyaltalan nem igaz. Azt hatarozza meg hogy a CPU mennyi kepkockat keszithet elore maximum mielott a GPU megkapja. Tehat elszor is nem fix, hanem eppen ahogy kijon lehet 1 vagy eppen 3, de annal tobb nem.
"Persze ez leginkább egy elvi adat, de amúgy lehetséges, hogy a driverek BF5-re beállított default egy extra képkockájához képest, ha mondjuk három van megadva, akkor a jobb sebességet eredményez. Főleg, ha ez a szoftverben direkten van szabályozva."
Ennek nem sok ertelme van. A meghajtokban alapbol "use applications settings" van (ez a BF5-nel egyebkent 3), a 3 mindig jobb FPS-t ad mint az 1 vagy a 2 mert igy mukodik a dolog. Az utolso mondtat nem tudom mit jelent, de mindegy hogy az applikacio mondja a meghajtoknak hogy mennyi legyen vagy hogy eleve ott van beallitva, ugyanugy fog mukodni.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Anglia - élmények, tapasztalatok
- Okos otthon - Home Assistant, openHAB és más nyílt rendszerek
- AMD Ryzen 9 / 7 / 5 9***(X) "Zen 5" (AM5)
- Milyen asztali (teljes vagy fél-) gépet vegyek?
- Építő/felújító topik
- Kínai és egyéb olcsó órák topikja
- PlayStation 5
- Eredeti játékok OFF topik
- Okosóra és okoskiegészítő topik
- Battlefield 6
- További aktív témák...
- Azonnali készpénzes GAMER / üzleti notebook felvásárlás személyesen / csomagküldéssel korrekt áron
- DAHUA 16GB DDR4 3200 MHz laptop RAM
- BESZÁMÍTÁS! ASUS X670E R7 9800X3D 32GB DDR5 1TB SSD RTX 4080 16GB Lian Li O11 Dynamic EVO RGB 850W
- Telefon felvásárlás!! Apple iPhone SE (2016), Apple iPhone SE2 (2020), Apple iPhone SE3 (2022)
- Nvidia Quadro FX570
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Majd idővel lehet hardver közeli API-ra optimalizálni, de nekem a hardver nyers teljesitménye számit a játékokban. Ez megint az AMD VEGA videókártyákra emlékeztet... Ha alúlfeszelik és nincsen túlhajtva, akkor a TDP és a hőtermelése normál szinten marad, de ezért igy a teljesitménye sok mindenre nem elég. Szerintem a játékfejlesztőknek ehez szintén lépéseket kell majd tenni, hogy az alacsonyabb órajelen és fogyasztáson használt egyre több magnak a teljesitménye a játékokban jobban érvényesüljőn. Egyszer majd a több mag együttes teljesitménye fog érvényesülni, de addig még néhány évet várni kell... 




Azt meg hogy, az Anthem - egy openworld játék, akkor jobban futna mint a BFV és a Battlefront 2 ami gyakorlatilag csak egy statikus pályákat használó lövölde ? 
![;]](http://cdn.rios.hu/dl/s/v1.gif)



