- Több évig húzódó per várhat az Apple-re az iPhone-ok uralma miatt
- Magas AI-költségek, csökkenő létszám: dolgozók ezreit rúgja ki a Microsoft
- Kevesebb dolgozó kell az Amazonnak, AI veszi át a rutinfeladatokat
- Telekom otthoni szolgáltatások (TV, internet, telefon)
- Flip (IPTV, otthoni internet, vezetékes telefon)
Új hozzászólás Aktív témák
-
paprobert
őstag
Nem lenne túl nagy gond ezzel a sebességgel, ha a kártyák annyiba kerülnének, mint korábban.
A jelenlegi árakon viszont kijelenthejük, hogy 2023-ban a 1080p gaming már a pirosaknál is vérlázító $600, a zöldeknél pedig "mindössze" $1100.Tudom, csúsztatok, de azért na...
Ideje lenne a kártyák értékének és az áraknak arányba jönnie, mert a semmiért megy a pénzkérés.
-
Raggie
őstag
Értem. Ezt el is fogadom. Még simán lehet, hogy így is van.
Csak sajnos a vállalatokban nem bízom(egyikben sem). És ahogy már láthattuk mindkét oldalon, hogy tisztességtelenül kivételezéssel ráoptimalizálnak a benchmarkokra úgy sajnos azt kell feltételezni szerintem, hogy ha van rá módjuk, akkor erre is ráoptimalizálnak. És mivel itt nagyon sok és számukra tökéletes mód és lehetőség kínálkozik így a legnagyobb valószínűség szerint élnek is vele. -
Raggie
őstag
Pont nem. Ez egy feature teszt. Azt teszteli, hogy működik-e és ha igen mennyi FPS-t kapsz pluszba.
De pont a grafikai megvalósításban fals képet ad, mivel egyáltalán nem interaktív. Kvázi a mozgásvektorok fixek és minden egyes alkalommal pontosan ugyanolyanok lesznek. Ezt előre megtanulja a felskálázó és -bumm- máris kész a tökéletes szellemkép és egyéb grafikai anomáliák nélküli kép. De a játéknál ez persze nem megy, mert ott a user rángathatja a képet bármerre. Így ott rosszabb lesz a képi minőség.
Erre próbáltam csak utalni. -
keIdor
titán
Azt továbbra is problémásnak tartom, hogy az AMD-nek nincs 4K@120Hz-re alkalmas kártyája. OLED TV-k ára azért annyira nem is horror, tehát nem egy tömegeknek elérhetetlen kijelzők ezek manapság.
Mert a 7900XTX jóindulattal 60Hz, és ha Ray Tracing is szóba jön, akkor arra sem.
Ott a Cyberpunk 2077 Path Tracing, RTX-4090: 2160p, RT: PT on, DLSS Quality, FrameGen on és 60-70 fps.Most ugyanerre a beállításra nincs AMD kártya. RT-től jobban eleve lehal, FrameGen nincs, FSR meg rosszabb képminőség. Én elismerem az AMD-nek azt a termékét, ami tényleg jól sikerült, de a fenti szerintem problémás. Oké, hogy a userek többsége nem engedheti meg, de ha akarnék se tudnék AMD-re váltani, mert nincs a 4090-el RT-ben is megegyező kártyájuk. FrameGen hiánya is fájó pont, mert jó ha van.
-
HSM
félisten
"például az hogy 2 évvel elöbb mutatták be"
Kb. igen. Ugyanakkor a már-már szokásos szabványtiprás mellett, ugyanis a DP1.2a már 2013 januárban hozzáadta a szabványos megoldást (adaptive sync), de az Nv-nek nagyon fontos volt fél évre rá egy saját, zárt, inkompatibilis megoldással megtrollkodni a piacot. Véletlenül sem a szabványt implementálták a moduljukkal...."már leglább 144 Hz működést, magas HDR fényerőt, minimum válaszidőt, meg hasonló jóságokat írt elő"
Elolvastad, amiket írtam? Azonos kategóriát kéne nézni. Ugyanúgy léteztek prémium Freesync megoldások is. Azok ugyanúgy tudták a HDR-t, fényerőt, 144Hz-et, stb. Az első G-sync monitor is gyakorlatilag úgy készült, hogy szereld ki egy a már létező ASUS VG248QE típusból a gyári scalert [link] ....Nézhetnénk úgy is, a Freesync lehetővé tette, hogy olcsó monitorok is hasznos plusz szolgáltatással bővüljenek gazdaságosan, lásd az említett olcsó 48-75Hz darabok. Ezek árából a G-sync modul sem jött volna ki, annak pedig magában még csak képe sincs.
-
keIdor
titán
Igen a Turing jól sikerült és hiába volt 450 ezer/1200€ az RTX-2080Ti, aki befizetett rá 2018-2019-ben, az nagyon jól járt, mert az egész 2020-2021-es bánya őrületet megúszta vele. Persze utólag okos az ember, senki sem tudhatta, de utólag ezek az emberek szerencsésnek mondhatják magukat.
Most már én is így tettem volna…A 11GB meg a mai napig azért elég. Simán jó az még 1440p-re és egy 3070-nél is tovább fogja bírni.
-
gV
őstag
de mindig kizár valamilyen hardvereket a körből
amúgy ezt az AMD is csinálja, a DXR nem fut a RDNA1-en, pedig tudna. ahogy pl. a Turing GTX-eken fut is. értem én, hogy a bőrkabátos a sz_rarc, de abban a kérdésben, hogy az nV saját pénzén fejlesztett technológiáknál megválogatja min engedi futtatni, részemről rendben van. így az FG-ért sem hullajtok könnyet, hogy nem megy Turingon, annak viszont örülök, hogy terjed, mert a vele együtt jövő reflexet én is tudom használni.
-
FLATRONW
őstag
A kérdés inkább az, hogy egy szabványt lehetséges e úgy támogatni, hogy az jobb minőséget hozzon, mint amit a konkurencia képes hozni.
Pl. a szabvány Adapiv Syncre épülő Freesync és G-Sync Compatible azonos minőséget képvisel. Minden más, ami különbséget jelent, azt szabványon kívül hozza mindkét gyártó. -
Raggie
őstag
Ah, értem. Azért ez egyel kevésbé megnyugtató nyilatkozat, mintha AMD azt mondta volna, hogy általánosságban soha nem blokkolja a konkurencia technológiáit.
Mindenesetre azt nem vitatja senki itt, hogy az volna a legjobb ha nem lenne tiltás semmire.
Inkább azon megy a vita, hogy ha nincs tiltás, akkor milyen energiát/időt/pénzt mire fektessen be a stúdió, hogy a lehető legjobb játékot tegyék le az asztalra.Egyébként én azt mondom, hogy mindegyik felskálázási technikát hanyagolni lehetne és a rájuk fordított energiát inkább bugfixelésre és a day0 patch-ek elkerülésére lehetne fordítani. Aztán a felskálázások jöhetnek az első havi petch-el vagy valami.
-
FLATRONW
őstag
Ez nagyon rossz hozzáállás a részéről.
Alapból nem érdekli a felskálázás, mert csak a natív ad jó minőséget.
Rendben, ez elfogadható.
De az problémás, ha másoktól akar elvenni egy olyan dolgot, ami azokat érdekli.
Jelenleg nekem egyik gyártó eljárása sem jelent semmit, mivel nincs RTX kártyám, az FSR pedig szóba sem jöhet, mert az tényleg egy hulladék megoldás.
De a jövőben egész biztos, hogy NV-m lesz, így szeretném majd használni a DLSS-t, mert nem tartom rossz dolognak a felskálázást.
Ha pedig csak FSR lenne, és véletlenül AMD-t vennék, akkor sem használnám a fenti ok miatt.
Szép kis jövő, nem lenne választás, mindenkinek egyformán szar lenne, igy sokan nem használnák, ami pedig a fejlesztések befagyasztásához vezetne. -
HSM
félisten
"Te egyetlen oldalról szemléled"
Szoftverfejlesztőként és felhasználóként ebből a két szempontból nézem a dolgok alakulását. Számomra irreleváns, melyik cég logója van valamire rárakva."Ráadásul nem értetted meg amit írtam"
Ó, dehogynem. Neked nem esett le, (ezek szerint még mindig nem), hogy miért tökéletesen irreleváns, mi lesz a technológia jövője a mai játékok szempontjából, amik a jelenlegi verziót használják.Aki a nyilvános verziót most letölti és beépíti, az használhatja később is, hiszen a licensz lehetővé tette ezt. Egyébként ez nem GPL, hanem egy egyedi licenszkonstrukció.
"Ki nem sz@rja le hogy a fejlesztőnek ez mivel jár ? "
Szomorú, hogy nem látod az összefüggést. Ha a fejlesztő ideje arra megy el, hogy ugyanazt a funkciót háromszor is megcsinálja, majd karbantartsa, akkor éppen ennyivel kevesebb ideje marad pl. jobb minőségű kódot írnia más, hasznosabb aspektusokból.Ha nagyon le akarom egyszerűsíteni, ha te bemész a boltba 1500Ft-al a zsebedben, akkor ha van kis eszed nem 3 csomag felvágottat fogsz venni belőle vacsorára, hanem csak egyet, és akkor marad kenyérre is mellé. Egy játék fejlesztésénél ugyanígy van egy keret, amit be kell osztani a különféle feladatokra.
-
HSM
félisten
"Az AMD eljárása, szellemi terméke, pont ugyan úgy ki vagy szolgáltatva a döntéseiknek a jövőben és a jelenben és az általuk nyújtott minőségnek és szolgáltatásnak."
Ezek szerint azt sem tudod, mit jelent az, hogy open source?Nem is baj, csak akkor nem kellene butaságokat állítani, mintha tudnád....
A lényeg itt az, hogy mivel szabadon elérhető, beépíthető és módosítható a forráskód, így a fejlesztő teljes szabadsággal alakíthat rajta, illetve teljes mértékben a kontrollja alatt marad a működés, amibe az AMD-nek, mint az eredeti kód szerzőjének semmiféle beleszólása, vagy ráhatása nincs, és nem is lehet. Világosan le van írva a néhány soros licenszben: [link] .
Ahol te, mint fejlesztő totálisan ki vagy szolgáltatva, az éppen a DLSS, mivel akár kívülről a driver is cserélgetheti a futó kódot az alkalmazásod lába alatt, és egy jópár, a többszáz soros DLSS licenszből fakadó kötelezettséget is kapsz a nyakadba, mert ugye ennek a használata licensz köteles is!
Pl. jogot adsz az Nv-nek, hogy a te appoddal reklámozzák magukat.Képzeld el ezt mondjuk egy AMD-exkluzív címnél, és csodálkoztok, hogy ebből nem kérnek...
Le van világosan írva, bár nem olyan szép elegáns, rövid szöveg, mint az FSR-é: [link] .A versenyt alapvetően jó dolognak tartom, nyilván, ugyanakkor ennek a szabványok betartásával kellene megvalósulnia. A végfelhasználónak is ez lenne az érdeke, nem az, hogy a zárt, gyártóspecifikus technológiával egy hajszállal kevésbé rossz képminőséget kap.
Minél több ilyen különutas, ráadásul zárt megoldás kap teret a szabványok kárára, a piacnak annál rosszabb. Ezek éppen a versenyt korlátozzák. Az RT, amit felhoztál azért is jó példa, mert bár az Nv képességeire lett szabva az API, de legalább lett szabvány. Így pedig lett verseny és a fejlesztőknek sem kell kétszer dolgoznia vele.#47072 keIdor : Tény, vannak nagyon rossz TAA implementációk, plusz a DLSS része lehet élesítés is. De ilyenkor nem feltétlen a DLSS-t kellene követelni, hanem egy szép TAA implementációt, esetleg (lehetőleg szabványos
) élesítő szűrő beépítését.
Ez egyébként nagyon tetszik a készülő FSR3-ban, hogy lehet kapcsolgatni a funkciókat, ha jól értettem. Felskálázás legyen vagy csak natív AA + élesítés, legyen-e fake frame generátor.
Persze, a natív AA-t már tudta az FSR2 is (opcionálisan), vagy a DLSS DLAA néven.
-
HSM
félisten
"Azért vagy annak a híve mert nem szereted magát az eljárást használni és mert te megkapod a kártyádhoz elérhető legjobb minőséget."
Óriási tévedés. Volt egy 12GB-os OC RTX3060-asom is és mikor némi tesztelés után eldöntöttem, hogy a RX6800XT-m tartom meg akkor FHD-n RT-vel, Quality DLSS-el nagyságrendileg hasonlóan gyors volt, mint a 6800XT natívban. 5 számjegyű összeg maradt volna a zsebemben, ha a DLSS (számomra) élvezhető képet adott volna a natívval összehasonlítva. De nem adott, így a lényegesen olcsóbb 3060 ment az apróra.Lásd részletesebben: [link] .
Kabarénak tartom, hogy ekkora ügyre van ez felfújva itt, amikor a DLSS(2) is rosszabb a natívnál, és csak minimálisan jobb a gyártófüggetlenül is remekül működő FSR2-nél.
A párszor több, minőségre vágyó RTX kártya tulajnak pedig üzenem, létezik natív renderelés is, csillámporos felskálázás nélkül is."Mindhárom eljárásnak ott kellene lennie egy játékban"
Óriási tévedés. Egy problémára jó esetben egy, gyártófüggetlen eljárásnak lenne helye minden játékban. Minden további alapvetően erőforrás pazarlás. -
keIdor
titán
Szerintem ami még mindig a “keresem az állam” kategória a The Last of Us Part 1 PC-n. Natív 2160p render, minden felhúzva High és Ultra 70-100 fps RTX-4090-el. Ez az elfogadható. Várom a Part 2-t is PC-re, ott amúgy több a nagyobb tér, kevésbé csőjáték.
De a Cyberpunk is jól néz ki, várom a Patch 2.0-t és a PL-t.
Amúgy az biztos, hogy a kisebb Ada kártyákat megöli a kis sávszélesség UE5-nél… trükköztek a számozással, minden egyel magasabb néven fut, mint kéne és hiányzik a vágott AD102.
-
proci985
MODERÁTOR
nem vagyok benne teljesen biztos, ld Hogwarts.
HL:Alyxban se vagyok biztos, hogy nem fut memoria limitbe. 5700XT ott kifutott a 8GBbol ugy, hogy egyebkent a GPU meg siman birta volna egy Oculus CV1el is.
hosszabb tavon azert az A770 lehet jobban fogja birni, es megiscsak egy sokkal olcsobb kartya. 4070 elegge felemas lett architekturalisan.
---
mondjuk igazabol a kerdes, hogy mire jutnak a battlemageig. nemi verseny nem artana
-
proci985
MODERÁTOR
atfogalmaztam kozben, kicsit rossz volt: ha legalabb ennyit akarod, hogy tudjon a konkurencia minden helyzetben, az a 4080 es a 7900XT. ez akkor is igy van, ha a 4080 gyorsabb a 7900XTnel.
szerk: igen, a 4080 sokkal gyorsabb, a 4060ti viszont inkabb csak a 8GBs modellnek az ellenfele.
4070/TI bukik a 12GB memorian, 6800/69x0 bukik a hullamzo RTn.
-
Dtomka
veterán
Lesz az még jobb is, bár engem nem vonz ez a játék. Én is linkelek 1 videót ha nem gond:
AZ ELSŐ AAA UNREAL ENGINE 5 JÁTÉK MEGÉRKEZETT!! :O | Immortals of Aveum (4k60fps) #ue5 #unrealengine - YouTube -
-
-
huskydog17
addikt
Köszi!
Ez a csávó (Linus) mélyebbre süllyedt, mint gondoltam. Olyan, mintha a hírnév elvette volna a józan eszét és most azt gondolja, ekkora hírnévvel azt csinál, amit akar és mindig más a hülye.
Ő egy iskolapélda arra, hogy milyen az, amikor kizárólag csak a kattintás számít, semmi más. Mondjuk őt sose néztem, mert régóta eladta magát, kb. több reklám van a videóiban, mint valódi content, ezért is kerültem őt nagyon messziről, de ezek az új infók még így is döbbenetesek. Remélem jó sok kakit rá fognak önteni, mert megérdemelné! -
-
-
Petykemano
veterán
Szerintem ez egyszerű és egyértelmű is: 50% perf/w volt a cél ("ígéret") és ezt végül sajnos nem sikerült elérni. Úgy kellett összeválogatni, hogy zen3 vs zen4 rendszerben valahogy ki lehessen mutatni.
Persze nyilván ez relatív. Nyilván az RDNA2-höz képest jobb. A kedvezőtlen megítélés a saját célokhoz és a konkurencia előrelépéséhez viszonyítva alakul ki. Nem rossz, csak elmaradást jelent a várakozáshoz képest és lemaradást a konkurenciához képest.
A Navi33 különösen stagnálás, legfeljebb refresh érzetet kelt. Persze értem, hogy az árazása sokkal kedvezőbb lett, mint a Navi23-é volt, de azért szerintem ez főként a piaci viszonyoknak köszönhető, nem az architektúrának.
Egyébként abban egyetértek, hogy azon a sávon belül van, hogy árazással lehet kedvező pozícióba helyezni, és a nevezékben is kár volt az XTX
-
Raymond
titán
Amiert irtam - az upgrade szamokban nincs mas csak az aktualis duplazasa es egy kis felszorzas mert hogy kisebb node-on lenne a gyartas. A mem busz upgrade is egy olyan dolog hogy miert lenne? Azert koltotte oda a szerzo pont 320-ra hogy a mostani XBSX erteke meglegyen, mas miatt nem. Vagy miert lenne GDDRX a sima GDDR helyett? Egyszeruen egyertelmu hogy ez nem leak hanem valaki osszedobott egy tablazatot.
-
Kolbi_30
őstag
-
Petykemano
veterán
Szerintem több szempontból is furcsa ez a specifikáció.
A PS5-ben módosított Zen2 magok vannak. A zen2 2019-ben, a PS5 2020-ban jött ki.A PS5 pro a pletykák szerint 2024 végefelé jön. Ehhez képest a Zen5 2024 elejére várható. Ez alapján lehetne benne akár Zen5 mag is. Persze értem, hogy egyáltalán nem a CPU A legmeghatározóbb része.
Különös az is, hogy a nem kifejezetten jól sikerült RDNA3-at nevezik meg, mint grafikus egység. Főleg amiatt, mert ha jól emlékszem, a konzolok valahol az RDNA1 és RDNA2 között vannak tudásban és képességben. Rossz nyelvek szerint az RDNA2 épp azért lett jó, mert beépítették a konzoloknál kitalált és kipróbált remek elképzeléseket (Persze tudjuk, hogy hermetikusan el vannak zárva egymástól a külsős és belsős csapatok)
Az RDNA2 abban az évben jelent meg, mint a PS5. 2024-ben - elvileg akár - meg is jelenhet az RDNA4. Illogikusnak tűnik RDNA3-ra építeni, vagy RDNA3-nak nevezni azt, amire építik.
Vagy... akár úgy is mondhatnám, hogy ez a specifikáció akkor lenne logikus a PS5 körülményeit alapul véve, ha a PS5 Pro még idén év végén megjelenne.
Ami végülis lehet, hogy nem is olyan elképzelhetetlen figyelembevéve, hogy nemrég volt PS5 árvágás.
(Megkockáztatom, hogy akár az is lehet, hogy az RDNA3 egy sajnálatosan félresikerült tesztága a PS5 Pro-nak)Ami viszont különös az az, hogy miért nincs benne infinity cache egyáltalán?
Monolitikus formában 4/5nm-en ez szerintem olyan 300-350mm2 lehet.
Illetve olvastam egy olyan véleményt, hogy valószínűbb, hogy sima GDDR6, mint GDDR6X, mert fontos, hogy legyen megfelelő verseny és ellátás a beszállítók között.
-
HSM
félisten
Elolvastam.
Jó 'móka' lesz. De a gyártó dolga lett volna erre idejében, megfelelően felkészülni.
A felhasználóhoz kerülő eszközök alapvetően sosem tekinthetőek megbízhatónak... Talán csak a kifejezetten erre kifejlesztett céleszközök kivételek, de aminek a feltöréséről szó van, az látványosan nem ez a kategória... De nem vagyok meglepve, ismerve a gyártót és a vezetőjük módszereit...
Biztos ezen is lehetett spórolni pár dollárt...
-
Petykemano
veterán
Abu tévedhetett is. Félreérthetett valamit, vagy akár neki is hazudhattak. (megjegyzem, emlékeim szerint MLiD is arról számolt be, hogy az AMD RDNA2 készletei alacsonyak)
De megkockáztatom, hogy esetleg nem volt-e - legalább részben - tudatos döntés az, hogy így alakult.Az szerintem nyilvánvaló, hogy az RDNA3 fejlesztési célja leginkább a chipletezés és az a chipletezésből az elszálló wafer árak mellett nyerhető versenyképes költség és kapacitás elérése lehetett.
Azonban a GPU bányászat lecsillapodása, valamint egy általános recesszió beköszönte miatt a wafer árak - különös tekintettel a TSMC N5/N4-re - végülis jelen információink alapján nem szálltak el. Bár nem beszéltek rendkívüli olcsóságról, de az év eleji meglehetősen alacsony N6/N7 kihasználtság alapján azért lehet azt feltételezni, hogy TSMC ajánlhatott kedvezményt az AMD-nek a gyártósorok kihasználtságának fenntartása érdekében.
Mi történt tavaly év végén? A Zen4 elsőre kissé borsos árazása meglepő gyorsasággal esett be. Nem csak a meglehetősen hamar megjelenő X nélküli változatok, hanem néhány hónap elteltével az X változatok is elég kedvezményes árazással mentek.
Ezek alapján szerintem történhetett akár az is, hogy az AMD látva azt, hogy az RDNA3 a kialakult piaci helyzetben (csökkenő gyártósori kihasználtság, stagnáló wafer árak, stb) nem igazán lesz képes kamatoztatni azokat az erősségeket, amilyen céllal készült. A Navi31-et kiadták, mert az ténylegesen nagyobb teljesítményre volt képes, mint az addigi csúsznak számító Navi21, de minden más szinten az RDNA3 architektúra és a chiplet, az N5 wafer használata nem hozott volna kézzelfogható (költség)előnyt, ezért úgy döntöttek, hogy
- inkább tovább gyártják az RDNA2 lapkákat - megkockáztatom - azon a kedvezményes áron, amit esetleg a TSMC ajánlott
- a lefoglalt N5 kapacitásokat pedig Zen4 lapkák gyártására fordítják és a nagyobb gyártási volument olcsóbb áron fogják kínálni, ami ugyan kisebb marzzsal, de összességében nagyobb profit volumennel fog járni.Persze nem tudjuk.
De ebben a szcenárióban fel kell tenni a kérdést: vajon mi változhatott, hogy most (mégis) kiadják. -
proci985
MODERÁTOR
3070-90bol hasznalt kartyakkal tele a piac es ki lettek vezetve.
3060ti / 6700xt 330-350 euro korul nincs rossz aron. ami erezhetoen gyorsabb, az 850 euroert a 7900XT es 950ert a 7900XTX, mellette lassan a 4080 beesik 1100 euro kornyekere. a 4090 1700 euro korul indul. kozottuk van meg a raktarsopros 6800-6950, meg NVidiabol az elozo generacio: 4070ti gyakorlatilag egy 3080ti OC tudasban, viszont meg arban az ertelmezheto csucskategoria tetejen.
-
proci985
MODERÁTOR
-
PuMbA
titán
Eddig is így volt, de az a furcsa, hogy visszamenőlegesen megnéztem és RDNA2 esetén se volt jelentősen jobb. TechPowerUp tesztek alapján például 60Hz VSync alatt a 3060 Ti 60W-tal kevesebb fogyaszt, mint egy 6700XT: TechPowerUp - AMD Radeon RX 6700 XT Review
-
keIdor
titán
Az annyiért elég jó ajánlat, 24GB vrammal nem mostanában lesz vele gond, újonnan meg egy 4060Ti annyi és 1080p-ig elég a 8GB rajta kb. és a sávszélesség is.
Egyébként az Adával az a baj, hogy felfelé csúsztatták a számozást.
Helyesen így nézne ki: (és ezt a korábbi szériák alapján írom, azt vettem alapul)
4080 -> 4070Ti
4070Ti -> 4070
4070 -> 4060Ti
4060Ti -> 4050Ti
4060 -> 4050
Ennek megfelelően is kéne árazni, mert akkor egyik sem lenne rossz ajánlat. -100-150€ MSRP.Mert 128bittel én xx50 fölé nem mennék, és eddig az nVidia se ment, kevés a sávszélesség, már most látni 1440p-n, mert jobban esik a fps, mint kéne, és ez mind a 128bit miatt van.
A megvariált számozás miatt valójában nincs is 4080, az a 4080, aminek a 3080 az elődje. Tier 1-es nagy GPU-s most csak a 4090. Kérdés meddig marad ez így. -
Thrawn
félisten
-
keIdor
titán
Illetve szerintem alaplapokkal és tápokkal nem is tudtak volna megélni, a profit nagyrészét a VGA-k adták, és azt is engedték el tavaly.
Továbbá alig volt alaplapjuk, évente 1-1db, az is drága, high-end extreme OC-re kihegyezett DARK, amit alig vesznek, hiszen ez a réteg nagyon pici. AMD oldalon egy darab X570 alaplap volt, de a generáció legvégén, amikor már senkit sem érdekelt, készült mindenki az AM5-re.
A picit olcsóbb Classified-ot nem is tudom mikor láttam tőlük utoljára, melyik Intel chipsetnél, de több éve, az biztos.
Tápot és házat meg nem két évente vesznek az emberek, inkább 5-10 év között, tehát ebből nem igazán lehet megélni, valamint nagy a választék, sok a konkurens, több lábon kell állni.Sajnálom őket, mert az egyik legjobb 4090 lett volna az övék. BFG sorsára jutnak végül, azokat is sajnáltam, de már lassan 15 éve, hogy tönkrement az is.
-
-
Raggie
őstag
"Nvidia szponzorált címeknél valahogy eljutnak oda a fejlesztők, hogy beépítik a konkurens megoldást ."
Egyébként ha nagyon egyik oldalról szeretném nézni erre azt is mondhatnám, hogy az Nvidia megoldását akkor lehet jól beépíteni ha ad hozzá embert is az Nvidia a fejlesztőknek, míg az AMD FSR-t enélkül is be lehet jól építeni, és így jöhet ki ez a helyzet.
(nem gondolom, hogy ez feltétlenül a valós helytet, de lehetséges) -
Callisto
őstag
Ez csak egy framework semmi több. Én játékfejlesztésnél ugyancsak FSR-t (vagy Xess-t ) integrálnék a vezetés helyében. Miért? Azért, mert gyártófüggetlen. Egységnyi fejlesztési erőforrással és költséggel mindenen is megy. Azonban a DLSS nem.
Az csak NVidia-n megy. Tehát nem fogok még egy egységnyi erőforrásra költeni csak azért, hogy ugyanarra használt megoldásból legyen még egy, ami még exkluzív is. Minden fejlesztőcég maga dönti el van-e vagy akar-e erőforrást allokálni az egyes megoldások integrációjára/implementálására. Nyilván, ha NVidia azt mondja, hogy ha beleteszik akkor a költéségekhez hozzájárul vagy fizeti az egészet bele fogják tenni. -
HSM
félisten
Megint összekevered a szezont a fazonnal... Licensz helyett linkelsz egy developer guide-ot...
A Streamline egy keret, ezekszerint csináltak egy opensource keretet, amit én is javasoltam, ez nagyon hasznos.
A probléma, hogy ettől még a DLSS ugyanúgy licensz köteles marad, csak a keretnek nincs külön license, azaz a Streamline-nak.
Lásd, itt a hivatalos fejlesztői oldal: [link] , itt a "NVIDIA DLSS End User License Agreement" néven megtalálod a licenszt, amit linkeltem Githubról korábban. -
PuMbA
titán
Ez így teljesen korrekt
DLSS és NGX esetén nem kér logót az NVIDIA, de ha már a jóval jelentősebb és komplexebb Path Tracing SDK-t használja egy alkalmazás, akkor igen. A Cyberpunk esetén akkor ezért van NVIDIA RTX logó, de még ugye ezen kívül 7 másik is, hiszen pl. a Jali arcmimikát is ki kellett logózniuk.
-
Akkor ez mit is mond ki konkrétan?
(b) NVIDIA Trademark Placement in Applications with the DLSS SDK or NGX SDK. For applications that incorporate the DLSS SDK or NGX SDK or portions thereof,you must attribute the use of the applicable SDK and include the NVIDIA Markson splash screens, in the about box of the application (if present), and incredits for game applications. [link]
3 játékot csekkoltam, 2 esetén (A Plague Tale: Requiem, Alan Wake Remastered) volt NV logó a többi közt az elején, egynél (Alone In The Dark Prologue) nem. Ennek jobban utána kell járni.
Szóval nem, az AMD nem szent, csak (ha a fenti feltétel igaz valamilyen módon) nem akar reklámot csinálni a konkurensének egy saját maga által szponzorált címben. Egy jól implementált FSR a játékban elég jó a felhasználóknak is. Ha trágya módon van megcsinálva, na akkor van baj.
-
HSM-nek igaza van. Az AMD valószínűleg azért nem támogatja az általa szponzorált játékban a DLSS beépítését, mert akkor az általa szponzorált játék a konkurencia logójával kellene induljon.
Fordított esetben semmi gond nincs, mert az AMD (és gondolom az Intel) nem követeli meg a splash screent, így a fejlesztő minden további nélkül beépítheti a másik két upscaling eljárást.
Az NV a saját feltételeivel is képes az AMD-t feltüntetni rossz színben, és mivel erről beszélünk, sikerült is. Zseniális a mi Jensenünk, nemde, Mr. Twelvetrees?
-
Nem az a gond, ha valaki pozitívan nyilatkozik bármelyik gyártóról, hanem az értelmetlen szidalmazás, fikázás, trollkodás. Nekem semmi bajom egyik gyártóval sem, mindtől van otthon cuccom, azok nem ártanak senkinek. A toxikus rajongók, az a probléma.
Egyébként a 4060 vs 7600 véleményemet már megosztottam, láttad is. Egyértelmű, hogy minden drágább, mint lennie kéne, de ahogy alkalmazkodtunk a mining craze idején, majd most is fogunk (vagy nem vásárolunk, hátha...) Az, hogy a sajtó mit ír a 4060-ról, az ő dolguk, én nem nagyon szoktam az értékeléseket elolvasni, csak a teszt eredményeket nézem meg és levonom a konzekvenciákat. Így nem tudnak megvezetni, és ha rosszul döntök, akkor nem próbálom ráfogni a PH-ra vagy akármelyik oldalra.
-
HSM
félisten
"Az SDK szabadon hozzáférhető ,a legújabb is Githubon."
Én is láttam Githubon az SDK-t, DLL-t. Ahogy a licenszfeltételeit is."szerinted tehát sokkal jobb ha nincs abszolút,mint hogy beletegyék a modderek"
Szerintem az lenne a jó, ha lenne erre egy gyártófüggetlen megoldás, ami mögé a gyártók igény szerint tehetnék a saját megoldásukat. Így a szoftverfejlesztőknek is egyszer kellene dolgozni, és minden gyártó belerakhatná a saját tudása szerint legjobb megoldást."Arról van szó, hogy a felskálázást aki használja annak mi a jobb."
Szóval ragaszkodunk a rossz képminőségből a legjobbhoz. Logikus. Én itt kiszálltam a vitából, mert kész kabaré. -
HSM
félisten
"A szoftverfejlesztés hatalmas terület ne húzz már rá mindent egy kaptafára."
Úgy látom, még mindig nem esett le, hogy úgy tűnik, jobban ismerem a területet, mint te..."Azaz ha van FSR 2.0 semeddig nem tart beépíteni a DLSS-t"
Úgy látom, az sem ment át, hogy nem elég csak beépíteni."belehekkelt DLSS támogatása lelkes rajongók által"
A lelkes rajongók utána supportálják is, ha gond lenne vele? Költői kérdés volt...
A black box nem azért rossz, mert nehéz beépíteni, hanem mert nehéz karbantartani, mivel nem látsz bele a működésébe, és nem tudsz módosítani rajta, ha szükséges lenne."...hogy nektek, radeon kártya tulajdonsoknak jobb legyen."
Nekem, mint aktív Radeon Rx 6800XT, és nem olyan rég még RTX 3060 12GB tulaj is az volt a jó, amikor egyik felskálázást sem kapcsoltam be, mert látványosan romlott a képminőség egy minőségi natívhoz képest. Nekem fontos a jó képminőség, így inkább játszom kicsit alacsonyabb, de felskálázás nélküli felbontáson. A 1440P-s monitoromon ugyanúgy fut skálázás nélkül is pl. natív centered 1188P is, kicsit kisebb, de legalább éles. Majd veszek erősebb kártyát, ha ennél több kompromisszumra lenne szükség.
Ezért sem értem ezt az ölre menő viszonyulást, a jó képminőség a natív, innentől nem gondolom akkora jelentőségűnek, hogy egy fél hajszálnyival kevésbé rossz a DLSS képe a natívhoz képest, mint az FSR2-nek. Nevetséges az egész. -
HSM
félisten
"Ne a fejlesztők szempontjából érveljünk már mert azt nem látjuk, te sem"
Ezt ugyan miből gondolod?Azt látom, hogy itt sokaknak fogalmuk sincs, hogyan néz ki egy szoftverfejlesztési projekt, de én nem tartozom ezek közé.
"de a felhasználóknak ez jobb szerinted?"
A felhasználónak szerintem az a jó, ha jó játékok készülnek és verseny van a GPU-piacon. Ahhoz pedig az vezet, ha gyártófüggetlen megoldások vannak, és egy problémára elég egy megoldás, és nem kell 3-félét is pátyolgatni. -
Szerintem túlgondoljátok. Az AMD a szükséges minimumot támogatja a szponzorált játékokban, ami minden kártyán működik. Láttunk már rá példát, hogy lehet jól is implementálni, így a legnagyobb probléma, a shimmering megszüntethető.
Az NV meg persze, hogy implementáltatja a DLSS-en kívül legalább az FSR-t, hogy a saját, régebbi kártyáit használók ne legyenek kizárva. Azt nem tudom, hogy mi alapján döntik el, hogy FSR vagy XeSS. Olyan nem tudom, hogy van-e, amikor az FSR kimarad és csak a másik kettő kerül be.
-
huskydog17
addikt
Nincs ebben semmi meglepő, teljesen logikus lépés az AMD-től, ugyanis az FSR a három IHV specifikus felskálázási eljárás közül a leggyengébb minőséget adja, ezért az AMD-nek nem jó, nem éri meg, ha mindhárom van a játékban, mert akkor az FSR-t a kutya se fogja használni, így még gyorsabban kikopna a köztudatból és kizárólag a konzolokban lenne életképes.
Na most a köztudatban már meglehetősen széles körben elterjedt az a tény, hogy az AMD RT-ben nem versenyképes, ezért valószínűleg megpróbálják nyomni az FSR szekerét, ha már pénzt öltek bele. Ezt viszont csak úgy lehet, hogy DLSS nincs a játékban, így az általuk fizetett PC portokban tiltják a DLSS beépítését, hogy az FSR ne rontsa még jobban a renoméjukat. 1-2 címben engedik a beépítést, hogy a PR csapat mondhassa és hivatkozhasson arra, hogy ők aztán nem blokkolják, ők nyitottak mindenre.
Ez nekem úgy tűnik, mintha ezzel próbálnák az FSR-t a PC portokban lélegeztetőgépen tartani. A gond csak az, hogy ezzel pont a játékosok járnak rosszul, ráadásul sok esetben a moddolt (nem hivatalos) DLSS injektálás is agyonveri minőségben az FSR-t. (Ezt írtad te is.)
Ez számomra józan paraszti logika: ha a mienk nem elég jó, akkor tiltjuk a jobb technika beépítését.Van még egy teóriám, ami üzleti szempontból számomra logikusnak tűnik:
Az AMD a legtöbb szponzorált játékukhoz adnak egy saját embert, egy programozót, aki beleintegrálja a játékba az FSR-t, de cserébe semmilyen más upscale tech nem lehet a játékban.
Néhány játékhoz viszont nem adnak programozót, ott valszeg a fejlesztő saját maga meg tudja oldani az integrálást, ez esetben az AMD itt jóval kevesebbet is fizet, cserébe nem tilthatják más tech beépítését.Persze az AMD mondhatja (és mondja is), hogy a miénk nyílt forráskódú, így a fejlesztőn múlik a minősége, viszont ez egy terelés, mert a gyakorlatban rendkívül kevesen vagy szinte senki nem fog nekiállni átírni az FSR forráskódját úgy, hogy a DLSS out of the box jobb minőséget ad és ráadásul felhasználóbarátabb, a DLSS esetében nem kell foglalkozniuk a frissítéssel, míg FSR esetében minden felelősség a játékfejlesztőké, akkor meg miért vesződjenek vele.
Az AMD azért force-olja az exkluzivitást, mert másba nem tudnak kapaszkodni, egyszerűen nem versenyképes a technológiájuk, így nincs más lehetőségük. Jó nyilván lenne olyan opció, hogy hagyják kihalni a francba, de valószínűleg ezt nem akarják, egyrészt a beleölt pénz miatt, másrészt marketing szempontból egy öngyilkosság lenne: ha a konkurenciának van ilyenje, akkor nekünk is fel kell mutatni valamit (lásd FSR 3 csak ott még rosszabb a helyzet: 7 hónap után még mindig sehol, miközben a konkurencia letarolja a piacot).
-
-
-
gV
őstag
na, nem vagyunk egyformák. bennem pl. fel se merült anno a GTX 680 lecserélése amíg nem jött a 1080 Ti, ami már bírta a 4k-t. az 1440p az nekem olyan mint a 1680x1050, nem létezik. van ismerősöm aki beiktatta még a Full HD-ra váltás előtt, én 1280x1024-ről egyből 1920x1080-ra váltottam. TV-ben nem is tudom van-e, de most megnéztem az árukeresőn, nincs ilyen felbontás opció. Sony is csak nem rég tette a PS5-nél (tavaly szeptember) elérhetővé.
-
huskydog17
addikt
Arról nem tesznek említést, így nem venném biztosra, hogy használni fogják.
Akár használni fogja a játék, akár nem, erre a PC portra piszkosul kíváncsi leszek, illetve nagyon remélem, hogy jól lesz összerakva, mert ez a játék az eddigi hulladék portokkal ellentétben már érdekel is.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
Megbízhatatlan oldalakat ahol nem mérnek (pl gamegpu) ne linkeljetek.
- Több évig húzódó per várhat az Apple-re az iPhone-ok uralma miatt
- Fejhallgató erősítő és DAC topik
- Magas AI-költségek, csökkenő létszám: dolgozók ezreit rúgja ki a Microsoft
- DVB-T, DVB-S (2), DVB-C eszközök
- Nintendo Switch 2
- Diablo IV
- HP notebook topic
- Vezetékes FEJhallgatók
- Kifarolhat az üvegszubsztrátumok piacáról az Intel
- Netfone
- További aktív témák...
- Bomba ár! Dell Latitude 3540 - i5-4GEN I 4GB I 500GB I 15,6" HD I HDMI I Cam I W10 I Garancia!
- LG 77G4 - 77" OLED evo - 4K 144Hz 0.1ms - MLA - 3000 Nits - NVIDIA G-Sync - AMD FreeSync - HDMI 2.1
- Konzol felvásárlás!! Xbox Series S, Xbox Series X
- Beszámítás! Apple Mac mini 2020 M1 8GB 256GB SSD számítógép garanciával, hibátlan működéssel
- Telefon felvásárlás!! iPhone 16/iPhone 16 Plus/iPhone 16 Pro/iPhone 16 Pro Max
Állásajánlatok
Cég: Promenade Publishing House Kft.
Város: Budapest
Cég: PC Trade Systems Kft.
Város: Szeged