Új hozzászólás Aktív témák
-
Kansas
addikt
Persze hogy azt írták az Nvidiához is, hogy röhögtem volna, ha oda meg nem írnak semmit, vagy az AMD-t írják...
GodGamer-nek nem az NV-re tett állításait vitattam(bár közben kiderült, hogy szoftveres DXR sincs minden GTX Turingon, mert a GTX1650 változatain pl. nincs), hanem az RDNA1-re tetteket, azok pedig nem tudnak mai tényeken alapulni, ugyanis arra vonatkozóan nincsenek mai tények. Csak azt lehet tudni, hogy a DXR nincs hardveresen támogatva, de sem azt nem tudni, hogy nem lehet-e esetleg szoftveresen támogatni a GTX-ekhez hasonlóan, sem a többi, hardveres implementációt nem igénylő(legalább is nem láttam, hogy hivatkoztak volna ilyenre) feature implementálhatóságáról sem tudni semmit.
Az AMD nyilván most az RDNA2-re fókuszál, mert az tudni fog mindent, de annak a megjelenése után akár elérhetővé teheti pl a Mesh Shader-t(Primitive Shader alapon), a VRS-t vagy akár a Sampler Feedback-et, esetleg egyfajta szoftveres DXR támogatást - ezekről jelenleg konkrétan senki nem ír semmit sehol, azon kívül, hogy jelenleg nem támogatottak - de szívesen fogadok ezzel foglalkozó linkeket cáfolatként.Az NVidia sem jófejségből tette elérhetővé a DRX-t a non-RTX kártyákon, hanem azért, hogy a potenciális felhasználóbázist növelje, így bátorítva a fejlesztőket a DXR tzámogatására.
Az hogy a mai napig egy kezeden meg lehet számolni a DXR címeket(techdemókat nem számítva), mutatja, hogy igenis szükségük volt rá, de még mindig nem volt elég az AMD nélkül.
Kétlem, hogy annyira jó áron adnák majd az RDNA2 kártyákat, hogy mindenki szórja el majd értük a nem kevés Navi-t.
Nézd csak meg, mekkora a részaránya az RTX-kártyáknak a Steam Survey-en: együtt is "csak" 8,4%, miközben a GTX 1060 önmagában 11,27%... a DXR-képes GTX-ekkel együtt a 8,4% 33,13%-ra emelkedik, szóval kb a négyszeresére, ami azért nagyon nem mindegy...Mondtam én is, hogy bőven meg lehet lenni nélküle... azt' joccakát!
-
Ugyan ezt írták Nvidiához is.
[link]
Szerintem mindenki összefogott most AMD is Nvidia is .
AMD teljesen fogja támogatni az RDNA 2 vel és nem lesz lemaradásban a DXR 1.1 ben hisz alapjaitól új megközelítés az inline RT.De dedikált hardveres egységeket fognak alkalmazni, ahogy a konzolok is.
Az Nvidia eredeti elképzelése a Microsoft döntésein alapult ahogy most is azon fog alapulni. Egy API alapú RT ben nem lehet nagyon külön utakat járni, semelyik gyártó nem is fog szerintem. A kérdés inkább majd az lesz, hogy milyen hardveres megoldásokat hoznak erre, ebben lehetnek különbségek.De ahogy írtad,ez nem jelenti azt hogy az RDNA 1 ezekből bármit is megkap vagy esetleg ne kapjon meg bármit ,azt sem , jogos. DE ami biztos, a Turing kompatibilis vele ez 100 %.( a GTX a DXR kivételével ) Amit leírt Godgamer az a mai tényeken alapul.
A Dx 12 ultimate persze nem csak a DXR ből áll, sőt sok egyéb funkció hasznosabb is lehet,de AMD nem fogja azt mondani ,hogy ezt nem támogatjuk ma , hisz milyen marketing lenne a most piacon lévő kártyáinak
Egy cég sem tenne ilyet, helyette azt reklámozzák, hogy az RDNA 2 től teljesen támogatják.az RT-t és a VRS-t .Jelenleg azért a tech emberek arra alapoznak amit tudnak és az az, hogy az RDNA 1 egyenlőre butább mint a Turing ezen megközelítésből. Persze reménykedni lehet , sőt kell is és jó kártyák ezek remek ár érték aránnyal. NO Offense.2 hét után végre szétlőttem mindenkit COD -ban mert végre volt időm.Nem kell ide RT vagy bármi Mesh shaders, csak FPS
Megyek lefekszem
-
Kansas
addikt
- biztos vagy, hogy az AMD-t nem kérdezte meg a Microsoft, hogy mit szól a tervezett DX Ultimate feature-ökhöz, tudja-e támogatni őket?
No jó, erre az egyre sikerült kideríteni a választ, még csak nehéz sem volt.
“Microsoft and AMD worked closely on the development of the DirectX 12 Ultimate feature set to ensure a great experience with AMD RDNA 2 architecture” -
Kansas
addikt
válasz
GodGamer5 #101 üzenetére
"óriási erőforrást lehet spórolni az összes Turing alapú kártyán és ez egy szabványos dolog a dx12 ultimate-en belül. Viszont a Radeonok még ha tudnak is hasonlót, az nem köthető a szabványos dx12 ultimates eljáráshoz, ezért lehet, hogy nem is fogják alkalmazni, ezzel pedig teljesítményt veszítenek"
Ahhoz, hogy erre válaszoljak, olyan dolgokat kellene tudnom, amit nem tudok, és valószínűleg ha akarnék se tudnék hozzájuk férni. Szóval direkt válasz helyett inkább megosztok veled pár felvetést kérdés formájában amik az eddigi tapasztalataim alapján felötlenek bennem.- biztos, hogy egy az egyben vette át a Microsoft az NVidia által fejlesztett feature-öket, és az NVidia-nak nem kellett a DXR megjelenésekor driverben "finomhangolni", hogy szabványos legyen? A DX12 és Vulkan sem egy az egyben vette át a Mantle-t, hiszen az az AMD GPU architektúrához illesztve lett kifejlesztve, szükség volt szabványosításra. valahogy az NV is megoldotta a korábbi kártyák supportját az új API alatt(ok, némelyikét korlátozottan), és ez a mostani változás nem egy teljesen új API, csak néhány új feature...
- biztos vagy, hogy az AMD-t nem kérdezte meg a Microsoft, hogy mit szól a tervezett DX Ultimate feature-ökhöz, tudja-e támogatni őket?
- biztos vagy benne, hogy az RDNA2 architektúra olyan mértékben eltér az RDNA1-től, hogy a fizikai implementációt igénylő feature-ök kivételével nem lehet driverből visszaportolni RDNA1-re az új feature-öket(adott esetben akár némi extra teljesítményvesztzésel)? Ne felejtsd el, hogy a GPU-k legnagyobb része továbbra is általános célú számolóegység(NV: Streaming Multiprocessor / AMD: Compute Unit) és az NVidia is így tette működőképessé a DXR-t az RTX-magot nem tartalmazó kártyáin, nyilván durva teljesítményvesztés mellett...
- lévén API-ról beszélünk, biztos vagy benne, hogy az AMD nem teheti meg azt, hogy "egyszerűen" a saját nem szabványos implementációját rámappeli szabványos DX API hívásokra, ha a végeredmény kellően hasonló? Végül is volt megoldásuk arra is, hogy a Primitive Shader használatát driverből megoldják... OK, nem működött teljeskörűen, és végül dobták, de volt...
- Az alaplapi chipkészlet botrányból és az AMD ottani viselkedéséből kiindulva, nem gondolod, hogy az AMD nem szeretné elidegeníteni a felhasználóbázisának Navi-t használó részét azzal, hogy nem oldja meg valahogy azoknak a feature-öknek az elérhetővé tételét, amiket lehet? Ne felejtsd el, hogy még semmit nem mondtak az RDNA1-es kártyák DX Ultimate támogatásáról...
Ezek csak felmerültek bennem a téma kapcsán, nem is egyformán szorosan kapcsolódnak a témához, de tőlem most ennyi telt.
A lényeg, amit el próbáltam mondani: amíg nem tudunk a jelenleginél többet, én nem ragadtatnám magam olyan sommás kijelentésekre, hogy ez vagy az a feature biztos nem fog működni, elvégre ki gondolta volna, hogy valaha fog 1060-on működni a DXR, vagy B450-ben a Zen3... én tuti nem.
És persze csak a DXR eljövetelével és az AMD támogatásával látszik garantáltnak az is, hogy az RTX nem jut a PhysX sorsára... bár arra kíváncsi leszek, hogy az Ampere DXR implementációja mennyiben fog eltérni a Turingétól... minél jobban, annál nagyobb különbséget valószínűsítek a DXR 1.1 és az NVidia eredeti elképzelése közt. -
GodGamer5
addikt
A lényeg amit próbáltam elmondani, hogy a Mesh Shader-t,-amit minden Turing tud- pl open world játékokban elég jól lehet használni-, lásd Asteroids tech demo. Ezzel a dinamikus lod rendszerrel óriási erőforrást lehet spórolni az összes Turing alapú kártyán és ez egy szabványos dolog a dx12 ultimate-en belül. Viszont a Radeonok még ha tudnak is hasonlót, az nem köthető a szabványos dx12 ultimates eljáráshoz, ezért lehet, hogy nem is fogják alkalmazni, ezzel pedig teljesítményt veszítenek. A VRS meg csak egy érdekes feature ami szintén szabványosan hoz némi teljesítménytöbbletet.
De a lényeg, hogy a ezeket a feature-öket szabványosan nem tudják a Radeonok nem szabványosan meg lehet, hogy nem használják ki a fejlesztők. -
Kansas
addikt
Hékás, én még nem ezt a cikket láttam a linken(hanem ezt), tán csak nem kicserélted menet közben?
(#100) b.: semmi gond, legközelebb majd tán nem fogod
Mindenesetre PC-n alighanem megvárom a VGA cserével az RDNA3-at, az addig megjelenő számomra érdekes raytracing-es játékokat meg majd beszerzem PS5-re...
-
pedig nem hosszú cikk, na
Én úgy tudom egyedi VRS megoldást használtak, nem általánost API specifikust, minta Dx 12 ultimate most hoz."Variable-rate shading (VRS) is an API-level feature that lets GPUs conserve resources by shading certain areas of a scene at a lower rate than the other, without perceptible difference to the viewer. Microsoft developed two tiers of VRS for its DirectX 12 API, tier-1 is currently supported by NVIDIA "Turing" and Intel Gen11 architectures, while tier-2 is supported by "Turing." The current RDNA architecture doesn't support either tiers."
-
Kansas
addikt
Nem tudom, én nem látok itt olyat(a címen kívül), ami a VRS-t és az RDNA2-t egy bekezdésben említené(az ezzel foglalkozó bekezdésben végig a Turingokról van szó), ahogy az is pontatlan, hogy a VRS a Turing újítása lenne, hisz a VRWorks része volt már a Maxwell és Pascal Geforce-ok idején is. A VRSS már inkább Turing feature...
Az már érdekesebb kérdés, hogy a Turing előtt mindkét gyártónak csak a VR API-jában volt benne a VRS, tehát elképzelhető, hogy a Turing/DXU VRS egy jelentősen fejlettebb dolog a régihez képest és így csak az alapelv azonos, a tényleges megoldás más, ezzel együtt azért látszik, hogy nem HW feature, így elvi akadálya nincs az RDNA1-re visszaportolásának.
Az már az AMD sara, hogy a DXU és legfőképp a DXR kapcsán a kommunikációjuk annyira az RDNA2-re fókuszál, hogy igazából nem találtam semmilyen cikket, ami azzal foglalkozna, hogy az RDNA1-nek milyen fokú kompatibilitása van a DXU-val, mondjuk ilyen formátumban. Tehát azt se mondják, hogy lesz bármilyen fokú kompatibilitás, és azt se hogy nem - és igazából ez igaz az NVidia Turing előtti cuccaira is...
Egyébként én is csak ennek a diskurzusnak a kedvéért néztem utána ilyen mélységben
, szóval haszna mindenképp volt számomra is.
Azért nem bántam volna, ha(mint időnként máskor is), Abu is beleszól és hozzáteszi a maga két fillérjét, ha már az ő cikke kapcsán jött elő a téma. Bár ha egy ilyen support lista cikket tesz le valamikor az asztalra helyette, akkor "meg lesz bocsátva" neki. -
jah igen. A konzolokra írtam, hogy fél év
Azt nem tudom, hogy miért nem támogatják sajnos.
Itt azt írják a VRS-t az AMD az RDNA 2 től fogja támogatni csak. [link]
Az Intel is csak egy lépcsőt a Turing 2-t.
DE hasznos ez a társalgás mert olyan dolgokat tudok meg amikkel eddig azért nem voltam tisztában . -
Kansas
addikt
Fél éven belül nem lesznek Unreal 5 játékok, kell annak még vagy 2-3 év.
Érdemes végignézni a teljes OS videót.A VRS-t a LiquidVR keretében az összes GCN kártya is támogatja, gondolom azóta se vették ki a feature-listábóla LiquidVR-t, akkor viszont hardveresen nem lehet akadálya a dolognak, legfeljebb driver-ből engedélyezni kell más API-hoz is.
-
Az unreal 5 fogja majd támogatni az RT-t és szerintem szebb lesz ennél még Azt még nem láttuk hogy fog kinézni
A konzoloknak is kell még fél év mire kijönnek igen, az biztos , hogy sok idő lesz,de lesznek addigra más grafikai motorok inline RT vel Xboxon is.A VRS-t és a mesh shadert tudja az összes Turing ha jól tudom,nem tévedett ebben, de azt nem tudom, hogy az RDNA 1 támogatja e, szerintem nem.A VRS-t csak ha jól tudom az RDNA 2 fogja.
-
Kansas
addikt
"Ez független attól ahonnan elindult a beszélgetés köztetek, hoyg az RDNA 1 nem támogatja a Dx12 ultimatet teljes körűen, míg a Turing és azon belül az RTX igen."
Nem pontosan innen indultunk.
Onnan indultunk, hogy minden Turing támogatja, bezzeg az RDNA1 egyáltalán nem.
idézem:
- "dx ultimate miatt lehetnek gondok a sima rdna-s radeonokkal"
- "Mesh shader,Variable Rate Shading amit minden turing tud, de a Radeonok nem"Erre próbáltam reagálni, hogy amennyire a GTX Turingok támogatják az RTX-ekhez képest, annyira a RDNA1-es Navik is támogathatják az RDNA2-höz képest, mert a DXR-en kívüli dolgokat, bár más néven és nem pont ugyanabban az implementációban, de szintén támogatják.
-
Kansas
addikt
Egyébként nem akkora vész az ügy, anno az AMD a Mantle-révén megalapozta a DX12-t, most meg az NVidia az RTX és Mesh Shader révén a DirectX 12 Ultimate-et.
Jó lenne, ha az RX5700XT-m a DXR kivételével támogatná az új feature-öket, de ha nem fogja, az se nagy baj, egyelőre nem izgultam rájuk, mire pedig elterjednek, úgy is cserélek VGA-t megint.
Az egyébként megvan, hogy az új szuper Unreal 5 tech-demo egy fikarcnyi raytracinget sem tartalmaz, hiába fogja maga az engine támogatni, ráadásul még évek mire a gyakorlatban is jön? Ha ezt lehet hozni RT nélkül, nekem bizony nem fog hiányozni... -
jah igen valóban a tensor magokról lemaradtam, annyira nem követtem ezeket a kisebb kártyákat, igazad van.
A lényeg igazából most félrecsúszott, mert most arról megy a vita, hogy nvidia szerinted a Turing megnevezést hazsnálja a DXR 12 ultimate kompatibilitásra, pedig valójában nem .ők mindig hivatalosan azt írták, hogy az RTX kártyák a Dx 12 Ultimate kompatibilisak, [link]
"DirectX 12 Ultimate is the newest version of the API and new gold standard for the next-generation of games. DirectX 12 Ultimate takes games to a whole new level of realism with support for ray tracing, mesh shaders, variable rate shading, and sampler feedback. GeForce RTX is the first and only PC platform with support for these game-changing features."
az hogy egyes oldalak következetesen a Turingot hazsnálják az más téma. De amúgy igen az RTX megnevezés egyenlőre a Turing architektúrát takarja be.
Ez független attól ahonnan elindult a beszélgetés köztetek, hoyg az RDNA 1 nem támogatja a Dx12 ultimatet teljes körűen, míg a Turing és azon belül az RTX igen.Amennyire az RDNA 1 fogja annyira legalább a kisebb GTX turingok is.
Ebből a szemszögből nézve átmeneti generáció,de ez nem jelenti azt hogy ne lenne jó az 5000 széria. -
Kansas
addikt
A 1660Ti-ban nincs Tensor core, az AIDA riportálja tévesen, és abból csináltak hírt anno.
A DLSS-nek valóban nincs köze a DXU-hoz, azért is van zárójelben, de az sincs a GTX Turing-okban, pont a Tensor magok hiánya miatt.
A GTX Turing-okon, a Pascal-okon meg a Volta-kon valóban megy a DXR, szoftverből, általános shader/Cuda core-okon, de csak támogatva, nem gyorsítva, jóval durvább teljesítményvesztés mellett.
Ilyen alapon az AMD is csinálhat egy általános implementációt az RDNA1-re, ha akar, nem mintha sok értelme lenne...Az AMD valóban kivette egy ponton a Vegákon az NGG támogatást, de már megint van, csak nem driverből erőltetve(és lehet hogy csak a Navi-kon, amit te linkelsz az egy Vega fórum), hanem ahogy a Mesh Shader is, a programozók által támogatva, magyarul a játék kell hogy úgy megírva legyen(tehát supportáljon ezt tartalmazó API-t).
-
"Hardveres DXR gyorsítás(és DLSS) ugyanúgy nem megy a Turingok felén sem(GTX16xx), mégis az NVidia támogatásához csak annyit írnak oda, hogy "Turing", de jobb helyeken kiemelik, hogy a teljes DirectX Ultimate támogatás bizony csak az RTX sorozatra igaz."
A DLSS 2.0 nvidia fejlesztés, ennek nincs köze a DX 12 ultimatehez.Sima Dx 12 -n is megy.
Egyébként az 1660 Ti tartalmaz 192 darab tensor magok éppen a DLSS 2.0 lehetne rajta aktív.A DXR gyorsítás megy a Pascalokon is már jó ideje, [link] a sebesség a kérdéses nem az hogy támogatják e. A Dx 12 ultimate teljes körű élvezetéhez RTX kártya kell, de gondolom nem ez a kérdés az RDNA 1 kártyák szempontjából való megközelítésnek.
Amúgy van egy érdekes bekezdés az általad belinkelt cikkben:
"
On the triangle side of things, there's less immediate information. What we do know is that Navi still outputs a maximum of 4 primitives per clock cycle (1 per ACE) but there's nothing yet as to whether or not AMD have resolved the issue pertaining to their Primitive Shaders. This was a much touted feature of Vega, allowing programmers to have far more control over primitives, such that it could potentially increase the primitive throughput by a factor of 4. However, the functionality was removed from drivers at some point not long after the product launch, and has remained dormant ever since." -
Kansas
addikt
Hardveres DXR gyorsítás(és DLSS) ugyanúgy nem megy a Turingok felén sem(GTX16xx), mégis az NVidia támogatásához csak annyit írnak oda, hogy "Turing", de jobb helyeken kiemelik, hogy a teljes DirectX Ultimate támogatás bizony csak az RTX sorozatra igaz.
A teljes DX12U támogatáshoz természetesen nem lehet odaírni a RDNA1-et, mert a sorozat egyik tagja sem támogatja a hardveres DXR-t, de csak úgy odaírni , hogy "Turing", erős csúsztatás.
A Mesh Shader természetesen NV fejlesztés, csak épp kb. ugyanazt csinálja, mint a Primitive Shader, legalább is mióta elkezdtem utánajárni, mindenhol ezt látom.
Nem állítottam, hogy az AMD-től nyúlták, de az AMD is támogat ilyen képességet, ez szintén tény, csak nem ugyanúgy hívják., hanem Primitive Shader-nek.
Olyan ez, mint a GSync/FreeSync páros, ugyanazt csinálják, gyártótól függő néven. Az egyetlen különbség, hogy ott a szabványban AdaptiveSync-nek hívják, itt meg átvették a nevet az NVidiától(gondolom, nem ingyen).
A VRS meg megy az RDNA kártyákon, a Radeonok már GCN2 óta támogatnak ilyen funkciót, persze nyilván nem ugyanazt a konkrét megvalósítást, mint az NVidia...Az egyértelmű jelenleg, hogy teljes DirectX Ultimate támogatás AMD oldalon csak az RDNA2-es kártyákban lesz(az sem biztos, hogy mindben, elvégre az AMD is húzhat egy olyat, mint az NV), de azt a feature-szintet azért talán az RDNA1-esek is tudni fogják, amit a GTX-es Turingok.
Esetleg megnézhetted volna a linkeket is, amiket betettem...
szerk: az Intel persze hogy támogatja a VRS-t, ők találták fel anno 2014-ben Coarse Pixel Shading néven
-
Dx Ultimate szempontjából ezek a dolgok nem mindegy.Vulkan szempontjából nagyon jó,de az megy Nvidiának is, míg fordítva nem igaz. Hardveres DXR gyorsítás és VRS nem megy a RDNA 1 kártyákon De egyébként az Intel 11 gen is támogatja a VRS-t..
A mesh shader amire épít most a Microsoft Nvidia fejlesztés alapjaiban, de ezt is átdolgozták.
Nem azért van így mert Nvidia írja ezt... -
Yany
addikt
A Savage 2000 minden tekintetben überkirály zsírkarvaly kártya volt. Mivel anno arra képest volt az S3, igazán sajnáltam, hogy kiestek a buliból. Persze az Unreal alatt a Metal volt az, ami megmutatta (mondjuk az már a Savage4-nél is így volt), hogy S3TC-vel mire képes az a hardver. És a S2000-es kártyák (mondjuk abból csak a Viperrel találkoztam) tűélesek voltak. Régi szép idők... sry az offtengerért, befejeztem.
-
Kansas
addikt
válasz
GodGamer5 #81 üzenetére
Nem RTX, DXR, ne keverjük már az API-t az NV hardverimplementációjával.
VRS-t egyébként elvileg támogatja a Radeon, legalább is a LiquidVR-nek a része, szóval hardveresen támogatva kell, hogy legyen...
Eszerint a cikk szerint pedig a Mesh Shader gyakorlatilag az NVidia elnevezése arra a funkcionalitásra, amit az AMD Primitive Shader-nek hív: "it also offers something called Mesh Shaders, that offers the same kind of functionality of AMD's Primitive Shaders; it's not a feature set of Direct3D, OpenGL or Vulkan, but can be used via API extensions"
Ugyanerről Wikipédián... nem csak hogy támogatja az AMD, de ők támogatták korábban...
Ráadásul fix-funkciós egységgel(Prim Unit), hardverből.Tehát igazából ezek csak a DirectX szempontjából újdonságok, de eddig is támogatva voltak GPU szintjén... mindig fikázva volt az AMD, hogy túlságosan a jövőnek fejlesztenek, no hát itt annyira igaz lett, hogy már el is felejtetted, hogy az AMD tud ilyet és mire szabványosítják az új DX API-ban, már az NV saját feature-elnevezését kéred számon...
-
GodGamer5
addikt
Pl Mesh shader,Variable Rate Shading amit minden turing tud, de a Radeonok nem. Ez azért a későbbiekre nézve probléma lesz. Az Rtx meg mellékes, mert az még minimum egy év mire elterjed rendesen. Mondjuk az sem ártana, ha a 3050-es Geforce-ok és az egyenértékű Radeonok is megkapnák a 1.1-es Rtx támogatást, mert sokat segítene a terjedésében.
-
Jah, majd el is felejtettem, hogy volt idő mikor a 60Hz maga volt az ördög! Kiégette a szemed.
Volt hogy inkább alacsonyabb felbontásban játszottam, csak hogy magasabb frissítést tudjak neki adni, 85Hz alá ne kelljen menni, de inkább 100+, Volt monitorom svga-ban tudott 180Hz-et az volt nálam a csúcs1024ben 120Hz.
re: #80
A fákja ahogy égett, arról lehetett megmondani, az átlátszóságáról és a textura megjelenítéséről láttad. Nem a tükröződésre gondoltam.Egyéb felületeken meg. S3TC brutál textúra, Glide, kettős vagy dupla textúrázás, cserébe 16bit max ezért az alap textúrák bután mosódtak el, D3D a legegyszerűbb látszatra. Virge-en nem is volt még textúra átlátszóság.
De én most itt kiszállok az off topikból, nem tartozik ide igazából. Még ha jól is esik a téma.
-
hokuszpk
nagyúr
válasz
benedekco #74 üzenetére
"De a szar dac-ot azonnal láttad asztalon is."
atkapcsoltam a zsugat 1600x1200 100hz -re, -- mar ha birta ; a Viewsonic moncsinak meg se kottyant -- amelyik jo volt, az meg se rezzent, amelyik meg gagyi, annak remegett a kepe, mint a kocsonya....
#76
arra gondolsz, hogy az elejen ottvolt a raytracing effekt ? -
válasz
Carlos Padre #75 üzenetére
Unreal, a fákja megmondta milyen kártyán fut
Ha volt S3TC akkor meg kérdésed se volt!
Azért Quake alatt is voltak különbségek, Glide-ot szerintem bármin megmondtam azonnal. -
Voodoo-kat simán. 16biten TNT-ket is nagyon könnyen, 32biten már nem volt annyira egyszerű, de még mindig meg lehetett állapítani. Nyílván nem brandre, meg modellre. De gyártóra eléggé egyszerűen be lehetett lőni őket. Textúra megjelenítés, egyéb bugok, antialiasing furcsaságok, színek. Persze mondom ezt úgy, hogy annak idején szerencsés helyzetben voltam és normálisabb képernyőim voltak, meg a haveroknak is.
Gammát másképp kezelték, a fényerő más volt játékokban, ezer jele volt ezeknek.re: opr
Azért a vindows asztal az talán kicsit túlzás, de 3d render alatt tényleg nem tartott sokba.
De a szar dac-ot azonnal láttad asztalon is. -
Jacek
veterán
Jaja ott volt a becsipodesem hogy Viper II es nekem volt Diamond TNT2-es motyom
-
Akkoriban ez nem volt ám olyan nagy kunszt amúgy, ati, nv, voodoo, s3... Mindnek volt egy egyedi "képvilága", jobb szó híján. Simán windows asztalt látni is elég volt egy megalapozott tipphez.
Persze, nem a pontos típushoz, de azért azt stabilan be lehetett tippelni,hogy melyik nagy cég van a kép mögött.Ma már ez persze nagyon nincs így, de a 90-es évek közepe-vége fele sima ügy volt a dolog.
-
Ja, ezt akartam írni, csak belekavarodtam a mondatokba
A Savage-el tényleg az volt a gond, hogy bárki gyárthatta mindenféle minőség biztosítás nélkül. Illetve aki azt vett az általában már az alaplapra se költött sokat így az se volt egy nyerő darab, a két nem jó minőségű dolog párosításából pedig legrosszabb esetben képtelen eredmények születtek. Sok ilyet láttam, Savage nem ment, szar a kártya, kipróbáltuk 3 alaplapban mindenütt eldobta magát, de nekem volt egy jó ASUS lapom abban ment. ALI chipset és az S3 se voltak nagy barátok soha. A Voodoo-val és szerintem még a TNT-vel se volt ennyi szívás.
A TNT2-nek nem volt kiemelkedő képe, de ez sokaknak egyáltalán nem tűnt fel akkoriban, random samtron és gagyitron monitorokon, nagyobb felbontással, egy monitoron váltogatva a két kártyát azonnal, nekem mondjuk amúgy jobban rááll az ilyenre a szemem és elég hamar meg tudtam mondani képre hogy milyen kártya van a gépben, nvidia, 3dfx vagy S3/matrox/ati ezen utóbbiakat nem különböztettem meg ránézésre, csak mélyen ható összehasonlítás után.
A driverek milyensége is rontott a grafikákon alaposan annak idején. -
Egon
nagyúr
válasz
benedekco #68 üzenetére
A Viper V770 már TNT2 volt, TNT az 550 volt, csak a pontosítás végett.
Nekem sosem volt gondom az nV képminőségével, pedig volt összehasonlítási alapom: a céges Compaq gépeket akkortájt Matrox G200-zal szerelték (köpködtek is rájuk: kb. minden ötvenedik meghalt az 500 fős szervezetünkben). Persze nem is volt dzsunka balra kategóriájú kártyám: Diamond, Asus, Leadtek volt jellemző. S3 Savage 3-4 kártyáknál a driver volt még a fő probléma: láttam érdekes dolgokat az egyik ismerősnél. Kerültem is messziről ezeket a kártyákat. -
Savage-et sok szemét gyártó gyártott szar dac-al. Nekem Diamond-om volt és tűéles volt a képe. Az Asus TNT/Geforce-oknál messze jobb, a Voodoo képeiről ne is beszéljünk a maga 16bitjével, annak stílusa volt nem minősége.
Mióta digitális jelen megy a kép a monitorra azóta ugye nincs is problem, illetve az ATI korszakban aoknak is szép képük lett és az nvidia is összeszedte magát a Gef4 körül képminőségben. De valószínűleg ott is voltak jobb darabok, jobb gyártóktól.TNT-knek is azért volt egy időben nagyon rossz hírük mert mikor már olcsók lettek, mindenki azzal kezdett gyártani kártyát, elöntötte a boltokat a dzsunka minőségtelen cucc. M64 és társaik, botrány. De az S3 mindig kiváló volt képben, az más hogy x-y gyártó elcseszte a DAC-ot. Matrox volt a másik, ők professzionális képet gyártottak leginkább a professzionális piacra.
A Virge-ön szemtanúja voltam a 3D lassításnak, cserébe szép volt a kép. Dark Forces II ment vele, 640x480 software render kb hasonló framerate-et hozott minz 400x300 3d-vel, virge-ön.
re: Carlos Padre
Nem Woodoo hanem Voodoo!re: Yany
Valamit benéztél, annak az 1000 kártyának meg 99.9%-a fostaliga volt sajna. a 939Visionöktől a Virge3D-ig egész jó képük volt az S3-aknak, aztán a Savage-ekkel ment le a lejtpn a képminőség, de csak a dzsunka gyártók miatt, nem maga a chip miatt. A konvergencia hibát meg általában maga a készülék hozta és jobb monitorokon volt is lehetőség az állításra.re: Jacek
A TNT az Viper 770 volt, a Viper II az a Savage 2000, az első S3 aminek tudnia kellett volna a T&L-t, csak nem jött be.re: hokuszpk
Tökéletes volt a képe! Nekem is volt Stealth III S540-em, 32megás. Imádtam, csak az a sok redva driver, kb volt 3 driver, minden játékhoz más driver volt jó
Volt a sárga driver, az volt a legjobb a 3DMark teszthez, azért hívtuk sárgának mert a tesztek közötti képen mintha kiment volna a monitor kábel piros ere, így az egész kép sárga volt. De a teszteredmények azzal voltak a legjobbak. Játékokban nem az volt a legjobb. Tuningolni is elég szépen lehetett, csak kellett neki extra hűtés. -
hokuszpk
nagyúr
nekem még megvan a Diamond Stealth S540 zsugam, sot a ViewSonic P225f monitor is, amivel parban volt.
ha talalok egy mukodokepes agp slotos lapot, megnezem, mert en is ugyemlexem, hogy eleg jo kepminosege volt. -
Kansas
addikt
válasz
GodGamer5 #59 üzenetére
Milyen gondok? A Turing GPU-k fele se támogatja(hardveresen) az RTX-et, mégis nagyon sokan jól megvannak velük.
Egyébként az NV szoftveresen(driverből) engedélyezte a DXR használatát a GTX-eken is, csak ott aztán igazán durván beesik az fps... de elméletileg nincs akadálya, hogy ugyanezt az AMD is megtegye...(#63) Yutani : anno nekem is Diamond Savage 4-em volt, szintén hibamentes - lehet hogy a Diamond volt jó széria
-
Yutani
nagyúr
Van egy Diamond Viper II (Savage2000) kártyám, amit teszteltem is tizenéve, de nem volt rosszabb a 2D képe, mint a BBA Radeon vagy a Creative GF256 kártyának.
Most nem esküszöm meg, hogy próbáltam Savage3D és Savage4 Diamond kártyákat, de mintha igen, és nem emlékszem rossz 2D képminőségre. A noname TNT2M64 kártyák, de még akár a GF2MX-ek is tudtak pocsékak lenni. Valahol talán a GeForce 2 után haltak ki a fos 2D-s képet adó kártyák.
-
Yany
addikt
válasz
Carlos Padre #57 üzenetére
Egy vidéki, de viszonylag nagy forgalmú boltban dolgoztam. Ha 1000 terméket nem láttam az említett témában, egyet sem (monitorok, vga kártyák). Nem mendemondát gyártok, a saját szememmel jól látható jelenségről beszélek, olyannyira, hogy még anno a CeBIT-ről is szereztem egy Aztec Savage4-et újságíróként és pontosan ugyanazt az ótvar homály képet hozta, mint a belföldi kereskedelemben beszerzett példányok. De ugye olyan dologról beszélünk, amikor a felhasználók/vásárlók jó része még a nyilvánvaló konvergencia-hibákat sem vette észre a monitorán.
-
GodGamer5
addikt
válasz
Carlos Padre #60 üzenetére
Igen, valószínűleg ez lesz.
-
GodGamer5
addikt
Arra leszek kíváncsi, hogy olcsóbb kategóriában is elérhető lesz végre az RT, vagy marad a felső(bb) kategória kiváltsága?
Mondjuk így effekt szinten sok vizet nem zavar a dolog, még lesz vagy minimum 1 év mire értelmes mennyiségű játék lesz támogatva, viszont a dx ultimate miatt lehetnek gondok a sima rdna-s radeonokkal. -
Kansas
addikt
válasz
Carlos Padre #57 üzenetére
Nekem úgyszintén... kár, hogy a vIA-val együtt gyakorlatilag kimúlt az S3, elfértek volna a piacon egy harmadik pólusként...
-
rumkola
nagyúr
Jó írás, de én az AMD-nek VGA szinten egy szavát sem hiszem el. Ezerszer bebizonyosodott, hogy nagy a mesélőkéjük.
-
Yany
addikt
Aztan jött a borzalmas képminőséget nyújtó Savage3D majd a 4-es. Ott valamit nagyon elba...ltáztak S3-ék, ugyanis ViewSonic, CTX, LG, mindenféle monitoron extrém rossz képük volt (nem 3D-ben). Gondolom a ramdac volt alja, vagy valami szűrő. Viszont ekkor jöttem rá, hogy az akkori Samsung CRT monitorokban volt valami elektronika, ami gyakorlatilag elfedte a Savage kártyák ótvar képminőségét és egyedül azok a kijelzők nyújtottak éles képet.
Nem brand-mánia miatt mondom, sosem voltam ilyen téren elfogult, de típustól függetlenül az akkori újabb Samsung CRT-k valamiért élesek voltak a béna Savage-ekkel, míg minden más monitor (egy akkor csúcsnak számító 21-es Viewsonic-ot is beleértve) tök homály volt. Persze a népek vitték a Savage-eket ennek ellenére is, mert nem volt viszonyítási alapjuk, nem látták, hogy mennyivel homályosabb, és amúgyis jóval olcsóbbak voltak a TNT és egyéb kártyáknál. Jahj, régi szép(?) idők...
-
válasz
Malibutomi #38 üzenetére
Akkora a lemaradás, amennyit a kisebb node kompenzál. Amiről igazából fogalmunk sincs - de tekintettel a hasonló perf / tranzisztorra, ez lehet, hogy nem olyan nagy, mint amennyit a 12nm vs 7nm sugall.
-
snecy20
nagyúr
válasz
Petykemano #40 üzenetére
Kicsit olyan ez, mint a legelső 3D gyorsítók 96-97-ben...1-2 kivételtől eltekintve a zöme mindenre jó volt, csak 3D gyorsításra nem.
-
Petykemano
veterán
"én azt remélem, hogy az AMD nem lihegi túl ezzel a generációval a raytracer hardvert. Én imádnám, ha ez lenne az irány"
Én azt imádnám, ahogy nvidia és AMD fanok ölik egymást, hogy
- Hát te hülye vagy, hogy AMD-t veszel, a RT a jövő, az meg alig tud valamit, nincs globális illumináció, 1-2 év múlva jön pár játék, ami bucira tekeri az RT képességet és a most vedd AMD kártyád a földbe áll. Bezzeg az NVidia kártya vásárlásával a jövőbe ruháznál be
- Hát persze, a jövőbe. Csak mire oda eljutunk, hogy bucira tekerje az RT képességet, addigra már kétszer-háromszor gyorsabb kártyák fognak jönni. Ez meg most jó, a most kapható és eddig megvett népszerű játékokkal, nem 1-2 év múlva.
(Fenti párbeszédben az NVidia és AMD szavak felcserélhetők, ha az RT kifejezést helyettesítjük Async Compute-val, vagy DX12-vel, stb)
"De az Nvidia piacvezető és ez teljesen más" érvelés:
3...2...1... -
Jacek
veterán
válasz
Malibutomi #38 üzenetére
Sőt, nemhogy lemaradas.
-
Jacek
veterán
Nem értelek nem ugyan arra vársz, akkor még szerencse hogy csak két évet kellett várni az amperere vagy milyen a logika, kimaradt a csúcs az elöző genben ennyi mit kell ezt túl misztifikálni. Volt NV lehetett mit venni. Konzolok előtt jön ezt már elvileg hivatalosan is elmondták, vagyis hogy jön valami
-
con_di_B
tag
Valahol (kicsit paradox módon) én azt remélem, hogy az AMD nem lihegi túl ezzel a generációval a raytracer hardvert. Én imádnám, ha ez lenne az irány, de az alapján amiket Abu mond kb. az jön le, hogy aki most erre költ érdemi mennyiségű tranzisztort, annak könnyen lehet h maximum 1-3 generáció múlva fog beérni a szoftveres környezet, hogy értelme is legyen. A "tapasztalatgyűjtés" tekintetében az mindegy, hogy most teleszórják a fél GPU-t speckó raytrace hardverrel, vagy beleraknak 1-2-t mutatóban, hogy ilyen is van, aztán méregetik azzal az első néhány raytrace-es játékkal, h mit tud. A Tensor Core alternatívákkal nagyjából ugyanez a szitu, ha nagyon kell tegyenek bele packed INT8-as utasításokat a rendes ALU-kba, aztán inkább azon izomkodjanak, hogy out-of-the-box működjenek a GPU-uik az összes ML framework-kel, aztán majd meglátjuk. Fájdalmas ezt látni, hogy mennyire hajlamosak berakni úgy HW gyártók képességeket a hardverbe, hogy nincs rendesen átgondolva, hogy azokat hogy lehet elvinni a végfelhasználói programokig. (Az NVIDIA ugye megoldja házon belül amit tud, de az meg pénz.)
-
K0vasz
aktív tag
válasz
Malibutomi #31 üzenetére
hát mert erre voltak képesek, de ettől még AMD vonalon ez a csúcs
gondolom, ebben a konstrukcióban ennyi van/volt, ezért nem terjeszkedtek felfelé, nem azért, mert nem volt kedvük -
joey04
titán
válasz
Petykemano #1 üzenetére
De én azért örülök, hogy Abu elmondja a véleményét, meglátásait.
-
Egyetértek veled. Szinte minden nagyobb oldal foglalkozik ezzel a témával. lásd Tom's hardware, akik tudják az arany középutat valahola WCCF bulvár és mondjuk a PH között. Én örülök ezekenek a híreknek.Napi szinten vagyok a VGA találgatósokba, ott kitárgyaljuk sokszor elég érdekesen ezeket a dolgokat,de aki nem jár be oda az ezekről nem tud, lemarad, illetve nem kap infót mindenről, pedig izgalmas téma amúgy.
Nvidia nagyon erősen rágyúrt az utóbbi időben arra , hogy ne szivárogjanak ki tőlük infók,AMD kevésbé. Ez a pár nap például eléggé kivételes a zöldeknél, utóbbi generációt figyelembe véve. ( a tegnapi coprocesszor vagy a hűtő kinézete , kialakítása)A gond azért az szokott lenni, mikor magánvélemény van cikként tálalva megfelelő hátérinfó nélkül. Azért valószínűleg elég okos mérnökök dolgoznak a VGA gyártóknál, hogy megpróbálják a problémákat kezelni például RT alatt. Ezt nagyon nem szeretem,de a többi szerintem is ok és még ilyeneket a népnek
-
Yany
addikt
Srácok, ez szerintem gáz. Tudom, hogy könnyű AMD fannak meg clickbait-oldalnak csúfolni a Ph!-t, de épp Abu az, aki szerintem méltatlan mértékű negatív kritikát kap. Nem, én sem mindig értek vele egyet és igen, néha nekem is nehezen sikerül érdemi reakciót kiprovokálnom belőle, de
1. Képben van, nem kicsit.
2. Igenis kell az interneten forró témákról beszélni, akár clickbait, akár negatív valakire/valamire nézve, akár kamu. Csak megfelelő szakmai szinten. És ez itt igenis megvan.Éppenhogy az ilyen cikkek számát kéne növelni, ahol nem egy-egy felszínes
reklámtermékbemutató zajlik, hanem mögé mennek egy témának és azt pro színvonalon tálalják. Ha a szarvihar rám is omlik ezzel, én akkoris kiállok Abu mellett és bátorítom, hogy minél több ilyen cikk szülessen. Sajnos extrém mértékben domináns lett a fikázók hangja, legyen annak oka akár a community összetételének változása, akár csak a "hangerőben" történő különbségek. Borzasztó látni, hogy mennyire hálátlanok sokan.Nem véletlenül érzem kicsit magaménak ezt a problémát, mert én is szeretek anyagokat szülni (ld. logout, vagy a youtube-omon lévő többi videó) és habár szinte csak pozitív kritikát kaptam, nagyon sokat számít(ana) a közösségtől kapott építő visszajelzés a nettó hőbörgések helyett. És nem kis részben emiatt is alulmotivált vagyok én is jönni az újabb anyagaimmal, mert bőven van betárazva immár évek óta, de én is inkább töltöm az időm engem feltöltő tevékenységekkel, mint rágnivalót gyártani a trolloknak és "kritikusoknak".
Nem kell mindent tökéletesnek vélni, de ami mostanában errefelé zajlik, már régesrég önmagát és nem a kritizált anyagot minősítő jelenség.
Sry, de ezt már ki kellett mondanom. Jöhet a sh*tstorm.
-
Carlos Padre
veterán
Gyerekek, nézzétek már meg a Ratchet vagy a GT7 gameplay videóját 4K-ban és vessétek már össze bármivel amit az RTX fel tud mutatni.
-
Kansas
addikt
Tekintve hogy azt nem említik, milyen pontosság mellett, a 22 TFLOPS baromira nem mond semmit. Ha single, akkor nagy ugrás, ha half, akkor ennyit a Radeon VII is tudott...
Ezzel együtt ez a találgatósdi végtelenül gyerekes, féligse igaz infón alapuló wishful thinking(ezért is nem járok az adott fórumtopik közelében sem).Valaki említette hogy jó magyar szokás a pesszimizmus meg a fikázás... hát jó napot, a csodavárás meg a pletykálkodás is pont illik a sorba... de akinek van erre elszarni való ideje meg fölös energiája, have fun...!
Van az a mondás, hogy az optimista szerint a pohár félig tele, a pesszimista szerint félig üres, a mérnök szerint pedig a mérete a duplája a szükségesnek... ki-ki válassza ki a neki tetsző megközelítést...
(#23) ted_tris: ezzel csak annyit bizonyítottál, hogy vagy a PC vagy a konzolok működését nem érted, ha azt hiszed a bennük levő hardver direktben összehasonlítható...
-
ted_tris
tag
"hardver látszólag többre képes a PlayStation 5-ben, mint amit jelenleg ki tudnak hozni belőle például PC-s szinten."
A ps4 elott is valami hasonlo volt az abu fele a blabla . (Grafikai tech bullshit, gddr memoria elonye rendszer memoarkent etc.)
Aztan kiderult hogy egy nagy loszar.
Es mire kijott mar pc szinten egy ocskavas volt. -
K0vasz
aktív tag
most a ray-tracing vonaltól eltekintve (lévén, hogy elég jól paraméterezhető - pontosság, mekkora legyen a sugár útja stb. - nyilván beállítható a dolog úgy, hogy csak 10% teljesítményt zabáljon fel), azért ez a 22 TFLOP elég hihetetlenül hangzik - ez több mint kétszer annyi, mint az alig egy évvel ezelőtt megjelent csúcskártyájuké, és a 2080ti-t is durván kenterbe veri
az AMD eddigi megjelenéseit alapul véve igencsak szkeptikus vagyok, és nemhogy nagy, de kis összegben se mernék fogadni rá, hogy egy ilyen teljesítményű kártya tényleg megjelenik idén ősszel, de azért persze remélem, hogy így lesz, mert különben az nvidia megint nagyon "elszemtelenedik" -
dagonya
aktív tag
válasz
szmörlock007 #17 üzenetére
szerintem fölösleges arra energiát pazarolni, hogy megpróbáld másoknak meghatározni mit olvassanak, meg mit kommenteljenek. mindenki okos nagyfiú, majd eldönti önállóan.
-
echterion
nagyúr
válasz
pengegyerek #19 üzenetére
Örök klasszikus: amíg mást fikázik, addig sem kell a saját sz*rára figyelni.
-
Shing
őstag
Sztem tökmind1 ki mennyit fejlesztett papíron. Jön a nextgen, még részletesebb modellek, ráadásul sokkal több szétszórva, nagyobb látótáv, stb. Mire beért az RT teljesítmény, már kevés is lesz. Vagy nagyon minimálisra kell fogni, csak akkor meg mi értelme, nem látványos az előző megoldásokhoz képest.
Az lenne a jó ha besüt a fény az ablakon és szanaszét verődik a fény egyik felületről a másikra. De árnyékoknál is pl. 2 árnyék összeérve sötétebb lehet, stb. Nagyon messze van még egy full blown, realisztikus RT. Azt pedig nem fogja bírni sem új GPU, sem konzol.
Én majd veszek vmit 2-3 széria múlva, az remélhetőleg már sokkal jobb lesz és az API-k is fejlődnek. -
szmörlock007
aktív tag
válasz
Predatorr #10 üzenetére
Hát engem érdekel a téma speciel, úgyhogy ha valakit nem mozgat meg nem tudom miért kell rámenni a cikkre. Pl van ez a "5 GB/s-os SSD-t újított be a Silicon Power" cikk, mivel engem ez jelen pillanatban nem izgat ezért nem mentem rá és nem kezdek a kommentszekcióban puffogni.
-
Abu85
HÁZIGAZDA
A DXR 1.1 ugyanúgy megengedi, hogy a hardveresen nem támogatott részekre írj egy szoftveres megoldást, ahogy a DXR 1.0 megengedte. Tehát amelyik hardver képes legalább a compute shaderre, annak csak egy driver kell a DXR 1.1-hez is. A kérdés, hogy kap-e drivert, illetve ha kap, akkor milyen sebessége lesz. Ha jó sebességet akarsz, akkor új hardvert veszel.
(#13) b. : Az éppenséggel kompatibilis vele. Az hardver szálkezelésének ütemezésével lesz majd a gond. Mivel a Turing fő optimalizálási ajánlása, hogy a hit/miss shadereket kötegeld, nyilván nem tesz majd neki jót egy olyan API, ami a kötegelés lehetőségét nem is tudja biztosítani. Az egyik fő sebességnyerő optimalizálást nem tudod végrehajtani Turingra. Az újabb hardvereknek erre nincs is szüksége amúgy, tehát nem véletlenül alakult ez így át.
-
Abu szerint nem kompatibilis vele a célhardver.( Az RT gyorsító struktúra) amúgy Nvidia szerint de igen,és úgy általában azt nyilatkozzák a szakemberek, hogy a világ első Dx 12 ultimate kompatibilis Architektúrája a Turing és ebbe bele tartozik a DXR 1.1 is.
[link]
Valószínűleg így is van, ami kérdéses a sebesség. AZ biztos, hogy az új érkező architektúrákon nagyságrendileg gyorsabb lesz. Ugye eleve a RDNA 1 nem kompatibilis a DXR semelyik verziójával jelenleg tehát az biztos, hogy ebből a szemszögből is és a Dx 12 ultimate egyéb újításaival szemben is elmaradottabb arhitektúra.
érdemes várni talán , ha a DXr fontos, ha esetleg a DX 12 U egyéb dolgai számítanak akkor nem biztos annyira. -
flexxx2
őstag
Ahogy értettem, akkor a mostani rtx2000es csak a dxr1.0-át tudja. Vagyis érdemes várni.
-
válasz
Predatorr #10 üzenetére
Nem ertem a problemat, szerintem egy ha az internet nepe vegtelen bolcsessegeb felkap egy temat, ami nyilvanvalo baromsag, akkor egy szaklap nemcsak hogy lehozhatja, de konkretan le kell hozza, hogy ez itt a pletyi, es konkretan ezert meg ezert baromsag.
Szerintem ez egy jo cikk, aminek itt a helye igy es ebben a formaban. -
Yany
addikt
Én bírom az ilyen latolgatós témákat, nem értem, hogy mi bajotok ezzel. Néha már tényleg olyan érzésem van, hogy divatfika megy. Tök korrekt kis anyag, ráadásul ad egy kis képet a motorháztető alól is.
-
Predatorr
őstag
Megint sikerült lehozni egy nyilvánvaló kamut.
-
saelin
veterán
Ezek szerint két tükör szembenállításával hasra lehetne vágni bármilyen hardvert?
-
snecy20
nagyúr
Én sem értem miért született cikk egy eleve fake-kategóriás leak nyomán.
-
Yutani
nagyúr
válasz
Petykemano #1 üzenetére
Jól teszi, mert a találgatósokban vad találgatások mennek ezekről a dolgokról.
-
válasz
Petykemano #1 üzenetére
igen, csak így tovább.
-
Petykemano
veterán
Tényleg uborkaszezon van, ha Abu olyan jútúberek anyagaira reagál, amit a jútúber is úgy prezentált, hogy összességében valószínűleg inkább fake.
De én azért örülök, hogy Abu elmondja a véleményét, meglátásait.
Új hozzászólás Aktív témák
- Milyen billentyűzetet vegyek?
- Luck Dragon: Asszociációs játék. :)
- One mobilszolgáltatások
- Építő/felújító topik
- Hitelkártyák használata, hitelkártya visszatérítés
- Milyen alaplapot vegyek?
- Motoros topic
- Sweet.tv - internetes TV
- Szeged és környéke adok-veszek-beszélgetek
- Kiemelkedően csendes ASUS VGA jött a Noctua közreműködésével
- További aktív témák...
- DELL Precision 7540 - Intel Core i9-9980HK, RTX 3000 (nagyon erős GPU-val)
- Eredeti, új Lenovo 330W töltők - ADL330SDC3A
- iKing.Hu - Samsung Galaxy S25 Edge Használt, újszerű állapotban 12 GB RAM / 512 GB tárhely
- Dell és HP szerver HDD caddy keretek, adapterek. Több száz darab készleten, szállítás akár másnapra
- Dixit 4 Eredet (bontatlan, fóliás kártyacsomag)
Állásajánlatok
Cég: FOTC
Város: Budapest