-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Dtomka
veterán
Hát ez nagyon jó. Tudom nem teljesen illik ide, de jó nézni, hogy a semmiből mit hoznak létre
Speed Level Design - Overgrown Ruins - Unreal Engine 4Brutál jó engine ez az UNREAL 4
Unity vs Unreal | Graphics Comparison -
BiP
nagyúr
válasz Crytek #18377 üzenetére
(#18377) Crytek:"Rohadtul remélem hogy nem mert ha igaz akkor még nagyon sokat kell várni egy értelmes 4K-s kártyára és akkora a kutya se veszi meg a vér gyenge 2080ti-t márha lesz ilyen...."
(#18378) Ren Hoek:"Viszont így az 2080 nem lenne rossz cél 4K belépőre."
"azért 4K-ra már jól lesznek kompromisszummal."Viccesek vagytok
Vagy a ti igényeitek vannak nagyon elrugaszkodva vagy én vagyok igénytelen.
Nem azt mondom, hogy nem lehet a teljesítményt fokozni, de egy 1070-nel már el lehet kezdeni 4K-zni, ezt nevezném inkább belépőnek. Érződik, hogy kéne még kraft, de elfogadhatóan fut vele.
A 1080-nal érezhetően gyorsabb lett, én elégedett voltam. De gyanítom a nagyobb igényűeknek sem lett lassabb a 1080Ti-n, és a 2080 is biztos még jobb lesz. Erre meg itt megy a belépőzés, meg a gyengézés a leendő 2080Ti-re is. -
Crytek
veterán
G-sync monitor árak az egekben... 1080Ti 4k tesztekből kiindulva elég oda a 60hz is... Sok játékban a 4k 40-60 között mozog és ha hzen gsync nélkül van ám tőrés szépen. És igen lehet magadat nyugtatgatni szépen, hogy ha butitgatot gyorsabb lesz, de 300 ezerért vett VGAval akar a tököm butitgatni...
Next PC Upgrade: 2022
-
VTom
veterán
Ez azért van, mert a 4K 60fps mindenkinek a 4K minden maxon 60fps-t jelenti.
Hozzáteszem, hogy a leghangosabbak 90%-a fullHD-n játszik, ráadásul sokuknak a minden maxon azt jelenti, hogy SSAA maxra tekerve, mert a minden maxban az is benne van.A 1080Ti nálam elég 3440x1440 100Hz-re, ami másodpercenként ugyanannyi pixel leszámolását jelenti, mint a 4K 60Hz. 4K-n ráadásul alapból kikapcsolnám az élsimítást, max egy FXAA-t kapcsolnék be, aminek kb. zéró erőforrásigénye van. Aztán ha még így is sok, akkor ki kell kapcsolni pár effektet, és már meg is van a stabil 60FPS.
Az a baj, hogy irreális igényeket támasztanak a GPU-kkal szemben a userek, és ezek az igények a legtöbbször indokolatlanok.
Persze most biztos megkapom, hogy bezzeg a mafia 3 még fullHD-ben sem tud 60fps-t a 1080Ti-vel, de ezt meg inkább hagyjuk is.
Ha a 2080 kb. 10-15%-kal erősebb lesz, mint a 1080Ti, akkor a 2080Ti kb. 50%-kal gyorsabb lehet, mint az elődje. Szerintem ez bőven elég indok lehet a váltásra, és szép teljesítmény növekedés,és ne felejtsük el az architektúrális különbségeket sem (pl. raytracing, és egyéb nyalánkságok)
Everybody has a plan until they get punched in the mouth.
-
VTom
veterán
válasz keIdor #18407 üzenetére
Így van.
Valahol olvastam egyszer (sajnos forrást már nem tudok) hogy a fejlesztők a high beállításokra optimalizálják a játékokat.
Ergo minden ami high preset feletti effekt, az sok erőforrást fog kérni.
Ezek szoktak lenni az SSAA, az nvidia árnyékok, a tressFX, és társaik.Everybody has a plan until they get punched in the mouth.
-
MODERÁTOR
Erős a gyanúm, hogy 1080 lesz a befutó nálam. Ha árban és teljesíményben nem dobbant a 1170 / 2070 akkor nem lesz értelme...
"Ott szimatol a sarkadban vasfogait csattogtatva, minden egyes hétköznapod: kirúzsozott medvecsapda."
-
BiP
nagyúr
A 2070 valamivel gyorsabb lesz, kérdés, mennyivel lesz drágább.
(a fauv által linkelt táblázat viszonylag hihető.)Az a tippem, hogy a 2 generáció kártyái jól le fognak fedni minden szegmenst, egymás közé beékelődnek teljesítményben. De úgyis mindent majd az árcédula fog eldönteni, meg hogy mikor vezetik ki a régi kártyákat.
De megint az van, hogy a 60-as, 70-es kártyák között túl nagy a lépcső.[ Szerkesztve ]
-
Jackx
tag
A 60-as és 70-es kártyák esetén nem csak teljesítményben, hanem árban is nagy a lépcső Én a gtx 760 kártyámat azt hiszem 60 ért vásároltam, míg a 770 már 100 körül volt. Másfélszeres ár, de teljesítményben azért nem volt gyorsabb 50%-al.
Szerintem teljesen jól volt mindig is az árazás. Akik nem tudnak, nem akarnak sokat költeni, xx50 vagy xx60 szériát vásárolnak. Ha extra teljesítményt akarsz, fizesd meg a felárat is. Ha a maximálisat akarod, akkor meg aztán végképp
-
BiP
nagyúr
Én azért csodálkozom ezen, mert nekem sokszor volt már olyan, hogy a 60-as kártya teljesítménye kevés volt,de a 70-es drága. (lásd 760 770 esete). 660-ból annó még volt Ti verzió, az újabbakból is lehetne/lehetett volna. Főleg, ha ekkora a szakadék a 2 kategória között.
Nem baj, most a 2060 meg a 2070 közé beékelődik a 1070 meg a 1080.
-
RazoR
veterán
Valami készül, face-en minden gyártó és egyéb hardverrel kapcsolatos oldal profilképe bezöldült...
-
fauv
őstag
Ez a szakadék mindig is meg volt, főleg az alsó rétegnél, hisz a 960 vs 970, vagy az utánuk következő 1050Ti vs 1060. Most viszont, ha a 2050-es teljesítménye ténylegesen megközelíti az 1060-as szintjét és ehhez párosul egy 50-55 ezres ár, akkor a Magyarországi viszonyokat figyelembe véve az átlag felhasználók 80%-át lefedik vele. Ha a 2060-as is 85-90 ezres kategória lesz, azzal elérhető lesz egy új világ sok ember számára. Nem a 4k-ra gondoltam. E fölött már a nagyobb igényekhez nagyobb árcédula dukál. És ez így jó is lesz.
[ Szerkesztve ]
-
A 760 és a 770 között pont nem volt egetverő különbség, mert ugyanazt a GPU-t használták, a 760 lényegében a 670 átnevezése (kicsit átkonfigurálva, de a teljesítménye nagyon hasonló), a 770 pedig a 680 átnevezése (kicsit megtuningolva). A 660 és a 660Ti között ellenben semmilyen rokonság nincs, a 660Ti a 670 butítása (csonkolt memóriabusz), a sima 660 pedig egy sokkal gyengébb GPU-t alkalmazó kártya volt. Ez csak egy nevezéktani félresiklás volt akkoriban.
-
Televan74
nagyúr
Fauv által linkelt táblázatot nézve valami motoszkál bennem. Ugye az RTX a Ray Tracinget használó kártyákat jelöli az előzetes találgatásokban. Akkor a GTX2060 -ban elképzelhető hogy nem lesz Ray Tracing? Ha kell az extra feature akkor vedd meg minimum a RTX2070 -et?
Mert ha ez igaz lesz akkor a Ray Tracing nem fogja megváltani a világot,a játékfejlesztők nagyon kevés effekthez fogják használni csak.Hasonló lesz mint PhysX,jó lesz,de ha kikapcsolom nélküle is lehet élvezetes a játék.Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
Jack@l
veterán
válasz Televan74 #18416 üzenetére
DXR az nem effekt, hanem full rendert takar. Raytracinget tudja minden kártya ami opencl vagy cuda képes.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
Abu85
HÁZIGAZDA
válasz Televan74 #18416 üzenetére
Maga az RTX egy buzzword. Valójában a DirectX Raytracing, azaz a DXR a lényeg, mert azt RTX nem más, mint erre egy driver, csak az NV nem drivernek hívja, hanem RTX-nek, de ettől még nem lesz több egy drivernél. Na most maga a DirectX Raytracing kétféle módot támogat. Egyrészt van a fallback layer, ami tulajdonképpen önmagában egy amolyan univerzális driver, és ez minden compute shadert támogató GPU-n futtatható. A másik módban a gyártók bizonyos feladatokat kihelyezhetnek gyorsításra, ettől még mag a sugárkövetés marad compute shader, tehát egy ilyen GPU itt is kell, de például a ray-triangle intersection, a denoising, stb, implementálható driverben. Ezeket egyébként maga a fallback layer is implementálja csak compute shaderben. Nyilván utóbbinak az a hátránya, hogy nem tud hozzáférni a hardverek speciális képességeihez. A Microsoft a driver szempontjából sok mindent elfogad. A sugárkövetés van compute shaderhez kötve, méghozzá 32 bites lebegőpontos formátumban, ami végeredményben a DirectCompute API-n fog működni, de ezen túlmenően más szempontból szabad a választás, tehát mondjuk a denoisingot az NV kirakhatja a Tensorra, az AMD használhatja hozzá a speciális SAD/QSAD/MQSAD utasításait, stb (maga a denoising a fallback layeren SAD-dal van implemetálva). A ray-triangle intersectionre is lehet speciális hardvert használ.
Effektíve tehát a DXR a DirectCompute API-n fut, és egyes funkcióira lehet natív, hardverhez közeli implementációt írni.Az NV a SIGGRAPH-on megerősítette, hogy a DX12-t támogató hardvereknél a Fermi, Kepler, Maxwell és Pascal a fallback layert használja, míg a Volta és a Turing kap drivert. Ezt hívják RTX-nek. Az Intel a fallback layerre utalja magát teljesen, míg az AMD a GCN-ekre hoz drivert, így ők a fallback layert egyik hardverükhöz sem használják.
(#18417) Keldor papa: Igen és nem. A teljesítmény nem egzakt tényező. Ha a ray-tracing effektek mondjuk 20 ms-ot igényelnek, akkor meg lehet csinálni azt, hogy a jelenet geometriáját, illetve a raszterizálást annyira lebutítsák, hogy az meglegyen 1 ms alatt. Tehát ez egyfajta játék a minőségre vonatkozó egyensúllyal. Ezért sem túl erős a Metro Exodus geometriai és textúrarészletessége [link], ahhoz, hogy a sugárkövetés normális sebességgel működjön, butítani kellett minden mást.
Két kritikus tényező van egyébként. Nem lehet túl sok geometria a jelenetben, mert a DXR csak nagyon memóriapazarló vertex formátumot támogat, illetve mivel a vertexek szempontjából pazarolja a memóriát, így a textúrákat is vissza kell fogni, hiszen eléggé kevés VRAM áll majd a streaming rendelkezésére. Ezért volt tervben anno 24-48 GB VRAM, de a memóriaárak közbeszóltak.[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Televan74
nagyúr
válasz Jack@l #18418 üzenetére
Ok, akkor marad a sznobság faktor számomra,mint elfogatható tény a más elnevezésre.Nekem RTX -.em,neked meg csak egy kis GTX -ed!
Bár nem lehet még tudni mi áll a koncepció mögött,vagy csak egy marketinges agymenésről van szó. Vagy csak én képzelek túl sokat a dolog mögé.Majd kiderül.Abu85 Köszönöm a hosszas okítást. Sajnos még mindig nem kaptam választ arra a feltevésemre,hogy miért kell külön elnevezni. GTX(2060) -re és RTX(2070) -re,ha mind a kettő tudja azt amit leírtál.
[ Szerkesztve ]
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
válasz Televan74 #18420 üzenetére
Én látom értelmét, hogy bevezetnek egy új jelölést, mert a GTX-et igencsak elcsépelték avval, hogy ilyen 1050 kaliberű kártyák is megkapják. Régen ugye, amikor az első GTX kártya megjelent (7800 GTX), kifejezetten a legerősebb típusokat képviselte, alatta volt a GT és az időközben kivezetett GTS elnevezés. Aztán szépen-lassan leszivárgott a GTX a közép- majd az alsó-közép kategóriába, a GTX 550 Ti volt az első, meglehetősen vérszegény teljesítményű kártya, ami megkapta ezt az elnevezést (ráadásul még Ti is volt, amit pláne nem érdmelt meg ).
Szóval szerintem ideje volt váltani, viszont az RTX szerintem nem szerencsés abból a szempontból, hogy túlságosan hasonlít a Radeonok RX elnevezésére.
-
Abu85
HÁZIGAZDA
válasz Televan74 #18422 üzenetére
Nincsenek árak. De a memóriaárak alapvetően beleköptek a levesbe, hiszen a DXR vertex formátuma tényleg brutálisan memóriaigényes. Jobb lenne a minél több memória, de járható az az út is, hogy a textúrák felbontása lesz feleakkora. Ezek kezelhető dolgok szoftveresen is.
Hosszabb távon egyébként ez meg lesz oldva, mert a DXR következő nagyobb frissítésébe már bekerül a 16 bit snorm, de ez 2020 előtt nem történik meg. Addig csak 32 bit float van, mert a 16 bit float az túl ronda.Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Jack@l
veterán
válasz Televan74 #18420 üzenetére
Be van kapcsolva egy gyorsítás ami elvileg a raytracing egyes részfeladatait(nagyobbik felét) 6x -os sebességel tudja végrehajtani. Ennyiben különbözik.
[ Szerkesztve ]
A hozzászólási jogosultságodat 2 hónap időtartamra korlátoztuk (1 hsz / 10 nap) a következő ok miatt: Az ÁSZF III 10/8. pontjának megsértése - trollkodás - miatt. Többször és többen is kértek már, hogy hozzászólás írásakor használd a linkelés funkciót, mert ennek elmaradása sokak számára zavaró.
-
westlake
félisten
Szerintem az RTX csak a WCCF-nél "akadt" be. Kaptak valami hint-et (még a Quadro release előtt), amit összekötöttek az új gamer kártyákkal. Nem hiszem, hogy lenne RTX GTX, meg sima GTX. Az RTX az új Quadro család jelölése.
Play nice!
-
carl18
addikt
válasz westlake #18426 üzenetére
Hát azért 5 nappal a megjelenés előtt érdekes volna ha a új kártyáról nem jött volna igazi info
Asszem úgy lesz hogy a nagyobb keményebb kártyák kapják az RTX nevet, például RTX 2080-2070.
A GTX 2050 marad a GTX, de a neve ugyan mindegy csak marketing. Teljesítmény és az ár számít a többi nemTuring a gpu család neve az eddigi információk szerint
[ Szerkesztve ]
Hiába szúr, itt Ryzen a úr!
-
Televan74
nagyúr
Pletyka! [link] - 2080Ti morzsák.
Amikor nincs remény! Jusson eszedbe nincs isten, csak én!
-
BiP
nagyúr
(#18415) GAI: 760-ra: jogos. rosszul emlékeztem (6-os széria után 960-ra váltottam, kimaradt a 7-es, pont azért, mert nem érte volna meg a váltás).
Viszont a 660Ti - függetlenül a technikai paraméterektől - egy jó kártya volt, mert be tudott ékelődni a 660-670 közé, anélkül még nagyobb különbség lett volna. És így meg lehetett kapni egy 670-hez közelebbi teljesítményt megfizethetőbb áron.(#18414) fauv: Igen, egy 100e alatti 2060 új dimenziókat nyitna meg sokaknak. WQHD-ban már tök használható teljesítményt hozna, aki meg fullHD-zik, annak meg elérhető vele a >60fps.
(#18417) Keldor papa: jaja, a valódi felhasználáshoz kell még néhány év.
Itt mutogatják, mit tud realtime-ban, mindenki hüledezik, ahogy a megszólaltatott grafikus is, de úgy kommentálja, hogy elképesztő lehetőségek lesznek "az elkövetkezendő évtizedben".
Tehát jó az irány, de még az elején vagyunk.(#18419) Abu85: Az a baj ezzel a Metró demóval, hogy semmi olyat nem látok benne, amit az eddigi eszközökkel (értsd: rtx nélkül) nem tudtak volna megoldani. Vagy legalábbis semmi olyan látványos pluszt. Ellenben a butítás (textúra, geometria) sokkal szembetűnőbb, és ezáltal az összkép is gyengébb.
(#18420) Televan: mint anno a GT és GTX. Érezd, hogy magasabb kategória.
Csak azóta elcsépelték, ahogy GAI is írja.[ Szerkesztve ]
-
syberia
veterán
válasz Televan74 #18429 üzenetére
2500 MHz Akkor nem kell már sokat várni a 3 GHz kártyák korszakára.
(#18385) t72killer: Az aprón alig drágábbak a 1060 3 Gb karik, mint a 1050 Ti. Ha a tudjuk kik tömegesen elkezdik eladni a tudjuk mire használt kártyáikat, akkor érdekesen fog alakulni a használt piac.
[ Szerkesztve ]
https://howbad.info/
-
Ren Hoek
veterán
"Viccesek vagytok
Vagy a ti igényeitek vannak nagyon elrugaszkodva vagy én vagyok igénytelen."
Nem olvastad el, hogy mire írtam ezt.
Abban a hsz-ben a 2080 == 1080 Ti + 8%
Erre mondtam, hogy ez tökéletes lenne 4K-ra pár effektet lebutítva, hogy meglegyen a 60Hz. Nekem pusztán ennyi az elvárásom, és ez is brutál erőforrás igényes... de az 1080 Ti ezt hozza, finomhangolva.
Ez csupán ízlés kérdése, hogy mennyire akarod butítgatni 4K 60 Hz-re a grafikát. Sajnos az LG 4K OLED TV nem GSynces, szóval a 4K 60Hz tearing nélkül nekem alap.
A kompromisszum az, hogy elkezded visszavenni a beállításokat. Azt ne mondd hogy az 1070-nél ez nem NAGY kompromisszum. Tudom nekem is volt. 1080 már közepes. 1080 Ti pedig minimális kompromisszum.
Ehhez mérten bármelyik 20xx ami ezt hozza már tökéletesen jó 4K 60 Hz-re.Ha ezt 200 körül megkapjuk, akkor nekem egy szavam nem lehet, mert még munkára is tudnám használni (deep learning + computer vision/image processing CUDA-n). Na meg egy modernebb arch, talán időtállóbb mint a Pascal.
...Ha elrugaszkodott igényeim lennének, akkor 1080 Ti +50%-ot mondanék 4K-ra.
[ Szerkesztve ]
-
Dyingsoul
veterán
válasz Televan74 #18429 üzenetére
Áhh végre valami nyalni való a Ti-kről, köszi a linket! Az mi, hogy itt a Ti (1E07) soraiban PCIe x16 2.0-át írnak? Valami nem kóser ezzel a táblázattal szerintem.
Azt lehet tudni, hogy 20-án pontosabban mikor kell figyelni magyar idő szerint a Gamescomot és a bejelentéseket? Streamelve lesz ez valahol?[ Szerkesztve ]
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
fonok87
aktív tag
válasz Dyingsoul #18436 üzenetére
6pm-Midnight CET, vagyis magyar nyári időszámítás szerint este 7-től hajnal 1-ig. Lesz élő közvetítés, de hogy hol, arról hallgat az oldal.
Szerintem esélyes hogy az nVidai főoldalán ott lesz a link hozzá, mint ahogy a Siggraph közvetítéshez ott vanszerk. wjbhbdux:
[ Szerkesztve ]
Truss me, I'm an engineer.
-
wjbhbdux
veterán
-
Ren Hoek
veterán
-
Abu85
HÁZIGAZDA
válasz Ren Hoek #18440 üzenetére
A memóriakapacitás. Az AMD-nek ez nem gond, mert lapalapú a memóriamenedzsment. Ergo nekik teljesen reális megoldás, hogy 4-32 GB közötti memóriát használnak HBM2-vel, mert ha nem elég, akkor a HBCC-ben beállítanak többet, vagy NAND-on raknak hozzá 1-2 TB-ot, elvégre van bájtszintű memóriakezelés is. Az NV-nek ez nem járható út, mivel a multiprocesszorokban Power9-hez való címfordítók vannak, illetve a beépített memóriavezérlő csak blokkszintű információkat kezel. Tehát ami az AMD-nek csak egy szoftveres probléma, az az NV-nek brute force módon kell hardverrel pótolni. És mindegy, hogy lassabb, többet fogyaszt, több helyet igényel, mert a kapacitásra való igény miatt erre kényszerülnek.
A Turingnak is van egy olyan képessége, hogy ha két 48 GB-os Turing Quadro kerül egymás mellé, akkor az egyik GPU használhat 96 GB memóriát, ha a másik GPU éppen nem dolgozik. Ez direkt arra van, hogy ha nagyon kell a memória, akkor biztosítható legyen a felszereltnél több, mert az NV-nek nincs a driverben egy szimpla csúszkája erre. Azt nem tudom, hogy ezt a képességet átmentik-e asztaliba, de alapvetően így bővíthető az NV-nél a VRAM.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Dyingsoul
veterán
válasz t72killer #18442 üzenetére
A korábban linkelt táblázatban szerepelt az NV link is mint oszlop.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
Abu85
HÁZIGAZDA
Nyilván csak pletyka, de az biztos, hogy a GDDR6 túl drága ahhoz, hogy consumer kártyára sokat lehessen rakni. Még a GDDR5 ára is egészen magasan van. Tök jó lenne 16-24 GB-ot rakni rá, ahogy tervezték, de amikor tervezték, akkor még nem ilyen drága memóriaárakkal számoltak. Ez a tényező azért nagyon erősen beleszól a végeredménybe. Ráadásul a GDDR6-nál az árnyékolás sem olcsó mulatság.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
keIdor
titán
Semmi akadálya annak, hogy jöjjön 8GB variáns mellé egy 16GB-os 256bit-nél, és egy 24GB-os a 12GB mellé 384bit-en.
Csak nyílván gondolom az 1000-1500€ közötti ár ilyenkor borítékolható lenne.
fauv: GTX-1080Ti 11GB, GTX-1060 5GB... meg tudják oldani, a memórián tudnak sokat spórolni.
[ Szerkesztve ]
¡GLORIA A LAS PLAGAS!
-
Petykemano
veterán
"11GB az új kártyán?"
Semmi gond, nyugi. Ennek nem az lesz az eredménye, hogy az AMD szuper HBCC megoldásával akár csupán 4-8GB HBM2-vel a fedélzeten is majd előnyre tesz szert a 11GB-nál több RAM-ot igénylő játékokban....
hanem majd a fejlesztők szépen elkezdenek spórolni. Bele fog férni minden abba a RAM mennyiségbe, amit az nvidia az egyes kártyáinál kínál.
Találgatunk, aztán majd úgyis kiderül..
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Ozeki Kft
Város: Debrecen
Cég: Ozeki Kft
Város: Debrecen