Új hozzászólás Aktív témák
-
-
-
envagyok
veterán
válasz
flashpointer #144 üzenetére
Tényleg, azt tudja valaki miért is arrafelé áll az imazsámoly?
Miért szereti jobban az A betűst? -
Raysen623
addikt
Egy kis teszt az RTX-ekről. 20-30%-os gyorsulás.
-
Ribi
nagyúr
válasz
Fitzgerald #138 üzenetére
Akkor plz mutisd meg, hogy a deltaT tesztben hol mutatják, az általad említett SC2 (2 fanos) EVGA 1080 Ti-t?
Mert a hőmérséklet listában 2 EVGA van, egy 3 ventis jószág és egy hybrid. -
válasz
Fitzgerald #138 üzenetére
-
Fitzgerald
veterán
Még mielőtt újra sorbaállnál arroganciáért, javaslom nézd végig a videót. Egy SC2 (2 fanos) EVGA 1080 Ti szerepel a tesztben...
Kevesebbet eszik, mégis melegebb? Akkor van ám értelme a dolognak. Nem, nem gyorsabb nála. Videó.@b.
Annyiban igazat tudok adni Neked, hogy nyilván nem mindegy milyen tesztkörnyezetben végzik ezeket a méréseket. Én is láttam 85 fokos 1080 Ti-t, de pl. az én 1080 Ti-m egyszer nem nem ment 66 fok fölé még a referencia hűtővel sem, 100% load alatt.
Csak a hangja miatt cseréltem le egy Arctic Accelero Xtreme III-ra, és azóta 60 fölé sem nagyon ment...
A srácnak a videóban teljesen más értékek jöttek ki mint amiket itt linkeltél, szóval ja...valóban árnyaltabb kicsit a dolog. -
válasz
Fitzgerald #135 üzenetére
-
Ribi
nagyúr
válasz
Fitzgerald #135 üzenetére
És mégis melyik Ti-nél?
Egy 3 ventis 3 slotos szörnynél? Woa, ehhez aztán kellett előrelátás
Amúgy kevesebbet eszik nála szóval ez eléggé relatív. És és gyorsabb a 1080Ti-nél. -
Fitzgerald
veterán
Na, igazam volt, vagy igazam volt? A 2080 FE nem gyorsabb, viszont forróbb és drágább, mint az 1080 Ti. Pont.
-
Ja, nagyon érdekes, hogy az AMD multifunkciós ALU-kkal operál, míg az NV most már elég egyértelműen szétválasztja ezeket. De igazából az NV is multiprecíziósat használ. Itt ugye így néz ki:
FP64 mag
FP mag: FP32, FP16
INT mag: INT32, INT16, INT8, INT4 (és elvileg kísérletiként INT1)
+Tensor mag: 64 utas ALU-tömb, 4x4x4 mátrix FMA-ra
+RT magSzerintem nem overkill, logikus. Nekik leginkább az volt a cél, hogy az FP16 működjön hatékonyan, ezért leválasztották az egész INT-et. Hatékonyabb megoldás, főleg, hogy egyszerre tud működni az FP és az INT mag is.
A TDP szerintem rendben van. A base meg boost órajeleket nézd, sokkal nagyobb a különbség. Ha nincs kihasználva Tensor és az RT, akkor tud majd boostolni, viszont ha minden megy, akkor a boost órajelnek közelében sem lesz. Egyszerűen túl nagy a lapka ahhoz, hogy kordában tartsák a fogyasztást. Az INT és FP szétválasztás is leginkább a fogyasztásnak kedvez ugye.
-
Persze, azt a fene se gondolta, hogy negyvenféle különböző adattípusra lesz külön végrehajtó
Azt egy ideje lehet tudni, hogy az AMD-nek szívás a multiprecíziós ALU, de amit most NV-ék csináltak, az szintén túlzónak tűnik. Nagyon kíváncsi vagyok amúgy arra is, hogy a standard TDP-érték az a normál gaming terhelésre lett megadva, vagy valami erősebbre...
-
Igazából a Voltával úgy festett volna a dolog, hogy a 104-es chip kap 40% extra ALU-t - az eleve jobb esélyekkel indult volna nyers FPS terén.
(#122) b.: én továbbra sem hiszem el ezeket a számokat az ismert paraméterek mellett. Ha nem fake, akkor erős a gyanúm, hogy jóval magasabb órajellel mentek a tesztekben a kártyák, mint az 1800MHz. Ha mégsem, akkor az nVidia a DX10 korszak kezdete óta messze a legnagyobb előrelépést tette le uarch-ban.
-
-
a játékteljesítménye azért az új motorok alatt inkább 45-55 %, már ha igazak a leaked tesztek.
Az árával kellene kezdeni valamit, mert az viszont valóban sok.( 2080TI vs 1080TI- 4 K HDR)
BF1-57%
F1 2018-51%
COD WW2-62%
Hitman-52%
ME : Andromeda :-36%
ME: shadow war:- 55%
SW: BF2-51%
PUBG - 37%
R6 : 50%
TR:-38 %
witcher 3 : 39 %
Wolf II : 50%
Vmark: 68%
3Dmark: 47%
--------------------
49,5% -
Aha, így már érthető.
Itt látszik, hogy AA-ban a Fermi sokkal jobb, még a TeraScale-nél is. A DX10 alatt a Fermi csak 8-9%-ot veszít 4x AA-val, míg a Tesla 20-22%-ot. Nyilván ez architektúrák összehasonlításakor fontos tényező, csak szerintem ez érdemelne pár szót, mert nem mindenki használ AA-t, így a nyers játékteljesítmény szvsz AA meg egyéb opcionális trükkök nélkül számolandó.
Ja, nem akarom védeni a Turingot, csak a teljesítménybeli elvárásokat sokallom. Anno is mondtam, hogy a Volta nem lesz nagy szám, mert nincs csíkszél-váltás. Akkoriban annyi fasság terjedt (pl nagyon sokan az új gent 2017-re várták), meg irreális elvárásai voltak az embereknek, kb olyanok, mint az AMD-től. S most is értetlenkedés van, pedig csak kicsit kéne gondolkodni, hogy miért ilyen a Turing. Valamennyire bejött az, amit anno spekuláltam: [link] Csak ugye nem Volta, hanem Turing.
Az ára nyers játékteljesítmény szempontjából vicc. Talán a DLSS javít ezen kicsit, de az meg ugye trükközés és nem out-of-the-box működő feature. Az RT-vel magyarázható valamennyire az ár, de eddig elég siralmas eredmények voltak ebben, szóval ez sem igazán érv.
-
Igen, fullHD 4xAA volt. Nem volt abban szar a GT200 egyaltalan. A G92 inkabb.
Elvarni barmit lehet
Persze en ertem, hogy azonos csikszelessegen nehez, ok meg ertsek, hogy ha szar az ar / teljesitmeny gorbe, akkor szidni fogom oket. Az RTX szerintem nagyon igeretes, de ennek a generacionak az eleteben olyan nagyon rengeteg vizet nem fog zavarni, ugyhogy a felar racionalisan nem vedheto. Ez pont az a megkozelites, amiert az AMDt annyit szidom, miert tennek maskepp Jensenekkel?
-
core i7
addikt
Nem mindenki genenként cserél vga-t
Itt nem a +35% a nagy gond hanem az ár/érték arány inkábbkellene konkurencia mint Intelnél érdekes mikor AMD ryzennel magához tért hirtelen megkaptuk a 6-8 magot main vonalra Ez a turing egyébként is rövid életű széria lesz Pascalosoknak érdemes megvárni a 7 nanot amelyen szerintem egy jobb turingot avagy turing 2.0-át fogunk kapni 7 nanon magasabb órajellel jobb RT vel
-
core i7
addikt
Így igaz mikor nincs gyártástechnológia váltás nincsenek akkora különbségek genenként GTX 600-700 vagy GTX 700 és GTX900 maxwellnél se volt akkora mint Kepler Pascalra történő váltáskor mert akkor órajeleket is jóval feljebb tudják tornázni
Itt turingnál inkább többet ésszel mint erővel mentek új technológiákat DSL RT + DX12 ben erősítettek próbáltak valami újat mert a 7 nano még jövőre lesz és kellett már valami a népnek na meg nekik is máni
-
A Pascal azért lett ennyi jó, mert új gyártástechnológiára váltottak. Ugyanígy volt a Tesla (65nm) => Fermi (40 nm) => Kepler(28 nm) esetén is. Új gyártástechnológiával lehet igazán nagyot lépni. A Maxwellnél enélkül sikerült. Turingnál nem, ezért hozták az RTX-et, hogy legyen valami új.
Én nem mondtam, hogy kötelező váltani Turingra. Csak leírtam, hogy mi a helyzet vele, miért ilyen. Nincs új gyártástechnológia, így nincs 50+ %.
A kép értelmezésére ott az agyad, hogy kiszűrd a lényegi infót. De le is írtam már szövegesen is többször, itt most az első bekezdésben is. Ne vessz el a részletekben, lásd a nagy képet. Az AMD meg... irreleváns és nem érdemel szót.
-
TTomax
félisten
"Maxwell-nél már ellőttek minden varázsport"
Aha,akkor a pascalt mégis hogyan abszolválták?BTW,ha nem kerülnek bele a csodaficsörök és nem pazaroltak volna erre ennyi tranyót akkor bizony most is meglenne a 70-90%.Nagyon konzekvensen ha az AMDt ekéztem a +35%+ficsörökért akkor az nVidiaval sem gondolom én ezt másként.Az egyszerűen csak továbbra is kevés,az csupán egy kategória ugrás,fordítsuk le ezt az egyszeri user nyelvére,ami eddig nem ment fényesen az ezután sem fog menni.Gondolj bele,te +35%ért cserélnéd a vgad ?Költöi,de persze hogy nem...Ahhoz hogy egy vgat megérjen cserélni kell a +50% ha nincs meg akkor olyan mehhh az érzés.Nem lesz ez így sikeres,hacsak a bányászok rá nem harapnak.
A képről meg értsd meg olyan vgak is szerepelnek rajta ami nem képezheti az összehasonlítás tárgyát a vitánkban. -
Túlvariálom? Szerintem nem bonyolult, ezért sem írtam le elsőre, hanem mutattam a képet, mert én egyből látom. Hiába akarsz 50+ %-ot megint, ha egyszerűen nem lehet, amíg nincs új gyártástechnológia amivel elférne egy értelmes méretű lapkán. Az NV nem tudott mást csinálni, csak ezt, a Maxwell-nél már ellőttek minden varázsport. Majd az Ampere vagy mi lesz a következő. Ott kapunk szokásos 50+ %-ot.
-
TTomax
félisten
Ha te már a GTX285huzod elö akkor a 480 helyett is tessék csak az 580at nézegetni,mert ahogy a tesla egy gpus csúcs a 285volt úgy a ferminek a GTX580.
(#113) lezso6
Túlvariálod,ne haragudj de sokadjára.Igazi csavaros magyar logika de teljesen felesleges.Semmi mást nem kell itt nézni csak és kizárólag minden GPU család legerősebb tagját,onnantól lefelé a skálázódás az mindig több esélyes,az aktuális piacpolitika befolyása alatt áll.Tehát...
GTX285 - Tesla
GTX580 - Fermi
GTX-780Ti - Kepler ( Titan )
GTX980Ti - Maxwell (TitanX)
GTX1080Ti - Pascal (Titan Xp)Itt és ezen a szinten minden váltásnál eddig megvolt az 50%,ez alatt nem éri meg váltani a csúcs kártyákat.Most úgy néz ki ez kb 35% lesz,és nem ezt szoktuk meg az nVidiatol.
-
Na, leírom, hogy mit látok a képen, mert úgy látszik csak én értem.
A G70-nel bezárólag CSODA jelleggel növekedett a perf / area azonos csíkszéllel számolva. Nevezhetjük ezt a grafikus kártyák aranykorának.
A G80-nal jött a nagy lapkák kora 484 mm². Összehasonlításként az ugyanezen a gyártástechnológián készült G71 196 mm² (G70 die shrink), amihez képest a G80 ~140%-kal nagyobb, szóval a perf / area nem nőtt, de persze ez egy vadonat új architektúra, ilyenkor nem is érdemes ilyesmire számítani.
A GT200-at a G92-höz fogom hasonlítani, hisz mindkettő 65 nm. Így kijön 77%, itt egyértelmű a bruteforce taktika. Nincs csoda.
A GF100 / GF110 már más tészta, ugye itt új architektúra + 40 nm. Megint elvárható egy duplázás, bár a grafikonon csak 53% / 75% van, de ha így is van, megbocsájtható, hisz új arch. Ha ez valójában 90-120%, akkor meg jól sikerült a váltás. De nincs csoda.
A GK100 ugye nem volt, így a GK110-et érdemes hasonlítani a GF110-at, de megint ugyanazt történt a 28 nm-re váltással. Nincs csoda.
A GM200 olyan ugrást csinált új gyártátechnológia nélkül, amit a 7xxx széria előtt láthattunk csak. CSODA.
A GP102 pedig szintén ugrott, hisz a 28 => 16 nm igen nagy ugrás.
És akkor itt van a Turing, ami kapott egy halfnode-ot a 12 nm személyében, ami a szám ellenére minimálisan kisebb a 16 nm-nél. Így eddig soha nem látott méretű böszmeteg lapkát kapott a TU102, de a plusz területet nem ALU-val, hanem Tensorral és RTCore-ral töltötték ki, s jött az RTX marketing. S ez a legjobb lépés, hisz ha plusz ALU-kat kapnak, akkor brutál módon elszáll a fogyasztás, ami garantált bukás. Nincs csoda.
-
Itt nem igazán értem hogy jön össze az a brutál 91% GTX 280 és GTX 480 között. 4x AA?
Mert ezzel így inkább azt méred, hogy a GTX 280 mennyira szar, ha AA-ról van szó. 1440p-ben AA nélkül itt is 56%-ot mértek, s mivel GTX 285, így 10%-ot érdemes rádobni, de így is csak 71%. Mondjuk ez már több, mint 52%.
Igen, de az 560 Ti vs 770 (680) illetve 580 vs 780 Ti esetén nem meglepő a 80-90% (a képen is rajta van ez, csak össze kell szorozni a számokat), hisz ott volt egy gyártástechnológai váltás, aminek köszönhetően ugyanarra a lapkaméretre kétszer annyi tranzisztor kerülhetett. Ez úgymond kötelező, hisz 40 nm => 28 nm, erről beszélek itt, hogy a Turingtól nem érdemes várni extra pluszt 7 nm hiányában.
Viszont a Maxwell meg arról szólt, hogy gyártástechnológia-váltás nélkül hozzanak hasonló eredményt, és sikerült. A Maxwell-Pascal meg szintén ugyanaz, mint a Fermi-Kepler. A Volta / Turing esetén ezt nem lehet elvárni. Meg most volt nemrég cikk, hogy állítólag a Turing eredetileg 10 nm-re lett tervezve, ez pedig sok mindent megmagyaráz.
szerk: kicsit szerkeszgettem, mert meglehetősen offenzívnek tűnt a hsz-em.
-
A méréseket a hardware.fr-ről importáltam.
A Fermi-Kepler-Maxwell-Pascal négyes (ill. csak az első három) azért trükkös, mert a Keplerből és a Fermiből két változat volt, úgyhogy bármit hasonlítasz bármihez, nem nehéz belekötni.
Az F->K összevetésben meglepő módon ugyanaz jön ki kétféleképpen is: az 560Ti vs 770, valamint az 580 vs 780Ti 85-90% előrelépést mutat.
K->M esetén az előrelépés 50-55% vagy kb. 60%, attól függően, hogy a 980-at a 680-hoz vagy a 770-hez hasonlítod. A 980Ti előnye a 780Ti-hez képest kb. 50%.
A M->P vonal a legtisztább, itt 65-70% a generációs nyereség. -
#00137984
törölt tag
Ezeken az új Turing lapkákon (TU102,TU104,TU106) optimalizáltak és bővitették, kiegészitették a gyorsitótárakat. Shaderek száma majd állandósulni látszik, de közben bővitették a tudását. Egy-két kifejezést majd ezután máshogyan értelmeznek, mert eddig a CUDA magok száma utalt a teljesitményre, de most majd a Tensor egységeket kell figyelembe vennünk. A másik ilyen változtatás az egységes gyorsitótár párhuzamositása (pont mint a tesszallátoroknál láttuk). Harmadik számomra még érdekes dolog a videóteljesitmény további javitására tett fejlesztések. Az NVENC hardveres kódoló jobb kompatibilitást és talán jobb képminőséget biztosit. Most még egyelőre ezek az újitások érdekelnek, de egyelőre ezért nem tervezek RTX 2070-re váltani.
-
paprobert
őstag
Azért nehéz értékelni ezt, mert bár tudjuk hogy mik a csúcslapkák, a piacon lévő termékek leváltak a fejlesztésekről.
Az elnevezés, a leszolgáltatott teljesítmény, a mögötte lévő techológia, az ár mind annak függvényében kerül kialakításra, hogy árbevétel szempontjából mi a jobb. Legtöbbször felfele nyújtják a termékpalettát, várnak az olcsóbb, 'good enough' kártyák kihozatalával.
Az nvidia stratégiája az, hogy nyitnak a felsőházban egy csúcskategóriát elszállva, és alá behozzák a régi tier+1 teljesítményt tier+1 áron. Így ha eddig mindig *70-es kártyát vettél, akkor arányaiban már a régi felfogás szerinti *80-as kártyát veszed, *80-as áron, gyakorlatilag tudat alatt terelve a nagyobb vásárlásokba.
Külön trükk, hogy a jobb ár-érték arányú kártyák csak jóval később jönnek. Simán elég lenne valakinek a 2060 is, de az időhúzás, a játékosok kiéheztetése, és a 2070 ár-érték bajnok szugerálása mind a taktika része. Fél év elég erre, hogy bevésődjön. -
Ja, tényleg akkor még csak sima Titan volt. Már megszoktam, hogy van utána valamilyen betű.
Muti légyszi valami tesztet, ahol megvan hogy mivel tesztelnek és más az eredmény. De egyébként maga a GTX280 - GTX480 viszonya nem lényeges a Turing szempontjából. A Fermi-Kepler-Maxwell-Pascal négyesnél kell nézni a számokat és azt, hogy most nincs 7 nm. Nincsenek már olyan csodák mint régen. Ahhoz új architektúra kellene.
-
TTomax
félisten
Sajnos te nem érted,nem tudom világosabban leírni,a tálkázatod helytelen.Egy tákolmány,erre alapozod a véleményed,ennyi.Ismét felsorolom a sorrendet, GTX280-GTX480/580-GTX780Ti-GTX980Ti-GTX1080Ti,ha ebböl nem érted meg akkor sajnálom,legalább próbálj meg gondolkodni,észt nem adhatok az nekem is kevés van.
-
-
Vess erre egy pillantást (nm és mm² adatok kerültek bele):
A GTX 280-nal kezdődően vagy jobb gyártástechnológiával vagy extra lapkamérettel haladtak komolyabbakat előre. Kivétel a Maxwell, az egy csoda.
Ha az 1080 Ti-hez képest akarsz +50%-ot, akkor annak lapkaméretét kb ugyaennyivel kell szorozni. 471 mm² * 1.5 = 700 mm². Ez azért eléggé bammeg kategória ALU-val teletömve vagy 400 wattot ehetne. Nagyon kíváncsi leszek, hogy a 2080 Ti mit művel, mert ez is 754 mm², de itt az ALU minimálisan hízott, fixfunkciós egységekkel (Tensor, RTCore) tömték ki, ezek pedig nem fognak egyszerre dolgozni mind, ha meg mégis, akkor a boost órajelet elfelejtheted.
-
Tesla / Fermi. Az volt igazán új arch bevezetése. na ott nem volt 50 %
40 % egy szép szám főleg csíkszélesség váltás nélkül, probléma jelenleg az árazással van.
ha ez 7 nm-n debütál, akkor ez a szám most szerintem minimum 50 % a legpesszimistább becsléssel is.. DE mit olvastál minden fórumon, mit halottál minden sajtótájékoztatón? mikor jön már az új gen, nem bírok várni, meg nem igaz hogy nem adja már ki NV. Ha most azt mondták volna, idén nem lesz új kártya család, szerintem sokan a kardjukba dőltek volna, pedig logikusan ezt kellett volna tenniük, mert pascalnak konkurenciája előrébb nem tart, 7 nm meg csak jövőre lesz TSMC-nél. EZ a Turing GPU meg egyértelműen nem 12 nm-re van kihegyezve. -
TTomax
félisten
válasz
Komplikato #93 üzenetére
Nehh már....
nézzük csak GTX280-GTX480/580-GTX780Ti-GTX980Ti-GTX1080Ti hol nincs itt meg az 50%?Ne keverjük ide az nV féle csúsztatást pl a 680al.... fermi/kepler/pascal/maxwell...hol nem volt meg az 50%????Jahh most nem lesz.
-
cheatergs
senior tag
Ehhez a grafikonhoz sokféle magyarázat kellene, mert a "teljesítmény összehasonlítása" címszó alatt eléggé anomáliákkal teli (Gef3 vs 4; Gef4 vs FX)
Meg nem ártana némi megjegyzés rovat is hozzá (pölö az FX miatt).
Az FX után a 6800 sem nem abban az értelemben szenzációs, mint a 7900GTX után a 8800GTX.
-
tisn
veterán
válasz
GypsFulvus2 #14 üzenetére
" Harmadik lehetőség nincs." Hogyne lenne! A Ramiris megmutatta az utat...
nyakukon maradt a sok banyaszkari?
-
TTomax
félisten
Ordas nagy csúsztatás van a grafikonban de ezt magad is leírtad.Az én véleményem meg az,hogy ha nincs meg az 50% előrelepés akkor az nem egy sikeres gen. váltás.A ficsörlistáért való ilyen jellegű sápoláshot az én gyomrom nem veszi be,a túloldalt is temettem érte itt sem teszek másként.
-
Ja, én a %-os gyorsulásra gondoltam, mint változás. Architektúrálisan ugye még mindig Fermi az alap. Bár ez persze azóta apránként persze rengeteget változott. De GCN is ugyanez, csak onnan hiányzik az a bizonyos maxwelles ugrás hatékonyságban, legalábbis ha játékokról van szó.
A Turingnál inkább a feldolgozók terén van komoly változás, de nem olyan architektúrális változás, mint a Tesla-Fermi. Inkább feature jellegű, ezért mondom, hogy olyan AMD-s.
A Tensor és az RTCore az feature. A többi az szokásos reszelés, bár azért a primitive shader meg az FP és INT szétválasztás kiemelendő.
A 7 nm-től olyasmit érdemes várni, mint a Pascalnál / Polarisnál. Erőből meg van oldva a plusz.
Én azt is el tudom képzelni, hogy a Turing 7 nm-re készült eredetileg, de végül előrehozták, mert miért ne. Így kimaradt a Volta-alapú GeForce, jött a Turing 12 nm-en, félnode-on, félkészen. Ez egy jó magyarázatnak tűnik arra, hogy miért ilyen böszmetegek a lapkák, miközben az RTX teljesítmény nem túl acélos.
-
Raysen623
addikt
Ha Navi-ról beszélünk akkor érvényes az 1 év, márpedig mindenki erről beszél a topicban. Részemről fogalmam sincs mit tudna hozni RT témában mondjuk a Vega a sok compute-al, ami benne van. Nem értek hozzá, ezért nem tudom mire fogható be igazán és mire nem (a korábban leírtakon kívül). Ha valaki ebben segítene tisztábban látni annak örülnék.
Azt viszont tudjuk hogy AMD a jövőnek fejlesztett nem ma hanem már 2 éve is a GCN -el amit évek óta csiszolgat. Lehet végre beérik belőle valami?
Amit Abu leírt az egy ideális eset amit akár meg is lehetne tenni ha nem lenne a Sony. De akkor meg mi lenne az Xbox portolással ami megint más kicsit? A kettő közé kellene lőni valamivel, és emiatt is van nehéz dolga a gyártónak.
-
Igen én is ezt írtam az Nvidia találgatósba épp tegnap., hogy Turing kb a Fermi szerepét tölti be. Maxwell is még ennek az alapjaira épült és annak a végletekig kicsiszolt és persze átalakított változata valahol. Legalább is szerintem.
Anno Fermi elég szarul indult aztán mi lett belőle, mikor beérett elég az utóbbi generációkra gondolni.
Turing ha így hoz 40 % -t az nem rossz és jövőre meg jön a továbbfejlesztett 7 nm TSMC nél, ahol egy ekkora GPU hatalmasat tud lépni előre. -
Kissé túlzó elvárásaid vannak.
Ehhez annyit hozzátennék, hogy ez a felső kategóriát mutatja. De ugye ha generációkat nézünk akkor a 780 vs 980 az lapka szinten nem fair, mert inkább a 980 Ti -hez kéne hasonlítani, szóval inkább ilyen 60% körüli számot képzelj oda. Illetve a 8800 széria jött először ilyen böhöm 500 mm2 GPU-val, előtte ilyen 2-300 mm2 volt max.
A Turing feature szinten előrelépés, AMD módra. Ami amúgy teljesen rendben van, hisz mást nem tudtak csinálni.
Maxwell előtt a Tesla => Fermi volt hasonló előrelépés, itt ugye új architektúra jött. Azóta lassan haladunk. A Maxwell sikerének titka az, hogy egy "mobile first" architektúra, s az NV talált valamit, amivel a skálázhatóság extrém mértékben biztosítható. Ennek hátránya a compute teljesítmény, de ezt a Pascal bepótolta. Utóbbi titka pedig a gyártástechnológiai váltás, amivel a perf / watt és az órajelek megugorhattak, lásd Polaris, ahol pontosan ugyanez történt.
-
Amúgy nyers játékteljesítményben (DLSS, RPM, stb trükközések nélkül), ha tényleg hozna 40%-ot, az odatoszna.
Nekem nem voltak elvárásaim anno a Voltával kapcsolatban, mert nincs gyártástechnológiai ugrás és ugye a Maxwellnél már eléggé kimaxolták skálázhatóságot, a Pascal inkább órajelek terén hozza a nagy pluszt.
-
Sinesol
veterán
válasz
Raysen623 #75 üzenetére
Elég borús az a jövő, ahol kb még egy évet kell várni uj videokartyakra az AMD-től, mert kb ezt jelenti a becslésed, hogy a nextgen konzolokkal egy időben. Már a Pascal-hoz képest is le vannak maradva, most meg már itt az új Nvidia generáció és igy akarnak kihuzni, egy marék semmivel semmivel egy évet? Nem hinném.
Egyébként meg nem épp ugy működnek a dolgok, hogy kivárnak és piacra dobnak valamit, mivel évekbe is tellhet egy uj lapka fejlesztése, szóval valószínűleg nagyrészt már készen van. Plusz a konzolos dolgoknak csak érintőlegesen van közük az AMD kártyákhoz, mivel azok egyedi designok és tengernyi dolgot azokból nem hasznalhatnak fel a saját kártyáikhoz, mivel vagy a Sony, vagy a Microsoft tulajdona.
Épp Abu irta nemrég :
"Az AMD szempontjából egyébként az lenne a legjobb, ha használhatnák azt a GPU-t, amit a Sony-nak terveznek. Tényleg, a Sony rak bele egy rakás funkciót, egy rakás szoftvert csinálnak hozzá, az AMD-nek csak ki kell adni az egészet, és a fejlesztőknek lehetővé tenni, hogy a konzolra írt kódot direkten futtassák rajta. Borzasztóan egyszerűen kapnának mindenkit agyonverő teljesítményt. De nem tudják megtenni a szerződés kötöttségei miatt. A Sony sose menne bele. Ők a PlayStationért dolgoznak, nem azért, hogy a Radeon legyen bitang erős. És persze az AMD-nek lehet, hogy ez egy nedves álom, de álom is marad."
-
Az egyre több leaked tesz alapján ami napvilágot látott az utóbbi napokban. Persze elég változó a kép, van ahol 25 van ahol 50 % [link] Ha olyan cím kerül bele a tesztbe, ami profitál az új Archból akkor jelentős az ugrás, ha régebbi címekre alapozzuk, akkor marad az általad említett 20 %.
-
Raysen623
addikt
Én meg arra nem vennék mérget, hogy a pirosak nem tudják merre fejleszt egészen pontosan a konkurencia vagy mi az ami várható. Egyenlőre kivárnak, nem tudjuk mit fog hozni a Navi. Azt sem tudtuk igazán hogy lesz Ray Tracing az új Geforce-nál (vagy igen csak én nem olvastam itt korábban).
Egy valamit sejtünk: Navi nem idén jön, hanem kb akkor amikor az új konzol generáció. Szóval nem annyira borús a jövő szerintem. -
arn
félisten
Azert irtam, hogy valszeg nem kepes az amd erre, igy eleg elmeleti a dolog... de na fognank a gput, kiszednenk belole a raytracehez szant reszeket, lenne egy kisebb de mai szemmel hasonlo sebessegu gpunk, olcsobban, lehet kisebb fogyasztassal - sot akar lehet magasabb orajelen is jarhatna. Melyiket vennek meg az emberek?
Az nv epp azzal tarolta a piacot az utobbi idoben, hogy kiszorta a folos reszeket
most kicsit hasonlo cipoben, mint az amd.
majd kiderul, hogy ki milyen utat valaszt, jelenleg az nv megengedheti maganak ezt a luxust, de egy kielezett helyzetben mar nem. Par ev mulva meg lehet szorosabb lesz a gpupiac.
-
Az 40% az honnan jön? A TFLOPS számok konkrétan így vannak:
x080 Ti: 10.609 (11.340) => 11.750 (13.448), azaz ~12% (16%)
x080: 8.228 (8.873) => 8.920 (10.068), azaz ~8% (14%)
x070: 5.783 (6.463) => 6.497 (7.465), azaz ~12% (16%)Zárójelben a boost van, az jobban emelkedett. De itt max úgy van meg a 40%, ha az összes kártya előrelépését összeadom.
Persze IPC-t nem számoltam, ez csak nyers FP32. Néhány hozzászólással korábban számolgattam, s aszerint kb a lapkák felét a Tensor + RTCore foglalja. Ez tök reális amúgy, nem véletlenül ekkorák.
Én egyébként játék terén is látok jövőt a Tensor magokban, állítólag a Navi is tartalmazni fog ilyesmi fix funkciós hardvert. Persze, hogy minden kártyát menjen, ehhez szabványosítani is kell, mondjuk lenne egy DirectAI API, s akkor hurrá.
-
azért közben a Turing 40 % körüli előrelépést is csinál 12 nm-n, nyers számítási teljesítményben , szóval igencsak combos GPU kell ahhoz, hogy mélyütést szenvedjen. És hát nem a GPU ból választottak le az RT eljáráshoz területet , hanem egy óriás területű GPU ban alakítottak ki plusz hardveres funkciót hozzá.
lezso6 : Igen, írta is Abu a denoising feadatot .
-
arn
félisten
válasz
hombre[EU] #67 üzenetére
-
A Tensor mag sok mindenre jó, csak ugye az Deep Learning alapon csinál mindent, szóval nem 100% pontos, hanem mondjuk 99%, így újraéleszthető a pentium bug vicc új formában:
- AMD, mennyi 2*2?
- Ömm... 4.
- NV, mennyi 2*2?
- 3.977!
- Hát, nem egészen...
- De gyors voltam, nem?Persze a DL-nek megvan az előnye, nem mindenhol kell 100% pontosság, az már elég jó eredmény, ha már sasszeműek sem vesznek észre minőségi romlást. Hasonló, mint a Rapid Packed Math, csak utóbbival nem lehet akármit célozni. Csak azt se felejtsük el, hogy DL-hez kell egy szoftver, amit futtat, ezt pedig nagyon-nagyon hosszú tréninggel lehetséges csak előállítani. Én kíváncsian várom, hogy a DLSS-en kívül mi lesz még. Én úgy tudom, hogy RT-nél a denoise algoritmushoz is ezt használják.
-
arn
félisten
az ms nyilvan erdekelt, mert a reszukrol mar jo ideje felfelroppentek a pletykak, azt viszont szerintem senki sem gondolta, hogy az nv erre dedikalt reszt csinal a gpuban - az amd nem biztos, hogy erre mozdul. mivel nem tudjak normalis sebesseggel futtatni, meg jo ideig vmi felmegoldasokat fogunk latni, lehet az amd megoldasa nem lesz rosszabb osszesegeben, ugy, hogy nem aldozzak fel a gpu jelentos reszet.
pl egy raytrace nelkuli, de eros gpu, ami gazdasagosan gyarthato, most egy melyutes lehetne az nvnak. de szeirntem erre az amd nem kepes jelenleg.
a masik kerdes, hogy mit szol a sony a dologhoz, nekik nyilvan megvan a sajat elkepzelesuk a jovore. a userek nem hinnem, hogy nagyon nyitottak ugy a raytracere, hogy a pozitiv reszet alig veszik eszre, ugyanakkora lehet fele fpsel fut. siman lehet, hogy egy hagyomanyos utat valasztanak nagyobb felbontassal, es tobb fpsel, azt nem kell magyarazni. sot, ha komplexebb scenek lennenek, az is nyilvanvalobb, mint, hogy dinamikus fenyek vannak nehol, amit fake megoldasokkal egesz jol meg lehet csinalni.
-
devast
addikt
válasz
hombre[EU] #67 üzenetére
Ne keverjük már azt ide... a pentium 2-ben is van ennyi erővel...
-
DLSS biztos használja de úgy tudom, az RT hez is hozzájárult, a natív elérést ez biztosítja. Itt Abu jobban leírja .[link]
Egy másik oldal pontosan így fogalmaz:" Ez eredetileg a gépi tanulásos műveletek gyorsítása miatt jött világra, a Turinggal viszont ezt igyekszik a grafikában, azon belül is a ray tracingben is kamatoztatni a cég. A Tensor magok ugyanis befoghatóak a megjelenítés gyorsításához is, gépi tanulásos algoritmussal ugyanis az egyes jelenetekből a felesleges sugarak (rays) "kivághatóak". Ehhez az NVIDIA NGX formájában egy új SDK-t is kiad a cég, amellyel a Tensor magok különféle képfeldolgozási segédműveletekre is befoghatóak lesznek. Emellett természetesen adatközpontos környezetben is működnek az egységek, ráadásul bizonyos esetekben gyorsabban mint a Voltánál."
-
Sinesol
veterán
Nem a tensor magos cucc volt a deeep learningre?
Mert itt a dián például külön emlegeti a raytracing elemeket és a tensor magokat.
Ha jól emlékszem talán a tensor magokat az újfajta élsimitásoknál emlegették, nem a Raytracingnél, persze ettől függetlenül bárhol bevethetőek gondolom. -
Nem, nv nem erre tervezte, csupán lehozta és valamelyest átdolgozta, dekstop szintre a Deep Learning eljárásra tervezett hardverét és befogta RT és DLSS eljárásra.
A gyártása is épp ezért nem olcsó, főleg egy ekkora GPU nak, persze nem ezért kerül ennyibeAlapból RT nem igényel specifikus hardvert, a dx12 futószalagjába beültethető eljárást kell hozniuk a fenti cégeknek is. pont ezt teszi lehetővé a fall back layer.Erős compute képességekkel bíró hardverbe átültethető , ha nem más pár effekt erejéig.
Meglátjuk mit lépnek, de szerintem valamilyen szinten bele fogják ültetni az új PS be. Microsoft oldaláról ugye még a hardver sem biztos, ha nvidia/ win kombó lesz ( netán ARM CPu val)szerintem ott elkönyvelhető a dolog. -
Sinesol
veterán
Szerintem azért van némi infója az AMD-nek, hogy milyen irányba is megy a gpu piac, hogy kb. merre tart az Nvidia. A Turingot se mostanában kezdék el fejleszteni, nem hiszem, hogy a kártyák bemutatásánál tudta meg az AMD, hogy itt bizony Raytracing-re gyúrás van.
Szóval szerintem reális esély van rá, hogy a Navi-fejlesztésénél is szóba került a Raytracing.A jövőt tekintve meg szerintem reálisan lehet nextgen konzolban a raytracing, legalábbis erre utalhat a Polyphony Digital napokban megjelent raytracinges fejlesztése, tekintve, hogy ezeket a first party studio-kat elég gyakran emlegetik a Sony R&D stúdióiként. Nyilvánvalóan oka lehet, hogy épp most irányú fejlesztésekkel foglalkoznak.
-
devast
addikt
"és minden gyártó ( AMD és Intel is) készíteni fog egy saját eljárást a dx 12 futószalagra"
Ez ok, de ezt nem lehet specifikusan erre tervezett hardveregységek nélkül megoldani... nv is fixfunkciós hardvert tervezett erre a célra a chipekre, ha amd is ezt akarja, neki is ezt kell tenni, ez meg nem két perc... ha ~1 éve mikor navit tervezték nem rakták bele, most már nem tudják... tippre legkorábban ebből a navi utáni generációban lehet valami mozgolódás. Ebből következtethető, hogy nextgen konzolokba se lesz, azok a chipek már szinte készen vannak, utolsó percben ilyen szintű módosítást nem hinném, hogy be mernének vállalni. 100%, hogy ez a jövő. Viszont én azt érzem, nem ez a széria lesz az, ahol ez a feature ténylegesen kiteljesedik... egy "nice gimmick" lesz, semmi több a közel és középtávú jövőben. NV se kapálózik, hogy minél nagyobb legyen a raytracing piaci penetrációja, csak high-end cuccba rakja még be, heroin áron. Fél-1 év múlva elérnek steamen a raytracing képes kártyák 2%-ot. Senkit nem fog érdekelni, hacsak az nv nem fizet érte...
-
lehetséges, csak én úgy gondlom , hogy Microsoft fallback layert csak a régi hardverekhez fogják használni és minden gyártó ( AMD és Intel is) készíteni fog egy saját eljárást a dx 12 futószalagra, ami gyorsulást hoz a saját GPU-ikon. RT alatt.A pletykák szerint AMD is készít, ami kérdőjeles az hogy mennyire fogja támogatnia régebbi GCN-t . Nvidiánál a régebbi Architektek csak a fallback layert fogják használni.( Kepler-Maxwell) AMD ha kidolgozza és piacra dobja a saját meghajtóját hülyeség lenne a részükről ha kihagynák a saját hardvereikkel gyártott konzolokat ebből a támogatásból, főleg hogy DirectCompute-ben erősek. Persze minden elképzelhető.
-
Sinesol
veterán
válasz
hombre[EU] #54 üzenetére
Igen, nyilvánvalóan nem csak úgy vakon fejlesztenek bele a világba, hanem van egyfajta koncepció, elképzelés a jövőről, hogy merre lehetséges menni, merre vannak még fejlődési lehetőségek, nagyobb hiányosságok.
Habár szerintem a mi vásárlásaink ebbe nem sokat számítanak bele, ugyanis ez nem egy eldöntendő irány, más alternativa nem lesz. Az AMD uj kártyája is erre gyúr, a PS-nél is erre gyúrnak, ez a jövő. -
Carlos Padre
veterán
válasz
hombre[EU] #54 üzenetére
Én konzolvásárlással jeleztem nekik.
-
válasz
hombre[EU] #54 üzenetére
legfontosabb Microsoft szerintem ebben, mivel ő kérte alapjaiban az erre való megoldásokat minden cégtől. Nvidia reagált a leggyorsabban rá, de kíváncsian várom mit fog lépni AMD ( szerintem is a konzolokban fog az ő ilyen irányú fejlesztésük bemutatkozni,de gondolom a Win 10 re elötte már kell valamit mutatniuk.)
-
hombre[EU]
nagyúr
Nem akarok itt konspirációs teóriákkal fárasztani senki, de szerintem a videojátékipar fejei (nvidia,amd,kiadók stb) ezt már jó elōre eldöntötték,hogy akkor RT lesz a következō lépcsōfok. Így megy ez a milliárdos bizniszekben. Ezért is ajánlom mindenkinek aki megteheti,hogy vegye meg az RTX-et ezzel finanszírozva a jövōt és jelezni a fejlesztōk felé,hogy érdekel minket a technológia
-
válasz
hombre[EU] #52 üzenetére
dehogy is, elolvastam ok vele minden, egyetértek veled. Csak ezen elmosolyodtam
-
válasz
hombre[EU] #50 üzenetére
"lesz pénz lóvéra "
Arra nekem is lenne
-
hombre[EU]
nagyúr
A Polyphony Digital már dolgozik rajta [link] szóval a nextgen képes lesz rá szigorú feltételek mellett. Az open-world+dinamikus idōjárás mellett elképzelhetetlen (szerintem rtx-el sem),de a lineáris játékoknál mūködhet,ha a fejlesztōk is akarják.A NaughtyDog 100% benne lesz, ott lesz pénz lóvéra és a szellemi tōke is unlimited
-
arn
félisten
A raytracenek annyi jelentosege lesz ennel a kartyanal, mint a pixelshadernek a gf3ban. Kicsit bealdoztak az architekturat ennek az oltaran, sok ertelme nem lesz megvenni.
En nem is nagyon szamitanek az uj konzolgeneracioig vmi drasztikus szemleletvaltasra, de a konzolok meg gyengek lesznek a raytracehez szvsz, igy lehet utana sem
-
Petko166
csendes tag
sziasztok,
Én meglátásom a Nvidia árszabászát illetően röviden : k**rva drága, de nem túlárazott.
Miért gondolom ezt ?
Azért mert azt RTX 20xx sorozat megjelenésével nem lesz lassabb a 10xx sorozat és egyenlőre annak sincs konkurenciája. Ergo van egy low medium upper medium high high end (1050-1080ti) termékpalettája az NVIDIA-nak. Illetve van egy "kínálunk egy új palettát azoknak akiknek minden fps számít, vagy csak símán kell nekik az utolsó technológia." paletta.
Bocsánat nem azt mondom nem esne jól ha bejöttek volna az RTX-ek 10xx áron, azok meg lecsúsztak volna 20-30%-ot. Viszont én nem tudok - reálisan nézve - úgy nézni NVIDIA-ra hogy hülye ge** banda, mit képzelnek. Majd ha lesz 1080ti szintű versenytárs, (ami már eleve "túlhaladott") akkor kicsit átszabják az árképzést és a termék palettát ennyi. Sokkal inkább gondolom azt, hogy ha valóban meg lesz a 40-50% plusz akkor örülhetünk hogy az Nvidia nem egy Apple, aki színeket mutat be egy új terméken jóformán.
Szerintem nem tekinthető a 2080ti az 1080ti utódjának. (ha beszüntetik a 1080ti eladást és nem lehet venni mondjuk a 2080ti megjelenése után, akkor valamelyest felülbírálom magam.) Továbblépés, de <4k nem kell 1080ti nél több, de van ha valakinek mégis úgy tartja kedve.
P.
-
válasz
Carlos Padre #44 üzenetére
mivel alacsonyabb órajelekre boostol, ehhez nem kell sok logika
-
tibaimp
nagyúr
De kíváncsi vagyok a tesztekre és az árakra!
Az amd részéről várható erre valami lépés még idén?
-
meci77
tag
válasz
flashpointer #36 üzenetére
Hát én a cikkből azt vontam le de lehet hogy rosszul, hogy a kisebb kártyák helyett átnevezés lesz, ami szerintem nem feltétlenül baj.
-
malwy
senior tag
Az RT magok CUDA alól elérhetőek lesznek? Mire képesek?
64bit-es float teljesítménnyel mi a helyzet? -
flashpointer
őstag
Azert a tobbi kisebb kartya jon a tervek szerint oktober-novemberben nem?
-
rodrigez
senior tag
válasz
Fitzgerald #31 üzenetére
Nézz rá a Wccftech oldalára. Feltettek jó pár képet a VideoCardz kiszivárgott méréseiből. Shadow of the tomb raider, Battlefield V, stb. Lazán 45-50%-al gyorsabb a 2080 a 1080-nál, és ez igaz a 2 TI összevetésénél is. Ez még DLSS nélküli különbség, amely játékok támogatják ott még jobban nyílik majd az olló.
-
hombre[EU]
nagyúr
Valaki el tudná magyarázni,hogy miben különbözik [link] ez attól a raytracingtōl amit most hájpolnak az nvidia körül?
-
válasz
Fitzgerald #29 üzenetére
[link]
anno pl a GTX 1080 255 K-n nyitott IPON ban.Persze így is drága még ,nem vitatom,de de ettől függetlenül úgy néz ki lesz előrelépés, nyers teljesítményben is. -
Fitzgerald
veterán
Ez alapján átlagban olyan 13%-al gyorsabb egy 1080 Ti-nél a 2080, amit kisebb tuninggal röhögve behoz a Pascal. Hazai kisker árakat azért várjuk még meg...valószínűleg simán lesznek 350 körül a jobb hűtővel szerelt modellek.
@Sinesol
Jah...én is hittem a mikulásban olyan 5 éves koromig, nincs ezzel semmi gond.
-
Sinesol
veterán
válasz
Fitzgerald #26 üzenetére
Hagyjuk már ezt a károgást, meg a légbőlkapott ostobaságokat..
Azért lett meghosszabbitva az embargó és azért van egyáltalában, mert így biztosítják, hogy a főbb tesztelőkhöz időben eljusson a kártya, legyen idejük normális tesztre, senki ne jusson előnybe, csak mert szerencséje volt és hamarabb kapott kártyát.
-
válasz
Fitzgerald #26 üzenetére
úgy néz ki lesz azért szépen előrelépés RT ide vagy oda..Ezek már valóban nevezhetőek 4K kártyáknak.
ez a 1.5x annyi honnan jött?
[link] -
Fitzgerald
veterán
válasz
Carlos Padre #5 üzenetére
Valószínűleg az, hogy nem lesz akkora ugrás nyers teljesítményben, mint ez előző generációváltásnál.
Aztán mi a ráknak vegyen az ember 1.5x annyiért 2080-at (kevesebb VRAM-al ráadásul) 1080 Ti helyett, ha a ray tracing-en kívül nem kap semmi kézzelfogható pluszt. -
Petykemano
veterán
De mennyit?
Az világos, ha igyesen ütemezed a számítási feladatokat, egymás mellé párhuzamosan állíthatsz végrehajtásra int32 és fp32 feladatokat. A skálázódás, vagyis hogy mennyit nyersz attól függ, milyen arányban van fps32 és int32. De az int32 leválasztása mennyi helyet foglal és mennyivel kevesebbet fogyaszt, ahhoz képest, mintha az int32 és fp32 végrehajtására is képes magok számát.növelték volna?Vajon ehhez a programot kell optimalizálni, vagy a drivert?
-
rezessanyi
csendes tag
válasz
GypsFulvus2 #14 üzenetére
hahahaha.
-
-Alvin-
tag
válasz
GypsFulvus2 #14 üzenetére
Füstbe ment terv...
-
Hmmm, köszönjük a cikket. Bárkinek épkézláb ötlete arra, hogy mi értelme van a GT104-ben a 6 GPC-nek 512 ALU-val, ahelyett, hogy a másik két chip mintájára 768 lenne egy GPC-ben, 4 GPC mellett?
... lehet, hogy be volt b****va, aki a unit-ábrát rajzolta, és felcserélte a paramétereket?
-
Archttila
veterán
válasz
GypsFulvus2 #14 üzenetére
-
Duck663
őstag
Az nv csak akkor lenne bajban a Pascal miatt, ha az AMD jönne egy a Pascaltól, sőt a Turingtól is jobb ár/érték arányú GPU-val nagyon rövid időn belül. De erre az esély pontosan 0. A Navinak nagyon nagyot kell szólnia. De ha megmarad a GCN alap és azt nem dolgozzák át drasztikusan, akkor erre az esély megint csak 0.
Én, - ha a Vega20-ban kigyomlálták a Vega10 bajait, - egészen biztosan csinálnék egy Gamer kártyát, akár úgy is, hogy csak egy részlegesen tiltott lapka kerül piacra. A konzol piac nem elég!
-
-
Abu az honnan van hogy Pascalt megtartják ez mellett?
-
válasz
Carlos Padre #5 üzenetére
Drivert optimalizának. Microsofttal( is ) fésülik össze.
Az összes kártyát? mennyi az az összes? -
Carlos Padre
veterán
Ennek a teljesítményteszt embargónak mi értelme azon kívül, hogy el akarják adni lehetőleg az összes kártyát gyorsan még előrendelésben?
-
válasz
Petykemano #2 üzenetére
Teljesítményt. De persze csak specifikus optimalizációval.
-
paprobert
őstag
Az MVR egész érdekes hangzik a VR-hoz.
Mintha aszerint gondolkodnának, hogy "nem tudjuk hova fogsz nézni a következő néhány milliszekundumban, úgyhogy inkább leszámoljuk neked minden irányba a teret erőből, aztán azt a panorámanézetet kapod, amit végül választasz."Ez a késleltetési problémákat/mikrolagot hivatott megoldani?
-
Hát, a TU104 egy fura szerzet, nem gondoltam volna, hogy 6 GPC, azaz 6x8 SM. Én 4 GPC, azaz 4x12 SM-re számítottam. Utóbbi esetben nem lenne túletetés...
Új hozzászólás Aktív témák
- LG 77C4 - 77" OLED evo - 4K 144Hz - 0.1ms - NVIDIA G-Sync - FreeSync - HDMI 2.1 - 1000 Nits
- HIBÁTLAN iPhone 13 mini 128GB Pink -1 ÉV GARANCIA - Kártyafüggetlen, MS3284
- HP ZBook Firefly 14 i7-1165G7 32GB 1000GB Nvidia Quadro T500 4GB 14" FHD 1 év garancia
- Apple iPhone 14 Pro Max / Kártyafüggetlen / 256GB / 12Hó Garancia / 87% akku
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7500F 16/32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest