Új hozzászólás Aktív témák
-
Gratulálok a cikkírónak, az overclock3d.net hivatkozott a cikkre
AMD and Intel reportedly test 12V-2×6 power connectors for next-gen GPUs
-
Dragon3000
nagyúr
Az a gond, hogy fps.multi esetében számít az fps. Sokszor meg a kisebb felbontás nem jó mert nem minden esetben lesz szép a kép. Ahol a 4080 1080p-re elég szerinted ott a 4070 super felskálázás elég a 4k-ra? Az, hogy te milyen beállításokkal játszol, az másnak lényegtelen, így mások az elvárások is, van akinek a 4090 is gyenge, de hát nincs erősebb megoldás...
-
MZsoltee
veterán
válasz
Dragon3000 #64 üzenetére
Persze van olyan beállítás, de ha nem tesszük maxra, csak amit szemmel is látunk akkor szerintem kiszolgál a 4070 (Super) is mindent. A felskalazasrol nem is beszélve.
Ugye a 4k 120 vagy 240 FPS valós igeny-e. Ha egy játékost (átlag) leultetsz latja-e a különbséget. Ha igen, akkor ez a különbség jelentős vagy igazából marginalis? Lehet az én szemem rossz, de én 75hz és 144hz között is alig veszem észre a különbséget. Van olyan játék pl diablo ív, ahol a 144hz-es monitorra 72fps-es limitet állítok.
-
Dragon3000
nagyúr
Vannak játékok, ahol a 4080 1080p 60fps-re elég, persze van felskálázás, de natív felbontás esetében ezek után a 4070 hol lenne elég a 4k-hoz? Ezek után van az elvárás, hogy 4k esetében is legyen meg a 120 fps, illetve már van 240Hz-es monitor is ezen felbontáson, ahova nagyon sok esetben még a 4090 is kevés.
-
Pikari
veterán
Az 512 már kevés volt 2022-ben, főleg azért, mert az nvidia utolsó 8xxx/9xxx kompatibilis driverei elég szarul managelik a memóriát. Ezért sokszor vissza kellett tenni a régi drivert a nagy memóriaigényű játékokban, ha az ember nem akart beakadásokat, randomra beszakadó fps-t.
-
Pikari
veterán
Megnéztem az apróhirdetéseket, itt az eladó azt írja a 8800GTS-re, hogy "nagyobbra váltás miatt eladó", ami azt sejteti, hogy most vált újabb kártyára így éppen 18 évvel a kártya megjelenése után.
-
MZsoltee
veterán
Meg egy gondolat, ezt nem csak a GPU piacon, hanem a CPU piacon, vagy a háttértár piacon is meg lehet figyelni.
De ott talán az AMD-nek köszönhetően a fogyasztás legalább nem szállt el. Mindezt a 3D cache-nek koszonhetjuk. A saját gepemben benne van a 7800x3d. Nem teszteltem meg saját kezűleg, de egy am4-es konfig egy 5700x3d-vel bőven elegendő játékra mindenhová az előbb említett 4070 (Super) mellé. Ezért is állítja le a gyártását szerintem az amd az 5800x3d-vel ugye már meg is tette. Tul jó, nem váltanak elegen am5-re. Nincs miért.
Az hogy az amd 800as chipsetben a legnagyobb újítás az usb4, amit egyes 600as lapok is támogatnak szintén ezt írja le. Már nem igazán van mit tenni. Lehet brutál vrm, ami két 7950et vagy 9950-et is kiszolgál akár, de teljesen fölösleges. Mire 24 fázis? Ettől lesz az egyik legjobb lap az ASRock taichi. Egy x3d mellé még főleg, szerencsére 80w-nal nem eszik többet. Ezek is olyan kényszeredett megoldások, mint az 500W+ os 5090-es. Itt vannak ezek a hardverek és a játék piacot meg nyomják hogy fejlesszen valamit, ami ki is használja. -
MZsoltee
veterán
válasz
Dragon3000 #55 üzenetére
Ha elfogadjuk ugye hogy a teljesítménynövekedés adott technikai szint mellett exponencialis mértékben növeli a fogyasztást és az általad említett 2,6 - 41 és arány helyett 1- 30-35-os arány lenne, akkor se kéne a kardunkba dőlni.
Pl a mai csúcs VGA egy 4070-es lenne, ha komolyan szabályozva lenne a dolog, akkor egy 4070 Super vagy Ti is kijönne talán a jelenlegi gyártástechnológiával.
Mik azok a valós grafikai metodusok, amik relevánsak és ma egy 1440p-s vagy egy 4K-s kijelzőn nem megjelenithetoek a fenti vga-kal? Valós igények ezek vagy csak a marketing által keltett igények? Kell-e 100hz fölötti megjelenítő? A népesség hány százaléka az aki ebben lát különbséget? Én azt kezdem érezni, hogy sajnos már a játékipar, a gaming elért egy olyan szintre, ahonnan nagyon nehéz újat mutatni. Ez igaz a grafikára és a mechanikakra, történetekre egyaránt. Az RTX volt olyan dolog amire azt mondták meg fogja változtatni a világot, illetve VR-ra. De így néz ki sajnos hogy ezek nem jöttek be. Megnézve a Steamen legtöbbet eladott játékokat, vagy a legtöbbet játszottakat gyakorlatilag a fent említett 4070es bőven de bőven elegendő az összesre. Akkor pedig főleg, ha úgy állítjuk be a grafikát, hogy nem minden tőlünk maxra, csak azokat a beállításokat ahol különbségeket is látunk.Mindezt úgy mondom, hogy szeretem a hardvereket, a hobbim is. Mai szerzemény az asszony gepebe egy 5700x3d.
A 8800 GT mellett amit én nagyon szerettem az a 7870es széria. Egesz pontosan a powecolor tahiti le, majd a 1080. Aztán már nehéz volt számomra izgalmas kártyát kreálni 5700XT, majd a mostani 6800XT. De emellett nekem most a 7000-es amd és 4000-es Nvidia se volt már érdekes.
-
hapakj
őstag
hja igen, a 8800GT az már G92-es chip volt mint a 9800GT. Csak itt előző kommentekbe mindenki általában beszélt a 8800 sorozatról vagy GTX-et vagy Ultra-t említett s én is belekavarodtam
Azok még az igazi kazán G80-ra épültek.
Azért a tapasztalataid a játékokkal nem általánosan jellemzőek. 2014-15-ben már sok címbe botlottam, ami DX10 level hw-en már nem ment.
-
Pikari
veterán
A 8800gt és a 9800gt ugyanaz. Ugyanaz a chip, ugyanazon az órajelen. Csak marketing okokból nevezték át.
A dx11-es játékok általában kompatibilisek - vagyis olyan 2017-ig kompatibilisek voltak - a dx10-es feature levellel. Akkor kezdtek el tömegesen jönni az olyan játékok, amihez már dx11-es hardver kellett.
Én 2021 vége körül kaptam a 8800GT-t, akkor használtam egy évig, egy játék volt, amit használni akartam, de dx11-es hardver szintet igényelt volna. Aztán utána hirtelen már semmi úlyabb se akart működni rajta, úgyhogy 2022 végén ment a retró dobozba.
-
hapakj
őstag
háááát. A 8800GT igazából elég elbaszott kazán GPU volt
legalábbis az eredeti G80 chipre épülő variáns. Kb ott tényleg az új unified shader architektúrát próbálták ki. Szerintem igazából a gyártástechnológia ugrással a G92-re finomítódott az ki, ami a 9800 GT. Van itthon mindkettő. A 8800GT természetes döglött, a 9800GT megy szépen. Elég rá nézni a két kártya kivitelezésére hűtés szempontjából.
10 évet kétlem hogy bírtak volna, mivel dx10-es kártyák. Akkoriban azért még bőszen kerültek be featureök a kártyákba s a dx11-re váltás is elég gyors volt. Utána a Fermi volt az ugrás, Kepler az egy finomítás. Ilyen 10 éves időtállóság a Maxwell 1 vagy inkább a Maxwell 2 illetve a GCN 1/2-vel indult meg.
Most is vannak azért újítások mint pl a Mesh Shading vagy a Ray Trace, de még kevés játék épít rá exklúzívan. (Talán azért, mert az nvidia Pascal sorozata túlságosan beastre sikerült és még mindig sokan használják)
-
Dragon3000
nagyúr
Azért szerintem azóta is volt sok újítás. A felbontáshoz azért hozzátartozik, hogy folyamat jöttek az egyre nagyobb képátlójú megoldások és ezért is emelkedett a felbontás is, ami esetében ügye durván emelkedik a teljesítmény igény is.
A 8800gt egy slotos megoldása egy fos volt, haveromnak volt meg is főtt azzal a hűtéssel, a normális megoldások mind két slotosak voltak belőle.
Ha a felbontás maradt volna a régi, akkor maradhatott volna akár a régi tdp keret és úgyis elértek volna megfelelő teljesítmény előnyt, de azért szerintem így sem olyan rossz a helyzet, ha azt nézzük, hogy 2,6 szoros fogyasztás mellett ~41 szeres teljesítményt értek el.
A fogyasztás csökkentés és ez által a teljesítmény veszteség nagyon képlékeny, mivel van szórás a gpu-k közt, illetve a gyártók különböző megoldásai közt is, így simán bele lehet futni olyanba is, ahol szinte minimális fogyasztás csökkentés esetében is már elég nagy sebesség csökkenés is lehet, illetve, ahogy írtad olyan is, ahol minimális teljesítmény csökkenéssel jár nagyobb fogyasztás csökkentés, de azért az 50% az ilyen vágyálom. -
Pikari
veterán
válasz
Dragon3000 #53 üzenetére
Szerintem arra akart mzsoltee utalni, hogy a megnövekedett fogyasztás és sokszorosára emelt számítási kapacitás ellenére nem növekedett a grafikai élmény érdemben. Ez nem is lehetséges, hiszen az emberi érzékelés logaritmikus. Hogy ez mit jelent? Hogy véges mennyiségű képpontot, vertexet, formát, részletet, effektet képesek az érzékszerveink és az agyunk feldolgozni. Ahogy közelíted ezeket a határokat, úgy lesz egyre kevésbé feltűnő a változás. Amikor 400x300ról felemeled a felbontást 800x600-ra, az sokkal nagyobb ugrást eredményez, mint amikor 1600x1200ra emeled fel 800x600ról. Illetve, ha mondjuk 500 polygonról emeled 5000 polygonra a karakterek részletességét, az sokkal szembetűnöbb, mintha 5000 polygonról emelnéd 50ezerre.
Ebből a szempontból tényleg a 8800-as széria az említésre méltó, mert az volt talán az utolsó olyan kártya, ahol érdemi minőségbeli ugrást sikerült elérni az előző generációhoz képest minden tekintetben, az hozta be a mostani unified shader model alapú grafikuskártya-tervezési elvet, amelyet azóta is használunk. És érdemes megfigyelni, hogy ott komolyan ügyeltek arra, hogy - az abszolút csúcsot és az első pár modellt leszámítva - a felsőkategóriás kártyák fogyasztása is jó legyen, sőt, hogy single slot legyen a kártya (8800gt), és normál 6 pin csatlakozót használjon, továbbá az árat is próbálták halandó emberek számára megfizethető szinten tartani.
Ez persze nem volt túl kifizetődő nekik, mert akik megvették a 8800GT-t, azok jó eséllyel simán használták vagy 10 éven keresztül.
Aztán azt se felejtsük el, hogy az alsókategóriát, és a középkategória alját is megették az integrált videókártyák, tehát az nvidia kénytelen felfele menekülni ez elől, és teljesen kimaxolt közép és csúcskategóriás kártyákat kihozni, amik bizony a fogyasztás tekintetében sem spórolnak. Kevésbé ismert tény, hogy kb 10% teljesítménycsökkenés mellett szinte 50%-al csökkenteni lehetne egyes nvidia csúcsmodellek fogyasztását.
-
Dragon3000
nagyúr
Ezzel csak az a gond, hogy a sokszorosára nőtt az elvárás, már csak a felbontást nézve is, illetve a memória mérete, szerinted azzal, hogy a 768MB helyett 24GB van a vga-n nem növekszik a fogyasztás? Akkor a memória sebességről nem is beszéltünk csak a több vramról.... Nagy kijelzőn az 1024x768-as felbontás ocsmány, így egyértelműen előny volt ezen előrelépés.
-
MZsoltee
veterán
válasz
Dragon3000 #50 üzenetére
Azért a két kártya között volt pár év. jó hogy sokkal jobb a hatékonysága de még szerintem mindig kevés. Az új csúcsnak az új csúcsot kellene ugyanannyi áramból kiszolgálnia. Ha ez nincs így akkor a technológia lassabban fejlődik mint kellene, mivel csak fogyasztás növekedéssel lehet tartani az ütemet.
Az megint egy érdekes kérdés, hogy játékélmény tekintetében a fejlődés mennyit adott és mennyi értelme van elégetni a többlet áramot.
-
Dragon3000
nagyúr
-
MZsoltee
veterán
válasz
Varázslóó #47 üzenetére
A klímaváltozás szerintem nem hiszti. Az hogy eddig nem kellett klíma nyáron csodálatosan elvoltunk nem voltak ilyen kiugró hőhullámok 7-10 napig. A havi átlagos hőmérsékletek is alacsonyabbak voltak. Szóval, ez egy valós folyamat ez egyértelmű szerintem és a többség szerint. De ha ez nem lenne, akkor is pazarlás az energia nem hatékony felhasználása.
Az utóbbi években a gpu-k fogyasztása évről évre nő. Emellett ha elkezded undervoltolni, akkor mindig hatékonyabbá válik az összes VGA.
Egy gtx 8800ultra 170w tdp volt. Ma 160w a 4060Ti, 200w a 4070. A csúcs VGA 450w és ez megy tovább. 3x annyit fogyaszt lassan egy csúcs VGA, mint korabban. És sokkal több háztartásban vannak ilyen kütyük mint anno. Szerintem ez nonszensz. Míg egy steamdeck töredék fogyasztásából kihozza ezt az egészet pl. Ott a méret miatt van limitacio. -
yarsley
aktív tag
Videocardz készített egy cikket ez alapján.
https://videocardz.com/newz/amd-and-intel-test-12v-2x6-power-connectors-for-next-gen-gpus-but-most-prototypes-still-stick-to-standard-options -
-
ncc1701
veterán
Ideje lenne dobni a 12V-ot, és ugrani 48V-ra. Az még nem ráz.
-
Ribi
nagyúr
válasz
Neovenator #37 üzenetére
Amikor egy autót összeraknak, kb ezer féle szabványt használnak fel, de ezek hirtelen nem lesz az övék. Ők csak használják. Intel is csak felhasználja, de nem az övék.
-
GreatL
őstag
Vettem most olyan tápot ami adja mindkettőt... meglátjuk mit hoz a jövő.
-
Busterftw
nagyúr
válasz
Neovenator #37 üzenetére
A csatlakozó nem Intel által lett tervezve.
Nem Intel szabvány. Ahogy a módosításokat sem az Intel kérte, hanem a PCI-SIG (Nvidia segítséggel) javította.
Ezért sem az Intel alá van bejegyezve, hanem a PCI-SIG alá, mert az övék.Ezt egy 5 éves is megérti.
Már csak azért is hülyeségeket beszélsz, mert nincs semmilyen alvállalkozói viszony a két cég között.
Ezért sem terheli jogilag semmilyen teher az Intelt, hanem a gyártót akitől vetted a terméket.
A gyártónak köze nincs a szabvány létrehozásában, a felelősség a termék után mégis őt terheli. -
MZsoltee
veterán
-
Neovenator
senior tag
válasz
Busterftw #36 üzenetére
Meglepően nehézfejű vagy, vagy csak nem akarod megérteni?
Az ATX 3.0 EGY INTEL SZABVÁNY. Bármely részegysége, amit Mari bácsi, Józsi néni vagy a PCI-SIG készített a SZABVÁNYNAK MEGFELELŐEN, a SZABVÁNY RÉSZÉT KÉPEZI. A fiaskó utáni módosításokkal azért nem az Intel, hanem az elkészítője foglalkozik, mert ha egy alvállalkozód hibája miatt beomlik egy tető mondjuk, akkor az alvállalkozót terheli az elsődleges kötelesség, hogy kijavítsa a saját hibáját, de a garanciális felelősség téged terhel, mert te bíztad meg az alvállalkozót, aki elbarmolta a tetőt. Remélem így már képes leszel felfogni. -
Busterftw
nagyúr
válasz
Neovenator #35 üzenetére
"PCI-SIG, the standards organization responsible for the creation of the 12VHPWR connector, has decided to make changes to the connector's specifications following the failures. "
Hagyjuk már, úgy terelsz ahogy akarsz, attól még nem lesz igaz.
Nem Intel szabvány a csatlakozó, hanem az ATX 3.0 része.
Ha gond van nem az Intelhez fordulsz hanem a termék gyártóhoz/bolthoz.Nem az Intel szabványosította értsd már meg. Hanem a PCI-SIG.
Itt van nálam a 4080, ATX 3.0 PSU-val, a szabvány minden részegysége úgy működik ahogy azt leírták.
-
Neovenator
senior tag
válasz
Busterftw #34 üzenetére
A csatlakozó is része az Intel ATX 3.0 szabványának. Ha te nem személyesen alkotod meg minden elemét a saját szabványodnak, hanem alvállalkozókra bízod egyes elemek kivitelezését, attól az még a te szabványod, nem az övék, csak ők csinálták meg. Az pedig, hogy a szabványod minden részegysége úgy működjön, ahogy azt te elképzelted, leírtad és szabványosítottad, a TE FELADATOD ÉS FELELŐSSÉGED.
-
Busterftw
nagyúr
válasz
Neovenator #32 üzenetére
Pontosan, tehát nem Intel csatlakozó szabvány.
-
jimpo
senior tag
-
Busterftw
nagyúr
válasz
Neovenator #27 üzenetére
Az ATX 3.0 az Intelé, a csatlakozó nem az.
-
Neovenator
senior tag
-
Ribi
nagyúr
válasz
Dragon3000 #24 üzenetére
Nem véletlen raknak a legújabb tápokra kettőt.
26: Nyilván értelmetlen 600Wos tápra kettőt rakni, nem is arra gondoltam
-
Inkább a fogyasztás kordában tartásán dolgozhatnának.
-
RyanGiggs
őstag
Akinek meg régebbi tápja van, az meg vegyen átalakítót?
-
slmSIG
tag
"az új tápegységek kezdenek váltani az új tápkonnektorra, tehát mindenképpen haladniuk kell a korral"
Merre pontosan és miért pont a rossz irányba?
-hány év, hány leégés, probléma kell még ahhoz, hogy ne a szart kelljen használni és ne azt kelljen lesni, mikor húz ívet a PC -m???
Egyáltalán miért kell egy már működő, hibátlan megoldást szét..szni???
Mindenhol ez megy és még csodálkozunk, hogy miért tartunk még mindig itt. -
Dester31
tag
Nyilván, nem teljes mértékben összehasonlítható - ahogy írtam is, ez egy durva példa.
#Ribi: na, itt közös nevezőn vagyunk. Ezzel én is egyetértek. És én is kíváncsi leszek, mit fognak kitalálni, amikor már 1500-2000W lenne a "sztenderd", egy videokártyával, és lassan megolvad a tápkábel szigetelése is. Ráadásul a háztartások elektromos hálózata sem feltétlen bír el végtelen terhelést.
-
Arról is nem is beszélve, hogy ma is kapható tápcsatlakozót nem igénylő, passzív hűtésű videókártya, ami nagyságrendekkel erőseb ezeknél a régi eszközöknél.
Arról nem is beszélve, hogy már külön videokártya se feltétlen kell, érdemes megnézni mennyit fejlődtek az IGP-k, pl. 890M a legújabb Ryzenekben, vagy az Apple M4 SoC GPU-ja mit hoz ki 20W-ból (amiben a CPU is benne van) aktív hűtés nélkül.
Szóval nem egészen értem, hogy a fórumtárs honnan hiányolja a fejlődést és az energiahatékonyságot... -
Busterftw
nagyúr
A logika ott bukik, hogy az 5000 szeria nem nagyon valt elvileg masik node-ra, csak egy jobban teljesito verziora mint amit a 4000 szeria hasznalt.
Tehat itt mar bukik a "kisebb nm-en nagyobb teljesitmeny".Mellesleg energiahatekonysagban epp a 4000 szeria sokat javult.
Jatek alatt neked nem fog egyik kartya sem 500W-ot enni.A csatlakozo szerencsere marad, mert 1 kabel kell es kesz.
-
#90868690
törölt tag
válasz
Neovenator #3 üzenetére
Miért intel szabvány?
-
Ribi
nagyúr
válasz
Neovenator #3 üzenetére
Mintha GN azt mondta volna, hogy nem Intel vagy NV szabvány, hanem egy meglévő csatlakozó módosított változata. De lehet már rosszul emlékszem.
#9Dester31: Az egészeg megfordítva, nagyon demagóg módon azt írod, mintha csak teljesítmányből jönne plusz teljesítmény. Egyik oldal sem ezt mondja, de a fogyasztás étnyleg kezd elszállni. Porszívóból sem lehet már 1500W-ost venni mint régen, de PC egyre többet eszik. Régen volt valami 300W max VGA határ javaslat, de hát az ment ki az ablakon.
-
Dester31
tag
De demagóg egy írás ez. Extra teljesítmény nem jön ingyen, és extra teljesítmény nem csak a CS-hez kell.
Mondok egy durva, de szemléletes példát: itt van mellettem egy fullos Pentium 3 konfig. 2 darab Voodoo 2 van benne SLI-be kötve, mellé egy GeForce2 GTS az AGP slotban. A maximum felbontás, amit elbírnak, az 1024x768, és hát emlékszünk rá, milyen grafikával.
Most már 3840x2160 dívik a felső szegmensben legalább 60 fps-sel, és olyan grafikával, ami bizonyos esetekben már szinte fotorealisztikus (Unreal Engine 5.5). Iszonyatos fejlődés, és míg a Voodoo2-re nem kellett még hűtőborda sem (bár nem ártott, vagy legalább jó légáramlás), extra tápcsati sem, a mostani GPUknak iszonyatos hőtermelése van, brutál hűtéssel és fogyasztással, ezért ekkorák. Valamit valamiért... -
Személy szerint amíg lehet maradok a 2*8 pin csatlakozónál. Az AMD kártyáknál eddig sem volt elterjedve a másik megoldás, meglepne ha mégis azzal hoznának ki dVGA-t. Ha mégis megtörténne akkor remélem hogy lehet majd olyat is választani az új sorozatból ami a hagyományos 2-3*8 pin csatlakozóval van ellátva.
-
Dragon3000
nagyúr
Szerintem a ref kártyák esetében hagyni kellene a régi csatlakozót és a gyártók meg döntsék el, hogy a saját megoldásaikra melyiket teszik. Az amd elméletileg úgy sem hoz erősebb megoldást, mint a 7900xtx, de a fogyasztás csökkenni fog, a jelenlegi csúcsnak elég a 2x8 pin, akkor a következő legerősebb amd-hez is elégnek kell lennie.
Szerk.: nem válasznak szántam.
-
Medocsabi
addikt
Ez de durva, az utolsó asztali gépem i7 2700k+gtx 780 volt, akkori szinten brutál fogyasztással, aztán ma már egy VGA-nak egyedül a többszöröse
-
btoth0413
kezdő
Valakinek biztos jólehet mondjuk..
-
btoth0413
kezdő
Én személy szerint nem kedvelem ezt a 6-8 pint nem még a dupla 8 pint.. Azért egy olyan tápot megszülni is..
-
Neovenator
senior tag
Ami azért humoros (mármint, hogy az Intel nem bízik a csatlakozóban), mert a csatlakozó Intel szabvány, azzal szopta be hatalmasan az Ngreedia az elmúlt időszakban...mintha direkt szabotázsra tervezték volna az Intelnél...vagy jó a troll-humorérzékük...
-
foxmastR
csendes tag
Eszméletlen milyen fölösleges erőforráspazarlás megy itt, meg ami most jön ez az 5090 500w tdp-vel kiveri a biztosítékot. Nesze neked klímavédelem meg energia takarékosság. A cél nem az lenne hogy minél kisebb nanométeren nagyobb teljesítményt elérni tartva egy ésszerű tdp keretet? Ez már nem ésszerű. 500 watt némelyik komplett pcnek is elég. Értem én hogy a cs meg a valo 1000 fps alatt nem játszható de na...
De majd csak megéri valakinek. Majd nézhetünk kínai 5090-es gép összeszerelő videókat a youtubeon. -
Pikari
veterán
Én már a 6 pinre is fenntartásokkal nézegetek, nemhogy erre.
Új hozzászólás Aktív témák
- HP ZBook Firefly 14 i7-1165G7 32GB 1000GB 14" FHD magyarbill 1 év garancia
- Új Lenovo 16 Ideapad Slim3 WUXGA IPS Ryzen5 7530U 4.5Ghz 16GB 512GB Radeon RX Vega7 Win11 Garancia
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X 16/32/64GB RAM RX 7600 8GB GAMER PC termékbeszámítással
- LG 27GR83Q-B - 27" IPS / QHD 2K / 240Hz & 1ms / NVIDIA G-Sync / FreeSync / DisplayHDR 400
- GYÖNYÖRŰ iPhone 11 Pro 64GB Space Grey -1 ÉV GARANCIA - Kártyafüggetlen, MS2052
Állásajánlatok
Cég: FOTC
Város: Budapest