Új hozzászólás Aktív témák
-
duracell89
senior tag
-
Kansas
addikt
válasz duracell89 #551 üzenetére
Én is ezt várom nagyon, addig minden csak spekuláció meg marketing.
Egy hónap múlva a 3070 jön, azért a 3080 megjelenését elég megvárni, a lényeges dolgok már ott kiderülnek és az meglesz még szeptemberben.
Egyelőre ott tartok, hogy ha csak az AMD nem gurít valami nagyot, jövőre egy 3070 váltja az 5700XT-t nálam... annyi pénzt amennyibe a nagyobbak kerülnek, nem szánok VGA-ra, akkor inkább a nagyon erőlködős címeket PS5-ön tolom...Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Ezekiell
veterán
-
lacus83
senior tag
Olyan még nem nagyon volt,vagyis de egyszer biztos mikor 970 4GB mizéria volt.
Azon kívül driver és hw is stimmelt mindig, még anno gtx 7-8 szériánál is már.
Maradjunk annyiban semmi fanság de AMD profitját a konzolból és a CPU részlegből kapirgálja,dVGA már nagyon rég nem úgy szalad ahogy kéne.De csak nézzük meg az idei vagy a tavalyi vagy akár az előtti AMD vs Nvidia termékpalettát.
Kb jelenleg mindent lefed az Nvidia.Persze ez lehet rossz is hisz nincs konkurencia,de hát ez van.Persze ez nem jó de A jelenlegi beigért Ampere fejlődésnek ha csak fele lesz igaz akkor is oké a dolog, hisz rtx 2060 sáv pl bőven elég volt FHDra pl 75 hzre ahol még mindig a többség tart. Ha pedig,márpedig úgy néz ki hogy még jobbat kapsz abban az ársávban pl 3060 (2070 vagy 2070S teljesítménnyel) képzeld el mit fognak venni inkább...Röviden K .O. Amd.[ Szerkesztve ]
MSI B460 Tomahawk,I5 10400F Box,G.Skill Tident Z 2X8 Gb 3000Mhz RGB,Megahalems Cooler,LIANLI Lancool III,Samsung 860 Evo 256GB ,Toshiba P300 3TB,LC Power 600W,ASUS ProArt 4060,LG 27GL850B
-
LionW
tag
BFGPU 😳
-
NandoXXL
senior tag
válasz Synthwave #443 üzenetére
Házigazda vagy, adnak a szavadra. Itt már érezhető összegről beszélünk.
Itt a szerkesztőségben jól kerestek, 15/20 %-ért 1 év garit eldobsz a te dolgod, de leírni hogy még szinte garanciális ügyintézéssel se volt dolgod, mintha minden ilyen hiba mentes lenne Nézz be topikokba, házon belül látni fogsz hibás szériákat, vagy csak garanciális problémákat. Van aki erre több mint egy évet gyűjt és nem fogja lecserélni, nem mindegy milyen tanácsot kap. -
Carlos Padre
veterán
Csak ismételni tudom magamat, nézd meg a Ratchet gameplayt és vesd össze BÁRMIVEL amit az Nvidia fel tud mutatni. Vagy ott az a bazári full króm minden mindenen tükröződő AMD demó, érdemes összevetni, hogy az Nvidia mennyire óvatosan használja az RT-t a saját techdemoiban. Vagy ott vannak a developer infók, hogy az AMD megoldásán az intenzív RT használat 6-8% teljesítményvesztést okoz az Nvidián "megszokott" 60-80% helyett.
Az persze tényként van kezelve mindenféle teszt és háttérinfo nélkül( vagy inkább annál ellenére), hogy az új AMD szar lesz és jó ha alulról karcolja majd a 2080at.Genyó vagyok, ha hülye vagy megmondom.
-
MODERÁTOR
-
RPZ
tag
Elvileg 200k alatt nyithat a fapadosabb 3070, az AMD-től azt várjuk, h. 170k környékén hozza ugyanazt a teljesítményt októberben. Ha a használt árat 75%-ra lövöm be, akkor a használt 2080 Ti 128k Hufot fog érni teljesen pontosan (az állítás szerint a 3070 picivel gyorsabb, így még lejjebb kell kerekítenünk: 125k). Persze ha az egerek el akarják hagyni a süllyedő hajót és zsákszámra jelennek meg a piacon, akkor a biztosabb kiszállási ár 110-120k huf között lesz.
Egy 440k-s árhoz képest azt hiszem ezt nevezik klasszikus negyedelődésnek :D!
Nem kell, h így legyen, de ez is egy teljesen reális forgatókönyv.
Aki 150 felett vásárol 2080 Ti-t az mentálisan erősen kihívásokkal küzd, de biztosan nagyon sok ilyen van, így pár hétig még lehet, h páran dupla áron (2-300k között) is ki tudnak szállni.
Induljon az idegtépő háború, győzzön a jobbik :D! -
Kansas
addikt
Az NVidia igazi pofáraesése az FX5xxx széria volt, amit az akkori AMD lineup eléggé lemosott a színpadról - de abból legalább tanultak, azóta se követtek el ilyen hibát, sőt a GF 6xxx szériával elég hamar ki is köszörülték a csorbát(én konkrétan imádtam a 6800GS-emet 2006-ban)
"idei vagy a tavalyi vagy akár az előtti AMD vs Nvidia termékpalettát" az megvan, ugye, hogy tavalyelőtt volt utoljára palettafrissítés NV oldalon(a Turing két éves) a Navi meg tavaly jött, szóval ez amit mondasz gyakorlatilag gyártónként egy-egy széria...
Gyakorlatilag a Pascal/Polaris megjelenése óta van az, hogy az AMD nem tud azonos erejű kártyát kiadni a csúcsra, az R3/5/7/9-3xx/Fury idejében még tartották a lépést a GTX9xx szériával. Akkoriban a legnagyobb kritikas az volt, hogy azonos teljesítményen az AMD valamivel jobban fűt, de még volt kb. azonos teljesítmény...Az mondjuk elég hülye módszer az AMD-től, hogy nem egyszerre ad ki egy teljes palettát lefedő szériát, hanem először kiadja az alsó felét(Polaris/Navi1) aztán egy évvel később a felső felét(Vega/RDNA2 "Big Navi"). Igazából bukta csak a Vega ebből, azért a Polaris és a Navi1 is hozta/hozza a közvetlen konkurrencia teljesítményét, sőt, igazából a Vega64-et is csak a 1080Ti veri egyértelműen, a nagyobb gond a hűtése, amit viszont esélyes, hogy az Ampere-rel az NV lemásolt(3080 és 3090 esetében legalább is várhatóan)
A Navi paletta azért még nem teljes, mérget még nem vennék rá hogy megint nem hoz konkurenciát a csúcsra, bár esély van rá, hisz elég izmosnak tűnik a 3090, igaz csak nevében tagja a konzumer palettának, gyakorlatilag a Titan RTX utóda.
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
Kansas
addikt
Akkor hívd Radeon lineup-nak, ha úgy jobban tetszik...
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
BiP
nagyúr
Nem fogunk egyhamar 110-120k körüli 2080Ti-okat látni, bilibe lóg a kezed.
(az egy dolog, hogy Te nem adnál ennyit érte, de ők meg nem fogják ennyiért eladni)A 150e felett vásárlókra: JELENLEG nem lehet kapni 3070-et. Se 200 alatt, se semennyiért. És arra is kevés esélyt látok, hogy 200 alá benézzen az induló ár. Úgyhogy egy jó ideig bőven reális 150felett árulni a kártyákat. Főleg nem a fapadosokat.
-
Kansas
addikt
Maradjunk abban, hogy jól néz ki, de ez még mindig csak marketinganyag...
Nincs olyan MI, ami képes lenne szimulálni az emberi hülyeséget... ha valaha lesz, annak tuti az emberi hülyeség lesz az oka... A Föld erőforrásai közül a legjobban az ész van elosztva - mindenki meg van róla győződve, hogy több jutott neki, mint másoknak.
-
worxland
addikt
Nem tudom, mit nem lehet érteni azon, hogy azt írtam, hogy azt néztem, amikor egymás mellett megy a két kártya képe (a videóban 0:43-tól 0:53-ig), és ott tetszőleges helyen megállítva a képet azt látni, hogy bármely megállításnál a 3080 27-65%-kal gyorsabb adott pillanatban. Most visszanéztem, körülbelül 30x állítottam meg, a 10 másodperc alatt egyszer sem láttam kisebb különbséget 27%-nál, de sokszor 40-50% is volt a 3080 előnye. Nyilván pontos képet majd 17-e után kapsz, amikor lesznek objektív tesztek, addig viszont ezzel kell beérni, ezt kell értelmezni.
[ Szerkesztve ]
''It's difficult to work in a group when you're omnipotent.'' - Q
-
marcarc
senior tag
Meddig vagyon embargó alatt a tesztelés? Megjelenés napja + pár nap?
[ Szerkesztve ]
-
DeathAdder
veterán
Lehet rosszul vagyok bekötve, de én baromira drágállom ezt is. Ujjongunk, hogy egy messze nem csúcs VGA 200-240 ezerbe fog kerülni, egy még mindig nem csúcs pedig 270-320 ezerbe. Turing ide vagy oda, ez baromi sok pénz. Meg annak örülünk, hogy ennyiért végre van érdemi előrelépés
És ott tartunk, hogy életem egyik legdrágább VGA-ját egy fél éves, még mindig friss rog strix 2070s-t még meg kellene toldani 100-150 ezerrel ha újabb generációra akarok váltani, és nem ám a csúcsra, vagy az egyel alattira
Mennyi is volt 10 éve az akkori csúcs HD5870, GTX480? ph! tesztre épp rápillantottam 100 illet 140 ezer, az abszolút csúcs, még hosszú évekig mindent lefölöző, emberfeletti teljesítményű dupla gpu-s HD5970 meg 160k. Ennyiért most lehet venni 2060s-t, hát szuper annyit meg közel nem inflálódott a forint, hogy ilyen 300 ezres messze nem csúcs kártyának örülni tudjak.
Már csak azért upgradelgetek, hogy ne rohadjon rám mindig régi és bukjak rajta még többet, de egyre jobb fáj ez így is. Ez a 8-10 gb meg tök lehúzás, tuti jönni fog az AMD a 3070-3080 köré 16-20 gigás karikkal, amire a nv is hamarosan válaszolni fog, na én azt fogom majd megvenni
-
Ezekiell
veterán
válasz DeathAdder #571 üzenetére
EUR árfolyam 10 éve 268 volt, most 360. Ehhez add hozzá az inflációt, és máris ott vagy, hogy bizony az akkori 100ezres kártya most 250ezres.
Aki mibennünk nem bízik, az önmagában sem bízik. Aki mibennünk nem bízik, az a mi fényes békénkben sem bízik. És aki a mi boldog, fényes békénkben nem bízik, az áruló.
-
Palinko
tag
válasz worxland #569 üzenetére
Azt nem lehet érteni hogy a kártya tulajdonképpen ugrál 94-205 FPS között és nagyon nem mindegy hogy melyik pillanatban kapod el, most már csináltál több mintavételezést és igen a 26,65% már reálisnak tűnik. Kérdem én hogy ha az nVidia úgy jelenti meg hogy a mostani csúcskártyánk 27,65% al gyorsabb mint az előző de cserébe olcsóbb 400$-al akkor is ugyan ez lenne? Hogy jaj a 3070 is elveri a 2080Ti-t és 500 dollár eljött a megváltás mindenki dobjon el kaszát kapát? Vagy hogy történt egy sima generációváltás és normalizálódott az ár a 2000-res széria RTX demo felára után? Mert nagyjából ennyi a történet, de a kommentekből nem ez jön le hanem inkább az hogy itt van a 3080 dobjátok ki a kártyáitokat mert ez mindenből 3 at is megeszik és olyan olcsó mint a szemét. Közben ha megnézed a 1080 meg 600$-on startolt, még a 1080Ti is megállt 700$-ba csak most hogy egy 1200$-os árról visszaléptünk 800-ra már kevésnek érezzük, de nem azért mert annyira kevés is lenne csak az előzőhöz képest az.
Nem azt mondom hogy rossz kártyák lesznek, meg nyilván az árcsökkentés is jó, egy jól sikerült generációváltásnak tartom, de azért hogy most felborította az nVidia az asztalt ezzel emg mindennek vége ilyen még nem volt stb nagyon túlzó kijelentések és túlreagálta a dolgokat a közhangulat. Szerintem minél több teszt jön ki annál jobban le lesznek hűtve az emberek én csak próbálom reálisabban megközelíteni hogy túl se hevüljek már mert rossz lenne csalódni ebben az egészben. -
Palinko
tag
válasz DeathAdder #571 üzenetére
A 8-10 giga konkrétan nevetséges már a 3. generáció kb ugyanannyi rammal, én renderelek nagyobb sceneket, tudom meddig tart megtölteni (nem sokáig), simán előállhatnak a játék gyártók, kb amikor akrnak, mert a 4K textúrák meg a részletes modellek már elvárások, egy olyan játékkal ami telefossa 11 gigáig és dobhatod kb el a pár éve megvásárolt kártyád mert hiába erős és futtatná a játékot még mindig gyorsan, fizikai korlátok miatt nem fogja... Szerintem sem butaság megvárni jövőre a super verziókat normális ram mérettel.
-
BiP
nagyúr
Az emberek már ki voltak éhezve.
A 1080 4éve, a 1080Ti 3,5éve jelent meg, ezek jól sikerült kártyák voltak, a 9xx-ek után egy szépen sikerült generációváltás. 2éve a 20x0 meg finoman szólva nem a jó ár-érték arányról szólt, és a teljesítményugrás is fos volt - főleg a megszokottak fényében, ráadásul mindezt atommód túlárazva. És pedig azt is megvették aranyáron is.
Most, hogy 4 év után végre visszatérünk a normális kerékvágásba, a 20-as széria után ez nem csak hogy üdítőleg hat, hanem ennyi kiéheztetés után euforikus a hangulat, már szinte olcsónak tűnik.
(pedig azért itt is 200e feletti kártyákról beszélünk) -
Palinko
tag
Szerintem tökéletesen levezetted és megfejtetted a pszichológiáját.
Az nVidiát is megértem az RTX meg Turing coreokat nem ingyen fejlesztették ki szóval valakinek ki kellett fizetni és bár nagyját a compute cégek állták azért a gaming iparról is fölöztek le, de jó ha ezzel mindenki olyan tisztában lenne mint Te.
Aztán reméljük hogy driver trükökkel még évek múlva is tudnak majd gyorsítani a most kiadott kártyákon mert ebbe van lehetőség. -
worxland
addikt
Hogy nem lehet érteni, hogy a 27% a minimum eltérés volt, nem pedig az átlag, mindegy melyik pillanatot nézett azok közül, ahol van összehasonlítható adat? Kurvára nem tanítanak már elemi matematikát a suliban? Mi a francnak koptatom itt a számat, ha a számokkal hadilábon állsz?
Ha szerinted attól függ, hogy melyik pillanatot nézem, akkor keres már ki csak 5 db framet a fent megadott intervallumból, ahol 27%-nál kevesebb a 3080 előnye.[ Szerkesztve ]
''It's difficult to work in a group when you're omnipotent.'' - Q
-
nuke7
veterán
-
Ezekiell
veterán
A matek nem annyi ám itt, hogy 10szer 10 az 100 Kamatos kamat számítás, és az EUR is 30%al romlott. Nem számoltam ki, lehet csak 200k az a kártya, vagy 180k, de mindegy is - a lényeg, hogy az árkülönbözet nagy részét az infláció+árfolyamváltozás adja.
Aki mibennünk nem bízik, az önmagában sem bízik. Aki mibennünk nem bízik, az a mi fényes békénkben sem bízik. És aki a mi boldog, fényes békénkben nem bízik, az áruló.
-
tasiadam
veterán
Volt ott 100 ezres 9800gt meg 150 ezres 8800 ultra meg 600 ezres asus mars II meg I is.
Gyermektelen, nem házas, másodrangú állampolgár
-
Palinko
tag
válasz worxland #578 üzenetére
Az nem tűnt fel hogy átvezetőnél van kimérve és játékban meg rendesen beesik az FPS? Most komolyan nem néztél meg más 4K felvételeket 2080Ti-vel a Doomról? Én úgy láttam nagyon jól helytállt annak meg sok oka lehet hogy az átvezetőt a 3080 gyorsabban rendereli pl a gyorsabb memória okán. Persze lehet átvezető videókat szeretnél majd nézni a kártyán végül is honnan tudhatom.
Dolgoztass mást, adok egy kis segítséget tessék az első frame az 5 ből ahol kevesebb mint 27% az előnye:
[link] -
Maelephant
aktív tag
Azt nézegettem, hogy vennék egy kisebb (kevésbé húzott gyárilag), de háromventis 3080-at, ami csak 2X8-as extra tápot kér és bizony a Seasonic Prime Gold 650W-os tápomról hajtanám meg, cseréljen tápot az, akinek .... tápüzeme van. Ha a CPU-t nem húzom, bírnia kell a GPU 320W-os teljesítménye mellett is.
-
worxland
addikt
Hajrá, már csak négyet kell keresni.
"Az nem tűnt fel hogy átvezetőnél van kimérve és játékban meg rendesen beesik az FPS? Most komolyan nem néztél meg más 4K felvételeket 2080Ti-vel a Doomról? " - mivel itt már sokan mondták, hogy elég lassú a linkelt tesztben a 2080 Ti eredménye, és mivel nagyon ugrál az FPS, és mivel nincs infó az átlagokról, csak azt vettem figyelembe, ahol a két kártya teljesítménye egyértelműen összehasonlítható. Nem csináltam hozzá valós vagy vélt ideológiát az átvezető vs gameplay rendersebességéről, mivel nincs hozzá infóm. Nincsenek illúzióim arról, hogy miért pont az átvezetőnél tették egymás mellé a két képet, miért nem játék közben (minden szentnek maga felé...), viszont figyelembe véve a 2080 és 2080 Ti közti különbséget, és a másik kiszivárgott videónál a Doom gameplay részeknél a 2080 és 3080 közötti különbséget inkább 40% körüli különbség jön ki a 2080 Ti és a 3080 között, nem pedig 27. 14 nap múlva kiderül minden, és akkor majd jót derülhetünk a mostani tippelgetéseinken. Addig viszont azon adatokból számolok, amelyek rendelkezésre állnak.[ Szerkesztve ]
''It's difficult to work in a group when you're omnipotent.'' - Q
-
MODERÁTOR
-
Prof
addikt
Vicces, hogy sokan azt hiszik, hogy majd hirtelen amikor mindenki 2080ti szintu kartyat akar 500 dollarert 3070 szemejeben akkor majd valoban 500 dollarert fogjak oket arulni.
Nem mondok ujdonsagot de szerintem a jatekosok tobbsege, foleg nyugaton inkabb vesz 400-500 dollarert uj konzolgent amire 4-8 eve "var", minthogy egy auto arat egy jatekos pc-re koltse.
Na meg, hogy az NVidia milyen jofej es veletlenul sincsenek kemeik/ infojuk az AMD konkurrens RDNA2 megoldasairol amire mindket nagy konzolgyarto ceg tobbtucat studioja fejleszt mar egy ideje..
Szemely szerint engem az erdekel, hogy hoznak e majd valami jo ar/ertek/fogyaszta /teljesitmeny aranyu mobilra tervezett nextgen 8nm-es gput, mert a 300-400w-os szornyeket eleg nehez lesz bepreselni a notebookokba amit a tulnyomo tobbseg hasznal.
3-ad 4-ed tdp-re lelimitalva nem hiszem annyira virgoncok lennenek a bejelentett uj asztali csucskartyak.[ Szerkesztve ]
-
DeathAdder
veterán
és a dollár?
Finally, the dreaded price-tag. With prices starting at USD 599, the HD 5970 is uncomfortably pricey. Even given the generosity AMD showed with its choice of components, $549 would have been reasonable, $499 pleasant. - techpowerup, ASUS EAH5970 2 GB GDDR5 Review
Ez bármi random US inflációs netes kalkulátorral is most ~700 dollár (amit ha megduplázzuk és számolunk 40%-al is csak 840 dollár), egy kétmagos abszolút csúcs videokártyáért ami teljesen más dimenzióban homokozott mint bármi más akkor, nem volt az a dual SLI csúcs nv sem ami megközelítette volna, és az akkor "uncomfortably pricey" volt, most meg boldogan rohanunk a boltba, hogy ennyiért megvehessünk egy még közel sem csúcskártyát.
és lehet szubjektív, de akkor még csóró iskolás koromban izzasztó pénzgyűjtéssel, de mindig össze tudtam kaparni egy 4870, 5870, gtx480, 580ra a lóvét, ugyanezt megcsinálni ma ~320 ezer ft-al (úgy hogy nem apuka vagy nagymama veszi meg) az akkori énemnek biztos lehetetlen küldetés lenne, de ha sikerülne is még akkor sem az 1 magos csúcs kártyát venném meg annyiért
[ Szerkesztve ]
-
VinoRosso
veterán
válasz DeathAdder #594 üzenetére
Teljesen túl vannak méretezve ezek a kártyák ahogy korábban is írtam. Az olló a piaci igények, a játékok technológiai szintje és a hardver képességei között egyre csak nyílik, és ki tudja mi fog erre rájönni még. Van ez covid szarság, amiből lehet a történelem legnagyobb gazdasági válsága lászik kikerekedni, hát ha valami ebben nem életképes az pont az 500-1500 dollárig terjedő 2-300 wattos VGA-k, akármennyire is jók. De ne legyen igazam...
-
Prof
addikt
Szerintem siman elmegy a 3090 egy 1000W-os taprol
De most komolyan aki 2020-ban nem laptopot/konzolt mobilt hasznal jatekra hanem milliot kolt egy asztali jatekpc-re azt nagytobbsegben hidegen hagyja a fogyasztas.
A hardverek altalaban tiktok modon mennek elozo genben nyomtak a funkciokon, aron. Most nyomnak a teljesitmenyen fogyasztason. Kovetkezo tuti jobb lesz fogyasztas tekinteteben ahogy az AMD-nel is igy tortent Vega >Navi valtasnal.
-
edward2
addikt
válasz DeathAdder #594 üzenetére
Ne felejtsd el, hogy viszont anno ezek az 'olcsó' kártyák sokkal gyorsabban avultak el. Ha évekkel ezelőtt vettél egy 1080Ti-t az ma is használható kártya.
-
Prof
addikt
Vard meg az uj konzolokat es az RDNA 2 alapu AMD karit.
(98% ot adok neki hogy nem egyedi Raytracing megoldast hoznak mint az RTX nvidianal es rengeteg jatek fogja tamogatni mivel az lesz a fix konzol hardver amit 4-8 evre terveznek)Sokan nem veszik eszre a sok nVidia maszlag mogott, hogy valojaban mennyire csokken az NVidia PC-s vga piaca. (ezt latjak ok mar regen ezert is mennek GF now, autopiac, AI fele) Nem veletlen termel tobb penzt mar masik uzletag magaban az nVidian belul is. Persze ez valtozhat ha megveszik az Armot es kijonnek egy eros mobile konzollal, ami a mostani Switch kimagaslo sikeret is feledesbe meriti.
-
Prof
addikt
Vettel 200 dollarert egy kartyat ami "elavult" huha vehetsz masik 4-et az "uj elavulo" generaciobol egy csucskartya arabol lol Garantalom a csucskartya nem fogja tulelni a 5 masik "gyorsan elavulo de folyamatosan ujabb architekturan levo olcso kartyajat. Konkretan leginkabb a kis memoria miatt nem indulnak el manapsag a jatekok, megha meg most is dx11re is van tervezve sok jatek.
Es akkor meg nem is emlitette a hasznalt piacot/ azt hogy konkretan hany kartya van a piacon adott also/kozepfelso kategoriakbol.Ha lesz egy joarasitott nagyobb memorias modell az bizony sokaig birja majd , nem beszelve az olykor erosen tuningolhato, bios hackelheto modokrol amivel lehet a teljesitmenyt dragabb kartyak szintjere huzni mert nincs a hutes/fogyasztas anniyra kritikusan fizikailag limitalva mint egy csucskartyanal.
-
nyakdam
aktív tag
+1
Jól összefoglaltad. A VGA ram mizériához pedig annyit fűznék, hogy mivel a jelenlegi konzolok még kb 2 évig velünk lesznek így biztos elég lesz a jelenlegi mennyiség. Az igazi next gen játékok nem fognak kopogtatni pár éven belül, a PCI 4 - es foglalat miatt pedig lesz elég sávszélesség a gyors memória cseréhez, ha a pc-re nagyfelbontású textúrákat mellékelnek. A next gen játékok mire kijönnek ezeken a kártyákon már nem lesz garancia és lehet már az 5xxx-es széria is megjelenik.