Új hozzászólás Aktív témák
-
HUN_Sector
őstag
20 játék alatti friss teszt - 3060, 4060, 3060TI kártyákkal összevetve
[link] -
HUN_Sector
őstag
válasz
Alogonomus #74 üzenetére
Arra ott az rx 6600
Bár az ezeket a régi procikat is is bottleneckeli. Nyers adatok alapján a 9600/2600-as cpu-k egy gtx 1650 superrel/1660-nal bírnak csak el. (adatok forrása pc-builds.com bottleneck kalkulátora)
Tudom, ez ennél kicsit sokrétűbb (játék, driver, dx, felbontás... stb.), de ez az alsó-közép-kategóriás vga jelenleg overkill melléjük. Budget géphez budget kártya illik, hiába teszel v8-ast egy trabiba, attól még az áttétek nem fogják 300-zal repeszteni a német autópályán.Egyelőre ezt a tesztet alaposabbnak érzem: [link]
Ráadásul gyökeresen más értékek vannak ugyanolyan processzor mellett is a youtubernél, mint a legnagyobb oldalnál. - ld. Starfield.De ez ugyanolyan, mint a 8700g procim esetében. Tesztetk alapján pl. bg3-ban full HD mediumot nem bír az igpu. Nem-e? Highon reccenésmentesen játszottam vele. Egy-egy játékverzió, vagy driverfrissítés gyökeresen átírhat minden eredményt.
-
Alogonomus
őstag
válasz
MasterDeeJay #73 üzenetére
A komoly teljesítményvesztést mutató játékok közül több is abszolút dx12-es cím, néhány konkrétan idei játék.
-
Alogonomus
őstag
válasz
HUN_Sector #72 üzenetére
Viszont a B580 pont az ilyen régebbi, már olcsóbb gépet használók között számíthatna jelentős sikerre, mint "olcsó" upgrade. A tesztek eredménye alapján viszont valószínűleg egy 50-70 ezres 2-3 generációval korábbi kártyával is gyakran jobban járna a gépét fejleszteni szándékozó.
-
válasz
Alogonomus #71 üzenetére
Rebar nélkül (illetve kicsi bar méretnél is, hiába írja a driver hogy jó!) ilyen. De az előző Arc is ilyen volt. Valamint arról sem feledkezzünk meg hogy dx12-es kártyák, régebbi dx11-es címek vulkan fordítóval futnak ahogy tudom, ahhoz meg kell cpu.
-
HUN_Sector
őstag
válasz
Alogonomus #71 üzenetére
Nem támogatott processzoron még szép. Követelmény intel esetében a minimum 10. gen, ez a dobozon is rajta van
-
Alogonomus
őstag
A jelek szerint a gyengébb számítógépekben nagyon rosszul teljesít a B580.
-
szerinted az UE5 fejlesztésének kezdetén volt BÁRKINEK fogalma arról, hogy mit tud majd a 4090?
"Közel sem csillivilli effektre van csak, sok esetben a megvilágítás vagy árnyékok számítására olcsóbb mint a hagyományos megoldások."
Semmiféle olcsó raszteres effektet nem vált ki az RT... ha pedig egyébként drága effektet váltasz ki vele, az cseberből vederbe.
hapakj
"Engem nem nyűgöznek le ezek a steril UE5 techdemok, vagy a cyber punk vagy a Matrix demo. Persze az Unreal Engine-ből is szépeket ki lehet hozni, lásd a Mortal Kombat széria és marha jól is megy."nem tudom mit nevezel sterilnek
pont az UE alatt olyan brutális mennyiségű "mikro-részlet" van, hogy sterilitással nem lehet vádolni...
"
az UE5 újításai az állejtésre készültek
- nope "hogy láss előrelépést....
hjaértem, akkor hát ezért futott a matrixdemo konzolon is 120frémmel, hogy mutassák milyen gyors(valójában pedig világverő látvánnyal futottak, 30frémet sem elérő sebességgel.... egyértelmüen a jobb grafikát akarták demozni, BÁRMIÁRON. de persze az érvek nélküli "nope" is kiváló vitakészséged feltételezi
)
"Mafia Definitive Editionnek is olyan látványvilága van, amit még UE5-től nem láttam s remekül van optimalizálva és megy mint a bolond.
Szóval ha valaki valami szarul kinéző lassú dolgot hoz ki az UE-ből az abszolút a fejlesztő hibája."Szerintem ez totál szubjektív. Nekem jobban bejött a Robocop látványvilága, mint a Mafia DE-é. (félig viccelek: szerintem mindkettő rohadt jól néz ki, ilyen szinte nem tudsz objektiven "szebbet választani")
pupehap
olvastál már driver changelogot?
az nv és az amd nem ért veled egyet, miszerint azon hibák a béna juzerek miatt voltak benne a korábbi driverben -
Jacek
veterán
Amazonon latszik par b580, kinai.
160k a legolcsobb -
tasiadam
veterán
válasz
Komplikato #63 üzenetére
Ugyan az lesz a story, mint a 4060 kartyaval is. Egy 4060Ti 16gb VRAM-al siman johetne, csak 3.0 alapplapom van, ami miatt borzalmas 1% low fps-em lenne. Most csak az uj keveset fogyaszto kartyak miatt kene nekem is uj alaplap, ami eleg vicces
-
DaVE-1
senior tag
Na kint vannak az Indiana Jones vga tesztek és pont a vram az egyik fő téma a tesztben...
"A 8 és 10 GB esetén is jelentős problémák vannak Full HD-ban
A 8 GB egyértelműen kevés a Hyper textúrákhoz még Full HD-ban is; nincs más, mint egy rángatózó orgia. És még a Giga textúrák is túl sokak egy 8 GB-os grafikus kártyának, amik ugyan sokkal jobban futnak, mint a Hyper, de még mindig nagyon dadognak. Az Ultra textúrák pedig még mindig túl sokak, még ha az átlagos képkockasebesség megfelelő, akkor is jelentősen dadog a játék. Csak a Medium beállítástól felfelé már nincs gond a 8 GB-os gyorsítókkal - igen, még a magas textúrák is túl sokak.
12 GB VRAM-mal a WQHD a hipertextúrákkal is jól játszható, és még nagyobb felbontásban is stabilan működnek a megfelelő grafikus kártyák, legalábbis rövid játékidőre - és a tapasztalatok szerint az id-Tech motorral készült játékoknál a memóriafogyasztás nem nő tovább.
A maximális teljesítmény azonban még nem érhető el 12 GB-os Ultra HD-vel. A képkockasebesség csak 16 GB-os grafikus kártyával emelkedik a maximumra, még akkor is, ha 12 GB-nál már nem jön zavarba a képkockatempó."Computerbase tesztjében azt Arc 770 fhdbe az rtx 3080 felett van , ilyet se ritkán látni
-
Komplikato
veterán
válasz
Komplikato #55 üzenetére
Na kezd kiderülni a dolog. Szóval a Videocardz oldalán van egy kis bejegyzés az Onix márkájú Battlemage kártyákról, miszerint a gyártói oldal szerint PCIE5-8x a csatolója a B580-nak. És ugyan abban a bejegyzésben van egy bekezdés, miszerint az Intel tényleg ilyenre tervezte eredetileg, de aztán módosítva lett menet közben, mivel a PCIE5 nem eléggé elterjedt még. Viszont sok helyen a régi infót adják meg és ennyi.
-
v.tom
őstag
válasz
HUN_Sector #36 üzenetére
Ó igen, a jó kis hybrid crossfire.
Próbáltam anno én is. Ha jól számolom 3 vagy 4 crossfire, és talán 1 vagy 2 SLI configom volt (mindig középkategória x2), és szerettem mindegyiket.
Crossfire oldalon szinte soha nem találkoztam driverből származó gondokkal, legfeljebb nem volt jó a teljesítmény skálázás. -
Dragon3000
nagyúr
Ha nem lenne gond, akkor hotfix sem jönne ennyi. Pl nvidia mindig a stabilnak mondott driver után ad ki minimum 1 hotfixet... Persze sok esetben lehet felhasználó hiba, de azért ne mondjuk mindenre ezt, azért, mert nálad nem jött elő. Ha ehhez hozzá vesszük a driver leírásokat, hogy mennyi hibát javítottak és még mennyi ismert hiba maradt, akkor vicces a kijelentésed.
-
hapakj
őstag
válasz
Komplikato #55 üzenetére
Gondolom mindkettő ugyanaz a chip így nem hiszem, hogy a PCI-E verzióban lenne eltérés. Manapság meg már PCI-E 5-t illene produkálni, én azt tartom valószínűbbnek.
-
tasiadam
veterán
válasz
Komplikato #55 üzenetére
A csatlakozo lehet, hogy 16, ha a savok csak 8
-
Komplikato
veterán
Gamer Nexus videóban a Sparkle hivatalos oldalán lévő adatlapokat mutatták (B580/B570), ahol a B580-ra PCIE4-16x szerepelt és a B570-nél szintén. Ez nekem azért fura, mert máshol az lehetett olvasni, hogy a B580 az PCIE5-8x, a B570 pedig PCIE4-8x csatolóval jön. Most akkor melyik igaz?
-
hapakj
őstag
hát én fejlesztői oldalról is hozzá tudok szólni, hogy 2014-2017 tájékán a Radeon driverek rettenetesen rosszak voltak. Teljesen szabványos jól működő kódra vagy teljesen értelmetlenül crasheltek vagy valami futott, de az eredmény teljesen marhaság volt. Értelmes hibaüzenet meg persze semmi. Küldtük nekik a bugreportok, ők küldtek új beta driver s semmi javulás. Végül feladtuk, oszt majd oldják meg ha akarják.
Nvidiánál olyan szempontból jó volt a helyzet, hogy kb mindig ment és jó eredményt adott, ott az volt a baj, hogy szinte mindenféle kódot megevett, megoldott és hibaüzenetet figyelmeztetést nem adott ha valami nem korrekt.
Node az intel driverek, azok nagyon patikák voltak. Hibaüzenetek, minden pontosak, s ha mindent kijavítottál, akkor teljesen a megfelelő eredményeket is adták.
Ilyen szempontból persze, hogy nem optimalizált radeonra senki, ha egyszerűen nem volt mit, mert a fejlesztő nem jutott el oda, hogy egyáltalán futassa
Az amd meg hónapos fáziskéséssel kiadott egy drivert, amin már ment a cucc ezzel extra munkát is csinálva magának, hogy majd neki kell optimalizálni
-
pupehap
tag
Mindenki aki ilyesmire panaszkodik, sepregethetne a saját portáján.
Nyilvánvaló user error-ok . A büdös életbe nem futottam még bele egyik gyártó kártyájával se driver problémába. Talán nem kellene lecserélni a stabil drivert egy fittyf@x bétára, mert miért ne.... Szánalom a köbön.... -
hapakj
őstag
a "szarabb látvánnyal jobban fut" az optimalizáció?
szerintem nehezen összevethető az id7 egy ue5el vagy a cyber2077 pathtracingjével...
. - hát kinek hogy. Engem nem nyűgöznek le ezek a steril UE5 techdemok, vagy a cyber punk vagy a Matrix demo. Persze az Unreal Engine-ből is szépeket ki lehet hozni, lásd a Mortal Kombat széria és marha jól is megy.Mafia Definitive Editionnek is olyan látványvilága van, amit még UE5-től nem láttam s remekül van optimalizálva és megy mint a bolond.
Szóval ha valaki valami szarul kinéző lassú dolgot hoz ki az UE-ből az abszolút a fejlesztő hibája.
-
Mans20
addikt
Ezek inkább 1080-ra lesznek jók. Persze 1440-ben kellett tesztelni, mert úgy előzi a 4060-at, ahogy az A750 is beéri a 256 bit miatt de ott el is fogy az ereje. 1080-ban meg 6600/3060 szint.
A B570 lehetne olcsóbb is, 100 ezer alatt nincs egy normális vétel NV-ből amit megvennék.
-
hapakj
őstag
hanem roadmap/vizio is.....
- ezek mik?egy motort nem akkor kezdesz fejleszteni, amikor megjelenik egy 4090, oda sok sok éven át vezet az ut, hogy a motorod azt használja/kihasználja...
- lényegében az UE5 fejlesztése is az UE4 radikális változtatásaival jött létre nem nulláról. Valamit szarul csinálsz, ha nem marad közben skálázható, s rengeteg minden függ persze a bele tett kontentől is. Szóval jah, olyan nincs, hogy ne tudnák a fejlesztők belőni, hogy a legerősebb kártyákon ne menjen jól, max nem kapnak rá időt.az UE5 újításai az állejtésre készültek
- nopehogy láss előrelépést....
eközben az RT képesség gyakorlatilag 6 éve "használhatatlan"
- már sokkal több helyen használnak RT-t mint amire az emberek gondolnának. Közel sem csillivilli effektre van csak, sok esetben a megvilágítás vagy árnyékok számítására olcsóbb mint a hagyományos megoldások. Mi is meglepődtünk, hogy mobil hw-en olcsóbban generált szebb árnyékokat, mint a hagyományos Shadow map megoldás. -
Komplikato
veterán
Hát ezért volt érdekes az az Unreal Engine bemutató ahol a SAJÁT real-time path tracinget mutatták be, aminél NEM számít a fényforrások száma és nem olyan atom lassú, mint az eddigi RayTracing és vagy PathTracing amit láthattunk. A dolog szépséghibája, hogy talán 5.6-5.7-ben jön ki, azaz rá két évig semmit nem fogunk belőle látni. Hacsak bele nem teszik a Fortnite-ba, hiszen az mindig fel van húzva aktuális legújabb stabil verzióra. Szóval fent leírt funkció csak és kizárólag hardveres RT-vel bíró kártyákon megy, de olyan látványbeli ugrással amivel anno az RTX kártyákat magasztalták. Utána ebből az lett, hogy volt egy egy tócsa a pályán amiben RT tükröződés volt, kapásból fele FPS-el és csá.
-
a 20xx vidiákkal nem csak RT képesség jött, hanem roadmap/vizio is.....
egy motort nem akkor kezdesz fejleszteni, amikor megjelenik egy 4090, oda sok sok éven át vezet az ut, hogy a motorod azt használja/kihasználja...
az UE5 újításai az állejtésre készültek
hogy láss előrelépést....
eközben az RT képesség gyakorlatilag 6 éve "használhatatlan" (indokolatlan gépigényért itt ott persze használhatsz pár effektet, ha tolsz mellé felskálázást és frémgenerálást is)és mondhatod, h az UE5 ellenállhatott volna a trendnek, de senki sem a saját ellensége....
viszont mindenki a "felhasználó" "ellensége"---
#47 hapakj
a "szarabb látvánnyal jobban fut" az optimalizáció?
szerintem nehezen összevethető az id7 egy ue5el vagy a cyber2077 pathtracingjével....abban veled vagyok, hogy szerintem az id7 út a jobb út*, de azért szívesen játszanék Matrix demo kinézetű játékokkal is
*6700xt és konzolgémerként talán érthető, miért
-
hapakj
őstag
Szerintem végletekig hw-e optimalizált motor ma inkább az idTech 7. Őszintén kiváncsi vagyok, hogy a Doom: The Dark Ages vagy az Indiana Jones: The Great Circle hogyan muzsikálna a 1080Ti-omon
Hmmm, úgy látom utóbbinak már egy 1080 Ti szint a minimum, ha RT meg kötelező akkor buktam
[link]
-
hapakj
őstag
nem. Ha letérdel egy csúcskártya az alkalmazásom alatt, akkor biztos vagyok benne, hogy én vagyok a hibás, mint fejlesztő, nem pedig a gyártó. Mi a fenének akarnék ki adni olyan alkalmazást, aminek futtatására még a csúcs hw se elég?
Hát ha megfektet egy csúcskártyát, akkor nem jól optimalizált
BTW az UE5 nagy újításai pont nem arra készültek, mert annyira jól optimalizáltak, hanem inkább nagyban leegyszerűsítik a kontent pipeline-t tehát a játékfejlesztőket segítik. Sem a Nanite sem a Lumen nem annyira erőforrás barát, de nagyon megkönnyíti, hogy high quality modelleket csak bedobjon a fejlesztő az engine-be és a megvilágítással sem kell vacakolnia.
Persze ez nem jelenti azt, hogy ne lehetne ezek használatát mellőzni, és konzervatívabb megoldásokkal és több munkával, minőségben alig rosszabb, de sokkal hw barátabb játékot készíteni
-
amd-t nem vennél, de az intelt várod
jó az aláírásod, hasznos annak, aki téged olvas---
#38 hapakj
nem az nvidia tolta, hogy RT a minden?
aztán amikor RTGI kerül egy mai játékba, akkor meg letérdel a millás csucskártya?????
mégis, ugyan kinek a hibája, ha nem az nvidiáé a kialakult helyzet?????
(a fortnájt rohadt jól optimalizált, a motort fejlesztő maga készíti a játékot... ennél optimalizáltabb kb semmi se lesz... lévén az UE5 az élmotor ma) -
ddaydome
senior tag
Elképzelésem sincs, hogy neked milyen amd driver hibàd volt, mert nekem még az Ati idejében volt, akkor is csak kb. 2x-r. Hasznàltam az elmúlt években geforceokat is meg Amd-t is, soha, egyiknek sem volt driver gondja.
Most rx7600 van, mert borzasztóan jó vételt tudtam létrehozni. Teljesen egyértelmű, hogy a Geforce erősebb ray tracing vonalon, de az ajànlat most az AMD mellett szólt.
Ennyit szàmít az àr.
Az 5600g-m meg úgy ad képet Apu-val, hogy 1366x768-ban low-medium beàllítások mellett teljesen jàtszható a jàték.
Szóval bullshit, amit itt leírsz. -
hapakj
őstag
válasz
SindaNarmo #41 üzenetére
Hát igen, ilyen metrikával biztos nem 4k-s, de szerintem ilyen elvárásokkal még a 4090-et is meg lehet fektetni. Elég egy szarul optimalizált játék, mint akkor úgy tűnik a Fortnite vagy mi
Attól is függ milyen játékokkal játszol, a sok Hz szerintem főleg a teljes kamera elmozdulások esetén fontos, főleg pörgős FPS-ek mint a Doom Eternal. Ezen kívül a VRR szerintem sokkal fontosabb, mert a 40-60 FPS-es tartomány is nagyon jó folyamosnak néz ki.
Egyébként VR headseteknél ugye nagyon fontos a képfrissítés, viszont a teljesítmény nagyon korlátozott. Ezért egy olyan trükköt használnak, hogy a 3D világot térben aszinkron leprojektálják a headset mozgása alapján, ezért fejmozgáshoz képest úgy tűnik mintha frissülne a világ, de igazából annak tartalma nem. Ez már bőven elég, hogy az ember ne legyen rosszul [link]
-
SindaNarmo
tag
Alapvetően egyet értek veled. Viszont az fps / csak a legjobb minőség / 120Hz + os vér pistikéknek biztos nem lesz jó. mert hát na. És ezek miatt biztos nem lehet rá mondani.
Persze a 4090-nél is lehetne fejtegetni hogy milyen esetekben bírja el a 4k-t normálisan.pl. én most vettem életemben először olyan monitor ami tud 60hz-nél többet (fullHD, nekem elég az orrom előtt egy 24es monitor is). Hát hogy is mondjam, nem lett heuréka érzésem. Pedig mindenki azt mondja hogy 120Hz alatt élni sem lehet. szóval minden preferencia kérdése.
-
hapakj
őstag
válasz
SindaNarmo #39 üzenetére
Persze hogy alkalmas 4k-ra
De ettől függetlenül tudom hogy nem 4k-ra van.
- tévedszEz nagyon játék és igény függő.
- Ha így van akkor nem egzakt fogalom, hogy egy kártya alkalmas 4k-ra, így teljesen értelmetlen hangsúlyozni is. Képes kiadni 4k jelet? Meg van a teljesítménye, hogy modern játékokat is futtasson 4k-ban elfogadható sebességgel => alkalmas 4k-ra. -
hapakj
őstag
Nem szoktam esport hülyeségekkel játszani. Az meg hogy a Fortnite nem megy a 4090-esen natívan 4k-ban, az marhára nem a 4090-es hibája
Ennek ellenére hülyeség volt, akik azt állították nem alkalmas 4k-ra, mert simán az.
Fallout 4, GTA V, Doom Eternal, Wolfeinsten New Colossus simán ment vele 4K-ban maxon. (Fallout 4 high res texture packkal, GTA V is ugye kapott grafikai updateket).
Red Dead Redemption 2, Detroit Become Human, Mortal Kombat 1 (2023) simán megy 1440p-ben akár 80FPS-sel is High Ultra közti grafikán upscaling nélkül.
-
SindaNarmo
tag
válasz
HUN_Sector #36 üzenetére
ja ja, bár végül nem próbáltam ki azt a feature-t (bár a terv az volt).
Mert amikor kapott dgpu-t az már R7 250 volt és azzal már nem tudott. -
HUN_Sector
őstag
válasz
SindaNarmo #35 üzenetére
Én A8-6500-zal, bár a Fallout 4 anno kicsit sok volt már neki. Azok az igpu-k viszont adott típusú belépő amd kártyákkal tudtak szinkronban működni
-
SindaNarmo
tag
válasz
HUN_Sector #34 üzenetére
Szerintem ő a nem G-s processzorokra gondolt. Csak itt nagyon eltérő az Intel és az AMD stratégiája.
Lehet hogy rosszul rémlik de szerintem pl az AMD-nek hamarabb volt olyan processzora amiben volt igpu, és a maguk korában azok sem voltak vészesek. Részemről vagy 5-6 évig A10-5800k-val játszottam.
-
GEIL
addikt
Amit emlitesz, attól függ milyen játéknál nyomod "4k"-ban......
Pont este néztem egy videót, hogy RTX4090-es kártyával "4K-ban" és full grafikán játszik a srác Fortnite-ot....videó elején ügyesen 3 mp alatt letekeri a settings-et, de megállítva videót láttam hogy DLSS quality-ben tolja...ami ennél a játéknál " a 3D graphics csúszkát" leveszi 66%-ra....és így megy neki 34-100 fps között....
Irtam neki, hogy DLSS-t kapcsolja ki és nézzük meg natívban...100% 3D renderrel.....
...persze hogy játszhatatlan....ezért nem is úgy állította be....ez oké, de akkor ne adja elő hogy FULL grafika
úghyogy a GTX 1080ti kártyád Counter Strike-ban vagy world of warcraftban elhiszem hogy teker jól még 4k-ban is, de azért a mai (pl unreal engine5-ös) AAA címeknél még az RTX3080 is CSAK 1080p-s kártya ha natívban nézzük és nem DLSS-sel.....sőt már 1440p-nél is butitgatni kell itt-ott...a 4k-t már nem is emlitem.
-
martonx
veterán
Sajnos a közelmúltbéli tapasztalataim alapján AMD kártyát már akkor se vennék, ha ingyen adnák. Ezért is várom nagyon az Intelt, hogy végre legyen még egy komolyan vehető alternatíva az Nvidia ellenében.
Azért az AMD és a jó driver így egy mondatban leírva, elég vicces volt, köszönöm!
Az intelt meg gagyi driverezzük, miközben ha nem is diszkrét gpu-kkal, de évtizedek óta ott van a GPU piacon, sőt mára meglepően korrektek a beépített GPU-ik, ellentétben az AMD-vel, ahol az asztali ryzenekbe rakott izék, éppen csak képet adnak (itt most kizárólag a latest gen CPU-ról beszélek). -
hapakj
őstag
Én 7 éve 4k-ban tolom
Mindig azon röhögtem, hogy mondják az emberek az 1080 Ti nem igazi 4k kártya, közben én meg azon játszottam, és 40-60 fps megvolt
Azóta váltottam 1440p 144Hz-re és még ott is kitart. Legalábbis nincs semmi cím, ami érdekelne és annyira megizzasztaná, hogy high alá kéne venni a beállításokat.
S nem veszélyeztett semmi "amatőr" upscaling megoldás sem, mert ez a kártya nem tudja
-
Sinesol
veterán
válasz
Komplikato #17 üzenetére
Az 1080p az manapsag már tényleg nagyon low end. kb. olyan, mint 5-6 eve a 720p volt, szoval nem mondanak hulyeseget. Manapsag az 1440 p a mainstream/sweetspot, aki pedig megengedheti, az mar evek ota 4k-ban tolja.
Kivancsian varom az ujdonsagokat, az előd is elég biztato volt első generaciohoz merten, plusz driveres szinten is oriasit leptek előre az elmult evekben, az ujabb tesztekben kifejezetten jol teljesitenek az ARC vga-k.
-
DaVE-1
senior tag
7600 az a 4060 alatt van pár %-al ez meg ráfejel a 4060ra is kb 10-et..
Ezek a %-ok rettentő közel vannak egymáshoz.De az ember (már aki olyan) el tudja dönteni neki melyik kell és miért
Szerintem a DLSS miatt a trioból az új emberkék a 4060-at vennék legtöbben. De ez csak az én meglátásom. -
GEIL
addikt
Nem volna rossz
Bár ugye nVidia sajnos felvásárolta a 3Dfx-et, így egy jó pár akkor még elméletben létező ötletet és már meglévő működő technikát is átvettek és továbbvittek....pl a "2 videokártya összekapcsolása" (SLI / Crossfire), amit először 2 db 3Dfx Voodoo2 (PCI) esetén láthattunk működni...stb stb.
-
GEIL
addikt
Mindentől függetlenül örülök, hogy van Intel videokártya is a piacon.....még középsulis végzős (2000) voltam amikor nagyon éltük azt a korszakot ilyen téren.
volt miből válogatni....nVidia (TNT, TNT2, Geforce, Quadro), Ati (Rage, Radeon..stb), Matrox, S3, 3Dfx (Voodoo-k)....stb....mindenki a pénztárcája és/vagy igényei alapján tudott válogatni. -
ddaydome
senior tag
Kb. 120e lesz mindennel együtt. Azonban akkor is jobb vétel egy AMD Rx7600, mivel fényévekkel jobb lesz az ellátottsága és szerintem nem is lesz annál gyorsabb ( lehet, hogy pont a gagyi intel drver miatt) és kb. ugyanannyi vagy olcsóbb.
Nekem RX7600 van és teljesen elkaristolok vele full HD-ban úgy, hogy minden maxon van. -
martonx
veterán
-
DaVE-1
senior tag
válasz
HUN_Sector #21 üzenetére
Amíg ilyen 780M-es kézi konzolok a fénykorukat élik addig bőven évekig lehet építeni ilyen 4060 féle kártyákra...Ahol a pénz számít ott ugyse cserélgetnek 2 évente vga-t ha már valami szarul fut akkor megy lejebb a felbontás/settings mintsem egy új vga-t vegyenek.
-
-
IBMAN42
csendes tag
válasz
Komplikato #17 üzenetére
Igen, a játékosok 53% 1080p-en játszik, de fontos meghúzni a határokat…
Cpu oldalról (9800x3d érkezésekor), 1080p tesztek mentek “mert ott jön ki a különbség” … 4090 sem képes annyi kraftra amivel releváns módon lehetne marketingelni, hogy bárki felváltson mondjuk egy 7800x3d-ről.
Szóval érezhetjük, hogy ezek a minimumok inkább a számháború kellékei, szépen megvárjuk a teszteket aki full hd játszik azt nézi, aki 1440p azt… a minimumokat bízzák csak ide…
-
DaVE-1
senior tag
válasz
Komplikato #17 üzenetére
Én meg azon szakadok hogy felbontásról beszélnek miközben egyértelmű hogy értelmes sebességek itt is csak a xess+frame gennel lesznek amik ugye felskáláznak kisebb felbontásból azaz csalnak és nem natív lesz már..
Ó azok a régi szép idők amikor csak a konzolokat fikáztuk hogy olyan hogy natív felbontás nem létezik, nos ezt elhozták pc-re is.
Azért egyszer megnéznék egy céget vagy akár csak egy kis teamet aki úgy isten igazából senki által nem direkt lefizetve valóban optimalizál hogy milyen sebességek jönnének elhagyva ezeket a trágya felskálázó dolgokat. -
hapakj
őstag
Indokolatlant írtam, mint pl ezek a csoda kínai kártyák, amik hoznak egy Geforce 1030-1050 teljesítményt 8x-os fogyasztás mellett. Akkor se kéne ha azoknak a fele árán lenne.
(Max érdekességképp, de aktívan biztos nem használnám)Az egy konkrétan rossz kártya, s nincs olyan ár, ami ezen segít.
-
Komplikato
veterán
Érdekes a marketing videó. Például szerintük az 1080p felejtős, az új minimum az az 1440p és innentől ebben mérnek sebességet, ebben hasonlítják az A750-et a B580-al. A másik érdekesség a saját felskálázó és framegen, aminél hangsúlyozzák a kisebb késleltetést, ami ugye DLSS3-nál meg FSR esetén szívás. Persze marketingben azt mondanak, amit akarnak, kíváncsi leszek a tesztekre.
-
paprobert
őstag
Túl szorosan van odaárazva a 4 éves kártyákhoz... Szerintem ez DOA lesz ennyiért.
De a tesztek érdekesnek ígérkeznek.
-
martonx
veterán
Magyar árakra kíváncsi leszek, mert nem igazán érzem olcsóbbnak a 249 dollárt, mint az rtx 4060-at.
4060-at olyan 125K-tól kezdve lehet kapni. Ha az Intel ennek érezhetően alá tud menni, mondjuk 110K környékére, és teljesítményben 10%-kal gyorsabb is (plusz a memóriája is több), akkor egészen korrekt ajánlat lehet. -
ledgeri
nagyúr
Majd a kiadás utáni vásárló szülőknek jobban oda kell figyelni, ha csak Bxyz számokra figyelnek vásárlásnál... mikor a "lurkó kért egy PC upgradet"...
(nem is értem, hogyan lehet 2 alaplap-chip és egy vga nagyszéria ennyira hasonló nevezéktanú... Mindegy megszoktuk....) -
tibaimp
nagyúr
Én meg a 300-as szériára leszek kíváncsi! Kellene HTPC-be.
-
skyrush7
aktív tag
Nagyon bízom bennük, hogy jól sikerültek!
Tekintve hogy az AMD és NVIDIA középkategóriás ajánlatai számomra nem túl vonzó fejlesztési alternatívák (főleg a VRAM miatt, plusz az előző generációhoz képest marginális ugrás történt), jó lenne ha végre újra hozzá lehetne jutni valamihez, amely olyan ár/érték aránnyal bír mint a 1060 volt anno. VRAM miatt be lehet szólni, de hiába nem QHD vagy 4K-ban játszik az ember, idővel kevés lesz a memória a low settinghez is - 970-nel ezzel speciel befürödtem, lenne még ereje futtatni néhány játékot, de a VRAM miatt rengeteg a stutter. -
imi123
őstag
Ez elég kurta kis cikk.Na majd az RDNA 4 -nél lesz tíz oldalas fényezés.De már az is valami hogy írtatok róla.
Új hozzászólás Aktív témák
- Szemüveges topik
- Hardcore pizza és kenyér topik
- Vírusirtó topic
- Trollok komolyan
- Samsung Galaxy Z Fold7 - ezt vártuk, de…
- Audi, Cupra, Seat, Skoda, Volkswagen topik
- f(x)=exp(x): A laposföld elmebaj: Vissza a jövőbe!
- Robotporszívók
- Milyen videókártyát?
- Luck Dragon: Asszociációs játék. :)
- További aktív témák...
- LG 55G4 - 55" OLED evo - 4K 144Hz & 0.1ms - MLA Plus - 3000 Nits - NVIDIA G-Sync - FreeSync Premium
- GYÖNYÖRŰ iPhone 13 mini 128GB Pink -1 ÉV GARANCIA - Kártyafüggetlen, MS3048, 94% Akkumulátor
- Microsoft Surface Laptop 5 13,5" i7-1265U 16GB 512GB magyarbill 1 év garancia
- BESZÁMÍTÁS! MSI MAG 255XF FHD IPS 300Hz 0,5ms monitor garanciával hibátlan működéssel
- HP ZBook Studio 8 WorkStation i7-11850H 16GB 256GB Nvidia Quadro T1200 15.6" FHD IPS 1 év garancia
Állásajánlatok
Cég: FOTC
Város: Budapest