-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
proci985
MODERÁTOR
jo, de azt is vedd figyelembe, hogy en a forum zajra haklis felhasznaloi kozott vagyok es jelenleg uresben 600-700rpm korul mennek a ventik. tovig terhelve (egyoras furprime) alatt pedig inkabb +25ig engedem a viz deltaTjet cserebe a halksagert.
plusz a kartya egy matrix platinum, aminel a gyari huto kb arra van, hogy be lehessen bootoltatni. vizen viszont tenyleg alom, vizezett 290xek kozott az enyemnek vannak a legjobb hofokai kb (a VRM resz nagyon durvan tul van meretezve, de vizezett vapor/lgtrol nem tudok a forumban).
---
nem tudom megegyszer nekiallnek e a projektnek, viszont jelen formaban kb azt tudja a rendszer amit elvartam tole. draga volt, de teljesit. plusz lehuzhattam a bakacslistarol a full custom vizet.
-
#85552128
törölt tag
válasz
#85552128
#15297
üzenetére
Mondjuk a hynix legfrissebb katalógusa szerint az MSI-n használt H5GC4H24AJR-T2C-nek 1.5V kell a 6 GHz és 1.35V kell az 5 GHz-hez.
A régi 290X-re elvileg a H5GQ2H24AFR-R0C-t rakták ami 1.5V@6GHz-re van hitelesítve, de elvileg csak 5 GHz-en ment így azon 1.35V-ot kaphatott.
Viszont a Hynixnek van olyan chipje is (H5GC4H24AJR-R0C) ami ezen a feszültségen már 7 GHz-et tud illetve alacsonyabb feszültségen is képes lenne 6 GHz-reTehát ha emelik a memóriát/más típusú ramot raknak rá a gyártók akkor jó pár watt különbség lehetne a kártyák (! nem a GPU !) között az elérhető chipek eltérő feszültsége miatt.
-
#85552128
törölt tag
33W volt a különbség a ref 290X és a 8 GB-s 290X Vapor-X között, úgy, hogy +30 MHz-es GPU és +125 MHz-es memória órajel eltérés van a két kártya között. [link]
A több memóriával is ugyanannyi chipet raknak a kártyára csak a kapacitásuk nagyobb, az meg mint látható pár wattnál többet nem hoz...
Az új kártyák jó pár mV-tal megvannak emelve, hogy tartani tudják az órajelet és ez okozza a nagy fogyasztást.
Bár azt még így sem értem, hogy fogyaszthat 100W-ot egy videofájl alatt itt akkor driveres/biosos powertune szabályozás van rosszul konfigolva. -
HSM
félisten
Ha kihoznának egy 4GB-os 390-et, ez akkor derülne csak ki. Vagy ha majd valaki veszi a fáradtságot, és egy azonos VRM-el szerelt, nem OC 390 kártyán megméri a GPU fogyasztást azonos terhelés mellett, mint egy 290-en. Természetesen ha mindkettő X-es, úgy is jó. Érdemes lehet megnézni, azonos órajelen is ugyanezt, pontosabban a 390-ből visszaveni az órajelet az elődje szintjére, ahhoz mit szól.
Addig nem tudhatjuk, történt-e bármi a tető alatt.
(#15294) Szaby59: A +4GB ram nemcsak az árat növeli, és furcsa fényben tünteti fel a Fiji-t, hanem a 390 fogyasztására sincs jó hatással. A TPU tesztben látott horror multimonitor fogyasztásból gondolom: [link]
+35W a 290-hez képest, ezek alapján a memóriarendszer fogyasztását közel megduplázták.
Nem hiszem, hogy a fesz vagy órajel miatt, inkább a dupla méret gyanús. Ugyanez a BR lejátszásnál. Ugyanakkor meg üresjáratban meg még kevesebbel beéri, amikor inkább a GPU számít. -
#85552128
törölt tag
Nem csak rád, bárkire aki szerint ez így okés. Jó, hogy jön a Fiji, de azért szerintem a Hawaii-t bármilyen változtatás (GCN 1.2, fogyasztás) nélkül kiadni hiba volt ismét, főleg ha a Nano tényleg azt hozza majd amit ígérnek... A +4 GB VRAM is csak feleslegesen növeli az árcédulát, arról nem is beszélve, hogy eléggé kettős marketinget sugall a Fiji 4 GB-jével szemben...
A 370 meg hihetetlen, még csak nem is a PitcairnXT-t hozták ki mint a 270/X-nél, hanem a Pro-t - nem mintha az a +200 mag csodát tenne.
A Tongát még lelehet nyelni, az viszonylag új, a Bonaire már megint csak kevéske ráadásul az sem a fullos verzió (komolyan ennyi selejt van még raktáron még a 3 éves GPU-kból is ?). -
HSM
félisten
Természetesen ez sem zárható ki. Ki kéne tesztelni, mi történt valójában.

(#15289) Asbee: Igen, a 970-nél is elhittük a gyártónak jóhiszeműen, hogy valós adatokat közölt a termékről. Ez így normális szerintem. A 300-as Radeonok esetén is ez lenne a normális, hogy amíg nem bizonyosodik be az ellenkezője, addig elhinni, hogy amit kommunikáltak a termékekről az nem kamu.
(#15290) Szaby59: Ha rám céloztál, nekem se tetszik, hogy a Pitcairnt hozták harmadszorra is, arra ráférne már kis funkcionális fejlesztés. A 390-eket is hagytam volna inkább 4GB rammal.
(#15291) coonee: Hát majd kiderül.
Nyilván valamivel több lesz a hibás, ha jobban ki van hajtva gyárilag. -
peterm711
aktív tag
Nagy valószinűség szerint kapott egy hatalmas alapfeszt, hogy ne crasheljen a magas órajelek miatt, ezért növekedett meg a fogyasztás, nem kell ehhez atomfizikusnak lenni. Kiváncsi vagyok hogy mi lesz ennek a vége, hány kártya lesz majd garba, mert összeomlik, meg artifact-ol.
-
#85552128
törölt tag
Most már stabilan 300W fölött van
![;]](//cdn.rios.hu/dl/s/v1.gif)
Amúgy tesztekből is látható, hogy nem több mint egy sima rebrand, +4 GB memóriával és kicsit meghúzva, a GPU-n semmilyen fejlesztés nem történt, azonos órajelen ugyanúgy teljesít mint egy 290X.
Azért aki a 300-as szériát még védi az igen elvakult fan lehet, a 4 GB-sTongánbocsánat "Antiguán" kívül az egész felhozatal szégyen, a GCN 1.0-s HD 7850 -> R7 265 -> R7 370-nel az élen. -
ffodi
veterán
Tudod, hogy ez nem győz így meg.

Amit pedig most nem hagyhatok ki:
"Az elsődleges változás a PowerTune rendszert érte, amely a felújított lapkák esetében az elődökhöz képest jóval stabilabban képes tartani a maximális órajelhez közeli szintet a komolyabb terhelést kifejtő program futtatása során"
Persze, mert itt nincs az a fos téglahűtés, ami 94 °C-on tartja a GPU-t, ami miatt visszaveszi az órajeleket a kártya.
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
HSM
félisten
válasz
peterm711
#15282
üzenetére
Nem tudjuk, mérséklődött-e a fogyasztás, legalábbis én még nem nagyon láttam ezt értékelhető minőségben taglaló tesztet.

Azt látjuk, hogy OC modellek, 8GB rammal többet fogyasztanak jóval, de ebből nem sok minden derül ki.
(#15283) Asbee: Ezt a legkönnyebb írni.

(#15285) szunya1: Emlékeim szerint az erősítőd nem szerette a kártya azon működését, hogy ha nem volt hang, akkor megszakította a HDMI hangfolyamot. Erősen kompatibilitási gond szagú, azt meg ilyenkor elég nehézkes kideríteni, melyik kütyü a hunyó.

-
-
#16729600
törölt tag
Egyrészt már van 4K-s 60Hz TV-m,én annyira nem vagyok szektatag,hogy vegyek mellé egy dp-s monitort is.
30Hz-en meg "jáccon az akinek 'nyóc anyja 'vót.Sajnos emiatt számomra epic fail a Fury széria. ( mondjuk azt azért megvártam volna mindenképpen vétel előtt,hogy az amúgy "hibátlan driverben szíveskedtek e végre javítani a több éves hanghibát. Tudod ( VGA-HDMI-AVR-TV terheletlen állapotban recsegés-ropogás ). 
-
guftabi96
addikt
válasz
peterm711
#15274
üzenetére
Mert most konkrétan mi is a baj? Azt állította valaki, hogy a 390x kétszer olyan gyors, mint a 290x?
Nem!
Nyilván mindenki jobban örült volna, ha teljesen új gpu jött volna, de nem értem, hogy miért nem fair play, amit az AMD csinált. Nyilván nem a 290x tulajok fognak 390x-et venni. (Aki mégis van olyan hülye, az meg is érdemli)
Viszont a 970-nél nem a valóságot tükröző adatok voltak megadva, és sehol nem volt megemlítve a kártya sajátossága. El lehet dönteni, hogy melyiknek van nagyobb súlya.... Szerintem elég egyértelmű a helyzet. -
peterm711
aktív tag
-
HSM
félisten
Nincs sajnos.
Az AMD oldalán van pár alap dolog. Viszont gondolom nem az ujjából szedte jópár oldal, hogy vannak változások. 
Köztük a PH is:
"A lapkák szempontjából feltűnőek az új nevek is. Hogy egyszerűbben be lehessen ezeket határolni leírjuk, hogy a Grenada, az Antigua, a Trinidad és a Tobago rendre a Hawaii, a Tonga, a Curacao és a Bonaire új steppingre épülő verziója. Az elsődleges változás a PowerTune rendszert érte, amely a felújított lapkák esetében az elődökhöz képest jóval stabilabban képes tartani a maximális órajelhez közeli szintet a komolyabb terhelést kifejtő program futtatása során. Bár ilyen játékok még nincsenek, de az aszinkron compute mellett nem lesz ritka, hogy egy grafikus vezérlő belső terhelése 80%-nál is nagyobb lesz, amit az új dizájnok kisebb órajelvesztéssel is meg tudnak oldani. Ezzel lényegében nő a gyakorlati teljesítményük a korábbi kártyákhoz képest." [link] -
TTomax
félisten
Az aktív átalakítók sosem voltak olcsóak...
-
stratova
veterán
Ha már a drivereknél jártam az imént. Csillivilli csodák helyett/mellett Catalyst megkaphatná a Strongene OpenCL H.265/HEVC Decoderét lehetőleg nem csak Windows támogatásával.
Kellemetlen, amikor notebookcheck az új Apple üdvöskét tesztelve arra jut, hogy jelenleg a H 265 még döcögős HW-es vagy szoftveres (OpenCL) támogatás hiányában. Mondjuk Apple érdekes is, hogy mihamarabb szülessen ilyen szoftver a rendszerükre, mert R9 M370 úgy meg tudná oldani a feladatot.
Remélhetőleg kellő figyelmet fordítanak erre. -
HSM
félisten
válasz
peterm711
#15274
üzenetére
Az új revízió nem ugyanaz a GPU. Amúgy a specifikációja elérhető, és nincs benne kamu adat. Innentől nem tudom, hol van az átvágás.
(#15275) ffodi: A horror összeget az esetek többségében az okozza, ha ilyesmi kütyüt nagyon kis szériában kell egy szűk közönségnek gyártani. Ez nem ígérkezik ilyen kisszériás motyónak. Aztán a fene tudja, hogy alakul.

(#15276) szunya1: A TV-zést akkor nyomod addig 4K 30Hz-en. Azt már most is lehet. Vagy DP-os monitort veszel 4K-sat.
-
HSM
félisten
Emlékeim szerint mindkettő egy OC MSI volt. Én azért megvárnám más gyártók, más modelljeit is, mielőtt messzemenő következtetést vonnék le.
A PCI-E-nek ehhez semmi köze. Le van fektetve, hogy ennyi mehet ki a 6+8pinen, 300W. Persze, ha közben OC-zzák, akkor ez lehet több.Én két BS-re emlékszem, és mindkét esetben hibás kártya volt az oka, az egyik esetben fel is merült, hogy visszavitt kártyát adtak el újra.
(#15251) TTomax: Ha már tavaly ügyködtek a prototípuson, akkor lassan csak elkészülnek vele, nem gondolod?

(#15254) ffodi: 30-40K jó vicc. Egy aktív HDMI/VGA/DP adapter 3 000-10 000 forint közötti összeg manapság. A DL-DVI átalakító azért lehettt olyan horror, mert az elég ritka motyó volt, így kérhettek érte horror összeget. Erre a DP-HDMI2 átalakítóra jóval nagyobb igény lenne, nemcsak az AMD VGA-i révén.
(#15265) Komplikato: A DP sosem volt közvetlenül HDMI-re alakítható, egészen más jeltovábbítást használnak. Csak egyes DVI és HDMI verziók alakthatóak egymásra.
Azt is írtam, a sanszosan az eredetileg HDMI2 előtt elkészült csipet utólag átalakítani (újratervezni, próbagyártás, validálás, optimalizálás, minden jóság) kellően horror költség lett volna. Persze, a user szemszögéből jobb, ha nem kell átalakító, de mivel ott a DP, és monitorokban az az elterjedtebb, így vállalható kompromisszum.
-
ffodi
veterán
válasz
Komplikato
#15265
üzenetére
Na nem túlzok!
Kb. 30k volt az aktív mivolta miatt, szerintem most sem kapod meg olcsóbban. (nekem nem konkrétan ez a típus van, de az mindegy is.
) -
stratova
veterán
Szerintem főleg egy prémium vonalnál elvárható lenne, hogy az OEM adjon a kártya mellé DP - HDMI 2.0 átalakítót. Nem a legszebb megoldás, de vállalható kompromisszumnak tűnik.
Szerk.: erre mondanám, hogy legkésőbb Fury polcokra kerüléséig, ezt meg kellene oldani a megfelelő partnerekkel.
Driverek tekintetében úgy látszik lassan kezdenek magukhoz térni. Értem ez alatt a javuló tesszellációs teljesítményt (igen ebből legtöbbet sajnos csak a Tonga és nála újabb kártyák profitálnak). Amennyire ráfeküdtek Carrizo energiatakarékosságára ezzel a lendülettel helyre lehetne rárzni a nyugalmi és BR, 2D terhelés alatti órajeleket is.
-
Asbee
veterán
válasz
Malibutomi
#15267
üzenetére
Ő sem akart rá blokkot. Örülj neki, hogy nálad nem melegedtek túl ezek.
-
#45185024
törölt tag
Én tulajdonképpen nem is a 4K miatt szeretnék Fury Prot venni.
Egy 4 ks nagyképernyős tv 300 ezer (ha akciózzák)
Viszont kell a VR hez és a Hololenshez az erős gép.
Láttátok a[E3 HOLOLENS bemutató]-t?
Nekem ez a rendszer kegyetlenül tetszik. -
Komplikato
veterán
Na ne túlozzunk, régen egy aktív átalakító D-Sub-HDMI volt 28K, most meg 8-12K. Viszont az, hogy aktív átalakító kell, az pont azt mutatja, hogy a DP nem átalakítható HDMI csatlakozóvá közvetlenül, ami nekem új infó vagy a HDMI 2.0 esetén történt valami technikai változás ami nem a sávszéllességet érintette?
Ettől még a HDMI 2.0 hiánya igen is fájó, mert valószínűleg a töredékébe került volna bele tenni, mint amiért megveheted átalakítót. Fentebb viszont írta valaki, hogy a 4K esetén mindenki TV-re gondol, amit én erősen vitatnék, pláne azért mert a nagyobb gyártók elég régóta tolják az 5K monitorokat és a Fiji-t is 5K képes gmaer kártyának promózták. És az akkor sem TV, ha van már 8K TV. 4K monitor meg igen régóta van, csak régen drága orvosi és CAD monitorok tudták.
-
Asbee
veterán
válasz
Malibutomi
#15263
üzenetére
Igen? Miután vizet kapott mert mind a gpu mind a vram túlmelegedett. Blokkal nekem is bejött a 290.
-
guftabi96
addikt
válasz
TTomax
#15260
üzenetére
Mintha nem lenne több lehetőség: R9 290X, Szétnéztem volna aprón hasonló tudású kártya után, vagy akár használtat, de erősebbet, vagy vártam volna. Ilyen egyszerű. Azt nem mondhatod, hogy kényszerhelyzetben voltak, mert nem volt más alternatíva...
Az pedig dicsérendő, hogy sok helyen visszavették.Asbee: "Ezerszer kitárgyalt téma, ne kezdjük újra." Mint ahogy a fogyasztás és a melegedés mértéke is az......

-
-
-
ffodi
veterán
Annyit még elfelejtettem leírni, hogy az átalakítók bizonyára aktív megoldásúak lesznek (közben látom a linken is írják), így nem 5k lesz az áruk, hanem vagy 30-40k. Ezt abból kiindulva mondom, hogy vettem már egyszer aktív DP to DL-DVI-t és az annyi volt, mindamellett, hogy Magyarországon be sem lehetett szerezni....
guftabi96:
Én meg használnám, és ha negatív tapasztalom származna belőle, eladnám. Ugyan ez vonatkozik a fogyasztásos történetre is. Ha nem tetszik, mert sokat fogyaszt eladom és veszek mást. Az hogy most melyik dolog mennyire szánt bele a saját lelkébe az embernek, az mindenkinek a saját dolga. Természetesen engem is bosszantana, de hogy mit tennék, azt épp az imént írtam le.

-
proci985
MODERÁTOR
válasz
Menthirist
#15222
üzenetére
plusz szerintem nonszensz, hogy 8 eve nem birunk tovabblepni az 1080pn.
-
guftabi96
addikt
Unalmas már az is, DE inkább fogyasszon 350w-ot a kártyám, minthogy átvágják a fejemet, mert ezt mindenki tudja, hogy az NV erről tudott. És itt ez a baj, hogy ettől függetlenül kiadták, hibás speccel. És ez sokkal nagyobb baj, mint az, hogy a rivális kártya 2x annyit eszik.
A saját vásárlóikat csapták be. Ha az én kártyámról kiderülne, hogy az a 3gb valójában 2,5gb + 0,5 én biztos, hogy ott oltanám az AMD-t, ahol csak tudom. A pénzemet meg követelném vissza. -
Asbee
veterán
Két tesztben is 300W felett eszik a kártya. Biztos ők valami forgalomba nem kerülőt kaptak. Tudod te is nagyon jól hiába 6+8 pin + ugye a PCI-E 3.0
attól még ehet az többet, csak most nem hangzana jól leírni.
Persze 250k-s kártyánál megyek majd átalakítókat vásárolgatni, amiért még elkérnek egy jó borsos árat, hiszen csak egy marhaság. Amúgy meg nézz már utána jobban ennek az átalakítónak mire ígérték... Ez is csak nálad és AMD-nél normális.
Nincs tele? Olvasd figyelmesebben. 3 új tulaj is kapásból BS-es az elmúlt 2-3 hónapban.
Nem a hdmi 2.0-val rúgott öngólt. Személyeskedés pedig nincsen tényekről beszéltem, arról a tudatos mellébeszélésről amit te is csinálsz, hogy a délutáni eredeti téma szóba se jöjjön.(#15249) Pepeeeee: Parancsolj 02.16 óta 7 alkalommal említettem itt meg a 980-at.A tartalmát is megnézheted és hány a Ti belőle. Ez a minden nap. Ne járassuk már le magunkat ilyenekkel... A fórumon sem voltál még amikor az elsőt írtam.
-
#45185024
törölt tag
guftabi96 : És teszi ezt egy AMD találgatós topicba ahol senki nem kiváncsi rá.
-
HSM
félisten
Mint írtam, képes 4K-ban 60hz-re, át kell alakítani DP-ról. Azt se véletlen írták, hogy nyáron jönnek az átalakítók. [link]
Nyilván nagyon fontos lett volna az AMD-nek komplett újratervezni a csipjét vagyonokért egy ilyen marhaság miatt, amikor jönnek az átalakítók.
400W-ot eszik, lol... 1db 6-pines és egy darab 8 pines tápcsatlakozó van rajta, 300W feletti fogyasztással forgalomba se kerülhetne így.

A memória fogyasztását csak azért említettem meg, mivel azt írtad, kamu, hogy áttervezték a csipet. Szerintem meg még nem voltak ehhez elég jó tesztek, hogy megítélhessük. Addig meg azt írni, hogy nem módosítottak rajta, szimplán hazugság.
Olvasom amúgy a 290 topikot, és nem igazán van tele küszködő BS-es tulajokkal.
A burkolt személyeskedést jobb lenne sürgősen befejezni, én sem írom le a véleményemet rólad. Pedig van.

Az AMD öngólt rugott a HDMI2 kihagyásával? Kicsit. Komoly gond lesz ez a tulajoknak? Nagyon nem. És ez itt a cefet nagy különbség.
-
guftabi96
addikt
Persze, de te is pl leírod nap, mint nap, hogy a 980-ad milyen jól fogyaszt és közben milyen jól viszi a játékokat.
Elhiszem, hogy meg vagy elégedve a 980-nal, el is hiszem, hogy jó kártya, csak éppen nem akarom minden nap ezt megtudni. Örülj neki, hogy megteheted, hogy ilyen kártyát vehetsz és ennyi.
Ha az fog érdekelni, hogy mi is a helyzet velük, akkor meglátogatom a saját topikját.Szerk: igen, a Borderlandsról példát lehet venni. A dying Light az eleinte szintén pocsékul futott, bár ott processzor volt a gond, ha jól tudom. Az Fc4 se volt egy diadalmenet az elején, a unity-re azért mondtam, hogyhagyjuk, mert bár az is nv játék, de annak ez mindegy, mert egy forintot nem ér az egész.
A Battlefrontot meg azért várom, mert már próbálják javítani a netcode-ot, (vannak tesztszerverek, 60-120 hz asszem) és bizakodok benne, hogy a Battlefronttal már nem lesz ilyen gond.
A BF4 indulása óta szerencsére rengeteget fejlőjdött, de ez még mindig annyira elég, hogx most tart ott, ahol induláskor kellett volna. Teljesítménybeli gondok visuont nincsenek. -
TTomax
félisten
válasz
guftabi96
#15242
üzenetére
Ne haragudj,de ha savaznak akkor azt hol máshol mint a saját topicjában?Azért ennél sokkal árnyaltabb a helyzet mint ahogy felvázoltad...Kaptunk pl egy borderlandsot...vagy egy Dying Lightot,a Unity pl nem az nV miatt olyan amilyen..a Witcher 3at folyamat javítják (már a hatodik patchnél tart),FC4-el sincs gond szerintem meg a GTA5-el sem...(persze írtad hogy nem is emiatt nem játszottad)
Ha a Battlefront meg olyan lesz mint a BF4 akkor azzal se sokra megyünk..
(#15243) schwartz
Hát ha azt azért nem is,de pl le kell szokni a preorder ,beta vásárlásról.Ha kiderül hogy jó a játék nincs vele komoly gond csak akkor vásárolni,mert ígérgetni azt ám mindegyik stúdió tud,az nem kerül semmibe... mennek a nagy parasztvakításos trailerek de produktum még csak a közelében sincs.Majd ha nem lesz bevétel akkor majd kicsit rákapcsolnak,mint pl az EA is tette...de addig amíg pl a CoDról fél évente ugyanazért le lehet húzni egy rókabőrt addig nem fog változni semmi.A legutóbbi CoD-ot pl megvettem... az a töltési idő .. az botrányos.. meg az egész úgy ahogy van,de már látom jön a következő,a nagy bütykös középső ujjamat azt fogják kapni,nem a pénzemet... -
guftabi96
addikt
válasz
TTomax
#15240
üzenetére
Ezt úgy mondod, mintha az AMD nem lett volna folyamatosan savazva ebben a topikban IS.
De amúgy amíg ki lehet kapcsolni, addig engem nem érdekel, hogy benne van-e, de tény, hogy kezdhetnének vele valamit, ha már létezik, mert szebb nem igazán lesz tőle a játék, de cserébe megnő a gépigény.
Nekem az az egyetlen egy dolog furcsa, hogy míg a Gaming Evolved játékok mindenen jól futnak, addig az nv játékok sokkal rosszabbul futnak AMD-n. Ezzel is csinálhatnának valamit, mert ez viszont idegesítő. És nyilván mindenki az nv-t fogja szidni, mert mit lát? Megnyitja a játékot, ott a nagy nv logó, aztán meg szarul fut.
Sajnos ezt én is tapasztalom, de szerencsére az utóbbi időben egyik cím sem emiatt lett végül félbehagyva nálam.( FC4 közelébe se ér a 3-nak, Unity-t inkább hagyjuk, project Cars nekem csalódás, főleg a rossz ffb miatt, watch dogs unalmas, sivár).
Remélem idén jobb lesz a helyzet, de ez túl szép álom, hogy igaz legyen.
Szerencsére a Battlefront GE játék, engem pedig az érdekel a legjobban.Asbee: ez alapvetően Radeon találgatós topik, nyilván nyilván itt olyanok vannak többségben, akik az AMD kártyáival szimpatizálnak, azt készülnek a jövőben megvenni stb Szerintem természetes, hogy nem azt akarják olvasni, hogy bezzeg az Nv.... Pedig a 980 az .... Nem tudom mi ebbe olyan meglepő.
-
Asbee
veterán
Tehát szerinted, az nem gáz, hogy egy új kártya amit 4-5-6K-val reklámoznak nem tud 4K-ban 30 fps-nél többet egy TV-n. Úgy, hogy ha 4K szóba jön szinte mindig TV-vel.
Az sem gáz, hogy egy átnevezett kártya majdnem 400W-ot eszik egy komoly játék alatt, de a 980-at nem hagyja le azonos áron. Persze foghatjuk arra , hogy mert 8 Giga ram van rajta amivel kitörölheted... hiszen úgysem tudod kihasználni.
Az alsóbb osztályban lévő gázos átnevezések se fontosak, ezek mind jelentéktelen dolgok, de a GW amit ki tudsz kapcsolni azt megint 200 hsz-en át kell beszélni.
De azt sem látom, hogy nagyon feszegetnétek a mai napig elő kerülő BS gondokat amivel új 290/X tulajok küzdenek.
Az AMD propaganda hála Abunak és neked ma megint alakul, az eredeti szerencsétlen témát jól elhagyva.Az meg, hogy nem a gyártó színe alakítja a véleményed az az év poénja volt tőled.
Kicsit próbáljuk már meg korrekt egyensúlyban kezelni a dolgokat. Állandóan erről panaszkodtok, hogy az NV-nek minden el van nézve, az amd-nél meg minden felnagyítva. Holott pont ez van most fordítva, az amd öngóljairól meg beszélni nem lehet.
(#15242) guftabi96: Kezd már baromira unalmas lenni ez az egymásra mutogatás, hogy ki mit savaz. Korrektül kéne minden problémát, lehetséges hibát stb-t kezelni tájékoztatni és kibeszélni, megvitatni. Ez sajnos a PH-n nem így működik már egy ideje.
-
TTomax
félisten
válasz
decibel
#15237
üzenetére
Kár a gőzért nem akarják felfogni,hogy nem kötelező opció gw-t választani,illetve ha ez kerül beépitésre akkor talán a stúdiót kellene feleltségre vonni.Ugyis mindig ugyanoda lyukadnak ki az nV-t fikázni kell valamiért.

Az se géz ha a hön várt vgara nem kerül rá a legújabb HDMI szabvány,mert az is egy sznob aki 4K tvt vesz és arra szeretné kötni,nehogy már ne legyen neki elég a 30Hz,igaz az új Fury a 295X2nél is gyorsabb 12K-ban tudja a fix 60fpst a dirtben...

-
keIdor
titán
Azért annyira nincs ám elhanyagolva a Kepler sem. Minap lepődtem meg én is, hogy mennyire jól viszi a 780Ti a GTA V-t.
1080p, 4xMSAA, minden Ultra és Very High, amit csak enged, kivéve a fű az nem Ultra-n volt, hanem VH-on, illetve a látótávolság volt 50%-on, meg az extreme árnyékok voltak kikapcsolva, hogy beleférjen a 3072MB-os keretbe az egész.Ezt így vitte 50-90fps között, mikor hogy. 50 alatt nem is volt... azért ez nem rossz, és csak a vram miatt nem tudtuk az a keveset még rátenni.
-
decibel
aktív tag
válasz
-Solt-
#15209
üzenetére
Nem. Ez egy lehetőség amit vagy használsz, vagy nem. Mivel az NV kínálja ezért olyan feltételeket szabhat amit szeretne, ha a fejlesztő úgy látja, hogy ezzel nagyobb kárt okoz mint hasznot akkor nem veszi igénybe. Plusz ezzel az NV még mindig többet segített az adott stúdiónak mint amit a másik két konkurenstől kapott, ahova "nem fértek be".
-
HSM
félisten
válasz
Menthirist
#15222
üzenetére
Hát nem tudom, szerintem pont a fű meg a falevél éppen az, ahol a geometriával/GPU erőforrásokkal spórolás a lehető legjobban tetten érhető. Persze, vannak játékok jobbféle fűkkel, fákkal, de konkrétan egy sem jut eszembe, ahol kevésnek éreztem volna a felbontást a grafikai részletességhez képest, a fordítottjára viszont igencsak volt példa.
A fejek is ugyanaz az eset, jópofán hangzik így a "4K textúra", de ott is inkább a geometriai részletességen szoktak csúnyán elúszni a dolgok. Úgyértem, már FHD-n is, nemhogy mi lenne 4K-ban.

Persze, világos, miről beszélsz, hogy el sem készül a 4K tartalom, de visszatérve a fűre, fára, hol látni manapság játékban egyáltalán ehhez hasonlót? [link]
Ha nem az eredeti nagyfelbontásút nézed, hanem csak a kb. fél képrenyőnyi kisképet 1024*683-as felbontásban, még olyat se nagyon produkál semelyik játék...(#15224) ffodi: A fórumtárs azt kérdezte, ennyire megértő lennék-e, ha az Nv-nél lenne hasonló probléma. Az Nv-s dolgoknál azt írtam le, ott miért voltam bizonyos dolgokon felháborodva, és most miért nem vagyok. Gondoltam, ha indokokat is írok, akkor ér valamit a válaszom.

A régi genek supportja alatt azt értem, hogy az aktuális generáció mindig jó supportot kap, viszont az előzőt szeretik elfelejteni. Jelenleg pl. a Keplert. De sejthető, hogy a Maxwell sorsa sem lesz más, mivel a Pascal eléggé más felépítésű cuccnak ígérkezik, két drivert meg nem lesz gazdaságos maxon fejleszteni.
Ami az AMD drivereit illeti, nekem semmi bajom nem volt velük, pedig éveken át AMD kártyáim voltak. A ZeroCore bugok nagy része, és a BS-ek közül is jelentős számban alaplapi eredetű gondok. Ott a lapok gyártóit kéne masszírozni, hogy írjanak rendes BIOS-t a lapjukhoz. Persze, könnyű az AMD-t okolni ezekért, hiszen csak azzal jelentkezik, mivel az Nv-nek nincs ilyen technológiája, ami elaltatná a GPU-t bizonyos esetekben.

(#15230) Erdei88: Mindenhogy tudja a 4K-t. HDMI-n és DP-on is. Csak HDMI-n van egy 30Hz-es limit, amit csak DP-HDMI2 átalakítóval lehet kiküszöbölni. Nem ideális megoldás, belátom, de közelsem akkora tragédia, mint néhányan beállítják.
A Maxwell úgy jön ide, hogy leírtam, Nv oldalon mikkel volt bajom, és miért tartom azokat súlyos gondoknak, míg ezt a HDMI2 dolgot nem. Nem a gyártó színe alakítja a véleményem.

-
keIdor
titán
válasz
Komplikato
#15223
üzenetére
Elofordulhat, de amit meg is lehet -most- venni meg nem lattam. Viszont sok az 1440p-s 27"-es, ez a meret terjedt el.
-
CsonkaImo
addikt
válasz
mortar_94
#15231
üzenetére
Szia!
Ilyen magas FPS-ekkel teljesen simának kellene lenni a játékoknak. Egyedül a GTA IV ami nem fut normálisan még az erősebb kártyákon se, de ott a játék optimalizálása gyenge. Itt található a kártyád fóruma, írd meg itt is a problémád, hátha valaki tud segíteni.
-
mortar_94
újonc
Lehet, hogy én nem tudom kivenni a választ, de kérlek benneteket, hogy az analfabétákra is gondoljatok és válaszoljatok kicsit világosabban.

-
-
mortar_94
újonc
23"-os monitorral nyomom, ez azért annyira nem nagy, hogy ez a gép így ne bírja el, vagy mégis?
-
mackosajt
addikt
válasz
Menthirist
#15226
üzenetére
Aknakereso, passziansz 4k felbontason mekkora lehet.

Ezek a számok már mezei halandók számára elérhetetlen dolgok.

-
válasz
mackosajt
#15221
üzenetére
a 4k az alapvetően a 4096 közeli felbontásra utal (valós 3840x2160, de pl DCI 4k az 4096x2160, míg 21:9-es kijelzőnél ez 5120x2160-at jelent). Ugyanakkor ez alapvetően egy 16:9 vagy 16:10 körüli esetben igaz, tehát itt ez esetben ugyan a 12k a vízszintes pixelek miatt jogos (11520 pixel), de csak 2160 magas, tehát 48:9 képarány.
Szóval nem valós 12k, mert akkor kb 11520x6470 pixelnek kellene lennie a felbontásnak, de pongyolán fogalmazva a 3x 4k az jelenthet 12k-t is.Csak anno ehhez még 2-3 vga-ra volt szükség (pl még két éve 3 darab 7970-re hogy a dirt fusson ilyen felbontáson 60 fps-t, bár ehhez akkor spéci custom-made driver is kellett mert nem volt általános a 4k 60 fps akkoriban.
Most meg bizonyos játékoknál elég egy is (azaz régen is voltak persze játékok amire elég lett volna egy is, de értitek
) -
ffodi
veterán
Akárhányszor olvasok bele a topicba, mindig ide lyukad ki a beszélgetés......

Nem akartam erre reagálni mert ez elvégre egy AMD topic, de:
- 3,5+0,5 GB valós probléma, de miért kell még ezen mindig lovagolni? Legtöbb user észre se veszi. (ezzel nem azt mondom, hogy nem is kell róla beszélni......)
- Sávszél szűkössége: okoz ez valahol is problémát jelenleg? Nem hiszem. Jövőben fog? Lehet, de addigra már kiöregedett kártya lesz biztosan.
- Regi gen.-ek supportja: ez alatt mit értesz?
Másik oldal:
Egy pár ezres átalakító megoldja az AMD silány drivereinek kérdését, megoldja a zero-core bugokat? Megoldja a 290x-eknél a BS-t? Netán megfogja a
z átnevezett390/390x-nél oldani ezeket a gondokat ha előjönnek?Szer.: Tudom, ezek nálad nem jöttek elő, más meg nem foglalkozik/nem tapasztalja az általad írtakat.......
-
én azt mondtam, a kettő együtt határozza meg. nem ér semmit a részletgazdagság ha nincs min megjeleníteni, és nem ér semmit a megjelenítés, ha nincs részlet amit megjelenítsünk.
" Még FHD-n is ritkán a felbontás, ami limitálja a részletgazdagságot."
Ebben nem értek egyet. Az olyan dolgokban mint a fű vagy a falevelek, részletesebbnek tűnik már ma is a 4k gaming mint a fullhd. De mondhatnám már akár a homok textúrát is. Star Citizenben a karakterünkön néztem a multkor hogy 4k x 4k és 8k x 4k textúrák vannak (egy halom). A fejen talán pont egy 4k-s (de a legújabb patch óta már nem sima dds-ben van a textúra ha jól látom, hogy megnyithassam)tudom hogy te fhd-4k konverzióról beszéltél, ezért magyaráztam hogy ebben az esetben minden pixelből négyet csinál a rendszer. veszni pedig elveszik a részletesség, mert nem is készül el, nem 4k felbontású kép készül el, hanem csak negyedakkora. negyedannyi pixellel. persze manapság már nem abból áll a felkonvertálás hogy minden pixelből négyet csinál és kész, de a végeredmény nem olyan lesz, mintha mind a négy ki lett volna számolva.
-
Xmister
senior tag
válasz
rocket
#15215
üzenetére
they needed just one video card in the PC to push all those pixels at a playable frame rate, the AMD Radeon R9 Fury X. The frame rate was pushing 60FPS, which isn’t too bad considering what the single $649 graphics card is doing behind the scenes to push out all those pixels at an acceptable rate. AMD informed us that two Radeon R9 290X’s or a Radeon R9 295×2 get around 45-50 FPS on this exact setup.
Read more at http://www.legitreviews.com/12k-gaming-with-one-amd-radeon-r9-fury-x-graphics-card_166585#QBedcuq96SCqzcT4.99Az azért nem rossz...
-
HSM
félisten
válasz
Menthirist
#15211
üzenetére
Arra gondoltam, hogy nem a 4K fogja meghatározni a kép részletgazdagságát, hanem a játék készítői. Még FHD-n is ritkán a felbontás, ami limitálja a részletgazdagságot. Ne felejtsd el, hogy a látásnak is komoly fizikai határai vannak. Szóval igen, 4K-ban szebb lehet a játék, ha a készítők kellően sok (értsd pokoli sok) részletet tesznek bele, és Te is olyan távolságból nézed, ahol ez érvényesülni tud.
Én nem a 4K --> FHD konverzióról beszéltem, hanem a 4K megjelenítőn FHD tartalomról. Igen, így 4 pixel működik egyként, de nem veszik el részletesség, mint ami általában történik, ha nem natív felbontásban megy egy LCD kijelző, mivel így nincs szükség interpolációra.Ugyanakkor írod is, hogy zavarna a 30FPS, de közben el is várnád, hogy csurig legyen a játék részletekkel. Hát erre elég kicsi esélyt látok. A rengeteg részlet hatalmas felbontáson olyan számításigény, amitől még egy Fury is igen messze van. Ez szerintem ma még csak álom.
(#15214) Erdei88: Ha ilyen jelentéktelen, kb. magától megoldódó dologról lenne szó, akkor nyilván. De pl. Maxwell-eknél nem fog megoldódni magától a 3,5+0,5GB-os dolog, nem fog megoldódni a sávszélesség szűkössége, nem fog megoldódni a régebbi generációk megfelelő supportja, a GW mesterséges gépigény-növelése.
Ezeket nem tudod kivédeni egy párezer forintos kütyü beszerzésével, ráadásul a tulajdonosi körből is sokkal többeket érint, mint ez a HDMI2-es dolog fog a Fury-val. -
válasz
TTomax
#15216
üzenetére
lényeg hogy 3x 4k monitor
Akárhogy is, ez is jól néz ki (ez más mint amiről a legitreviews ír)persze ennek hátrányai is vannak, pl stratégiában egyszerűen túlságosan sokat kell mozogni az egérrel (meg persze hogy olyan képernyőre teszi az ablakot ami a legmesszebb van az egértől

-
rocket
nagyúr
-
Jack@l
veterán
Pontosan ott van benne, hogy hány szakaszból álljon a hajszál. A hairInstanceDescriptor paramétereinél meg csak az alap dolgokat sorolták fel a getting started-ben. Gondolom nem véletlenül van ott a ... fejlesztők nyilván erről fullos doksit olvashatnak, de nem a weben.
Egy stúdiónak, aki mondjuk 200-300 millió dollárt kaszál egy nagyobb játékon, mi a francnak van szüksége a kártyagyártók anyagi támogatására? Mennyit kaphatnak, 1-2 millát? Vaghy nagyobb biznisz lefeküdni egy gyártónak?UI: nézz utána mit takar a ..., nyilván lesz ott még valami. (a hatodik érzékem azt súgja, hogy annyira nem hülyék a fejlesztők hogy ne adjanak a haj tesszellálására paramétert)
-
nem tudom értelmezni ezt a "nem 4k-tól lesz szép a játék grafikája" dolgot. Magas felbontásban szebbek a játékok, részletesebbek mint alacsonyban, persze attól függően mennyi részletet tolnak bele. Tehát ha sok a részlet de alacsony a felbontás, az éppúgy kihagyott ziccer mint 4k felbontás minecraftban. Szóval a 4k egy olyan dolog, amivel szebb lesz a játék, amennyiben normálisan meg lehet hajtani. Több részlet, kevesebb AA probléma, élesebb kép, stb.
FHD-t 4k-ra konvertálni pedig arról szól, hogy 1 pixelből hogy találjuk ki, milyen lehet másik 3... köszi, maradok annál, hogy minden pixel okkal legyen olyan, amilyen, és ne vesszenek el részletek vagy jelenjenek meg olyanok, amiknek nem kellene."Ha a 30Hz zavar, a 30 körüli FPS is fog."
Ez így van. Hozzászoktam már hogy nem 30 fps-ben használom a gépem. Amikor a desktopon az egeret mozgatom, az nem 30 fps-el megy, és a játék se 30 fps-sel fusson. Pontosan ezért nem jó ha a tévé 30 fps-en menne 4k-ban, különösen mivel a kártya amúgy képes lenne rá (lásd, dp-n ez megy)HA tényleg nyáron jön meg az átalakító, akkor igen, probléma megoldva. Ezt mondtam eddig is. Addig viszont amíg nincs átalakító, addig a probléma fennáll. Ezt nem kell elfelejteni.
Chiller: Engem kevésbé zavar a 4 giga, mivel vr-ra veszem, oda meg erő kell, nem nagy felbontás támogatása. Emellett attól hogy most van egy 6 és egy 12 gigás gamer kártyája az nvidia-nak, a játékfejlesztők az elkövetkezendő egy-két évben nem gondolnám hogy 8 gigára terveznék a játékokat. Persze nagy felbontás vagy multimonitor esetén kellhet a több mint 4 giga, már ma is, de nem gondolom hogy az lesz az általános hogy 4 gigával max medium grafikát tudnék majd elérni
Annyira még nem népkártyák a 4 feletti gigás kártyák. Szóval én úgy vagyok vele, hogy épp most nálam még befér a 4 giga, rift alá.
Aztán meg majd meglátjuk milyen lesz dx12 és vulkan alatt a helyzet, ahol nem kell előre 16 giga vram pool-t lefoglalni mert drága művelet a memóriafoglalás és felszabadítás, és képesek lesznek nagyobb overhead nélkül akár pár pixeles méretű blokkokat is folyamatosan változtatni a memórián belül, illetve normálisabban streamelni a textúrákat. Azért anno a Rage sem nézett ki rosszul, és kevés vrammal is beérte... konzolon. pc-n persze romosan jött driver és egyéb problémákból kiindulva.szerk: most látom hogy félreértettelek (vagy módosítottál a hsz-en, mindegy), hogy 3-4 giga alatt nem vennél. Így pláne jogos. aki a következő 1-2 évben játszani akar jobb minőségben, oda a 2 giga vram már könnyen lehet kevés. persze a 380/960 is

Keldor papa: én megszoktam a 27"-on a fullhd-t. Igen, pixeles volt, pláne az elején, meg amikor még ott volt mellette a 24-es fhd monitor, de aztán megszoktam, már nem vészes. Viszont mivel 2 van (és lehet lesz egy harmadik), így 1440-re nem szívesen váltanék, mert akkor vehetek megint több ugyanolyan monitort.
-
HSM
félisten
válasz
keIdor
#15207
üzenetére
Természetesen ez így van.
A FHD monitorban nagyjából 24"-ig jó. De ennek az az oka, hogy viszonylag közelről szokás egy monitort nézni. (Ugyanis a látás/optika miatt döntő fontosságú, milyen távolságból nézzük!)
Ezért nem gáz pl. ugyanaz a FHD felbontás egy 55"-os TV-n pl., mivel azt meg legalább 3X messzebbről szokás nézni, mint egy monitort.
Ugyanakkor a 4K csak TV-ken probléma a Fiji/Tonga-val, mivel DP-on kimegy belőlük a 4K 60hz-en, csak a HDMI-re van 4K-n egy 30hz-es korlát.
Tehát monitorból nyugodtan tehetsz mellé 4K-sat, TV-ből kell észnél lenni, mivel ott a HDMI2 az elterjedt bementi szabvány, ellentétben a monitorokkal, amiken szép számmal találni DP bemenetet is.
De ugye nyáron jönnek a DP-HDMI2 átalakítók, szóval ez meg fog oldódni szépen.

-
-Solt-
veterán
válasz
decibel
#15184
üzenetére
Értem, tehát annak aki ezt a fajta lehetőséget kínálja, semmi szerepe az ügyben. Az nem számít, hogy az egész konstrukció arra alapoz, hogy úgyis lesz olyan, akinek nincs elég pénze, és besétál a csapdába. Ráadásul mindezt úgy, hogy gyakorlatilag csak a júzer szív, mert ettől az NV-nek meglesz a bevétele, a fejlesztőknek szintén... max annyi van, hogy a júzer morog, majd ugyanúgy a kasszához sétál, sőt még védi is az ügyben szereplőket. Zseniális!
-
Abu85
HÁZIGAZDA
válasz
Jack@l
#15190
üzenetére
Amelyek szükségesek ahhoz, hogy az effektet implementáld a motorba, de egyetlen változó sincs például a tesszelláció paraméterezésére vagy arra, hogy hány szakaszból álljon a hajszál, amely a legfontosabb dolog lenne.
Az AMD, az Intel és az NV is kínál anyagi segítséget a fejlesztőknek a partnerprogramokban. Az hülyeség, hogy csak az NV ad pénzt, vagy egyéb anyagi juttatásokat. Viszont nézd azt a gondot, hogy az AMD és az Intel partnerprogramja túlterhelt. Mindkét cég több stúdióval és kiadóval dolgozik együtt, mint az NV, és ezért például nem tudják vállalni a kimaradtakat. De a kimaradt stúdiók és kiadók is próbálnak szerezni anyagi támogatást, és ha nem tudnak elmenni az AMD és az Intel partnerprogramjába, akkor maradt az NV. Nyilván ez a vezető oka annak is, hogy az átlagot tekintve az TWIMTBP játékok rendelkeznek a legrosszabb optimalizálással, mert azokat a kiadókat és stúdiókat tudják felkarolni, amelyek az Intel és az AMD rostáján nem mennek át.
-
mortar_94
újonc
Sziasztok!
Kérem, nézzétek el, hogy ide írok, de nem találtam erre megfelelő topikot és a probléma mégis talán leginkább ide sorolható. Megpróbálom minél rövidebben és tömören leírni a helyzetet, aki esetleg úgy érzi, hogy nincs kedve segíteni, az kérem tekintse a hsz-t semmisnek.
Van egy...
AMD FX(tm)-4100 Quad-Core-Processor 3.60GHz
RAM: 4,00 GB
Radeon HD 7770 1GB GDDR5 -el ellátott gépem.A probléma az, hogy nem képes annyi fps-t produkálni, mint amennyi az adott játékoknál, programoknál elvárható lenne. Az érdekesség az, hogy bármelyik fps mérésre alkalmas, a játékba beépített, vagy attól független program egy teljesen jó számot mutat, viszont a kép 60-80 fps-nél is akadozik.
Például a CS:Source 300 fps-el megy, teljesen szépen, viszont ha ez a szám leesik 250-re, akkor észrevehetően szaggat a játék. A GTA IV teljesen lebutítva 70-80 fps körül képes csak szépen futni, de ezt ritkán tudom elérni.
A legújabb driver van feltéve, a hűtése jó, az egyetlen igazán régi darab a gépben a 400W-os "Ever-Power" táp, ami meglehet már vagy 6-8 éves is, de semmilyen jelét nem adta idáig annak, hogy rosszul érezné magát. Nem vagyok igazán ördöge a gépek építésének, eléggé amatőr vagyok, inkább a játékélményt keresem, ezért lehetséges, hogy fontos információkat nem osztottam meg a tisztánlátáshoz. Ha így van, írjátok meg, hogy milyen adatokat adjak még meg. Ha van bárkinek ötlete, hogy mi lehet a gyenge teljesítmény oka, kérem, hogy írja meg, köszönöm!
-
-Solt-
veterán
Szerintem mindent a súlyának megfelelően kell kezelni.

(#15153) Szaby59: Nem a lehetőség biztosítása a baj, hanem a "hogyan", és a milyen "áron". Viszont ez a téma is pont olyan, mint a napokkal ezelőtti trollkodás kérdése. Ha valaki nem érzi ennyi kitárgyalás után, hogy a GW-vel mi a baj, akkor teljesen feleslegesen kezdünk bele századjára is.
(#15154) gbors: Így van, szükséges róla írni, csak amíg a GW régebbi gond, ami ráadásul mindenkit érint aki az adott játékokkal játszik, addig ez a HDMI2 kérdés egy friss valami, ami a júzerek töredékének jelenthet gondot. Itt vajon hány emberkének lehet játékra alkalmas 4K tévéje?

-
HSM
félisten
válasz
Menthirist
#15200
üzenetére
Nem általánosítottam. Az álláspontomat írtam le, ahogyan Te is. Azért ha racionálisan végiggondolod, szerintem neked is világos lesz, hogy nem a 4K felbontástól lesz szép egy játék grafikája.
Arról nem is beszélve, hogy "veszteségmentesen" rámehet a FHD a 4K kijelzőre. A sebességes büntetése pedig hatalmas a 4K-nak. Ha a 30Hz zavar, a 30 körüli FPS is fog.A csip ha már le volt tervezve, elég nagy gabalyodás lehet, ha bizonyos helyre még hozzá kell toldani ezt vagy azt. Nyilván jó okuk volt így kihozni. Egy új revíziónak is iszonyat költségvonzata van, nemhogy egy ilyen áttervezésnek.
Szerk.: Jön az átalakító nyáron, problem solved.

(#15201) TTomax: Nem írtam ilyet. Viszont a régi 290X 8GB-okon így volt, mivel oda kétszerannyi csipet tettek, mint a 4GB-os kártyára. Így a kétszerakkora kapacitású ramcsipekkel biztos nem ennyi a plussz fogyasztása, viszont borítékolhatóan bőven a kisebb kapacitású csipek fölötti.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- SAPPHIRE NITRO+ AMD Radeon RX 7900 XT Gaming OC Vapor-X 20G - Konzolvilág garancia 2027.05.07.
- SAPPHIRE RX 9060 XT 16GB GDDR6 PURE OC - Új, Bontatlan, 3 év garancia - Eladó!
- Új asus rx 9070xt 16gb oc 3 ventis!
- MSI RTX 3070 8GB GDDR6 SUPRIM X - Dobozos, Újszerű - Eladó!
- ROG Strix GeForce RTX 3090 OC Edition 24GB GDDR6X
- Kaspersky, BitDefender, Avast és egyéb vírusírtó licencek a legolcsóbban, egyenesen a gyártóktól!
- LG UltraFine 4K és Smart Monitorok: FRISS SZÁLLÍTMÁNY -30%
- ÁRGARANCIA!Épített KomPhone Ryzen 7 5700X 16/32/64GB RAM RTX 5060 Ti 16GB GAMER termékbeszámítással
- Bomba Ár! Lenovo ThinkPad L14 G2i - i5-1135G7 I 16GB I 256SSD I 14" FHD I Cam I W11 I Gar
- Nagyakkus! Dell Latitude 5430 i7-1255U 16GB 512GB 14" FHD 1 év garancia
Állásajánlatok
Cég: NetGo.hu Kft.
Város: Gödöllő
Cég: PCMENTOR SZERVIZ KFT.
Város: Budapest

Nem hiszem, hogy a fesz vagy órajel miatt, inkább a dupla méret gyanús. Ugyanez a BR lejátszásnál. Ugyanakkor meg üresjáratban meg még kevesebbel beéri, amikor inkább a GPU számít.

Nyilván valamivel több lesz a hibás, ha jobban ki van hajtva gyárilag.
![;]](http://cdn.rios.hu/dl/s/v1.gif)












