-
Fototrend
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
Crytek
nagyúr
Egyelőre lelőtték a Shadow of the Ethernals-ot

AMD-nek elfogyott a zseton
-
HSM
félisten
válasz
radi8tor
#7596
üzenetére
Most az, hogy 5500-on megy a RAM, vagy 6000-en...
Szvsz édesmindegy ~1Ghz GPU környékén.
Tuningnál meg megint mindegy, mert nyilván abban is lesz kis tartalék... Viszont kis csalódás, hogy a sima Tahiti XT GPU megy csak rá, úgy tűnik semmiféle refresh nem lesz. Végülis, legalább jobban megmarad a két 70-esem értéke.
-
tehát akkor a 280X épp egy hangyaf***nyit lassabb lesz, mint a 7970 GHz? érdekes, én a helyükben egy kicsivel gyorsabbra hangoltam volna. lehet, hogy olcsóbb így a memória miatt.
a második meg no komment (ha igaz). mondjuk teljesen összhangban van a bejelentős eventen mutatott fejetlenséggel.
@radi8tor1: a launch eventből is kiderült, hogy ez a terv - sajátos.
-
radi8tor
MODERÁTOR
-
Z10N
veterán
-
WayneGace
őstag
válasz
TESCO-Zsömle
#7589
üzenetére
Elvileg beállhatnak, mert nyitott, csak kell egy gcn-hez hasonló architektúra. Maxwellel ez az nvidianak is meglesz elvileg.
-
aAron_
őstag
válasz
FollowTheORI
#7588
üzenetére
"Ha lenne egy 3rd party API ami működik minden OS-en és fejlett az maga lenne az álom"
opencl az nem az? én csak ezt nem értem, miért nem inkább azt fejlesztették már eddig is, ha a dx olyan elmaradott
-
TESCO-Zsömle
titán
válasz
FollowTheORI
#7588
üzenetére
Nekem az a gyanúm, hogy a Mantle elsődleges húzófunkciója a next-gen multiplatform játékok közel konzol-szinten történő PC-re portolása. A bibi ugyanaz vele, mint a Glide-al vagy a CUDA-val. Nem független, így a konkurensek nem fognak beállni a sorba...
-
A Glide azért terjedt el, mert nem volt más... anno a 3DFX egyeduralkodó volt szinte ezért amikor 3D gyorsításról volt szó csakis Glide volt.Ha jól emlékszem a DX 1 vagy 2 évvel később jelent meg.
Az első időszakban még DOS alól is simán volt 3D gyorsítás Glide használatával 1-2 programban.
A Glide akkor kezdett kihalni mikor a DX megjelent és vele a nVidia, mint konkurens.
Az első Riva kártyákkal... majd a TNT korszaktól kezdve szépen bedarálta az ellenfelét.
Szerencsére közben az AMD is megjelent épkézláb használható megoldással.
Ebben az időszakban eleinte még volt játék ahol választhattál a két API között ha volt 3DFX kártyád, és általában picit jobb volt a Glide, vagy valami plussz tudás vagy sebesség miatt. De ez 1-2 év alatt eltűnt az API-val együtt.Nagy kérdés van e az AMD annyira erős hogy kellően el tudja terjeszteni ezt a dolgot a fejlesztők között.
Sokszor volt már technológiai előnyük, amit szoftver oldalon sose tudtak kamatoztatni vagy átverni időben, csak akkor amikor már a többiek is tudták azt, sőt általában már jobban.Lásd TrueForm, Tesszeláció esete, DX verziók.
Egy gyors pillantás a steam hw surveyre azt sugallja... nem lesz most sem egyszerű ez.

Én drukkolok nekik... sőt imádnám ha az MS-t kiütnék grafikus API szinten a játékból 1-2 éven belül.
Ha lenne egy 3rd party API ami működik minden OS-en és fejlett az maga lenne az álom.
Ehhez sajnos szövetkezni kellene az nVidiával... meg az Intellel is.
-
HSM
félisten
válasz
Malibutomi
#7585
üzenetére
Pontosan. Viszont ezekszerint a 2.0 16x is elég neki, míg a 2.0 8x itt-ott már nem ideális a helyzet. Szerintem jó hír ez a régebbi rendszert használóknak, hogy 16-os slottal nem maradnak le semmiről.

-
HSM
félisten
válasz
TESCO-Zsömle
#7583
üzenetére
Nemcsak ezen múlik, játékfüggő is a dolog. Mondjuk nekem 3.0-s slotban nem volt mérhető difi a 8X-és 16X-os mód között, mikor két 7900-asom volt azokkal a játékokkal, amikkel próbáltam. Ugyanakkor, többen számoltak be jelentősebb lassulásról 2.0-ás 16-os portból 8X-ra történő váltásnál ilyen karikkal a topicjában.
-
TESCO-Zsömle
titán
Ugyanakkor fontos megjegyezni, hogy alig mérhető különbség egy 8-as és egy 16-os portban levő videókártya közt, mert a fejlesztők a késleltetése miatt minimalizálják a PCIe használatát.
-
HSM
félisten
válasz
janos666
#7575
üzenetére
A Mantle-ről.... Annak idején a Glide is azért terjedte el, mert többet lehetett vele nyújtani az aktuális API-knál, amik le voltak maradva a hardver képességeitől. Pontosan a mai helyzet vs GCN. Ez egy szükséges rossz, hogy továbblépjen az API és a konkurencia, és ha utol lesz érve aMantle API, ugyanúgy ki fog halni, mint az elődei. De én nem vagyok emiat szomorú.
Ilyen a világ.(#7578) janos666: A CF szerintem is egy borzalom, mégis sokan szeretik. Engem nem zavarnak vele, tehát nem izgat a dolog. Mivel nem tetszik, nem építek magamnak.
Ami az alaplapokat illeti... Akár AMD akár Intel platformon ott vannak a fullos 16/16 lapok. Sokkal mélyebbre kell nyúlni a pénztárcában, mint egy 8/8-as lapért, főleg Intelnél, de nem mondhatod, hogy nincs erre megoldás.
-
Z10N
veterán
Errol lenne szo:
AMD MST HUB
Club3D MST HUB Product Info
Club3D MST HUB News
Guru3D: Club3D MST HUB
OC3D: Club3D MST HUB
UKHW: Club3D MST HUB
TomHW: Club3D MST HUB
HWHV: Club3D MST HUB
Mivel 100GBP egy kicsit sok erte. -
Z10N
veterán
válasz
janos666
#7578
üzenetére
Azt viszont elfelejted, hogy manapsag egy GPU-t nem csak jatekra lehet hasznalni. Van aki kimondottan ilyen tobbkartyas rendszert epit ki GPGPU/OpenCL muveletekre. Eyefinityhez hozzaszolva, igazad van valamelyest. Ettol fuggetlenul nekem az eyefinity3 kivaloan mukodik DVI+HDMI+mDP-n keresztul. Engem inkabb az erdekel, hogy vegre ezeknek az MST HUB-oknak az ara csokkeni fog-e.
-
janos666
nagyúr
Én még így is azt kívánom, hogy haljon ki végre a CF/SLI.
Volt már több GPU a gépemben (egy és több nyákon is), mindig megbántam.
De amúgy is, ne próbáljanak engem belehajszolni abba, hogy két (több) kártyát kelljen vennem.
Főleg, hogy a Mantle is gyorsítana, ha minden igaz.
Az is érdekes, hogy régen voltak alaplapok CF módban is teljes sávszélességű PCI-E portokkal, de mióta beköltözött a PCI-E vezérlő a CPU-kba, azóta szűkültek a lehetőségek. (Persze elvileg lehetne a CPU-nak is sok-sok PCI-E csatornája, de nem ez a jellemző). Mégis most térnek vissza ide. (Azt hiszem régebben is ment vagy a CF, vagy az SLI is ilyesmi üzemmódban, híd nélkül, csak picit lassabban.)
Azért érdekes, hogy a DisplayPort-on évek óta kimegy 10 bit/channel, ha támogatja a monitor (és szintén évek óta sok, főleg Dell IPS és drágább NEC, EIZO, stb monitorok támogatják is), a DVI-on viszont nem, látszólag mégis azt javasolják, hogy először köss be minden (n>1, n<=3 darabszámú) monitort DVI-ra, és csak utána kezd el használni a DisplayPort elosztót (bár igaz, hogy nem tudom hogy ilyen elosztóval is működik-e a 10 bit/channel, még nem próbáltam, de a DP 1.2-nek jó nagy a sávszélessége...).
Persze ebből semmit nem vesz észre, aki nem kalibrálja a monitort VGA LUT-al (de ha egymás mellett van 3, akkor nagyon nem árt, ha egyformára vannak belőve), agy használ specifikusan 10-bites renderert. (Sőt, hétköznapi körülmények közt talán még akkor sem, csak tesztábrákkal.) De ettől függetlenül, szerintem alapvetően az elméletileg legjobb megoldást illik javasolni, még akkor is, ha a következő verzió sem okoz feltűnő hátrányt. Ugyan úgy, ahogy nem D-sub-al kötünk be egy monitort, amin van DVI, HDMI vagy DP, még akkor sem, ha ránézésre épp fel sem tűnik (bár az általában fel szokott, mert nagyobb a difi, de a lényeg, hogy van, ott is és itt is...).
-
janos666
nagyúr
Látom sokan elolvadnak a Mantle hallatán. Ezzel én is így lennék, ha a közepesen távoli múlt nem azt bizonyítaná, hogy az ilyesmik bizonyos szempontból halva születnek. (Aki emlékszik, nemrég offoltam egy csomót a Creative féle EAX-ról és az OpenAL-től, amik nemrég haltak ki méltó utód nélkül.)
Kétségesnek érzem, hogy ha az AMD-n kívül más nagy piaci szereplő készít hozzá drivert, akkor vajon használja-e majd bármely játékfejlesztő, aki épp nincs az AMD-vel közös marketing-hadműveletben. Márpedig akkor sokkal nagyobb a füstje, mint a lángja. Gyakorlatilag talán már a Frostbite-al bezáródik a kör, és az arra épülő játékokból sem lesz mindben elérhető. (Én pl. két Frostbite alapú játékot várok a BF4-en kívül, a Bioware-től, és részemről ennyi. Amíg utóbbi kettőről nem is tesznek említést a Mantle kapcsán, addig ez engem nem szögez le az AMD mellett.)
Másik kérdőjel számomra, hogy miért hiszik, hogy az nVidia egyszerűen tudna saját Mantle drivert írni a kártyáihoz? Az AMD sokkal jobban ismeri a saját alkotását, mégsem készít drivert csak a GCN architechtúrás megoldásokhoz. Melyik hasonlít jobban az ~ Island AMD chipekhez: a Cypress vagy a Kepler? Melyik lenne egyszerűbb: az AMD-nek támogatni a Cypress-t, vagy az nV-nek a Kepler-t?
Mondjuk mostanában kicsit le vagyok maradva, hogy melyik GPU hogy épül fel, azzal pedig még mindenki, hogy pontosan mit is tud/kér a Mantle (v1.0), de valahogy biztos vagyok benne, hogy hacsak nem kezdi el használni kazalnyi játék, akkor rá sem néz az nVidia.Nameg... Itt van ugye ezer éve az OpenGL. Ha nagyon akarta volna, akkor bármely komoly játékfejlesztő és/vagy GPU gyártó megpróbálhat beleszólni. Ha mindkét oldal akar valamit, akkor biztos megszülethetett volna egy olyan 5.0 kiadás, ami mindenkinek jó, tehát minden gyártónak és a programozóknak is. De nem így nézett ki a közelmúlt. Talán egyedül Carmack szórakozott vele, de már ő is használt DirectX-et is.
És ha már Carmack, akkor ő szórakozott a CUDA-val is, mint potenciális játékmotor alap. Nyilván nem láttunk végül belőle semmi (talán egy másik csapat használta egyszer a CUDA-t élsimításra egy RTS-ben + talán pár techdemó hasonló apróságra).
És ebben már nagyon nem vagyok biztos, de mint ha elvileg a CUDA-t is épp úgy támogathatná az AMD, mint ahogy az nVidia a Mantle-t. Mégsem tették, pedig a PhysX miatt érdekes lehetett volna, illetve mára már kiforrottnak mondható a CUDA. Perszer, hogy nem tették, de ugyan így nem akarja majd az nV sem az AMD cuccát, ha nincs rákényszerítve.
Persze jön még az érv, hogy mindkét új konzol GCN-es GPU-kra épül, és hogy azokon is lesz Mantle. Igen, és ugyan úgy lesz saját konzolspecifikus low level API, mint eddig. A játékfejlesztők pedig mást sem mutattak az utóbbi években, mint hogy szándékosan gyenge hatékonysággal futó PC portokat akarnak kiadni. Ahelyett, hogy optimalizálnának, még az automata compiler optimalizációkat is direkt kikapcsolják, és eszükbe sincs a 4+ magos CPU-k idejében a minimálisan szükségestől több magot használni (hogy egy megjelenéskor aktuális erős CPU-n legyen minimum ~30fps, mind konzolon, még csak nem is 60, amennyinek illene).
Miért szeretnének akkor most ezek a játékfejlesztők hirtelen egy turbó gombot nyomni a PC portok teljesítményén? Most se teszik meg, mert néha szó szerint ott van előttük a "turbo gomb", hogy kapcsoljuk be, vagyis inkább ne kapcsoljuk ki az automata compiler optimalizációkat, és esetleg próbáljuk már ott szétszedni több CPU szálra a dolgot, ahol akár már a compiler is automatikusan szétrántja nekünk, ha megkérjük mutasson rá és csak ellenőrizni kell, hogy menni fog-e.
Szóval, mit hagyok ki a képből, amitől a Mantle az új hardware generáció aktív marketingidőszakán túl is sikeres lesz? Legalább annyi kéne, hogy higgyek benne, hogy az AMD legyen elszánt és mondja, hogy ha kell, akkor egyenesen erőltetni fogják, és nem állnak le ezzel 1-2 éven belül, leghamarabb a következő konzolgeneráció söpri el (ha lesz olyan, és főleg ha már tisztán szoftver rendererrel operál majd).
-
CsonkaImo
addikt
válasz
FollowTheORI
#7573
üzenetére
Köszi a választ!

-
-
CsonkaImo
addikt
Sziasztok!
PCI E 2.0 csatlakozó már hátrány lesz az új kártyáknál? Kihasználják majd a 3.0 előnyeit? Mert a jelen generációnál nincs nagy különbség ha jól tudom.
-
radi8tor
MODERÁTOR
Ennek a videónak több értelme lenne itt: HANDS-ON the AMD Radeon R9 290X & Ultimate Fangirl Moment at #GPU14 Event Vlog Part 2
-
omikron23
senior tag
válasz
energy4ever
#7568
üzenetére
Szerintem az árak a megjelenés előtt esnek már, mert többen szeretnének váltani az next. gen. kártyákra. Én már kb. 3 hete eladtam a kártyám, nem akartam az utolsó pillanatra hagyni, és nem szerettem volna sokat bukni az árán. Azt, hogy jól döntöttem-e, majd kiderül, egyenlőre reménykedem, hogy nem aranyáron jönnek az új VGA-k...

-
energy4ever
addikt
Ha jonnek majd az uj VGA-k, akkor mennyi lesz hasznaltan a 7970-es karik ara kb?
Erdemes mar most eladjam a 6970-es karijaimat, vagy azok nagyjabol fogjak tartani az arukat, miutan kijottek az uj R7/R9-es VGA-k? -
Malibutomi
nagyúr
-
ricshard444
veterán
válasz
omikron23
#7563
üzenetére
Yep, ezt olvasom már második napja, ne haragudjatok, de kétlem, hogy rajtatok kívül ez olyan sok embert érdekel így 2013-ban, majd ha tapasztalatból fogtok a 4K-s filnézésről beszélni akkor nyomjátok a monitor topikjába, de ez már rettentően unalmas, mikor köze nincs a topik témájához
-
janos666
nagyúr
válasz
omikron23
#7563
üzenetére
Nem, mert nem érdekem, hogy magánbeszélgetést folytassak róla és egy ember megmásíthatatlan véleményét próbáljam megváltoztatni, csak az zavarna, ha valótlan állítás maradna meg a publikum hasábjain végszóként, legyen az akár témába vágó vagy sem. (Nem azért, mert engem hazudtol meg, hanem mert félrevezető minden olvasó számára.) És messziről határterület a megjelenítés, mert anélkül nincs digitális grafika.
De elnézést kérek az offolásért.
Én is sokkal szívesebben olvasnék vagy akár elmélkednék az új generációs VGA-król és a játékfejlesztői vonatkozásokról ebben a topickban. -
janos666
nagyúr
válasz
FollowTheORI
#7556
üzenetére
Ha lesz 4k-s megjelenítőm, az azért lesz, hogy élvezhessem a valódi 4k-s tartalmakat. Az ezután nem előny, hanem elkerülhetetlen lesz, hogy valahogy fel kell nagyítani az 1k-s tartalmakat. De igen, ha már valahogy kötelezően fel kell nagyítani (nem azért, mert szeretném, hanem mert rá vagyok kényszerülve, hogy csináljak valamit, 1:1 már nem mehet értelmesen), akkor minél kellemesebb resample a algoritmussal fogom ezt megtenni.
Ugyan úgy nem tartanám meg az 1k-s PDP-t a 4k-s OLED mellett az 1k-s forrásokhoz, ahogy ma sem tartok itt az 1k-s PDP mellett egy 0.5k-s CRT-t csak azért, mert néha kedvem lenne elővenni egy régi filmet, amit nem lehet HD formátumban beszerezni. Egyrészt, mert hely és költség pazarló, kelletlen (nem lenne praktikus cserélgetni őket az asztalon). Másrészt mert ha ugyan ilyen technológiával készítettek volna egy 0.5k-s PDP-t, mint ezt az 1k-s PDP-t, az leverné a régi analóg CRT-t a geometriai pontossága és a paraméterezhető digitálisan színkezelése miatt miatt.
Ugyan ez lesz igaz egy 4k-s OLED-re. Kellemetlen lenne cserélgetni az asztalon az 1k-s PDP-vel mikor régi 1k-S Blu-Ray és nem 4k-s forrásanyagot nézek. És remélhetőleg az is igaz lesz, hogy egy ugyan olyan technológiával készült 1k-s OLED minden paraméterében, nem csak felbontásában veri majd le a régi 1k-s PDP-met, szóval a felbontások illesztésének előnye eltörpül az összesített előnyök mellett.De itt van az is, amit már mondtam, hogy nem cserélném 4k-s LCD-re az 1k-s PDP-met mert, mert ott a felbontásbeli előny törpülne el a képminőség egyéb paramétereiben történő visszalépésben (kontrasztarány, mozgóképkezelés, kijelzőhomogenitás, színhelyesség, stb -> és mikor mindkettőn mozgókép lenne, akkor a PDP még mindig 1k-s felbontás adna vissza, az LCD pedig visszaesne kb. a felére a blur miatt, szóval mozgóképen csökkenne a felbontásbeli előny is, márpedig többnyire mozgóképet akarok élvezni).
Ez szerintem messze áll attól, hogy szeretek resample algoritmusokkal nagyított képeket nézni. Ha lenne elfekvőben egy nagyon pöpec (a maga korában high-end és azóta nem széthajtott) CRT-m, amit nem tudnék pénzzé tenni, de elférne a szobában és egy robot pakolászná helyette az asztalon, akkor azon nézném a régi DVD-imet, amiken olyan anyag van, ami sohasem jelent meg Blu-Ray-en.
Én egy ideje már minden problémára a lehető leginkább költséghatékony, és azután legkényelmesebb megoldásokat keresem, nem pedig az aktuális marketingmaszlagot hajkurászom, hogy nekem már 1k-s forrásokhoz is 4k-s megjelenítő kelljen, mikor az 1k-s anyagokhoz vehetnék még jobb minőségű 1k-s megjelenítőt is, amik 1k-s forrással lekörözik a 4k-sakat (kontrasztban és mozgáskezelésben siralmas a méregdrága 4k-s LCD is egy megfizethető 1k-s PDP mellett).
Az, hogy a 0.5k-s anyagot hogy nézem 1k-s megjelenítőn, az már csak optimalizálás. Sohasem volt cél az 1k-s megjelenítő vásárlásakor, hogy majd élvezhetem az alising és ringing artifact-eket az újramintavételezett képen. Sőt, pontosan arra törekszem a resample algoritmus megválasztásakor, hogy ezt minimalizáljam, a lehető legközelebb kerüljek ahhoz, mint ha 0.5k-s megjelenítőn néznék 0.5k-s anyagot.
Ezért használok Lanczos helyett Jinc algoritmust. Nem olyan szintetikusan túlélesített a kép, kevesebb az alising s ringin. És még erre is ráküldöm a de-ringing szűrőt, mert nekem nem kellenek a hamis kontúrkiemelések!
-
-
aAron_
őstag
válasz
FollowTheORI
#7550
üzenetére
persze, a csúcskategória mindig feláros, de nagyságrendileg még mindig ennyinek tippelem.
a CF-el kapcsolatban igazad van, csak fura, hogy a mostani csúcskártya teljesítményének megfelelő új kártya 2x-ese lesz az új csúcskártya ára.
-
-
HSM
félisten
válasz
FollowTheORI
#7556
üzenetére
"Mellesleg ez számomra beismerése tőled is hogy így jobban néz ki az anyag, mint eredetijében..."
Ha következő mondatot is elolvastad volna...

-
válasz
janos666
#7552
üzenetére
Érdekes álláspont... szerintem ellentmondásos is.
Szóval ha lesz majd 4k TV-d és monitorod, akkor nem fogod ezt csinálni alacsonyabb felbontású tartalomnál (mondjuk FullHD)?
"Eszembe sem jut nearest neighbourhood nagyítással nézni DVD filmeket a FullHD TV-n. Ellenkezőleg, ilyenkor megizzasztom a GPU-mat egy többlépcsős Jinc algoritmussal."
Mellesleg ez számomra beismerése tőled is hogy így jobban néz ki az anyag, mint eredetijében...
-
janos666
nagyúr
válasz
adamssss
#7554
üzenetére
Akkor szerintem le kell csapni az utolsó darabokra a régi dobozolásból.
Nekem nincs bajom a használttal, ha ahhoz van mérve az ára (a válság óta ez ritkán realizálható, amiben bűnösek mind a zsugorivá vált használt-piaci eladók, és az új termékek piacát kialakító gyártók is, ami előbbire is visszahat).
Viszont, ha már drága cuccot veszek, akkor legyen tényleg új. Ne újracsomagolt régi, kegyesen némi árengedménnyel (vagy nem, csak látszólagosan a drágábban bedobott újdonság mellett, mert manapság ez szokott történni). -
válasz
Malibutomi
#7553
üzenetére
Jóó, de úgy értem, hogy a 7970 megszűnik, azaz bemész a boltba és nem lesz kapható, hanem lesz helyette 280x
-
janos666
nagyúr
válasz
FollowTheORI
#7549
üzenetére
Nem, 1080p kikelzőn nézek 1080p anyagokat (Blu-Ray filmek és ennyiben renderelt játékok, ahol élerhető hivatalos, ott HR textúracsomaggal), ehhez optimális nézési távolságból. Ebben nincs pixeltenger.
Az egész csak abból pattant ki, hogy valaki azt mondta ő azért akar 4k-s TV-t, hogy az 1080p és 720p forrásanyagok jobban nézzenek ki rajta. Én ezen akadtam ki, és innentől leginkább csak elméleti objektív tényeket védtem, míg ti a szubjektív tényezőkkel ostromoltátok azokat.
Eszembe sem jut nearest neighbourhood nagyítással nézni DVD filmeket a FullHD TV-n. Ellenkezőleg, ilyenkor megizzasztom a GPU-mat egy többlépcsős Jinc algoritmussal. De véletlenül sem állok sorba a 4k-s TV-kért olyan indokkal, hogy felnagyíthassam az 1080p forrásokat és gyönyörködhessek a resample algoritmus generálta hamis részletekben.
Amúgy szívesen vennék én 4k-s OLED TV-t, ha kapnék ehhez optimalizált felbontású textúracsomaggal érkező játékot és/vagy 4k-s filmeket (amiket így mastereltek, nem gyárilag nagyítottak fel).
De 4k-s LCD-t például megint csak nem vennék, mert nem érne annyit az a statikus felbontásnövelés, hogy PDP-ről LCD-re váltsak, mert így arányaiban közel sem nőne akkorát a mozgóképfelbontás, nagyságrendileg romlana a kontraszt, és rosszabb lenne a retinal persistence, mert a duty cycle magasabb BFC-vel is, mint a pulzáló PDP-vel.Szóval, ha lesznek megfizethető 4k OLED-ek >=50" méretben, és megjelentek az új konzolok, jönnek a hozzájuk tartozó játékok, és/vagy szivárognak a 4k-s filmek, akkor ott leszek a vásárlók közt. De addig eszembe sem jut. Mai formájában, a mai forrásokkal jobb élményt nyújt az 1k-s PDP, mint a 4k-s LCD.
Az OLED majd remélhetőleg elfenekeli a PDP-t, és mire lemegy az ára, addigra remélhetőleg lesznek megfelelő, 4k-s megjelenítőhöz való tartalmak.
-
válasz
janos666
#7547
üzenetére
Gondolom akkor megszűnik a 7970 gyártása, és én meg használt piacról nem szívesen veszek kártyát főleg, úgy hogy nettoban tudok vásárolni. A 300 dolláros ár meg nagyon barátinak tűnik.
Nyilván ha lesz rá keret engem is a Hawai érdekel, de nem fogok fölös 10-k-kat adni plusz 20% teljesítményért. -
-
-
Facer
csendes tag
Ha az R9 270x-es befut karácsonyra a 45e-s kategóriába biztos benevezek egyre

A legjobb ár/érték karinak remélem az új sorozatból -
janos666
nagyúr
-
Sziasztok!
Az R9 290-ről lehet tudni, hogy kb milyen árcédulát fog kapni?
Köszi
-
Z10N
veterán
-
Z10N
veterán
válasz
TESCO-Zsömle
#7508
üzenetére
-
janos666
nagyúr
Neked meg annyit, hogy szerintem objektíven is kijelenthető hogy megfelelő skálázással javítható az eredeti alacsonyabb felbontású kép HA a kijelző natív felbontására nagyítva akarod nézni.
Nem, ez badarság. Ami nincs benne a forrásanyagban, az nincs benne a forrásanyagban. Ez ilyen egyszerű.
Ezek csak viszonylag egyszerű resample algoritmusok, nem vérmágusok alkotta bűbájok. Ami nem volt rögzítve az anyagban (nem is látta a kamera sem, vagy elveszett az információ a feldolgozások során), azt nem fogják neked kitalálni, hogy volt ott. Amiről nincs adat, az ismeretlen. Amiről van, annak viszont illik egzaknak maradnia, nem mesterségesen módosulnia.
De mondok inkább egy példát:
Festek neked egy képet 200 ecsetvonással egy nőről, aki csak a képzeletemben létezik.
Megnézed a festményem és azt mondod nekem, hogy ez így nem elég jó, mert nem látod milyen sűrű a nő haja, meg amúgy is túl homályosak a kontúrok.
Na már most, ha te behúzol még 500 ecsetvonást a festményemre (de a helyesebb az lenne, hogy ráuszítasz egy számítógépet, hogy húzza be ő) abból nem fogod megtudni, hogy az én képzeletbeli modellemnek milyen a haja. Ugyanakkor ezzel tönkreteszed a festményt. Innentől kezdve már nem az én művészi alkotásomat képezi, hanem a te munkád lesz, aminek minden újabb ecsethúzással egyre kevesebb köze van az én eredeti festményemhez.
Ha eladtam neked és kifizetted, akkor legfeljebb a szívem fog fájni miatta, de a saját szíved joga, ha mégis ezt teszed. De objektíven nézve te tönkretetted a festményem. Még akkor is, ha az enyém 100 emberből 99 szerint béna volt, a tiéd pedig 100-ból 98-nak jobban tetszik.
----
Amiben igazad van, és már én magam is leírtam, hogy így van, az az, hogy ha kénytelen vagy újramintavételezni a képet, akkor van különbség az egyes algoritmusok közt, és lehet találni olyat is, ami kellően közeli eredményt az eredetihez, és olyat is, ami nem, ugyanakkor a sok embernek szubjektíven tetszetősebb.
Na de nem innen indult ez az egész, hanem onnan, hogy valaki azt állította jobb 4k-s megjelenítőn nézni az 1k-s anyagot, mint 1k-s megjelenítőn. Márpedig szigorúan objektíven nézve ez hülyeség.
Sőt, ha valaki csak az újramintázási algoritmus mellékhatásaként keletkező élesítésre hajt, ahhoz nem kell nagyobb felbontású megjelenítő, anélkül is rá lehet ereszteni élesítést. Vagy fel lehet nagyítani és visszakicsinyíteni, ha ennyire tetszik a ringing, alising és hasonló artifact özön.
-
HSM
félisten
válasz
FollowTheORI
#7539
üzenetére
"Azért azt pl szerintem te is elismered hogy egy szögletes körnél/vonalnál jobb a simított... és ez tény."
Ez állatira nagy tévedés, nempedig tény. Egy szögletes vonal, ha eredetileg szögletes volt, akkor szerintem igenis úgy jobb.
Márpedig az ilyen szuper algoritmusok akkor is le fogák neked kerekíteni, ha ott halál szögletes volt eredetileg. Ez itt a baj, ténylegesen.
Amit nem akarsz elfogadni, hogy a mintavételezés olyan dolog, hogy utólag már nem állapítható meg, mi volt ott, ahol nem vettünk mintát. Lehet, szögletes volt, lehet gömbölyű. De lehet, egy egypixeles zöld folt lett volna két barna között. Se te nem fogod soha megtudni, se a legokosabb képprocesszor.
Sajnos nekem is ez a sokéves tapasztalatom, jobb a "szögletes" valódi, mint a mosott, gömbölyített, utófeldolgozott, valótlan. Mégha első pár ránézésre vonzóbbnak is tűnik a mű... -
válasz
janos666
#7537
üzenetére
Neked meg annyit, hogy szerintem objektíven is kijelenthető hogy megfelelő skálázással javítható az eredeti alacsonyabb felbontású kép HA a kijelző natív felbontására nagyítva akarod nézni.
Ez tény... lásd amit linkeltem ismét.Az igaz hogy, ha 1080p-t 1080p pixelnyi területen néznél (képernyő negyede), akkor minőségben ugyanaz lenne, de ha már felskálázod akkor az eredetihez képest sokat lehet javítani rajta.
Azért azt pl szerintem te is elismered hogy egy szögletes körnél/vonalnál jobb a simított... és ez tény.
És még nem feltétlen lesz homályosabb se, az csak algoritmus kérdése.Ha láttál már pl Sony vagy jobb felskálázó processzor képét egy sima normál TV felskálázott képéhez képest, bizony kiderül hogy lehet jobban is csinálni dolgokat.
Csak pénz és bevethető erőforrás kérdése.
Vannak pl DVD lejátszók (drágán persze) amik megdöbbentően jó képet tudnak kihozni egy sima DVD-ből egy FullHD tévére is. Sőt nyilván majd 4k TV-n is az SD tévéadások minőségén sok fog múlni azon egy egy gyártó mennyire talál bele... és ez eldönti azt is melyiket érdemes venni.pl sokan ezért szeretik média körökben a madVR és egyéb finomságokat... nagyon sokat lehet javítani egy egy videó megjelenésén az eredetihez képest a jel forrásnál nagyobb felbontású kijelzőn.
Szerintem ez tény, és az ember azért hihet a szemének még ilyenben...

-
válasz
TESCO-Zsömle
#7536
üzenetére
Jogos... most visszanéztem mit írtál mire pontosabban és már látom hogy a csúnya szón ragadtál le.
Valóban azt ott nem jól írtam...
Arra gondoltam hogy az elérhető maximális képminőséghez képest csúnya.
Olyan mintha fullhd monitoron csak mondjuk fele felbontáson játszanál... tehát lehetne jobb is, olyan értelemben csúnya.De túlragoztuk tényleg... elnézést.
Akkor egyetértünk.
Nagyon péntek volt/van már tényleg. Azt hittem a többi résszel sem értessz egyet.
-
janos666
nagyúr
válasz
TESCO-Zsömle
#7536
üzenetére
Ja, ez tényleg vicces, hogy veled és velem is egyszerre csinálja ezt.
Nekem hiába magyarázza, mert tudom (az objektív elméleti törvény is ezt mondja, és tapasztaltam is már a saját szememmel), hogy egy adott felbontású forrásanyagot nagyobb felbontású megjelenítőn nézni csak rosszabb (ha rosszul-), legfeljebb körülbelül ugyan olyan (ha jó mintázzák úja) lehet, ha nem szereted a filmek képén a mesterségesen hozzáadott, hamis részleteket.
Téged pedig hiába győzköd, mert te már eddig is emellett tetted le a voksod.
Ami pedig engem és téged illet, nekem ezzel nem is lenne bajom, míg elfogadjátok, hogy az eredmény legfeljebb szubjektíven tetszetősebb, de az eredeti forrásanyagot kevésbé hűen (vagy legfeljebb majdnem ugyan olyan jól) adja vissza (de nem tökéletesen). Már pedig ez az objektív érv talán azért mégsem lenne egy elhanyagolható faktor, hogy egy megjelenítő a forrást reprodukálja, ne pedig valami új, "enhanced" élményt kreáljon belőle (akár szebb, akár csúnyább, mint az eredeti, az már nem az eredeti, ezt nem lehet vitatni).
Mégis elbeszél mindkettőnk mellett és közt is, hogy mi is nehezebben érthessük meg egymást.

Felőlem bekapcsolhattok bármi képjavítót. Nekem pl. semmi nem kell.
Azt is elfogadom, hogy szerintetek, számotokra úgy szebb.
De az ne állítsátok ilyen magabiztosan, hogy az objektíven jobb, mert objektíven ez egy axióma, hogy amit újramintavételezel és egy algoritmussal már módosítasz, az már nem az eredeti. Ahogy az is, hogy egy TV vagy monitor az alapvetően azt kéne, hogy megjelenítse, ami a forrásanyagban van, nem pedig valami mást (legyen az bármi más).Nem fogom tovább ragozni, mert egy objektív igazságot nem lehet 6 féleképp kicsavartan tálalni,úgy, mint a szubjektív véleményeket, tehát csak copy-paste stílusban tudom magam ismételni.
-
TESCO-Zsömle
titán
válasz
FollowTheORI
#7535
üzenetére
Nem kell mantrázni. Pár hozzászólással előbb írtam már, hogy tisztában vagyok a nagyobb felbontás nyújtotta lehetőségekkel, csupán azt az állítást kívántam megcáfolni, hogy adott méretben megjelenített képen rontana a nagyobb felbontás.
De úgy látszik te nem figyelsz rám, csak a magadét szajkózod. Ráadásul teljesen feleslegesen, mert nyitott kapukat döngetsz...
-
válasz
TESCO-Zsömle
#7534
üzenetére
Nem nagyításról beszélek, hanem arról hogy adott méreten belül egy nagyobb felbontású kijelzővel jobb képet kapsz. Ennyi.Oks elmondom még egyszer amennyire tudom "paraszti" nyelven... van egy 42 colos 720p plazma tévém most, kicserélem egy 42 colos 4k tévére. Ugyanaz a méret.
Beteszek egy filmet ami 720p... tehát az elsőn "natívban ment".
Tegyük fel olyan közel ülök hogy azt látom ami a pixel duplázáskori állapot mert ennyire szar a 720p (most tegyük fel, "SD adás" vagy akármi). Ekkora egy pixel a HD ready plazmán ahonnan ülök nézve.
Megvettem a 4k tévét kicseréltem őket... beteszem ugyanazt a filmet.
Ha nincs semmi scaling meg csoda ugyanazt látom megint. (Eddig igazad van, erre gondolsz ugye?)
Aztán bemegyek és a tévében bekapcsolom a scalinget, ami egy fasza algorimussal neki esik a 720p-nek és felkonvertálja 4k-ra. (Jó oké... akkor neked "nagyítja".
)Mit fogok látni? Na mit?

Ezt? Jobb? Jobb.

Egyszerűen azért mert több pixelem van... a régi 720 plazmán meg tudom csinálni ezt? Nem mert ott 1 pixel = 1 pixel, nem tudom lefinomítani a képet.Ennyi. Érem?

-
TESCO-Zsömle
titán
válasz
FollowTheORI
#7533
üzenetére
Amit linkeltél, ott nagyításról volt szó. De ha a kapott kép méretében megegyezik az eredetivel, akkor nincs minőségromlás az eredetihez képest.
Nyerni annyit nyerek vele, hogy a 720p-s tartalmakat nem kell 1:xx arányban nagyítani és buherálni a képét, hanem mehet ki 1:1.
-
válasz
janos666
#7531
üzenetére
Igaz egyszerűen ezt kellett volna csak linkelnem...
(Csak már nagyon péntek van...)Hogy miért nem jó a sima duplázás/többszörözés.

Na de ha van egy 100 pixeles valamid amit egy 100 pixeles 40 colos kijelzőn látnál akkor az olyan lenne mint a diszkóban meg tereken látható ledsor. (Nagyon durva példa tudom.) Ha az kicseréled egy sokkal nagyobb felbontású kijelzőre, de nem simítod össze akkor a 100 nagy "pixel" (vituálisan) is ugyanúgy megmarad eddig semmit nem nyertél vele... akkor nyersz ha fel is konvertálod a tartalmat hozzá.
Na de ez tényelg az utsó itt... I am off.

-
TESCO-Zsömle
titán
válasz
janos666
#7528
üzenetére
Viszont a kockák mérete semmivel se lesz nagyobb, mint egy hasonló méretű FHD kijelző pixelei, tehát a kapott élmény nem változhat, és itt ez a lényeg. Egy 1080p-s kijelzőn mindenképp torzul a 720p-s tartalom teljes képernyőn.
Én értem, hogy megfelelő felskálázással lehet szebb, vagy inkább simább a kapott kép, ezzel nem is vitatkozom. Azt vontam kétségbe, hogy egy 32"-os 4K kijelzőn rondább lenne az 1080p-s film, mint egy 32"-os FHD kijelzőn. A kapott kép mérete és a megjelenített képpontok száma azonos. Akkor mitől lesz rondább?
-
janos666
nagyúr
válasz
FollowTheORI
#7530
üzenetére
Ez nem jó példa, mert mindkettő fel van nagyítva, csak másképp! Ez pont hogy hamis, megtévesztő példa.
Én sem tudom egyszerűbben elmondani: Ha újramintázod a képet, az már nem olyan (sőt, soha nem is lehet már újra olyan), mint az eredeti. Ennyi. Az már mindenkinek a saját hülyesége, hogy az eredeti, vagy valamilyen, az eredetiből gyártott, mégis más tartalmat akar-e látni.

-
És egy példa arra hogy milyen is lehet egy jó felskálázó...

De ez már eléggé off... részemről ennyi.
Persze ízlés dolga is, de aki érti, érti, aki meg nem, az nem hogy miről beszélek. Ennél jobban ma nem tudom elmagyarázni.
Plussz egy thread még 1 példával az upscaling jelentőségéről és miért jobb egy 4k mint egy kisebb felbontású kép ugyanazon a méreten is.
Persze ez itt eléggé fel van nagyítva, de a lényeg érthető szerintem. -
válasz
TESCO-Zsömle
#7525
üzenetére
Példa igaz nem a legjobb de most ezt találtam gyorsan.
-
janos666
nagyúr
válasz
TESCO-Zsömle
#7522
üzenetére
Az nagyon csúnyán néz ki, ha 2x2 pixelmásolással, avagy "nearest neightbourhood" módon nagyítod fel a képet. Ilyenkor "kockás", alisinges lesz a kép.
Kivéve persze, ha olyan messziről nézed, hogy a szemed már nem tud különbséget tenni a szomszédos 4 pixel tartalma közt (például több méter messzire mész a 32"-os 4k kijelzőtől), de akkor megint hülyeség az egész. Ha olyan messzire mész mindkettőtől, hogy ne lásd a különbséget, akkor mi abban a jó, hogy épp az a lényeg, hogy ne lásd a különbséget? (Akkor definíció szerint ugyan azt kapod az 1080p kijelzőtől is. Volt értelme?)
Ez az eljárás tehát a gyakorlatban nem tanácsos.Az újramintázó algoritmus (bilinear, bicubic, lanczos, spline, vagy a kedvencem a Jinc) jobb, de benne van, hogy újramintáz, tehát valamilyen mértékben megváltozik tőle a kép, sohasem tudod már többé visszanyerni az eredetit, ha egyszer lefutott az algoritmus.
Egyedül a pixelmásolás eljárás fordítható vissza (ha nagyítás volt, akkor kidobod a lemásolt pixeleket), de azt lásd fentebb. Egyébként csak pusztítod a forrásanyag eredeti információtartalmát. Akár szebbnek tűnik számodra szubjektíven, akár nem. Csak dobod ki a tartalmat az ablakon.Ha rá vagy szorulva arra, hogy újramintázd a képet, akkor érdemes jól megválasztani a resamaple algoritmust, de az a legjobb, ha nincs rá szükség. (Vagy a gyakorlatban akkor, ha minél kevesebbszer, mert a stúdióban egyszer megtörténik a Blu-Ray mastereléskor. De ott legalább studió minőségben, és egyszer, nem oda-vissza nagyítgatva-kicsinyítgetve, és csak annyiszor, ahányszor muszáj, nem feleslegesen többször is.)
Letölt, megnéz, töröl. Amúgy a REMUX általában kb. 2x akkora, mint az 1080p-s újrakódolt verzió, nem nagyságrendi különbségekről beszélünk.
-
aAron_
őstag
válasz
FollowTheORI
#7524
üzenetére
fura mert eddig én is úgy gondoltam, hogy mondjuk egy 30"-os 4K monitoron 1080p-s tartalom ugyan úgy nézne ki mint egy 30"-os FHD-n, mivel az előbbin 4 pixel mérete pont annyi mint a másikon 1 db-é, így kvázi csak a ppi érzetből veszítünk ha nem natívan használjuk a 4K-t.
-
HSM
félisten
válasz
FollowTheORI
#7524
üzenetére
Az összes ilyen "átmenetjavító" eljárás után ami a képből marad, az egy kalap kutyagumi. Nem tudod kitalálni a hiányzó részeket.

-
TESCO-Zsömle
titán
válasz
FollowTheORI
#7524
üzenetére
Mitől lesz csúnyább, ha simán több pixelen jelenik meg az anyag, ha a megjelenített (kép)pixel mérete azonos??
Ismerem a képsimító eljárások romboló hatását, én a miértre keresem a választ. Miért kéne kényszeredetten felskálázni az 1080p videót 4K-ra? Mitől és mennyivel lenne csúnyább egy 1080p film 32"-os 4K kijelzőn 2*2-es pixelekkel, mint egy 32"-os 1080p-n?
aAron_: Én is így tudtam. És ellenben az 1080p kijelzőkkel, 4K-n a 720p is megjeleníthető ilyen formában.
-
válasz
TESCO-Zsömle
#7522
üzenetére
Nem... ez nem ilyen egyszerű, ha csak megduplázod/négyszerezed, akkor felnagyítod a tartalom pixelét és csúnya lesz.
Kell egy simító algoritmus ami kiszámolja az új nagyobb felbontás egyes pixeleit és az átmeneteket finomítja... márcsak ezért is jobb lehet adott fizikai képátlón a nagyobb felbontás, mert több finomabb átmenet lehet színben mindenben megjeleníteni a képen belül (tartalom, nem fizikai pixel).Gondolj arra mint egy játéknál az FSAA algoritmus... vagy amikor a mozgást feljavítják köztes átmeneti képek kiszámításával (csak itt nem pixelek hanem értelemszerűen teljes képek között természetesen).
Mondjuk van 25 képed egy 100 Hz-es tévén más kapsz ha 4x kiteszed mindig az adott képet majd ugrassz a következőre, vagy csinálsz 1+3 átmenetit a következő kép ismeretében.Tehát egy 4k tévén egy 1080p ha csak dupláznánk/négyszereznénk a pixeleket "csúnya" lenne.
-
válasz
janos666
#7521
üzenetére
De nem... mert a fizikai pixeled limitál... persze minden kijelzőn van trükk az alacsonyabb felbontású tartalom megjelenítésére és csak az algoritmusokon múlik mennyire kapsz jó képet.
Egy 30-32 colos monitor képet mondjuk fél-egy méterről nézve desktop szinten egy asztalnál láthatod a pixeleket (a fizikait, nem a kép tartalomét).
Trükközhetsz te akárhogy a tartalommal (retina vs nem retina telefon pl) akkor is jobb az utóbbi.Magyarán egy 4k kép mindig jobb lehet mint bármi más alatta, főleg ilyen felhasználásnál.
Mellesleg mivel 4k tartalmazza az alatta lévő két HD felbontást, semmi szükség annyi oda vissza átalakításra... tehát azért ennyire nem rossz a helyzet mint gondolod.
Kisebb méretekben voltak HD alatti tévék, meg lehetett monitoron tévézni pl tuner kártyával is. Hát nem volt valami szép... mellesleg a CRT más mert ott a technológia jellegéből picit összemosódnak a pixelek.
-
TESCO-Zsömle
titán
válasz
janos666
#7519
üzenetére
Laikus vagyok. Laikusként pedig az a tény, hogy a 4K-ban az 1080p és a 720p is maradék nélkül megvan, azt jelenti, hogy nincs szükség semmiféle skálázásra és egyéb képi hókuszpókuszra, hanem mehetnek a pixelek simán 2*2-es és 3*3-as vetítésben a 4K kijelzőn.
És igen. Szívesen élnék inkább BD-vel, de egyelőre nincs semmilyen rokonsági kapcsolatom, ami alapján ingyen kapnám a terrabyte-os vinyókat. Azzal kell élnem, ami van. Sok régi filmnél meg még a 720p is bőven sok, nem hogy a BD...
-
janos666
nagyúr
válasz
FollowTheORI
#7520
üzenetére
Az lehet, hogy egyéntől (és még számtalan más pszichológiai faktortól) függően, bizonyos szempontból tetszetősebb lesz az eredmény, de a forrásanyag reprodukálása kevésbé lesz sikeres. Én pedig minél inkább azt szeretném látni, amit a lemezre tettek, nem pedig valamit, aminek jobban kéne tetszenie a feldolgozás után.
Ennyi erővel 1080p-s megjelenítőn is tehetek mindenféle élesítő, zajszűrő, és újraszínező algoritmust a képre. A legtöbb TV tesz is alapbeállításként, némelyiket nehéz, vagy nem is lehet tőle teljesen megszabadulni. Nekem első dolgom, hogy az ilyeneket kikapcsoljam. Sokszor olyan durva az alapbeállítás, hogy SDTV adásnak tűnik a válogatottan jól sikerült film kiváló Blu-Ray kiadása is, az SDTV adás pedig olyan, mint amit kinyomtattak és 3x lefénymásoltak matt papíron, aztán átrajzolták ceruzával.
Ha gyártanának ugyan olyan technológiával 576 és 1080 sorfelbontású TV-t, akkor az első nyerne SD adással tesztelve! Sőt, valódi analóg TV adással az analóg CRT leveri a digitális CRT-t forrásanyag reprodukcióban (kivéve esetleg színhelyességben, ha nem tökéletes a foszforok szaturációja, de a digitális megjelenítővel ez szoftveresen korrigálható).
Ismerem a resample eljárásokat.
Te próbáld ki azt, hogy 3x (vagy ahányszor nem sajnálod) oda-vissza felnagyítasz és lekicsinyítesz egy képet, különböző algoritmusokkal (mondjuk lanczos-al nagyítasz és bilinear-al kicsinyítesz) úgy, hogy a végén az eredetivel megegyszező méretnél állj meg, és vesd össze a kettőt!
Mert kb. ez történik 4k TV-n 1080p-t nézve, csak nem ilyen durván, ahogy a többszöri megismétlés felnagyítja a hatást.Tele lesz a kép ringing effekt-el, amik zajt és hamis kontúrokat adnak a képhez. Ettől élesebbnek tűnhet, de igazából visszafordíthatatlanul pusztítod a forrásanyag eredeti információit!
-
válasz
janos666
#7519
üzenetére
Ez nem feltétlen igaz... egy 4k monitorral közel ülve, HA jó a skálázó algoritmus szebb képet kaphatsz, mint 1080p-vel egy 1080p filmről is. Persze tényleg sok múlik a felskálázón...
Azért mikor egy sima SD videót nézel a fullhd monitoron/tévén azis jobb ám mint, ha SD tévén néznéd...
Hogy mire gondolok... esetleg irfanview alatt próbálj ki egy sima nagyítást meg mondjuk egy lanzos-t egy kis képről... és rájössz miről beszélek.
-
janos666
nagyúr
válasz
TESCO-Zsömle
#7514
üzenetére
Játékok szempontjából én is, viszont a 720p-1080p filmek tekintetében nagyon jó lenne egy 4K kijelző.
WTF man??? Waaaat...???

Épp, hogy 1080p, főleg 720p filmeknél vagy abszolút zéró, vagy inkább negatív értelme a 4k-s monitornak (nem 1:1 nézed, hanem mindenképp valami resample algoritmussal jön ki a luma map is, amitől akaratlanul vagy élesedik vagy életlenedik a kép, de közben legalább áramot pazarol a művelet).
Épp hogy csak játékoknál van értelme, mert azokat már ma is lehet valódi 4k-ban renderelni, illetve elméletben kaphatunk hozzájuk ehhez megfelelő felbontású (és minőségű) textúracsomagokat is (egy dupla rétegű DB-n már biztos elfér
).
(Persze elvileg filmeket is kaphatnánk 4k-ban, de ahhoz előbb be kell vezetni a piacra az ehhez szükséges új consumer szabványokat, míg játékoknál ez már rég kés, csak el kell kezdeni használni.)Meg egyébként is milyen 720p? Ha érdekel a képminőség, akkor töltsd már le REMUX (vagy full BD) verzióban azt a szerencsétlen filmet, ne újratömörítve, főleg ne 720p-re újramintázva.
Bocs, biztos tudod, hogy nem veled van bajom (beszéltünk már, tudom hogy értelmes ember vagy), de az ebben a hsz-ben tett kijelentéseid teljesen egymásnak ellentmondó és/vagy hülyeségek.

Ráadásul 32" az még pont az arany középút. Monitornak se túl nagy, de filmet nézni se túl kicsi.
HD filmet nézni még 42" is kicsi. (Lassan már 2. éve van 42"-os TV-m 51" után, és még mindig nem szoktam meg, idén már mindenképp visszatérek 50"-ra, ha lesz rá pénzem, mikor februárban lemennek a TV árak. Pedig oda tolom a fotelt, ahova szeretném.)
-
Eagl3
veterán
Jól értem, hogy az R9-280X az tulajdonképpen egy 7970, tehát olyan 100K körüli összegre várható?
Ebből kiindulva az R9-290 ha a számozás mikéntje nem változott volna, akkor 8950-lenne, illetve az R9-290X pedig a 8970?
R9-290 kb. 120K környékére várható? -
Malibutomi
nagyúr
válasz
TESCO-Zsömle
#7514
üzenetére
Hát nekünk 32" a TV, szóval asszony furán nézne ha akkor amonitort akarnék

-
TESCO-Zsömle
titán
válasz
Malibutomi
#7512
üzenetére
Játékok szempontjából én is, viszont a 720p-1080p filmek tekintetében nagyon jó lenne egy 4K kijelző. Ráadásul 32" az még pont az arany középút. Monitornak se túl nagy, de filmet nézni se túl kicsi.
Volt már az asztalomon 42-es TV, azt asztalnál ülve nem lehetett használni.
(#7513): Dirt3 sajnos nem teljesen mérvadó. Kb olyan játék, mint anno az UT3. Szinte bármin elfut megfelelő sebességgel.
-
Malibutomi
nagyúr
válasz
Malibutomi
#7509
üzenetére
R9-290X Crossfire Dirt 3
[link]3 X 4K monitor
-
Malibutomi
nagyúr
válasz
TESCO-Zsömle
#7511
üzenetére
Egyetértek. Bár én elvagyok még 1080-on is egyelőre

-
TESCO-Zsömle
titán
válasz
TESCO-Zsömle
#7510
üzenetére
A problémát inkább az jelenti, hogy a 4K alkalmas VGA árának 6x-osát kell kicsengetni egy monitorért. Ha lehetne kapni 32"-os 4K monitort az új Radeon árában, az nagyon hálás lenne.
-
TESCO-Zsömle
titán
válasz
Malibutomi
#7509
üzenetére
-
Malibutomi
nagyúr
-
Z10N
veterán
ui: Feltunt mar korabban is, hogy visszahoztak a dual DVI-t es a dual mDP-t. Illetve a CrossFire csatlakozokat nem latom.
-
ÁdiBá
veterán
Akkor végül is tudjuk hogy az új radeon milyen újdonságokat hozz majd asztali szegmensbe?!
Viszont a grafikus teljesítményét nem is mutatták be?
Gondolok itt BF3, CrySis3, stb. stb. stb.
Szerintem a felhasználók zömét azt érdekli, nem pedig az hogy milyen csuda jó hangkártya is lehet a Radeon, főleg hogy ilyen professzionális szinten, szinte mindenki extra hangkarival tolja.
Vagyis én magamból indulok ki.
-
janos666
nagyúr
Akkor kár is szőrszálakat hasogatni. Én nem vagyok akkora sznob, de keress egyet a házimozi erősítő topicban, aki megmondja neked, hogy mire elég egy aktív 5.1 (de készítsd be a zsebkendőt
), aztán gyere vissza hozzám arról vitatkozni, hogy miként érdemes PC-vel megtenni azt, amit ők inkább asztali házimozi lejátszókkal csinálnak.Bármi is legyen az AMD TueAudio, az nem a nyers hangminőségről fog szólni. A Radeon SoundCard már régóta létezik, én is régóta használom. (Erről offoltam itt eddig, írtam is, hogy mellesleg placebó minőségű.)
Ez csak egy szoftver (még ha OpenCL-el GPU gyorsított is) lehet. A hardware-en nem lenne értelme változtatni semmit, mert új audio átviteli szabványt nem lenne praktikus alkotniuk. Dedikált audio DSP-t is kár lenne a kártyára / GPU-ba szerelniük/integrálniuk a mai világban. Bár ez még akár elképzelhető is lenne, de egy OpenCL megoldás sokkal rugalmasabb, a fix funkciós DSP-k pedig már kihaltak, ami talán nikik is elárulja, hogy kár lenne erőltetni.De van egy olyan sejtésem, hogy ez nem egy játékokhoz használható 3D hangmodellezés lesz, hanem egy egyszerű APO (beépül a Windows hangeffektezők közé, mint most a Bass Managament, Room Correction, Loudness Equalization és társai), amit bárki bármikor írhat (a google is dob ki), és mindenre ráereszthető, ami megszólal. Valószínűleg több hangszórót igyekszik majd emulálni, ilyen is van már ma is (ha nem is APO formában).
-
HSM
félisten
válasz
janos666
#7502
üzenetére
Az 5.1-em aktív természetesen (egy Genius 6000-es), a 2.0 az a fülesem, az csak rá van direkten dugva a hangkarira. (Utóbbi sajnos átmenetileg csak a front panelre, gyűjti is a zajt ezerrel a belső kábel, de ha a karira közvetlen dugom kristály tiszta, abszolút semmi zaj.)
Aztán majd várjuk a teszteket, kíváncsi leszek, mit szólnak majd a vájtfülű teszterek a Radeon TrueAudio Soundcardhoz.

-
janos666
nagyúr
Ki mondta, hogy nincs tápkondicionálóm?
Amúgy tényleg nincs, de lehetne, és tervben van egy DIY megoldás.
De egy AVR doboza még mindig jobb hely a DAC-nak, mint egy PC gépház, a hálózati tápfeszültség pedig vélhetően ugyan lenne a kettőnek. De mondtam, ez már csak ilyen mellékes szőrszálhasogatás a többi érv mellé.Hát őőő. Ez már nagyon OFF, de most aktív hangfalszettről beszélünk?

Ja, amúgy nem tudom miért kezdtem így elmélkedni. Hisz ott a Rapture és az OpenAL Soft. Mindkettő EFX-et használ, ami több, mint az EAX5. Utóbbit már használtam is, 256-ra emelve a csatornák számát a játék INI filejában, és vígan elszaladt (mondjuk 2600K@4.5Ghz nem belépő CPU, de ez is skálázható több módon).
-
HSM
félisten
válasz
janos666
#7500
üzenetére
Azért van a hangkarin mindenféle szűrés. Nehogy azt hidd, az erősítőd a konnektorból nem kap mindenféle elektromos zajt.

Nekem egyáltalán nem jön be a HDMI-s móka, de érthetőek az érveid. Amúgy nem hiszem, hogy HDMI-vel olcsóbban megúsztam volna, a jelenlegi hangkarim 4 éve szolgál, 26 000-ért vettem, és kitűnően meghajtja az 5.1 hangfalam, és a 2.0 fülesem is. Ennyi pénzből tuti nem lennék itt HDMI-ből.

"akkor egy modern CPU-ból nem kéne egy mag teljesítményének a fele sem, hogy visszahozzák ezt a szintet szoftveres DSP-vel"
Passz, de ennek amúgy én is örülnék.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az AMD éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Luck Dragon: Alza kuponok – aktuális kedvezmények, tippek és tapasztalatok (külön igényre)
- Azonnali alaplapos kérdések órája
- Apple iPhone Air - almacsutka
- Nem lesz Redmi Note 16, évet ugrik a sorozat
- Napelem
- King's Bounty: Warriors of the North
- Mikor lesz már jó a Bluetooth? — Bluetooth 6.0 technológia
- Samsung Galaxy Watch8 és Watch8 Classic – lelkes hiperaktivitás
- Chieftec-Prohardver nyereményjáték
- 5.1, 7.1 és gamer fejhallgatók
- További aktív témák...
- 196 - Lenovo Legion Pro 5 (16IAX10) - Intel Core U7 255HX, RTX 5070 (ELKELT)
- Lenovo 40AH és 40A1 dokkoló, töltő is.
- Dell 5330 i5-1245u 16Gb ram, érintő kijező, számla, garancia
- BESZÁMÍTÁS! ASRock X870 R9 7950X3D 32GB DDR5 1TB SSD RTX 4090 24GB Be quiet Pure Base 501 LX white
- Surface 3 - 13,5" 2k érintő, i5 1035G7, Iris Plus, 16GB RAM, SSD, jó akku, újszerű állapot, számla
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest



Szvsz édesmindegy ~1Ghz GPU környékén.




Szerintem aki ebbe a topicba jön, nem feltétlenül kíváncsi erre...
Bázz... elolvastam hidd el. 

