-
Fototrend
OLED Televíziók - témaösszefoglaló
Új hozzászólás Aktív témák
-
janos666
nagyúr
válasz
DamianB
#46820
üzenetére
Sokkal jobb az LG OLED-en, mint a Samsung QLED-en. Az EU-s Samu verziók esetén és 2018 óta mindenképp. Mértem már több Samu csúcsmodellt is 2019-esig bezáróan (vagyis kalibrálni is próbáltam, de rá kellett jönnöm, hogy értelmetlen, ami kicsit fura, mert az US modelleket elvileg lehet), és rosszabb a HDR színkezelésük, mint a 2017-es Alpha 7 LG-ké, amivel nem voltam teljesen elégedett (2018 óta már sokkal jobb az Alpha 9-eseken).
-
janos666
nagyúr
válasz
salapp
#46767
üzenetére
Pusztán csak abból kiindulva, hogy sokkal többen kalibráltatták a plazmáikat, mint az OLED-jeiket, a plazmások egy sokkal mélyebben a TV-jük lelkébe szellemült csoport volt.

De valahol érthető, sokkal nagyobb lépés volt akkoriban a PDP, mint ma az OLED.
Valamint a márkák közt is valódi rivalizálás volt nem csak cinikus gerjesztett műviták, mint itt, és mégsem volt belőle ekkora ügy, valahogy az kulturáltabb volt a dolog.
-
janos666
nagyúr
HDR/DV módban mindig hagyd a gyári alapértéken az OLED Fény-t. A DV mód alapértéke változott 2019-ben, már az is 100/100 (azt hiszem az X sorozaton is így maradt), csak 2018-ig volt 50/50. a HDR10/HLG mód mindig 100/100 volt és maradt is.
(#45814) ΞΔGLΞ - Sima Cinema / Színház módban nézd, ne Cinema Home (Otthoni Mozi)-ban.
(#45822) Chalez - Ugyan a beállítás lesz jó az összes belső lejátszónak (DLNA/USB, TV tuner, Netflix, Amazon, stb), illetve a HDMI-nek is (kivéve hogy ott figyelni kell a HDMI Fekete Szint kapcsolóra is).
-
janos666
nagyúr
válasz
MultiDoodad
#45773
üzenetére
Ha van a játék menüjében csúcsfény kalibráció, akkor egyértelműen HGIG (már az előtt).
Ha nincs, akkor ízlés szerint dönts. (Nekem az egyéni preferenciám a HGIG még filmhez is.) De az On/Be állást én eleve nem használnám semmire (tehát akkor inkább Off).Az ilyen technológiai feature-öket mindig szeretik túlmisztifikálni a felhasználók, mert erre tanít minket a marketing.
-
janos666
nagyúr
válasz
FollowTheORI
#45738
üzenetére
1: Alapvetően működőképes a HDR10 mindenféle metadata / roll-off nélkül, hard-clip módban. Végső soron ízlés kérdése is, hogy valaki melyiket preferálja.
2: Ez az egész fordítva volt. A játékok tudták előbb, amit kellett, mint a TV-k.
Én csak pár PC-s játékos ismerek, ami HDR10-es, de az mind HGIG-vel működik jól.
A tone-mapping régóta szerves része a játékoknak, mert rég HDR-ben dolgoztak, és csak SDR-ba konvertáltak. Most egyszerűen HDR10-be konvertálnak, és ennyi. Ehhez pedig van egy szál új paraméterük, hogy mi a csúcsfény a kijelzőn, amit általában egy kis tesztképen lehet beállítani a menüben. A nagy EA és Ubisoft játékok azóta kínálják ezt a csúcsfény állítási opciót, hogy elkezdték támogatni a HDR10-et PC-n (2017 körül). Pont az volt a baj, hogy TV-ken, a studio monitorral ellentétben nem működött a játékok ezen funkciója, ezért kaptunk a TV-k menüjébe HGIG-t, hogy monitorként tudjanak viselkedni és jól működjön a játékok ezen része.Lehet, hogy van egy tervezett szabvány arra, hogy később a játékmenüs csúszkázás se kelljen, és az lesz majd később. De már a 2017-es PC játékok is úgymond a HGIG-re készültek. Vagyis nem, mert monitorra, de a TV-kre ezért kellett ez...
-
janos666
nagyúr
válasz
FollowTheORI
#45726
üzenetére
A HGIG-t nem kell támogatnia a játéknak. A TV támogatja ezzel a játékokat.
Ez kikapcsolja a TV-n a roll-off módot, hogy a játék csinálhassa helyette az ilyesmit. Így lényegében ugyan azt a dinamikus tone-mapping élményt kaphatod, mint DolbyVision-el (olyasmi, mint ha HDR10+ lenne, de nem a TV-re megy át a dinamikus metadata, hanem a játék eleve a TV csúcsfényére dolgozik, és nem a TV számol roll-off görbét a metaadatból).
A tartalomszerkesztéshez használt studio monitorok is úgy működnek, mint a HGIG mód, a roll-off dolgot csak a consumer megjelenítőkre találták ki (főleg arra az esetre, mikor kis csúcsfényű kijelző is kezel HDR tartalmat). -
janos666
nagyúr
válasz
adamssss
#45700
üzenetére
Ja, de ez SDR, nem HDR.

(#45672) adamssss - Ennek az A7 A8 HDR különbségnek nincs köze a kalibráláshoz. Szerintem a mozgásinterpoláción kívül ez az egyetlen igazán látható eltérés (nem csak tesztábrákon látszik és nem csak akkor, ha tudod mit keresel) az OLED-ek közt (vedd most ide az összes márkát is).(#45691) blakey - Az utóbbi ~5 évből a legtöbb értelmes TV már tud helyesen lejátszani 24fps-t a belső programokkal.
-
janos666
nagyúr
Én pl. személy szerint az LG OLED-em állítom be úgy, hogy ne foglalkozzon a kintről kapott metaadattal (tegyen úgy, mint ha mindig pont az a 700 nit lenne a filmben is, mint amit a kijelző tud, ne legyen roll-off). Előtte a PC-t állítottam be úgy filmnézéshez, mint az Apple az Apple TV-jét (nem azért, mert őket majmoltam, utálom a céget, de ez épp így tetszik).
A Netflix-et pedig valószínűleg amúgy is a beépített lejátszóval jobb használni. Egyedül az lehet a külső eszköz előnye, ha HDMI-n tudsz DD+ formátumot küldeni róla az AVR-be, de a TV-ből (e)ARC-on nem (mert nem támogatja az adott AVR, de amúgy szokta). Nálam ez fennáll (nincs semmilyen ARC), de lusta vagyok emiatt PC-ről Netflix-ezni (MPC-HC+madVR helyett Netflix-hez nekem kéne kézzel 23.976Hz-re váltanom a PC-t). -
janos666
nagyúr
válasz
adamssss
#45667
üzenetére
A HDR színek jobban az Alpha 9-es (gyak >=C), mint Alpha 7-es (gyak B) LG-ken (2018 óta). Ez látszódni fog filmeken és játékokon is. Így, mikor nem kell a VRR (G-Sync / FreeSync), akkor érdemesebb lehet a Pana/Sony a B előtt. Ugyanakkor a B8 is jobb lesz, mint pl. egy Samsung Q90 (épp ebben a HDR színkezelésben is!), szóval ha az ár / elérhetőség a fontos, a B is jó.
Kár belemenni, hogy tényleg az Alpha-hoz van-e köze, a lényeg, hogy amire azt írják, az olyan. -
janos666
nagyúr
válasz
mucsácsó
#45648
üzenetére
A C9 nem lesz lemaradva HDR képminőségben, és annyira interpolációban sem. Vagy ha nagyon elfogytak, nézted, hogy van-e valahol leárazott E9?
De ott van bármelyik Panasonic, ha egyáltalán nem érdekel a HDMI 2.1 PC/játék (vagy esetleg jövőbeli 4k120 film). Ez esetben amúgy is a Pana-t preferálnám akkor is, ha gyönyörűen futna a Sony-n az Android. -
janos666
nagyúr
@chros - Na, ezen most nyalakodhatsz. LG B8 v05.10.50
Az SDR-t elfelejtettem lementeni, de az úgyis unalmas. Nézd meg ezeket:
DV: [kép] [kép] [kép] [kép]
HDR10: [kép] [kép] [kép] [kép] [kép]
Egyszerűen nem értettem, hogy mi ez. Először azt hittem, hogy csak valami CalMAN konfigurációs hiba (én felejtek átállítani valamit), aztán azt, hogy azzal követtem el hibát, mikor a DV Cinema Home-ot kalibráltam (és talán a B8-on [legalább is ezzel a firmware-el] mégsem ugyan az a két Cinema mód, ha már reset-elve vagy kalibrálva vannak --- de már használtam így a DV Cinema Home-ot több LG TV-n is, az alap eltérésük abból az 1DLUT-ból adódott, amit felülír a CalMAN). De kb. ugyan ilyen a gyári Cinema mód ellenőrző mérése is (a tone curve része).
Tehát a HDR10 és a DV módok "alatt" is ugyan úgy van kalibrálva a kijelző, de mikor visszakapcsoljuk a HDR feldolgozást, akkor sokkal pontatlanabb lesz a DV, mint a HDR10.
Nem tudom, hogy ez vajon honnan jön, az új firmware-e az oka, és akkor melyik (általában nem is szoktam csinálni ilyen visszakapcsolt ellenőrzést, mert a Dolby chip munkájába úgysem tud belenyúlni senki és elvileg elég egyszer megcsinálnia valakinek egy-egy TV típuson, hogy tudjuk miként működik, azon túl pedig sokkal több >=C modellel volt dolgom, mint B-vel, szóval felőlem akár mindig lehetett ilyen a B8). Most külön kértek tőlem grafikonokat, és ezért futtattam le így is. (Az SDR grafikonok hiányoznak, mert sohasem fogom megszokni, hogy nem ment automatikusan a CalMAN. Mikor átlépek egy új template-be, akkor töröl minden adatot, nekem kéne kézzel mindig Save-t nyomni, és néha elfelejtem...) -
janos666
nagyúr
-
janos666
nagyúr
válasz
rothfb
#45110
üzenetére
Annak szerintem még mindig 0-án lenne a helye (bár fejből nem vagyok most benne biztos).
De a "vivid" inkább arra utalt, hogy a színek is jól fel voltak húzva (maxolt színátalakítás, stb), attól lesz "kicsattanó" azon túl, ha a "Fényerőszintet" is szép magasra húzod. De már eleve a Normal mód is túl vakító és színes alapon, szemben egy Prof vagy Cinema/THX móddal, amik alapból sem olyan rosszak (és kis állítgatással már pöpec).
Persze ez a gyártók hülyesége, hogy idióták a "Normál" és "Természetes" módok. Félrevezető. -
janos666
nagyúr
válasz
blakey
#45108
üzenetére
Nyugi, a Pananosic vezérlése megoldja, hogy úgy se legyen szar a kép, ha oda állítod be.
![;]](//cdn.rios.hu/dl/s/v1.gif)
"Azt már úgy gyártották."
stb, stb
(Amúgy plazma korszakban tényleg volt ilyen mentalitásuk. Pl. csak náluk működtek úgy az R, G, B Gain csúszkák, hogy ha egy zöldfülű kalibrátor felfelé tolta őket, nem csak kettőt lefelé és egyet nullán hagyva, akkor automatikusan visszaskálázta a háttérben úgy, hogy a legmagasabb 0-at üssön, ne kezdjen el clipping-elni.)
Személy szerint most is csak az velük a bajom, hogy nem fordítanak elég figyelmet a PC-sekre és csak a túlárazott csúcsmodellekben van benne minden olyasmi, amit az LG betesz a legolcsóbbakba is (pl. 3DLUT programozás). -
janos666
nagyúr
Az elő-töltött idő hossza szerintem abból adódik, hogy X méretű memória buffert tölt meg (pl. 100 Mb-ot), így minél magasabb a bitráta, annál kevesebb másodperc fér bele (pl. 10 Mbps-nél 10 sec, de ez most nyilván csak példa). Szóval akkor is így változna a csík, ha >=10Gbps SPF interfész lenne a TV seggében (de változatlanul szűkös mennyiségű RAM, és nem lenne NAND flash cache se).
(#45099) ΞΔGLΞ - Milyen képbeállításokkal nézted őket?
(#45083) salapp - Azt tudtad, hogy fothfb kb. Vivid módban járatta őket eleinte?

-
janos666
nagyúr
válasz
nordlead3
#45049
üzenetére
Ha mindegyiken kikapcsolsz minden képjavítót (zajszűrés, stb), és egyforma a kontrasztarány (OLED esetén ez mindig végtelen), illetve egyforma a színvisszaadás, akkor pont ugyan úgy fog kinézni a blokkos zajos szutyok is mindkettőn.
Így LG WOLED panelre szűkítve a dolgokat, a különbség abból adódik, hogy milyen pontosan követik a tone görbét a fekete közelében (milyen pontos gyárilag és/vagy milyen jól kalibrálható), aminek praktikusan része az is, hogy milyen precízen számol és milyen szépen ditherel a processzor.
De vedd figyelembe még azt is, hogy ilyen anyagoknál szubjektíven sokkal kellemesebb lehet a szemnek az, ha bebuktatod a sötétszürkéket a feketébe (teljesen, vagy legalább is perceptuálisan már effektíve egybefolyik). Ugyanakkor jobb minőségű tartalmaknál ez hátrány lesz, ha összehasonlítod őket.
Egyetlen kivétel volt: 2018-ban a "macro block noise" témakör
Szóval... ezzel szerintem így kár foglalkozni. Ami érdekes a gyenge minőségű anyagnál az inkább a felbontás újramintázása, de még az is szubjektív valamennyire (van, aki az élesebb, van aki a lágyabb eredményt kedveli, és ez is változhat tartalmanként).(#45052) MaxxDamage - Csak ha érdekel a 8 csatornás LPCM passthrough eARC-on.
-
janos666
nagyúr
válasz
kokobe
#45022
üzenetére
Az LG-k kalibrálhatóak legjobban, csak egyben legnehezebben is. Minél komplexebb a rendszer, annál több a hibalehetőség is. Itt pedig meg vagyunk 'áldva' egy iszonyat arrogáns harmadik féllel is (Spectracal), akiknek fontosabb, hogy "industry leader" címen pénzt gyűjtsenek bármiért, mint hogy a szoftverüket fejlesszék.
-
janos666
nagyúr
válasz
Locutus
#45006
üzenetére
Szerintem nem. Ugyan úgy, ahogy az 1440p120 sem megy neki (erőltetve sem, legalább is mikor utoljára próbáltam a C8-on [ami újabb/erősebb chipset, mint a B8]), pedig az is befér HDMI 2.0-ba (Sony OLED-eken is működött már 2017 óta, talán Panasonic-on is 2018-tól). Eddig még sohasem tűnt sikeresnek bármi olyat küldeni LG TV-kre, amit hivatalosan nem támogatnak (szerintem vagy explicit tiltják is, de legalább is nem "nyitott" szellemiséggel kezelik a dolgokat, whitle-list elvű lehet).
Bár lehet, hogy VGA oldalon is van explicit szűrés a standard formátumokra, amik passzolnak az interfészhez, de játszottam már passzív DP->HDMI adapterrel (+ driver TMDS limit kiütés, mert az hivatalosan csak 1.4 Alt-Mode, nem 2.0), és úgy sem megy C9-en, ami CX-en igen (pl. 4k120 4:2:0).
Ha valami, inkább kevesebb formátum fog működni (passzív DP->HDMI esetén is hiányzik valamiért a >8bit, bár a HDR10 működött legutóbb, ami korábbi próbálkozásomkor még nem).
Előbb próbálnék meg VRR-t erőltetni a B8-ra (pl. FreeSync Range-t hozzáadni az EDID-hez, ami a FreeSync kapcsolót be kéne hozza, így talán még a G-Sync Compatible-t is felhasználói manuális opcióval), de 99.9%, hogy nem megy (főleg nem Pascal-al, mert azt a driver is tiltja Turing alatt HDMI-n, szerintem akkor is, ha DP Alt-Mode HDMI passzív adapterrel, de Radeon-al talán eljutsz addig, hogy átbillented a kapcsolót és vagy elfeketedik/villog a kép, vagy esetleg örülsz).De ha igazak a pletykák/mesék, az Ampere nagyon ütős lesz, most a gazdasági körülmények miatt talán viszonylag észszerű árazással a középkategóriában (ha mást nem, legalább most nem drágul tovább).
-
janos666
nagyúr
válasz
Locutus
#45004
üzenetére
Amíg ki nem próbálta valaki, hogy működik-e ezen keresztül a G-Sync, addig nem.

De az alapján, hogy DP 1.4 és nem 1.4a, illetve nincs odabiggyesztve a listára a VRR: nem.
Na meg jó kérdés az ára: véletlenül se legyen drágább, mint lecserélni a jelenlegit egy kb. azonos képességű, újabb VGA-ra, amin teljes értékű HDMI 2.1 port lesz (a DP 1.4-nek kicsit alacsonyabb a sávszélessége, mint a HDMI 2.1-nek, a 4k120 "csak" 8bit-el vagy 4:2:2-vel fér át, ami nüansz a 2019-es LG-knél a PC mód hibáival, de a lényeg, hogy VGA és adapter oldalon ez elég jó, de nem "fullos").
Ja, és az "Ultimate" az lenne, ha kapott volna egy sound-only 1.4 portot is (AVR-en át sincs VRR, főleg nem régi 1.x-esen...). -
janos666
nagyúr
Hát, erős PC miatt erősen javasoltam volna az LG-t a HDMI 2.1-el és VRR-al és alacsony lag-al, de ha nem játszol PC-ről, akkor mindegy.
Azon túl, személy szerint a Panasonic-ot jobban szeretem mostanában, mint a Sony-t, de az is igaz, hogy kár lenne bemutatódarabot venni újként (bár ha alaposan le van árazva, akkor megérheti, akkor is ha első nap szerelőt kell hívnod, mert beleégett a store demo). De mikor így kifutó időszakban már szépen leárazzák a Sony-t is az induló prémiumáról, már az sem rossz vétel. Mindnek megvan a maga előnye és hátránya.Erről nincs semmi jobb infóm, de ránézésre nekem úgy tűnik, hogy a Panasonic vagy saját AR bevonatot rak rá, vagy másfélét rendel az LG-től, mint a többiek, mert mikor erősen ferde szögből nézem őket (pl. besétálok a szobába és legelőször csak a keretét látom, aztán fordulok be elé), a Panasonic sokkal szebb, "kristálytiszta üveg" hatása van oldalról is, míg az LG-k széle kezd kékesedeni/zöldesedni (évjárattól függően magentásodni, akár már szemből nézve is a sarkak/peremek egy kicsit), bár szemből nézve normál tartalommal nincs vele gond.
A Sony-nál az alsóbb kategóriás LCD-ket utálom mostanában. Kifutó időszakban olcsók (de tényleg, olyan abszolút értelemben is olcsók, akár hatalmas >65" képátlót kapsz egy kis OLED áráért "élhető" féle LCD-vel [nem is jó, de nem is a legrosszabb]). Egyszerűen semmi közük a régi "Sony minőséghez", amit vár az ember (még bennem is máig bennem van, hogy ha Sony, akkor ha nem is kifejezetten jó, de sz@r mégsem lehet", aztán mégis... most már az olcsó Sony az olcsó képet is ad, nincs semmi hihetetlen ajándék, hogy olcsón kapsz jót egy amúgy drága márkától, olcsót kapsz olcsón).
-
janos666
nagyúr
válasz
cichlid1
#44845
üzenetére
Nem láttál még >100M sportkocsit szervizben, vagy esetleg spontán öngyulladni?
És a legdrágább alkatrész minden WOLED TV-ben még mindig az LG panel+vezérlő. Hogy garantálja neked más TV gyártó, hogy az nem fog tönkremenni csak azért, mert pl. kicsit jobb táppal etetik (ami alapvetően csak feltevés)? (Bár néhány Panasonic csúcsmodellben extra hűtést is kap, de a(Z LG)gyártási selejtet az az alumínium borda sem javítja fel.) -
janos666
nagyúr
válasz
nordlead3
#44828
üzenetére
A CalMAN pattern window (ezt használom, ha HDMI-n megy a jel, a DV csak ezzel jó ilyenkor).
Random zaj (talán IR) volt, mert ma nekifutottam újra (frissen reset-eltem egy képmódot, és nagyjából bekalibráltam (csak egy "Lightning" 3DLUT-al), aztán visszamértem többféleképp), és szebben összefésülődik a kettő (HDMI forrás és jel vs. belső forrás és iTPG):
[calmanps_hdmi_sdr_rgbfull8bit_noallm]
[itpg_internal_sdr]
Feltettem ma a legújabb firmware-t (04.80.03), és változatlan maradt a VVR gamma hiba: [itpg_hdmi_sdr_rgbfull8bit_vrr] -
janos666
nagyúr
válasz
skippper
#44772
üzenetére
Futtattam még pár tesztet, és szerintem véletlenül rájöttem, hogy mi lehet a baj.
Miután végeztél egy képmód kalibrálásával, és átlépsz egy másik bemenetre, nem mindig olvassa be azonnal a friss LUT-okat az új bemeneten emlékezetből aktív képmódhoz.
Szóval példaképp:
1: kalibráltam a Technicolor-t iTPG-vel úgy, hogy a belső lejátszó volt mögötte. Az ellenőrzés szép volt.
2: Átmentem HDMI1-re, az ellenőrzés rosszabb volt.
3: átváltottam Game-be, vissza Techni-be (és még átpörgettem az almenüket, hogy mi lehet ez), és már szép volt az ellenőrzés eredménye.
Van egy hasonló ismert bug, hogy semmiféle LUT-ot nem olvas be a TV közvetlenül kalibrálás után, míg áramtalanítod (a feltöltött LUT le van mentve, csak beolvasva nem lesz egy ideig). Ez szerintem annak az egyik manifesztációja, mikor beolvasva marad egy régi LUT. De lehet, hogy te is azt láttad, hogy "üres" LUT-al futottál forrás váltás után.
Vagy ez, vagy találtál egy teljesen új, ritka hibát, amit én nem tudok reprodukálni.
Próbáld ki, hogy a kalibrálás végén kiveszed a TV-t kalibrálás módból (pipa le CalMAN-ben), ha végeztél minden kívánt mód kalibrálásával, és áramtalanítod egy percre. -
janos666
nagyúr
válasz
janos666
#44797
üzenetére
Bár egy aprócska különbség mint ha mégis kirajzolódna a színeken, de meg kéne ismételni a mérést, hogy az csak véletlen zaj, vagy HDMI vs. iTPG különbség. Minden esetre ez itt minimális, közel sem akkora különbség, mint amit említesz és elmondásod szerint szabad szemmel is látsz.
-
janos666
nagyúr
válasz
skippper
#44772
üzenetére
Szerintem nálad van még pluszban valami anomália.
Ma végigzongoráztam a dolgot, és azt látom, hogy a szaturált színek sohasem változnak, egyedül a tone-response VRR és FRR közt (ez ismert általános hiba), de teljesen mindegy, hogy az iTPG-t használom, vagy a HDMI porton megy be a jel.
De legalább kipróbáltam végre, hogy az iTPG-n is meglátszik az FRR<->VRR különbség.
[hdmi_sdr_rgbfull8bit_frr] (HDMI forráson érkezik a tesztkép, ALM és vele G-Sync letiltva)
[itpg_hdmi_sdr_rgbfull8bit_frr] (iTPG ad tesztképet, mögötte Windows asztal, G-Sync tiltva)
[itpg_hdmi_sdr_rgbfull8bit_vrr] (iTPG ad tesztképet, mögötte Windows asztal aktív G-Sync-el)
[itpg_internal_sdr] (iTPG ad tesztképet, egy 24fps film pereg mögötte a belső lejátszón).
Korábban már vizsgálgattam azt is, hogy van-e különbség HDMI-n át RGB és YCC közt, de nem láttam semmit (és úgy emlékszem azt mondtad, hogy RGB-t küldesz rá, ezért is mérhetem azzal most, bár amúgy is azt preferálnám).
Vagy részletesebb mérést kellett volna csinálnom kevert színeken? -
janos666
nagyúr
Kikérdeztem telefonon:
Mindig kizárólag az iTPG-t használja kalibrálásra és ellenőrzésre is, csak az változik, hogy mi van "mögötte" kiválasztva forrásnak (ami alapvetően csak azért lényeges, hogy átváltsd a TV-t SDR / HDR10 / DV módok közt ennek megfelelő formátumú anyagokkal a kijelölt forráson).
A probléma, hogy más színk jelennek meg nála (szabad szem és műszer szerint is) attól függően, hogy valamilyen belső (beépített lejátszó, Netflix, stb) vagy külső (HDMI) forrás van-e kiválasztva. Tehát még az iTPG is más színeket produkál, ha Netflix vagy HDMI1 van mögötte. Az pedig még érdekesebbé teszi, hogy minden egységes lesz, ha PC címkét ad a a HDMI-nek.
Meg fogom nézni itthon alaposabban, ha ráérek de szerintem alapvetően csak azzal az egy esettel lehet a baj, mikor HDMI van kiválasztva iTPG mögé. Tehát vagy belső forrásnak kell ketyegnie az iTPG mögött, vagy ha HDMI van kiválasztva (PC címke nélkül), akkor HDMI-n kell keresztülmennie a tesztábráknak is.
Szóval szerintem kezelhető probléma, és csak véletlenül futott bele, de keveseket érint.
-
janos666
nagyúr
Azt jelenti, hogy ne hagyj ott egy játékot, míg elkezdesz telefonálás közben fel-alá sétálgatni a házban, és felejtsd ott a TV-t 20+ percre állóképpel (saját megtörtént eset C7-el, maradt némi IR, ami aztán persze kimosódott, de úgy gondolom, hogy talán nem a legjobb benyomás a friss tulajoknak).
-
janos666
nagyúr
válasz
Darth_Revan
#44740
üzenetére
Én a helyedben már lemondtam volna a másikat és kihívtam volna újra a szolnokit (csak próbáld kezdettől te irányítani a beszélgetést, és ne fogadd el a kiugróikat, ami leállítana).
#44746 chros - Persze, hogy hihetetlen, sőt lehetetlen. Biztos, hogy elbeszélünk egymás mellett, hogy mit értünk YCC kimenet alatt (konvertált vs. natív). Sok Radeon kártya már a BIOS (nem UEFI, BIOS!) Post és Setup képernyőt is átkonvertálja és tudjuk, hogy szinte lehetetlen a natív YCC PC-n, különben azt használnák a jobb féle videólejátszók (akár pl. madVR is), de nagyon nem így van.
-
janos666
nagyúr
válasz
nordlead3
#44720
üzenetére
Szerintem én sem írtam mást, csak bővebben és érthetőbben, pontosabban fejtetted ki.

Én is így szoktam használni a két Pro opciót SDR és HDR10/DV közt.Az LG-nél az a legnagyobb baj a játékkal, hogy VRR módba váltva váltással elmászik a kép, de mivel kalibrálható külön a Játék képmód VRR módban, és át tud váltani a TV automatikusan Játék módba és vissza, ez sem katasztrófa, csak kellemetlen (több munka és felhasználástól függően talán később is figyelni kell rá, mert talán van, aki néha szeretne FRR-ben is játszani).
Bár olvastam, hogy a CX-en talán nem csak a gamma csúszik el VRR-ba váltáskor, hanem még a fekete is felkúszik, de még nem láttam (és laikusnak könnyű összekeverni a kettőt). -
janos666
nagyúr
válasz
zozika84
#44702
üzenetére
Kb. 1 perc CRU-val beírni a C9 EDID-be a FreeSync Range-t, és máris működik (pont ugyan úgy, mint a G-Sync Compatible), szinte bármelyik Radeon-al (én Vega-val próbáltam, ami öregebb, mint nV oldalon a Turing).
(#44708) Strezi -> Másik topic-ban válaszoltam: [link]
A másik fejtegetésre: ennyi erővel az Intel i5-2500 proci is cél-hardware, mikor nem egy asztali PC-be teszed, hanem egy Machintos-ba építi be az Apple. Smartphone vs. iPhone, stb. Ez szerintem így egyben már szemantikai vita is valahol...
-
janos666
nagyúr
Szerintem alapjában semmi baj nem lenne azzal a chip nélküli DV móddal. Sőt, én talán egyenesen azt preferálnám, ha lenne választásom és jól működne. Csak annyi, hogy ugyan úgy jól kéne megcsinálni ezt is, mint minden mást.
Tudom, hogy ez alapvetően csak a neve, de fogalmam sincs, hogy megnézte-e már valaki, hogy okoz-e számottevő késést a chip. Én még csak azt próbáltam ki, hogy működik a G-Sync Compatible VRR az RGB-be pakolt DV-vel (120Hz-en is), és annyit próbáltam szubjektíven megállapítani róla, hogy ha nőtt is a lag (SDR-hoz, vagy HDR10-hez képest) még kellemesen játszható vele egy FPS.
Ezt azért emelném ki, hogy ne felejtsd el: a Sony-é a PlayStation is, így gondolnak a játékra is.A Sony szerintem egyértelműen le van már maradva a Pana és LG mögött kb. 2017 óta. Valamikor az FHD korszak vége felé voltak a csúcson (leginkább a Samsung VA paneles LCD-ikkel), de megragadtak a processzorukkal és szoftverükkel (nem az Android-al és a grafikus felülettel, hanem ami a képfeldolgozást illeti) az UHD és HDR kapujában (nem szálltak be a LUT-ozásba, stb).
A profilmegosztás még jól is működne, ha mindenki kizárólag gamma 2.2-vel szeretné nézni az SDR-t és ugyan olyan max panelfényerővel. Csak hát van, aki gamma 2.4-re esküszik SDR-hoz, és nyilván nem csutka fényerő passzol mellé (legalább is sötét szobás filmezéshez). Az már csak az extra, hogy LG WOLED-nek, ha nagyon sokat változtatunk a panel fényerőn, akkor kicsit elcsúszik a szürke-skála is. Erre az a megoldás, hogy az egyik profilt SDR-hoz kalibrálod, a másikat HDR-hez és kézzel váltogatsz (de ezt talán még megjegyzi, hogy melyik profilban voltál legutóbb melyik formátumhoz, de nem vagyok benne biztos).
Náluk 48 fehér 72 fekete volt régebben a BFI, mikor az LG és Pana 60+60 módot tolt. Akadozásmentes, de vibrálósabb volt. Most ugyan ezt szorozták fel kettővel, mikor a kijelző 120-ról 240-re lépett. Szerintem még jó is lehet, de nyilván még jobb, ha több opcióból választhat a felhasználó.
-
janos666
nagyúr
válasz
Strezi
#44665
üzenetére
Mutass kérlek valami forrást, ahol erről bővebben írnak, mint pl. ahogy itt Ph-n szokta Abu kivesézni a GPU-kat (PC és konzol is). Akár linkelj egy topic-ot, ahol folytathatjuk ezt. Egyrészt tényleg érdekel is, másrészt kicsit fura, ha valaki azt mondja, hogy téved a másik, de nem részletezi, hogy pontosan miben és hogyan (és támasztja alá valami forrással).
-
janos666
nagyúr
válasz
Strezi
#44645
üzenetére
Hát, pedig ez legjobb tudomásom szerint tényleg így van.

Itt kizárólag arról volt szó, mikor a VGA Control Panel-ben beállítod a HDMI, vagy DP csatlakozón kiküldött formátumot. Nem arról, hogy a felhasználói szoftverek milyen módon tudnak megjeleníteni >8bit tartalmakat. Utóbbi tudom, hogy elég bonyolult (bár UWP-vel és HDR10 desktop móddal már kevésbé), előbbit viszont a VGA driver és a GPU intézik.
Egy egyszerű példával: teljesen mindegy és észrevétlen a Windows asztalnak, hogy hova állítod az NVCP-s formátumot, teljesen transzparens a dolog, a Windows asztal mindig RGB, hacsak a GPU esetleg át nem konvertálja YCC-re egyes kimenetekhez (beállításoknak megfelelően). A desktop compositor-t ez nem érdekli, az RGB-ben marad. Ezért lehet pl. klón módban nézni ugyan azt a Windows asztalt úgy, hogy az egyik kijelzőre RGB, a másikra YCC megy ki, és mindkettőn megfelelően néz ki.Másik oldalon pedig a magasztos "cél-hardware" is effektíve csak egy custom PC már a jelenlegi generációban is (AMD féle Bulldozer x86_64 CPU magok + egy GCN GPU + némi extra audio chip, vagy cache, stb, szerintem ezt túlzás célhardware-nek nevezni, nem direkt ahhoz tervezték az architektúrákat, csak célnak megfelelően módosították és szerelték egybe, az OS és az API-jai már sokkal inkább célzottak).
(#44644) szabeska - HDMI 2.1-el benyomhatod fix RGB 12bit-re és örülsz, aztán a TV majd használ abból az információból, amennyit tud.
-
janos666
nagyúr
válasz
BusinessGuy
#44639
üzenetére
Tudom, hogy sok a nyavalya, de általában (<90%) semmi köze ahhoz, hogy mire állítod a HDMI kimeneti formátumot az NVCP-ben. Azt a GPU az után csinálja, hogy kész van az RGB kép. Onnan vagy 1:1 megy ki, vagy konvertálja valamibe (akár más bitmélységű RGB-be), de utóbbit alapvetően nem is látja a játék, hogy ott mi történik, hacsak direkt le nem kérdezi valami API-n át (pl. NVAPI, de már a Win10 is lekérdezi ezeket, így az is továbbadhatja, de az csak informatív jellegű, csak a programozók hülyesége, ha szarakodnak miatta, mint pl. a Warframe esetén --- de mikor azt néztem, még az is BETA funkció volt ott, később talán kiveszik ezt).
Az NVCP beállítást úgy is elképzelheted, mint ha egy extra processzort kötnél a PC és TV közé, ami konvertál a formátumok közt. Alapvetően semmi játéknak semmi köze hozzá (de ha a dobozt bekötöd USB-vel a PC-re, akkor lekérdezhető lehet, hogy mit csinál, de ennyi).
Az csak a játék készítőinek a hibája, hogy ha a Win10 kapcsolót akarják használni (nem a régebbi megoldásokat, ami még Win7-en elérhetőek), akkor nem automatizálják. Nem is a Win10 hibája (az engedi pöckölni a játéknak, ha az akarná), és nem is a GPU driver-eké.
(#44626) szabeska - Én a C9-et YCC 4:2:2 12bit-el használom, nem ér már annyit ALLM óta, hogy kézzel piszkálgassam és PC címkével is játszogassak (a C8-on még csináltam, általában PC módban játszottam még HDR10-ben is, mert játékban nem jöttek annyira elő a PC mód gyengéi, mint pl. filmeknél).
De amúgy akit zavar, irreleváns kérdéssé teheti ősztől (ha minden jól megy és tudunk kártyát cserélni HDMI 2.1-esre). -
janos666
nagyúr
válasz
MultiDoodad
#44613
üzenetére
Nem 'kell' váltogatni. Játszhatsz RGB 8bit-el is HDR-ben (illetve egyetlen játékot ismerek, ami ezt tiltja: Warframe), és hagyhatod mindig YCC 4:2:2 12bit-en (8bit SDR anyagokhoz is, és bárilhez). Ez a te választásod, de 4:2:2 fölé csak PC címkével van értelme menni, azzal viszont már a 8bit is sok, a 10 felesleges (pontatlanabb ilyenkor a TV). A különbség a gyakorlatban minimális, ha eltérsz az ideális formátumtól (nagyobb bajok vannak a hozzá kapcsolódó dolgokkal, mint pl. a PC mód).
(#44609) KTTech - Ha külső lejátszót használsz, azzal is nagyíthatsz (akár egy set-top-box is tudhat ilyet, még 4k-ra is, ha kezel 4k-t, pl. sat tunerről).
De LG-n is csak az ISF módok nagyítottak túl homályosan kb. 2017-ig, azóta átlagos. Az 1440p120 játék is élvezhető a C9-en. -
janos666
nagyúr
válasz
MultiDoodad
#44480
üzenetére
Akkor szerintem egyszerűen ilyen a játék.
(#44485) mucsácsó - "közhiedelemmel ellentétben, b8 c8 panel ugyanaz."
Ki mondta, hogy nem?
"Egyedül az E9et javasolta, azon már láthatóan szebbek a színek elmondás szerint."
C és E közt még a SoC és szoftver is ugyan az (szemben a B és C közti különbséggel).
(#44486) Williamgrant - Ezt felejts el, főleg ha telefonnal, vagy Auto módba rakott DSLR-el fotózol és nem speciális módon csinálsz RGB képet a RAW-ból, hanem szintén PhotShop Auto módban....
-
janos666
nagyúr
válasz
MaxxDamage
#44471
üzenetére
Az újabb kártyákon miért tiltanák majd le? A régieken is csak azért van tiltva, hogy rád erőltessék a cserét újabbra.
(#44478) MultiDoodad - A Játék képmódban a Dinamokus Tónusátehelyzés HGIG-n áll, és megcsináltad a játékmenün belül a "mikor olvas egybe a két fehér téglalap" kalibrálást (ahol van hasonló)? (Előbb állítsd HGIG-re, és utána piszkáld a csúszkát és hagyd is fixen HGIG-n.)
-
janos666
nagyúr
válasz
PlanetDada
#44443
üzenetére
A legpontosabb gyári képmódok már elég közel vannak az "igazsághoz", hogy egy átlagos avatatlan szem, ha nem egymás mellé téve, és szándékosan vizsgálgatva (akár szintetikus tesztábrákkal, de minimum óvatosan választott film/játék jelenetekkel) ne lásson köztük nagy különbségeket. Persze mindegyiket lehet még tovább finomhangolni egyedileg és a véletlen szórások közt is lesz olyan, hogy valami közelebb esik a referenciához, van ami távolabb, de ez nem olyan mértékű lesz, hogy valaki (aki nem vizsgált már 10, akár 100 tévét tüzetesen, akár darabját órákon át) csak úgy ránéz, és megmondja melyik a jobb, de főleg, hogy azonnal vissza szeretné dobozolni és másikat venni.
A legvalószínűbb az, hogy egyrészt ragaszkodsz a régi TV-d akármilyen színvilágához (legyen az épp nagyon is pontos, vagy sem, egyelőre mindegy) és most az új TV-t sem pontos profilra állítod be, hanem valami más véletlenszerűre (és akkor ez esetben valószínű, hogy ha az újon sem találod könnyen a "helyeset", akkor a régin sem találtad, tehát most azt várod az új TV-től, hogy egy gyári képmódja adja vissza egy régi TV-t pontatlan beállításaival produkált képét, amire kb semmi esély).
(#44444) Jorgi Kormi - Az egy üres link?
-
janos666
nagyúr
válasz
MaxxDamage
#44321
üzenetére
Ahogy (#44320) FollowTheORI is írta: találtál egy bug-ot, hogy véletlenül engedélyezi az nVidia driver a TV-re is a GSync-et, mikor aktív a GSync-es laptop kijelző. Örülj neki, mert a VGA-d alapból letiltja a TV-n. Ha bejelented ezt a hibát az nVidia-nak, akkor az lesz a javítás, hogy sohasem fog működni a TV-n a GSync, akár lehajtod a laptop kijelzőjét, akár nem.
-
janos666
nagyúr
válasz
MultiDoodad
#44182
üzenetére
Vagy IR lesz (élénk statikus elem átmeneti foltot hagy), vagy a "logó fényesség" késik (tovább tompítja a területet, ahol logót vélt észlelni, és még nem jött rá, hogy már nincs ott).
-
janos666
nagyúr
Miért foglalkozna bárki a PC címkével (főleg, hogy még többet kell kattintgatni érte a menüben, mint korábban), ha anélkül is tudna 4:4:4-et a Játék mód?
Itt minden ugyan az, egymás után készülnek a képek, csak a címkét váltom: HDMI1 | PC
Én igazából örülök, hogy nincs kijavítva a PC mód CX-en se, idén nem "kell" cserélnem.
-
janos666
nagyúr
Továbbra is kizárólag a PC mód a 4:4:4, a HDMI címke marad 4:2:2
A Színház+ALLM pontosan ugyan azt tudja mindenben, mint a Játék (a játék lényegében egy n+1 klón ugyan arról a profilról, mint a Színház is, csak fixen be van kapcsolva rá az LLM).(#44042) chros - Tényleg fura, hogy 2019-ben a switch chip megoldás többet tudott, mint most a natív implementációjuk (ha ez már tényleg az, nem csak egy olcsóbb switch chip). De szerintem tényleg semmi gyakorlati hátránya nem lesz a 40G-nek.
(#44017) szabeska
Igen, "be lehet neki tanítani", hogy ALLM-nél az LLM aktiválásával együtt váltson-e át Játék módba is, vagy ne. Alapból átvált, de ha egyszer visszarakod kézzel, akkor többször nem. -
janos666
nagyúr
PC mód: Hát, a C9-en sokkal kisebb a minőségvesztés normál Színházból alacsony késésű Színházba (ALLM bekapcsol), vagy Játék módba (ami effektíve fixen LLM=On mód) váltva (látszik, de inkább csak tesztábrákon, külön figyelve rá a sötét árnyalatokon --- én is ezt látom, hogy kevesebb a ditherzaj, így több a banding, de egyáltalán nincs még ebből katasztrófa). LLM=On mellett nem látok számottevő különbséget az árnyalásban FRR és VRR közt, csak a statikus váltást egy másik tónus görbére (avagy más szóval elcsúszik a gamma a fekete közelében, felfénylenek a sötétszürkék, ami ne szép és kiemelheti a sötétszürkéken lévő banding-et, de 9nmagában nem növeli a banding mértékét, csak azt, hogy mennyire látható, zavaró).
Ellenben PC módba váltani a C9-en egy jelentősebb ugrás. Akkor ugyan úgy néz ki a kép, mint C7-en és C8-on is PC módban: egyértelmű, feltűnő a minőségromlás (szintén főleg a fekete közelében, de már máshol is szemet szúrhat), főleg HDR10 módban (DV-hez nem értelmezhető a PC mód, mert az fixen subsampled, legalább is videóban és HDMI-hez RGB-be ágyazáskor), ahol még a magentázós móka is előjöhet (olyan szemet szúró banding szerűség, ahol átvillan oda nem illő színekbe egy-egy árnyalat, annyira messzire esik, amit helyette odaköp pontatlanul).Szóval, ha ő nem lát különbséget Játék mód és PC mód közt, az igazából jelentős fejlődés, és szerintem teljesen elfogadható úgy a PC mód, mert most én így használom effektíve Játék módban szinte mindig (kivéve, ha belső programokat használok, pl. Netflix, vagy ha kikapcsol az ALLM és G-Sync, mikor 2160p23-ba vált a madVR filmnézéshez PC-ről is, de amúgy a Windows asztal és SDR, HDR10 játék mind ALLM és G-Sync módban megy és elégedett vagyok ilyesmikhez az árnyalás minőségével --- azért sok játékban messze nem tökéletes az árnyalás, bármilyen kijelzőn is nézed bármilyen módban, de olyan játékok is elég jól néznek így ki, amikben szép simák a gradiensek...).
Ügyes. ->
-
janos666
nagyúr
válasz
kutyu92
#44004
üzenetére
Szerintem minden 2019-es OLED tud VRR-t, legfeljebb is annyi lehet, hogy nincs hivatalosan is hitelesítve, az nVidia-nál, mint G-Sync Compatible, hanem kézileg kell bekapcsolni az NVCP-ben (és ugyan ez FreeSync-re AMD-vel, de az az összes 2019-esre igaz jelenleg, hogy csak "trükközve" megy, XBox One passz, szerint megy vele minden B9-en a VRR, mert ott nem kell hozzá külön G-Sync vagy FreeSync flag a firmware-be, a HDMI 2.1 port pedig adott minden 2019-es OLED-en).
-
janos666
nagyúr
válasz
adamssss
#43974
üzenetére
Szerintem attól is függ, hogy ki mire érzékeny. A túlszaturált kép pl. sok "gamer"-nek tetszik, pl. szándékosan felhúzzák a színek szarurációját pl. ReShade-el. (Tipikusan ő lesz az, akinek az ágya peremén is színes RGB LED sor rikít alváshoz, ami bevilágít egy WoW posztert a falon.
) Közben viszont van játékstúdió, ami komolyabban veszi a színeket, mint egy átlag filmstúdió (ugyan úgy, ahogy pár játék több pénzből készül, mint a nagy mozifilmek többsége).
A hibás gamma viszont bármikor zavaró lehet, ha pl. elveszik a kontrasztélmény a túl világos fekete-közeli szürkéktől, vagy épp ha bebuknak a sötétszürkék a feketébe, ezért nem látsz semmit az éjszakai jelenetekből (akár azt se, amire lőni akarsz).
[Ez most csak úgy általánosságban, nem OLED-re, még kevbésbé konkrétan C9-re értve.]Konkrétan a C9-et azért érheti meg kalibrálni, mert VRR-al elcsúszik a gamma a normál módhoz képest (tehát érdemes lehet a Színház módot VRR nélkül, a Játék módot VRR-al kalibrálni.)
[VRR = Variable Refresh Rate = G-Sync Compatible = FreeSync]@chros: Na, akkor össze se állt bennem tudatosa, hogy miért próbáltam ki múltkor a FreeSync-et C9-en a kalibrálós AMD notimmal. Tudtam, hogy valamire még kellhet az.

(#43972) Gtaati - Alapvetően nem kéne letiltani a WiFi-t, mert a beépített ethernet automatikusan kilövi, de az USB-set nem érzékeli (nem fogod látni a menüben, hogy van-e kapcsolat, mi az IP cím, stb), így talán a WiFi-ről sem áll rá át magától (és akkor még ütközés is lehet, hogy nem áll le az egyik). Ja, és mivel nem lesz hozzá menü, csak DHCP címet tud kapni (fix kézit nem tudsz a TV-n bepötyögni).
-
janos666
nagyúr
A 2019 LG-ken szerintem semmi gond nincs már az 1DLUT-al, de a 2018-asoknál sem volt mindegyiken (én sohasem láttam banding-et reset után, mint ahogy írták, szerintem az az US modelleken lehetett csak).
Amúgy alapvetően én is így gondolkozom, hogy redundáns az 1DLUT, ha elég nagy a 3DLUT, csak a HDR, főleg DV mód miatt foglalkozom vele, mert ott kvázi "kötelező" (elvben lehetne ott is 3DLUT-al kalibrálni a szürke-skálát, csak speciális eset, és külön fel kéne rá készíteni a szoftvert, hogy mit akarunk tőle, és szerintem egyik sincs...), de akkor már azt mondom, hogy legyen inkább egységes a workflow (és akkor csináljuk az 1DLUT-al SDR-ban is, ha nem árt).
A 2018-as modelleken szerintem mindenképp megérte kalibrálni a HDR módok 1DLUT-ját a "macroblock" firmware után, az nagyobb elcsúszás volt, mint ami bennmarad az 1DLUT-ban a panel instabilitása miatt. -
janos666
nagyúr
Tudtommal a LightSpace is tud 1DLUT-ot készíteni LG-hez (statikus szürke-skála méréssorból, akár több lépésben iterálva), a DeviceControl pedig fel tudja tölteni a HDR10 és DV slotokba ezeket. Szóval ott is legfeljebb a HDR-es 3DLUT-okkal lehet gond (a WRGB gamut miatt, vagy még a DV file előállításával), mint DisplayCAL-nál (az SDR azzal is működik), de nekem valahonnan az rémlik, hogy ez megoldott (talán tévedek, mert még nem próbáltam, csak screenshot-okon láttam, vagy futtában olvastam róla).

A 15 nap trial-al nem sokra megyek, ha nem enged mérni, vagy mérést importálni. -
janos666
nagyúr
Ha sokkal többet szeretnénk erről beszélgetni, talán át kéne menni vele ebbe a topic-ba: [link]
A dolgok "szürke" részét pedig nem kéne messzire feszigetni egyik témában sem.
A DDC/AutoCAL támogatású LG, Panasonic, Sony TV-khez IPv4 hálón csatlakozik a CalMAN.
Netre csak az első regisztrációhoz (az alap kulcs hozzáadása) és verziófrissítés alatt/után kell kiengedni olyankor, ha ellenőrzi, hogy van-e aktív előfizetésed, ami a verziófrissítésre jogosít, amúgy megy offline (és nyilván helyi hálóra korlátozva).
Nem tudom, hogy a VM-ben min alapján generál hardware ID-t a license kezelőjük (változik-e, ha átviszed a lemezképet másik host-ra).Őszintén szólva, ha csak LG-hez kéne, és csak otthonra, én tuti, hogy inkább LightSpace license-et vennék, de még szívesebben fizetnék hasonló összeget valakinek, hogy tákolja össze a HDR10/DV kalibrálási opciókat is DisplayCAL-hoz (részben már meg vannak, csak finomítgatni kéne a WRGB sajátosságokra és hasonlókra).
A CalMAN nekem azért érte meg, mert 4-5 féle márkánál is van AutoCAL, beleértve a régi Panasonic plazmákat is. Amúgy a halálba kívánnám a Spectracal-t, egy mocskos banda. Csak fizess prémium árat mindenért, aztán ne kérdőjelezz meg semmit, ha pedig mégis jön javítás a hibákra, akkor fizess újra a frissítésért, vagy akár vedd újra drágábban, mert azóta EOL egy license level, ami neked volt.
(#43933) junior19 - Ja, a legolcsóbb műszer, amit lehet értelme használni, az az 1id3, de igazából egy i1Pro(2) is kéne mellé, ami 2-3x drágább (így összesen már sokkal több). Nem vagyok benne biztos, hogy spektró nélkül az olcsó colorimeter elég jó lesz (a fényerőt elég jól fogja mérni, szóval a gammát kisimíthatja, de a színeket már nem biztos, hogy jobban, mint a gyári beállítás).
-
janos666
nagyúr
válasz
skippper
#43917
üzenetére
Nekem van magasabb szintű CalMAN license-em. Nem fogod tudni egyszerűen megosztani másokkal, mert HWID-hez van kötve, és csak 10x tudod újra regisztrálni (aztán érvénytelen a kulcs, ha nem tudod bizonyítani az újraregisztrálások szükségességét) és bár ezt nem próbáltam, de szerintem hálózaton át sem egyszerű (ha pl. mindig egy gépen fut és valahogy megosztod hálózaton át az USB eszközt). Amúgy hivatalosan nem is legális megosztani semmilyen formában a Home-ot.
-
janos666
nagyúr
válasz
MultiDoodad
#43891
üzenetére
Kezdd a Warm2-vel (de végső soron ja, #43892, ha nagyon akarod, tekerd el).
-
janos666
nagyúr
válasz
Darth_Revan
#43791
üzenetére
Az AIDA csak az EDID-et olvassa, amiben a támogatott bemeneti formátumok vannak.
Maga a kijelzőpanel 240Hz-es, a megjelenés előtt pár hónappal még nem volt letiltva a C9 szoftverében a funkció, ami ezt bizonyítja, és most a CX-en visszahozták (több lépcsős BFI, a C9 bemutatópéldányoknál is működött).(#43792) Segal - Korábban írtam, hogy a C9 már rég jelzi a 4k120-at az EDID-ben a forráseszköz felé. Persze kipróbálni nem tudjuk, de ennek így az lesz a vége, ha mégsem jó, hogy fekete képernyő fogad majd mindenkit, aki 2.1-es eszközt köt rá, és az automatikusan beállítja a legmagasabb támogatott módot, ezért nem hiszem, ha ilyen nagyot blöffölne az LG.
(#43794) gago1975 - Hivatalos Ultra kábel már van rég, a Club3D tavaly óta árul ilyet (azóta már biztos mások is, de az is egy régi, normális gyártó és az volt az első ilyen), de igazából bármelyik jó minőségű kábel meg fog felelni, ha hitelesítve van rá, ha nincs (a selejt pedig semmihez se lesz jó, mindegy milyen matrica van rajta).
-
janos666
nagyúr
Ahogy írtam, 4:4:4 10bit beleférhet, de:
1: a sávszélességen túl más is beleszólhat a támogatott formátumokba (mindkét oldalon)
2: nincs szükség 4:2:2-től többre PC mód nélkül, aminek nincs sok értelme, ha nem javult(#43779) chros - Ahh! Akkor elnézést, le voltam maradva. Az szép.

(#43787) MultiDoodad - Ízlés szerint. Én kikapcsolom, mert belenyúl a sötét árnyalatokba is (szemben azzal, amit az LG állít róla, hogy mit csinál, mert akkor csak a világos jelenetekben és világos színeken kéne változtatnia, nem a sötét jelenetek sötét árnyalatain). Valamikor tavaly linkeltem fényképeket, amik a HDR10, HDR10 + LG DTM, és DolbyVision (gyárilag dinamikus) eredményét próbálta összehasonlítani.
A gyakorlat inkább az, hogy a DTM mindent egyszerűen csak világosabbá tesz, ha kell, ha nem.Játékokhoz amúgy a HGIG mód a nyerő (sőt, fontos, mert csak úgy működik rendesen a játékmenüs kalibrálós csúszka), ami 2019 óta van Játék módban.
(#43789) SteveButabi - Ó, nem, nem, nem!
Az OLED Fény, ami Philips-en Kontraszt (de NEM video-kontraszt) maradhat (sőt, maradjon) maxon 100-on HDR10-ben, a Fényerő viszont mindig alap helyzetben 50-en (kivéve, ha pontosan tudod mi alapján állítod át másra, de akkor is +-/3, nem 10-20).(#43777) MaxxDamage - G-Sync mellé használj limitert! [kép]
-
janos666
nagyúr
Szerintem most egyértelműen a C9 nyer az ára miatt.
Azt lenne jó tudni, hogy javult-e esetleg a PC mód minősége a CX-en, de erősen kétlem, mivel nincs szó róla, hogy gyorsult volna a processzor és mostanában évről évre egyre több másodlagos-harmadlagos funkcióval szórják tele a TV-ket (AI akármik), tehát erre kb. akkor van csak esély, ha eddig puszta hanyagság, vagy valami banális szoftverhiba miatt volt gyengébb a PC mód árnyalása (nem azért, mert nem lenne elég rá a SoC erőforrása, hogy butítás nélkül is vigye a 4:4:4-et, ha közben fixen lekapcsol pár "képjavító", amit most is letilt a PC mód). -
janos666
nagyúr
A C9 több adatot tud fogadni HDMI-n, mint a CX. Ugyanakkor a C9-el sem tudsz gyakorlatilag többet kihasználni 2160p120-ban, mint 4:2:2 12bit vagy 4:4:4 8bit (ami a CX által kínált sávszélbe is belefér), mivel a 4:4:4 megjelenítéséhez PC mód kell, ami 8bit-el is nehezen birkózik meg (10bit-es HDR anyaggal van bőven banding PC módban). A kijelző 10bit-es, de ahhoz is kell dither, hogy a 8bit szépen jelenjen meg rajta (nem még a 10), szóval a 12bit miatt egyáltalán nem aggódnék (persze ártani sem árt, de véletlen sem fontos tényező), főleg hogy a HDR10 anyagok 10bit-esek, a DolbyVision 12bit-es verziója pedig RGB 8bit formában megy át a HDMI-n (legalább is olyan TV-kre, mint az LG-k, amikben Dolby chip van, szemben a Sony-val, ahol dolby szoftver blob a Sony processzorához). Szóval a 40Gbps szerintem ne zavarjon senkit (egyedül azzal lehet baj, ha az nVidia nem nyitja meg az RGB 10bit opciót HDMI-re, de szerintem nem lehetetlen, AMD kártyákon működik, és az YCC használata sem katasztrófa).
A CX előnye pillanatnyilag a 4k120 4:2:0 8bit, ami C9-en nem működik (erőltetve sem), de lentebb írtam, hogy állítólag rosszul kezelik most a Geforce-ok (letiltanak funkciókat ilyen módban), így annak sincs sok értelme (és küszöbön van egy DP átalakító is).ú(#43770) Darth_Revan
Az AMD sem hozott HDMI 2.1-es kártyát, egyik VGA gyártó sem sürgetett, "szponzorát" DP->HDMI átalakítót (főleg nem kiemelten VRR támogatással, hitelesítéssel).
A legutolsó hivatalos szoftverrel (kb. december óta) már jelzi a C9 EDID a 2160p120 és 48Gbps képességeit. -
janos666
nagyúr
válasz
Darth_Revan
#43729
üzenetére
A Szolnoki, ugye? Hívd fel, és beszélj velük úgy, mint ha neked kéne eladnod magad ([link]).

Utána hetente egyszer kérdezz rá, hogy megvan-e az alkatrész, és aztán menni fog.(#43764) torma1981 - Viszont valahol írták, hogy valamiért nem működik olyankor a HDR és a G-Sync sem, bár nem értem miért (lehet, hogy user error, HDR-ről még azt is el tudnám hinni, hogy csak hiszi, hogy nem működik, mert 8bit [bár pl. a Warframe játék letiltja a HDR-t 8bit-en], a VRR-hoz pedig alapvetően semmi köze nem kéne, hogy legyen).
Jövő hónapban elvileg jön valami DP 1.4->HDMI 2.1 adapter, de nem tudni, hogy VRR képes-e. -
janos666
nagyúr
válasz
MaxxDamage
#43676
üzenetére
A "HIGH SPEED WITH ETHERNET" konyhanyelven 1.4, de ne foglalkozz vele, amíg működik (visszafelé sem garancia ez a címke, hogy ne működne akár HDMI 2.1-es eszközök közt is, most pedig a kisebb oldal lesz mérvadó, ami max 2.0 lesz ma).
-
janos666
nagyúr
válasz
Pelican
#43653
üzenetére
Végigmentél azon a varázslón, ami a kapcsolatok alatt van (angolul Device Connector), és ki lehet választani a csatlakoztatott HDMI eszköz típusát?
Sz.k.: Nem tudtam kihámozni, mi volt ezt a djpundro - blakey téma, úgyhogy visszatöröltem az egészet addig, ahol kezdődni látszott. Hagyjátok ennyiben!
-
janos666
nagyúr
válasz
hunspikey
#43602
üzenetére
Pedig a W50 állás alapvetően ugyan az szokott lenni, mint a Warm2 opció (az EZ-ADJUST szervizmenüs Warm preset, amit a gyárban lőnek neki -> szóval a W50=Warm2 végül is kalibrálható egyedileg nem-hivatalos módon, de alapvetően nem javasolnám ezeken a TV-ken, ahol az 1DLUT is programozható).
Elvileg lehetne egyedi fényerő görbét is használni, gyakorlatilag túl bonyolult és amúgy sem ajánlanám.
Bővebben:
1: Minden képmódhoz tartozik egy 1DLUT, amivel a kijelzőpanel szürke-skáláját lehet finomhangolni (durván gamma 2.2 és 11K színhőmérsékletről indul, utóbbi a W al-pixel fizikai színe, amihez utána a szűrt RGB-t illesztik hozzá, mint semleges állapot) és egy 3DLUT, amivel a színeket lehet tetszőlegesen keverni (pontosabban ebből kettő van, egy "nagy" 3D-s mátrix és egy "kicsi" 2D-s 3x3 mátrix, de utóbbi redundáns, ha használod az előbbit, és az nyilván több mindenre jó).
2: DolbyVision módban alapesetben a 3DLUT "el van rejtve" (legalább is a hivatalos szoftver elől), mert a színkezelés a Dolby chip-re van bízva. Tehát ilyenkor csak az 1DLUT használható (hogy finomhangoljuk a kijelzőt, amin mellesleg SDR-ból HDR módba váltva, ahogy harsányodik a W alpixel, nagyon elcsúszik az a gamma 2.2). A Dolby chip pedig nem görbét vagy LUT-ot kap, hanem egyszerű 3x3 mátrixot és egy gamma értéket.
-> Ebből következik, hogy alapvetően kénytelen vagy valamilyen gamma értékre kalibrálni a kijelzőt az 1DLUT-al, hogy valós gamma értéket adhass meg a Dolby chip-nek. Ha ez hamis/hibás, akkor hibás lesz a 3D színkeverés is (nem csak a fényesség változik, hanem a színek is torzulnak valamennyit - de ez amúgy igaz az LG gyári "Home" képmódra is, ott is az 1DLUT-al variálnak).A másik praktikus probléma, hogy az 1DLUT-ra amúgy is csak gamma értéket enged célozni a CalMAN, egyedi görbét nem (tehát max pl. úgy lehet fényesebb hatást elérni, hogy gamma 2.2 helyett mondjuk 2.0-ra kalibrálod a kijelzőt). Csak 3DLUT-nál van olyan opciója, hogy "retarget LUT from profile" (ahol betallózhatsz valami egyedi színprofilt bármiféle görbékkel). Plusz nem enged 1DLUT-ot lementeni file-ba, vagy file-ból feltölteni a TV-be (mondjuk ez megkerülhető nem-hivatalos szoftverrel --- az a DV chip-hez nem fog tudni hozzáférni, de az már részletkérdés, hogy menet közben váltogatni kéne őket).
Személy szerint még nem játszogattam az open-source verzióval (és tudtommal csak a 2018-as szérián van valamennyire tesztelve, mert az van otthon az írónak). Nem javasolnám a használatát (csak indokolt esetben, de a fentiek matt szerintem eleve nem javasolandó az, amit szeretnél, így indokoltnak sem tartanám).
SDR módban könnyebben lehet játszogatni a 3DLUT-al, de már HDR10/HLG módban sem olyan egyszerű (a nyílt forrású szoftverek nincsenek külön felkészítve arra, amit a WRGB panel csinál HDR módban).
-
janos666
nagyúr
És a 4k tartalmak túlnyomó része 2k master-ből van (legtöbb lemezes Hollywoody-i film) gyárilag nagyítva, vagy ideálistól alacsonyabb bitrátával van tömörítve (főleg mostanában, hogy pl. az EU kérte a streaming szolgáltatókat, ahol viszonylag sok valódi 4k is volt, de sohasem túl nagy bitrátán, most pedig kevesseb).
Videójátékkal, főleg SSAA nélkül (4k->2k downsampling) szerintem azonnal egyértelmű.
-
janos666
nagyúr
válasz
renatto
#43507
üzenetére
Az ALLM az semmi ilyen szempontból, csak metadata, "programozható" dolog.
De az eARC is lényegében az HDMI 1.4 óta létező 100Mbps ethernet channel-t használja <100Mbps hangfolyamhoz, szóval csak azon múlik, hogy max mit tud kezelni az adott chipset és azon belül mit akarnak megvalósítani a gyártók. -
janos666
nagyúr
válasz
snpetit
#43487
üzenetére
HDMI bemeneten monitorként használva a TV-t még nem vettem észre, hogy csinálna bármit Magas állásban, sőt, stabilabb így, mert ilyenkor nincs az az észrevehetőbb "news station dimming" (hogy 10-20 percenként elkezd lassan sötétedni, majd viszonylag gyorsabban visszalépkedni az eredetire, ha úgy érzi kint van sokáig van valami világos felület, aztán eltűnt).
Ha zavar, szerintem egyszerűen kapcsold ki. Az egyik hasonló dolgot (TPC) én is kikapcsoltam a szerviz menüben, mert nézhetetlen volt vele a Trónok Harca utolsó évad (HDR-es lemezről, nem TV vagy HBO Go).
-
-
janos666
nagyúr
válasz
Pelican
#43461
üzenetére
A CX-re már hivatalosan kiadott, és C9-re tesztverzióban elérhető firmware-ek állítólag (*) már tudják az LPCM passthrough-t, szóval ezt már kvázi késznek veheted (általában pár hét, míg kiadják a tesztverziót, ha nincs vele baj). (*Nincs eARC-os AVR-em, hogy kipróbáljam, sőt az SSL-re váltás óta már a tesztverziókat sem tudom feltenni a TV-re.)
De a belső lejátszó "buta" marad. szerintem a Netflix amúgy sem fog a mostani DD+ sávszél fölé menni egy darabig (először örüljünk, ha visszaadják a régi képminőséget...). -
janos666
nagyúr
válasz
Gaben360
#43433
üzenetére
100 is sok, picit többet tud átlagban, de ezt szabad szemmel aligha veszed észre (még akkor sem triviális, ha egymás mellett van kettő.)
Sokkal számottevőbb az, hogy jobb a színekeverése HDR-ben (lesz, aki erre is azt mondja, hogy ő még egymás mellé téve se látja, én már anélkül is). -
janos666
nagyúr
válasz
Pelican
#43400
üzenetére
Szinte biztos, hogy nem (kivéve, ha nagyon érdekel valami új feature, de eleve alig van ilyen).
(#43391) daneel_hu - A legtöbb hasonló ügyben, ahol nem lehet egyértelműen és objektíven számszerűsíteni jelentős dolgokat (olyat és olyan formában, amit egy totál laikus is megért és belát), szerintem többnyire a gyártó javára dönt a bíróság (ha indul egyáltalán per, bár amiket néha olvastam hírként, az is inkább USA-ba indul csoportos perként, nem EU-ban).
-
janos666
nagyúr
válasz
Celtis
#43381
üzenetére
Akkor hihető, ha viszonylag rugalmasan szabhatja meg a gyártó/szerviz, hogy mi a rendeltetésszerű használat mellett is kopó elem, és mi nem számít "fő elem"-nek (egy mechanikus kapcsolóra szerintem ráhúzható az is, hogy kopik, és nyilván az is, hogy kiegészítő, de nyilván mehetünk ezzel tovább, hogy akkor a dugattyúk és a motorblokk is kopnak, nem csak a csapágyak, vagy a gumik, de még a karosszéria is fárad, úgyhogy a végén semmi se marad
). -
janos666
nagyúr
válasz
GalaHU
#43363
üzenetére
Nálam elérhető a HBO Go a magyar régióra állított C9-en. A Store-ban be sem kell írni a keresőbe, felkínálja legnépszerűbb programok közt.
Youtube-ról is úgy "dobod át", hogy elindul a TV-n a Youtube kliens és csak a videó URL-t küldi át a telefon, aztán a TV játssza le. Talán a HBO is tud ilyet, ha a telefonon van HBO kliens, de telepíteni kell a TV-re is. -
janos666
nagyúr
-
janos666
nagyúr
válasz
Balaxux
#43348
üzenetére
Áramtalanítsd pár percre, majd csatlakoztasd és kapcsold be újra, aztán szerviz.
Az első automata kikapcsolás után vártál türelmesen? Frissítés után néha lassan indul újra, akár fekete képernyő mellett dolgozik az ügyön. Ha esetleg ott sikerült félbeszakítanod, akár egy apró áramszünettel, az esetleg okozhatott gondot.
De lehet véletlenszerű, új TV révén főleg, talán nem is maga a frissítés okozta. -
janos666
nagyúr
válasz
BusinessGuy
#43331
üzenetére
Az az XO(x) sajátossága lehet (szoftver nyavaja, vagy valami hardware keresztmetszet). Talán másképp "mozaikol", mint ahogy az UHD TV-k várják. Az a GCN2 elég régi GPU design (és nem natív HDMI 2.0, hanem Displayport 1.x-ről fut integrált átalakítóval).
Gondold végig: a GPU mindig Full RGB-ben dolgozik. Azt csak 4:4:4-be lehet geometriai információ vesztesége nélkül konvertálni, onnan pedig a 4:2:2 dob el kevesebb információt, mint a 4:2:0
Noha az is igaz, hogy az az RGB, amiből jön a 4:2:x, az legtöbbször max <=FullHD, ritkán 4k render, szóval a 4:2:0 is legtöbbször csak interpolált információt dob el, tehát nem veszítesz sokat.Még az is előfordulhat, hogy sokaknak egyszerűen csak jobban tetszik, ha egyformán homályosabb a két irányban a chroma. Játék grafikánál másképp jelenik meg az aliasing.
Én PC-n nem játszom úgy, hogy 4:2:2-t küldök a TV-re, de nekem is rémlik erről valami, hogy a 4:2:2 talán "recésebb" (aliasing), míg a 4:2:0 bár lágyabb/homályosabb, viszont ez elmossa az aliasing-et (ami chroma subsampling mellett színes recézettség).
De ez ízlés kérdése is.Viszont küszöbön a HDMI 2.1, azzal nem lesz ilyen gond, mehet minden játék RGB-ben.

-
janos666
nagyúr
(#43286) chros - HDMI 2.0 óta már átmegy 4:2:0 is.
(#43287) szabeska - A Kontraszt-ot ne tologasd (esetleg nagyon jó okkal). Az ABL a Kontraszt-tól és OLED Fény-től is függ, de alapvetően 35-40 OLED Fény alatt mindegy (SDR), az után pedig inkább az alacsonyabb Kontraszt és magasabb OLED Fény szokott kevéssé agresszív ABL-t jelenteni, de 2017-től kezdve ezzel sem érdemes már vesződni (2016-ban még agresszívebb volt ABL, mint később).
(#43295) DVlad - De ha mindig ott van a fekete keret, akkor mégis mindegy, hogy az hozzá öregedett-e homogénen a közepéhez.
(#43299) BusinessGuy - A 4:2:0 sohasem optimális PC-hez vagy játékkonzolhoz, mert 4:2:2-vel is átfér 10bit (több nem kell). Egyedül filmlejátszásnál ideális (de ott is csak akkor, ha a lejátszó processzora képes úgy kitolni az YCC-t, hogy nem konvertál közben RGB-be, majd vissza, mint a PC GPU).
(#43323) szabeska - Fure. A TruMotion-t is kapcsold ki. Az automatikusan letiltja a RealCinema-t. Bár ilyenkor ki is szürkül.

Mindenképp 24Hz-en küldd ki a 24fps-t, de vedd figyelembe, hogy a 24fps mindig akadozó lesz, mert egyszerűen kévés. Egy átlagos LCD ez jobban elmossa, mint az OLED (nagyobb csóvát húz a mozgás, elkenődik, elolvad a mozgó él...). -
janos666
nagyúr
válasz
szabeska
#43239
üzenetére
Változó, hogy mit jelent az, mikor szürke, de általában azt, ami oda van ragadva, vagy Off (avagy "funkció nem elérhető"). Kivétel a ValósághűMozi/RealCinema, mert az részben visszafelé működő kapcsoló, de az is "jó" helyen van ragadva, mikor kiszürkül (olyankor ugyan nincs se invers-telecine 60->24 konverzió [ami US TV adáshoz jönne jól], se szándékosan rárakott 2:3 judder se [idióta dolog, de ez tényleg egy "feature"], mikor ez szürke).
-
janos666
nagyúr
A kijelzőpanel vezérlője szinte biztos, hogy ugyan az, csak a firmware van egyedileg paraméterezve még a GZ2000-ren is (esetleg annyi a fizikai módosítás, hogy más formájú, másfelé néz az alaplap felé menő kábelcsatlakozó, vagy hasonló).
Ha jól rémlik, tavaly év vége felé volt olyan hír, hogy elkezdett az LG "csupasz" panelt is kínálni a partnereknek. Előtte nem is volt ilyen opció (és erősen kétlem, hogy bárki csak úgy eldobná róla, olyan pazarlás csak valódi high-end terméknél fordulhat elő, aminek rosszul leszel az árcédulájától). De szerintem még az sem annyira a TV gyártók igénye volt, hanem olyanoké, akik valami "speciális" felhasználásra szánják, és ha mégis ezt választja egy TV gyártó, az leghamarabb is a 2020-as sorozat lehet, de inkább csak 2021-től lesz piacon (igen csak késő lehetett már a 2020-as sorozatot arra terveznie bárkinek, főleg ha replikálniuk kell egy csomó dolgot, amit eddig megkaptak a vezérlővel együtt az LG-től, pl. az öregedéskompenzálás). -
janos666
nagyúr
Egyrészt puszta érdekességből is meg akartam nézni, hogy tényleg működik-e, mert jelenleg sem az LG, sem az AMD nem támogatja még ezt hivatalosan, de olvastam, hogy valakinek állítólag működik, így leteszteltem én is.
Most pedig gondoltam beharangozom ide is, hátha van valakinek >=2019 LG TV-je AMD kártyával, hogy próbálja ki ő is, ha érdekli (főleg ha épp emiatt tervezne Turin kártyára váltani). Ez egy rakat AMD kártyával működhet, nem csak a legújabbakkal (mint nV-nél).
De arra is kíváncsi voltam, hogy esetleg kicsit másképp működik-e a FreeSync, mint a G-Sync ezen a TV-n, mert amíg semmi infó nincs róla, addig még az is elképzelhető, hogy jelenleg nem az AMD driver ismeri a HDMI 2.1 VRR-t is (dokumentálatlanul), hanem az LG firmware ismeri az AMD féle régi proprietary HDMI FreeSync-et is (ami már HDMI 1.x-el is volt évekkel ezelőtt).
Utóbbi esetben talán másképp működött volna a TV a VRR bug tekintetében a két kártya közt (nem villódzott volna úgy a töltőképernyő, mint Vega-val, mint Geforce-al)
Illetve ha már ott voltam, ugyan ebből a feltevésből (hogy ez a FreeSync most lehet más, mint a G-Sync Compatible) kiindulva megnéztem azt is, hogy esetleg pontosabb-e a szinkronizálás FreeSync-el, mert VSync nélkül elég alacsonyra kell tenni az fps korlátot (úgy 90-100 köré), hogy ne legyen minimális tearing se a képernyő alján (az nVidia modulos monitoroknál állítólag elég ~117 fps korlát 120Hz-hez, hogy ne legyen ilyenkor tearing). De ez már tényleg csak puszta érdekesség, nincs gyakorlati jelentősége (saccra 0.5ms késés, amit ez okozhat ide-oda az lényegében semmi). Amúgy ránézésre egyformán teljesít a FreeSync és G-Sync (mindenképp kell mellé a VSync). -
janos666
nagyúr
Netflix-nél van a weboldalukon kapcsoló, ami alapértéken Auto, de ha High-ra teszed (max a 3 fix fokozatból), akkor is az új, kisebb plafont kapod (már a cirkusz előtt is ugyan úgy gyengébb minőségben indult sokszor a High beállítással is a lejátszás, és lépcsőzött fel apránként, bár általában pár perc után elérte a maxot, ha megvolt a sávszél - mostanában ezzel nincs is annyi gond).
(#43166) Aktív adaptert viszont még sohasem próbáltam. De számottevő lagot szerintem az sem okoz. viszont G-Sync sem lesz.
-
janos666
nagyúr
A TV-hez semilyet, az AVR-hez (HDMI 1.3) használok ilyet: passzív DP -> HDMI
De érdekességképp kipróbáltam már a TV-vel is. TMDS clock patcher nélkül ez csak HDMI 1.x funkcionalitású (max 1080p), és azzal sem teljes értékű: működik a teljes 2.0 sávszél és a G-Sync is (!), talán még a HDR10 is (utóbbi nem biztos, talán csak NVAPI-val). Viszont ezzel sincs RGB 10bit. Tehát semmivel sem tud többet, mint a natív HDMI port (inkább 1-2 dologgal kevesebbet), de az AVR-t és egy max. FHD monitort bőven kiszolgál patcher nélkül is.
Nem okoz lagot, mert passzív eszköz, HDMI módban működik a GPU kimenete, csak a feszültséget kell átalakítani. -
janos666
nagyúr
Ha valakit érint: állítólag működik a C9-en az AMD FreeSync minimális EDID szerkesztés után.
Még nem próbáltam ki, de megnézem majd, mert azt írják az LFC is működik, és van egy olyan gyanúm, hogy GSync mellett nem. -
janos666
nagyúr
Árult az Alza itthon olyan modellt, amit nem ide szánt az LG, azzal lehet probléma (nem tudom, hogy volt-e rá konkrét eset és mi lett a vége, csak azt mondom: lehet), de a legtöbbre érvényes a garancia (nekem is onnan volt a C8, amihez kaptam egy új távirányítót*).
Amúgy ez nevetséges, hogy már a 3. OLED mellé kapok hibás LG távirányít 3 éven belül. A legújabbnak az a dilije, hogy megnyomódik az OK gomb, mikor "felébred" (pl. ha lerakom mellé a vizes üvegem az asztalra, mindig felugrik a kijelzőmenü a TV-n, mint ha megnyomtam volna a görgőt). De ezért nem fogom gariztatni, mert akár szándékos is lehet. (ennek már 2x frissült a saját kis firmware-e a TV frissítése után, manuálisan is reset-eltem magát a távirányítót is, de csinálja tovább).
-
janos666
nagyúr
-
janos666
nagyúr
válasz
icemad
#43027
üzenetére
Ahogy a cikk is kitér rá, 40Gbps-be is belefér bármi, ami kellhet.
2160p120 , YCC 4:4:4 vagy RGB , 10bit
^ Ez pont az, amit már a 2017-es OLED-ek kijelzője is tudott.
A C9-ből kiindulva, a 4:4:4 PC módnak 10bit is sok, főleg HDR-ben, 4:2:2-vel pedig mehet 12bit, de ne felejtsük el, hogy a kijelző 10bit-es, és már ahhoz is kell a ditherelés, hogy helyesen jelenjen meg rajta az a 10bit, nem még 12bit. A HDR10 anyagok 10bit-esek, a DolbyVision lehet 12bit, viszont az fixen 4:2:0, így megint csak bőven befér 40Gbps-be.
Szóval semmi gyakorlati haszna nem lesz, már a 40G-be beférő formátumnak is ritkán lesz haszna (PC, esetleg játékkonzol).
Akkor lenne ez érdekes, ha valamilyen felbontásban mehetne >120Hz is (akár 240-ig bezáróan), mert a 2021-es kijelzőkön elvileg engedélyezik már a 240Hz-et (de még csak belül a BFI-hez, interpolációhoz, nem kívülről HDMI-n át). Akkor megint nagyon könnyű lenne szaturálni még 48G-től többet is. Vagy persze majd a 8k (ha bárki szeretne majd tényleg 8k-t küldeni az erőltetett 8k kijelzőkre, ha mást nem csak azért, mert még mindig le lesz spórolva a 2x2 nagyítás mód). -
janos666
nagyúr
válasz
szabeska
#42934
üzenetére
Van mod-olt nVidia audio driver, amivel DolbyDigital-ba lehet tömöríteni a PC-ből kimenő hangot (a DTS Connect jobb minőségű lenne, de ), hogy legyen >2 csatorna: [link]. Ez át kéne, hogy menjen sima ARC-n is, az multi-channel PCM-hez eARC képes erősítő kell.
Én egy kb. 5$-os DisplayPort->HDMI adapterrel kötöm rá külön az AVR-t a kártyára (igaz, van az AVR-en is egy kis monitor, anélkül néha zavaró, ha valami átugrik a második kijelzőre és nem látod, hogy visszahúzhasd).(#42922) chros - Mert én is nagyon ritkán használom, de mikor tegnap rákattintottam, eszembe jutott a korábbi kérdésed, hogy mi oka lehet, és gondoltam talán ez (is), hogy a screen-off nem számít bele a JB-be, de az UTT-be igen.
-
janos666
nagyúr
A DLSS >=2.0 még jól is jöhet majd, ha kapunk HDMI 2.1-et, és nem lesz - legalább is megfizethető - GPU, ami kihajtja a 2160p120-at friss játékok alatt (de talán még anélkül is, ha marad nálunk az 1440p120 és elkanászodik a játékok teljesítmény igénye). A Deliver Us The Moon-ban szépen teljesít a friss verziója, csak olyan játékokban hasal el, ahol tele van lágy, maszatos effektekkel a kép, amit kap (azzal még mindig nem igazán tud mit kezdeni, és hamis éleket kezd kitalálni magának a fátyolos, ködös képre, túlélesített hatása lesz, mint ha a TV-n feltolnád a Sharpness-t, de ha eleve éles, tiszta képet kap, az szép lesz -> talán a post-effect előtt kéne lefuttatni és a kimenetét szétkenni "álomszerűre"...?). A Battlefield-et szerintem nem frissítették v1.x-ről (kevés 2.0-ás cím van most, a Control az állatorvosi ló, a Moonman az ékes példa, Wolfenstein-t nem néztem)
-
janos666
nagyúr
Úgy értettem az, ha elindítod a menüben a "pixel refresh"-t, az alatt az ~1 óra alatt nem fog öregedni a kijelző (sokan teorizáltak már olyat, hogy azért tart sokáig és azért nem javasolják rendszeresen futtatni, mert aktívan gyilkolja le a jobb alpixeleket a legrosszabbak szintjére - anélkül, hogy zabálná az áramot és fűtene, mint az állat, de ebbe nem gondoltak bele..).
Amit itt írnak, az az, hogy ha teljes mértékben visszaállítják az eredeti fényerőt, az gyorsítja az öregedést, mert az egyre nagyobb és nagyobb feszültség gyorsabban degradál az idő folyamán, mint a konstans (így idővel még többet kell rátekerni pluszban amiatt, hogy korábban már rátekertél, ahelyett, hogy konstans hagytad volna végig), ezért csak az eredeti, monton csökkenő görbét célozzák meg (tehát a teljes képernyő átlag fényerejét hagyják idővel csökkenni, de az átlagtól erősebben terhelt foltokat felhozzák ennek az átlagnak a szintjére). Ez érdekes, mert az eddigi tesztek szerint a homogénen öregedett kijelzők sem vesztettek számottevően a fényerejükből (ezek akkor vagy nagyon keveset degradálódtak a teljes képernyő szintjén átlagosan, vagy mégis kompenzálva volt valameddig felfelé minden pixel).
Szóval a JB futtatása legfeljebb akkor okoz gyorsabb hosszútávú öregedést, ha a rövidebb RS-Off az eredeti csökkenő görbéhez korrigál, a JB pedig próbálja a fiatal kezdeti állapothoz felrántani. Ilyet nem látok leírva (ez inkább arról beszél, hogy mit csinálnak a TV-k, akár maguktól, akár ha kézzel indítod a refresh-t, és mit nem csinálnak soha). De abból is csak akkor lesz gond, ha belátható időn belül elfogy a tartalék (amíg ér még valamit a TV, akár beégett, akár nem).
-
janos666
nagyúr
válasz
Callisto
#42213
üzenetére
A ~2000 órás JB folyamatból elvileg ~60 perc a "kihűlés" (szerintem mindenféle értelemben, nem csak hőmérséklet, de bármi elektromos kisülés), de az is a szokásos néhány perces méréssel kezdődik (a megszokott módon "azonnal", bár lehet, hogy 1-2 perc abból is "kihűlés").
(#42215) krx21 - A "téglalap hiba" a nulladik mérésben van, a gyárban rögzített eredeti állapot lett hibásan felmérve, és azt a hibát igyekezett reprodukálni a ~2000 órás JB folyamat eredménye (tehát végül is ügyes volt, mert előjött a téglalap, avagy ugyan így el kellett volna tűnnie egy beégett téglalapnak, ha lett volna olyan és helyes lett volna a gyári referencia).
A fenti két dologból jön az is, hogy ha a nulladik mérési referencia körülbelül valami normál szobahőmérséklet környékén lett rögzítve, akkor a későbbi mérést is jobb lehet ennyivel végezni. De lehet, hogy van pár hőmérő is valahol, és ebből plusz korrekció a mérésre.
De nekünk szerintem az a legfontosabb, hogy pár hiedelemmel ellentétben, se a ~4 órás, se a ~2000 órás nem okoz fizikai elváltozásokat, csak mérés történik.
-
janos666
nagyúr
Gyári alapértéken (legalább is Színház és rokon módokra értve): a <2019 modelleken a mostani Ki volt a fix SDR, a Magas a fix HDR, a köztes lépcsők és maga a felhasználói menüs kapcsoló az újdonság.
Bár várj... lehet, hogy mégsem jobb ezt állítgatni. Nem mértem ki, hogy pontosan mi történik. Lehet, hogy a tone curve (~gamma) rosszabb lesz így. Elfelejtettem, hogy HDR módban vad a kalibrálatlan tone curve, sokat dolgozik rajta a gyári 1DLUT, de mikor átkapcsolod ezt kvázi-SDR-ba, akkor is a HDR képmód gyári 1DLUT korrekciója marad rajta, és sohasem mértem ki, hogy ilyenkor merre mászik a tone-curve a panel szintjén (de most jobban átgondolt tippre Ki állásban SDR-osra).
Végül is akárhova rakod ezt azt a kapcsolót az alapértelmezésről, valami eltorzul (színhelyesség szaturáció szempontból és/vagy a tone curve), plusz ha HDR-ben az OLED Fény-t piszkálod, akkor szintén (itt csak a tone curve, de valószínűleg ettől lágyabban, mint a Ki/Magas kapcsolótól). De majdnem minden ilyet lehet korrigálni CalMAN-el (kivéve a HDR panelmódban a "túllógó" W okozta színtorzulást). Anélkül viszont nem piszkálnám őket (tehát csak az SDR OLED Fény-t állítanám, a többi marad alap). -
janos666
nagyúr
Én előbb lehúznám OFF-ra a 'max fény'-t, és csak utána csökkenteném (opcionálisan) az OLED Fény-t. Ilyenkor kvázi visszakapcsolod a kijelzőt SDR fényerő módba, ami a W alpixelt illeti. Na meg persze dinamikus izék Ki...
Az ilyen összevetés pedig nagyon függ a tartalomtól is. Olyan jeleneteket nézz, ahol a HDR kiadás sem megy 100 nit fölé. Ne a kis világos foltokat hasonlítsd össze, amik az SDR anyagon le vannak vágva, a HDR-en pedig kiragyognak, hanem a kép többi részét (amit úgy egyszerű, ha olyat választasz, ahol épp nincs is jelen vakító folt).(#42017) alaves - Szerintem teljesen mindegy, hogy milyen sűrűn futtatod le. A 4 és 2000 óra szerintem arra vonatkozik, hogy korábban (sűrűbben) nincs értelme, de abból nem lesz fizikailag semmi baj, ha később fut le (csak annyi, hogy ha már kéne számottevő kompenzáció, azt nem kapod meg, míg le nem fut végre, de ez azt is jelenti, hogy amíg nem látsz hibát, addig ráérsz vele).
A hosszabbik JB futása utáni hiba kétféle lehet:
- nem volt elég tartalék
- tökéletlen maga a JB mérés/kompenzálás (lásd "téglalap hiba", csak másképp)
Mindkét esetben mindegy, hogy a legutolsó sikeres futtatás előtt hányszor, vagy hányszor nem futott le (szerintem), mivel ez mindig csak mérés, nem okoz fizikai változást, a gyári tartalék pedig valami fix dolog, pl. 1000 nit lenne a csúcs és 700-ra lövik (ez csak vaktában írt példa). Itt ugyan akkora fogysz ki a 300 nit extrából, ha naponta kétszer, vagy csak 2000 óránként fut le.
Új hozzászólás Aktív témák
- MWC 2026: Megmutatta a Vivo az X300 Ultrát
- Poco X6 Pro - ötös alá
- Autós topik
- Honor 200 Pro - mobilportré
- BestBuy topik
- Samsung Galaxy A55 - új év, régi stratégia
- Samsung Galaxy A56 - megbízható középszerűség
- The Division 2 (PC, XO, PS4)
- Hálózati / IP kamera
- Apple Watch Sport - ez is csak egy okosóra
- További aktív témák...
- HIBÁTLAN iPhone 13 128GB Midnight-1 ÉV GARANCIA - Kártyafüggetlen, MS4397
- Új DELL Inspiron 14 (5435)/AMD RYZEN 7-7730U/16GB/512 SSD/14"/FHD/IPS/Garancia
- HIBÁTLAN iPhone 14 Pro 256GB Deep Purple -1 ÉV GARANCIA - Kártyafüggetlen, 100% Akkumulátor
- HIBÁTLAN iPhone 13 128GB Pink -1 ÉV GARANCIA - Kártyafüggetlen, MS4243, 100% Akksi
- Telefon felváráslás!! Xiaomi 13T, Xiaomi 13T Pro, Xiaomi 14T, Xiaomi 14T Pro
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest



![;]](http://cdn.rios.hu/dl/s/v1.gif)







Vhiktor