-
Fototrend
OLED Televíziók - témaösszefoglaló
Új hozzászólás Aktív témák
-
janos666
nagyúr
válasz
daneel_hu
#41869
üzenetére
Annyit diskuráltok a mozgásinterpolációról, hogy ma kipróbáltam a C9-en. Nekem szubjektíven:
0 - a megszokott Ki állás és 5x24fps helyett jön a 2:3 judder attól, hogy aktív
1 - apró hibákat produkál, igazából keresni kell a bakikat, de azért ott vannak
2 - egyértelműek a képhibák, de valamennyire még tűrhető, (nem jó, de) nézhető
3 - már nem csak a mozgó tárgy mögött, de előtt is van egy idióta "árny"
4 - a két "árny" elkezdi két oldalról beteríteni a mozgó tárgy egy jelentős részét, amitől (azon túl, hogy nyilvánvaló hülyeség takarja az eredeti kép egy nagy részét) sokkal akadozóbbnak is hat a mozgás, mint az eredeti 24fps-el (ahogy felváltva eltűnik és visszavillan a hamis árnykép a mozgó tárgy előtt és mögött, amitől olyan, mint ha remegne: kettőt előre, egyet hátra...). Felette ugyan ez, csak egyre durvábban: ahogy nő a leszakadozó hamis elemek mérete, úgy látszik egyre jobban, hogy a mozgó tárgy egy szeletének a másolata, és egyre kevésbé van elmosódva ez a levágott cikk (már nem csak a motion blur-tól maszatos megelőző, és a csúcs előtti ég van összemosva a tárgy széleinek a képével hanem a tárgy egy nagyobb szelete is odavillan fölé kicsit szétmosva, eltorzulva, de jól felismerhetően). Mint ha valami sci-fi lenne, ahol két párhuzamos dimenzió kezd egymásba olvadni.
-
janos666
nagyúr
Többet is, de nincs róluk archívumom (egy időben azt hittem, mindent ment automatikusan a CalMAN, de nem
). A B-k inkább alulról, a C-k felülről szokták nyalni HDR-ben 700nit-et (pl. 680 vs. 720, stb). Nagyjából ezzel arányos a csúszka többi pontja is, de ott lent 100nit körül ez tényleg 1-2 pöccintés fel/le a ~20 környékén, szóval nem igazán szignifikáns, majdnem a véletlen szórás mértéke: B-ből is volt, ami 700nit fölé ment és C-ből, ami picivel alatta állt meg, de az a ritkábbik.(#41683) Monngoose - Szerintem ma is az van, csak fel kéne nyitni és bekötni a maradék 4 tüskét a portba (USB3 szinte tuti, hogy így van, ethernet csak tipp).
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
janos666
nagyúr
Képbeállításoknál a második almenüben, a HDMI szó nincs mindig benne.
Van Auto/Alacsony/Magas fokozata. Ha szükségesnek érzed tologatni a Fényerőt és Kontraszt-ot, akkor könnyen lehet, hogy nem az alapérték, hanem a Magas kéne neked (vagy a bemeneti eszköz menüjében átállítani ugyan ezt, mert médialejátszáshoz jobb lehet az Alacsony pár, keress olyat a lejátszónál, hogy RGB helyett YCC kimenet, ha van).
A beépített lejátszón (+ belső TV tuner, Netflix, stb) viszont ne bántsd (ha nincs kiszürkítve Alacsony-ra, vagy esetleg Auto-ra, akkor se állítsd ott át).
Ehhez nem árt tesztvideót használni, pl. [link] - ebből Black Clipping, White Clipping(#41670) sebgutkopf Szerintem egyszerűbb bent hagyni mind a négyet, mint kitesztelni, hogy melyik TV-nél mikor melyik kell.
(#41667) belan - Tedd fel a 04.71.25 firmware-t, ha még nem pakolta fel automatikusan (a kibontott file-t egy LG_DTV nevű mappában tedd egy pendriver-ra, majd dugd át a TV-be és Frissítés) és futtass egy "gyári beállítások visszaállítása"-t, aztán csatlakozz újra a WiFi-re, de előbb állítsd át a router-t úgy (ha lehet), hogy a legalsó csatornákat (frekvenciákat) használja.
Viszont, mikor kézzel Ki/Be kapcsolgatod az egész WiFi részt, olyankor szerintem szándékosan felejti el a jelszavakat. (Ha közben rádugsz egy kábelt is, akkor nem kell kikapcsolni a WiFi-t kézzel, átáll magától kábelre.) -
janos666
nagyúr
válasz
whatnot
#41625
üzenetére
Jah, mai processzorokon keresztül (mint az AVR-eké) nem megy a VRR. De ~3$ egy passzív DP->HDMI adapter külön kötni az AVR-t.
Valóban nem a legjobb az 1440p a 4k TV-n, de elmegy, használható, aztán majd jönnek remélhetőleg még idén a HDMI 2.1-es kártyák, és mehet 2160p120 is (legalább is, mint képmód, hogy fps mikor mennyi lesz, az más kérdés). -
janos666
nagyúr
válasz
adamssss
#41619
üzenetére
"Arra van monitorom."
Táblagépen is lehet filmet nézni vonaton ülve, mégis jobb a TV-n fotelből.
Ok, a de legfőbb alkatrésze (kijelző) annak is LG, a SoC-ok közt pedig most az LG-é a legjobb, mikor olyasmikről beszélünk, mint a HDMI 2.1 + VRR.
Ez a 30-60 most igaz, de a következő generáció lehet, hogy figyelembe veszi majd a VRR képességeket és pár játék alapoz majd rá (jobb lesz vele, mint nélküle).
Ez 1440p120-hoz van (én abban játszom), 2160p60-hoz kell az 58-as fps limit.
-
janos666
nagyúr
Ez mindig alapon kéne hagyni: SDR 85 (felmehetne 100-ra, de bizonyos esetekben, ha pontosan tudod, mit csinálsz), SDR10 és DV 100
Alapvetően a Fényerőt-t sem szabadna piszkálni, mindig 50 lenne jó, bár kijelző és/vagy alaplapcsere után elképzelhető, hogy indokolt, de tippre nem ennyire. Jól van beállítva a HDMI Fekete Szint?(#41512) athomi - A bevonat miatt mindig lesz egy kis torzulás a széleken.
Szerencsére ez engem nem szokott zavarni középről. Mint ha a 2017-eseken még zavart volna kicsit, de 2018 óta nem.(#41602) MrBazsi - HDR-ben nem csak mérhető, szabad szemmel feltűnő a különbség B8 és C8 közt. B9-et talán még nem is láttam (mostanában mindenki inkább C-t, esetleg E-t vesz, korábban több volt a B), de legalább is nem figyeltem, hogy mi van HDR-ben.
(#41613) adamssss - Ha játszol, akkor sokat ér a VRR, szóval inkább C9, bár csak XBox One vagy majdani PS5 fogja tudni, a SP4 Pro még nem (hacsak nem frissült az is szoftveresen nemrég, de nem hiszem).
(#41615) whatnot - Kösd rá a PC-t a TV-re, úgy is lesz VRR (G-Sync), ha van hozzá kompatiblis VGA-d.
A Panasonic csak ALLM-et tud, ami kényelmes, de semmi komoly, VRR-t nem és HDMI 2.1-es sávszélt sem (mint az LG). -
janos666
nagyúr
De (valamennyire) van... Újabban már ilyen is van az IN-START menüben: [kép]
Nem hiszem, hogy ő észre fogja venni, de gyakorlatilag elpazaroltak két főalkatrészt (a két legdrágábbat) egy hibátlan TV-ből, hogy csináljanak belőle egy minimálisan rosszabbat, mint az eredeti.
Valahol érthető belan oldala, könnyű eltévedni az ilyesmiben és bízni az elvileg szakszerű segítségben akkor is, ha fura ügy kerekedik belőle. Ezért nem akarom most azt mondani, hogy "én *IS* megmondtam", hogy valószínűleg a pixel eltolás lesz, és hülyeség kijelzőpanelt cserélni, max alaplapot lehetne érdemes (HA ESETLEG bebizonyosodik, hogy nem a beállítások miatt működik így helyesen, hanem tényleg valami anomália van és nem segít a factory reset, stb...). De ez van... Szerencsére csak az idejét pazarolta, nem a pénzét és úgy tűnik nem pixelhibás, vagy inhomogént a cserekijelző, szóval "megúszta". -
janos666
nagyúr
Olvasd el újra a hsz első bekezdését. De tömören, másik irányból fogalmazva:
A FreeSync és G-Sync Compatible is támogatják a VESA A-Sync-et (többek közt).
A HDMI 2.1 VRR az nem VESA A-Sync, és nem is közvetlenül kompatibilisek.
A FreeSync még nem, de a G-Sync Compatible (Turing-al) már támogat HDMI 2.1 VRR-t.
Az LG nem támogatja a VESA A-Sync-et, de a HDMI 2.1 VRR-t igen. -
janos666
nagyúr
Az LG TV-k nem G-Sync modult használnak (amire az eredeti G-Sync, és az új G-Sync Ultimate kijelzők épülnek) és nem is VESA A-Sync szabványt implementálnak (amire a DisplayPort-os FreeSync és a DisplayPort-os G-Sync Compatible is épülnek), nem is az AMD féle egyéni HDMI 2.0 FreeSync-et, hanem az általános HDMI 2.1 VRR szabványt támogatják.
Az nVidia pedig hivatalosan kizárólag a Turing GPU-kra (GTX16xx és RTX2xxx) épülő kártyáin engedélyezte a G-Sync Compatible gyűjtőnév alatt a HDMI 2.1 VRR támogatást, régebbi kártyákra nem.
Az AMD-nél tudtommal egyelőre egyetlen kártya sem támogatja ezt a HDMI 2.1 VRR-t (semmilyen FreeSync-akármi néven).Szóval kicsit leegyszerűsítve: teljesen mindegy, hogy milyen monitoron milyen G-Sync/FreeSync támogatást nyújt a kártyád, LG TV mellé erővel megveteti veled a legújabb kártyáját az nVidia.
(Ha valakinek mégis működik az előző generációs Pascal kártyával az LG TV-n a G-Sync, az vagy valami új, nem dokumentált változás az új driver-ekben, vagy valamilyen trükközés/hack/bug/stb.)A másik, hogy az LG TV-n csak HDMI port van, DP nincs. Innen tovább lépve:
1.) aktív DP->HDMI adapterrel semmire sem mész, hacsak nem támogatja maga az adapter is a HDMI 2.1 VRR-t, és engedélyezi az nVidia driver is az ilyen átalakítókon keresztül a G-Sync-et (tudtommal ma egyik sem létező dolog, nincs ilyen adapter és ha lenne, valószínűleg akkor is korlátozná a használhatóságát az nVidia).
2.) Passzív DP->HDMI adapter használatakor gyakorlatilag HDMI módba kapcsol át a DP port (szabványos DisplayPort üzemmód, HDMI Alternatív mód), az adapter csak feszültséget konvertál és átvezeti a számlakat a megfelelő alakú foglalatra. Viszont a DP 1.4 port nem képes HDMI 2.1 Alt. üzemmódra, csak HDMI 2.0-ra (TMDS jel), így itt sem szabványos a HDMI 2.1 VRR, csak akkor működik, ha az nVidia driver engedélyezi a kiterjesztett funkcionalitást (mint most is a legújabb kártyáin a HDMI portra, vagy a HDMI portként üzemelő DP portra).Nem tudjuk pontosan mi is lenne a G-Sync kérdéssel, ha létezne ma működő DP 1.4 -> HDMI 2.1 aktív adatper, vagy esetleg DP 2.0-ás VGA kártya, amin a DP 2.0 port képest HDMI 2.1 Alt módban működni. Ezek a jövőben derülnek majd ki.
-
janos666
nagyúr
válasz
GalaHU
#41385
üzenetére
1440p120-ban ma is játszhatsz 40-120 tartománnyal. Ha beállítod az NVCP-ben, hogy a játékok mindig a legmagasabb frekvenciát használják, és van valódi fullscreen módjuk, akkor elég a játékmenüben a felbontást beállítani 2560x1440-re (akkor is, ha ott nem enged frekvenciát választani), és átáll magától 120Hz-re, egyébként ha csak keret nélküli ablak módot jelent a "fullscreen", akkor át kell állítanod már a Windows asztalt is, mielőtt elindítod a játékot, vagy maradsz 2160p00-ban.
Csak ne felejts el a frekvencia alatt 2-3 fps-el húzni egy limitet, különben V-sync közeli késést kapsz, mikor stabilan felszalad az fps a frekvencia értékéig.
NVCP bállítások - ez mehet globális beállításnak, csak a limitert kell játékokként külön módosítani attól függően, hogy nagyobb felbontást, vagy nagyobb frekvenciát érzel megfelelőbbnek az adott játékhoz (pl. FPS-hez 1440p120, RPG-hez 2160p60).(#41378) Syz - Én egyedül emiatt cseréltem a vízhűtéses GTX1070-em sima léghűtéses RTX2060-ra (átmeneti kártyának szántam, remélve, hogy kb. fél éven belül cserélhetem HDMI 2.1-es VGA-ra, de egyelőre elmaradt a márciusi nVidia rendezvény és nincs más hír, csak egy kósza augusztus
).(#41398) Syz - Aktív adapterrel (ami HDMI <=2.0) biztos, hogy semmire sem mész. Elvileg sem működhet, mert külön VRR kompatibilisnek kéne lennie a konverternek (ilyen ma nem létezik, esetleg papíron). Csak passzívval van értelme megpróbálni, mert az lényegében semmi más, mint feszültség konverter, és gyakorlatilag DisplayPort szabvány HDMI alternatív módot használsz vele. Amit linkeltem, az tuti működik, hajtottam vele 2160p60-ban G-Sync-el próbaképp a C9-et, de RTX2060-ról, nem GTX1070-ről (már eladtam, mire eszembe jutott kipróbálni). Nem hiszem, hogy működik, csak egy kósza ötlet, hátha (csak azért vettem fel, mert írtad, hogy valaki azt állítja, neki működött valahogy, de hivatalosan nem működik).
(#41389) belan - Fel sem fogom, hogy cserélhettek neked ilyen jelenség miatt kijelzőpanelt.
-
janos666
nagyúr
válasz
GalaHU
#41373
üzenetére
Nem kell Game/Játék módba kapcsolni, én Cinema/Színház módban használom játékra is (ugyan azt tudja így is, kivéve, hogy 24Hz-hez visszakapcsol normál módba, és előjön minden opció, amit letilt ALLM+G-Sync mellett, ami Game módban fixen szürke), és igazából korábbi firmware-el is be lehet kapcsolni (előjön a G-Sync menüpont az NVCP-ben, és rá lehet tenni a pipát már v03.xx.xx-el is), a friss firmware lényegében csak annyit nyújt, hogy automatikusan bekapcsol (és javít pár dolgot VRR-al kapcsolatban, pl. nem villog át feketébe a kép HDR-ben sem, mikor ugrál az fps).
Viszont tudtommal még mindig csak Turing GPU-kkal működik a HDMI 2.1 VRR (RTX2xxx és GTX16xx kártyák), hacsak nem változtatott valamit az nVidia a legutóbbi driver-ekben (említés nélkül). Tehát a tiéddel nem (viszont ha még mindig GTX1xxx kártyám lenne, akkor érdekességképp kipróbálnám egy ilyen adapterrel, hátha elfelejtették letiltani a korábbi kártyák DP portjain a HDMI VRR-t
[link], RTX2060-on működik vele a G-Sync DP portról
bár kell hozzá egy TMDS clock patcher is >1080p felbontáshoz). -
janos666
nagyúr
válasz
Strezi
#41351
üzenetére
Ízlés szerint elég lehet 24-ről 60-ra interpolálni (ami még átmegy 4k-ban HDMI 2.0-on).
Én nagyon rég nem nézegettem ezeket a megoldásokat. Úgysem lesz kielégítő egyik sem. Mostanában valahol itt jár a technológia (ez nem otthoni valós idejű dolog): [link] Ezen a videón (a cikkből) is látszódnak a hibák, pl. a szétkenődő lábfejek (ektoplazma!
). Talán be lehetne fogni hasonlóra az RTX GPU-k Tensor magjait (de az nV-től kéne jönnie, akik előbb megcsinálják a tréning részt). -
janos666
nagyúr
válasz
#62608320
#41338
üzenetére
Milyen képzaj? OLED-en és LCD-n csak szándékos ditherzaj van, többnyire az is (semi-)statikus, nem dinamikus. Ezt, ahogy a forrásban már jelenlévő (akár arra is szádékosan odatett) zajokat/szemcséket nem fogja eltüntetni semmiféle elektromos szűrés.
(#41342) Tulku - Mondjuk ez nem feltétlenül hülyeség, ha valakinek hosszabb kell. Még egy IEC aljzat feltákolása sem lenne nagy marhaság (csak az nem állítható vissza, hacsak nem egy kilógó csonkra teszed egy kábeldarabon).
-
janos666
nagyúr
válasz
alaves
#41323
üzenetére
Korábban benne volt már itt egy hsz-ben, hogy melyik +/- lépcső kb. melyik gamma értéknek felel meg (de nem emlékszem belőle többre, hogy egyszerűen megkeressem neked).
Még viszonylag új (utóbbi ~10 év, digitális kamerával lőtt, stb) filmek UHD HDR10 Blu-Ray kiadásából is van, amit teljesen elszúrtak, és kb. "double limited" lett a tartomány, pl. Divergent (a magyar magozón csak ezt a hibás verziót találod meg 2160p-ben 2017 óta), de olyan szinten, hogy az alsó-felső fekete keretek is bele vannak kódolva a képbe szürkén (de valószínűleg tényleg nem re-encode, mert ATEME kodek van a header-ben, nem x265).
Az egyik régi kedvencem, az eXistenZ sem kapott soha normális FHD kiadást (bár állítólag UK-ben nemrég kijött egy, ami végre tűrhető és egyértelműen jobb, mint a régi DVD
). Ami most könnyen hozzáférhető Blu-Ray verzió, az fel van húzva szürkébe, sok évvel ezelőtt pedig olyan volt csak elérhető HDTV-ből, ami durván bebukott feketébe és szénné volt zajszűrve.
A LotR trilógiánál pedig úgy rémlik minden DB kiadásnak más a színe (pl. egy sárgás fehéregyensúlya van az egész képnek minden jelenetben). Több most nem ugrik be.(#41333) labeda - Igen, a "gyári vissza" az törli, de sok minden mást is. Az újabb LG-ken biztos van már uninstall, de nem emlékszem, hogy a régieken is van-e valahol elrejtve.
-
janos666
nagyúr
válasz
dgyuri0123
#41242
üzenetére
Én nem használom, nem tudom melyik milyen jól (vagy rosszul) működik, de sok AVR kínál valamilyen dinamikus hangerő szabályzás funkció, amit még ki lehet egészíteni a dinamikatartomány korlátozással (vagy más néven "éjszakai mód", vagy egyszerűen a sub csatorna kézi halkításával, a sub doboz teljes kikapcsolásával...), de akár külön ilyesmi szűrést is, ami a beszédhang tartományt hivatott kiemelni.
Én is csak elvi szinten javasoltam próbaképp a center kézi erősítését.
Sohasem értettem mögötte a logikát, hogy miért kéne oda korlátozni a beszédhangot egy térhangzású keverésnél, ahol követnie kéne a hangnak a száj pozícióját. Noha sok műfaj esetén (legalább is vízszintes értelemben) gyakran a képernyő közepén mozognak az ajkak, így akkor is oda kerül a center csatornára, ha a "helyére" teszik, nem fixen a center-re. De egy mozgalmas, több szereplőt egyszerre beszéltető jelenetben ez már messze nem igaz, akár még a kamera/hátunk mögül is kéne hallanunk beszédhangot...
Lehet, hogy régen ez valami általános javaslat volt a hangmérnöknek, de gondolom mostanság az objektum alapú hang (Atmos, -X stb) ezt akkor is felülbírálta, ha valaha volt ilyen, és most a "helyén" van a beszédhang is.Én személy szerint sohasem használtam center-t, mert elvi szinten több kárt látok belőle (a magassági viszonyok miatt, minthogy otthon a TV nem akusztikailag transzparens, mint néhány vetítővászon), mint hasznot (és még plusz költség is). Az AVR szétdobja a front-okra a center csatornát.
-
janos666
nagyúr
válasz
lionshamlet
#41227
üzenetére
A HD hangot szerintem nem is fogja soha kiadni a belső lejátszó.
Az multi-channel LPCM passthrough (egyik HDMI bementről másik HDMI eARC kimenetre) pedig csúszik (azt hiszem már a második félévre ígérik [korábban első negyedévre]).
Én semmi változást nem vettem észre ettől a frissítéstől. -
janos666
nagyúr
Te írtad, hogy mikor nagyítasz, ami egyszerű szoftveres beállítás változtatás, akkor eltűnik (legalább is egy időre). A zoom-tól nem vált üzemmódot, nem inicializál újra a kijelzőpanel, a nagyítást az alaplapi processzor csinálja.
Én azért futtatnék egy "Gyári beállítások visszaállítása"-t (Factory Reset, alaphelyzetbe állítás, ilyesmi neveken fut), majd újra kikapcsolnám a Pixel Shift-et (képeltolás, pixel csúsztatás, ilyesmi) hátha rendbe jön.
Bár az utolsón fényképeid szerint ez tényleg nem pixel shift nagyságrendű sáv, hanem sokkal nagyobb. De a szoftveres reset-től nem hiszem, hogy rosszabb lenne. -
janos666
nagyúr
Őőőő. Bocs, de ez nem a Pixel Eltolás (vagy mikor melyik gyártó fordításában hogy fut)?
Az alapján, amit írsz, ez nekem tippre inkább szoftveres hiba (ha egyáltalán), vagy alaplap, de nem kijelzőpanel. Ha a kijelzőpanel lenne hibás, akkor nem tűnne el, mikor szoftveresen állítgatod a képarány/zoom beállításokat.
-
janos666
nagyúr
válasz
MPowerPH
#41021
üzenetére
Nyugodtan használj alkoholt (acetont viszont véletlenül se!). Viszont ugyan úgy, ahogy a víz nem igazán oldja a zsír féléket, van ami alkoholban oldódik hasonlóan rosszul (pl. néhány só féle), ezért jobb lehet a kis víztartalmú, mint a tiszta alkohol. A végén pedig mindig érdemes szárazon is áttörölni (mikroszálas kendővel, akár ugyan azzal, miután megszáradt).
-
janos666
nagyúr
-
janos666
nagyúr
válasz
hunspikey
#40877
üzenetére
Eddig is ott volt az opció a weboldalukon, hogy Low/Mid/High/Auto sávszél, ha tudod, hogy jellemzően nem elég a stabilan kinyerhető net sávszél az elérhető maximális bitrátájukhoz.
De ja, valószínűleg jobb lehetne felbontás skálázás nélkül, csak a bitrátát rángatni.
Stabil, kábeles, QoS-es, >100Mbps net elérésen át is van, hogy bedobja nekem a 480p-t, aztán eltelik 1-2 perc, mire fellépcsőzik szép lassan 720, 1080, 1440, 2160... Máskor pedig van, hogy magától elindítja az epizódot max minőségben, amint rákattintok az ikonra (előtölti már az alatt, hogy a menüben felette lógok).(#40878) chros - Nálam most ~7.6 Mbps az UHD SDR (Disenchantment S02-t próbáltam).
-
janos666
nagyúr
válasz
hunspikey
#40846
üzenetére
Hmm. Passz. A mostani 55C9-em gyári fehéregyensúlya szemre zöldes, és a fekete közeli árnyalatok túl fényesek, de a színkeveréssel (szaturációk, stb) 2018 óta nem szokott gond lenni az LG-nél (mióta a 2017-es modellek megkapták a Technicolor-os frissítést, a 2016-osokat nem emlékszem, hogy frissítették-e hasonlóképp, a korábbi FHD SDR modellek pedig még eleve másképp működtek), eszembe sem jutna szemre tologatni a Tint-et, vagy a CMS csúszkákat.
Pontosabban az Alpha7 (minden 7-es és B 8-9) névvel illetett SoC-os modellek még furábban keverik a HDR színeket WRGB-ből, alul-szaturált a kép, mert nem elég fényes az R,G,B a bekevert W mellett. De neked Alpha 9-es van, amin másképp működik a WRGB mágia, nem de-szaturálja az alsó fényerő tartományba eső színeket a W, csak ahol már kifulladt az R,G,B, szóval az SDR tartomány színei pontosak, és csak a vakító részletek fakulnak (ami szerintem teljesen jó kompromisszum, ott a tartalom is gyakran fehérbe megy magától is).
De hallottam már olyanról, hogy valakinél furák a gyári beállítások (azt hiszem junior19 is találkozott egy ilyen LG-vel, ahol az Auto színtér nem volt "kerek"). Meg kéne nézni, de nem zárnám ki látatlanban azt sem, hogy elsőre rossz csúszkákkal akartál megoldani valamit, aztán megint másik csúszkával próbáltad orvosolni a véletlenül bevitt új hibát, és így tovább...
Talán még az zavarhat, ha az átlagtól érzékenyebb erre a szemed, hogy HDR módban intenzívebb a W alpixel, és talán az átlagostól rosszabb a kijelzőpaneledben az RGB és W közti metszet (ez gyárilag van fixen programozva, nem kalibrálható külön és HDR módban a 3DLUT-on át se igazán), nem így nem annyira látod additívnak a kijelzőt (mint ha igazi RGB és nem WRGB lenne).
Utolsó tipp még mindig a W-ről, hogy talán van némi homogenitás hibád, és főként a W-n jön elő, és ezért látod jobban HDR-ben, és a fizikai elszíneződést próbálod a Tint csúszkával helyretolni (ezt is sokan hívják "tinting" hibának, mikor inhomogén a kijelző színe). -
janos666
nagyúr
válasz
sebgutkopf
#40838
üzenetére
A Technicolor 'nagy vonalakban' történő ajánlása nem szerencsés, mióta (valamikor 2018 végén, ha jól rémlik) áttették Meleg2-ről Meleg1-re az alapértelmezett színhőmérsékletét a firmware frissítések (a Techni mindig így akarta, csak először elfelejtette az LG). A Színház és Szakértő 1-2 éj/nappal is ugyan az, mint a Techni, csak az alapértékek állnak máshol mindegyikben (kivéve, hogy 2018-astól öregebb modelleken a Szakértő mód lágyabban nagyít, mint a Színház és Techni 4k-tól kisebb felbontásból). Ha egyformán állítod be ezeket, akkor azonos képet adnak. Szóval válasz egyet, ami tetszik, és állítsd be ahogy pl. az RTINGS is javasolja. Csak Techni esetén külön figyelmet kell helyezni a fehéregyensúlyra.
-
janos666
nagyúr
válasz
hunspikey
#40779
üzenetére
Semmi változást nem tapasztaltam. A changelog-ban említett bug-ok eleve nem érintettek, a még nem dokumentált problémák pedig látszólag nem változtak.
Ami változatlan, az az enyhe fényerő villódzás, mikor G-Sync mellett tüske szerűen megugrik a frame-time. Miután kiderítettük, hogy a G-Sync ki/be kapcsolgatásától változik a fekete közelében a TRC (felvilágosodnak a sötét árnyalatok - [link]), most arra tippelek, hogy ez a villódzás is ettől van: mikor hirtelen megugrik a frame-time, akkor effektíve kikapcsol a G-Sync (sima V-Sync veszi át a helyét 40fps alatt), ettől változik a gamma, majd visszatér a G-Sync mód, mikor a frame-time visszaugrott a VRR tartományba (40 - 60/120 fps közé), ismét változik a gamma, így villognak a képen a sötét árnyalatok, míg ugrál az fps.
Ez ritka jelenség és nem túl erős a villanás, ritkán látható a menükön kívül.
A nagyobb probléma szerintem maga a gamma változása CRR és VRR módok közt. Ezek szerint érdemes lehetne a beépített képgenerátor helyett (bár még nem ellenőriztem, de valószínűleg erre nincs hatással) HDMI-ről kalibrálni a Game módot, G-Sync mellett (játékokhoz, a Cinema módot pedig vagy iTPG-vel, vagy HDMI-ről, de letiltott G-Sync, vagy inkább TV-n letiltott ALLM mellett, ami az LLM-et és ezzel együtt a G-Sync-et is kilövi).
De ezt még magamnak sincs kedvem megcsinálni (még most se).
Sok idő és macera, aztán ki tudja mikor változtat ezen a firmware (bár lehet, hogy soha, vannak hasonló bugok LG-nél évek óta, amivel sohasem történik semmi --- itt esetleg az nVidia lehet velük kegyes, hogy a G-Sync Compatible plecsni áráért nyaggatja őket, ha nekik jelezzük). -
janos666
nagyúr
válasz
Strezi
#40774
üzenetére
Tegyél fel friss VGA driver-t, volt mostanában gond a Win10-HDR feketével nVidia-nál.
A Witcher 3 nem HDR-es, szóval ha HDR-be rakod a Windows asztalt, átkonvertálva nézed, ettől néz ki rosszul (ugyan ez lesz SDR filmmel, fényképpel stb).
https://www.pcgamingwiki.com/wiki/List_of_games_that_support_high_dynamic_range_display_(HDR) -
janos666
nagyúr
Most, hogy így unatkozom itthon, megnéztem, és a valamikor még első 10-20 órában kalibrált TV-men (már nem emlékszem pontosan, de tesztképp direkt viszonylag korán csináltam, hogy nézzem mászkál-e) 700 óra után még mindig dE 0.5-öt mond fehérre a műszer, vagyis látszólag egyáltalán nem csúszott el.
Amúgy ja, szinte minden service manual szerint be kéne állítani a fehéret, de szerintem sehol sem csinálják szinte soha, talán még oktatáson és még szimulálva se. Az csak az apró betűs rész, amit a mérnők oda szeretne írni, a szerelőt pedig nem zavarja, hogy át kell ugrania.

-
janos666
nagyúr
válasz
adamssss
#40612
üzenetére
Elnézést. Lehet, hogy véletlenül volt.
A vírushírekre és hasonlókra próbáltam lecsapni, de az ilyen hírek, mint a Netflix-é, felőlem még belefér. Lehet, hogy óvatlan voltam azzal a bug-al, hogy miután törlök pár hsz-t, tévesen kijelöl törlésre ugyan annyi másik meglévőt (lemásolja a parancs előtti pipa mintázatot az új lapon), míg nem nyomok egy refresh-t (vagy le nem veszem a jelölőket kézzel). Vagy több minden volt a hsz-ben, esetleg félreérthető volt a kontextusban. Bocsánat.(#40617) chros - Nem, eddig bárkitől olvastam, hogy nézegette, még mindig az volt a megfigyelése, hogy pontosan 2000 óra után (nyilván az azt követő kikapcsoláskor) futott le a JB.
Én a saját régebbi TV-imen általában futtattam párszor kézileg és/vagy el sem értem velük a 2000 órát, így saját tapasztalatom nincs. A C9-en még nem futtattam kézzel, 689 - 137/0 -
janos666
nagyúr
(#40485) chros - Megtörtént.
(#40484) Williamgrant Bocs, su-ssl.lge.com, de úgy látszik nem kell... -
janos666
nagyúr
válasz
Max1mus
#40476
üzenetére
Majd írd meg, hogy megmarad-e valami helyi cache-ben a tény, hogy érhető el frissítés, ha egyszer már látta a TV az új verziót, vagy eltűnik a jelzés rögtön a blokkolás (és 1-2 újraindítás) után. Még nem próbáltam.
Ha az a három nem elég, még ez is szóba jön: snu.lge.com -
janos666
nagyúr
válasz
salapp
#40082
üzenetére
Látom, nagyon bele akar égni a topic nyelvezetébe ez a kiégés dolog.

Pontosan ugyan úgy néz ki az égés PDP-n és OLED-en: mindig ott a sötétebb, ahol a legtöbbet volt hajtva, és PDP-n is degradációról volt szó, így nem értem miért kell ezzel ennyit variálni.
Ha így folytatjuk, meglesz az utódja a plazmás "kiszökik belőle a gáz" mesének, mikor majd nagyítóval keresik az emberek a kis lukakat a kijelző felszínén, ahol kiégett egy-egy pixel.
Ugyan így nem szerencsés azután, hogy a magyar köznyelvben egy "kiégett" fényforrás az, mikor abszolút működésképtelenné vált (elégett az izzószál, stb), nem csak meggyengült. -
janos666
nagyúr
"Ebbol latszik, hogy ezek kozul AppleTV a legjobb minoseg"
Ez kicsit talán elhamarkodott kijelentés. A magasabb bitráta önmagában még nem garancia semmire, csak ha minden más paraméter (legalább közel) azonos (és persze van annyi információ a forrásban, hogy a magasabb bitráta tudjon miből többet megőrizni). Pl. nem mindegy, hogy CBR, vagy hogy mennyire hatékonyan van szétosztva a VBR, stb (ezért is szebb általában a Netflix, mint a DVB-C akkor is, ha hasonló a bitráta). -
janos666
nagyúr
Passz, előbb látni kéne. Majd kiderül, ha piacra került, vagy legalább valami prototípus teszt lesz egy értelmes helyről.
Önmagában az, hogy 3 és nem 4 féle alpixellel dolgozik majd (várhatóan), segíthet a színhelyességben, de nem lesz ég és föld (az SDR semmiképp, de 2018 óta már LG >B szérián sem zavaró HDR-ben sem), illetve az alapján, ahogy a Samsung mostanában dolgozik, talán még pontatlanabb is lesz (az utóbbi évek LCD-i után nem lepne meg akár valami kikapcsolhatatlan "képjavító" se, vagy egyszerűen elnagyolt színkezelő rendszer).
A másik, hogy könnyen lehet, 8k-val indítanak, és megint büntetésben lesz a 4k fogyasztó is (ha nem lesz 2x2 nagyítási mód, csak a szokásos lágy scaler), mert valódi 8k tartalom gyakorlatilag sehol sem lesz (se film, de videójáték értelmes fps-el). -
janos666
nagyúr
válasz
hunspikey
#39073
üzenetére
Jah, éjjelre ~20, nappalra a fényviszonyok függvényében 30-50. Ha több kéne, oda szerintem inkább redőny/függöny kell (ha nem is minden ablakra, de legalább részlegesen). Már csak azért is, mert az ABL is valahol 40 körül kezd el visszavágni (és sötétedik be a nagy fehér terület, bár ez ritka, inkább reklám, esetleg téli sport) és lehet kezdeni aggódni a hosszú távú tartósságtól (legalább is TV adással: logók/sávok).
A tavalyi változások miatt már a Technicolor profilt sem érdemes szerintem javasolni, mert abban már Warm1/Meleg1 az alap fehér, ami szerintem hülyeség. A Cinema/Színház és ISF/Szakértő módok is pont ugyan azt tudják, ha ugyan úgy vannak beállítva, de míg a főmenüig többen eljutnak, hogy lehúzzák az élességet (ha akarnak és úgy akarják), a fehéregyensúlyt viszont már kevesebben fogják piszkálni.
(#39121) Joshi - A GZ a kis foltokat engedi valamivel magasabbra, az ABL szerintem ugyan olyan, vagy agresszívebb, mint az LG-nél (az LG-é a legmegengedőbb az utóbbi években, legalább is a normál modelleken, a GZ kicsit más).
-
janos666
nagyúr
válasz
Pro Koryak
#38876
üzenetére
Ha angol menüt néznél, általában az a két csúszka a de-blur és de-judder (a judder, mint akadozás), szóval a szokásos két interpolációs paraméter, ahogy a legtöbb gyártó legtöbb TV-jén szokás szerepeltetni, de mindig csak akkor derül ki, hogy mit is csinál igazából, ha elkezded tologatni.
-
janos666
nagyúr
válasz
daneel_hu
#38860
üzenetére
Ami csak oldalról látszik, az szerintem az AR bevonat lesz. Ha közelről nézed a közepét, már akkor is látszódhat a két szélső peremen kékesen (legalább is homogén szürkén), de sárga is megjelenhet, ha nagyobb tartományban járod körbe. De középről szerintem még nem zavaró (a periférián már nem feltűnő az a kis elszíneződés, normál tartalomnál akkor se látszik és amúgy sem durva akkor sem, ha oda nézek).
(#38865) hunspikey - Pedig mennyivel jobb volt ebben az 50-60, mint 30. De szerintem is csak a Pioneer veri igazán.
A BFI-t (Motion Pro kapcsoló, 0,0 TrueMotion csúszkákkal) próbáltad már? 24fps-hez nem az igazi (2:3 judder lesz, 60+60), 50fps-el (50+50) pedig elég durván vibrál, de nehezen szokható. Az előző DW évadot úgy néztem, de most már azt se (lusta vagyok beállítani, nem ér annyit). -
janos666
nagyúr
válasz
hsrasus
#38442
üzenetére
Szerintem ne álhülyítsd magad a méretekkel
, vegyél 55"-ost bármelyikből! 
Ha nem játszol rajta, gyakorlatilag már a 8-as sorozat is ugyan olyan jó lenne.
A B általában nem olcsóbb annyival, hogy szerintem jobban megérje (szórványos véletlen leárazásokat kivéve, olyankor nyilván elgondolkodtató, ha fontosabb az ár/érték).
Úgy tűnik, hogy az UHD érából ez a 9->X lesz a legkisebb generációs lépésköz. Szinte semmi újat nem hoz, csak apróságokat. Egyedül az új BFI lesz érdekes, mert ha plazmára vágysz, akkor valószínűleg tetszene, sőt, kívánod majd, de ezt viszonylag továbbra is nehéz lesz használni: SDR-hoz gond nélkül bekapcsolhatod, de nem tudom megoldják-e idén, hogy a HDR tone-mapping automatikusan a csökkentett fényerővel dolgozzon, mert a C8 egyáltalán nem tud ilyet, a C9 pedig csak úgy, ha CalMan-el van újrakalibrálva a tone-mapping BFI-hez (de akkor utána bekapcsolva is kell hagyni mindig, és csökkentett fényerőn fut majd a HDR).
Viszont filmekhez nekem nem annyira hiányzik a BFI, mint játékokhoz, viszont mióta van a C9-en G-Sync és 1440p120, azóta ott sincs értelme (főleg HDR-hez). -
janos666
nagyúr
A hagyományos ABL az Average: a kép átlagos fényereje szerint szerint limitál. (Próbáld ki: rakj ki egy kis fehér téglalapot középre fekete háttérre és kezdd növelni a méretét, egy ponton elkezd visszavágni. Most kipróbálhatod ezt szürke háttérrel... az átlagtól függ majd, hogy hol kezd el dolgozni.) Ilyen volt mindig már a plazmáknál, és ugyan ez van OLED-en is (ahogy némely LED LCD-n is). Ezt nem lehet kikapcsolni.
Az ASBL viszont már Auto.
Bár nem tudom mennyire hivatalos ez egyáltalán, mert az IN-START ugye TPC-nek hívja (talán Thermal Protection Control ? --- van aki Circuit-nak értelmezi, de annak nem sok értelme van a digitális világban). Ezt kijavítottam és bővíttem. 
-
janos666
nagyúr
Ahogy én néztem, a Neflix és PrimeVideo esetén is fix a formátum: vagy SDR vagy DV/HDR10 lesz kiválasztva induláskor (a DV felülírja a HDR10-et, ha elérhető) és az fps is, csak a felbontás és bitráta skálázódnak automatikusan a sebességgel akár 420p-2160p közt (ha amúgy gyors és stabil a net, olyankor is előfordul, hogy gyenge minőségben indul, és zavaróan sokáig tart, mire kis lépésekben felvált, máskor már az intro logó alatt is jól néz ki) és kb. 0.5-15 Mbps közt.
A DV/HDR10 logó felülírja az UHD/4k logót, de ettől még van olyan anyag a Netflix-en, ami DV, és max 1080p.
(#38431) chros - Az lesz.
Eddig nem tettem, mert nem jött elő használat közben. -
janos666
nagyúr
válasz
Partizan182
#38417
üzenetére
Nem, csak az UHD logót írja felül a DV logó, de vannak FHD DV tartalmaik, mint pl. a Star Trek: Discovery.
-
janos666
nagyúr
válasz
sakal83
#38297
üzenetére
Ma kezdtem el nézni a Game of Thrones S08-at (UHD HDR BD), és belefutottam egy hibába a C9-en.
Lehet, hogy te is ezt tapasztalod.
A sötét jelenet (a második rész felétől eddig végig az) hiába mozgalmas (lobogó láng a fáklyákon, jelenetváltások, fészkelődő emberek, stb), statikus képnek és/vagy hírcsatornának érzékeli a TV, és pár perc után durván visszavágja a fényerőt (OLED Fény-t). Egy kattintás a görgővel, hogy előjöjjön az Info Banner, esetleg még kis körözés a kurzorral helyre billenti, de ez tényleg hülye és zavaró hiba.
Bár más tartalommal ez eddig nem jött elő, ez pedig elég extrém sötétség.A másik gyanúsított a HDMI Fekete Szint beállítás.
Ja, és valami színhelyes, pl. Színház vagy Szakértő módban próbálod te ezt? A gamma beállításnál nem Alacsony Képvezérlés-t kéne látnod, hanem olyat, hogy 2.2, 2.4, stb. Tedd be egy normális képmódba (Színház), és akkor valószínáleg egyáltalán nem is kell piszkálnod a Fényerő és Kontraszt csúszkákat (ha a lejátszód sem nyúl bele, amikkel a tesztábrákat nézed), hanem jó lesz minden (ha kikapcsoltad a dinamikus izé-mizéket)
-
janos666
nagyúr
válasz
Willhunting
#38275
üzenetére
Igazából nem az LG-nek kéne a FreeSync-et támogatnia (az AMD egyedi HDMI-s megoldását), hanem az AMD-nek (a FreeSync gyűjtőnév alatt, vagy más néven) a szabványos HDMI 2.1 VRR-t, ahogy az nVidia (a G-Sync Compatible gyűjtőnév alatt) és a jelenlegi XBox (VRR név alatt) is teszik, és máris működne a VRR az AMD kártyákkal is külön FreeSync hitelesítés nélkül (bár ártani nem árt, ha megkapja, ahogy a G-sync hitelesítés sem ártott a TV-nek, hiába működött már egy korábbi LG firmware-el is ugyan úgy nVidia kártyákkal a VRR, mint a hivatalosan is G-Sync hitelesítettel).
-
janos666
nagyúr
válasz
cichlid1
#38196
üzenetére
Szerintem, ha kézre esik a kábel, akkor kösd be, aztán ha esetleg kéne valamire nagyobb sávszél, majd játszadozol a WiFi-vel. Ha új kábelt kéne odahúzni, akkor kezdd a WiFi-vel, vagy esetleg USB adapterrel (link az összefoglalóban).
Igazából a rézkábeles megoldás sem garantált, hogy stabil, de általában sokkal jobb eséllyel indul, egyszerűbb és átláthatóbb. A WiFi-t nehezebb jól kiépíteni és konfigurálni. A kábelt nagyjából "bedugod és megy" (de persze azt is lehet rosszul csinálni), míg a WiFi-nél már lehet, hogy kísérletezni kell a rádió elhelyezésével a jelárnyékolás és tükröződés miatt, a csatornák kiválasztásával, ha a környezetében más is használja azokat a frekvenciákat, esetleg hangolgatni kell még más beállításokkal auto helyett kézzel, hogy tényleg jó legyen, bár ha szerencséd van, akkor ott is jól működik minden alapbeállításokkal is. Egyáltalán nem triviális, hogy AC-s WiFi-vel stabilan >=100 Mbps-t kapj, de lehetséges több is. Ezt már neked kell végigjárni adott környezetben.
-
janos666
nagyúr
"HDR-t pedig ugysem lehet profil-ozni."
Lehet, csak gyakorlatilag inkább CalMAN kell hozzá ingyen szoftver helyett.
Azon felül pedig nyugodtabb vagyok az i1Pro2-vel készült mátrix korrekcióval, mint az szóló i1d3 (+ EDR / ccss) megoldással, mert általában viszonylag pontos már a gyári beállítás is (legalább is a fehéregyensúlyra).(#38144) AL - Igen, alapvetően ugyan az a HDMI szabvány funkció. Csak annyi, hogy a forrás eszköz szól, hogy alacsony késés kéne. De onnantól az már a TV dolga, hogy mit kezd ezzel a kéréssel (átvált másik képmódba, pl. Játék-ba, vagy a meglévőt kapcsolja át alacsony késésű üzembe, akár a Mozi-t).
Neked szerintem nincs rá szükséged, de attól nem kötelező kikapcsolni, hisz Auto
De látom a Panasonic-nál most is tömör gyönyör a menü magyar fordítása.
(#38124) renziNNN - Szubjektíven én a Panasonic-ból is az idei, alacsonyabb kategóriás modellt venném a tavalyi magasabb helyett (kivéve, ha a csúcsmodellt is belevesszük, de felteszem az kiesik, minthogy nagyon más árkategória).
-
janos666
nagyúr
válasz
penell1234
#38099
üzenetére
Pendrive kiváltásra szerintem most a PCI-E NVMe SSD -> USB ház a legjobb megoldás (benne a legolcsóbb NVMe SSD, amit találsz a kívánt kapacitásból a hardveraprón). Van belőle olyan kivitel is, ami tényleg egy nagyobbacska pendrive lesz ("apa" csatlakozója van, így nem kell hozzá kábel, hanem közvetlenül bedugható az USB portba).
De ha nem hurcolászod magaddal messzire, és nem használod más célra otthon sem, csak házon belül kell a TV-hez filmeknek, akkor bőven elég gyors bármelyik HDD, és a kapacitás sokkal többet számít (még az USB 3.0 is felesleges, mikor a TV-re kötöd, csak akkor lehet értelme, mikor PC-ről töltesz rá filmet, ha gigabites a neted). -
janos666
nagyúr
válasz
magnum81
#38091
üzenetére
Szerintem ne várj (csak míg szétnézel, hol most a legolcsóbb).

Már jó áron megy a C9, de májusban még drága lesz a CX.
Szerintem az X az eddigi leguncsibb UHD OLED sorozat. Gyakorlatilag semmi újdonság nincs, csak engedélyezték azt a BFI módot, amit a C9-en megjelenés előtt mégis letiltottak. De VRR mellett szerintem nem fog működni a CX-en sem (nem is tudom, hogy OLED-en össze tudnák-e hozni a VRR kompatibilis BFI-t, LCD-n is trükkös dolog és kevés monitor tudja), illetve HDR mellé sem annyira szerencsés (visszafogja a fényerőt, és nem is kompenzálja ezt a tone mapping, tehát gyakorlatilag hibás a kép ilyenkor), és egyre több játék HDR-es is.Ha a pénz nem is lenne olyan fontos, majd költsd el új konzolra és/vagy PC VGA-ra, mikor jönnek a HDMI 2.1-esek. Esetleg eARC-s AVR-re, stb. A C9-et nehéz kiszolgálni.
Samsung-on nem tudom, hogy működik-e már a G-Sync, bár újabban lassan a kávéfőzővel is szinkronizál majd a Geforce
(minden elképzelhető adaptív sync módot támogat).Tényleg! Ha valakinek van esetleg otthon a Turing (RTX2xxx, GTX16xx) generációtól régebbi (pl. GTX1060, GTX980, stb) Geforce kártyája és 2019-es LG TV-je, az próbálja ki a kedvemért, hogy működik-e a G-Sync egy ilyen passzív DP->HDMI adapter-el.
Tegnap kipróbáltam az RTX2060-on poénból, és működik
, az nVidia pedig azt mondta, hogy a régebbi kártyákon a HDMI port nem elég jó hozzá (ami persze valószínűleg kamu, és csak mesterséges termék szegmentálás, és szerintem gyakorlatilag minden HDMI port egy ilyen alt-mode DP már régóta, mint amit a fent linkelt passzív adapter is csinál a DP csatiból, csak nem a házon kívül lóg a level shifter, hanem a PCB-re van építve...). -
janos666
nagyúr
Nálam simán viszi a C9 gyári lejátszója úgy, hogy egy x86 gépen futó miniDLNA szerver-ről 1Gbe megy a 866Mbps WiFi AP-ig, ami kap egy falat a TV-ig, így 350-390 a kapcsolat sebessége lejátszás közben.
Ha akarod, próbáld ki USB adattárolóról (a TV-be kötve). Valószínűleg vagy a hálózatoddal, vagy a kiszolgálóval (szerver oldal, azon belül is inkább szoftver) lesz a gond. -
janos666
nagyúr
Szerintem túlmisztifikálod a dolgot, mint valami snake oil kereskedő.
A HDR10 és a DV ugyan azt a színteret használják, így ilyenkor (UHD HDR Blu-Ray lemezen HDR10 alap + DV réteg) nincs mit "enhance"-elni egy FEL-el, legfeljebb az említett bitmélység bővítést (10-ről 12-re, ami nem elenyésző, de nem is hatalmas adatmennyiség), már persze a triviális dinamikus metaadaton túl (ez utóbbi már csak minimális adatmennyiség). Ezen felül nem tudsz, mert nincs mit tágítani/finomítani a színeken és dinamikatartományon, kivéve ha szándékosan elrontod a HDR10 alapot, hogy legyen rajta mit javítani.
Ilyesminek színek szempontjából akkor van értelme, ha pl. SDR anyag van egy videóban, mint "core", és arra jön rá egy HDR-re bővítő réteg. Vannak is ilyen DV demó videók: egy mp4 file, amit le lehet játszani SDR-ban (nem HDR10-ben! SDR-ban!) olyan készüléken, ami nem DV kompatibilis (és hiába ismer HDR10-et, olyan nincs a file-ban, SDR lesz lejátszva), vagy teljes DV "pompában", ha DV képes a készülék. -
janos666
nagyúr
válasz
rothfb
#38062
üzenetére
"Ez olyan, mint a számítógépes játékoknál, mikor 70 vagy 120 fps a sebesség. Tök mindegy, csak 30 alá ne essen, mert azt már akadásként látjuk a játékokban."
Remélem ezt a hülyeséget csak olvastad valahol, és nem saját megalapozott vélemény.

Mondd már meg, hogy látsz-e itt bármi különbséget 60 és 30 közt: [link]
A fix 30fps is bőven akadozónak látszik, hasonlóan, mint mikor 24fps filmekben vízszintesen mozog/pásztáz a kamera, csak itt általában nincs (vagy másféle, szintetikus) a motion blur és sokszor kevésbé finom a "kamera" mozgása (mikor szoftveres simítás nélkül mozgatod az egeret), illetve gyorsabb is (olyan gyorsan mozgatod, ahogy bírod, és vagy játék szempontokból szükségesnek látod, nem azt figyeled, hogy ne lépj túl egy bizonyos pixel/sec sebességet, ahol elkezd diavetítésnek hatni a 30fps), tehát tömören akár rosszabb is lehet (a 30fps játék, mint a 24fps film). A mozgókép felbontás is hulladék BFI nélkül (egyszerre folyik szét az egész és kezdenek el duplázódni az élek), BFI-vel együtt pedig túl jól kivehetőek és élesek a hamis "dupla élek", amik kirajzolódnak (igazi diavetítés hatás). A fix 60 már egész jó egy átlagos játékosnak folytonossági szempontból, és elviselhető, vagy BFI-vel egész jó a mozgókép felbontás is (ez volt szerintem a 2010-es évek optimuma: 1080p60 + BFI stabil 60fps-el), de csak valahol 120 körül kezd igazán simának érződni, és BFI nélkül is egész élesnek megmaradni a mozgás (a VRR óta célszerűbb a 120-as átlagot célozni, mert azzal együtt általában nincs BFI), viszont még az sem tökéletes, bőven látszik, hogy 120 vagy 240 (hogy afelett mi van, már nem tudom saját tapasztalatból, de valószínűleg nem éri meg, már a ~120 sem annyira rossz kompromisszum, főleg hogy nem csak a kijelzőn múlik, hanem le is kell gyártani azokat a képkockákat, de egy VRR kompatibilis BFI bőven elférne mellé).Ha a zöld mezőbe bámulsz (nem követed a szemeddel a mozgást), vagy csinálsz egy screenshot-ot, még azt is látod, hogy olyan sebességgel mozgó célpont esetén mekkora késéssel kell számolnod az fps csökkenés miatt.
(#38064) LógaGéza - Nekem egy ilyen van (más célra, de kipróbáltam vele az AVR vágást is, csak a VRR már nem működne rajta keresztül, ezért jobb ha két külön VGA portot használok): HDFury Integral (az új verziója kicsit drágább: [link], egy ilyennel [link] pedig még az eARC bemenetből is tudsz TMDS-be ágyazott hangot konvertálni).
Ez az az Integral egy nagyon okos kütyü..., egészen addig, míg nem egy AMD GPU és egy 2018-as LG TV közé kötöd, de ironikus módon én pontosan arra a célra vásároltam, és mindig szívok vele, hogy feketébe ugrál a kép (ez nincs meg nVidia GPU és LG'08 közt és AMD GPU + Panasonic/Sony TV közt se...).
-
janos666
nagyúr
válasz
Robi BALBOA
#38057
üzenetére
Dolby Vision sima SzÍnház és HDR között hirtelenjében nem is nagyon láttam különbséget
... és ez igazából így van jól.
hogyan tudnám a sima HDR-t is ugyan olyanra belőni mint a Dolby Vision Otthoni szÍnház
Valószínűleg sehogy, hacsak puszta véletlenségből nem használja ugyan azt a gammát valamelyik pontatlan HDR10 képmód (pl. a 'Kiemelt'), mert akkor az ugyan azt az eredményt adná, ha oda egyformára állítasz mindent (csúszkák, kapcsolók, stb minden almenüben). -
janos666
nagyúr
Vannak olyan lejátszók (inkább lemezes), amiken 2 HDMI port van, az egyik külön az AVR-nek dedikálva. A PC VGA-kon általában ~4 port van (~1$ egy DP->HDMI vagy DVI-HDMI passzív adapter), és vannak aktív HDMI spiletter/switch-ek (ez már drága, ~200$, de adott AVR-hez képest relatívan még mindig megfizethető lehet), ami a bemenő jelből 2 kimenő jelet csinál (akár úgy, hogy a HDCP 2.x is megmarad a lejátszó és TV közt úgy, hogy az AVR csak 1.x-es, de a HD hangot, amit ismer, azt megkapja, szóval mehet az UHD HDR filmezés a HDMI 1.3-as AVR-el is TruHD/DTS-HD erejéig).
(#38053) Fisha - Nem, nem nem... mert az már olyan gyors, hogy visszafelé pörgeti az időt maga körül, így minden színész/nő megfiatalodik, mire te nézed.
rothfb - Azt amúgy tudod, hogy mikor 60fps anyagot nézel, az IFC továbbra is aktív, és 120fps-re interpolál?
(#38054) Robi BALBOA - Az nekem OK, hogy neked tetszik, csak nem látom értelmét, hogy összehasonlítsd az egyes formátumokat úgy, ha közben eltérő módon vannak hozzájuk beállítva a képmódok.
-
janos666
nagyúr
válasz
renatto
#38047
üzenetére
Az élesség minden módban ugyan azt csinálja. (Hogy mikor hova teszed, azt döntsd el.)
A Fényerő már eltérően viselkedhet SDR és HDR közt (de HDR10 és DV már egyformák).De ha az AVR belenyúl a képbe, akkor szerintem mihamarabb kezdj el addig játszani a menüjében, míg abbahagyja, és ha nem sikerült, gondolkodj el a független bekötésén (két külön forráseszköz portról etesd a TV-t és AVR-t), esetleg cseréjén (ha nem tudod megkerülni). [Esetleg frissíts rajta firmware-t, factory reset, stb]
-
janos666
nagyúr
válasz
Robi BALBOA
#38042
üzenetére
DolbyVision esetén a Cinema Home / Otthoni Színház profilban pont a "gamma" van eltolva, a sima Cinema / Színház a helyes, az Otthoni világosabb hatású.
A Black Level / Fekete Szint-nek ugyan ott kéne állni SDR és HDR módban, ha ugyan az a forráseszköz (nálad itt most SDR-ban Magas, HDR-ben Alacsony, ha jól írtad és jól értelmeztem).
A Sharpness / Képélesség beállításhoz ezen a TV-n nem kell tesztábra. Vagy
- lehúzod nullára, ha ki akarod kapcsolni az egészet (0=Off/Ki)
- otthagyod alapértelmezett 10-en, ha szeretnéd az anti-alising szűrést
- beállítod valami jellegzetes valós tartalommal oda, ahol szubjektíven neked tetszik az élesítés erőssége
Ha mégis tesztábrán keresed, hogy hol van a helye, akkor baj van, mert 0-10 közt adná ki, hogy nem nyúl bele a képbe, azok a tesztábrák pedig arra valók, hogy ezt a pontot keresd, ahol semleges, avagy nem nyúl a képhez, nem arra találták ki őket, hogy azon állíts be szemre valami neked tetszetős élesítési szintet, ahhoz tekerj inkább bele valami filmbe... -
janos666
nagyúr
Már nem emlékszem, hogy ki kérdezte, de most kipróbáltam, és 2160p60-ban működik egyszerre a DolbyVision és VRR / G-Sync (nem csak az OSD szerint: [kép], de érzésre is) C9-en, de 1440p120-ban nem (legalább is a játékkal, amivel tesztelem, azzal nem, SDR-ba vált vissza a felbontással együtt), de 1080p120-ban igen (ezt a módot a C8-on is tudja VRR nélkül). Vagy a Dolby chip limitál, vagy inkább az lehet a különbség, hogy az 1080p és 2160p az "TV res", az 1440p pedig "PC res". Ha lesz majd HDMI 2.1 és 2160p120, akkor kiderült.
-
janos666
nagyúr
A Hobbit-ot nem venném alapul, mert egyben 3D is volt. Személy szerint én azóta is úgy emlékszem arra a trilógiára, miután megnéztem aktív 3D szemüvegben Panasonic PDP-n (2x24fps anyagból 2x48Hz módban), hogy: na ezt majd egyszer újra meg kell nézni "normálisan" (= szemüveg nélkül). Elterelte a figyelmem, hogy lefárasztott a 3D.
Nekem sincs semmi statisztikám erről, de vaktában arra tippelnék, hogy egy döntő csendes többségnek , mondjuk 85%-nak (nyilván csak példaképp mondok valami számot) majdnem mindegy volt, 5%-nak jobban tetszett, 10% pedig utálta, és így máris kijön, hogy kétszer annyian utálták, mint amennyien szerették, de ez azért mégsem ugyan az, mint ha a nézők 66%-a utálta volna. -
janos666
nagyúr
válasz
rothfb
#37982
üzenetére
Az biztos szubjektív, hogy melyik jobb. Én pl. saját magamnak hard-clip módot állítottam be HDR10-hez a gyári roll-off helyett. Ez azt is jelenti, hogy ha támogatná a TV szoftver a HDR10+ formátumot, az is pontosan ugyan úgy nézne ki, mint a HDR10. Gyakorlatilag úgy üzemel a TV, mint ha mindig 700 nit lenne a peak metadata. DV módhoz is meg lehetne ezt oldani, de sokkal macerásabban (és nem hivatalos módon), és akkor az is pontosan ugyan úgy nézne ki mindig.
-
janos666
nagyúr
válasz
I.T.E.M
#37967
üzenetére
Sem a Netflix, sem a PrimeVideo katalógusban nem UHD és/vagy HDR minden, még az sem, ami valahol máshol elérhető olyan formában is (azt pedig már kár is lenne emmellé boncolgatni, hogy az a másik anyag valódi 4k, vagy felnagyított 2k-e, sőt igazából SDR anyagot is bele lehetne rakni a HDR formátumba...). Ha megnézed, a mozifilmek, amik kijöttek már rég UHD BD lemezen, szinte mind FHD SDR-ban vannak mindkét szolgáltatásnál. Leginkább a saját gyártású sorozataik vannak technikailag eleresztve (a csak megvásárolt sorozatok is inkább FHD-sak). Ami HDR, az Netflix-nél mind DV, Amazon-nál mind HDR10(+).
-
janos666
nagyúr
válasz
renatto
#37881
üzenetére
Erre ne tesztábrát használj, hanem mondjuk a kedvenc filmes jeleneteid, vagy valamit, amiből szerinted a legtöbbet látsz a képernyőn. Én inkább a TV-re, vagy a külső lejátszóra bíznám, mint az AVR-re, de próbáld őket végig.
(#37908) gu007 - LG esetén a DolbyVision "dinamikusságát" külön Dolby processzor intézi, de ettől függetlenül szerintem simán megkaphatnák a HDR10+ támogatást szoftverből, mert ránézésre jól lekezelik most is, ha piszkálom a HDR10 metaadatot (nem villan a kép, simán reagálja le).
(#37905) djnice - Jajj ne.
Mi lesz, ha "csak" sima HDR10-ben kell nézned?
-
janos666
nagyúr
válasz
renatto
#37856
üzenetére
Oh, megvan: én DLNA forráson próbáltam volna ISO-t keresni, ahova eleve be sem listázza a DLNA szerver, mert az sem ismeri fel, mint media file.
Te gondolom USB eszközön nyitottad meg, vagy esetleg Plex-el?
Úgy tudom nincs SMB WebOS-re, és az NFS modul bár elvileg megvan a kernelben, de alapértelmezésben nem töltődik be (tehát effektíve az sincs root/hack nélkül). -
janos666
nagyúr
válasz
renatto
#37845
üzenetére
A C9 belső lejátszója sem listázza az ISO-kat, és kibontva az m2ts-ből sem játszik le (rétegelt) DV-t, csak ha mp4-be muxolod. Az ISO legfeljebb store-ból letöltött lejátszóprogrammal működik, de DV-vel szerintem akkor sem. Magát az m2ts-t már a B7 (talán még korábbiak) is lejátszotta, legfeljebb át kellett nevezni *m2ts.ről *ts-re a file-t.

(#37849) bendeguz76 - De kevesebbre számítanék, mint DD és DD+ közt (szerintem ez volt az eredeti felvetés), ami most praktikus kérdése (gyakorlatilag ezt kapod ma, ha SPDIF-ről eARC-re váltasz a belső programokhoz, mint pl. Netflix). Egy ponton túl már nullához kezd közelíteni a nyereség, hiába tart a végtelenbe a bitráta.
-
janos666
nagyúr
válasz
adamssss
#37826
üzenetére
HDMI 2.0-es forrásból nem engedi most az LG a 2019-es TV-in, hogy 2160p120 YCC 4:2:0 8bit formátummal hajtsd (pedig ez beférne a sávszélbe és pl. a Samsung azt hiszem, hogy már 2018-ban is engedte ezt, de 2019-ben tuti, szóval nem is a VGA kártyákkal/driver-ekkel van a gond), de a 2020-asok elvileg ezt is engedik majd.
HDMI 2.1-es forrsából viszont a 2019-esen is működnie kéne majd a 2160p120 YCC 4:4:4 / RGB 10bit formátumnak is (sokkal nagyobb sávszél!), viszont ez még nem egészen tiszta, hogy melyik firmware verziótól kezdve. (Lehet, hogy már a nulladik napitól, amivel megjelentek a TV-k, de lehet hogy még idén év végén is várni fogunk rá, mikor a VGA-k már a boltokban lesznek, nem tudjuk biztosra, hogy mi is van, ködös infók keringenek. Majd idővel kiderül...)Az már megszokott az LG-től, hogy olyan dolgokat is új funkcióként emlegetnek egy adott évben, ami igazából már 1-2 évvel korábban is működött (még akkor is, ha az előző évi marketing aganyagban is fel volt sorolva, nem csak nem-hivatalosan volt felfedezve, hogy olyan is lappang). A 120Hz tipikusan ez, már a 2017-esek TV-ken is működött az 1080p120 SDR, de a 2018-as és 2019-es TV-knél is újra és újra reklámozták a natív 120Hz-et, mint újdonság. Most is újra reklám, hogy 2020-ban is lesz 120Hz. Direkt kevergetik, hogy mikor miről van szó: belső lejátszó 120Hz támogatása, HDMI forrás 120Hz támogatása, mekkora felbontással, milyen formátummal, milyen forráshoz...
(#37819) jamy79 - Terveztem egy B7, B8, B9 kört, de mikor elővettem itthon a laptop-om, megdöbbenve láttam, hogy a session-ök kb. felét egyáltalán nem mentette el (file-t sem hozott létre), a többi file pedig kb. az adatok 1/2 - 1/3 részt tárolja csak. A linkelt grafikonok kb. az összes screenshot, amit saccra 8db TV után össze tudtam szedni.
Bocs mindenkitől. 
(#37820) chros - Úgy érted B9-et? A 8-asra nem fog HDMI 2.1 nőni.
-
janos666
nagyúr
válasz
Mizurichi
#37760
üzenetére
Bedobtam ide a grafikonjaid: [link]
Akárhányszor nézegetem őket, mindig jobb érzés oldalról szemlélgetni a Panasnic-ot (pedig szerintem sehol sem írják, hogy más AR bevonatuk lenne, mint az LG-nek), vagy közelről a sötétszürkéit (ez ditherel legszebben), de a funkciók (pl. LUT programozás, HDMI 2.1 VRR, stb) miatt személy szerint mindig az LG-t venném (vagyis veszem is).Azt pedig csak félve teszem hozzá, hogy a Sony nálam mindig csak harmadik a sorban.(#37732) chros - Én abból a videóból azt szűrtem le, hogy semmi új nem lesz a nap alatt a játékosoknak, kivéve, hogy feloldják a korlátot a 2160p120-ról HDMI 2.0-hoz. Az kicsit ködösnek tűnik, hogy HDMI 2.1 kártyákkal akkor tényleg 40-120 lesz-e a VRR range a 2019-es TV-iken, de szerintem ez most csak a szokásos marketing dolog (remélem, mert különben mérges leszek
), 2019-ben is felemlegettek újdonságként olyan dolgokat, amik már a 2018-as TV-iken is működtek (sőt, félig-meddig a 2017-eseken is). -
janos666
nagyúr
válasz
stilo18
#37662
üzenetére
Én személy szerint ráugranék a 370k-sra, ha nem gond a bolti átvétel (se elmenni, se az elállási lehetőség --- ez esetben próbálnám helyben átnézni vásárlás előtt, ha megoldható), de a 400k-s se rossz (főleg ha az online rendelhető). Sokkal olcsóbb nem igen lesz egy darabig. De kicsit gyanús, hogy a 370k-s talán kibontott és visszaküldött példány (bár ez sem jelenti azt, hogy garantáltan lenne bármi baja), talán "csomagolás sérült" is emiatt, és ezért nem rendelhető online (ezt akkor tényleg meg kéne nézned helyben bekapcsolva).
-
janos666
nagyúr
válasz
sebgutkopf
#37652
üzenetére
"akkor érzi jól magát, ha 150 fps fölött fut a játék és a legneccesebb esetben sem esik a monitor max frekvenciája alá"
Ezzel nem értek egyet több szempontból sem.

Ha bekapcsolod a G-Sync-et, és kicsivel a frekvencia alá limitálod az fps-t (pl. 120Hz-hez legalább 118, inkább 117-116 limitet adsz), amit újabban amúgy megtesz neked az nVidia driver is, ha bekapcsolod a V-Sync-et is (amúgy is ajánlott bekapcsolni G-Sync mellé, mert a max frekvenciához közel lehet néha képtörés, ha nem teszed meg) és Ultra-ra állítod a Low Latency Mode-ot (120Hz-hez 116 fps az auto-limit), akkor majdnem [*] a lehető legjobb eredményt kapod minden szempontból: soha nincs se képtörés, se stutter, és a lag is majdnem minimális ---, mert ilyenkor nincs felesleges bufferelés, viszont a kijelző frissítések igazodnak ahhoz, hogy mikorra készül el a képkocka (ezért nincs stutter, ami mindenféle sync-et kikapcsolva is jelen van van magas fps mellett is). Személy szerint én a képtörést és a stutter-t is zavarónak tekintem akár "sportoló szemmel" is (a törési csík is vonzhatja a figyelmed, hamis dolgokat vélhetsz miatta látni, ami nincs ott, a stutter pedig ronthatja a mozgáskövetés/saccolást, amit az agyad csinál, mikor próbálod kitalálni, hogy hol lesz majd a mozgó célpont és a te mozgó célkereszted, mikorra elsül majd a fegyvered), amit a fent vázolt beállításokkal teljesen ki tudsz küszöbölni úgy, hogy igazából elhanyagolható mértékű a késés, amit a G-Sync okoz (akkor mérsz picivel kevesebb reakcióidőt, ha a képtörési vonal felett vizsgálódsz, nem alatta, tehát csak a képkocka egy tört részét kapod meg hamarabb, de ha a célpont a törésvonal alatt van, akkor ez sem segíthet semmit --- a másik pedig, amit már írtam, hogy engem pl. zavar, ha pl. szétvágja a célpontot a képtörési vonal, az egy képhiba, ami ronthatja a célzást is).
A G-sync legfeljebb 1/maxfrekvencia idő késést okoz, jellemzően inkább <0.5-öt (épp csak addig vár a kész képkockával, hogy ne kezdje hamarabb a képfrissítést, mint lehetséges képtörés és stutter nélkül). Nem okoz hagyományos V-Sync lagot, nincsenek sorba állított, és bufferelt képkockák (csak a saját, szétosztott double buffer, amiből az egyik már kint van a kijelzőn, a másik pedig épp készül, a CPU queue sem torlódik fel miatta, mint a V-Sync esetén).[*]"Hard core" szemmel persze nem jó az Ultra vagy RTSS féle fps limiter, mert kicsit növeli a késést (~1 frame időnyit), de jobb játékmotorokban van jó beépített fps limiter, ami nem okoz extra késést, és azt is be lehet lőni a G-Sync tartomány alá néhány fps-el. Ilyenkor tényleg alig pár ms a különbség semmi sync és G-Sync közt.
A másik tényező, hogy bármiféle sync aktív, vagy nem aktív semmilyen, a ~100%-ra felfutó CPU vagy GPU terhelés növelheti a késést, amin szintén segíthet, ha a max frekvencia közelébe limitálod az fps-t (több képkockát pedig úgysem fogsz látni soha, legfeljebb egy darabkáját).
FastSync-el és nagyon magas fps-el nyerhetsz néhány ms-t, de megmarad a stutter (lásd fentebb, hogy szerintem az zavarhatja a célzást), viszont oda sem árt valami limiter (lásd fentebb a CPU/GPU ~100% terheltség elkerülése végett).
Szóval szerintem sportolásra is a G-Sync + V-Sync + ingame fps limiter az ideális. Buksz 1-2ms késést, de segít az, hogy nincs se törés, se stutter, se ~100% terheltség (ha hozzábutítod szükség szerint a képminőséget és/vagy elég erős hardware-t veszel).
De amúgy meg szerintem elég szűk a valódi sportjátékosok száma, és közülük kevesen akarnak majd 55" kijelzőt. A hobbi játékosoknak pedig nem kell őket majmolni mindenben. Náluk nem is feltétlenül kell mindennek műszerekkel igazolhatóan ideálisnak lenni, hanem az a lényeg, hogy ők mihez szoktak hozzá, mibe tanultak bele.
Pl. hiába adsz egy sportlövésznek egy új irányzékot, ami elvileg pontosabb célzást tesz lehetővé, ha ő a régi megszokott irányzékkal álmodik...---
Az 1440p120 is csak 2019 óta van LG-nél, mert nem TV, hanem PC felbontás, amitől ódzkodott az LG (de pl. a Sony nem).
A 2160p120 4:2:0 szerintem csak hákliból van letiltva már a 2018-asokon is (a 2017-es LG-k még nem támogatták teljes körűen a 120hz-et semmilyen felbontással, 1080p-vel se). Ugyanakkor hivatalosan olyasmit mondott az LG, hogy HDMI 2.1 forrásból is csak egy későbbi firmware frissítés után lesz hivatalosan támogatva a 2160p120 (bármilyen formátummal). -
janos666
nagyúr
válasz
Pro Koryak
#37649
üzenetére
Itt szerintem az a történik, hogy szabad szemmel lehetne látni azokat a csillagokat a QLED-en is (ha messziről és világos szobában nem, de sötétben közelről már igen), csak a kamerafelvételen nem (bár a TV beállításaitól függően lehet, hogy szabad szemmel sem látni semmit).
Az ismert dolog, hogy a limitált számú zónával dolgozó local dimming, ha úgy van beállítva, akkor drasztikusan elsötétíthet fényes foltokat, hogy a körülötte lévő nagyobb fekete terület ne legyen olyan fényes szürke. Ezt gyakran felüróják a Samsung-nak, hogy ezt kicsit túlzásba viszi (inkább a jobb feketét erőltetik, mint hogy a világos foltok elég világosak legyenek ilyen képek esetén). Sőt, állítólag nem is csak a LED vezérlés a túl fekete-orientált náluk az utóbbi pár évben, hanem mikor bekapcsolod a local dimming-et (LED zónázás), akkor kéretlenül bekapcsol mellé egy dinamikus kontraszt szabályzás is (szoftveres képmanipuláció, ami nem a LED-eket állítgatja, hanem a képet változtatja meg), ami az elmondások szerint szintén fekete-orientált (tehát inkább igyekszik bebuktatni mindent a feketébe a képen, hogy aztán kikapcsolhasson minél több LED zóna, mintsem hogy megőrizné a világos pontokat, mert akkor több lenne a világos szürke terület körülöttük, avagy rosszabbnak tűnne fekete mélysége). Így próbálja meggyőzni a vásárlót a Samsung, hogy a QLED-nek is majdnem olyan jó a feketéje, mint az OLED-nek. Persze mikor nincs, vagy alig van fekete terület a képen, akkor mehet az ellenkezője, nem kell lehúzni a LED zónákat, illetve a képmanipulációnak sem kell bebuktatni semmit feketébe, akkor a szoftver hagyhatja eredetiben, vagy felfelé húzhatja a fényes részeket (megint csak olyan állapotot teremtve, ahol a világos kép még világosabbnak néz ki). Csak a kettő nyilván nem megy egyszerre (hacsak nincs közel annyi dimming zone, mint pixel). -
janos666
nagyúr
Tippre bőven elég lenne hozzá az, ami az öregedéskompenzációhoz készült, hogy bármikor ön-diagnosztizálja magán az összes (al)pixelhibát (a nem világító, vagy világosan ragadt pixel talán "furán" néz ki az ilyen méréskor, ami kisebb eltéréseket próbál keresni). Persze ez csak laikus tipp...
De amúgy a másik triviális dolog, hogy felvillantják a pixeleket, készül róla (és az aktív módú feketéről) egy nagy felbontású fénykép, és keresi a hibákat egy szoftver (megint csak az öregedéskompenzálás miatt szinte tuti, hogy legalább egy kis időre amúgy is hajtják őket, csak a fotózás lenne extra - hacsak nincs már amúgy is ilyen lépcső más miatt).
Viszont nekem is az a tippem, hogy a durva esetektől eltekintve, amit szinte biztos, hogy bárkit zavarni fog, eszük ágában sincs az ilyeneket kidobni ahelyett, hogy megpróbálják eladni (és igazából nincs is ezzel komolyabb baj, míg lelkesen cserélik annak, akit mégis bosszant, a gond akkor van, ha heteken át húzza az időt a szerviz is, és direkt olyan feltételeket akar teremteni, ahol inkább feladod, vagy eleve túl laza a politikájuk, hogy mi minősül hibának ez ügyben és szerintük mi nem zavarja a használatot...).
-
janos666
nagyúr
válasz
sebgutkopf
#37613
üzenetére
Én pl. puszta hobbiból cserélgetem szinte minden évben.
Ha több pénzem lenne ilyesmire, akkor nem eladnám őket, hanem rotálnám sorban a szobák közt, ahol most 6-7 éves plazmák vannak. Mostanság minden évben sikerült barátságos vevőt találnom, aki értelmes összegért vitte el az értékesebb használt TV-im, egyébként nem adtam volna el őket, hanem vagy kihagytam volna egy-egy cserét, vagy mégis megtartottam volna egyet-egyet valamely másik szobába (akkor is, ha azokat szinte csak a vendégek használják, viszonylag ritkán).Olyan is volt, mikor 1-2 éves plazmát (Panasonic 50UT50 vagy 50UT60, ami ~2012-es gyártmány, már nem emlékszem pontosan melyik volt, de először erre gondoltam váltani egy öregebb Panasonic G30-ról, mert ez volt épp eladó olcsón) cseréltem le egy ~6 éves plazmára (Pioneer LX5090H, avagy 9G Kuro, 2008-as gyártmány, amit kicsit túl drágán kaptam meg, mert nem akartam alkudozni, és úgy éreztem "ez kell nekem, kerül amibe kerül", pár év után hasonló módon vette meg tőlem egy hasonló vevő...).
Most pl. a C8->C9 csere szerintem nagyon megérte a HDMI 2.1 G-Sync miatt (már így is, hogy nincs még hozzá 2.1-es VGA, és 2.0 sávszélre, avagy 1440p120-ra van limitálva a mai kártyákkal 2160p120 helyett). A C7->C8 csere kevéssé volt indokolt. De szerintem az is jól meg volt indokolva, hogy miért nem vettem FHD, de akár még C6-os UHD HDR OLED-et se (azok még nem ütötték meg nálam a mércét az említett plazmák után, a C7 is határeset volt).
A lelkes felhasználóknak az a jó, ha minden évben van bármi kis fejlesztés, ami miatt cserélhetnek, ha akarnak, de nincsenek rákényszerítve sem. Az átlag vásárlónak csak az a fontos, hogy minél ritkábban legyen rákényszerítve, de TV esetén ez maga a kánaán, gyakorlatilag még ma is tudsz megfizethető módon üzemeltetni egy szürkeárnyalatos analóg CRT TV-t (olcsó kínai set-top-box és szobaantenna a földfelszíni digitális adáshoz, aztán SCART a TV-be... az már kérdés, hogy fogyasztás, szerelési költség, és élvezeti érték, stb szempontból economikus-e, de megteheted... akár Blu-Ray rip-et is nézhetsz analóg CRT TV-n olcsó lejátszókkal). De tippre elég kevés LCD éli meg a 10 éves kort jelentős javítási költségek, vagy idővel kialakult képhibák (pl. pixelcsíkok, durván inhomogéné váló háttérvilágos, stb) nélkül, a plazmákból is csak a jobb márkáknak van esélye (Pio, esetleg Pana, nem Samu vagy LG, itt a pixelcsík mellé feketén szemetelő pixelek jöhetnek be sokezer üzemóra után).
Szerintem kicsit ironikus ez, hogy mikor olyat olvas az OLED-ről az ember, hogy ne várjon tőle "örök életet", akkor hirtelen kritériumként jelenik meg, hogy "miért is ne!?!", pedig LCD-kre sincs több garancia, mint a szokásos (1-)2 év (esetleg 5, ha volt valami promóciós akció, de olyan is van néha OLED-re is) és azok el szoktak idővel romlani. A formátum alapú elavulás (pl. SDR->HDR) pedig ugyan az. -
janos666
nagyúr
válasz
stilo18
#37609
üzenetére
Nehéz kérdés ez, mert egy nagyon fényes fehér rosszabb lehet, mint egy sötét vörös. Alapvetően egyiknek sem kéne gondot okozni, csak ha nagyon sokáig van kint (több száz óra), vagy nagyon világos (a képen is magas érték, és a TV-n is jól fel van tolva az OLED Fény, vagy annak megfelelő kapcsoló más márkáknál), de még akkor sem percek kérdése.
Egyszerű single player játékokkal, legyen az akár egy 200 órás kampány egy RPG-ben, visszafogott TV beállításokkal nem kell nagyon félni, csak ha pl. online játék, amibe több éven át akár 1000+ órát is bele akarsz tolni, főleg ha nem csak éjjeli fényviszonyok közt, hanem nappal, és magasabbra tolt OLED Fény-el. Az szinte garantált, hogy előbb-utóbb beég úgy, akár egy éven belül, főleg ha rikító a HUD. De ha mondjuk szépen beleolvad a képbe (áttetsző, és a látványvilágra jellemző színeket használ, pl. zöldes szürkés), és közben másra is használod a TV-t, talán azzal is kihúzod, míg elavultnak fogod majd tekinteni a TV-t, vagy lecsökken a használt értéke annyira, hogy el tudod fogadni, ha selejtezésre kerül (elvégre mégis csak beletoltál több ezer órát, addig feltehetően élvezted, és utána is tökéletes lehet még az szerintem pl. TV adáshoz egy másik szobában, de pl. széles vásznú filmnél se fog zavarni egy fekete keretek helyére beégett játék HUD, szóval nem feltétlenül kuka még az úgy se azoknál sem, akik háklisan a hibákra) De egy példa: ha beleégetsz egy vörös csíkot a kedvenc online játékoddal a felső sarokba, azt játék közben sem fogod látni (nem veszed majd észre, hogy picikét halványabb az a csík), és filmnézés közben sem a fekete kereten, csak TV sorozatoknál. Szóval ha csak erre a kettőre használod, akkor nincs belőle gond. Ha pedig változatosabban használod, akkor nehezebben, később lesz csak fakulás. -
janos666
nagyúr
válasz
Robi BALBOA
#37569
üzenetére
Ez egy nagyon régi kérdés, ami túl későn kapott választ, így sohasem lesz már igazán tiszta. Már a küszöbön volt a HDR, mire megjelent a Rec1886, ami lényegében kimondta végre, hogy 2.4 az SDR decode gamma (valódi fekete mellett: [link], LCD-n kap egy korrekciót, a sötétszürkéket 2.2 felé húzva). A megelőző évtizedekben ez állandó hitvita volt. Volt, aki 2.2-re, volt aki 2.35-re, volt aki 2.4-re esküdött (a 2.35 azt hiszem a referencia szintűnek tekintett, régi Barco CRT monitorok méréseiből jön, ahol ez még nem gyári kalibráció volt, hanem egyszerűen ezt adta a fizika azzal a technológiával), és ezen szerintem már nem fog változtatni a korábban linkelt doksi (ha valaki 20 évig 2.2-t használt, emiatt nem valószínű, hogy még átállt, főleg ha mondjuk már amúgy is a HDR izgatta jobban, mint az SDR). Az is tovább bonyolítja most ezt, hogy azt hiszem sokan 2.2-t vettek alapul a HDR->SDR konverzióhoz is.
Én személy szerint a 2010-es évek nagy részében 2.4-et használtam filmre PDP-kkel sötét szobában (azoknak még nem volt ilyen jó tükröződésgátló bevonata), de az OLED-ek óta áttértem a 2.2-re és gyenge háttérfényre (mert az OLED fekete már nem világlik fel tőle).
HDR filmhez/sorozathoz viszont lelövöm a fényt, sötétben nézem. HDR játékhoz nem izgat ennyire, hogy elvileg pontos legyen, így akkor általában marad a gyenge lámpa.
Az LCD-ket a doksi megjelenése óta és ma is a Rec1886 szerint kalibrálom SDR-ra. -
janos666
nagyúr
válasz
renatto
#37555
üzenetére
Megnéztem a belső lejátszóval és PC-ről HDMI-n is a C9 v04.71.05-öt: a CalMAN-el kalibrált SDR Színház (1DLUT + matrix 3DLUT) és a csak ábrák/műszerek nélkül konfigurált (OLED Fény visszavéve és képjavítók kilőve) SDR Szakértő képmódban is egyformán tökéletes nálam a Fényerő=50.
Távolról csak 18-tól látszik villogni, de ha közel hajolok, és a kezemmel kitakarom a szemem elől a fehér feliratokat, illetve várok még egy kicsit, hogy újra alkalmazkodjon a szemem, akkor látni, hogy már a 17 is világít nagyon-nagyon halványan (a 16 és a 0 háttér pedig egyforma zajmentes full fekete).Miután megjött a legutóbbi két frissítés (LG és CalMAN is december végén), én reset-eltem a TV-t (a hagyományos felhasználói menüből "gyári beállítások vissza"). De nem ilyesmi anomáliák miatt, hanem mert még mindig (tehát a reset után is) pislog egy kicsit a kép a nagyobb frametime tüskéktől G-Sync mellett (játék alatt, mozgás közben nem látszik, de a töltőképernyőkön, mikor sok ilyen ingadozás van a nagy CPU terhelés miatt, akkor elég feltűnő, és sikerült már reprodukálnom játék közben is, ha direkt leterhelem a CPU-t a háttérben, és nem mozogtam a játékban, hogy lássam a kis fényerő ingadozást is).
Szóval, ha nem túl nagy macera, szerintem próbálj egy reset-et...Az viszont fura és nagyon kellemetlen, hogy az erősítő közbekötése is változtat a képen. Biztos, hogy passthrough módban van (kép tekintetében, nem mondjuk pl. Auto-n) az AVR? Persze lehet, hogy csak amiatt is változik valami, hogy a két oldal már nem közvetlenül egymást (TV, PC) látják, hanem az AVR processzorát (nézd meg, hogy átugrik-e magától más képmódba a TV, vagy azon belül a HDMI Fekete, illetve a PC-n változik-e automatikusan a formátum RGB/YCC, stb mikor átkötöd).
Ja, és még arra figyelj, hogy az ALLM is redukálja kicsit az árnyalatfelbontást. Ha 23.976Hz-re vált a PC film, vagy tesztvideó lejátszáshoz, akkor kikapcsol az LLM a nem-Játék (tehát bármi más, pl. Színház) képmódokon (de a Játék mód fixen LLM módban van).
Lehet, hogy ez is különbség, hogy erősítőn át nem működik az ALLM, de közvetlenül PC-re kötve igen.
Bár nálam emiatt sem kellene emelni a Fényerőt-t.De gondolom a VRR sem működik az AVR-en át, szóval amúgy is jobb lenne az eARC (ha működne már a TV-n az LPCM passthrough), vagy két külön HDMI kábel a PC-ből (én így csinálom, egy a TV-be, egy az AVR-be, kiterjesztett asztal, majd akkor gondolkozom el új AVR-en, ha jön LPCM frissítés a TV-re).
(#37553) krx21 - Szerintem bohóckodj nyugodtan a boltban (és ezt most szociális fóbiásként mondom).
-
janos666
nagyúr
Szerintem most próbáld meg visszatenni 50-re, és keress a menüben olyat, hogy HDMI Fekete Szint, azt állítsd át másra (ennek a megfelelőjét biztos megtalálod a TV-n, és valószínűleg a forráseszközön is, az elsődleges fontosságú dolog, hogy passzoljon a két oldal, az már szinte mellékes, hogy melyik páros lenne ideális).
-
janos666
nagyúr
Ki lehet bontani a TV hátán a csatlakozót (szerintem garanciavesztés nélkül, mert nincs matricázva, illetve nem sérül közben semmi), a másik irányból be tudtad volna húzni a kábelcsatornába, ha elég hosszú a gyári kábel (vagy lehetett volna készíteni hosszabbat olyan véggel, mint a gyári belső csatlakozója).
(#37440) chros
Nagyjából tudjuk, hogy a TV mit csinál. Nem kapcsol ott ki igazából semmi, marad a szokásos 1DLUT, csak semleges a 3DLUT -> ezért tippelgettem korábban, hogy a 3DLUT-ban van a "magenta hiba", főleg hogy akkor sem láttam a C8-on, mikor DisplayCAL-al készítettem 3DLUT-ot (szóval nem is hardware hibára tippeltem, hanem a szoftverre, ami a gyári 3DLUT-ot készíti). A C9-en gyári módban se látni (nem azt mondom, hogy tökéletesen néz ki, csak hogy nincs feltűnő magentázás), és most friss CalMAN-el kalibrálva (mátrix mód) sem zavaró (picikét magentás, de nem annyira, hogy feltűnne, ha nem direkt azt keresném).HDR10+DTM vs. DV, vagy sima HDR10 vs. DV összehasonlításra mondod ezt?
Ha már nincs két egyforma TV-d, akkor fényképezel, vagy csak oda-vissza váltogatsz?A Gemini anyag tudtommal 120fps, csak azt nem tudják nekünk ideadni szabványos BD lemezen, talán majd steaming-el (egyszer, valamikor).
(#37441) goccer
Van rá megoldás (madvr), de másik topic témája.
De a HDR mód nem fogja beégetni a tálcát, az SDR tartalom SDR tartományba van konvertálva (nem világosabb a HDR asztal 100-as OLED Fény-el, mint SDR-ban olyan durván 20-as OLED Fény-ig), amit tudsz még egy csúszkável is tologatni (fel/le, de szerintem egész jó az alapértéke).(#37470) SzlobiG
A gyári alapbeállítás általában azért kékes, mert az tűnik fényesebbnek, főleg a boltok polcain. Ennyi az egész trükk, hogy jobban kiverje a szemed a fénye, a legvilágosabbnak tűnőt keresik sokan a boltban. -
janos666
nagyúr
Én azt hittem, nincs is olyan, hogy DolbyVision PC mód.
![;]](//cdn.rios.hu/dl/s/v1.gif)
A DV egyrészt kapásból 4:2:0, a PC címke pedig, ahogy én néztem korábban (nem tudom, hogy a C8-on is próbáltam-e vagy csak a C7-en), a késést sem redukálja ilyenkor (csak a DV Game mód alkalmas DV játékra).
Azt még nem néztem, hogy a C9-en az ALLM mit csinál DV-vel, mert nem nagyon van mivel tesztelni (alig van DV-s játék, és a legtöbb hibásan működik a friss nV driver-ekkel, nem volt kedvem feltelepíteni egyet és lefagyasztani vele a gépet, csak hogy kipróbáljam
).Ja, és Gemini: Még csak beletekertem, és elsőre nekem is nagyon fura a 60fps "mozi". Már készültem volna töredelmesen bevallani, hogy nekem is fontosabb a megszokás, mint a minőség. Viszont mikor odatévedtem egy részhez, ahol elsütnek pár automata fegyvert, akkor azonnal "megvettek" azzal, hogy rendesen látszott a fegyver visszarúgása, a kirepülő hüvely és füst mozgása (igen, szeretem, néha szoktam lőni valódi félautomata fegyverrel lőtéren), a visszapattanó repeszek (ami valószínűleg hamis, de akkor is) repkedése, vagy később a lángok nyalakodása. Ezek tipikusan olyan dolgok, amik 24fps-ben szétkenődött diavetítések, de 60fps-ben már részletes mozgások. A közelharc is sokkal élvezhetőbbnek tűnik így (nem csak pár képkocka egy-egy karmozdulat, hanem látszik az ütés). Így mehet a kép közepén az "akció", nem csak a perifériára, vagy a képernyőn kívülre csalva az állandó kameraváltásokkal (ahogy pl. a Transformers-ben és Avengers-ben szokás). Egyszer biztos végignézem majd a teljesen filmet és szívesen megnéznék egy 120fps kiadást (hátha felkerül így Netflix/AmazonPrime-ra).
Bár azzal is egyetértek, hogy így sokkal szembeötlőbb az irracionális filmes trükközés is (pl. mikor a motorral zsonglőrködik). De szerintem kevésbé baj, mert ez csak motiváció, hogy csinálják ezeket szebben/hihetőbben, míg a valódi gyors dolgoknak (pl. elsülő fegyver) egyértelműen csak jót tesz. -
janos666
nagyúr
válasz
SzlobiG
#36874
üzenetére
0 élességgel és minden mást is kikapcsolva azt látod, ami az anyagban van. A TV adás, vagy online stream lehet, hogy túl alacsony bitrátával megy, és látod az élek körül a zajos blokkosodást, amit valamennyire elfednek a képjavítók, de nem az eredeti képet állítják vissza.
Minden anyag tömörítve jut el hozzánk, a felbontás pedig csak addig tekinthető igaznak, míg kellően magas a bitráta, egyébként elkezdi összemosni a szomszédos hasonló pixeleket a kodek egyforma blokkokká. -
janos666
nagyúr
válasz
daneel_hu
#36871
üzenetére
Ez attól is függ, hogy lesz gyakorlatilag kivitelezve. Ideális esetben több kapcsolóállást is kapunk. A 2:3 judder eltűnhet, és szerintem az lehetne legközelebb a "moziélményhez", ha 3x villanna fel minden képkocka, tehát 72 + 168 (világos+fekete), de HDR-hez a fordítottja lenne jó (ha ugyan így lesz megoldva, mint eddig, hogy redukálja a fényerőt, nem lesz "tartalék" a BFI nélküli módban, amit rátolhat BFI mellé). Szubebejtíven a vibrálás érzése és szokhatósága függeni fog a fekete és aktív idő arányától is, de a frekvencia növelése is segít.
-
janos666
nagyúr
válasz
Robi BALBOA
#36784
üzenetére
Erre nagyon jól ráéreztél: 10-ig anti-aliasing van, 10 felett hagyományos élesítés is. 0=Ki
-
janos666
nagyúr
válasz
Darth_Revan
#36350
üzenetére
Úgy érted nem újratömörített... A BD lemez is tömörített, otthoni felhasználó nem nagyon találkozik tömörítetlen videóval (és nem egyszerű bánni vele).
De ha hagyjuk a tömörítést, még a tömörítetlen videó sem "tökéletes", ha egy kamera vette fel, és aztán az általában kap még utómunkát, stb. Ami kvázi hibátlan lehet, az csak a szintetikusan generált tesztanyag (még a sima számítógépes animációs film sem mindig lesz az, mert függ a hozzá készített textúráktól, a későbbi feldolgozás minőségétől, stb). -
janos666
nagyúr
válasz
Darth_Revan
#36348
üzenetére
Ha jobb minőségű videóval jobb az eredmény, akkor a rosszabb minőségű egyszerűen teljesen alkalmatlan ilyen tesztelésre (az anyag hibáit látod, és a kijelzők közti különbség csak felnagyítja, vagy kicsinyíti azokat [ránézésre szubjektíven]).
Az összefoglalóban találsz linkeket szintetikusan generált 10bit anyagokat (gradiensek és hasonlók), nézegesd azokat is.... és ne felejtsd el, amit írtam. Ha belenyúlnál a képkockába, és a feketét kicserélnéd benne képszerkesztővel olyan világos szürkére, mint amilyen a valóságban jelenik meg az LCD-n, akkor az OLED-en is sokkal kisebb kontraszt különbséget látna a szemed, így nem lenne annyira éles az átmenet a legsötétebb tartalom és 0 fekete közt (így jobban egybemosódna a "háttér" és a sötét él, nem lenne ennyire nagy lépcső ott). Ez ilyenkor nem a kijelző hibája, hanem a tartalomé (és attól még, hogy 10bit kódolású, nem biztos, hogy effektíve 10bit minőségű is a kép, nincs tökéletesen zajmentes kameraszenzor és gondolom tömörített anyag, nem RAW-ból nézed, stb...).
Ezt valamelyest közelítheted azzal, ha egyszerűen feltolod a Fényerő csúszkát az OLED-en addig, míg a 0% fekete szemre kb. olyan világos szürke lesz, mint az LCD-n (bár ilyenkor a nem-fekete tartalom is világosabb lesz némileg, így nem olyan jó szimuláció, mint képszerkesztőben csak a feketét cserélni szürkére, de ha ezt eljátszod, akkor talán érted majd, hogy mire gondolok...). -
janos666
nagyúr
válasz
Darth_Revan
#36346
üzenetére
Játék, vagy Színház+ALLM módban sem kéne ilyennek lennie, ha nem a forrás hibája, de olyankor rosszabb az árnyalás, szóval nézz meg magas késésű módban is (ha tudod, akkor a TV saját belső lejátszójával, vagy válts PC-n 24Hz-re, hogy kikapcsoljon az ALLM és válts Játék-on kívül valami más módba a TV-n).
A 10 bites gradiens nálam vaj sima a C9-en magas késésű módban (és Játék-ban sem borzasztó, PC módban "elmegy" kategória).Szerintem az is erősen belejátszik, hogy az LCD-n ott van az egész mögött a "szürke háttér", míg OLED-en a fekete háttéren sokkal jobban kiéleződik a durva átmenet, így LCD-n a szemed szürke-szürke lépcsőt lát, míg OLED-en szürke->fekete lépcsőt, tehát sokkal nagyobb kontrasztban van egymással az átmenet két oldala . De ezt így nem tudjuk megmondani, hogy mi az igazság. Legalább 10bit anyag? De mindebbe bele fog tartozni az is, hogy ha LCD-n készült a kép, akkor aki csinálta, az sem látta, hogy abszolút feketével bíró kijelzőn hogy fog ez kinézni (szigorúan véve egy hibás kijelzőn készített olyat, amiről nem tudhatta hogy fog kinézni normális kijelzőn, amin van valódi fekete is, mikor behúzta az átmenete --- ha egy összegyűrt papírt fényképezel le, a sima papírra nyomott fotón is görbe lesz az egyenes, amit eredetileg hibátlan vonalzóval rajzoltak).
-
janos666
nagyúr
válasz
renatto
#36320
üzenetére
Képzeld ezt el valahogy úgy, hogy PC-n elindítod a Netflix app-ból a 4k HDR10 lejátszást, aztán egy másik programmal videó file-ba rögzíted a képernyőn megjelenő (nyilván dekódolt, így tömörítetlen RGB-ben hatalmas, ~10Gb nagyságrendnyi sávszélességű) tartalmat (mint ha egy videójáték végigjátszást rögzítenél, vagy egy oktatóvideót arról, hogy rajzolgatsz asztalokat AutoCAD-ben, maszatolod el a szemráncod PhotoShop-ban, stb). Ilyenkor abszolút lényegtelen a forrás formátum bármely paramétere, csak az szabja meg az új "rip" formátumát, hogy a "képlopó" program (vagy capture card) milyen formátumba képes kódolni (tömöríteni), és a felhasználója mit vélt ezen belül ideálisnak (akár maga a rögzítés, akár a későbbi használat szempontjából, próbálhatott optimalizálni minőségre, lejátszóeszközzel való kompatibilitásra, minél kisebb méretre, vagy lehetett egy idióta, aki csak next-next-finish "jóleszazúgy" Vérpitike mód bökött rá valamire, nem tudjuk).
Persze ez egy példa, ha SDR lesz a "rip", akkor érdemesebb lenne SDR-ban indítani a lejátszást. De ez is a felhasználó döntése, ha ő a HDR anyagból akar SDR-ba konvertálni, akkor megteheti. Ugyan úgy, ahogy H264 forrást képét is tömörítheti újra H265-el, vagy fordítva. Triviálisan egyedül az nem megy, hogy SDR-ból HDR-t csinálj, vagy 2k-ból 4k-t (vagyis megpróbálhatod auto-konvertálni, de az hamis HDR lesz, mint a TV-k "HDR Effect" módja).
Ez a "rip", a "DL" pedig, mikor leölti a Netflix progi a gépedre a file-t, és azt "lopod el", vagy valahogy magát a valós idejű stream-et másolod le bitről bitre (ezt nem szükséges újrakódolni, de persze ha sikerült decypt-elned, akkor megteheted, mint bármi más videó file esetén).
Persze nem ilyen egyszerű ez a másolásvédelmek miatt, de a lényege ez (arra nézve, hogy miért lehet más a kodek, bitráta, felbontás és más paraméterek).
Szóval... A lényeg, hogy a "rip" NFO-nak semmi köze ahhoz, hogy mi van a Netflix-en (mit kap a becsületes előfizető), de még a "DL" sem ad teljes képet, mert a Netflix többféle formátumot is felkínál az előfizető eszközeinek és net sávszélességének függvényében (illetve általában jobb minőséget, fejlettebb formátumokat tudsz kapni online stream-ből élőben, mint ha előtöltöd a gépedre).
-
janos666
nagyúr
válasz
Akhilles01
#36279
üzenetére
Nem tudom milyen megfontolásból van ez (license jog, másolásvédelem...?), de ír valami olyat az oldaluk, hogy az előtöltés korlátozott minőségű lehet (ahhoz képest, amit legfeljebb --- persze aktuális netsebességtől is függően --- real-time online kaphatsz).
Ha pedig esetleg torrentről töltöd le, az megint egy más tészta, hogy mit mentettek le a kalózok. -
janos666
nagyúr
válasz
renatto
#36231
üzenetére
Játékhoz szerintem ez az ideális, főleg ha van a játékmenüben külön csúcsfény kalibráció (általában van, de annak hiányában is ezt mondanám jobb tippnek).
Filmre már nem annyira javasolnám a Játék módot a 9-es szérián (mert az fixen olyan módban van, mint a többi ALLM-el, ami egyébként kikapcsolna 24Hz-hez), mert kicsit rosszabb az árnyalatfelbontás és itt már inkább ízlés kérdése (a studio monitorok is így hard-clip módban működnek, de a consumer TV-khez roll-off az ajánlás). Viszont ha leteszteled Játék módban filmre, hogy neked melyik tetszik (csúcsfény kezelés szempontból), akkor be lehet állania a kalibrálható képmódokra is, hogy így működjenek (CalMAN mellett van a LightSpace DeviceControl-hoz ingyenes a tone mapping template: [link]).
(#36236) Darth_Revan - Nem kell hozzá a Játék mód, elég az UHD DC (erre magától is átvált a TV, ha NVCP-ben olyan felbontást választasz, ami enélkül nem menne), és tedd fel innen a legújabb FW-t, ha nem találta meg magától a TV: [link] (bár nem vettem észre semmi változást, de ez már hivatalosan is G-Sync Compatible)
-
janos666
nagyúr
válasz
renatto
#36226
üzenetére
Játék mód (ALLM nem hozza elő), Dinamikus Tónusáthelyezés, 3. opció: HGIG
Ha átkapcsolsz, húzd be újra a "mikor válik egyformává ez a két téglalap" kalibrációt a játékmenüben, ami így már helyesen fog működni (ha most megnézed a Frostbite developer console-ban a Render.DisplayMappingHdr10PeakLuma paramétert, akkor ~700 nit jön majd ki, ami a WOLED valós csúcsa, nem 1000+, ami 10k metadata mellett adódik a roll-off görbével együtt).
Új hozzászólás Aktív témák
- Fejhallgató erősítő és DAC topik
- AI, GitHub Copilot, Claude, Gemini
- ASUS notebook topic
- OLED monitor topic
- Ilyen olcsó sem volt még egy Apple notebook
- Motoros topic
- Viccrovat
- Modding és elektronikai kérdések
- Fortnite - Battle Royale & Save the World (PC, XO, PS4, Switch, Mobil)
- Sony MILC fényképezőgépcsalád
- További aktív témák...
- Lenovo ThinkPad T14s Gen 6 Ryzen AI 7 PRO 350W Radeon 860M 32 GB RAM 7500 MT/s 512 GB 3év gar
- ÁRGARANCIA!Épített KomPhone Ryzen 5 7500F 32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
- Alkalmi vétel!Csere-Beszámítás! Csak tesztelt HP Omen 16! R9 8940HX / 32GB DDR5 / RTX 5060 / 1TB SSD
- Samsung Galaxy A20e / 3/32GB / Kártyafüggetlen / 12Hó Garancia
- ÁRGARANCIA!Épített KomPhone i5 12400F 16/32/64GB RAM RTX 5070 12GB GAMER PC termékbeszámítással
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
). A B-k inkább alulról, a C-k felülről szokták nyalni HDR-ben 700nit-et (pl. 680 vs. 720, stb). Nagyjából ezzel arányos a csúszka többi pontja is, de ott lent 100nit körül ez tényleg 1-2 pöccintés fel/le a ~20 környékén, szóval nem igazán szignifikáns, majdnem a véletlen szórás mértéke: B-ből is volt, ami 700nit fölé ment és C-ből, ami picivel alatta állt meg, de az a ritkábbik.![;]](http://cdn.rios.hu/dl/s/v1.gif)

Szerencsére ez engem nem szokott zavarni középről. Mint ha a 2017-eseken még zavart volna kicsit, de 2018 óta nem.
).
, vegyél 55"-ost bármelyikből! 

Bocs mindenkitől.

Vhiktor