Keresés

Új hozzászólás Aktív témák

  • janos666

    nagyúr

    válasz belan #13132 üzenetére

    Én szerintem még egy filmet se láttam, ami ne DCI-P3 gamut-ra lett volna master-elve, amit lényegében jól lefed az OLED is, szóval a QLED-en is max videojátékokban vagy "helytelen" beállításokkal látsz élénkebb színeket.

    A W alpixel nem egészen úgy működik, ahogy sokan képzelik elsőre (én is tévhitben éltem, míg alaposan körbevizsgálgattam a gyakorlatban): az LG mindig a fényességet áldozza fel, sohasem a szaturációt csökkenti, csak az jelenik meg a W-vel támogatott régióban, ami eleve oda esik a forrásban is (nagyon fényes de nem túl szaturált), a többi fényesség értelemben van "tömörítve".

    Bár a "rétegelt" DolbyVision Blu-Ray kiadványoknál csak a HDR10 réteget tudom megnyitni PC-n (és amennyire tudom -bár még nem próbáltam- a TV belső lejátszója sem tud mit kezdeni ezzel a rétegzett témával, mert ez már másolásvédelmi probléma is), de szinte kizártnak tartom, hogy az a színteret is bővítené (úgy őszintén igazából szinte fogalmam sincs, hogy gyakorlati és szignifikáns értelemben mi a f@szt rak hozzá még úgy igazából a HDR10-hez az az extra DV réteg, mert ... szerintem jelenleg kb. csak arra jó, hogy a Dolby begyűjthesse a jogdíjakat és bonyolódhasson az egész HDR szabványháború :o).

  • janos666

    nagyúr

    válasz EgySrac #12950 üzenetére

    Á, hagyd, sohasem lesz elengedve. :(
    Egyrészt mindig is össze lesz mosva az átmeneti és tartós képvisszamaradás.
    Másrészt, ha van rá bármi racionális esély, hogy egy viszonylag szélsőséges, de még életszerű használat mellett hamarabb összejöhet egy beégés, mint ameddig legfeljebb használni szeretné/tervezi a potenciális vásárló, mindig félelem fogja övezni.

    Ezzel kapcsolatban az egyik észrevételem, hogy a plazmáknál is mindig azok féltek legjobban a beégéstől, akik nem is szélsőséges módon használták őket, és mindig elcsábultak, kb. évente cserélgették (volt mikor a generációváltás után a jobb képminőségért, volt mikor nagyobb méretért, volt mikor "csak úgy" egy modellévben azonos méretben a magasabb kategóriába másztak).

    Olyat pedig még ugye sohasem látott senki, hogy LCD TV-n a garancia lejártát követő 1-2 évben úgy szétnyúlik a panel háttérvilágítása, hogy még egy, a mi szemünkben "igénytelen" átlag felhasználónak is zavaróvá válik, majd ha a használt értékének a feléért megjavítják neki sufni-barkács szervízbe" bontott alaktrészből, akkor másik ~1 éven belül teljesen tönkremegy (vagy megint a kijelzőpanel, mert eleve lestrapáltra cserélték, vagy most változatosság kedvéért a táp kinyír majdnem mindent...). Ami elvben mehetne akár "örökké", de gyakorlatilag ugyan úgy "bármikor" tönkremehet, az sokak szemében örök, míg ami elvben nem megy el a világ végére hatszor, az már el se induljon egy világ körüli kalandra.

    kissa1026

    Vagy ha találsz épp olcsón, akkor egy használt plazma. Több év után abba is beleéghet a csatornalogó, ha egész nap világosra húzva megy, de ilyen jellegű használatnál nem zavaró.

  • janos666

    nagyúr

    válasz Ren Hoek #12918 üzenetére

    Azért az LG TV-s részlege szerintem tényleg főleg az alsó-, szórványosan a középkategóriákba optimalizálta a kínálatát (annak idején a PDP-ikkel is, nem csak az IPS LCD-kkel), és csak a balekokra vettette ki a hálót az árban magasra pozicionált modellekkel (amik lényegében a szerény-közép hardware-ek voltak magas árcímkével), csak néhány éve volt náluk valami pálfordulás ezekkel az OLED-ekkel, hogy ezt már mégsem kéne úgy elmajomkodni, hanem próbáljanak meg valami épkézláb készterméket összerakni, ami a végfelhasználónak is tényleg felsőbb-féle kategóriás élményt nyújt, nem csak a pénztárig, hanem otthon is (és ne csak a partnereik, mint Pana és Sony csináljanak drágább és jobb készterméket a tőlük vett kijelzőpanelekkel, hanem ők maguk is).
    Főleg a 6-os szérián látszott, hogy sokat fejlődött szoftveresen, de még a 7-es is látványosan szintet lépett a Technicolor-os frissítésben. Szerint azóta vannak úgy tényleg abban a minőségkategóriában a 7-es OLED-ek, mint amit az áruk sejtet. Szerencsére úgy tűnik még mindig hajtja őket ez a hév (idén BFI és programozható 3DLUT, stb), remélem kitart még pár évig (aztán ahogy lenni szokott, majd jól ellustulnak, mint legutóbb a Samsung, miután kinyírta a maradék plazma piacot a viszonylag jó olcsó D és E szériákkal, míg nyomatta az LCD-it és természetes módon is leáldozott a PDP-nek az UHD HDR miatt is, de végül ott maradt letolt nadrággal árulni a méreg drága Q-dot LCD-it az LG WOLED-jei mellett...).

  • janos666

    nagyúr

    válasz allein #12805 üzenetére

    Vak tippre talán nem próbál váltani: ha egyszer már látott hálózatot (főleg ha még netet is) az ethernet interfészen, akkor nem próbálkozik a wireless-en (vagy fordítva), esetleg a router-ed DHCP szervere is közrejátszhat ebben (nem egzakt hiba, csak véletlen inkompatibilitás szinten), ha pl. a TV ugyan azt az IP-t próbálja megújítani másik MAC-ről (és sok hasonló apróság, ami felmerülhet, ha több fizikai interfész is van egy eszközön, ami ugyan arra a hálózatra csatlakozik).

    Nem vagyok ezotéria guru, de vak tippre a WiFi sokkal többet árthat, mint a kábeles switch, de ez ügyben konzultálj valaki mással.

    Ezek a TV-k általában nem teljesen kapcsolnak ki, csak "alszanak", szóval ha berakod és kiveszed ebből a standy módból, az még nem egy "reboot". Ahogy néztem a C7 akkor sem mindig reboot-ol ilyenkor, ha kikapcsolom a menüben a QuickStart+ opciót, bár itt ugye trükkös a dolog a ~1 órás kompenzációs móka miatt is (addig teljesen jogosan van "aktív készenlétben"). -> Ez csak arra írom, hogy a hálózati problémákat sem feltétlenül orvosolja egy gyors standby módba rakás és visszahozás.

  • janos666

    nagyúr

    válasz allein #12803 üzenetére

    Ragaszd le egy csík fekete szigetelőszalaggal a switch LED-jeit és hagyd online...? :U

  • janos666

    nagyúr

    válasz janos666 #12713 üzenetére

    Jah, az maradt ki, hogy ez 1000 nit metadata. Ha magasabb ez az érték (4k vagy 10k), az nekem sem tetszik.

    Több korai PC-s HDR játék használ 10k-t (talán pusztán azért, mert eszükbe sem jutott, hogy a szabvány elméleti maximuma helyett valami racionálisabb értéket állítsanak be), viszont a Win10 1709 (RS3) és az újabb (390.xx óta) nVidia driver-ekkel az NVAPI is elkezdte felülírni ezt az értéket önkényesen 1k-ra, így ha ma elindítok egy játékot PC-n, az nem túl sötét ().

    Konzoloknál lehet, hogy rosszabb a helyzet. Bár ott meg kevésbé szabadna elnéződnek lenni, ha hülyék a készítők (PC-n jobban lehet egymásra mutogatni, hogy Microsoft, VGA gyártók és driver-eik, user error, stb, míg konzolon elvileg minden "tökéletes harmónia" lenne, mert egy féle hardware, egyféle API...).

    De az ettől még érvényes, hogy nincs ilyen tekintetben különbség a Cinema és Game mód közt, szóval ha az egyik nem tetszik, a másik sem fog, de szerintem egyikkel sincs gond 1k master-eknél. Filmeknél is gáz viszont szerintem a 4k-s master, főleg ha tényleg elmegy 1k fölé a tartalom (és akkor csúnya foltos lesz ha 1k-nak hamisítom meg a metaadatot, bár ilyet keresve kell találni).

  • janos666

    nagyúr

    válasz #72042496 #12711 üzenetére

    Pedig C7-en egy szemernyit sem sötétebb a HDR/Game, mint a HDR/Cinema. Legalább is kikapcsolt Dinamikus Kontraszt kapcsolóval. Ha ezt Low-ra álltod, már valóban más lehet a történet, de eleve nem tartom kiszámíthatónak ezt a funkciót (mikor mennyire és miképp dinamikus....). Ez most v04.70.85, de nem vettem észre változást a Technicolor frissítés óta (ami már több hónapja, azt hiszem még tavaly volt):

    Ugyan ez számokkal (cd/m^2, 5,10,15...100% szürke):

    Cinema OFF 0 0.051664 0.430187 1.183192 2.472899 4.852107 9.173598 17.899037 32.885429 62.521862 106.127648 166.839095 270.422219 428.203712 620.813139 663.569155 674.052208 685.098174 706.283475 709.963519 711.031626
    Game OFF 0 0.054306 0.432142 1.173920 2.444530 4.760566 8.949318 17.463612 31.877572 60.180627 103.399401 162.498975 263.088070 416.191238 614.165982 659.371239 669.859430 681.873072 703.088935 706.465424 707.239083
    Cinema Low 0 0.216830 0.626191 1.620215 3.566663 7.663947 15.775858 29.722297 58.374050 104.587716 169.224627 259.321421 405.105919 540.059652 605.599074 680.174543 689.467560 694.787164 705.899617 708.971529 709.886311
    Game Low 0 0.018494 0.383186 1.176707 2.588239 5.165528 10.036444 19.862879 36.408250 69.426892 114.305325 179.284762 289.449497 439.336976 618.720699 660.864131 670.689077 681.843049 702.451438 706.175779 706.707519

    Ha egyformára állítom be a Cinema és Game módot (a W50 a Warm2 fehér, és értelem szerint kikapcsolod mindkettőben azt, ami esetleg be sem kapcsolható valamelyikben), szemre sem mondom meg, hogy melyik melyik. De igazából még mindkettőben bekapcsolt Dinamikus Kontraszt-al sem feltűnő, ha kapcsolgatok köztük, csak annyi látszik, hogy mindkettő világosabb ezzel, mint enélkül, de hogy melyik mennyire, az ezer dologtól függhet (mikor hogy esik és puffan a dinamizmus, a fene tudja miket vesz figyelembe).

    A C7 is tud 1080p120-at, bár csak SDR-ban, és 1440p120-at úgy sem.

    Az LCD kontraszt pedig szeirntem is abszolút stagnál egy évtizede, fel-le mászkál, volt az már közelebb is 10000:1-hez, csak a válaszidő árán (minél magasabb, annál lomhább, annál jobban csóváz BFI nélkül, vagy akár azzal együtt is, ha nagyon lassú és pl. 60Hz-et nem tudsz 16ms-től magasabb válaszidővel hozni, de ha 50/50 BFI-t akarsz, akkor 8ms kéne. egy lomha VA panel lehet 30-40ms is...)

  • janos666

    nagyúr

    válasz dgyuri0123 #12696 üzenetére

    Attól is függ mivel hasonlítod össze.

    PDP és PDD közt is elég nagy különbség van mozgáskor. A Panasonic "be szokta gyűrni" a mozó éleket (és még a fényesség is változik a sötétszürkéken mozgáskor, mint egy PVA LCD-n), a Samsung végig egyformán közepesen zajosan néz ki (de soha nincs olyan "zajos kontúr", mint a Panaosnic-on), a Pioneer pedig végig csak minimálisan zajos (ezen táncolnak leg finomabban és dinamikusan a zajminták, amiket nem zavarja meg túlzottan, ha követi a szemed a mozgást).

    Ugyan úgy LCD és LCD sem egyforma. *VA paneleken néha a viszonylag agresszív BFI sem tudja teljesen elfedni az LCD-re jellemző "csóvázást" a nagy kontrasztú élek körül (mert egyszerűen tovább tart váltani, mint az egy képkockára eső idő, így lehetetlen, legalább is 50-60Hz-en, de főleg felette) és a BFI-t is különbözőképp szokták csinálni (van ahol CRT-t imitálnak és sorról-sorra frissítenek, vagy ahogy a teljes képkocka egyszerre vibrál, és van ahogy pl. 24fps 72Hz-en, van ahogy 96 és van ahol 120Hz-en villog, ez mind másképp nézhet ki...).

    De ha nem játszol, megértem. Nekem mindig játékra volt igazán mániám a plazma féle mozgás, vagy a BFI. Filmhez nekem sem hiányzik. ;) (De akkor még ideteszem, hogy mániákusan kikapcsolom a blur effektet játékokban, ami általában defaul ON, szóval legtöbbeknél mindig blur-os a kép játékokban is, főleg ha XBone-on vagy PornStation-ön ki sem engedik kapcsolni...) De játékra is nyilván még jobb a natív >>60Hz, mint a 60+BFI, csak hát az még "drágább" és ma gyakorlatilag elérhetetlen OLED-en és/vagy 4k HDR-el együtt.

  • janos666

    nagyúr

    válasz Joshi #12690 üzenetére

    Szerintem folyamatában legalább közvetve válaszoltam végül mindenre, ami nem olyasféle kérdés volt, mint a "Mennyi a majom?", de terveztem folytatni. Már tegnap elhatároztam, hogy ma megismétlem a tegnapi fényképezkedést kicsit másképp. -> Lásd lentebb. Gondoltam ez majd eliminál pár kérdést.

    Már hogy készültek volna a képek szemből? Pontosan a két TV közti kis síkba nézett (a kereső kis + alakú célkeresztjéből a vízszintes sík metszette a két kijelző közti hézagot).

    Úgy van most az LG, hogy a fotelben kiegyenesedve ülök, függőleges értelemben kb. középen van a szemem (így ülök, ha netezek, játszok, "dolgozom", stb), de ha film vagy játékátvezető videó megy, akkor néha lecsúszok a fotelben úgy, hogy már szinte fekszem. Ilyenkor már látni, hogy a képernyő teteje kezd zöldülni. Mikor már szinte kiesem a fotelből (olyankor szoktam felkelni és csinálni valami mást, mert láthatóan untat a gép), akkor csak kicsit van magasabban a fejem, mint a képek készítésekor volt az objektív.

    De így talán érthetőbb a vízszintes síkban ferdén nézve (ez mind a C7):

    --->>>

    <<OO>>

    <<<---

    Amúgy abban igazad van, hogy a magnós képen valamennyire zöldes eredetileg is a papírtekercsek felé a háttér, és csak a fénykép az, amin már csak úgy jön át a dolog, hogy az LG-n túl zöldes (erősen feltehetően még zöldebb, mint kéne), a Pio-n pedig kevésbé zöldes (szinte már nem is látni, hogy enyhén zöldes lenne, de ehhez a fénykép is "csal", szabad szemmel enyhén zöldes a plazmán is).

    Na, de itt a második felvonás... A szitokszóvá vált Kuro helyett az évtized hajnalán nyávogó hipszterek igazi igáslova: Panaszkodik G30 (az első igazán jó Pana plazma, ami ráadásul megfizethető is volt [a Pioneer-hoz képest mindenképp, de ma is az OLED-hez képest, a G széria nem is a csúcsmodell, de személy szerint abból az évből jobban szerettem, mint a VT30-at]).

    --- Hoppá, elfelejtettem lámpát kapcsolni, de remélem elhiszitek, hogy Pana G30 van alul akkor is, ha most nem látszik a káva. Ha nagyon kell, megint visszacipelem és lefényképezem úgy is, hogy látszik a márkalogó. :B

  • janos666

    nagyúr

    válasz dgyuri0123 #12688 üzenetére

    Nyilván az is erős pozitívum az OLED-en, hogy ditherzaj nélkül keveri az árnyalatokat, amitől élesebb/részletgazdagabb hatású a kép, de ez csak állóképen jön ki igazán. Mozgóképen már mit sem ér, mert jön blur. Illetve igen, OLED-en is van már BFI, de az sem tökéletes, olyankor is veszít annyit a kép az élességéből, hogy a kis ditherzíj már nem látványos hátrány (főleg filmen, amin általában eleve van blur már a forrásban, vagy esetleg maszatol a tömörítés is, elsőre inkább játékokra gondolok ilyenkor).

  • janos666

    nagyúr

    válasz dgyuri0123 #12671 üzenetére

    Neked lehet, hogy összemostam a kérdésed és az azt követő megjegyzésed. :B

    Ha a "barnásabb a kelleténél"-el arra reagáltál, amit az első hsz-em végén írtam (az OLED megtolja kicsit a vöröset), akkor elvileg persze, lehetne. De ez a Pio 9G a legtöbbet tesztelt TV. Ezerszer kimérték ezren, hogy jól keveri a színeket. A megjelenését követő néhány évben mindenki azt akarta bizonygatni, hogy "XYZ már legalább olyan jó, vagy még jobb", mely vita a további pár évben végül úgy halt el, hogy feladták a hasonlítgatást és lehurrogták azokat, akik még mindig felemlegették a Kuro szót, hogy engedjék el a múltat, már nem kíváncsi rá senki (mint ha attól elromlana a Kuro-k képe, vagy megszépülne a WLED LCD-ké, [ami akkor nagy divat volt], hogy ráuntunk a felemlegetésére --- ez mindig jól szórakoztatott, rávilágít pár dologra az emberi természetünkből és a társadalmunk hasonló kérdésekhez való hozzáállásáról :D).

    Mindazonáltal egyébként az OLED után személy szerint már nem lennék elégedett a Pioneer PDD kontrasztjával. A jobbat mindig könnyebb megszokni, és engem sohasem vigasztalt olyasmi, hogy másnak van sokkal rosszabb is, és őket akár még az sem zavarja (pl. IPS LCD "fekete"). Most is azt nézegettem, hogy milyen vicces, hogy mennyire el voltam ájulva tőle régen, mikor az volt a legjobb (és sokkal jobb, mint a második a sorban mögötte), de most visszanézve az OLED mellett nem is olyan jó már (feldereng a fekete). :))

    A válaszod második mondatára visszatérve, a beszúrt fénykép az LG tükröződésgátló bevonatának hibáját lett volna hivatott bemutatni, hogy az miként zöldít már így is, hogy csak viszonylag kis szögben eltolva nézett rá a fényképezőgép (a két TV közé nézett, hogy egyforma szögből lássa a kettőt). Ezt lehet, hogy többen félreértettek. Ezt pedig azért ha bármennyit is hisztek a szavaimból, akkor itthon egyszerűen tudom igazolni a dolgot, hogy mi a "helyes", mert mindkét TV-t tudom nézni pontosan középről és ferde szögekből is, és látom mi mikor merre torzul, ahogy mozgatom a fejem...

    U.i: Az első képek egy Olympus ELP1-el készültek, csak a Ph fórumos ment a Galaxy A3 telefonnal, mert már elpakoltam a másikat.

  • janos666

    nagyúr

    válasz Joshi #12682 üzenetére

    Mert teljesen irreleváns, de tessék (HA warezolnék, ezt tölteném le ;) ;) ;) ):
    Fear.and.Loathing.in.Las.Vegas.1998.1080p.BluRay.Remux.VC-1.DTS-HD.MA.5.1.HUN-GS88

    Ha film helyett egy játékmenüt mutatok, akkor arra mi az analóg kérdés? [kép]
    Most már tényleg érdekel. Megkérdezed, hogy a Steam-en vagy Humble Store-ból vettem? :))

  • janos666

    nagyúr

    válasz Joshi #12680 üzenetére

    Akkor szerintem csak nem érted mi történt: PC-ről ment ki a kép klón módban, tehát mindkét kijelző pontosan ugyan azt a képet kapta. De akkor is ugyan ez állt volna fenn, ha mondjuk lett volna két egyforma medialejátszóm a két TV-re kötve. Csak akkor lehetne baj, ha problémás a videó és másféle lejátszók másképp értelmezik, pl. ha mindkét TV-vel hálózatról játszottam volna le a beépített lejátszókkal.

  • janos666

    nagyúr

    válasz Joshi #12676 üzenetére

    Az a baj, hogy általában homogenitásban se. A professzionális monitoroknál külön kompenzálás megy. Egyesével lefényképezik a paneleket és pixel szinten hozzátorzítják a képet (ami persze tovább rontja a kontrasztot). Na meg ott van még az "IPS glow" is, hogy ferde szögből felfénylik a "fekete".

    Release: De ha ugyan az a tartalom megy két TV-re, akkor teljesen mindegy. Ha Duke feje végig hupikék lenne, akkor mindkét TV-n kéknek kéne lennie. Amúgy meg nem szoktam újrakódolt cuccot letölteni, ha van alternatíva.

  • janos666

    nagyúr

    válasz dgyuri0123 #12671 üzenetére

    Igen, valószínűleg azért homogén az alsó kép és csak a sarkok felé közeledve zöldül el a felső, mert az alsó a hibás. :DDD

    Nagyobb szögből néha vörösít is, de életszerűbb használat közben az nem szokott előjönni, csak a zöld itt-ott (amin feltűnő, mert nem minden tartalomnál az).

    (#12674) Joshi
    - Tudom, a Panasonic OLED se ilyen. Az volt a legelső, amitt megállapítottam róla (ráadáősul pont erősen ferde szögből láttam meg, épp úgy nyílt rá az ajtó, hogy egyenesen besétálva pont elmész a TV mellett).
    - De IPS? Ne káromkodjunk itt kérem. ;] (Sok LG IPS panelen több a "beépített" inhomogenitás, mint amit ez a bevonat csinál. Persze van aki nyer a lottón.)
    - Ez érdekes, nem tudtam, hogy több is van. De relatív különbségekhez mindegy, míg ugyan az megy mindkettőre. Ez egy színes film, ami véletlenül sem realisztikus, de még mindig életszerűbb, mint a szintetikus tesztábrák...

  • janos666

    nagyúr

    Kicsit félve teszem fel a kérdést, mert nem akarok bogarakat ültetni az agytekervényekbe, de rajtam kívül zavar mást az LG bevonat zöldessége?
    Szinte tökéletesen a képernyő közepéhez esik a szemem, mégis látom néha, akár csak ha fészkelődöm a fotelben. De ha nem is középről nézzük, akkor már egész durva tud lenni, pl.:

    Ezt leszámítva viszont nagyon elégedett voltam, mikor ismét alá tettem a Kurot. Mikor megvettem, még nem volt ennyire hasonló a képük, jót tett neki az a Technicolor frissítés (a kalibrált ISF módnak is). A vöröseket még mindig túlnyomja picit itt-ott és tesztábrákon nem tetszik a citromsárga, de akárhova tekergetek színkavalkád filmekben (mint ez a Fear and loathing), ott nem látom.

  • janos666

    nagyúr

    válasz TBMC #12641 üzenetére

    Az első pár napban szerintem hanyagold a HDR vagy magas OLED Fényes SDR-t, és az első egy-két hétben a HUD-os HDR-es játékot, mert ha komolyabb gond nem is lesz belőle, de lelki problémákat okozhat, hogy ilyenkor még könnyen látható IR (képvisszamaradás), amire később kevésbé tűnik majd hajlamosnak.

    Én nyár óta használom PC monitornak, többnyire 20 körüli OLED Fény-el SDR-ban, de közel 100 órát játszottam vele HDR-ben (Game mód, 100/100) HUD-al mindennel. Ki van kapcsolva a pixelcsúsztatás és a szervizmenüből az SABL is. Egyelőre semmi gond. SDR-ban sohasem láttam számottevő IR-t és HDR-ben is csak az első hetekben, mikor még direkt nézegettem (kerestem az IR-t), illetve a HDR-t is csak tesztelgettem még (szóval volt hogy kint állt a játék képe mereven, míg a menüt turkáltam, stb).

  • janos666

    nagyúr

    válasz TBMC #12638 üzenetére

    Hát ez az. Kifizettél érte ennyit, most már használd élvezettel, ahogy neked tetszik, ne fog vissza magad féltésből. Ne vegyél sportkocsit, ha sohasem mered padlóig nyomni a gázt... vagy tartsd a garázsban...

    Használd, ahogy neked tetszik és ennyi. Ettől függetlenül én 20-40 közti OLED Fény-t javaslok (éjjel/nappal) SDR-hoz, a HDR-t hagyd 100/100-on. De nem a TV miatt, a szemed, illetve "személyi komfort" miatt.

  • janos666

    nagyúr

    válasz TBMC #12636 üzenetére

    "mit, hogy érdemes állítani [...], hogy a kijelzőt is kímélje"
    Power -> Off

    ;] :P

  • janos666

    nagyúr

    válasz Partizan182 #12607 üzenetére

    Nem. Én is így gondoltam erre régen, mint te, de egyszerűbb és jobb. Persze nem tudom pontosan mit csinál, de ahogy elnézem, azt úgy próbálnám meg elmagyarázni, hogy:

    1: leszúrja a az x,y chroma koordinátát a lehető legközelebbi pontra
    2: megkeresi a lehető legközelebbi Y luma koordinátát (és kész, vége)

    Nem csinál olyat, hogy arrébb tolja az x,y-t csak azért, hogy jobban passzoljon az Y. Nem áldozza fel a chroma-t a luma oltárán Az a vegyes W-vel toldott rész ott van, hogy ha valami eleve oda esik (eleve egy fakó, de világos szín), ott megjelenjen, de nincs semmi oda beletolva máshonnan.

    A túl világos élénk piros nem világos fakó pirosként jelenik meg, hanem sötét élénk pirosként. A fakó világos piros viszont fakó világos pirosként.

    Mondom..., egyszerűbb az egész, de nem is baj, az így jobb szerintem.
    Felejtsd el a W-t, nem az a baj. Képzeld el, hogy nincs is W. Amúgy a szervizmenüben ki is kapcsolhatod a W-t (Module HDR: Off) tesztelésre (ez nyugtatott meg végül teljesen a W felől, miután ezt is kipróbáltam).

    Annyi az egész, hogy az RGB világában sem tökéletesen számol.

    Képzeld el talán úgy, hogy nézel egy fényképet PhotoShop-ban, és tologatod a Kontraszt/Fényerőn csúszkákat. Tőled balra egy prof. monitoron azt látod, hogy csak a fényesség változik, de a szín marad, a jobb oldali vacak belépő szintű monitoron azt látod, hogy mászkálnak a színek is össze-vissza, mert a monitor az elvileg azonos színű, de más fényerejű pontot másképp és másképp torzítja, más-más véletlen hibát rak rá szín értelemben attól függően, hogy milyen világos.

    Na, szerintem ez van, csak itt a Dinamikus Kontraszt tologatja a csúszkát. Átállítja a fényességet, amitől másfajta kis random hibát kap a szín. Ettől néz ki úgy, mint ha eltolná a színt is, de az a hiba mindig ott van, csak mindenhol kicsit más. De teljesen tökéletes soha nem is lesz semmi, csak az a lényeg ne legyen feltűnő a hiba, de ez is szerintem csak ilyenkor feltűnő igazán, ha ugyan azon a kijelzőn tudod így hirtelen váltogatni az állapotokat.

  • janos666

    nagyúr

    válasz Partizan182 #12603 üzenetére

    Én itt nem is annyira a W pixelre gyanakszom. Régen alapfelvetésben én is arra akartam fogni minden LG OLED színkezelési anomáliát (vélt vagy valós), hogy amiatt fut zátonyra a szekér (néha akár közvetlenül, de legalább is közvetve, hogy az bonyolítja az eleve necces dolgot, és úgy már sokkk...), de ahogy kísérletezgettem vele itthon, nem olyan rossza a helyzet, konzervatívan használják. Pl. ha van egy nagyon szaturált és nagyon világos szín, azt max szaturációval és sötétebben jeleníti meg, nem fakón de világosként, és nem is a kettő közé metszve. Ha van egy olyan szín, amit nem tud lefedni az RGB, de a WRGB igen, akkor a W segítségével jelenik meg, de ennyi, nem tolakodik bele feleslegesen mindenbe a W és nem "a fényesség mindenek felett" elven hajóznak.

    Itt inkább szerintem csak az van, hogy így vagy úgy, de összefügg a tone-, és gamut mapping, mert ez bár általában szétbontható úgy, hogy egy síkon nézed a színt és egy vonalon a fényességet, de mégis csak 3D színtér ez (olyan, mint egy térbeli tömör test). Ha pontosan ismert a forrás és cél tone curve, akkor pofon egyszerű lehet a gamut mapping (pl. konstans mátrix szorzás), de ha nem, akkor elcsúsznak a színek is (legalább is bizonyos nézőpontból).

    De szerintem igazából még bagatelebb probléma ez itt: mindenféle HDR+ és metadata trükközéstől függetlenül is elég furán keveri HDR módban a színeket az LG. Mondhatni "tácolnak kicsit körbe-körbe a színek". Ezt általában nem veszed észre, hacsak nem teszel mellé egy "referencia" monitort, de talán még akkor sem olyan látványos , mint ha ugyan azon a kijelzőn tudod hirtelen kapcsolgatni oda/vissza (átpislantani tovább tart, ami alatt kezded elfelejteni mit láttál, nem olyan hirtelen történik).

    Szóval van egy kicsit fura masszánk, hogy kicsit másképp torzulnak a különböző színek (ne hatalmas hibákra gondolj, csak kicsikre), és ha egy feldolgozási lépcső hirtelen Off/Low kapcsolgatásra megemeli a fényességet a teljes képen (kvázi, mert amúgy picit mást csinál), akkor a világosabbá vált színek másképp torzulnak, máshogy néz ki színvilágra is ugyan az a kép, nem csak fényesebbnek. De ez csak effektíve történik így, a Dynamic Contrast nem hozzáadja ezt a hibát, hanem csak megmutatja (azzal, hogy hirtelen tudod tologatni a képkockát fényesség értelemben fel/le, ami láthatóvá teszi az egyébként is meglévő anomáliákat, hogy táncikálnak a színek, ami máskor nem, vagy nem ennyire feltűnő). Más-más luma szinten más-más a chroma hiba, így ha mozog a luma, akkor másképp hibázik a chroma.

    Persze ez csak találgatás a részemről...

    Ami biztos, hogy tegnap is a HDTVtest videó után nézegettem egy játékban a vöröses-sárga égboltot, és egyértelműen azt véltem látni, hogy mint ha fakulna a színe, vörösesből sárgásabb lesz, mikor bekapcsolom a Dynamic Contrast-ot, pedig nem is volt vakítóan fényes az az égbolt, ahol néztem (SDR fényerő tartományoz közelebbi, mintsem hogy a W alpixel kelljen...).

  • janos666

    nagyúr

    válasz Partizan182 #12601 üzenetére

    Semmi különösebb gond nincs a TV / HDR / Game móddal, csak a szokásos (egyrészt ami minden más képmódban is kritizálható + teljesen hasra-ütés szerűen ki van véve pár potenciálisan-hasznos konfigurációs opció az almenüjéből, pl. még a fehéregyensúly is csak a szervizmenün át állítható neki normálisan...), de ja a PC / HDR mód mind kaki (nem csak a gamut mapping téves, a precizitása is elégtelen 10 bit bemenethez, csak ditherelt 8 bittel néz ki tűrhetően).

    Miután láttam azt a HDTVTest videót (aminek a fénypontja a "protection [...] that's what she said" pedig sohasem szerettem ezt a fajta humort :))), megnéztem újra, és nálam a C7-en (most épp v04.70.85, de szerintem semmi nem változott képileg a Technicolor-os frissítés óta) pont ugyan azt csinálja a Dynamic Contrast Off-ról Low-ra váltása, Cinema és Game módban egyaránt (amivel nem vagyok igazán kibékülve, mert szerintem ezzel még kevéssé passzol össze a tone-, és gamut mapping --- az előbbit piszkálgatja, csak ha változik a tone curve alakja, akkor pontatlanná válik a statikusan paraméterezett gamut mapping, de mivel egyénien csapja le a görbét az LG a metadat függvényében, pontosabban így már az újraszámolt csúcs függvényében, így változik az alak a világos régióban...).

    PC-n (szerencsére vagy sem) az nVidia driver már elkezdte felülírni a 10k-t 1k-ra NVAPI játékoknál, ahogy a Win10 is a 1703-as update óta (legalább is a Windows asztal már nem túl sötét, WIN32 API-s HDR játékot még nem nagyon nézegettem).

  • janos666

    nagyúr

    válasz junior19 #12517 üzenetére

    Persze, egy tökéletlen eszközzel is lehet elérni jobbat, mint a még tökéletlenebb eredmény, de ezt is TV-je válogatja, hogy mire jó, vagy nem jó a csúszkás CMS.

    Példaképp próbáld ki az LG-nél, hogy SDR módban átállítod a színteret Auto-ról Wide-ra, aztán húzd be úgy a CMS csúszkákat Rec709-hez. és még mérned se kell, hogy lásd: nagyon nem passzol valami (de mérve teljesen egyértelmű). Ez nem annyira nyilvánvaló, de ugyan ez a hiba megvan akkor is, mikor az Auto színtérből indulsz, csak mivel sokkal kevesebbet pöcögtetsz a csúszkákon, így még nem igazán észlelhető. Úgy is mondhatnám, hogy két külön egymásra rakott réteg a színtér kapcsoló és a CMS csúszkák. Az első egy tökéletlen, de alapvetően korrekt elven működő gamut mapping, a másik csak egy torzitgatás-nyújtogatás-húzogatás, amin ha elég sokat húzol, akkor "szétszakad".
    De HDR módban, ami "kényesebb", ismét látszik a probléma, ahol az Auto gamut mapping módból indulva is már a CMS csúszkák legkisebb tologatásával is elkezdneke felbukkanni apró képhibák (pl. táncikáló blokkos foltok az arcokon, mint ha tele lenne zajjal az anyag, csak épp a TV teszi oda, csak akkor ha tologatod a CMS csúszkákat).

    Bár az LG-nél azért nagyon szűkös a precizitás is, amitől megint csak nehéz ezeket empirikusan visszafejtegetni, hogy hol mi miként dolgozhat (ahol tele van banding-el egy gradiens, ott nehéz megtippelni, hogy pusztán a precizitás hiánya miatt mossa össze, vagy eleve szar az algoritmus vagy LUT, amit ráereszt).

    *** Erről jut még eszembe egy másik hasonló példa: a 9G Kuro-kon is totál hulladél a felhasználói menüs CMS, Egyrészt ugya "csonka" (nincs elég csúszka), de még az egyébként tökéletes szürke-skála is durván elszíneződik, ha tologatod azt a pár csúszkát. Pedig ... itt jön a csavar ... van egy hasonló CMS a szervizmenüben (az a féle, ami általában a normál menüben szokott lenni, csak csúszka helyett számokkal), amit oda állítasz ahova szeretnél, és úgy működik, ahogy elvárható (szép lineárisan skálázza a szaturációs gradienst, ahogy kell és nincs semmi káros mellékhatása, mint a felhasználó menüs CMS-nek). Ugyan ez a történet: ez külön "réteg" egymáson, amik mást csinálnak és másképp, az egyik jól működik, a másik nem.

    Olyat játszottál már amúgy, hogy odatettél a műszerrel bepötyögött LG OLED mellé (SDR mód) egy 9G Kuro-t (ami kb. az egyetlen kijelző, ami tényleg jól keveri a színeket és kontrasztban sem hasal el nagyon az OLED mellett [a kettőt egyszerre a pref. LCD-k sem tudják...])?

    ----

    A külső 3DLUT-al az a baj, hogy akkor működik igazán jól, ha egy "buta, nyers" kijelző profilozol. Ez nyilván megvalósul akkor, ha a belső elektronika kikapcsol *minden* színkezelést (ami triviális, ha eleve 3DLUT alapú és átvált profilozási módba, de jó egy nagyon buta monitor is, amiben eleve nincs is semmi processzor, ami babrálni tudja a színeket), és a panel natív színterét méred ki (vagy buta monitor esetén az egyszerű csatornánkénti kontraszt, avagy fehéregyensúly állítás még nem gond).

    Ha dolgozik bármi "okos izé-mizé" köztük, akkor sokkal több pontot ki kell mérni, és sokkal nehezebb dolga lesz a szoftvernek is kitalálnia a mérésekből, hogy mi történik, mert ilyen szempontból a feldolgozás sajátossága is mind-mind random anomáliának tűnik, amit fel kéne térképezni és azt is korrigálni, de a profilozó szoftver alapvetően nem erre számít, így sokszor el is hasal ilyenkor.

    Persze itt is áll, hogy tökéletlen szerszámmal is lehet javulást elérni. De a lényeg, hogy a külső 3DLUT-nak a legjobb egy teljesen "buta" mód, ha la tudnánk kapcsolni a TV-ben minden színkezelést (de a mai TV-kben ez általában lehetetlen, a natívnak nevezett mód sem valódi natív színtér...). Ha be van építve a készülékbe a 3DLUT képesség, ezt használja a gyári mód is, akkor jó eséllyel meg van teremtve az összes előfeltétel, hogy ideálisan lehessen használni (akár épp úgy is, hogy feltöltesz egy totál 1:1 no-op 3DLUT-ot a hardware-be és úgy profilozod, ha neked kényelmesebb így, bár a HDMI sávszél korlát miatt jobb az, ha bent van, főleg sok "sokbites", mert HDMI nem megy át 16 bit 4k-ban...).

  • janos666

    nagyúr

    válasz Joshi #12509 üzenetére

    Nem kell. Manapság már elég intuitívak a szoftverek és viszonylag bolond-biztosak a TV-k (pl. nem tudod túlhúzni a felhasználói menüben a Kontraszt-ot addig, ahol vágni kezdjen, ilyesmi biztosítékok...). Némelyik szoftverben van "varázsló", avagy next-next-finish mód szép színes grafikonokkal, stb, ami végigvezet a dolgon. Persze nem árt hozzá a tapasztalat, de ha csak egyetlen féle TV-t kell egyszer megcsinálni, akkor annyi a hátrányod, hogy azt az egyet nagyon-nagyon lassan fogod befejezni, mire eléggé kiismered, mert nincs tapasztalatod se a konkrét típussal, se gyakorlatod abban, hogy miként ismerd ki a véletlenszerűen eléd került TV "lelki világát" minél gyorsabban elég jól ahhoz, hogy megcsináld ezt elég jóra.

    Amúgy a 2018-as >=C szériás LG-ken már tényleg szó szerint bolondbiztos next-next-finish lesz az egész, ha megveszed hozzá a megfelelő CalMan kiadást, mert annyiból fog állni, hogy átvált valami "passthrough" jellegű módba a processzoruk (kikapcsol a 3DLUT és másképp sem babrál a színekkel), végigpötyögi a jellegzetes pontokat a műszer, aztán ebből összerak egy 3DLUT-ot a szoftver, amit feltölti a TV memóriájába, és visszakapcsol a TV "normál" módba, ahol ez a 3DLU csinál minden színkezelést (elvileg, aztán majd meglátjuk mennyire működik a gyakorlatban, mert mindent el lehet rontani a legjobb szándékkal a hátunk mögött is...). Régóta vágytam már erre, hogy ez lecsorogjon consumer szintre, főleg TV-kbe. Sohasem hittem volna, hogy az LG hozza el elsők közt.

    Szóval szépen alakul ez, kezdem érezni, hogy megint van fejlődés 2008 után. Ha még az a fránya HDMI 2.1 hamarabb jött volna, már kánaán lenne.

  • janos666

    nagyúr

    válasz junior19 #12504 üzenetére

    Van ebben egy olyan tényező is, hogy (legalább is a 7-es LG-nél), hogy csak HDR módban aktív a W al-pixel (WRGB osztás...), bár ettől függetlenül is magasabbra engedi csak az RGB pixeleket is HDR módban (az IN-START menü "Modul HDR" kapcsolója: Normal = Auto, avagy a gyári mód, hogy a W HDR-hez bekapcsol, vagy OFF: a W sohasem aktív, vagy ON: folyton világít a W az RGB mellé [ez amolyan debug mód lehet]). Pontosan most nem akarom újra lemérni, de nagyon durván 350, 450, 650 nit jön ki rendre SDR, HDR-RGB, HDR-WRGB (fehér ablakon) és mindog úgy 140-150 körül van a teljes képernyős fehér (SABL nélkül).

    Ez a CMS kérdés azért is érdekes, mert igazából rég kilépett már az egész móka a CIE1931 keretiből (mindenki látja már a hétköznapokban, hogy nem elég jó ez a régi rendszer). A sokezer dolláros spektrókkal, frissen helyben finomhangolt tesztképek (pl. egy fehér téglalap, amire közvetlenül rámértek és pont ehhez a jelszinthez pöcögtették be a csúszkákat) sem néznek ki szemre pontosan ugyan úgy egy Rec709-hez közeli natív színterű PDP-n (pl. egy 9G Kuro-n, vagy Samsung F8500-on), mint egy ilyen WOLED-en, de egy RGB OLED megint más, ahogy egy Q-dot LED-LCD még másabb... Szóval a nagyon apró eltérések miatt én már rég nem aggódom. Főleg, ha nincs is hozzá sok ezer dolláros referencia műszerünk csak pár szár dolláros. Azzal bőven elég a hosszú évek alatt elcsúszó fehéregyensúlyt korrigálni (ami tényleg keményen elmászhat, főleg olyan technológiáknál, ahol számottevően öregszik a panel ezer órák viszonylatában is). Az pedig, hogy a fix gyári konstansok, amik a Rec709-et emulálják a natív színtérből "helytelenné" válnak-e a fehéregyensúly állítás után, már megint olyan kérdés, hogy vissza az előző két pontra (picit igen, de nem biztos hogy ez a legnagyobb baj, mert a szaturáció nem változik sokat az öregedéstől). Aztán menjünk át oda, hogy ez a 6 színű 3 csúszkás CMS sohasem volt és nem is lehet tökéletes. Ezt is tudjuk már nagyon rég (10+ éve, régebb óta, mint hogy a CIE 1931 elkezdett csődöt mondani), és idén el is kezdett leszivárogni a consumer szintre az egyedileg feltölthető 3DLUT (a '18-as LG-k is tudják majd, amit a '17-e csúcs Pana OLED, illetve amit a professzinális monitorok egy része már ~10 éve tudott...), aminek rengeteg előnye lehet (kényelem, pontosság, precizitás megőrzése, stb a "hagyományos" gyári konstansok + csúszkák helyett).

    Most is van 6 színű 3 csúszkás CMS az LG-n, csak minek...? Az a 6 pont, amit kimérsz közvetlenül, az pontosabb lesz, a köztes színek pedig "random" vagy jobb, vagy másképp rossz, mert más rendszert használ az Auto színtér (ami egy komolyabb gamut mapping), mint a csúszkák (amik real-time "mókolások") és bonyolultabb a probléma, mint 6 pont és 3 tengely... Fel is adták (nagyon helyesen) és jön inkább a feltölthető 3DLUT. Ezek a csúszkás CMS-ek addig voltak jók, míg natívan is nagyon közel volt a panel és szabványos színtér, épp csak piciket kellett simogatni rajta, addig nem jöttek annyi nyilvánvalóan elő a limitációi (ha jól volt megoldva).

  • janos666

    nagyúr

    válasz krx21 #12470 üzenetére

    Jó tudni, akkor ugyan azt csinálják, mint a Panasonic 2017-ben (vagy még jobbat).
    Picit azért savanykodik majd a szám úgy egy évig, hogy miért nem kapják meg frissítésben legalább az SDR módhoz a 7-es modellek is a BFI-t.

  • janos666

    nagyúr

    válasz #72042496 #12299 üzenetére

    Sohasem próbáltam, két külön kimenetről megy a kettő (TV és AVR --- utóbbi egyébként 1.3-as :B ) kiterjesztett asztal módban (amúgy is van egy kis LCD monitorom, kb. a TV sarkánál a padlón, az van rákötve az AVR-re, de működne anélkül is), de ha HDMI 2.0 az AVR és nem (vagy be lehet úgy állítani, hogy ne) nyúl(jon) bele a képbe ("képjavítók", felbontás skálázó, stb) --- ami egyébként is kiritikus kérdés lenne nálam több szempontból (minőség, késés, stb) --- akkor át kéne neki mennie, mert "hivatalos", támogatott HDMI / HDTV formátum ez, nem PC-hack (attól még, hogy ma csak PC-vel tudod használni). LG C7 EDID (TV Res ext. block)

    Persze, én is várom a 2.1-et, de még várunk egy darabig, GPU oldalon még híre sincs.

  • janos666

    nagyúr

    válasz hm15 #12289 üzenetére

    Az YCC 4:4:4-nek ugyan annyi sávszél kell, mint az RGB-nek, szóval ahol lehetne az előbbit használni, PC-n (általában) jobb inkább az utóbbi.

    PC és TV módban is van Cinema képmód. Onnan látod leghamarabb, hogy melyik módban vagy, hogy PC módban sok opció ki van szürkítve az almenükben. De amúgy ha egyformára állítod őket, ugyan az lesz a Cinema, Technicolor, de legtöbbször (*) még a Haladó képmódok (mindkettő) végeredménye is (lényegében egy közös mód ez, csak más kezdőbeállításokkal a szabadon babrálható kapcsolókra).

    * Ez érdekes, de 1080p120 bemenetnél valamiért sokkal homályosabb (maszatos, életlen) a kép az ISF/Haladó képmódokkal, még akkor is ha feltolom az élesség csúszkákat és bekapcsolom az "éljavítót", másképp van paraméterezve a felbontás skálázás, amit nem lehet kézzel egyformára hangolni az opciókkal, amiket beraktak a menübe. Pontosabban már nem emlékszem, hogy TV módban is így van-e de PC módban biztos, ott a Technicolor mód is olyan éles 1080p120-al, mint mondjuk Standard-el vagy Game-el, de az ISF módok lágyabbak (szarok :P) ezektől.

    A másik kivétel még a Game/Játék mód. Ennek PC módban semmi értelme, mert rosszabbak a színek, mint ISF módban, de PC módban mindig alacsony a lag. TV módban pedig alapvetően ugyan úgy nincs normális színtér beállítás Game módhoz, de ami érdekes, hogy HDR-nél TV módban viszont a Game mode is "helyes" színeket ad (pont mint mondjuk a Cinema vagy Technicolor), miközben a lag is alacsony (ebből ítélve puszta önkényes hülyeség, hogy az TV / SDR / Game módban le van tiltva a színtér választó, ami TV / HDR / Game módban és PC / SDR / ISF módban sincs).

    Szóval van egy rakás teljesen redundáns mód, ami csak az alapbeállításaiban más, de lényegében ugyan azt csinálják (bár ez nem is baj, néha hasznos léehet). Aztán van egy maréknyi képmód, amik abszolút semmire sem jók (lényegében minden HDR képmód PC címkével), vagy értelmetlenek, mert van jobb a célra, amire hivatott (mint a TV / SDR / Game helyett valamelyik PC / SDR / ISF mód). Aztán van még pár furcsaság, ami szinte véletlenszerűnek (akár hibának) tűnik (mint hogy 1080p bemenettel más a felbontás skálázás "lágysága" a minden más szempontból "rokon" képmódban is, amik 2160p-vel pontosan ugyan azt az eredményt adják ha egyformára állítod be az alemnüket).

  • janos666

    nagyúr

    válasz hm15 #12272 üzenetére

    24Hz-en mehetne ki nyugodtan 10 vagy 12 bit RGB (néha csak 8-at és 12-t kínál fel a driver, de ez ne zavarjon, a magasabb érték esetleg akkor lehetne rosszabb, ha előhoz valami véletlenszerű hibát, de ezeken a TV-ken tudtommal nincs ilyen, nem is emlékszem futottam-e már bele személy szerint hasonlóba), de ahogy írod, 60Hz-en már csak 4:2:2 vagy 4:2:0 fér át a HDMI 2.0-on 10+ bittel (utóbbival kár is most foglalkozni, mert ugyan úgy él, hogy ha nem is használ, de nem is árt a magasabb érték, tehát sohasem rosszabb a 4:2:2, mint a 4:2:0 --- legalább is PC-n, ahol úgysem mehetne ki 1:1 a filmek 4:2:0-ja).

    Szóval, ha nem akarsz kézzel kapcsolgatni elhanyagolható, vagy gyakorlatilag nem is létező különbségekért, és tényleg van 50p vagy 60p anyagod, akkor egyszerűbb mindig YCC 4:2:2-n hagyni (és 10 vagy inkább 12 biten). Nem fog sokat ártani, mert ezek az LG TV-k is eldobják a chroma egy részét TV módban, és ha 12 bites YCC-t dob ki a VGA a 10 bites RGB-ből, akkor nem igen lesz észlelhető minőségromlás (lesz kerekítés/vágás, de gyakorlatilag minimális, sőt, már a 10-10 módba se nagyon lehetne észrevenni, főleg nem valós tartalmakkal, no meg a bemenettől függetlenül sem "hibátlan" a TV képfeldolgozása..., közel sem...)

    A '16-'17 LG szériákon jelentősen rosszabb a PC mód precizitása. Ez a 8 bites bemenettel SDR módban alig észlelhető és bőven használható, de HDR módban már feltűnő (épp csak, hogy elég a 8-bitnek, amit tud, szóval 10-bithez nem igazán jó, amit csinál, látható banding lesz itt-ott, sőt a gamut mapping is hibás a legtöbb PC/HDR képmódban, vagy ha működik, akkor mást csinál, mint kéne).

    Szóval csak SDR játékhoz ideális a PC / ISF (vagy Technicolor, Cinema) mód, de HDR játékhoz ugyan olyan jó a TV / Game mód is (úgyis YCC-t kell küldeni 60Hz-en 10+ bithez).

    Sőt, amúgy HDR filmekhez is ugyan olyan jó TV / Game mód, mint a Cinema, semmi képminőségromlás nincs, csak a TrueMotion-t veszted el ilyenkor, de személy szerint azt amúgy is tüzes vassal égetném ki a TV-ből, szóval... (Ja, igen, kicsit nehezebbnek tűnhet beállítani a Game mód fehéregyensúlyát, de a W50 ugyan az, mint a Warm2, bár személy szerint átállítottam a szervízemenüben úgy, hogy minden preset és minden C/W állás ugyan az legyen, így ezzel nem kell foglalkoznom -> ezt akár te is megteheted, hogy átmásolod a gyári Warm-ot a Normal és Cool preset-ekbe is, bár felesleges, ha csak 1-2 képmódot használsz, csak rakdb be azokat Warm2-be vagy told el a csúszkát W50-re).

  • janos666

    nagyúr

    válasz tothl #11684 üzenetére

    Nyiss előtte chaturbate oldalt (és majd továbbíts egy kis sarcot a tippért).

  • janos666

    nagyúr

    válasz #72042496 #11679 üzenetére

    Nekem igazából csak játékhoz hiányzik a BFI, filmeknél nem veszem észre, meg amúgy is eleve blur-osak... PC-n viszont ki tudom kapcsolni a játékban a motion blur effect-et (ha márt nem "mókolással", de ott szokott lenni a menüben a kapcsoló), akkor tű éles lehetNE a mozgókép (és a jó öreg plazmákon majdnem tejesen az is volt, amit mindig is szerettem).

    (#11680) dgyuri0123

    Tudom, hogy az arra való, hogy már kibontáskor lehúzd. Nem szándékosan hagytam rajta, hanem véletlenül (mert máig nem tűnt fel, hogy ott van), de szerintem semmit nem változik a hűtés, sohasem melegszik ez igazán, és most is egy műanyag lap van ott, ami nem bordázott, nem lukacsos, nincs lamella vagy szellőzőrács, csak sík műanyagburkolat, és nem olyan vastag az a fólia. (Kíváncsiságból tapogattam néha új korában, hogy mennyit melegszik, de leginkább csak a lentebb lévő "dobozsegg" langyos, abban is gondolom a táp fűt legtöbbet, aztán a kis számítógép...)

  • janos666

    nagyúr

    válasz tothl #11677 üzenetére

    Bocs, kijavítottam, a C8-on lesz (2018-as "felsőbb" modellek).
    B8-on szerintem nem, mert az örökli a 2017-es chipset-et (ott közös mindegyiken), csak C-től felfelé kapnak újat idén.
    Ugyan így nem hiszem, hogy a 7-es széria megkapja frissítéssel. Bár a fene tudja. Az a baj, hogy SDR-hoz szerintem meg tudnák oldani, de HDR-hoz nem biztos, így ez is egy ok a tartózkodásra (a nyilvánvalón túl, hogy "vegyél csak újat, fizess érte"). Bár épp SDR-ban van több létjogosultsága, mert alapvetően felezi a fényerőt (bár a 2018-asról nem tudom, hogy pontosan felezi-e, vagy tuningoltak valamit), így HDR-hoz még kevesebben kapcsolnák be, mint SDR-hoz...

  • janos666

    nagyúr

    válasz Ren Hoek #11675 üzenetére

    Igen. :K

    Találtam amúgy még egy érdekes kapcsolót ott: Module HDR
    Ezzel ki lehet kapcsolni a fehér al-pixelt HDR módban (ami eleve csak HDR módban működik, ahogy nézegettem, pontosabban ISF SDR-ban látom, hogy nem, Vivid SDR-ban nem néztem, ott talán aktív).
    Persze a gyár tone-mapping elcsúszik így, nem idomul hozzá automatikusan a TRC (továőbbra is úgy megy, mint ha ~1000 nit lenne a csúcs, ami valójában 650-700 a fehérrel együtt és 400-450 anélkül), szóval ez csak érdekességre, esetleg külső 3DLUT profilozásra jó (a mai programokkal azt feladtam, inkább megszoktam hogy kicsit pontatlan a gyári képminőség, vagyis a gyári + amit a menüben lehet piszkálni).

  • janos666

    nagyúr

    Ha esetleg nem vagyok ezzel egyedül: tegnap feltűnt, hogy az LG C7 hátán van egy terebélyes műanyag védőfólia (majdnem a káváig elmegy és viszonylag nehéz körömmel felkapni, illetve végig fel van ragadva, szinte hámozni kell, nem csak meghúzni, hogy "leessen"), ami elkerülte a figyelmem kicsomagoláskor (mikor a többi hasonlót lehúzgáltam, illetve azóta is, ha valamiért láttam a hátát). Nem takart el semmi szellőzőnyílást, de azért lehúztam, Így mattabb a háta, nem olyan fényes műanyagos (na nem, mint ha sokat nézegetném, akkor nem felejtettem volna rajta :DDD).

    Ugyan itt jelzem, hogy azóta sincs beégés, pedig nyúzom intenzíven kikapcsolt SABL-el és HDR módban is játszottam már eleget HUD-al együtt. Még IR-t se szoktam látni, ha nem keresek (de akkor se nagyon).
    (Nyilván nem marhulok azzal, hogy X óra után direkt pihentetem, csak használom folyamatosan egész nap, amikor épp akarom, ahogy és amennyit akarom...)

    Amúgy meg halkan röhögök most magamban, hogy a C8-en lesz BFI.
    Kíváncsi vagyok, hogy mennyire jön majd be ezzel kapcsolatban a jóslatom, hogy akik szerint eddig totálisan felesleges volt, most hogy lesz az LG-n is, majd jó ötletnek tartják-e innentől. Már nem kell sokat várnom, és kiderül. ;]

  • janos666

    nagyúr

    válasz sakal83 #9460 üzenetére

    Azt, hogy inkább kapcsold ki a TrueMotion-t, ne hülyítsd vele magad.

  • janos666

    nagyúr

    válasz Márton #9316 üzenetére

    A '7-es sorozat némileg 100 felett van még akkor is, ha a teljes képernyő homogén fehér. Sötét szobában épp elég vakító az is a 21:9 filmben szinte minden hófehér.

    Kompromisszum, hogy ne kelljen olyan magas teljesítményre méretezni mindent (olcsósítás) és ne kelljen a sötétzöldeket messzire elrémisztő maximális fogyasztás értékeket ráírni (és van aki talán annak is örül, ha így vékonyabb és könnyebb lehet a készüléke) + van mit csepegtetni évről évre (még egy picit világosabb és világosabb az újabb).

  • janos666

    nagyúr

    válasz envagyok #9295 üzenetére

    Ettől szerintem még érvényes marad az a látszólagos elvi különbség, hogy az UHD BD-re sokkal inkább csak egy új kompatibilitási formátumként tekintenek, amibe "bármit" szabadon bele lehet lapátolni, míg az FHD BD egyben valamiféle minőségi kategóriaként is jelent meg, valamiért nem igazán engedték meg maguknak, hogy beletoljanak olyan master-t, ami közelebb áll ahhoz, ami a DVD-be fér, mint ahhoz ami az FHD BD-be, a kettő közti szürke területet is inkább hanyagolták, nem még az 1:1 re-release jellegű dolgokat.

    Ezt az érvelést akkoriban is el lehetett (volna) játszani, 2006 körül kb. senkinek nem volt még mai szemmel normális minőségű FHD készüléke, csak a studióknak és esetleg néhány videophile-nek. A gagyibbnál gagyibb LCD-k uralták a piacot, még a plazma sem volt ott a szeren, az is csak 2008 végére érett be és még kizárólag a csúcskategóriában volt jó (9G Kuro), az LCD kb. csak akkorra lett "nézhető" (FALD, BFI, jobb színkezelés a megfizethető árkategóriákban, "helyesre" kalibrálható képmódok biztosítása, stb), mire ki is halt a PDP (és jött az OLED). Sok volt ott még a 720p készülék (sőt, akadt még téglalap pixeles is, amin nem volt natív semmi szabvány felbontás) és rengeteg TV-n volt lehetetlen a színhelyes, vagy akár csak képélesség értelemeben a "forrás hű" megjelenítés (össze-vissza bohóckodtak a képfeldolgozással, nem is törekedtek arra, hogy legyen legalább elrejtve valami színhelyes mód, amiben kikapcsolhatóak a zajszűrők és hasonlók is, csak tolták az "effekteket" és talán azért, mert ha akarták sem lettek volna jók másra, azért is maszatolták el még jobban, ha "jó" úgy sem lesz soha). Ha ilyet akartál, ott voltak esetleg a "munkára" szánt PC monitorok, de azok kicsik, és rendszerint fix 60Hz-en jártak, magas válaszidővel csóvát rajzolva a mozgóképre, szóval úgy igazán semmi nem volt, ami jól visszaadja.

    Ehhez képest szerintem jobb is a helyzet. Erősen kiforratlan még a TV-ken a HDR és Rec2020 támogatás, de nem akkora katasztrófa. Már lefutottuk azt a kürt, hogy nem kötelező minden lehetséges beállítással agyonig eltorzítania a képet a TV-nek, hanem meg lehet próbálni visszaadni az eredetit is, illetve nincs olyan "fél UDH", mint a 720p-s HD-ReadyTV-k voltak.

  • janos666

    nagyúr

    válasz M@trixfan #9293 üzenetére

    "Falra tevés kérdésében elárulom a legnagyobb hiba, hogy szinte mindenhol túl magasan van."

    Ezt nem igazán értem. A falon oda fúrod fel a konzolt, ahova szeretnéd (sőt, van amelyiknél még később is állítható a magasság), kivéve persze az olyan trivialitásokat, hogy ne lukassz ki csövet/stb, míg ha a talpán áll, az alá már nehezebb tetszőleges magasságú asztalt találni, főleg akkor leszel bajban, ha cseréled a TV-t, és jelentősen változik a képátló és talpmagasság, mert akkor cserélnek kéne az asztalt (míg a falon egyszerűbben fúrhatsz új lukat is, ha nem engedi a magasságot állítani a fali konzol). És akkor még az "az antik bútorhoz keresek TV-t" esetekről nem is beszéltünk, ahol szóba sem akar jönni a bútor cseréje/átalakítása.

  • janos666

    nagyúr

    válasz Nemir Ombe #9287 üzenetére

    Mikor legutóbb átfutottam a listát (http://realorfake4k.com/list/), kicsit meglepődtem, hogy a viszonylag új filmeknél is, ha >=3k a "nyersanyag" (legyen az >=35mm film scan, vagy >2k digitális kamera), akkor is elspórolták a dolgot, és 2k master-ből adtak ki 4k lemezt, pedig elvben "csak" pénz kérdése újrafuttatni a render-t 4k-ban (anélkül, hogy feltupíroznák a digitális részek forrását, hogy tényleg jelentősen jobb lehessen, de ugye még az se lenne lehetetlen).

    Tudom, hogy a totálisan hamis 3D még ettől is rosszabb volt, illetve ott is megesett olyan agymenés, hogy az élő szereplőket felvették valódi 3D-ben, de a digitális animáció hamis 3D-ből lett rávágva.

    Viszont egyáltalán nem rémlik, hogy divat lett volna kiadni ~SD anyagot BD lemezen, főleg az FHD korszak hajnalán. Inkább pont az ellenkezőjét véltem látni, hogy talán néhány elszórt kivételtől eltekintve inkább igyekeztek elkerülni azt, hogy "hagyományos" (SD) minőség is megjelenjen ilyen formátumokban, ezzel potenciálisan rossz benyomást keltve a fogyasztók körében.

    Sőt, volt ahol még én magam is reméltem, hogy előbb-utóbb kiadják a régi, olcsó, vacak nyersanyagból készült "kultusz cuccokat" is BD-n, pusztán azért, mert ótvar volt a DVD kiadás (DVD-hez képest is), szóval mindenféle "feljavítás" nélkül szimplán csak egy új transfer az eredeti master-ből már valószínűleg előrelépés lett volna (nem BD minőség, de jobb mint a régi DVD, ami tele van tömörítési hibákkal, mert a szokásostól alacsonyabb a bitráta és gondolom azon belül is gyenge minőségű a kódolás... de ma már ~100x olcsóbb kódolni, mint ~20 éve, szóval nem kéne annyit spórolni...).

  • janos666

    nagyúr

    válasz Ren Hoek #9205 üzenetére

    Hát jobban passzolna a gépem hátába még egy naracs madzag az ezüst korbácsok helyett.

    Csak ki kéne találni hogy lehet eladni az aranyozott csatlakozós optikai kábelt 100x áron, és sínen leszel. :))

  • janos666

    nagyúr

    válasz krx21 #9194 üzenetére

    Kicsit másképp fogja használni a csatornákat, és ismét duplázódik a frekvencia, miközben csökken a hibajavítási redundancia, így lehet hogy kicsit más jellegű kábel lesz hozzá "placebó ideális" akkor is, ha gyakorlatilag sokszor működik majd még az is, amit eredetileg még HDMI 1.3-hoz szántak (negyed akkora frekihez) és métere 1000 Ft is alig volt új korában. De majd meglátjuk...

  • janos666

    nagyúr

    válasz tothl #9191 üzenetére

    Nekem az szokott néha gond lenni a drágákkal (nem minddel), hogy feleslegesen merevek és nehezek (az esetleg több rétegű, vaskos műanyagburkolat miatt), így könnyen feszíthetik az aljzatot, vagy ha emiatt hagyod, hogy nagy sugárban, hosszan fussák ki magukat ívben, akkor a saját súlyuk kezdi lefelé húzni őket, illetve a legkisebb mozgatástól is elkezdhet kitáncolni a foglalatból a csatlakozó ahelyett, hogy csak lengene és puhán hajolna a kábel feszültség nélkül. + Ha amiatt kell hosszabbat venni, hogy a merev burkolattal hajlítgathasd nagyobb ívben, akkor el is veszik az előnye, ha jobb is a minősége. Ha pedig kikoptatod vele a foglalatot, mert feszíti, akkor utána minden rosszul fog benne állni...

  • janos666

    nagyúr

    válasz krx21 #9182 üzenetére

    Jah, csak a márkanév és árcédula nem garantál minőséget. Főleg nem olyankor, ha arról van szó, hogy ezután több szál lesz befogva magas sávszélű átvitelre, mint 2.x-ig volt, szóval nem is lehet szidni a gyártót, ha a régi kábele nem lesz jó 2.1-től felfelé. Mondjuk én puszta kíváncsiságból is kipróbálnám előbb a régi kábelt, hogy viszi-e majd, mielőtt rohannék pénzt költeni.

    Amúgy meg "nyilván"...

  • janos666

    nagyúr

    válasz Ren Hoek #9128 üzenetére

    Nem, úgy vagyok vele, hogy amíg nem tűnik fel spontán mód hétköznapi használat közben, addig kár rajta görcsölni.

    Az a terv, hogy amíg nincs baj, addig ... nos ... nincs baj. :DDD
    Aztán ha úgy néz ki van baj, majd ott és akkor mérlegelek, hogy előre vagy hátra meneküljek (vissza FullHD PDP-re, vagy frissebb OLED-re), nyilván attól függően hogy mennyi idő után lesz ez (lesz-e egyáltalán addigra érdemben másféle OLED, illetve mennyit bírt ez az első, mennyi ingerem lesz pénzt kiadni, stb...).

    Mikor PDP-ket használtam monitornak, a "gyengébbeken" nem kellett keresni az IR-t és a legjobbon is feltűnt néha (mint pl. a Win 8+ leállásakor látható homogén kék háttér, vagy weblapok szürke hátterei), de beégést (tudtommal) egyiken sem hoztam össze (igaz, volt amelyiket puszta heccből is cseréltem 2 éven belül, vagy olyan is amit 2 hónapon belül, mert más miatt nem éreztem megfelelőnek monitorként használni --- a mindenkori örök kedvencem az 50" Pioneer 9G, még nem adtam el).

  • janos666

    nagyúr

    válasz Callisto #8949 üzenetére

    Ma megnéztem (most volt alkalmam kölcsönkérni IR adós telefont): 738 óra és okt. 16 körül hozták (12.-én rendeltem és köv. hét elején jött), tehát tényleg kb. 7-8 órát megy átlagosan naponta, ahogy besaccoltam (ennek durván a fele lehet a "hasznos", mikor tényleg ott is ülök, de "ez van", ennek a Tv-nek én jutottam :DDD). De meglepő módon 120 körül van a panelhomogenitás kompenzációk száma, tehát úgy tűnik majdnem mindig le tud futni átlagosan minden 6 óránként (ezek szerint átlagosan minden második nap sikerült neki elaludnia napközben is egyszer 1+ órára, így jön ki a minimum 4 órás ciklus és átlag napi 8 órából az átlag kb. 6 óra a kompenzációk közt...).

  • janos666

    nagyúr

    válasz Joshi #9089 üzenetére

    Ennek az anyagnak a bitrátája is sokkal magasabb, mint egy szokásos TV adásnak, ráadásul mindez hatékonyabb tömörítéssel (ami azonos bitrátán is jobb eredményt ad, mint a H264).

    Az még nem tűnt fel, hogy ha TV adásból nézel egy mozifilmet, az az eredeti FHD Blu-Ray lemezhez képest inkább durván a DVD5 méretű 720p-s kalózkonverzió minőségét hozza (de legfeljebb is a DVD9 méretű 1080p-s kalózét)? :P

  • janos666

    nagyúr

    válasz envagyok #9071 üzenetére

    Fura, mert ha most 2160-as kijelzőre 1080-at küldök, még mindig látom a fűrészfogakat a TV viszonylag lágy nagyításával is (az LG-n nem is tudok 2x2 módot kérni, mint pl. a Panasonic-nál, mindig lágyítja picikét a képet, ami még picit el is kéne fedje a recéket, de még mindig ott vannak), amik natív 2160-ban szépen eltűnnek (na jó, még mindig van itt-ott egy kevés, de sokkal jobb a helyzet, a gyakran zavarótól sokkal közelebb kerül a jelentéktelenhez).

    Az új, durván, 2015--től máig megjelenő, komolyabb képvilágú játékok (amiket látványosnak és részletgazdag képvilágúnak szántak és sikerrel is jártak) esetén nekem a geometriai részletesség is feltűnően szebb. Szerintem sokkal látványosabb a különbség, mint a filmek eleve lágy képén, amikre sokszor szándékosan tesznek még szűrőket, zajt, stb (vagy már eleve ott van a zaj tekercsen/szenzoron).

    Mondom ezt úgy, hogy azzal egyetértek, hogy BD filmeken kb. semmit nem vélek látni, amit a felbontás illeti, esetleg 1-2 film 1-2 jelenetében, ha direkt erre figyelek kimerevített képen, ami nyilván nem mérvadó egy filmnél, amihez normál esetben csak ellazulok és arra figyelek mi történik, nem a kép legapróbb kis eltérésein próbálok görcsölni. Ahhoz szerintem is elég TV méretű kijelzőre a 2k, hogy ne legyen feltűnően kevés.

  • janos666

    nagyúr

    válasz envagyok #9051 üzenetére

    Videojátékokhoz ma is nagyon jó ellenszer az aliasing problémára a natív 4k, főleg ha az ideálistól kicsit messzebbről / kisebben nézed (akkor még jobban összeolvasnak az apró kis "recék/fűrészfogak" a szemedben, ami jobb, mint ha egy szintetikus algoritmus maszatolja neked össze őket), még a 4k->2k SSAA-tól is jobb, nem még a parasztszarvazó post-process AA szűrőktől, amik mindent összemaszatolnak, de a recéket nem mindig tüntetik el (az MSAA pedig már rég kihalt).

  • janos666

    nagyúr

    válasz #72042496 #9019 üzenetére

    Én abszolút egyetértek azzal, hogy mostanság egyenesen stagnálni látszódhat az informatika és multimédia. A 90-es évek körüli 10-20 év rohamos növekedése már rég a múlté. Sehol nincs már az, hogy szintre minden évben közel 50% gyorsulás lenne a hardware-en, aminek tetejében másik 20-30% szoftveres "optimalizálás" (gyakorlatilag a programozási technikák fejlődése és a hétköznapi átlagos programozó tudásszintje, akit meg tudnak fizetni hétköznapibb célra) közel 100% effektív javulást mutatna, ami percepció szintjén is sokáig simán hozta az évenkénti duplázódás élményét (mert még "ég és föld" különbségnek tűnt, ha növeled a részletességet, a nehezen kivehető kis pixelpaca még könnyen és gyorsan száguldott a foto-realizmus felé). Ez még 2010 körül is igaz volt, csak kicsit lassuló ütemben, már nem 1-2, hanem 2-3 évet kellett várni, hogy valami látványos javulást kapjunk. De valahol 2015 környékére teljesen elfogyni látszott minden "alacsonyan lógó gyümölcs" és lendület, már nem nagyon van mit kihozni lehetőségben és/vagy szándékban a hardware-ekből (legalább is abszolút teljesítmény értelemben), maga a hardware pedig kvázi stagnál (ha fejlődik is, inkább csak a hatékonysága javul, nem az abszolút teljesítményben dönt csúcsokat). A szoftverfejlesztés is kiforrta már magát. Nyilván még mindig vannak lusta és rossz programozók és összetákolt, elszúrt projekt-ek, de azért nem olyan már programozót találni egy nagy cégnek, mint varászlótanoncokat toborozni az erdőben a helyi tanyáról, kiforrottabb már a képzés-munkaerőpiac lánc, mint kezdetben (ha nem is tökéletes, de jobb, mint mikor nulláról indultak). Még nem állt le teljesen, de aki 10-20 éve is foglalkozott már valamennyire ilyesmikkel, annak szerintem egyértelmű, hogy jelentősen lelassult, méghozzá annyira, hogy most szubjektíven szinte egy helyben áll. Olyan, mint mikor lehajtasz az autópályáról, ahol jól eleresztetted a gázt, és bekerülsz egy araszoló kocsisorba. Az az 1-2 majd 2-3 év ma már 4-6 év, és kicsit kiábrándító, hogy ez csak nőni látszik, olyan érzés, hogy ez már egy trend, hogy csak lassulni fog, nem átmeneti hullámvölgy (talán ez benne a szomorúbb, mert így megvénülünk, mire annyi fejlődést látunk, amit régen néhány termékgeneráció alatt). Mindeközben pedig egyre nagyobb fejlődés kéne ahhoz, hogy szubjektíven is megérezzük, mert egy ponton már alig javul valami attól, ha duplázod a "nyers" részletességet (mint ez az SD->FHD->UHD, látványra egyre kisebb a hozadék, ahogy mindig duplázunk...).

  • janos666

    nagyúr

    válasz Joshi #9032 üzenetére

    Ez a B&O nekem olyan, vagyis rosszabb, mint az Apple. Elitista fanoknak való, akik szeretik gyorsan költeni a pénzüket, és épp erre böknek rá. Az Apple-ben sem szeretem, hogy túl van árazva és fanatizálva, de legalább alapvetően jók a cuccaik (olcsóbban, és ha nem érezném magam hülyének, hogy "csatlakozom a hordához", néha még talán venném is pár cuccukat), de ez a B&O egyszerűen vicc nekem általában, a "még ingyen se kéne" kategória kezd lenni, pedig általában a kinézet érdekel legkevésbé.

  • janos666

    nagyúr

    válasz Ren Hoek #8960 üzenetére

    Ha nem egy földön van a kettő, akkor átcsaphat a szikra, és nem feltétlenül a földelés szálba. De személy szerint én is meg szoktam ezt kockáztatni (pontosabban általában amúgy is abba a körbe esik nálam a hotplug, ami viszonylag biztonságos, így nem nagy rizikó, de azért próbálok a csatlakozó sarkával közelíteni a foglalat pereme felé).

    Laptoppal általában nincs is ilyen dong, mert nem is szokott átmenni földelés a tápon.

    Akkor sincs gond, ha már össze van kötve két készülék földelése valahogy, akár az elektromos hálózaton át, vagy például ha már van köztük egy HDMI kábel, és behúzol egy másodikat (ez olyankor fordulhat elő, ha mondjuk rákötsz egy lejátszót az AVR-re is az ARC és CEC miatt, de a TV-re közvetlenül is húzod a lejátszó második kimenetét, mert az AVR csak HDMI 1.x-es, a lejátszón viszont van két kimenet -> nekem így van PC-n megoldva a HDMI 2.0-ás TV és 1.3-as AVR).

  • janos666

    nagyúr

    válasz Callisto #8949 üzenetére

    Napi 8+ órát, mert nem kapcsolgatom ki kézzel, ha magára hagyom, 1 óra az atomata, de általában hamar felébresztem, ha sikerült is elaludnia.

    Holnap megnézem neked szervizmenüben, mert nem stopperrel mérem.
    De arról végképp nem vezetek naplót, hogy ebből mennyi a játék és mennyi a webböngészés és hasonlók.

    Ha ilyen precízen akarod tudni, majd teszek a szobámba egy kamerát és regisztrálok chaturbate.com-ra, aztán nézheted jópézé és jegyzetelhetsz. ;] :P

  • janos666

    nagyúr

    válasz Callisto #8943 üzenetére

    Az a megállapítás, hogy a jobbára garázsban pihentetettől jobb eséllyel kopik el hamarabb a rendszeresen használt autó, nem fog neked segíteni eldönteni, hogy a benzin vagy a dízel motor a jobb, vagy épp azt, hogy terepjárót, vagy lapos sportkocsit kéne venned, esetleg "családi autó" a nyerő. Az 'amit sokat használsz, az nagyobb eséllyel kopik el hamarabb' ugyan úgy igaz lesz az LCD-re is, azok tönkre tudnak menni ezerféleképp, mielőtt beleéghetne bármi, köztük olyan módon is, ami már zavar téged, de még nem minősül garanciás hibának (pl. egyre romló háttérvilágítás homogenitás vagy akár szaporodó pixelhibák).

    Én intenzíven használom monitornak és eddig nincs jele, hogy baj lenne belőle. De aki nem próbálta még, az biztos jobban meg tudja tippelni a kérdést.

    Ha pusztán laikusként spekulálunk, szerintem nem túl rossz a risk/reward.

  • janos666

    nagyúr

    válasz chris0000 #8892 üzenetére

    Szerintem ne hallgass senkire, aki nem PC monitornak használja, és saját tapasztalat nélkül int tőle óvatosságra. Én csak arra használom, és bevált, de nyilván csak arról a néhány hónapról tudok nyilatkozni, amit már futott nálam, senki sem tudja mi lesz majd 1-2(-3-4) év múlva (talán én se, ha puszta heccből lecserélem, mielőtt öregnek lehetne majd hívni).

    Persze nehezebb jól beállítani úgy, hogy tényleg jó legyen monitornak, mint egy kis LCD kijelzőt, amit eleve PC monitorként adnak el, de konkrétan ezeket az LG OLED-eket be lehet lőni jól monitor használatra, ami nem minden TV-re igaz (és azok közül a TV-k közül, amik jók erre a célra, nem nehezebb ezt beállítgatni ehhez, mint bármelyiket). SDR-ra pofon egyszerű is belőni, csak a HDR a trükkös, de az mindenféle kijelzővel az lesz manapság PC-n.

    Mondjuk a mai árakon már szerintem inkább a Panasonic-ot venném az LG helyett.

  • janos666

    nagyúr

    válasz Gtaati #8876 üzenetére

    "rengetegen" -> Őszintén szólva nemsokkal azután, hogy vettem, pont volt egy Ph cikk arról hogy kb. hány panelt adott el idén az LG. Mikor megláttam a nagyságrendet, kicsit meglepődtem (olyan "hogy lehettem ilyen hülye?" stílusban, hogy milyen kicsi szám görgetéséhez járultam hozzá -- ha jó ha nem). :))

    (#8879) ottofon -- Szerintem műanyag és fém ez, nem üveg, a műanyag pedig lehet viszonylag rugalmas is (hagyja magát elhúzni a fémmel).

  • janos666

    nagyúr

    válasz Nemir Ombe #8865 üzenetére

    Na ezt már én is visszaküldeném a szervizbe! :P ;]

    (#8868) salapp -- Pedig még messze nincs vége szerintem ennek a felelőtlen vékonyság-őrületnek, már 2012 körül is javában folyt plazmáknál is. Majd újra fel kell találni a megbízható merevítést, miután letudtuk a papírvékonyságot. (Mint ahogy a mobiltelefonoknál is újra fel kell majd találni a zsebben is kényelmesen hordható méreteket, miután visszajutunk az aktatáska méretű tablettelefonokig...)

  • janos666

    nagyúr

    válasz renatto #8851 üzenetére

    + többször is változtak a képmódok alapértékei (mármint a háttérben, hogy mit jelent az amikor XY pozícióban áll a felhasználó által látott csúszka), szóval csak azonos firmware-el vethetők össze érdemben
    ++ úgy tűnik PDP-hez hasonlóan van egy rövid kis "bejáratási idő" (mármint első pár nap/hét a kibontás után), mikor még "mászkál" picit, illetve "bemelegedési" is (legalább néhány perc) [de ez már inkább csak a szőrszálhasogatásnál jön elő, nem szabad szemmel jól látható, külön figyelem nélkül észrevehető dolog]

  • janos666

    nagyúr

    válasz Joshi #8774 üzenetére

    "Meg aztán a fogyasztáson múlik nagyon sok minden."

    Ott azért szerintem lehet némi gond, ha valaki az >250k árkategóriájú TV-knél akár 100W fogyasztáskülönbségen görcsöl. :U

  • janos666

    nagyúr

    válasz PuMbA #8720 üzenetére

    Ez nem egészen így van... Nézz egyszer bele az MPC-HC forráskódba.
    Bár lehet, hogy most kicsit keverem azzal a fork-al, amit egyszer én magam is babrálgattam, de sohasem került be a hivatalos verzióba (de úgy rémlik ezek mind félkész állapotban voltak már a hivatalos kódban is, csak nem voltak befejezve / bugosak voltak):
    - natív 10-bit kimenet támogatás full-screen exclusive módban
    - GPU-gyorsított (volume texture alapú) 3DLUT színkonvertálás (+ beépített lcms)
    - ordered dither

    És a másodikkal sem értek egyet, hasonlítsd össze mennyivel több hasznos dolgot tud a madVR. Például:
    - frame packed 3D támogatás
    - natív HDR (metadata passthrough) többféle proprietary és Win10 API-kon is
    - többféle ditherelés (ordered, random)
    - proletártól placebón át videfóbig konfigurálható beállítások
    - többféle bufferelési / szinkronizálási mód

    /// Úgy látom szereted elbagatelizálni a dolgokat . :P

  • janos666

    nagyúr

    válasz Ijk #8715 üzenetére

    Az MPC-HC alapból EVR-t használ, ami úgy rémlik a Windows Vista-val debütált (a Win része). Az EVR custom mód pedig félig a lejátszó sajátja, de évek óta nem frissítik (legfeljebb minimálisan, a számottevő dolgokhoz régóta senki nem mert/akart nyúlni). madVR-al viszont jónak kéne lennie (de lassú GPU-hoz ki kell benne kapcsolni minden "placebó" képfeldolgzást, hogy ritkán se akadozhasson a terhelés miatt + új és komolyabb GPU-kon jobban fut DX11-ben, de a régi integrált kacatokon akadhat úgy).

  • janos666

    nagyúr

    válasz daneel_hu #8703 üzenetére

    Pontosan 50%-ot, ahogy várható, szóval SDR-ban maradéktalanul kompenzálható magasabb OLED Fény beállítással, HDR-hez pedig vagy kikapcsolod, vagy beéred annyival, ami maradt.

  • janos666

    nagyúr

    válasz Ren Hoek #8687 üzenetére

    Igen, a Panasonic mindig 60/60, akár 60, akár 24 képkockát kap.

    Nem tudtam őket egymás mellé tenni, de határozott véleményem, hogy ugyan azt látni a Panasonic-on a beépített, és itthon az LG-n a javított verziós AviSynth megoldással (ami "forgatja" a Blanking ritmusát, hogy folyamatában se adódjon FF vagy BB, mindig csak FBFB...).

    Túlgondolkozod. Nem kell semmi fade/fake. Egyszerűen tévedtem legutóbb afelől, hogy kevés a 120Hz. De már látom, hogy csak a konkrét megvalósítás volt hibás (nem volt váltogatva a páros/páratlan sorrend -> amit szerintem a Panasonic is csinál, ahogy az új AviSynth script-em is...).

    Szerintem így meglepően jó az a 60/60 BFI (mármint így forgatva). Csak minimális a vibrálás. Aki nem hiper-érzékeny rá, vagy esetleg szándékosan olyan a hozzáállása, hogy minden áron csak rossznak akarja látni/beállítani a BFI-t (nem vesz tudomást az előnyéről, de direkt látni akarja a hibáit, és lovagolni a legkisebb hátrányán is, hogy "ugyan hogy nem teljesen tökéletes = komplett sz@r"), annak ez így teljesen jó lehet (főleg ha igény szerint ki/be kapcsolgatható).

    Ráadásul így nincs "foszforlag" se. Én abszolút megtűrtem már a Panasonic-ét, szerettem a Samsung-ét, a Pioneer PDP vezérlése pedig külön "művészet" a plazmák közt, de sohasem szeretném viszont látni még a Pio szintű/finomságú megoldást sem OLED-eken, mert semmi szükségét nem látom a sub-field meghajtást erőltetni a PWM ditherrel = "foszforlaggal" együtt, ha nincs rá szükség, márpedig most látom, hogy nincs. (Csak annyi volt a probléma, hogy a Sony is elszúrt valamit, és sokan mások is, akik eddig forrás oldalon szoftveresen próbálkoztak 120Hz-en BFI-t varázsolni, mert a neten a forgatás nélküli verzió kering csak --- ezért hittük páran, hogy nem elég a 120Hz-es 60/60).

  • janos666

    nagyúr

    válasz Joshi #8668 üzenetére

    Sehogy. Párszor már kitárgyaltuk, hogy a panel mindben egyformán 120Hz-es, és HDMI-n is fogadnak 1080p120-at, így PC-n is ugyan úgy be lehet szúrni a fekete képkockákat, mint ahogy a firmware be tudja.

    A kijavítás részt is próbáltam levezetni az imént: pár napja bemásoltam ide egy scrip-et, ami keringett a neten, hogy úgy kell PC-n BFI-t csinálni. Ma rájöttem, hogy kell kijavítani, hogy tényleg működjön = úgy, ahogy a Panasonic OLED TV-je is csinálja (firmware-ből).

    Végezetül pedig felvetettem az ötletet, hogy talán ezt nézte el a Sony is.

  • janos666

    nagyúr

    válasz Joshi #8666 üzenetére

    A Panasonic OLED TV-iről beszéltem.

    1: Egyszer már beszéltük itt (is) valakivel, hogy ha az LG OLED TV-i fogadnak 120Hz-et, akár forrás oldalon is lehet olyan BFI-t csinálni, ahogy a Sony és Panasonic is teszi a firmware-ben az LG paneles OLED TV-ikkel. Például itt.

    2: Pár napja rászántam magam és kipróbáltam, de csak zavaró vibrálást láttam. Itt.

    3: Nemrég megnéztem nyugodt körülmények közt a Panasonic OLED TV-jét, és csodálkoztam, hogy ott miképp működhet zavaró vibrálás nélkül a BFI.

    4: Ma itthon leültem, átgondoltam, rájöttem mi a hiba és kijavítottam az AviSynth script-et, hátha még jól jön valakinek (PC-n bárki ki tudja próbálni).

    Akár még te is kipróbálhatnád mindkettőt, ha akad a közelben PC, összehasonlíthatnád a Sony beépített BFI-jével. ;)
    (Nagyot nevetnék, ha az első hibás script ugyan úgy nézne ki, mint a Sony-é, amire mindenki panaszkodik, hogy vibrál. :DDD)

  • janos666

    nagyúr

    Meg van mi volt a gond az AviSynth-es BFI-vel.
    Az túl sok, ha kétszer is van egymás után Frame vagy Black, az Avisynt féle 5x24=120fp pedig úgy jön ki, ahogy az első sor mutatja, nem úgy ahogy a második (próbálom kiemelni, hogy mi a "trükkös tükrös"):
    FBFBFFBFBFFBFBF
    ^..........^
    FBFBFBFBFBFBFB
    >>>>>.<<<<<
    Ez a script viszont jó (a 2:3 pulldown script-ből vettem kölcsön a trükköt):
    F = last
    B = F.Blankclip()
    Interleave(F,B,F,B)
    SelectEvery(8, 0,1, 2,3,2, 5,4, 7,6,7)

    Így jön ki a 60Hz villódzás 120Hz-en 24fps-ből: 96Hz-ből 2:3 arányú 120Hz lesz.

    Így most az a baj, hogy Panasonic-ra akarom cserélni az LG-t, mert teljesen korrekt a BFI-je, ami nagyon jól jönne játékokhoz. :))

    Nagy vicc lenne, ha a Sony-nál is ugyan ez lenne a gond, mint nálam első nekifutásra.

  • janos666

    nagyúr

    válasz chris0000 #8659 üzenetére

    Ami a dobozban van, az ... valószínűleg nem jó hozzá.

    --

    Hogy kicsit tovább bonyolítsam a "szoftveres BFI" kérdést:
    Kipróbáltam az LG 1080p120 módját 24 helyett 60fps videóból AviSynth-el beszúrva 1-1 fekete képkockát minden forrásképkocka közé, és pont ugyan úgy néz ki, mint a Panasonic féle BFI (akár 24, akár 60Hz bemenettel).
    Szóval mégis jól működik ... működNE ez, csak valami nem stimmel az Avisynth megoldással, de még nem tudom, hogy mi.

  • janos666

    nagyúr

    válasz Joshi #8651 üzenetére

    Csak Alacsony és Magam érték van, Ki nincs? (Esetleg úgy, hogy az egész almenüt kiszürkíti egy "főkapcsoló", és akkor az az OFF az Alacsony alatt/helyett?)

    Egyre érdekesebb ez az OLED BFI story, mert a Panasonic megoldása számomra egyáltalán nem zavaró (szemben azzal, mikor itthon próbálkoztam PC-ről 120Hz-be feketéket pakolni, amit jobb híján tippre a Sony is csinál), meg kéne már valahol néznem a Sony-t is élőben. :U

  • janos666

    nagyúr

    válasz Zsmester89 #8432 üzenetére

    ABL a neve (average brightness limiter), ami lényegében az elektromos teljesítményt korlátozza (neked azt mondják, hogy a szemednek is jó és persze a környezetet is védi, de legjobb a gyártónak, mert kisebb teljesítményre is elég méretezni a kütyüt). HDR-ben hamarabb előjön.

    A Win10 és nVidia páros mostanában (Fall Creators és 388.xx amit néztem nemrég) fix 1000 nit metaadatot küld ki (akkor is, ha a film amit nézel 4000-ren lett masterelve vagy a játék, amivel játszol 10000-ret küld ki), így nem tömöríti a TV az SDR tartományt (nem lesz zavaróan sötét a Windows asztal), szóval nyugodtan kapcsold ki ilyenkor a Dinamikus Kontraszt-ot!

    A szemkímélő mód csak áttesz minden képmódot Warm3 színhőmérsékletre (sárgára). A kék fény némileg gátolja a melatonin termelést, ami álmossághoz / elalváshoz jó az agyban, szóval ha éjjel mindent sárgában nézel, akkor könnyebben alszol el a TV előtt. :o

  • janos666

    nagyúr

    válasz #72042496 #8413 üzenetére

    Nem nekem való játék, de alapvetően ugyan az, mint a ME:Andromeda. Ezek a korai HDR-es játékok a proprietary API-kat használták, de a Creators frissítés (1703) óta az 378.92-estől újabb nVidia driver átadta a HDR kezelését a Win10-nek, ami viszont nem kompatibilis az NAVPI-hoz (vagy hasonló AMD megoldáshoz) írt játékokkal (csak azokkal, amiket frissítettek vagy eleve a Win10 API-hoz írtak).

    Szóval: vagy visszagörgeted a Win10-et 1703 előtti verzióra (bár ezt még nem próbáltam, lehet hogy az új driver-ben így sem működik már az NVAPI-s HDR mód), vagy az nVidia driver-t 378.92-re (ez tuti jó, bár újabb játékokhoz gáz).

    AMD-nél fogalmam sincs mi a helyzet (szerintem még nem támogatják a Win10 módot, szóval működik, ahogy eddig -> kivételesen pont akkor követte vakon az nVidia a Microsoft-ot a szabványosításaival, mikor nekem ez pont nem nyert :D).

    Ami ebből nekem még fáj, hogy a Tomb Rader-hez is elkészült az NVAPI-s HDR mód, de mikor látták, hogy bele fog piszkítani a Win10 a levesbe az MS szabványokkal, akkor egyszerűen kivágták megjelenés előtt (hogy ne legyen olyan szitu, mint a Mass Effect vagy Shdow Warrior esete, hogy megjelenéskor működik, aztán pár hónap múlva frissül a Win10 és a driver-ek, aztán már nem lesz jó...).

  • janos666

    nagyúr

    válasz daneel_hu #8412 üzenetére

    Mert ez az egész film (Passangers) végig erős, az SDR BD kiadás is kicsit tolakodóan harsány SDR TV-n is (főleg a bárpultos jelenetek). Ezért kerestem előbb (#8402) valami digitális kamerás filmből egy olyan részt, ami nincs túlszínezve (mindig is szerettem tesztvideónak használni az Afterlife-ot, mióta kijött még régebben a 2k 3D BD, most pedig a HDR kiadásban eleresztették a fényerőt ~2000nit-ig is, de megmaradt a tompa színvilága). De a következő RE rész (Final Chapter) is masszív színkavalkád az elődéhez képest. Sajnos szerintem trend lett ebből, hogy a HDR korszakban kicsit túltolják a színeket, hogy "lássa a paraszt, hogy mennyivel jobb".

  • janos666

    nagyúr

    válasz dgyuri0123 #8407 üzenetére

    Esetleg félbevágás helyett egy jobb-bal duplázott kép? [kép]
    (Bár ez a film végig harsány, szóval kicsit tompább TV-n se tűnik fakónak.)

    A Szín mindig 50 (minden képmód, minden tartalom):
    - SDR-ben tökéletes is Rec709-hez Auto színtérrel az 50.
    - HDR-ben pedig játszogattam vele (szemre is nézegettem, és méricskéltem is), és arra jutottam, hogy ott is 50 lesz a legjobb, mert ha magasabbra húzom (55+ a HDR módok alapértéke), Rec2020 (de ugyan így Rec2020/P3) forráshoz az sem oldja meg korrektül az Auto színtér hibáját, mert nem minden szín egyformán sötétebb a kelleténél, szóval ha csak egyetlen Szín csúszkát tolok fel, akkor lesz ami véletlenül pont jó úgy, de lesz ami jó helyről mászik el rosszra (vagy rosszról még rosszabbra, stb), viszont műszerrel HDR-ben is egyszerű kideríteni, hogy 50 felett (már rögtön 51-en) elindul a clipping (a skála csúcsa nem megy sehova, a 100% fényerő nem lesz világosabb, csak a sötétebb szín elkezd bebukni a csúcsba), tehát összességében csak még "torzab" lesz a színtér (és úgy nehezebb ezt a 3DLUT korrekciót csinálni, ahogy én használom, ahhoz jobb az egységesebb hiba, mint a random hiba...).

  • janos666

    nagyúr

    Megpróbáltam csinálni PhotoShop-al színprofilok alapján egy szemléltető képet, hogy mennyivel fakóbban az LG-n HDR módban a bőrszínek a kelleténél (balról a TV kimért profiljából, jobbra a szintetikus Rec2020 profilból konvertálva egy képkocka sRGB-be).

  • janos666

    nagyúr

    válasz janos666 #8381 üzenetére

    Megvan a trükk, ami igazából még mindig egy hiba:
    - ha 1080p120 SDR-ból vált 1080p120 HDR-be, akkor 2.2-es gammán marad HDR10 TRC helyett helyett,
    - ha 2160p60 SDR-ból vált 1080p120 HDR-be, akkor jó a TRC, de valójában 120 helyett csak 60Hz-en jár (megnézegettem alaposabban az egérmozgás simaságát, és a motion blur-t: 60Hz ez, csak elsőre hirtelen tévedtem, mert előtte játszottam valamivel 4k-ban, ahol cask ~45fps volt, így most a stabil 60 relatívan jobbnak érződött).

    Jónak tűnik, de mégsem az, mint aminek látszik: fénykép

  • janos666

    nagyúr

    Hihetetlen ez a C7. Ma teljesen véletlenül elindítottam a ME:Andromeda-t (egy másik játék helyett, a szomszédos parancsikonnal), ami 1080p120 HDR beállításokon volt hagyva, miután teszteltem a legutóbbi szoftverfrissítés óta vajon működik-e már (és akkor megállapítottam, hogy nem), és most teljesen le voltam döbbenve, hogy ebben a felbontásban átváltott a TV Rec2084 (HDR10) TRC-re, tehát jól működött (be volt kapcsolva mindenféle diagnosztikai OSD a játékban, mert nem játszom vele, csak a HDR-t tesztelgetem, illetve érzésre és látványra is 120Hz és HDR volt egyszerre). Közben áttettem a TV-t PC-ből TV módba, és még mindig működött. Aztán kiléptem a játékból, elindítottam még sorban kétszer, és egy filmlejátszót is így (1080p120 HDR) vagy háromszor, de most már nem vált át soha (nem működik, SDR gammában marad annak ellenére, hogy a TV OSD-je azt írja átváltott HDR-be). :))

  • janos666

    nagyúr

    válasz torma1981 #8193 üzenetére

    Így van... Nekem végül is jó így most, de már a puszta kíváncsiság kedvéért ingerem van kitekerni azt a csavart és megnézni hogy legalább egyszerűen cserélhető-e a kábel a kis fedlap alatt, amit 1 csavar tart.

  • janos666

    nagyúr

    válasz Qlux #8199 üzenetére

    Nem tudom mit várunk a CGI-tól így kezdetben azután, hogy annak idején a korabeli Transformers rész 3D verziójához a 2D-s render-t konvertálták át "hamis" 3D-be, ami azért elég kemény, hisz kész voltak a 3D modellek, csak újra kellett volna renderelni mindent egy másik kameranézetből is, és máris korrekt "valódi" 3D lett volna, ráadásul ez egy olyan filmnél, amiben csak a látvány ér bármit...

  • janos666

    nagyúr

    válasz Ijk #8046 üzenetére

    Na, játszogattam vele kicsit ffdshow + ez az avisynth script:
    F = last
    B = F.Blankclip()
    Interleave(F,B,F,B,F)

    Kipróbáltam többféle sorrendet is, mind zavaróan vibrál (ezt értsd úgy, hogy tudod mennyire szerettem a "vibráló" plazmákat, de még a Sony LCD-k agresszív BFI-jét is, szóval tényleg zavaró), 120Hz ehhez így egyszerűen nem elég. :(

    De érdekességképp leírom:
    F,F,F,F,B -> már ez is vibrál ("látszik" a fekete), de még jó maszatos (#1)
    F,F,F,B,B -> nyilván még jobban vibrál, kevéssé maszatol, de látni
    F,F,B,B,B -> "-", itt már minimális a blur, keresni kell, szóval jó lenne
    F,B,B,B,B -> "-", de abszolút semmi blur nem marad
    F,F,B,F,F -> zavaróan vibrál (mint a #1), maszat + "dupla élek"
    F,B,B,B,F -> jobban vibrál, ugyan úgy "dupla élek"
    B,F,B,F,B -> vibrál, de jó kompromisszum blur/dupla-él közt (#2)
    F,B,F,B,F -> vibrál és a blur felé billen a blur/dupla (#2-höz képest)

    Ez szerintem minden kombinációt lefed, mert egymás után sorba fűzöd lényegében mindegy, hogy FFFBB vagy BBFFF, mert:
    FFFBBFFFBBFFFBB
    BBFFFBBFFFBBFFF , és így tovább (FFBFBFFBFB = FBFBFFBFBF).

  • janos666

    nagyúr

    válasz renatto #8144 üzenetére

    Az LG beidőzítette automatikusan minden legalább 4 órányi üzemidőt követő standby állapot alkalmára (de szerintem a Sony és Pana is hasonlóan tesz), tehát ez a "javaslatuk". Kiegészítésképp pedig otthagytak a menüben is két kapcsolót, hogy "szükség esetén" kézileg is előbbre hozhasd a legközelebbi alkalmat. De a '17-es szérián szerintem már abszolút értelmetlen kézileg kérni, mire kialakul addigra úgyis eltelik 4 óra, tehát a szimpla standby-ba kapcsolás lényegében ugyan az, mint külön megkérni, hogy kapcsoljon ki és kezdje el ezt soron kívül.

  • janos666

    nagyúr

    válasz adamssss #8129 üzenetére

    Láttam már pár rossz kábelt. Általában vagy van kép, vagy nincs, esetleg ez felváltva (ha el van törve egy szál benne, és ahogy mozog, úgy változik hogy jó vagy sem, de ha épp jól áll, akár hibátlan a kép), néha pedig nagyon feltűnő, a háttértől erősen elütő, pixel-finomságú zaj van a képen (nem nagyobb blokkokban, hanem egy-egy kis pixel szintjén táncol akkor is, ha te le van ilyen hibákkal az egész képernyő), nem olyasmi, amit keresgélni kell, szándékosan olyan, hogy ha van, akkor könnyű legyen észrevenni. Elvileg utóbbit sem kéne nekünk szabad szemmel látnunk soha, mert a készüléknek is fel kéne ismernie a hibát, és átváltani teljesen fekete képre, de néha még sincs így (de ugyan így, lehet hogy ugyan az a kébel egyik megjelenővel zajos, másikkal se kép, se hang soha...).

  • janos666

    nagyúr

    válasz torma1981 #8069 üzenetére

    Nem akartam vele feleslegesen vitatkozni, de a leírtakból fogadni mernék, hogy hozzá van szokva egy agyon vegykezelt képhez, és ebből próbálja kicsikarni ugyan azt, ami nyilván nem fog sikerülni, mert az ilyen izé-mizé képjavítórontó funkciók nagyon nem szabványosak.

  • janos666

    nagyúr

    válasz Ijk #8046 üzenetére

    Az alapján, hogy eddig bárkivel beszéltem, senkinek nem tetszett a Sony féle BFI (ami lényegében ugyan az, amit mi 1080p-ben tudunk csinálni kintről, csak a firmware odabent tudja 4k-ra is), nem, ráadásul sajnos nem kapcsol ki minden "okosság" még így sem: nem szimplán 4 pixel lesz minden bemenő pixelből, hanem lágyan van nagyítva a bemenő kép, szóval nem szeretem (egy CS:GO féle játékhoz simán elmegy, főleg ha mérlegeled mi a fontosabb oda, de azért nem "tökéletes", filmekhez vagy újabb/szebb játékokhoz nem szívesen használnám).

    Egyébként kerestem, de nem találtam rá egyszerű megoldás, hogy kipróbáljam a szoftver BFI-t. Csak egy AviSynth script-et találtam, de "modern" szoftverkönyezetben nem egyszerű beüzemelni az AviSynth-et (sok sok éve nem fejlesztik és mindig WIP állapotú volt), vissza kéne keresni, hogy milyen ffmpeg verzióval működik (ha működnek ezek egyáltalán Win10-en).

  • janos666

    nagyúr

    válasz Ijk #8044 üzenetére

    Szerintem hivatalosan az LG sem támogatja, ez "csak úgy van", illetve ahogy az LG-n, úgy a Sony-n is kikapcsol sok képfeldolgozás, köztük a hasznosak is. Nincs pl. Rec709 színtér emulálás, noha ezt az LG és Sony is kikapcsolja mindenféle bemenethez Játék módban is (pedig az LG bizonyítottal elbír hasonló feladatokkal alacsony lag mellett, hisz HDR Game módban dolgozik a színkezelés, ahogy PC / ISF módban is, méghozzá alacsony lag mellett...).

  • janos666

    nagyúr

    válasz Joshi #8034 üzenetére

    + (#8035) Ijk válasza Joshi (#8034) üzenetére

    Tudomásom szerint igen. Ráadásul ilyenkor a legalacsonyabb a lag (1080p120-ban ugyan olyan, mint LG-n ugyan ebben a módban, ami kicsit alacsonyabb, mint a Sony féle Game\Játék módé).

    És lehet, hogy szerencsés példányt fogtam ki, de eddig semmi IR gondom nincs a C7-el monitorként, sokkal jobbnak tűnik ilyen tkeintetben, mint annak idején a B6.

  • janos666

    nagyúr

    válasz Gtaati #7835 üzenetére

    Elárulja a link, hogy hova mutat. :P De végső soron nyilván az LG-től. Bárt azt hiszem ez pre-release branch (pont ez nem is feltétlenül lesz kint soha a hivatalos oldalon, talán csak majd magasabb verzió). Igen, azokhoz a modellekhez jó.

  • janos666

    nagyúr

    válasz Joshi #7829 üzenetére

    Gazdagon átadja a szőlőszemek telt aromáját, és a borkészítők szeretete édesít meg minden kortyot. Kezdetben szkeptikus voltam, de hatásos. Elmúltak az alhasi panaszok, és kigyógyultam a depresszióból, szóval tényleg levette rólam a sötétség átkát. :))

    Kicsit komolyabbra fordítva a dolgot...

    A demó szép (mint általában minden demó...), de szerintem gyakorlatilag ugyan azt tudják ezek a '17-es OLED TV-k HDR10-el és DV-vel, hisz mindkét formátum lefedi a hardware tudását minden dinemnzióban (3D színtér, precizitás, stb). Ha van valami objektíven igazolható különbség, az inkább vagy onnan jön majd, hogy X készülékre jobban sikerült az Y formátum támogatása a szoftverben, vagy hogy jobban sikerült az adott kiadvány Z verziója.

    De még általánosságban is azt mondanám, hogy elsőre sokkal jobban tetszett ez a HDR dolog, míg csak vizsgálgattam, mint mióta végignéztem egy filmet és még nem tudtam eldönteni, hogy az most jó vagy rossz, hogy kb. 10 perc után teljesen elfelejtettem, hogy HDR filmet nézek, nem SDR-t. Visszafelé is ki kéne próbálni, hogy ez most olyan dolog, aminek csak addig örül az ember, míg észben és szem előtt tartja, vagy hiányzik ha elveszi.

    Pontosabban egy-két alkalommal zavart is, mikor a szemembe vakított egy zseblámpa, vagy ilyesmi (Alien). Szóval lényegében akkor tudatosult cask bennem, hogy az HDR, mikor néha zavart kicsit...

  • janos666

    nagyúr

    Vállalkozó kedvűeknek van új 7-series firmware: 04.70.30
    Egyelőre semmi különösebb változást nem vettem észre, szerintem csak a SMART részhez nyúltak érdemben.

  • janos666

    nagyúr

    válasz rendon #7622 üzenetére

    HDR módban az LCD-knél sem ismeretlen dolog az ABL. Azoknál is elszállna az elektromos teljesítmény, ha nem trükköznének ezzel, amitől komolyabb minőségben kéne összerakni mindent, illetve sírnának a szuperzöldek, hogy milyen magas a készülék maximális fogyasztása.

    Vagy a másik: a játékoknál, amiket eddig néztem, HDR kijelzőmódban is megmarad a tone mapping. A játékok már régóta HDR-ben számolnak, még tágabb térben, mint a mostani HDR kijelzők, szóval mikor HDR módba kapcsolod, csak annyi változik, hogy a "hatalmas" dinamikájú modelltérből most nem "kicsi", hanem "nagy" térbe konvertálnak.

  • janos666

    nagyúr

    válasz rendon #7620 üzenetére

    Benne van a PDF-ben, hogy kell: egy megadott nevű mappába kell tenni.

    Az az ABL, minél nagyobb a vakítóan világos terület a képen, annál jobban visszavág, szélsőséges esetben egész az SDR szintig. -> Nézd meg a Resident Evil Afterlife (HDR Blu-Ray) végét a hófehér szobákkal, extraként zoom-old ki belőle az alsó-felső fekete sávokat.

  • janos666

    nagyúr

    válasz Madwe #7617 üzenetére

    A lag az PC módban is alacsony, így SDR játékra jobb is a PC / ISF mód.
    Csak a HDR a kényes ügy.

    Ha zavaróan túl sötét a TV / Game HDR, akkor a Dinamikus Kontraszt-ot lehet megpróbálni feltolni akár High-ra, bár az nekem nem tetszik.

    Vagy végső elkeseredés esetén PC / Standard HDR, persze visszakalapált élességgel és W46 fehérrel és ami szir.szar kapcsolható, az mind OFF. Itt el lesznek "csavarodva" a színek, de talán nem feltűnő, ha nem ismered a játék képi világát színhelyes kijelzőről és nem realisztikus, hanem fantasy/scifi.

  • janos666

    nagyúr

    válasz rendon #7610 üzenetére

    HDR játékhoz csak TV / Game ...
    Ha PC-n játszol, tegnap éjjel feltöltöttem egy 3DLUT-ot, ReShade-hez és HDR játékhoz, alapvetően NVAPI-hoz, de szerintem ugyan úgy működik az AMD privát API-jával is, csak a Win10 féle HDR kapcsolóhoz nem jó (ahhoz is csak a legutóbbi Win update óta).

    [link] Ha telepítetted a ReShade-et a játék mappájába, másold még oda a ColorLookupTable.png és ColorLookupTable.fx file-okat és elvileg jó lesz.
    Ha van egy ReShade.fx file is ott, azt töröld. A játákban a HOME gomb ki/be kapcsolgatja a LUT-ot.

  • janos666

    nagyúr

    válasz rendon #7608 üzenetére

    A játék, illetve mozi és technicolor mód agresszíven elnyújtja a tone response görbét, az SDR tartományban is tömörít, ha magas a metadata szerinti csúcsfény (filmkben ez 1000 vagy 4000 manapság, de játéknál lehet hogy 10000-ren hagyták ezt akkor is, ha gyakorlatilag nem megy ~2000 fölé se a tényleges tartalom). Az élénk és "eredeti" viszont közel 1:1 megy egész a vágási pontig (ahol kifullad a panel). De Standard módban nem fogsz tudni játszani a lag miatt.

  • janos666

    nagyúr

    válasz djg #7605 üzenetére

    Tudom, hogy sok minden más is hiányzik belőle (összefoglaló). ;]

    #7604 Nem egészen. De a lényeg, hogy a HDR módot nyugodtan 100/100-on lehet hagyni.

  • janos666

    nagyúr

    válasz djg #7601 üzenetére

    Talán be kéne írni a topic összefoglalóba is, hogy egy átlagos jelenet fényességét illetően a HDR mód 100/100 (OLEDFény/Kontraszt) az körülbelül SDR mód 20/100 (maximum! metadata függvényében csak sötétebb lesz, fentebb legfeljebb a dinamikus kontraszt kapcsoló húzza magas állásban, de az sem túl sokkal). Ha pedig nagyon világos a jelenet, akkor az ABL kezdi visszahúzni (kikapcsolhatatlanul, mindig, automatikusan) az OLEDFény-t, megint csak akár a 20/100 SDR szintig visszavágva (nagyjából valahol addig mehet el a szinte teljesen fehér képernyő, mielőtt megvágja a kraftot az ABL).

  • janos666

    nagyúr

    Na, azt hiszem sikerült megszülnöm az első használható 3DLUT-ot: [link]
    madVR-al használható a mellékelt két screenshot szerint, 7-es modell, v04 FW,
    TV (sima HDMI címke, nem PC) / Game HDR módhoz, a csúszkák:
    100 100 50 0 50 0 W46
    Minden OFF, színtér Auto, (Feketeszint a driverbeállításhoz igazítva, YCC = Low)

    Kíváncsi vagyok hogy ha kipróbálja valaki, akkor mi a véleménye.
    1000nit filmekkel csak a színek lesznek világosabbak, 4000nit filmekkel minden picit világosabb, 10000nit (játék) minden sokkal világosabb.

    A ColorLookupTable.png ReShade-hez való, de kell mellé még a DisplayCAL is, hogy telepítse a lookup shader file-t is (google, vagy majd leírom egyszer), de ez kb. egy-két játékhoz érdekes ma, ami NVAPI-s (pl. MEA).

    Jah... és ez csak 378.92-es Nvidia driver-el működik biztosra, a későbbiek a Win10 kapcsolóját használják (a Radeon-ok megint más mese, de szerintem ez ahhoz is jó, ha még nem tértek át a Win10 HDR kapcsolóra az AMD driver-ek) és a Win10 módi most kiszámíthatatlan (nem tudom, hogy Windows, vagy driver frissítés óta, de 1000nit-re bírálja felül a metaadatot, ami alapvetően tök jó, de a régi HDR-es játékok egyáltalán nem működnek azzal a kapcsolóval...). Majd egyszer csinálok egy ilyen LUT-ot a Win10 + 388.31 driver állapotra is (de az Radeon-hoz se jó, mert az tudtommal még nem a Win10 kapcsolóval üzemel, olyan ma is mint a régi nVidia driver-el), csak ez most ugye igazából saját használatra készül, azon belül is direkt a MEA játékkal is kompatibilisre...

  • janos666

    nagyúr

    válasz djg #7592 üzenetére

    Próbáld esetleg USB-ről frissíteni a szoftverét, hátha jobb lesz. Vagy esetleg DHCP helyett adj meg neki manuálisan egy IP-t a DHCP tartományon belül szabad címek küzül és írd be kézzel a router címét, mint átjáró. Aztán ha nincs sok "cuccod" (részletes,hosszas beállítások, stb), akkor még esetleg reset (gyári beállítások visszaállítása).

Új hozzászólás Aktív témák