-
Fototrend
OLED Televíziók - témaösszefoglaló
Új hozzászólás Aktív témák
-
janos666
nagyúr
Akármelyik 2019-es Panasonic, és majdnem minden LG, ami '8-as vagy '9-es évjáratú (ez az utolsó szám a betű után) és C, vagy magasabb betű (bármi csak nem B).
Szerintem ha kipróbálod, és adsz egy kis időt az UHD HDR-nek, akkor megtetszik, és ilyen formátumban akarod majd nézni, ami elérhető, illetve jó ürügy újranézni pár régebbi filmet az új kiadásában. -
janos666
nagyúr
válasz
Strezi
#32483
üzenetére
Ezen gondolkodtam már én is, hogy mi történt, mert én is úgy emlékeztem rá, hogy van egy USB 3.0 az LG OLED-eken, többek közt a C7-en is látni véltem itthon, aztán mikor legutóbb beszéltünk ezekről az adapterekről, akkor odahajoltam a C8 hátához, megnéztem, és nem találtam. Neten is azt az infót olvasom most, hogy a C6-on van, és az M16P (avagy Alpha7), mint a B/C/E7 és a B8 is, de a B6 és a C9 sem). Vagy csak az tévesztett meg minket, hogy régen kék volt egy 2.0-ás is, vagy az O18-ról (más néven Alpha9) lehagyták, pedig a korábbin ott volt.
-
janos666
nagyúr
válasz
allein
#32467
üzenetére
Húha! Nem véletlenül linkeltem még a boltot is. Az a Cable Matters ki van próbálva, de van olyan adapter, amiben elvileg ugyan ez a chipset van, mégsem működik. Volt már, akinek nem működött TP-Link adapterrel.
Bár mivel neten rendelted, így visszaküldheted, ha nem jó.
Amúgy még az sem lenne érdekes, hogy USB 3.0 legyen, mert a TV-n csak 2.0 van. A lényeg az lenne, hogy felismerje a WebOS driver-e a hardware ID alapján az adaptert.A másik, hogy a menüben nem fogod látni, hogy működik-e. Húzd ki a másik csatiból az UTP-t, tilstd le a WiFi-t (ha aktív, amúgy nem kell), és ha van DHCP szervered, akkor automatikusan kap IP-t, de kézzel nem tudod majd beállítani a menüben. Abból tudod majd, hogy működik, ha van net. Ja, és lehet hogy kell egy újraindítás is, miután bedugtad (de kérni nem fogja).
-
janos666
nagyúr
De maga az üzenet lehetne rejthető. De gondolom, hogy azért nincs ott az opció, mert ritka esemény, vagy általában gyorsan lezajlik, így keveseket zavar.
Van olyan szolgáltató is, ahol ha házon belül kicseréled két TV közt a kártyát, akkor be kell telefonálni, hogy engedélyezzék. Van, ahol azt csinálsz velük, amit akarsz, a település másik felére is elballaghatsz a kártyáddal. -
janos666
nagyúr
Viszont ahogy elnézem, a jelenleg a kiadott filmek (legalább is, amik szerepelnek egy könnyen sorba állítható listában - nem tudom ennek hol van a frissített folytatása) több, mint fele min(MDL,maxCCL)<=1000 (tehát ezt tekinteném ma mérvadónak, még ha meg is nézzük a másik végletet is), ami pedig mégsem, azok közt alig találok olyat, ami kijött DV-ben is (nem csak HDR10-ben), mert pl. fejből is emlékeztem rá, hogy a Fantastic Beasts az "kemény" volt (4000,3173 , de szerintem nincs DV kiadása, én legalább is nem találom, vagy férek hozzá).
Nagy nehezen a Tomb Raider (2018)-re tudtam rábökni, ami 4000,2971 , és talán a rekorder a DV-sek közt (legalább is, amíg a lista tart időben). Megnézzük, ha lecsorog.A 2019-eseknél valami "A.I. izé" nevű valami új opció van, de azt szerintem be lehet kapcsolni SDR módban is. Valószínűleg ez az A.I. van egy mesébe szőve a DTM 2.0-al, hogy augmentálják egymást a gépi tanulás során, blablablaaa....
-
janos666
nagyúr
Csináltam három képet ugyan arról az anyagról (véletlenül néhány képkocka eltéréssel, mert nem lehet minden lejátszót pontosan tekerni): DV, HDR10, HDR10+DTM (DSLR fix manuális beállításokkal, max aperture, mindkét képmód 1DLUT-al és mátrix-al kalibrálva). Szerintem egyértelműen jobban hasonlít a DV és a sima HDR10, mint a DTM-es HDR10. (Ez 1000 nit MDL anyag. Talán keresek majd egy 4000 nit-est is.)
Gyakorlatilag 90% ezt csinálja a DTM: feleslegesen megtolja a képet világosabbra, és kész. Kivéve, mikor van valami nagyon magas csúcsfény akár csak egy hangányi foltban, mert olyankor néha visszahúzza a képet kicsit sötétebbre. Dinamikus Kontraszt 2.0, na... -
janos666
nagyúr
válasz
ForRedGlory
#32403
üzenetére
Game módban nincs interpoláció (TruMotion Dejudder/Deblur), csak BFI (Motion Pro), mert az jelentősen növeli a késést (gombnyomás/egérrántás és képernyőn megjelenő mozgás közt).
-
janos666
nagyúr
Azt a régi PDP-t ma akár a plazmák utolsó generációs csúcsára (Pioneer 9G, Panasonic xx60, Samsung F8500) is megérné lecserélni, az is látványos ugrás lenne képminőségben, így szinte kizárt, hogy ne lennél elégedett a legolcsóbb UHD HDR OLED-el is (tehát 2017 óta bármi, vagy akár 2016-ból egy-két nem ívelt kijelzős jobbféle). Szerintem ma 2018-as kifutó modellt keress az olcsóbbak közül (ha még találsz), vagy várd meg a decemberi leárazásokat az idei modelleken.
-
janos666
nagyúr
válasz
stilo18
#32357
üzenetére
Szerintem már a levélből is kiderül, hogy nem teljes értékű 2.1 interfészről van szó, hanem 2.1-es feature-ökről, tehát van/lesz pl. ALLM (avagy auto game mode, ami igazából nem is újdonság, csak HDMI 1.x-el kevesen használták az akkori megfelelőjét és a 2.0 korszakban feledésbe is merült, most pedig visszahozták kicsit másképp), de nem lesz pl. 2160p120.
De ha már feature list, akkor a VRR-ra lett volna értelme rákérdezni (ez lesz-e későbbi szoftverrel, mert most szerintem nincs), mert a többi csak apróság és/vagy kényelmi funkció.(#32348) rothfb - Távol áll tőlem, hogy hype-olnám a DV-t (szidni szoktam, bojkottot javasolnék). Látod, hogy mire reagáltam (nincs is YT-on DV). Én is mindig próbálom kiemelni, hogy ezeken a TV-ken (10bit gamma 2.2 panelek) igazából teljesen ugyan úgy kéne kinéznie a filmek nagy részének (1000 nit MDL anyagok) HDR10-ben és DV12-ben, de még a 4000 nit MDL anyagoknál is csak a csúcsfények közelében kéne némi különbséget látni (ha, és amikor másképp dolgozik a HDR10 és a Dolby tone-mapping algó, de ezek általában sohasem érintik - vagy kéne, hogy érintsék - az SDR tartományt, csak ami jóval felette van).
Illetve elég hamar elfelejtettük azt is, hogy tavaly fél évet kellett várni a DolbyVision-nél is egy firmware frissítésre (az összes TV gyártónál), mikor kiderült, hogy minden addig eladott TV-ben hibásan dolgozik a Dolby CMU chip, és szürkébe ugrál át a fekete (csak sokáig szinte senki nem használta semmire a DV-t HDMI eszközzel, így nem derült ki 2016 óta).
Most sem tudjuk, hogy vajon maradtak-e még benne apró hibák, mert nehezebb rájönni, mint arra, ha a TV néha hülyeséget csinál bizonyos HDR10 metadata mellett (ezzel könnyebb otthon játszogatni, szintetikus anyagot kreálni, mint DV esetén).
A DV egy olyan fekete doboz, amiben sokan indokolatlanul bíznak, hogy az biztos hibátlan és tökéletesen teszi a dolgát minden körülmények közt, míg a TV-knél inkább feltételezik sokan azt, hogy biztos hülyeségeket csinál a processzor HDR10 módban. -
janos666
nagyúr
válasz
daneel_hu
#32343
üzenetére
Itt sem említik a DV-t: https://support.google.com/youtube/answer/7126552?hl=en
(Ez az egyetlen cikk, amit kidob a keresőjük a DolbyVision szóra, de nincs benne.)
Szinte biztos, hogy egy DolbyVision demó volt, aminek a HDR10 rétegét töltötték fel. -
janos666
nagyúr
válasz
tutitibi
#32339
üzenetére
A Panasonic 2019 óta tudja, az LG 2016 óta. A lenti hsz-ben arra céloztam, hogy az utóbbi években az LG próbálja elsők közt hozni az ilyen újdonságokat a megfizethető kategóriákba, mint pl. idén a HDMI 2.1 (tavaly a LUT programozás, stb).
De biztos, hogy DolbyVision-ben nézted a Youtube-ot?
Nem nagyon foglalkoztam vele, de meglepett, hogy van YT-on DV, így gondoltam kipróbálom. Viszont az első keresési találatokból mindent vagy SDR-ban, vagy HDR10-ben játszott le az LG C8. Lehet, hogy csak Android-os TV-ken van YT-al DV?
Tippre nincs ott DV, csak HDR10, és valaki feltöltötte a DV demók SDR vagy HDR10 rétegét.
A TV is általában kibetűzi, ha DolbyVision-t nézel, nem csak annyit ír ki, hogy HDR (bár nyilván készülék és szoftver függő). -
janos666
nagyúr
válasz
alaves
#32314
üzenetére
Személy szerint engem is sokkal jobban érdekel a QD-OLED, mint a DL-LCD, viszont ha valaki zsigerből kizárja az OLED-et (minden formájába), annak szerintem érdekes lesz a DL-LCD. Hirtelen még több LCD fanatikust kezd majd el érdekelni a fekete (úgy tesznek majd, mint ha korábban elérhetetlen lett volna, nem létezett se Kuro PDP, se LG OLED, na de a DL-LCD, na az mekkora fejlesztés már!
), és a valódi kontraszt (ahogy már az OLED is több contrastjunky-t kreált, mint a PDP). Ha a Samsung-nak nem lesz erre időben jó megoldása (akár saját DL-LCD, akár QD-OLED), akkor megtörhet a QD-LCD maradék népszerűsége. -
janos666
nagyúr
válasz
Pro Koryak
#32299
üzenetére
Én a Panasonic-ban is csak 2011-től bíztam, de még az is picit korai volt, 2012-től voltak tényleg "buy best" és "örök kincs, amíg működik" plazmáik, egy évvel sem korábban. Az pedig kemény 2(-3) év volt összesen (mondjuk a Pioneer is két évig tündökölt csak igazán).
Ez nagyon OFF, de nekem annak idején 2db Panasonic G30 plazmát bontottak ki a boltban (2011-ben), mikor visszavittem az elsőt, hogy a tetején homogén képen van egy pár centis enyhén zajos csík, és kiderült, hogy mindegyiken van.
Hazavittem az elsőt, használtam pár évig. Mikor épp lejárt volna az 5 év garancia (akkor már az apám használta), felhívtam a szervizt, ők pedig megkértek, hogy vigyem be én ~120km távolságra, mert ők ritkán járnak erre (vidéken, de akkor is).
Egyszerre nevetve és mérgelődve tettem le a telefont, hogy akkor az így marad, mert 90% amúgy sem tudták volna megjavítani (valószínűleg akkor is ilyen marad, ha kicserélik az utolsó csavart is), egy csereutalványt pedig nem akartam megpróbálni kihokizni ilyen apró típushibával, nem akartam én nyerészkedni ezen.
Apám azóta is boldogan használja, igazából normál használat közben nem látszik, de még engem se nagyon zavart korábban PC monitorként használva se (nagyon ritkán akadt meg rajta a szemem).De 2010-ben rosszabb volt a helyzet. Ha ma találsz egy használt VT20-at, akkor kb. IPS LCD szintű kontraszttal fogsz rajta találkozni (már 6 éve is úgy találtál volna rá azokra, amit használnak). Ezt sohasem orvosolták, mert ennyit tudott a hardware.
A Pioneer-nél is volt hasonló story, de közel sem ilyen drasztikus a dolog, jóval lassabban és kisebb mértékben romlik az első pár évben és utána sem lesz IPS LCD a Kuro, csak Panasonic PDP, a VT20 viszont egy éven belül látványosakat ugrott.Ma is szívesen venném a Panasonic OLED-et, ha ugyan annyiba kerülne ugyan olyan funkcionalitással, mint az LG, vagy egyértelműen többet kínálna kicsit drágábban. De a helyzet az, hogy legfeljebb pillanatnyi akciókban jó az áruk, és a funkcionalitás erősen szegmentált, így szerintem egyáltalán nem lehet kijelenteni, hogy összességében többet kínálna, mint az LG (kivéve a GZ-ket, de azoknál az árcédula is elszáll). Sőt, a rétegigényeket (HDMI 2.1, 3DLUT, PC mód, stb) szerintem jobban lefedi az LG a megfizethető modellekkel (már a C sorozat is korrekt, nem csak a legdrágábbak), mint a Panasonic (ott sem rossz a legolcsóbb se, de az extra nyalánkságok le vannak hagyva azokról, amit az LG olcsóbban is megad).
A Sony egyáltalán nincs szerintem a helyzet magaslatán az utóbbi években. Voltak jó LCD-ik, de a HDR-el és a kalibrálási funkciókkal szerintem le vannak maradva (kivéve talán a csúcs LCD-iket). Az egyetlen említésre méltó funkciójuk az a 48+72Hz BFI az OLED-en, de a BFI-t ~1% használja, és aki használná, azok mondjuk 10%-a bírja a 48Hz-s módjukat (és csak ezért én sem vettem azt).
Az LG és a Panasonic is 3DLUT-ot használ már (akár programozhatót), a Sony pedig még mindig fix színtér konverziót. Még a hagyományos csúszkás módszerrel sem hangolható, csak a szürke-skálára vannak csúszkáik, és az is kicsit furán működik az olcsóbb TV-iken. A HDR-t is furán oldják meg (ideális megvalósításban két különbözően beállított képmód kell náluk is SDR-ra és HDR-re, de nem vált köztük automatikusan a TV, neked kell azt mondani, hogy pl. a Cinema Home lesz az SDR, a Cinema Pro a HDR-hez beállítva, és majd lépteted kézzel).OLED-ek esetén a sima ABL is az LG-nél a legkevésbé agresszív az utóbbi években. A Pana (kivéve a GZ) és a Sony is sokkal hamarabb limitálnak, ami monitorként használva zavaró lehet.
-
janos666
nagyúr
válasz
Pro Koryak
#32222
üzenetére
Hát, ha a Pioneer nem halt volna meg 2009-ben, talán sohasem lett volna híres a Panasonic plazma sem. Sőt, szerintem eleve csak 2011-től beszélhetünk igazán jó PDP-kről, amik nem Kuro-k. A Panasonic 20-as széria sem volt még akkora csoda, 30-tól volt igazán értékelhető (a 20-as szérián még folyamatosan romlott a kontraszt az üzemórával).
Sőt, 2011 környékén személy szerint a Samsung felé húztam, mert akkor jelentősen olcsóbban adták a hasonlóan jó plazmáikat, mint a Panasonic.
Később viszont a Samsung egy helyben toporgott minőségben, miközben felfelé indult el az ár, a Panasonic pedig szépen fejlesztett tovább minden évben, így lett az utolsó évekre egyértelmű győztes. A Samsung már csak egy utolsó F8500-at adott ki, ami jobb volt, mint az évekkel korábbi D8000, de az sem érte utol a VT60-at. Viszont a VT60 sem a 9G Kuro-t (legfeljebb a fiatal VT60 az 5+ éves használt Kuro-t, amibe belevertek már több ezer üzemórát).Na most OLED-nél pedig ott vannak, hogy ugyan azt az LG panelt használják, mint az LG, a processzor és szoftver oldalon pedig kb. 50/50 a helyzet, mert van amiben jobbak, van amiben rosszabbak. Tavaly DV nem volt még, idén HDMI 2.1. Ezek nélkül nyilván lehet élni, sőt, valószínűleg ~1%-ot érintenek az adott évben, de több éves távlatban már talán érdekesek lehetnek (ha nem cserélgeted 1-2 évente a TV-t). A gyári alapbeállításik is pontosabbak, viszont az LG jobban kalibrálható, legalább is a megfizethető modellek (az LG-nál már a B modellek is programozható LUT-osak, míg a Panasonic-nál csak az árban is csúcs GZ-k). A 2018-as Panasonic-on kevésbé volt gond a sötétszürkék villogása, de a szoftverfrissítések után már az LG-ken van ezzel kevesebb gond, míg a Panaosnic nem foglalkozott az eladott modellekkel, csak a 2019-eseken pofozta ki ugyan ezt a bakit (legalább olyan szépen, mi t az LG a 2018-asokon is).
Szóval én semmi igazi előnyt nem látok a Panasonic-nál. Egyszerűen minden pozitív érvre jut náluk egy negatív, amitől kb. semleges lesz a kép.Majd talán a dual-layer LCD-ben vezető lehet egy ideig a Panasonic.
-
janos666
nagyúr
"Pl egyertlemu bullshit a B8 alacsonyabb HDR csucsfeneye (~700 nit) a C8-hoz (~900) kepest: ugyanaz a panel van benne."
Lehet, hogy ugyan az a panel (legalább is a hardware), de ahogy már fejtegettem, szerintem onnan jön a C8 jobb HDR színkezelése (pontosabb színek 100 nit alatt, nincsenek kifakítva a W-vel a sötét RGB színek), hogy más üzemmódot választ a processzor HDR-hez (más RGB->WRGB keverést), vagy hogy a >=C modellekbe szánt 2018-as panelek más firmware-t kapnak, mint a B-be szántak (szóval vagy eltérnek panel-firmware szinten, vagy mindben ott van minden üzemmód, és a processzor tudja, hogy mikor melyiket válassza a modelltől függően). Lehet, hogy így jön ki a magasabb csúcsfény is (ha ebben a módban / ezzel a firmware-el már nem rontja el a sötét színeket a W, mint 2017-ben, akkor most még messzebb engedik neki kifakítani a csúcsot, így jön az ki magasabbra?).
De megnézte valaki a B8-on az R alpixel méretét, hogy tényleg az új 2018-as penelt kapta a B széria (nagyobb R-el, mint 2017-ben volt)?(#32078) chros
Nekem még mindig egyforma a kettő (DV és HDR10) a tartomány nagy részében, és TED listája szerint bőven az 1000 nit-es OLED monitorral készült Blu-Ray filmek dominálnak. Szóval még mindig nem értem miért nem lehet ma DV nélkül élni.
Vagy hogy miért lenne közelebb az igazsághoz a HDR10+DTM, ha közelebb van a HDR10 enélkül a DV-hez is. A DV-t hogy nézed DTM-el?
Szerk.: Hopsz, paint-ben összekevertem a két piros feliratot (a DV megy magasabbra). De a lényeg, hogy legalább 50%-ig, ami nit-ben már jóval több is, mint 50%, ugyan azt a görbét követi a HDR10 és a DV is, mikor <=1000 nit a HDR10 metadat. -
janos666
nagyúr
válasz
alaves
#32060
üzenetére
Ezt én arra értem, hogy nem feltétlenül tényleg úgy jelenik meg a valódi hardware különbség, ahogy az LG címkézi a marketingben. Lehet, hogy a 2017-es és 2018-as hardware (a SoC, avagy a processzor) lényegében majdnem ugyan az, és csak a szoftver hoz javításokat, újdonságokat. Ahogy az is lehet, hogy a 2018-as tényleg újabb hardware (ha nem is nagyon más, de egy friss revízió, mondjuk kicsit magasabb órajelekkel, több RAM-al, stb), de azon belül a B8 és C8 ugyan az, és csak a szoftver "butít" picit a B8-on. Vagy a kettő közt (a B8 is megkapja az emelt órajelet, de a több RAM-ot nem, stb).
Azt mondják, hogy az Alpha9 csak C8-tól felfelé van, mégis sok mindenben sokkal jobban hasonlít a B8 a C8-ra, mint a B7-re vagy C7-re. Sok minden nem működött egyik 2017-es TV-n sem, ami minden 2018-ason egyformán jó.
Sőt, az egyik látványos különbség, ami mégis megemlítendő, hogy jobb a HDR színkezelés a C8-on, mint B8-on, annak lehet, hogy kb. semmi köze a processzorhoz, hanem a kijelzőpanel vezérlőjében van új WRGB mód (amit a processzor csak kiválaszt egy listából), mert egyszerűbbnek, logikusabb tűnne ott hangolgatni azt a problémát, ami a W alpixel léte miatt alakul ki, mint hogy a processzor próbálja előre hozzáigazítani az RGB-t úgy, hogy tudja mit ront majd el a panelvezérlő az RGB->WRGB konvertáláskor (azt is az LG csinálja, miért dolgozna maga ellen?).(#32063) chros
Hát, amikor DV réteg nélkül jön ki egy Blu-Ray, és azt állítja magáról, hogy 1000 nit-es monitoron készült (ami valószínűleg egy OLED monitor), akkor feltehetően tényleg sz@rtak a Dolby-ra a készítők.
Ez nem tudom, hogy miért hihetetlen, hogy valaki LCD helyett OLED monitort preferált és/vagy nem akart tejelni a Dolby-nak. Vannak azért viszonylag kis költségvetésű, "művészies" filmek is, amik "odaadással készülnek", nem csak Dolby logóval. 
Mikor nincs a lemezen DV, de azt mondja a metadata, hogy 4000 nit-en volt a monitor, akkor valószínű, hogy a DV-re is gondoltak, csak valamiért mégsem lett az (legalább is az a korong).(#32071) krx21
A C8 tuti sokkal jobban interpolál, mint a C7. Szerintem a B8 is, mint a B7, bár ezt nem szoktam nézegetni (utálom az interpolációt). De ha lesz alkalmam, majd megnézem. -
janos666
nagyúr
(#32047) krx21
Párszor fejtegettem már, hogy szerintem hatalmas maszlag ez az egész Alpha generáció dolog. De itt nem is adtak neki új számot, csak odatolták, hogy gen2, ami még marketing szinten is azt mondja, hogy "picike változás".(#32049) chros
Tudod, hogy a HDR10 anyagokban minden code value egy abszolút nit értéknek felel meg, és hogy amíg a maxCCL <= a nit érték, amivel a TV processzora számol (ami jó esetben és elvileg a kijelző valós csúcsértéke), addig nincs szükség semmi torzításra, hanem mehet az 1:1 mapping.
Ha a kettőt összeadod, akkor minek kéne dinamikusnak lennie, és minek kéne egyáltalán változnia a képen az 1:1 mapping-hez képest?
Mi a rossz abban, mikor elvileg pont azt látod, amit a studióban láttak?
Persze ha jelentősen magasabb a maxCCL és ők világosabb kijelzőt használtak, akkor sohasem fogod pont azt látni, amit ők. De erre is van hivatalos javaslat, hogy ilyenkor mit láss helyette, és elvileg ezt csinálja a TV DTM nélkül (jó, tudom, valószínűleg vannak benne bugok --- de ehhez jön segítségül a madVR, ha ott is kikapcsolod a dinamikus dolgokat).
Én ide (magas maxCCL) szívesen elfogadnám a dinamikus, valós-időben hisztogram-elemzős dolgot, csak az vele a bajom, hogy az alacsony maxCLL eset egyértelműen elárulja nekem, hogy a DTM egyszerűen hibás (sokkal nagyobb mértékben, mint a normál mód), vagy ami valószínűbb, hogy igazából nem azt csinálja, amit az LG mond róla.
Akkor miért használjak "valami izét", ami tudom, hogy vagy nem az, aminek mondják, vagy ránézésre is rosszul működ?
-
janos666
nagyúr
(#32033) Pro Koryak - Ezzel is próbáltad (úgy, hogy ültél előtte 1-2 percet teljesen sötét szobában, hogy alkalmazkodjon a szemed a sötéthez)?
(#32034) chros Szerinted szabadna változnia bárminek a DTM ki/be állása közt, mikor maxCLL <= 700 ? Ha mégis változik, és ennek ellenére használod, akkor szerintem egyszerűen csak tetszik neked a Dinamikus Kontraszt alacsony állása, mikor DTM-nek nevezik.
(#32039) krx21 - Szerintem semmi nem változott (legalább is számottevően, észlelhetően) a képfeldolgozási minőségben 8 és 9 közt.
-
janos666
nagyúr
válasz
Archttila
#32036
üzenetére
Ha LCD-n interpolációt használtál, és OLED-en is azt tervezel, akkor a mozgás legalább olyan jó lesz, vagy jobb, mert kikapcsolt interpolációval az OLED a jobb (tehát jobb pozícióból indul).
De az a gond, hogy az interpoláció erősen ízlés kérdése, és majdnem minden TV-n más (ami nem ugyan azt a processzort használja, ugyan azzal a szoftveres alappal), akár LCD, akár OLED. Szóval ha szereted a Samsung interpolációját, nem biztos, hogy akár a Sony-é, vagy Panasonic-é tetszeni fog, de lehet, hogy még az LG-ét is jobban elfogadod majd. Ezt szerintem még te sem tudod megállapítani egy gyors bolti körből sem, mert nagyon véletlenszerű, hogy melyik interpolációs megoldás egyes tartalmaknál milyen képet generál, és azon épp mikor, hogy veszed észre a hibákat. -
janos666
nagyúr
04.10.31 előtt minden olyan jó, mint átlagosan várható (viszonylag pontosak a gyári képmódok, ha az ajánlások szerint vannak házilag beállítva), kivéve, hogy néha látszódni fog a sötétszürke villódzás.
04.10.31-al jelentősen csökken a villódzás, viszont minden formátummal (SDR, HDR10, DolbyVision) túl sötétek a sötétszürkék (részben ez a sötétbe buktatás hivatott elrejteni a bár már csökkent mértékű, de némileg még mindig jelenlévő villódzást). Ha újrakalibrálod a sötétszürkéket, akkor valószínűleg még találkozol néha a villódzással problémás tartalmaknál.
Az ezt követő néhány firmware (az hiszem ez már mind 5.10.xx) valamelyest visszahozta a korábbi firmware-ekkel megszokott átlagos színhelyességet: SDR és HDR10 formátumokkal már nem bukik be annyira feketébe a sötétszürke, de DolbyVision-el még igen.
05.10.20-tól kezdve tovább csökken a villódzás, gyakorlatilag már elhanyagolható mértékű akkor is, ha újrakalibrálod a színhelyes képmódokat. Ugyanakkor a DolbyVision formátum még mindig nem az igazi (még a 05.10.35-el sem). Úgy tűnik, hogy ott elfelejtették visszakalapálni a sötétszürkék bebuktatását (pedig úgy tűnik, hogy most már tényleg nincs rá szükség).
Ami probléma lehet, hogy v5 telepítése után nem tudsz visszamenni (nem csak v4-re, korábbi v5-re se). De ha megvagy DolbyVision nélkül, vagy nem zavar, hogy kicsit bebuknak a szürkék feketébe (pl. van aki bekapcsolja a Dinamikus Kontraszt-ot, és az is csinál hasonlót, van akinek ez akár tetszik is), esetleg újra tudod magadnak kalibrálni(/tatni) a DolbyVision képmódokat is, akkor szerintem a 05.10.20 a nyerő.
Még annyi tartozik ide, hogy a B8 is megörökölte a TRC csúsztatásokat (bebukó sötétszürke), viszont nem kapta meg az egyéb villogás javításokat. Így ott nem olyan jó ötlet 04.10.31-re, vagy magasabbra frissíteni. Legalább is, ha nem fogod kalibrálni(/tatni).
-
janos666
nagyúr
válasz
Pro Koryak
#32011
üzenetére
Ez lenne a kérdés, hogy mi most a helyzet a 2018-as Panasonic-okkal, mert azt mondod, hogy tökéletes/legjobb rajtuk a sötétszürke, pedig úgy emlékszem, hogy majdnem annyira villódzott rajtuk a fekete és sötétszürke közti váltás, mint a 2018-as LG-ken (nem egészen annyira, mert kicsit szebben árnyaltak a Panasonic-ok már az előtt, hogy külön figyeltek erre a hibára, ami meglátszott pozitív irányba, de azóta már kétszer is finomítottak ezen az LG-nél).
Az LG már a nyáron ki lett félig pofozva, most őszre pedig szinte teljesen.
A Panasonic 2019-es modelljei is kvázi tökéletesek (első naptól), de mi van a 2018-asokkal? Azok hogy működnek most a legutolsó firmware-el?
Ha jelenleg jobban villognak a fekete-szürke átmenetek a 2018-as Panasonic-on, mint a 2018-as LG-n, és a Panasonic esetén nem az a megoldás, hogy hónapokon át vársz a jó firmware-re, hanem hogy eladod és veszel egy 2019-es modellt, akkor nem tapsolnék olyan hangosan, és nem az LG-t szidnám, hogy milyen lassú és nehézkes végre a helyére tenni azt a 2018-as firmware-t (bármilyen zavaró is a bénázásuk).
Ha most láthatóbban villódzik az átmenet a 2018-as nem-LG OLED-eken, akkor nem helytálló a kijelentés, hogy jobb rajtuk a sötét árnyalatok kezelése, mint az LG-ken.
Amit a Panasonic csinált 2019-ben, az talán nem is vihető át szoftveresen a 2018-as készülékekre (se LG, se Pana, se Sony), mert nem a processzor, hanem a panelvezérlő szoftverében lehet a változás, amit nem biztos, hogy a szokásos firmware frissítés során módosítani tudnak (és ha igen, akkor sem biztos, hogy akarnak, mert nem olyan sima ügy, nagyobb lehet a baj pl. áramszünet miatt), bár volt már példa hasonlóra (a plazmákon volt szokás 2011 környékén frissíteni a TCON firmware-t hasonló jellegű képi anomáliák kapcsán a Panasonic-nál és Samsung-nál is, szóval ha már akkor gondolt ilyesmire több nagy gyártó, hogy lehetséges legyen, akkor elképzelhető, hogy az LG is fel volt már készülve az utóbbi években, viszont még nem láttunk rá példát OLED-eken, vagy akár régebbi LG nem-OLED TV-ken, szóval passz...).
-
janos666
nagyúr
Philips OLED-el szerintem keveseknek volt még dolgunk.
Lefényképeznéd a képbeállítások főmenüt?
Nem biztos, hogy van megfelelője, de szerintem a Kontraszt lehet az (és akkor a Video Kontraszt lesz az, ami a legtöbb TV-n simán csak Kontraszt).Az OLED Fény az olyasmi, mint a kijelzőpanel analóg erősítési értéke. Ahhoz hasonlatos, mint LCD-ken a háttérvilágítás szabályzó, vagy Samsung PDP-ken volt a Cella Fény. A megjelenő kép fényességét szabályozza anélkül, hogy vágná vagy tömörítené a processzor a digitális kontraszttartományt.
-
janos666
nagyúr
válasz
athomi
#31993
üzenetére
De. A kifejezetten tesztvideó gyűjteményen belüli egyetlen HDR10 videót leszámítva gyakorlatilag minden HDR anyag elérhető náluk DV formátumban is.
A TV-ken pedig, amik tudnak DV-t, azokon kérdés nélkül DV-t választ a Netflix app (szerintem nincs is rá manuális kapcsoló, hogy letiltsd és a HDR10-et preferáld).
A kettőből következik, hogy ha a TV-s app-ot használod, akkor gyakorlatilag mindent DV-ben nézel, ami elérhető HDR-ben, ha tud DV-t a TV-d.
De pl. a Windows-os Netflix app csak HDR10-et tud használni (DV-t nem) és ott ugyan azok a filmek érhetők el HDR-ben, mint a TV-ken DV-ben.De szerintem sok esetben csak egy konténernek használják a DV-t a Netflix-nél, pusztán marketing célból (reklámozni a Dolby-t és/vagy magukukat, hogy milyen sok náluk a Dolby). Nem hiszem el, hogy mikor Blu-Ray lemezen DV nélkül, csak HDR10-ben adnak ki egy filmet, amit nem is a Dolby javaslatai szerint készítenek (~4000 nit helyett ~1000 nit képes monitort használnak), akkor a Netflix-nek külön DolbyVision kiadást gyártanának a studiók. Bár fene tudja. De az is biztos, hogy szebben néz azért ki a HDR10-es BD, mint a Netflix-es DV ugyan annál a filmnél, még akkor is, ha meglepően szép a Netflix is. Valahol csak meglátszik a bitráta is.
Extra vicc: azt az egyetlen HDR10 tesztvideót nem is tudja helyesen lejátszani az LG TV. Ezért gondolom, hogy tényleg lehetetlen rábírni bárhogy a TV-n futó Netflix-et, hogy válasszon inkább HDR10-et. Nem is csak prioritás a DV, hanem le van tiltva a HDR10.

-
janos666
nagyúr
válasz
alaves
#31977
üzenetére
Hogy sok filmnél, azt nem mondanám, de én is láttam már olyat, hogy a videokép része volt a fekete keret (16:9 képarányhoz), és sem 0 fekete volt, hanem egyértelműen szürke: Divergent (UHD HDR Blu-Ray), pedig a világos effekteket elengedik jó magasra (amiből úgy tűnik nem az volt a cél, hogy szándékosan "lapos" hatású legyen). Érdekes, mert ennek az FHD SDR Blu-Ray kiadása még nagyon tetszett (a film 'nézhető', a képre gondolok) és a következő rész UHD HDR kiadása a másik végletbe húz: napfényben álló színész fekete zakóján is találni vak fekete foltot.
A Solo-s Star Wars-ban se nagyon van fekete pixel, de nem ennyire szembetűnő, már csak azért sem, mert ott nem a kép része a fekete keret, és vakító világos foltok sincsenek benne, így egyértelmű, hogy az szándékosan ilyen látványvilágú.(#31970) Pro Koryak
Azt tudom, hogy a 2019-es Panasonic-okon gyakorlatilag egyáltalán nem villognak már a sötétszürkék, ahogy az e havi firmware frissítés óta már a 2018-as LG-ken se, de a 2018-as Panasonic-okkal és Sony-kkal mi most a helyzet? Nem nagyon hallottam róla, hogy azokon reszeltek-e végül (tudom, hogy eleve kissé kevésbé jött rajtuk elő a probléma, mint az LG-ken a korai firmware-ekkel, de azokon is jelen volt). Ilyenkor azért egy évjáratot hasonlítsunk már össze, mikor azon nyammogunk, hogy milyen sok időbe és verziószámba telt az LG-nek.
Ja, amúgy a C8 DolbyVision módban még a 05.10.35-ös beta firmware-el is bebuktatja a sötétszürkéket.

-
janos666
nagyúr
De a DTM nélküli hibákat szerintem ki kéne szűrje a DTM és a 700 nit-re elő-feldolgozás is külön-külön. Elvileg DTM-el ignorálja a TV az eredeti metaadatokat (vagy ha számításba is veszi, akkor sem csak abból dolgozik, másképp számol - bár ezt nagyon nehéznek tűnne visszafejteni, hogy mégis miképp), előfeldolgozásnál pedig tudjuk, hogy milyen konstans metaadatot küld a TV-nek a madVR (amikkel úgy tűnik, hogy jól boldogul a TV a DTM nélküli mérések alapján).
Szerintem csak így (minden extra 'ki'), hogy kizárd a TV oldali feldolgozást az esetleges bakijaival (legalább is azt hiszem, persze lehet, hogy 100-700 közt is is az 1000-hez tartozó paramétereket használja, mert az van legközelebb, és talán nincs külön opciója <=700 esetre, csak 100-1000, 1000-4000, 4000-1000, de ha az 1000-hez tartozó paraméterekből interpolál, az se nagy beavatkozás 700-on).De szerintem annyira ordít a DTM-ről, hogy kamu hulladék. Keress valami nagyon sötét éjszakai jelenet, mindenféle világló kis fénypont nélkül, aztán kapcsolgasd ki/be: azonnal látni, hogy látványosan felvilágosodik az egész kép. Ennek egyszerűen nem szabadna megtörténni, ha tényleg csak a képkockák csúcsát keresi. Olyan képkockán is durván beavatkozik, ahol szerintem egyértelműen semmi dolga nem lenne, bármi is az eredeti metaadat (legyen az bármilyen idióta érték).
-
janos666
nagyúr
"En jelenleg madvr pixelshader HDR>SDR konverzio + LG DTM"
1: Mármint madVR HDR processing + LG DTM? (SDR bemenettel nincs LG DTM.
)2: Miért gondolod jobbnak a kettőt egyszerre, mint csak egyet a kettő közül?
2/A.) A madVR konverzió (minimalista beállításokkal, "tweak"-ek nélkül) szerintem önmagában nem árthat (bár nem ideális, mikor a lejátszó konvertál 10bit-es anyagot és 10bit megy ki a TV-re, de legalább ditherel). Gyakorlatilag kicseréled a TV algóját a madVR-éra (ami feltehetően legalább olyan, ha nem még jobb).
2/B.) A DTM szerintem mindig árt egy kicsit, de ha ízlés szerint mégis bekapcsolod, akkor szerintem teljesen felesleges előtte madVR-al piszkálni. Ilyenkor elvileg nem zavarhatja a TV-t sem a 700 nit feletti tartalom, sem az eredeti metadata. -
janos666
nagyúr
Ne szerénykedj, ez nagyon időigényes és tényleg hasznos munka.

Ebből most újra azt szűrtem le, hogy úgy tűnik, a 2018-as modelleken is bőven van elég furcsasága az LG féle HDR10 tone-mapping algónak (még "valós" gyakorlati szituációkban is, lásd: Guardians of the Galaxy), hogy valószínűleg mégis többet ér madVR-al 700 nit-re konvertálni mindent, mintsem pass-through nyomatni.
Az ilyenekhez nekem sajnos már évek óta nincs elég türelmem/kitartásom, hogy nekiüljek, tisztességesen végigmérjem, de főleg hogy aztán emészthető formában publikáljam is valahol.
Annak idején tesztelgettem hasonlókat a C7-en (ha nem is ilyen kimerítően), akkor is arra jutottam, hogy valószínűleg jobb, ha konvertál a madVR (bár akkor még az sem volt ilyen ügyes), viszont mikor megnéztem újra futtában a C8-at is, akkor úgy voltam vele, hogy "most már mindegy, jó lesz a pass-through", nem sejtve, hogy valószínűleg pont akkoriban volt hibás az nVidia driver-ek metadata kezelése, így nem csoda, ha nem láttam semmi különöset a metadata függvényében.
Az piszkálja még kicsit a gondolataim, hogy DolbyVision módban vajon tényleg a Dolby chip (CMU) felel a tone-mapping-ért, vagy az csak "elődekódol" és LG processzora dolgozik ott is (utóbbi esetben ott is előjöhetnek a fenti anomáliák, mikor épp olyanra esik a dinamikus metaadat, amin HDR10-ben "eltéved"). A felületes, általános sajtóanyag alapján mindig a CMU csinál mindent. Az is erre utal, hogy más formátumban kell feltölteni az LG TV-knek a DolbyVision mód paramétereit, amiben mindig benne volt a peak white is (a 3x3 mátrix mellett). De szerintem semmin nem lepődnénk meg, ha kiderülne, hogy mégsem úgy van, ahogy addig hittük.

Viszont ugyan ebben a kérdésben nem ártana tudni azt sem, ha a legtöbb mai DolbyVision anyag tényleg DV-ben van master-elve, vagy "csak" HDR10-ben, amire aztán ráküldenek valami algót, hogy dinamikus metaadatot generáljon (vagy még azt se, és gyakorlatilag végig statikus).
Pl. nagyon gyanús nekem, hogy a Netflix-en tényleg szó szerint minden DolbyVision, ami HDR, még azok a filmek is, amiknél a Blu-Ray kiadás 1000 nit-en master-elt HDR10. Az nagyon adja magát, hogy egyszerű konverzió, kizárólag a formátum promóciója végett.
Bár végül is nincs azzal sem semmi baj, ha gyakorlatilag 100% ugyan az van mindkét konténerben (és <=1000 nit minden). Csak azt teszi nehezebbé, mikor az ember otthon próbálná összehasonlítgatni őket. Akkor megtévesztő, hogy mit látunk, mikor nem egyformák:
1: kizárólag az LG processzor és Dolby CMU feldolgozása (gamut és tone-mapping) közti különbséget (ha igazából ugyan az a két tartalom, mégsem néznek ki egyformán a két mód közt),
2: valami auto-generált dinamikus metaadat játék miatt néz ki másképp a DV kivitel (tehát lényegében olyan, mint ha bekapcsolnánk a Dinamikus Tone Mapping-et HDR10-hez, csak előre generálták)
3: tényleg DV-ben van master-elve az anyag (még akkor is, ha igazából nem 4000 nit-en, de mégsem ugyan az az anyag, amit a Netflix kapott, és ami a Blu-Ray lemezen van).De ugye az 1-es ponthoz mostanában még az is hozzájön, hogy a sok "macro block" firmware kavarás után már nem egyforma gyári LUT-okat használ az LG a HDR10/HLG és a DV módokhoz (valószínűleg puszta véletlen tévedésből).
Amúgy van új teszt firmware, 5.10.35, majd felrakom, ha megjött a a HDFury Integral. -
janos666
nagyúr
Nem lep meg, hogy nem tolonganak a felhasználók a beszámolóikkal.
Én pl. évek (5+) óta erre várok, már akkor is ebben reménykedtem, mikor mindenki váltig állította, hogy sohasem lesz G-Sync nVidia-tól vásárolt FPGA/ASIC nélkül, és ebből kifolyólag TV-kben még annyira sem lesz G-sync (vagy legfeljebb is csak túlárazott "gamer TV-kben", mint a Big
Fuckin'Format Gaming Display, amit PC-s gyártók raknak össze TV gyártók paneleiből, elvileg szintén dedikált G-Sync modullal). Az AMD-vel pedig ne viccelődjünk (még akkor se, ha már tavaly is volt a Samsung-nál FreeSync).Ugyanakkor személy szerint Black Friday előtt akkor sem vennék új TV-t, ha a legnagyobb ugrás lett volna idén az utóbbi 5 évből. De nagyon nem így volt. A C9 minimális lépés, még a 240Hz BFI-t is lehúzták a listáról megjelenés előtt. Illetve még mindig ugyan úgy gyenge a SoC, hogy PC módban (alacsony késés és 4:4:4 / RGB mellett, ahol a VRR érdekes) is szép legyen az árnyalatfelbontás (főleg hogy ez HDR-ben se hagyjon kívánni valót, mert SDR-ban még tűrhető, csak hát évek óta vannak már HDR játékok...). Még a range sem a legjobb (indulhatna mondjuk 24-ről 40 helyett, 30-as számokba simán beeseget az fps olyan beállításokkal, amikkel máskor felnyal 60-ig)
De a VGA-k is hasonló sz÷pás, mert nem csak hogy nincs még HDMI 2.1 semmi pénzért, de a 2.0-ra portolt VRR is csak Turing-ra jött, Pascal-ra nem, pedig a Turing is minimális fejlesztés így, hogy szinte csak Tensor magokkal hízott, nyers erőben sehol sincs arányban az árazásával (főleg, hogy már a Pascal is drága volt az első 1-1.5 évben és csak kényszerből vette az ember az első leárazás utáni árcímkén is).
Szóval szép és jó, hogy már elindultak és legalább ennyi van, de még nem érzem, hogy "már ott vagyunk" (ahol erre ugrani kéne/lehet). Nagyon drága, nem jó az ár/érték. Legfeljebb annak éri meg kis plusz rátenni, aki amúgy is most vesz új cuccokat más miatt is.
-
janos666
nagyúr
válasz
Akhilles01
#31873
üzenetére
A DolbyVision az HDR, és ahhoz is a gyári alapbeállítás a jó OLED Fény-re, de az ott nem 100, hanem 50.
-
janos666
nagyúr
A legújabb tesztverziós LG C9 firmware és nVidia driver mellett már működik a G-Sync Compatible mód RTX kártyákon.
Az nVidia megoldása elvileg szabványos HDMI 2.1 VRR támogatás a 2.0 sávszélre képes VGA porton (minden HDMI 2.1 VRR képes TV-n bekapcsolható speciális G-Sync firmware nélkül). Hasonló, mint az XBox One VRR támogatása, ami még öregebb HDMI 2.0 hardware.
Az LG firmware valószínűleg az nVidia saját hitelesítési tesztjéhez kellett. Az XBox-al is vannak páraknál gondok, mikor bekapcsol pár játékban a VRR. Tehát ez sem speciális G-Sync támogatás, csak a HDMI 2.1 VRR-hoz bugfix.
Lehet, hogy a 2018-as LG hardware-en lehetetlen lenne VRR-t támogatni (bármilyet: AMD/nV speckó, vagy HDMI szabvány), de szerintem nem a HDMI rész, hanem inkább a panelvezérlő lenne a probléma (az valószínűleg pár év után idén új, mert tudna 240Hz-et, csak le lett tiltva), vagy csak sok munka lenne visszapakolni mindent a 2018-as szoftverbe.
-
janos666
nagyúr
Szerintem az LG-nek, mint úgy általában a legtöbb TV gyártónak eleve nem szokása a szoftveres funkcióbővítés, főleg miután már boltokban van a következő széria, akkor nem fognak vissza-portolni gyakorlatilag tisztán szoftveresnek tűnő dolgokat sem, de főleg nem olyat, amire rá lehet fogni, hogy hardware módosítás tette lehetővé (ha igaz, ha nem).
Végül is az eARC jelentősen nagyobb sávszélességet használhat, így elképzelhető, hogy nem képes rá a régi hardware akkor sem, ha csak egy új revíziója a régi SoC-nak.
Ugyan így lehet, hogy a HDMI 2.0-ás VGA-kkal is működő G-Sync VRR, amit most kap meg a 2019-es család, szintén hardware kérdése is.A 2017-es modellek kaptak ugyan egy Technicolor frissítést, ami sokat javított a gyári képmódokon, de az egyrészt még 2017-ben történt, másrészt pl. sohasem kaptak ezek a TV-k BFI-t, ami a 2018-as modellek egyik újdonsága volt (és szinte biztos, hogy csak szoftver kérdése). Ugyan így nem kapták meg a hardware-es LUT kalibrálási opciót sem, pedig létezik hozzájuk ilyen "studio edition" firmware (ami sohasem került nyilvánosságra, a studióknak eladott készülékeken fut), szóval megint csak nem hardware kérdése (sőt, nem is lehet sok extra munka a programozóknak sem).
Ugyan így nem kapták még meg a 2018-as modellek az iTPG-t, pedig ezeket is CalMAN AutoCal támogatással árulták, amikhez a Spectracal külön Home edition kulcsokat is árul, pedig hamar kiderült, hogy egy Home user-nek gyakorlatilag megfizethetetlen egy DolbyVision jelgenerátor, hogy iTPG nélkül használhassa teljes körűen, tehát ez szerint szigorúan nézve közel sem új feature 2019-ben, hanem triviális hiánypótlás (avagy bugfix) 2018-ból (mégsem kapták még meg a '17-esek és szó sincs róla, hogy meg fogják). Hasonló az is, hogy a 8-asokon fix 700nit a HDR tone-mapping során használt csúcsfény, mindegy mit mérsz kalibráláskor. Szerintem ez is bugfix, mintsem feature, hogy a 9-eseken átírható ez a paraméter.
U.i.: De azért jó, hogy eszembe jutott most ez. Megint szétnéztem Ebay-en, és találtam egy viszonylag olcsón hirdetett, használt HDFury Integral-t az EU-ban. Gyorsan meg is rendeltem, szóval valamikor a héten már talán tudok DolbyVision-t mérni/kalibrálni (de ez a megfizethető kütyü a létező legolcsóbb, "fapados" megoldás, nem önálló DV jelgenerátor, csak ki lehet vele ügyködni a dolgot, ha szerencsés az ember, és akkor is csak korlátozottan használható).
#31863) jilian - Ha van/lesz Geforce RTX kártyád, már csak hetek kérdése, hogy G-sync kompatibilis lesz a C9. Játékra ez hasznos lehet. Ha AMD kártyád van/lesz, akkor a Samsung FreeSync-es. De a képminőség és mozgás jobb az OLED-en hasonló körülmények közt.
-
janos666
nagyúr
válasz
Pro Koryak
#31836
üzenetére
Ha teljes értékű, és terjedelmű gyári garancia van rá, akkor miért ne?
Hasonló áron általában inkább csak használtat kapsz, rosszabb esetben kérdéses garanciával (pl. van ugyan pecsételt papír, csak épp nem biztos, hogy a mi régiónkba szánt modell, így itt nem szerelik), de legalább is a jótállási idő kb. felét már felélve.Közben én is bejelentkezek, hogy az 55C8-am a héten töltötte be a 2000 órát, és nem jött elő a közepén ~25% téglalap, illetve nincs látható beégés. A homogenitás sem romlott (sőt, mint ha kevésbé látszódna a jobb-bal széleken a pici zöldesség, de lehet hogy már csak nem tűnik fel, mert nem nézegetem, mint új korában). Egyedül az 5% szürke csúnya egy kicsit (a 10% már szép), de az már hónapok óta ilyen. Nem függőleges sávok vannak benne, hanem kb. az 50% belső terület (nem éles vonal mentén) világosabb, mint a "kerete". Ez szabad szemmel is látszik (ha homogén ábrán nézegetem, használat közben nem), de tűrhető (telefonnal fényképezve nagyon átverősen durván néz ki, mert a "keret" feketébe bukik, a közepe pedig kiviláglik, de szemre nem ilyen). Viszont az az 5% szürke kb. olyan fényes, mint a másodlagos kijelzőnek használt LCD-n a 0% fekete (ami szintén nem teljesen homogén), szóval, hehe... ez legyen a legnagyobb baj...
-
janos666
nagyúr
válasz
ImACeltic
#31817
üzenetére
A Dynamic Tone Mapping állítólag figyeli a tényleges csúcsértéket, és a mastering display peak white (és/vagy más metaadat, mert van még pár hasonló, amit ritkán említünk, és még kaotikusabb, hogy a gyakorlatban melyik lejátszó/TV mit csinál, vagy épp nem csinál velük) helyett az egyes képkockák/jelenetek alatt, és ezt veszi figyelembe a roll-off / cut-off pontokhoz.
Állítólag már 2016-ban is ezt csinálta a Dynamic Contrast / Low állása, de az is egyértelműen mást csinált. 2018 óta van rá külön menüpont, de ránézésre most is valami hasonlót csinál, mint a régi DC / Low állás: gyakorlatilag a teljes kontraszttartományra kiterjedő dinamikus vezérlés, ami a sötétszürkétől a legvilágosabb foltokig, pillanatnyi képkocka kontrasztátfogástól függetlenül is mindenbe belenyúl egy kicsit (vagy nem csak kicsit).Viszonylag egyszerű ezt megnézni: indíts el egy 1000 nit-re master-elt filmet (az nincs messze a 700-tól, amivel a TV számol, mint névleges érték), keress egy sötét jelenetet (ahol tuti, hogy nem megy 100 nit fölé a legvilágosabb folt), aztán kapcsolgasd ki/be. Próbálhatod statikusan, vagy rövid jelenettel infinite loop-ban (ugyan az lesz). Szaladgálni fog tőle TRC, változik a kép olyan olyan tartománya olyan körülmények közt, amik Ki állásban "tökéletesek" (feltéve, hogy pontos a gyári kalibráció, vagy egyedileg kalibráltad a képmódot), de Be állásban elcsúsznak.
Ha akarod, következő lépésben hasonlítsd össze a HDR10 és Ki, HDR10 és Be, illetve a DolbyVision képét (ha meg tudod oldani ugyan azt a jelenetet ebben a három állapotban ugyan azon a TV-n, lehetőleg egy forrásból). Melyik HDR10 mód hasonlít jobban a DV-re: DTM Ki, vagy DTM Be?
Ha >>700 nit (pl. 4000) a mastering peak, az picit más lehet, de ha a DV-t tekinted referenciának, és a sötét árnyalatokat nézed (én azokra vagyok inkább háklis, attól veszik el a "kontrasztélmény" és a perspektíva hatás is, ha kivilágosodnak vagy feketébe buknak az árnyékok), szerintem akkor is azt mondhatod, hogy felesleges dolgokat csinál a DTM. Még ha ránézésre összességében tetszetősebb is esetleg, akkor sem pont az történik, amit a leírás alapján várnék.Minden esetre megnéztem: a C8-on nem került be semmi új menüpont a HDR / Game képmód alá. Viszont most látom, amit valaki már említett: valamiért ki van szürkítve a fehéregyensúly csúszka (mint mikor CalMAN-el van DDC-n át kalibrálva, csak épp nekem nincs a HDR Game mód, mert a HDR Technicolor-t használom játékra is PC címkével).
Ezt pedig meg kéne nézni jobban, de első ránézésre mint ha javították volna a DolbyVision TRC-t (nem bukik be a sötétszürke feketébe). -> Ezt most azért írom, mert fentebb javasoltam, hogy tekintsd relatív referenciának a DV módot a Ki/Be álláshoz, viszont több firmware-el is el van csúszva a DolbyVision képe is (bizonyos verziókban annyira, mint a HDR10-é és SDR-é is, de van amelyikkel jobban, szóval
). -
janos666
nagyúr
Három képmód van: SDR, HDR10/HLG és DV
Az első 3DLUT, a második kettő 3x3 mátrix (és mindhez van 1DLUT).
A PC/HDMI címke nem számít, ahogy a forrás sem. Minden kalibrálható képmódhoz menthető egy-egy LUT (1D+3D), ez lesz érvényben minden bemeneten (HDMI, Netflix, stb).Miért akarsz eltérő beállításokat?
Én TV módban kalibrálom a képmódokat, és utána PC címkével is használom. Szerintem nem lenne szerencsés PC módban kalibrálni még akkor sem, ha utána szinte mindig úgy használod. Ugyan olyan, vagy pontatlanabb lesz, ha már akkor rosszabb a precizitás, mikor méred (a banding okozta csúszást is korrigálni próbálja majd néha, de az úgysem sikerül, mert nem lesz több árnyalat kalibrálás után, mint előtt).
De van egy rakat kalibrálható mód (SDR-hoz 5, a többinél 2-3), szóval választhatsz, hogy melyiket mihez társítod (Netflix, TV adás, stb). -
janos666
nagyúr
válasz
renatto
#31651
üzenetére
Ha nincs a kettő szinkronban, akkor véletlenszerű sorokban vízszintes töréseket látsz (már aközben lecseréli a memóriájában a GPU a képkockát, hogy a kijelző végig kirajzolta volna, így amit látsz, az részben N, részben N+1) és némileg akadozik is a kép, ha nem egész számú többszöröse az fps a frekvenciának (nem elég sima a mozgás, a képtörést leszámítva is látszik, "érződik", hogy nincs teljesen szinkronban a kettő).
Legalább is viszonylag alacsony fps és freki esetén, mert ha mindkettő magas, akkor ezek minimálishoz kezdenek közelíteni (de ott vastagon 120 feletti Hz-ről beszélünk, nem 60-ról).A régi hagyományos Vsync jelentősen növeli a késést (ma már ismerünk rá trükköket, amik jelentősen csökkentik ezt az extra időt, és mai fejjel triviálisnak tűnnek, de szabványosan senki nem használja ezeket a megoldásokat, csak külső programokkal vagy a beépített funkciók kreatív használatával valósítható meg), csak hogy megszüntesse a csíkosodást/képtörést és kisimítsa a mozgást, amennyire adott körülmények közt lehet.
Ugyanakkor, amíg az fps alacsonyabb, mint a frissítési freki, addig igazából még durvábban szaggat, mint Vsync nélkül (a legidegesítőbb, mikor ugrál az állapotai közt, hogy épp milyen legkisebb közös nevezőre szinkronizál), szóval ez csak akkor jó, ha állandóan többre képes a GPU, mint a kijelző (vagyis csak nagyon ritkán esne alá).A VRR egyszerre simít, amennyit lehet, és minimális késéssel oldja meg a vízszintes képtörési gondot is. Minden képkocka a lehető leghamarabb kerül időben is olyan távolságokra egymástól, ahol elkészült a GPU-ban, így egész jól adja vissza a lemintavételezett emberi mozgást is (egér/joystick mozgatás, gombnyomás, stb).
Ahogy már tömören leírtam: a GPU sebessége nagyon véletlenszerű, előre nem látható, így kényszerből a kijelzőnek kell dinamikusan hozzá igazodnia, amíg csak tud, egyébként csökken az élmény valamilyen formában (képtörés, akadozás, késés --- legalább egy, de akár kettő-kettő együtt). Ha a GPU próbál igazodni, az lassít. Ha a kijelző, az nem.
-
janos666
nagyúr
válasz
renatto
#31645
üzenetére
Ilyenkor a kijelző igazodik ahhoz, hogy épp mikorran készül el (valamelyest véletlenszerűen) egy-egy képkocka a GPU-n, nem pedig a GPU gyűjtögeti össze őket későbbre, vagy ismételgeti meg a korábbi képkockát, hogy mindig kapjon valamit a kijelző, ami fixen ketyeg. A GPU-n nem fix sebességgel potyognak ki a képkockák, mert mind egyedi.
-
janos666
nagyúr
Az új '9-es fokozatok 240Hz módban működtek volna (szemben a '7-esek 120Hz-ével), de valahol a magasabb frekvenciával hozták összefüggésbe a "flashing macro block" problémát, ezért mikor sajtóvisszhangot kapott a dolog a '8-asok kapcsán, inkább elszanálták ezt a '9-esekről, nehogy menjen tovább a sajtóban, hogy a '9-eseken is villognak a szürkék (még akkor is, ha esetleg csak BFI-vel, vagy a hibrid BFI+interpoláció módban).
De ez nagyon ködös, mert a '8-asokon 120Hz-el is kisebb a villódzás BFI-vel, mint BFI nélkül (tehát mikor bekapcsolod, akkor javul a képminőség, nem romlik), illetve igazából már a '7-es széria is tudott natív 120Hz módot (a '6 passz, de a C7-n ), én is használtam játékra a C7-et 1080p120-ban is (és nem is vettem észre semmi szürke villódzást), szóval sok itt a maszatolás (hogy valójában mitől van és hogy függ össze az fps-el és/vagy BFI-vel). -
janos666
nagyúr
válasz
szuszinho
#31625
üzenetére
A felsoroltak közül a HCFR tud legkevesebbet (rég nem is frissült már és hardware DDC funkciója sohasem volt).
(#31626) PodMAN - Szerintem pillanatnyilag rosszabb. De attól függ mire gondolsz.
3DLUT-ot feltölteni jó a CalMAN is, de egyedi 1DLUT-ot csak a LightSpace-ből tudsz.
3DLUT-ot generálni szerintem még a DisplayCAL is jobb, mint a CalMAN (utóbbi nem a legjobb, mert csak a mátrix módja megbízható, a teljes, sok pontos 3DLUT "zajos", bugos), bár előbbit még nem próbáltam (de más eszközök esetén jó 1D/3D LUT-okat gyárt, így tippre itt is jó lehet). A LightSpace mostanság az etalon LUT generálásra (és LG-re feltöltésre is).
1DLUT-ot egész jót csinál a LighSpace és a CalMAN is. Előbbi statikus mérésből tippel, de úgy néz ki jól, utóbbi iteratívan dolgozik (mér, állít, újramér), de az is statikus pontokon (erre a DisplayCAL lehetne a legjobb, ha hagynánk a VGALUT-on dolgozni és azt át tudnánk másolni az LG hardware-re, mert az teljesen dinamikus algóval működne).A CCSS file minden i1d3-hoz jó, viszont amit linkeltem, azt C8-al csináltam, C9-et még nem mértem.
-
janos666
nagyúr
válasz
kopidoo
#31621
üzenetére
A DisplayCAL LG-re jelenleg csak SDR 3DLUT-ot tud készíteni, HDR-es 3DLUT-ot (kis mátrixot) vagy 1DLUT-ot egyik módhoz sem. Szóval elég korlátozott.
Ezt a 3DLUT-ot TV-re feltölteni csak LightSpace-el vagy CalMAN-el tudod (mindkettő fizetős, bár talán a LightSpace-hez lehet olyan kulcsot szerezni ingyen, amivel LUT-ot nem tudsz generálni, de feltölteni igen).
Jah, és itt van az i1d3-hoz a 2018-as OLED CCSS (ha nem találta meg automatikusan): [link](#31623) dgyuri0123 - A Black Friday is egész jó volt tavaly.
-
janos666
nagyúr
Vannak lejátszók, amikben így be tudod írni ezt az értéket a menüben (miközben a TV-n nem állítasz semmit). Asztali/lemezesből is láttam már ilyet, bár ott nem álltam neki nézegetni, hogy vajon pontosan mihez kezd vele (vagy csak a metaadatot üti át, és ezt küldi ahelyett, ami a videóban gyárilag volt, és ilyenkor a TV egyszerűen le szokta vágni az ettől magasabb tartományt, vagy a saját processzora újraskálázza a TRC-t, tehát módosít minden képkockán szinte minden színt valamilyen mértékben), illetve ott van Windows PC-kre a madVR (ami mindkettőt tudja: manuális peak white metaadat átütés [legalább is egy kis trükkel], vagy sokféleképp paraméterezhető képfeldolgozás, ahol válogathatsz, hogy színt vagy fényerőt áldozol inkább be, stb).
Egy példa: [kép]
Ez azért működhet így, mert abszolút a skála. Tehát ha 100-on hagyod az OLED Fény-t, amivel ~700 nit a max (*), akkor tényleg 400 lesz az a 400, amit oda beírsz a lejátszóban. Ha eltolod az OLED Fény-t, akkor ez már nem igaz =ahogy nem lesz ez igaz, mikor nem manipulálja a lejátszó a képet, mert akkor is az lenne a cél, hogy abszolút értékben adja meg a video anyag, hogy mi milyen világos legyen).* mielőtt kötekedés lesz belőle: igen, van benne szórás, (két kijelzőpanel közt) illetve ahogy melegszik úgy világosodik az OLED (kirakod a fehér pacát HDR módban és kúszik-kúszik felfelé a mért érték), de névlegesen 700-al dolgozik a TV processzora, ami általában elég közeli a valósághoz (de műszer nélkül úgysem mondod meg, hogy esetleg le kéne húzni az OLED Fény-t 100-ról 90-re, vagy ha a 100-as csúszkaállás is csak 680 nit és nem pont 700).
-
janos666
nagyúr
válasz
alaves
#31587
üzenetére
Ez egy régóta körbe-körbe járkáló tévhit, hogy HDR módban a csúcsfényt vágod le az OLED Fény csökkentésével. Ez nem így van.
Az OLED Fény az gyakorlatilag olyasmi, mint az LCD-ken a háttérfény vezérlés (vagy Samsung plazmán volt a Cella Fény). Úgy is gondolhatsz rá, mint egy analóg erősítési érték (mint a hangerő szabályzó az AVR-en, egy gain control).
Ugyan az történik SDR és HDR10/HLG módokban is, mikor csökkented az OLED Fény-t (a DolbyVision egy külön eset, ott mást csinál, de ott sem jó tologatni): az egész tartományra kihat, az egész görbét (kopp feketétől max fehérig húzva) szorzod be egy másik értékkel (minden egyes pontja máshová fog esni).
Az a gond, hogy HDR10 (és DV) esetén ez a görbe nem olyan egyszerű függvény, mint SDR-nál, hanem több szegmensből áll, és arra van kitalálva, hogy abszolút értékekre illeszkedjenek kijelölt pontjai.
Így tehát, ha egyéni ízlés, vagy szoba környezeti fény függvényében szeretnéd állítgatni, akkor ideális esetben valamilyen perceptuális modell szerint kéne újraskálázni a pontjait (elvben léteznek erre megoldások). De az OLED Fény nem egészen ezt csinálja.Ha nem szereted 100-as OLED Fény-el a HDR10-et, akkor egyszerűen nem szereted a HDR látványt, amit a készítők összeraktak neked. Ennyi. Ez nem feltétlenül baj, tuti hogy van sok hulladék HDR anyag (főleg hogy még viszonylag új dolog), ahol akár jobb az SDR kiadás.
A HDR önmagában még se nem jobb, se nem rosszabb, csak lehetséges, hogy jobb legyen, mint az SDR (ha jól használják, de elrontani is el lehet mindkettőt).Ilyenkor inkább azt javasolnám, hogy a lejátszóval (ami ez esetben inkább egy PC lesz, mintsem asztali lejátszó) manipuláld a képet, és húzd le mondjuk 400 nit-re a csúcsot (ez a legalacsonyabb érték, amit még mindig HDR-nek neveznek), vagy ha kell, akkor gyakorlatilag bárhová 100-ig bezáróan (lentebb azért ne menj, mert 0-100 közt már komoly tartalmat fogsz levágni, ami az SDR kiadásban is ugyan úgy nézne ki, nem csak extra HDR effekteket hagysz ki). Vagy ha ez nem megoldható, akkor esetleg egyszerűen nézd az SDR kiadást.
(#31588) junior19 - Az utóbbi években névlegesen már 700-at tudnak az LG panelek HDR módban (nem tudom honnan jön az 540, mert 400-tól lehet HDR-esnek hívni, és úgy rémlik, hogy már a legelső HDR-es LG OLED is megütötte átlagban a 600-at, esetleg a véletlen szórásban jött ki 540 egy tesztben egy viszonylag sötétebb panelen még 2016-ból, vagy ráadásképp hülyén tologatták a fehéregyensúlyt és levágtak belőle).
-
janos666
nagyúr
válasz
Robi BALBOA
#31577
üzenetére
Szerintem viszonylag sötét szobába bőven elég a 100 nit is SDR-hoz (én személy szerint 90-et célzok egy derengő kis lámpa mellé, ami olyan 18-20 OLED Fény). HDR-ben is kb. oda (100 nit) szokták tenni a "papír fehéret" (minden képrészlet teteje, ami nem csúcsfény effekt). A 120 inkább irodahelyiségbe (nem agyonvilágított, vagy túl napos, de világos helység) volt javaslat.
-
janos666
nagyúr
válasz
daneel_hu
#31554
üzenetére
A DFS nélküli csatornákon működik csak jól az LG TV-k WiFi modulja, ami gyakorlatilag azt jelenti, hogy a TV-hez legközelebbi router/AP adóján a választható legkisebb számú csatornát (legalacsonyabb 5GHz-s frekvenciát) kell beállítani. De néhány TV firmware verzióval ilyenkor is ok nélkül átugrálnak néha 2GHz-re, ha ugyan az az SSDI (vagy mindkettő fel van véve a csatlakozási listára a TV-n).
-
janos666
nagyúr
válasz
Partizan182
#31482
üzenetére
A csúszka legvége a Meleg2, avagy kb. 6500K, ami "jó" (a másik vége a Hideg, 10-11000K).
-
janos666
nagyúr
válasz
rothfb
#31394
üzenetére
Ha a többi "ízlést" (élesítés, zajszűrés, stb) hagyjuk, de a túlpásztázást miért kapcsolod be?
(#31392) PuMbA Sok mozi jobban hasonlít a BFI-s TV-kre, pl. a plazmákra mozgás szempontjából (régen is ment mechanikusan is, általában 3x villant fel egy képkocka a tekercsről is, ahogy a Pioneer plazmák is 72Hz-en tolták a 24p-t) és a LED/lézer lámpák óta némely digitális projektorok is tudnak BFI-t (mostanság ezek inkább 4x villantanak, szerintem azért is, mert a 3D korszakban a két szem miatt jobb volt, ha 4-el is osztható frekvenciákat használnak, vagy egyszerűen jobbnak vélték). Ez mondjuk megint nem ugyan az, mint a mostani OLED-ek BFI-je, bár idén elvileg már közel járhatnánk (talán majd jövőre..).
-
janos666
nagyúr
WiFi: A Netflix, ahogy lentebb írtam, előbb a felbontást dobja le, ha lassul a hálózat (ami nem feltétlenül tűnik fel, ha az ideálistól messzebbről nézed, főleg ha csak 2160-ról 1440-re vált le, vagy ha olyan az anyag, hogy még 1080 is bőven elég hozzá, netán eleve 1080-as master), vagy megáll és kiírja, hogy bufferel, ha szinte teljesen leáll a stream (leszakad és visszakapcsol a háló, vagy szinte nulla sebességre fullad, ami semmire nem elé).
Csodák nincsenek. Lehet 24-30 fps-ből interpolálni 1000-ret is, de az sohasem lesz valós 120fps. Annyi képkocka van, amennyivel pereg a videó, a többit csak odacsalja, ami nem lesz mindig meggyőző (nekem pl. sohasem az, kibírhatatlan az egész interpoláció).
-
janos666
nagyúr
Szerintem Netflix-en sem minden 4k, ami DolbyVision (főleg nem "valódi" 4k, még akkor sem, ha gyárilag fel van nagyítva a 2k master, de lehet kódolni kisebb felbontásokban is DV-ben, vagy HDR-ben, nem kritérium a 4k a formátumnál és online streaming esetén talán eleve nem erőltetik a "hamis 4k"-t), illetve a Netflix mindenféle formátumnál ledobja dinamikusan a felbontást, ha úgy látja nem elég a sávszél (akkor is, ha csak átmenetileg megakasztja valami interferencia a WiFi-t, lefolytja valami más letöltés a netet, stb) és később általában újra megpróbál fentebb lépni (de készülék és szoftver függvényében lehet, hogy úgy ragad, míg leállítod és újra elindítod, amúgy általában az előre-pufferelési idő hossza, tehát legalább 10 másodperc).
-
janos666
nagyúr
válasz
Celtis
#31245
üzenetére
"ott biztos nincs tinting."
Hogy ne lenne?
Az való igaz, hogy sokkal ritkább pontosan ez a fajta, világos képen is feltűnő színes inhomogenitás, de volt már nálam olyan Sony LCD, amin egy fehér tesztkép a szivárvány minden színében pompázott.
Ettől sokkal gyakoribb a háttérvilágítás inhomogenitása, csak az a technológiából adódóan egyformán érinti a pixelen belül az al-pixeleket, így nem színeződik (csak világosodik/sötétik egy nagyobb foltban). Ez sem mindig csak a (tej)fekete képen látszik, világosabb homogén képen is észlelhető. Ha van "felhősödés"a feketén, az ott van a fehéren is, csak szabad szemmel sokkal kevésbé, esetleg ránézésre egyáltalán nem észlelhető (de a problémásabb daraboknál előfordul).
És azért nem minden LG OLED inhomogén, csak sajnos nem elenyésző számban van ilyen is. -
-
janos666
nagyúr
válasz
junior19
#31213
üzenetére
Az OLED Light legjobb tudomásunk szerint egy analóg gain control. Azt szabályozza, hogy a(z) (al)pixelek a maximális digitális bemenet mellé (ami a képfeldolgozó processzorból jön ki a színkeverés után) mekkora intenzitással világítsanak. Ez mind a négy alpixelre hat, egyformán csökken a W, R, G, B fényessége, így ezek aránya nem változik. (Jó, ha nagyon-nagyon szőrszálhasogató akarsz lenni, valószínűleg van ebben egy minimális hiba, hogy mégsem, de nem olyasmi, amit ránézésre szabad szemmel észreveszel, főleg nem referencia nélkül, ehhez hasosnló mértékű hibákból sok van mindig a rendszerben.)
Sőt, a WRGB miatt épp akkor fakulnak ki a kevert színek, mikor HDR módban rátolja a W (fehér) alpixelt az R+G+B tetejére a világosabb csúcsfényekért. Akár ettől is lehetne félni, hogy talán SDR módban is elkezdi ezt picit, ha a maximumhoz közel jár már az OLED Fény.
(#31215) Robi BALBOA Van szórás a panelek közt, durván ~10%, úgy 650-750 nit simán lehet random, hogy mi a csúcsa (HDR módban OLED Light 100), így +/- 2 lépés jön ki ez OLED Light-ra 100 nit körül. De nekem a ~90 nit is bőven fényes.
-
janos666
nagyúr
válasz
Gigi01
#31045
üzenetére
Kb. SDR 20 = HDR 100, ha kikapcsolod a dinamikus* "képjavítókat", de összességében világosabbnak tűnik az utóbbi (és a korábbi témában több áramot is fűt el a TV), mert ez azt jelenti, hogy a tartalom nagy része mindkettőnél a 0-100 cd/m^2 tartományban van, de HDR esetén még erre jönnek rá pluszban a vakítóan fényes foltok is.
-
janos666
nagyúr
válasz
Gigi01
#30682
üzenetére
A fényerő mászkálásra két tipp:
- ha 2018-as és csak HDR módban csinálja, illetve viszonylag régi a firmware, akkor az egy ismert hiba (valamikor '18 vége felé, vagy '19 legelején javították szoftveresen)
- ha SDR-ban is csinálja és '18-as vagy '19-es, akkor az a "News Channel Dimming" (vagy valami hasonló a neve), ami egy zavaró, kontár beégés-elodázó dolog 2018 óta ('19-esben állítólag gyengébb már), nem lehet kikapcsolni (szervizmenüből se)Mostanában én is láttam magentás dolgokat Win10 1903-al nVidia Pascal VGA-val, még mindig nem teljesen tiszta, hogy pontosan mikor miért. AMD Vega-vel pedig teljesen hulladék most a HDR kép (ugyan az a Windows verzió).
-
janos666
nagyúr
válasz
gologolo
#30614
üzenetére
A chipset, illetve talán azon belül is még az OEM által esetleg átírható device ID a lényeg, hogy felismeri-e a WebOS driver-e, szóval a "valami hasonló" nem biztos, hogy működni fog. Ha nagyon érdekel, akkor nézz utána, hogy milyen chip, és keresgélj, de szerintem nem fog csak úgy bármelyik polcról lekapott átalakító működni.
(Persze ha vissza tudod vinni kipróbálás után, akkor vegyél hat félét és tartsd meg, ami jó.
)Illetve még arra figyelj, hogy a menüben nem lesz nyoma. Húzd ki az integrált portból a kábel-t kapcsold ki a WiFi-t, és használj DHCP-t a router-en (ha nem tudod mi az, akkor valószínűleg azt használsz) és próbálgasd, hogy működik-e (lehet, hogy egyszer be kell dugni, várni pár percet, majd újraindítani a TV-t, ilyesmi, passz, mert semmit nem fog kiírni a TV, hogy épp mi történik). Azt hiszem még a firmware frissítés és hasonlók sem feltétlenül működnek majd (az OS / progik egy része nem lát majd netet), csak a filmlejátszás (az nem WAN, hanem LAN).
A tegnapi linken olvashatod, hogy van akinek nem működött a TP-Link féle, ugyan olyan Realtek RTL8153 chipsetes kütyü sem, csak az a Cable Matters féle. Persze ettől még akár valami más chipset is jó lehet (csak nem tudjuk).
Vagy vedd meg az egyik legolcsóbb 2 antennás AC-s WiFi AP-t (másképp 867 Mbit/s, amiből lesz úgy max 400-500 tényleges) és told be a TV mögé/mellé (csak az csatlakozzon rá, semmi más, dedikált SSDI, minimumra lehúzott txpower).
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
janos666
nagyúr
Igen, a PC mode banding egyforma minden LG-n az utóbbi 3 évből (bár a C9-et még nem néztem élőben), mindegy hogy B vagy C+ és SDR vagy HDR (de csak utóbbin ordít).
Azt hittem arra gondolsz, hogy a tavaly Alpha 9-el debütált új HDR színkezelés (hogy a 0-100 nit tartományba nem piszkít bele a WRGB-ből a W maszatolása) is csak TV módban működik a C8-on, de PC módban ez is kikapcsol.Szerintem se a Panasonic, se a Sony nem tud egyszerre 4:4:4-et, normális színkezelést és alacsony késést (játékhoz) és/vagy akadozásmentes 24fps-t (filmhez).
A Sony-nál a színkezelés szokott elszállni Game/Graphics módokban (ahol alacsony a lag és/vagy átmegy a 4:4:4), ahogy 2017-ben tette még az LG-nél is (de 2018 óta már nem), a Panasonic-nál pedig a lag szokott nőni (ha bekapcsolod a 4:4:4-et) és a 24Hz lesz 2:3 judder-es. Az LG-nél "csak" a minőség romlik (banding).
Vagy idén már változott valami? -
janos666
nagyúr
válasz
gologolo
#30575
üzenetére
A topick összefoglaló legvégén is bent van ez a link: [link]
Ilyen átalakítóval valóban az USB fog limitálni (egyébként a beépített AC-s WiFi is USB2-n csatlakozik a SoC-hoz, de annak épp elég is, a rádió sem tud többet 2 antennával) de ezzel is ~2.5x sebességet fogsz kapni az integrált 100-as LAN csatihoz képest, aminek bármiféle videólejátszásra elégnek kell lennie (a SoC sem fog 'végtelen' bitrátát dekódolni, de talán már a hálózati része is hamarabb kifulladna TCP-vel, miközben filmet is játszik).
Én régen azt hittem, hogy az USB_1 az 3.0-ás, de sohasem használtam egyiket sem, illetve ha az lenne, akkor sem pazarolnám el a ethernet átalakítónak, ha csak egy darab 3.0-ás lenne, mert teljesen felesleges (legyen inkább szabadon 3.0-ás winyónak).@chros - Többször olvastam tőled, hogy PC módokban nem jobb a C8 színkezelése, mint a B8-é. Most rászántam magam és megnéztem: nagyon hasonló a C8 színkezelése TV és PC módokban, ami a luma hibát illeti (a kis eltérésekben a véletlen műszerszórás mellett biztos benne van a PC mód viszonylagos pontatlansága is, avagy a banding okozta hiba, de alapvető eltérést nem látok, nem úgy mint C8 és B8 közt sima TV módban): [kép] [kép]
-
janos666
nagyúr
Bocs, a HDR10 magentázás az megint valami Windows/driver bug: [link]

(De amúgy ilyesmi [link] - bámuld a mellét.)
De ezt leszámítva áll a lenti véleményem, hogy a "macro block fix" óta minden firmware-el látványosan rossz legalább egy, és közepesen vagy picit fura a másik két formátum színhelyessége a gyári kalibrálatlan képmódokban (most épp SDR > HDR10 > DolbyVision).Szerintem hallani sem akarok majd a WRGB OLED-ekről, ha lesz RGB OLED a Samsung-nál, de nem azért, mert a Samsung jobb késztermék gyártó, mint az LG (régen egyértelműen az volt, de a Samsung lefelé csúszik, az LG pedig felfelé törekszik, szerintem már majdnem találkoztak), hanem mert ez a WRGB-t mindig elleneztem, csak most nincs jobb.
Végül is most is kielégítően tudom használni az LG-t. A többi gyártónál nincs is ilyen opció, hogy újra tudom magamnak kalibrálni a LUT-okat is, ha össze-vissza csúsztatja őket a gyártó. -
janos666
nagyúr
Mostanában volt egy kis időm filmet/sorozatot nézni, sőt nemrég játszani a TV-vel és a legfrissebb CalMAN-el (5.10.1 RC1) is, és rájöttem, hogy egy hulladék az 5.10.03-as LG C/E/W8 firmware is.
- Azt eddig is tudtuk már szemre is, hogy a DolbyVision-ben bebuknak feketébe a sötétszürkék ezzel a FW-el, bár talán ez a legkevesebb (világos tartalomnál nem látszik, csak nagyon sötét jeleneteknél és ott sem annyira ocsmány)
- Mikor untam egy sötét sci-fi sorozat alatt (Nightfliers), hogy DV-vel túlzottan bebuknak a sötét részek, akkor rájöttem, hogy HDR10 módban tele vannak magentásba csapó banding hibákkal az árnyékos sötét részek HSR10 módban (itt először azt hittem a PC-vel van a baj, amiről DV helyett HDR10-el lehet küldeni a Netflix app képét, mert a TV lejátszója mindig DV-t használ, nem állítható).
- Az SDR módban nem zavart semmi ormótlan, de nyilván ha már ott voltam, lefuttattam azon is a CalMAN-t.Ami nagyon meglepett, hogy a kalibrálással teljesen rendbe jött a HDR10 mód. Szóval a gyári LUT-ok okozzák a magentás shadow banding-et. SDR módban a legkisebb a különbség (de még itt is meglátszik, már szidom magam, hogy miért voltam ilyen hanyag egész Augusztusban, hogy lefuttassam, csak kevés időt töltöttem a gép/TV előtt).
Szóval most gyakorlatilag egyik HDR (DolbyVision és HDR10) se igazán jó a gyári LUT-okkal ezzel a legújabb firmware-el, ami kint van már több, mint egy hónapja (és friss bétát se látok).

-
janos666
nagyúr
válasz
janos666
#30360
üzenetére
Jah, és amúgy a Solo-s Star Wars film UHD Blu-Ray kiadása, amit itt példának használ több fényképen, az direkt ilyen "LCD-s" feketés. A legelső pár másodperces jelenet után (ahol totál fekete háttéren elvakít egy szikra) úgy emlékszem gyakorlatilag végig sötétszürke a legsötétebb képernyőterület, soha, de legalább is nagyon ritkán látsz fekete pixelt. Egyszerűen így döntöttek a készítők (hogy hibáztak/tévedtek, vagy szánt szándékkal akartak pont ilyen képet, azt nem tudom, de az anyag az ilyen, nem lejátszóhiba, nem TV készülék hiba...).
-
janos666
nagyúr
válasz
dgyuri0123
#30357
üzenetére
Nem feketét fotózott, hanem sötétszürkét...?

Ha elolvasod a szöveget, az volt a képek célja, hogy megmutassák mennyire in/homogén a panel sötétszürkékkel. Ha 0% feketét rak ki és nem húzza fel a Fényerőt-t, akkor nyilván vak fekete a kijelző (mindkettő), de itt azt próbálja szemléltetni, hogy mikor feketéhez nagyon közeli szürkét néz (eleve mondjuk 3% fényességű szürke jelet kap, vagy 0%-hoz felhúzza a Brightness-t, mindegy, de ő az előbbit csinálta, ha jól rémlik), akkor mi a helyzet.A gamma beállítás sem szabad, hogy ilyen hibát okozzon. Amúgy pedig a legutolsó álláspont szerint 2.4-es az SDR gamma (bár már küszöbön volt a HDR, mikor kijött az a doksi, ami visszamenőleg tisztázni próbálta, erre fel a HDR-t ismét 2.2-be szeretik visszakonvertálni, de ... a lényeg, hogy igazából most is káosz az egész, így egyáltalán nem hülyeség a 2.4 sötét szobába, kb. ízlés szerint, vagy érmefeldobással tudsz dönteni, mert sohasem állt be sziklaszilárd konszenzus --- vagy használj HDR-t, amikor csak tudsz, az már kicsit tisztább, legalább is míg nem nyúlsz bele a roll-off játékkal, főleg dinamikus csúcsfény elemzéssel... de az is kisebb difi, mint a 2.2 vagy 2.4).
-
janos666
nagyúr
Itt is a méret/távolság arány számít, nem csak az egyik (úgy, mint a felbontásnál).
Mondjuk szerintem se kell a hajlított kijelző, mikor minden tartalom síkra készül, illetve az agy egy idő után újra kisimítja neked, ha elég sokat nézed (és a síkat látod majd kissé torznak). -
janos666
nagyúr
válasz
renatto
#30305
üzenetére
Ez volt a leghasznosabb, amiből idézgettem is, csak lemaradt a link:
nvidia.com / news / lg-gsync-compatible-hdmi-big-screen-gaming
(Minden kiderül belőle, csak végig kellett volna olvasnom, mielőtt kiragadok belőle egy mondatot.)
A Flatpanels cikkben írnak téves dolgokat is, pl. hogy a G-sync Compatible az a FreeSync-et támogatja (ami konyhanyelven elmegy, de nem egészen igaz, mert a G-sync és FreeSync is a VESA szabványra alapoznak, ez közös bennük, de konkrétan nem a FreeSync-et támogatja az nVidia, hanem a VESA-t). -
janos666
nagyúr
válasz
ice cube87
#30283
üzenetére
LG E9 and C9 models [...] will receive G-SYNC Compatible firmware updates later this year
Érdekes. Először azt hittem, hogy az nVidia G-sync fogja támogatni a szabványos HDMI 2.1 VRR-t (néhány, már ma piacon lévő HDMI 2.0-ás kártyán is 2.0-ás sávszél korláttal, de pár 2.1-es feature-el, mint az Xbox One), de ez úgy hangzik, hogy az LG fogja támogatni HDMI-n keresztül a szabványos VESA A-sync (amin az AMD FreeSync és a többi G-sync Compatible monitor is alapul DisplayPort-on használva), vagy valamelyen új proprietary *Sync megoldást (valószínűleg a VESA A-sync klónját, de név szerint mégsem azt, mert az DisplayPort és nem HDMI szabvány, ezért nem fog további firmware+driver birizgélés nélkül működni ugyan ez más tetszőleges VGA kártyával, mint pl. az AMD vagy Intel, illetve más TV-ken sem, amik csak HDMI 2.1 VRR-t, vagy FreeSysnc-et tudnak, de ezt konkrétan nem, amit most a két vég összefőz egymás közt).Bár ettől még lehet, hogy szabványos HDMI 2.1 VRR lesz ez, csak kért valami bugfix-et az nVidia a G-sync Compatible hitelesítéshez (mint ahogy kértek a már több meglévő FreeSync monitor esetén is) és az jön majd új TV firmware-ben (és akkor kapcsolja majd be a VRR-t az nVidia driver, ha az a baki ki lett kalapálva a TV oldalán).
Áh! Csak tovább kellett volna olvasnom.

"If you don’t own a LG TV, but do own a display or TV that only supports Variable Refresh Rates via HDMI, you can try enabling HDMI VRR when the aforementioned driver is released."
-> Akkor mégis a szabvány HDMI VRR jön G-sync alá, és csak a külön nVidia hitelesítéshez kell az LG-nek új firmware-t készítenie (és a régi firmware-el is be lehet kapcsolni "erőltetve", ahogy más márkájú és nem hitelesített TV-n is, ha elvileg tudja). -
janos666
nagyúr
A legtöbb megjelenítővel ellentétben az LG TV-k engedik állítani mindkét formátumnál (persze ettől még nincs értelme a High/Magas-nak YCC-hez, de nem szürkül ki a kapcsoló Low/Alacsony állásba).
(#30263) Pro Koryak - Ez mondjuk igaz, hogy az idei Panasonic-ok szerintem is az LG >=C sorozatával állnak árversenyben, nem a B-vel (ami processzor+szoftver szinten jobban hasonlít a 2017-es LG-kre). De ez nem fogja érdekelni azt, aki a legolcsóbb, de jól használható OLED TV-t keresi.
-
janos666
nagyúr
válasz
Pro Koryak
#30055
üzenetére
Ha egyformán zavar az interpolációs hiba és az alacsony natív fps is, akkor az szerintem jó.
Vannak olyan agykárosodásnak/zavarnak tekintett állapotok, mikor valaki valóságot (szabad szemmel, ami közvetlenül előtte zajlik) is képkockákra lebontva látja (ha nem is mindig, de időnként). Erre azt mondják az orvosok, hogy alapvetően minden rendben van a látással, csak a kognitív rendszere nem tudja felismerni a mozgást és kipótolni folyamatossá (ha jól emlékszem, régen a rendszeres nagy dózisú LSD fogyasztók közt fordult ez elő pár embernél, mint egyfajta flash-back jelenség, tehát hosszabb józan állapot után is előjött néha kis időre, nem csak a szer hatása alatt, de csak szórványosan rövid idkre).
Ugyanakkor szerintem aki az interpolációs hibákat nem látja, az bár nem betegség, de kogonitív gyengeség, mert vagy egyszerűen nem vagy elég gyors és analikus elme, hogy ezeket észleld és azonnal egyértelműen természetellenes anomáliáknak azonosíts, avagy a látott mozgókép egzakt hibájának tekintsd, vagy esetleg (legtöbben szerintem ebbe a kategóriába esnek) egyszerűen csak szubjektíven döntenek úgy, hogy ők inkább ezeket a hibákat tolerálják könnyebben az idő nagyobb részében, mint az alacsony fps egzak módon ismert hiányosságát (hogy sokszor egyszerűen nem elég ennyi az eredeti valódi mozgás hihető visszadására).
Érdekes, hogy említettétek a Transformers-t. mint tiszta éles kép, mert én pont azt szoktam volt felhozni példának rá (bár ez még az első pár rész, az újakat még nem láttam), hogy irgalmatlanan mennyiségű és típusú zaj van a legtöbb jeleneten. Az élő szerelős jeleneteken is van sok színes, nagy blokkos zaj (még ez is szándékos effektnek tűnik nekem, még akkor is, ha az eredeti filmtkercses grain-t cserélték le erre digitális szűrővel), de a rengeteg és messze nem hibátlan CGI-t is általában lágyabb, finm szemcsés zajjal (perlin noise szerűséggel) fedik el, illetve ezzel próbálják jobban összemosni az elé szereplős és számítógéppel animált jeleneket. Csak nézzétek meg azt a részt, ahogy a szőke robotlány ül az autóban a főszereplő gyerekkel. Mutogatják a szép lábát, de én ott csak egy rakás nagy blokkos színes zajt látok, mint ha színes papírmasé lenne.
Személy szerint pedig sohasem fog elfogadni, hogy a rendezők miért a múlt technológiáinak jellegzetes hibáit vélik etalonnak, hogy ragaszkodni kell hozzájuk és visszahozni kár digitálisan emulálva akkor is, ha van már sokka jobb technológia.
Nekem mostanában a Marvel filmek az etalonok. Számomra halál unalmasak már rég mind (az Avengers Endgmae-et három részletben tudtam csak végigülni három nap alatt), de HDR-ben is gyönyörűek. Nem a régi kort emulálják digitálisan, nem is realisztikus a látvány, de egy nagyon jó középutat céloznak a részletgazdag, mégis egyértelműen szándékosan lágy, álomszerű, de nem (akár digitálisan, akár analóg módon) megerőszakolt képi világ közt, ami szerintem nagyon jó illik a szuperhősfilm hangulathoz.
Szóval lehet ezt okosan is, nem csak makacsul és görcsösen, ragaszkodva valamihez.
De még a Netflix saját gyártású sorozatai is nagyon jók szoktak lenni (akár csak egy Sex Educadion, amiből tegnap néztem egy részt unalmamban), azoknál általában nincs ráerőltetve semmi művészi látványvilág magára a kékockákra, ezért éles, tiszta, de nem is olyan szintetikus hatású, mint egy kvázi tökéletes full CGI render lenne. Látod a szereplők valódi bőrét, színnel és textúrával együtt, nem csak mindenféle analóg hibákon vagy digitális maszatoláson keresztül.
Valahol megértem azt is, aki szereti a 24fps hangulatát, de szerintem minimum, hogy meg kéne engedni a készítőknek, hogy elmenjenek akár 120fps-ig is, ha akarnak. Pont ugyan úgy, ahogy meg van nekik engedve a digitális film grain effekt, stb. Szerintem képmutató, aki azt másképp gondolja, főleg ha olyan nemesnek hitt erényekkel érvel, mint hogy mi a mozi hagyománya és hasonlók.
-
janos666
nagyúr
Ha OFF-ba teszek egy hsz-t, azt ne tegyétek vissza szerkesztéssel ON-ba!

Igazából már rég ideje lett volna megkérnem az eredeti kérdezőt, hogy fáradjon át a megfelelő topic-ba, mert mégis csak egy LCD beállításáról és hibakereséséről beszéltek az OLED témában.
-
janos666
nagyúr
válasz
Gigi01
#29986
üzenetére
Pár méterre szinte mindegy mit veszel, ami nem hulladék (és papíron a megfelelő minősítésű). Ha valami tisztességes gyártó, akkor 1000 Ft/méter is biztos tökéletes úgy 3m hosszig, talán 5-ig is. 3-5 felett kezdődnek a gondok (ez persze attól is függ, hogy ténylegesen mennyi sávszélt használsz végül, mennyi zajt kaphat kintről, milyen minőségűek az eszközök, amiket összekötsz, stb), ide 2000 Ft/méter sem sok. 10m-ig pedig szinte csoda, ha eljutsz a 18G-vel (4k60Hz), valószínűleg nagyon túl kell méretezni a minőséget (akár 5000 Ft/méter kábel) és/vagy kipróbálni 2-3 (közepesen drága) kábelt, amiből egy jó lesz. A 48G valószínűleg 5m-ig is alig jut majd el. De ezekben hatalmas lehet a véletlen szórás. A leggagyibb kábel is jó lehet bármire, amit rá tudsz dobni, és az elvileg legjobb is elhasalhat valami racionális igénnyel, mert azok közt is lesz kvázi-selejt (véletlenszerűen az átlagtól gyengébb példány).
(#29987) Mankó - Ha szereted a Sony interpolációját (szerintem is az övék a legkevésbé rossz, de én is azt is kilőném), akkor esetleg Sony OLED?
De a Samsung-on próbáld ki a TV belső lejátszójával is (valami olyan filmet és olyan formátumban, amit megemészt a TV), ki és bekapcsolt interpolációval egyaránt.(#29993) krx21 - A szürke-szürke igen, de VA panel lehet akár 30-40ms is, ha rossz az overdrive, vagy olyan a két pozíció, hogy nem sokat tud rajta segíteni (bár ma már talán nincs ennyire durva, de 5-10 éve teljesen megszokott volt a Samsung PVA-in, hogy durva csóvákatn hagytak, többet mint a retina perzisztencia - ha nem pulzált a háttérfény, de néha még akkor is látszott kicsit). Vannak LCD-k, amik valódi 60Hz-et sem bírnak, csak mikor hogy...
-
janos666
nagyúr
válasz
#21123072
#29964
üzenetére
Szerintem vállalható, hogy a "true" oszlopba sorolnak be olyat, aminél a nyersanyag >2k (akkor is, ha csak félúton van 2k és 4k közt) és >=4k a master (főleg ha esetleg még a CGI is valódi >2k, akkor is ha az is csak félúton).
Van azon a listán a "fake" oszlopban olyan is, amin >=4k a nyersanyag, de 2k a master (általában a CGI miatt, mert az <=2k formában készült, és nem újítják fel), hisz tényleg oda is való (a legszűkebb keresztmetszet az pont 2k, egy kicsit sem több). -
janos666
nagyúr
válasz
renatto
#29954
üzenetére
Én is így képzelem, hogy lesz egy n+1 új képmód valami Creators vagy Pure, stb névvel, de ugyan úgy a Mozi/Színház klónja lesz, mint ahogy most is teljesen ugyan azt kapod Cinema és ISF módokban, ha mindent ugyan oda állítasz bennük. Annyi, hogy a "Pure" módban talán teljesen ki is lesz szürkítve minden "képjavító", de legalább is alaphelyzetben ki lesznek nyomva (kb. mint ma PC módban).
Vagy ez, vagy minden Mozi-szerű képmódban lesz egy gyorsgomb, ami kilövi ezeket egy nyomásra (de aztán visszakapcsolható külön-külön).
A Játék móddal is el szokták játszani mindkettőt: sokszor van külön Játék preset, de másik preset-re is bekapcsolható egy Játék mód kapcsoló is (és mindkét esetben alacsony a lag). -
janos666
nagyúr
válasz
renatto
#29923
üzenetére
4k Content Availability Excellent -> MUHAHA
https://4kblurays.com/(#29951) Gigi01 - Már az 1080p60-hoz is HighSpeed kell. Az 1080p120-hoz (főleg 10+ biten) Premium High Speed.
#29915 + #29918
A John Wick első két része is szebb HDR-ben, mint SDR-ban.
Nemrég a véletlen körülmények miatt Netflix-en SDR-ban voltam kénytelen nézni valakivel, és hiányoltam néhol a HDR látványt: pl. az első rész 40:30 és 55:00 közti jeleneteinek (az élénk szaturált színek a szórakozóhelyeken) nagyon fekszik a HDR, ahogy a második részben is 1:36:30-tól a 7 perces "reflections" résznek is (de még a kicsit világosabb kültéri jelenetek is meghálálják).(#29934) - Még LCD projektorból is van impulzusos. Láttam egyszer egy Sony-t, amin egyszerre volt jó a kontraszt és homogenitás (már LCD viszonylatban) és a mozgás is. Persze több milliós árcímkével.
(#29947) renatto - Szóval egy kattintással ki lehet majd kapcsolni minden "képjavítót" a Mozi/Színház (gyárilag legpontosabb) képmódokban? Szerintem egyszerűbb lenne ezeket a módokat eleve így szállítani (és az ilyesmiket csak a Kiemelt, Eredeti, stb módokban bekapcsolni alaphelyzetben).
Amúgy pedig ez a Pioneer "Pure" mód újra-feltalálása, avagy LG-nél a Technicolor preset újabb inkarnációja. -
janos666
nagyúr
Talán már jövőre jöhet a "top emission", ami némileg nagyobb csúcsfényt és/vagy hosszabb élettartamot (későbbi beégés) hozhat, illetve remélem összekalapálnak valamit, hogy működjön a natív 240Hz is (legalább is a 120fps + BFI, vagy az 1/4 60Hz, stb, ami elvileg már 2019-ben jött volna, csak elveszett a "macro blocking" oltárán).
-
janos666
nagyúr
válasz
Chaser
#29721
üzenetére
Kösd össze próbaképp egy szál kábellel a PC-t és TV-t, mindkettőt statikus IP-vel ellátva. Ha így sem jó, csinálj egy komplett Reset-et a TV-n (gyári beállítások vissza) és akár a Win10 Gépházból (ha ez az OS, most tippelek) egy Network Reset-et a PC-n. Ha sehogy sem jó ezután sem, akkor nem a hálózat többi része a gond. Ha jó, kezd el berakni a többit (ha valamilyen Reset segített, akkor mehet egy lépésben vissza az eredeti állapotba, ha már maga az átkötés, akkor lépésenként).
Ja, és LG TV-nél szerintem még mindig csak DFS nélküli csatornákat szabad használni WiFi-hez (gyakorlatilag a legalsó 4-et AC-hez), ha épp azt nézegetitek (és van pár firmware verzió, amikkel állandóan átugrálnak 5-ről 2G-re akkor is, ha 5G-n sokkal gyorsabb kimérten).
-
-
janos666
nagyúr
Nekem úgy rémlik, hogy csak a legutolsó két Panasonic szériánéban volt benne a kezük a Pioneer-től átvett mérnököknek, és ott is a meghajtás hangolásában, nem a hardware-ben (az FFD külön a saját Panasonic hadrware-re készült, nem a Kuro-ból öröklődik).
Ha egymás mellé rakod őket és közelről tanulmányozod, melyik miként működik (szabad szemmel), akkor két teljesen külön világ a 60-as Pana és a 9G Kuro. Az is, ahogy a statikus, az is ahogy a dinamikus jeleneteket kezelik, de az is, ahogy a színeket. Legalább annyira más a megjelenítésük elve, mint ahogy ránézésre is nagyon más vasak (az egyik ~3x sújt nyom és vastag, két ember mozgatja az 50"-ost, a másik olyan vékony, hogy néha át se tud hűlni rendesen ventilátorokkal sem, de legalább csak ~0.5x áramot fűt el).Ennyi erővel azok a Pioneer mérnökök talán még a GZ2000 mögött is ott voltak.
![;]](//cdn.rios.hu/dl/s/v1.gif)
-
janos666
nagyúr
válasz
Gigi01
#29686
üzenetére
Bőven elég bármilyen HDD, ha nincs sok más dolga egyszerre.
Ha direkt az a cél, hogy "bejárasd", akkor nyilván teljes képernyős kéne.
De amúgy szerintem nézz amit szeretnél, nem "kötelező" az ilyen járatgátas.Én már olyat is megfigyeltem, hogy mikor elkezdett IR-t hagyni a Firefox felső csíkja, akkor indítottam egy Pixel Frissítést a felhasználói menüből éjjelre, de másnap még mindig látszott, majd 1-2 darab 2,35 film alatt teljesen eltűnt (onnan, ahol film közben végig fekete volt a képernyő).
-
janos666
nagyúr
(#29640) rothfb - Én csak egy konkrét véleményedre reagáltam. Ebből szerintem nem kéne így a végtelenbe extrapolálni.

(#29641) rothfb - Ez a stílus (és buzizás) már olyasmi, amit nem kéne rendszeresen.
(#29642) rothfb - Joshi gyakorlatilag szándékosan tiltatta ki magát egyfajta tüntető mártír szerepben, vagy puszta heccből. De ezt te is tudod, folyamatosan spam-eltél te is vele együtt, mikor szándékosan kiprovokálta a dolgot (és amúgy az nem topicgazda, hanem moderátori döntés volt, a modker-ben tehetsz panaszt, csak ne felejtsd el, hogy ők látják a törölt dolgokat is, beleértve amit te magad spam-eltél akkortályt).(#29649) Gigi01 - Ha WiFi-n lóg a TV, akkor AC-s kell (80MHz 2x2 vagy több stream-el).
Ha kábellel csatlakozik a TV: A Servio-t és Plex-et gondolom a PC-re telepítetted, a TV-n pedig a gyári beépített lejátszót használod? A TV-re próbáltál letölteni valami alternatív lejátszót próbaképp? -
janos666
nagyúr
válasz
rothfb
#29634
üzenetére
Ja, abszolút biztos, hogy érdemben lenyomja az LG OLED TV-k árait, hogy vesz tőlük más gyártó is OLED kijelzőt. A Sony és Pana diktál, ők mondják meg mennyit adnak érte, az LG pedig szállítja, különben megy a kamikaze a székhelyükre. Aztán az LG kénytelen olcsóbban adni a TV-it is, mert a Pana és Sony ezt a kierőltetett beszerzési árrést mind a saját vásárlói zsebében hagyja.

-
janos666
nagyúr
válasz
daneel_hu
#29625
üzenetére
Akkor lehetne csodákat várni, ha az LG TV-iben (a kész komplett készülékben együtt) valami nagyon el lenne rontva. Régen ez valahogy így is volt egész hosszú időn át: látványosan jobb LCD TV-ket tudott összerakni pl. a Sony az LG IPS kijelzőpaneleivel, mint maga az LG (ez igaz volt a Samsung PVA paneleire is, csak kisebb mértékben). Én azt szoktam volt mondani akkoriban, hogy az LG egy közepesen jó alkatrészgyártó és gyenge késztermék gyártó. Nagyjából 2017 óta viszont elég jó az LG processzora, szoftvere és gyári kalibrációja is (most már minden felső-közép, vagy jobb), így nem nagyon marad min tuningolni, legfeljebb amit a Panasonic csinált a GZ2000-rel ("túlhajtott" max fényerő), de még az sem ég és föld (nem feltétlenül éri meg, ha azt is megnézzük mennyivel drágább). Ami mégis kifogásolható, az pedig általában szűk rétegigény (pl. PC mód képminősége), így mások sem gyúrnak rá vagy náluk más hasonló rétegigény szenved..., vagy a kijelzőpanel gyártásán múlik, így minden márkát egyformán érint.
-
janos666
nagyúr
válasz
gologolo
#29592
üzenetére
Önmagában a HUD még nem mindig probléma, csak ha rengeteget játszol ugyan azzal a játékkal, és viszonylag élénk kontúrok vannak. De nyugodtan belepakolhatsz pl. 300 órát egy RPG-be (akár napi 2x3 órában úgy, hogy közben kikapcsolod a TV-t), az még nem gáz. Akkor lehet gond, ha pl. ugyan az a játék (mondjuk online multi-player) megy akár ezer órát (több évre előregondolva). Talán ha nagyon kontrasztos a HUD (mondjuk vakító élénk csík van benne, de az olyasmi más miatt is zavaró), akkor talán foltot hagyhat 100-200 órákon belül (de az sem percek, órák kérdése).
Az lehet még esetleg aggály tárgya, ha több különböző, egy kaptafára menő játékoknál hasonló a HUD, mert akkor pár foltban az összeadódik, mint ha nem 10x20, hanem 200 óra lenne egy játékból (és ez évek alatt 1000+ lehet).
-
janos666
nagyúr
válasz
gologolo
#29580
üzenetére
Ilyesmit bőségesen elég saccolni, hisz nincs semmi fix célértéked, az is csak egy durva sacc, és amúgy sincs gond HDR filmekkel, csak játékot ne felejtsd rajta mozdulatlanul (én pl. gyakran elkezdek fel-alá sétálgatni, míg telefonálok, így még könnyebb megfeledkezni, hogy hagytad ott a TV-t ismeretlen időre, mert én általában ~5 percre számítok egy hívásnál, de néha 45 lesz...), de igazából még ha ott felejted 20-30 percre, az is csak IR-t hagy, nem végleges beégést (csak pár száz óra után általában sokkal kevesebb az IR is).
-
janos666
nagyúr
válasz
Pro Koryak
#29531
üzenetére
Az ár/érték arány érték oldalában szerintem benne van a tartósság, megbízhatóság is.

Új hozzászólás Aktív témák
- AMD K6-III, és minden ami RETRO - Oldschool tuning
- Autós topik
- Parfüm topik
- Dobosok ide!
- One otthoni szolgáltatások (TV, internet, telefon)
- Milyen egeret válasszak?
- Diablo IV
- Lexus, Toyota topik
- Háztartási gépek
- Formálisan, de hivatalosan bejelentette a Clearwater Forestet az Intel
- További aktív témák...
- AKCIÓ! Panasonic 55Z80AEZ 4K HDR Smart 120Hz Gaming TV
- LG 55" G5 OLED evo 4K HDR 165Hz Smart AI Gaming TV
- Sony AG9 Master Series OLED (55") GARANCIÁLIS 2026.06.15-ig! Panel futási idő igazolt 2460 óra!
- Samsung QE65S90DAEXXH 65" S90D 4K UHD Smart AI 144Hz OLED Gaming TV
- LG (OLED83C43LA.) 210CM 4K SMART 120HZ OLED ! AKCIÓ!
- BESZÁMÍTÁS! 2TB Samsung 990 PRO NVMe SSD meghajtó garanciával hibátlan működéssel
- BESZÁMÍTÁS! 2TB Samsung 990 PRO NVMe SSD meghajtó garanciával hibátlan működéssel
- Dell Precision 3571 i7-12700H 32GB 1000GB FHD RTX T600 4GB 1 év teljeskörű garancia
- HP 14 Elitebook 640 G10 FHD IPS i5-1345U vPro 10mag 16GB 512GB SSD Intel Iris XE Win11 Pro Garancia
- Surface Pro 7+ i5-1135G7 16G 256GB 1 év garancia
Állásajánlatok
Cég: Laptopműhely Bt.
Város: Budapest
), és a valódi kontraszt (ahogy már az OLED is több contrastjunky-t kreált, mint a PDP). Ha a Samsung-nak nem lesz erre időben jó megoldása (akár saját DL-LCD, akár QD-OLED), akkor megtörhet a QD-LCD maradék népszerűsége.







).

Nemrég a véletlen körülmények miatt Netflix-en SDR-ban voltam kénytelen nézni valakivel, és hiányoltam néhol a HDR látványt: pl. az első rész 40:30 és 55:00 közti jeleneteinek (az élénk szaturált színek a szórakozóhelyeken) nagyon fekszik a HDR, ahogy a második részben is 1:36:30-tól a 7 perces "reflections" résznek is (de még a kicsit világosabb kültéri jelenetek is meghálálják).

Vhiktor