Hirdetés

Új hozzászólás Aktív témák

  • janos666

    nagyúr

    válasz chros #31895 üzenetére

    Ne szerénykedj, ez nagyon időigényes és tényleg hasznos munka. :R
    Ebből most újra azt szűrtem le, hogy úgy tűnik, a 2018-as modelleken is bőven van elég furcsasága az LG féle HDR10 tone-mapping algónak (még "valós" gyakorlati szituációkban is, lásd: Guardians of the Galaxy), hogy valószínűleg mégis többet ér madVR-al 700 nit-re konvertálni mindent, mintsem pass-through nyomatni.
    Az ilyenekhez nekem sajnos már évek óta nincs elég türelmem/kitartásom, hogy nekiüljek, tisztességesen végigmérjem, de főleg hogy aztán emészthető formában publikáljam is valahol.
    Annak idején tesztelgettem hasonlókat a C7-en (ha nem is ilyen kimerítően), akkor is arra jutottam, hogy valószínűleg jobb, ha konvertál a madVR (bár akkor még az sem volt ilyen ügyes), viszont mikor megnéztem újra futtában a C8-at is, akkor úgy voltam vele, hogy "most már mindegy, jó lesz a pass-through", nem sejtve, hogy valószínűleg pont akkoriban volt hibás az nVidia driver-ek metadata kezelése, így nem csoda, ha nem láttam semmi különöset a metadata függvényében. :DDD

    Az piszkálja még kicsit a gondolataim, hogy DolbyVision módban vajon tényleg a Dolby chip (CMU) felel a tone-mapping-ért, vagy az csak "elődekódol" és LG processzora dolgozik ott is (utóbbi esetben ott is előjöhetnek a fenti anomáliák, mikor épp olyanra esik a dinamikus metaadat, amin HDR10-ben "eltéved"). A felületes, általános sajtóanyag alapján mindig a CMU csinál mindent. Az is erre utal, hogy más formátumban kell feltölteni az LG TV-knek a DolbyVision mód paramétereit, amiben mindig benne volt a peak white is (a 3x3 mátrix mellett). De szerintem semmin nem lepődnénk meg, ha kiderülne, hogy mégsem úgy van, ahogy addig hittük. :D

    Viszont ugyan ebben a kérdésben nem ártana tudni azt sem, ha a legtöbb mai DolbyVision anyag tényleg DV-ben van master-elve, vagy "csak" HDR10-ben, amire aztán ráküldenek valami algót, hogy dinamikus metaadatot generáljon (vagy még azt se, és gyakorlatilag végig statikus).
    Pl. nagyon gyanús nekem, hogy a Netflix-en tényleg szó szerint minden DolbyVision, ami HDR, még azok a filmek is, amiknél a Blu-Ray kiadás 1000 nit-en master-elt HDR10. Az nagyon adja magát, hogy egyszerű konverzió, kizárólag a formátum promóciója végett.
    Bár végül is nincs azzal sem semmi baj, ha gyakorlatilag 100% ugyan az van mindkét konténerben (és <=1000 nit minden). Csak azt teszi nehezebbé, mikor az ember otthon próbálná összehasonlítgatni őket. Akkor megtévesztő, hogy mit látunk, mikor nem egyformák:
    1: kizárólag az LG processzor és Dolby CMU feldolgozása (gamut és tone-mapping) közti különbséget (ha igazából ugyan az a két tartalom, mégsem néznek ki egyformán a két mód közt),
    2: valami auto-generált dinamikus metaadat játék miatt néz ki másképp a DV kivitel (tehát lényegében olyan, mint ha bekapcsolnánk a Dinamikus Tone Mapping-et HDR10-hez, csak előre generálták)
    3: tényleg DV-ben van master-elve az anyag (még akkor is, ha igazából nem 4000 nit-en, de mégsem ugyan az az anyag, amit a Netflix kapott, és ami a Blu-Ray lemezen van).

    De ugye az 1-es ponthoz mostanában még az is hozzájön, hogy a sok "macro block" firmware kavarás után már nem egyforma gyári LUT-okat használ az LG a HDR10/HLG és a DV módokhoz (valószínűleg puszta véletlen tévedésből).
    Amúgy van új teszt firmware, 5.10.35, majd felrakom, ha megjött a a HDFury Integral.

Új hozzászólás Aktív témák