Keresés

Új hozzászólás Aktív témák

  • Pingüino

    senior tag

    válasz dokanin #18 üzenetére

    Ha HDR tartalmat nem HDR képes kijelzőre teszel, akkor egyszerűen eltűnnek a részletek. Teljesen jó analógia a felbontás kérdése. Ha fogsz egy 4K-s (3840x2160) filmet, és egy sima FullHD (1920x1080) felbontású kijelzőre teszed, akkor 4 pixelenként átlagolja a pixelek színét, és csinál belőlük 1 pixelt. Nem pont ugyanez történik a HDR/SDR kérdéskörben, de ahhoz, hogy el tudd képzelni, teljesen jó hasonlat. Ugye HDR-nél van metaadat a fényerőre is, SDR-nél meg nincs, de maga a színárnyalat egyszerűen átáll a legközelebbi 8 bitesre. Ugye 8 biten mindhárom szín 256 felé van osztva, 0-255-ig. 10 biten meg 1024 felé, 0-1023-ig. Ha 10 biten egy pixel színkódja mondjuk (666, 0, 0), ami valami piros szín, az 8 biten (166.5, 0, 0) lenne, de egész számokat lehet csak írni, így beáll (167, 0, 0)-ra.

    Hogy hány színt tud megkülönböztetni az ember, az nem ennyire egyszerű, nem lehet egy számmal leírni. Függ a fényerősségtől, attól, hogy a felismerni kívánt szín az éleslátás helyén, vagy a periférián helyezkedik el, függ eleve a színtől is, zöldből sokkal több árnyalatot ismer fel az ember, mint kékből, vagy pirosból. Függ az egyéntől is, bizonyos emberek (ezek általában festőnek mennek) akár 2x-3x több színt tudnak megkülönböztetni, mint mások. Meg hát ugye a HDR nem csak a színekről szól, az csak egy része. a szürkeárnyalatos részletgazdagság is más, meg az elvárt max. fényerő is más.

    De egyébként ezt elmagyarázni elég nehéz. A legjobb, ha elő tudod venni ugyanazt a videóanyagot SDR-ben, meg HDR-ben, és egy jó OLED TV-n megnézed mindkettőt. Ott jól látható lesz a különbség.

  • Pingüino

    senior tag

    válasz dokanin #9 üzenetére

    A bitmélység, amiről kisfurko is ír, az kb. annyit jelent, hogy a fényerősség skálázása mennyire finom. Tehát hogy a legkisebb és legnagyobb fényerő között hány részre van osztva a skála. A hagyományos otthoni világítás pl. 1 bites. Vagy fel van kapcsolva a lámpa, vagy nincs. A hagyományos SDR kép 8 bites, ami azt jelenti, hogy 2^8=256 felé van bontva a skála a legsötétebbtől a legvilágosabb pontig. (Ha a színeket is nézzük, akkor ez színenként értendő, tehát 256 felé van osztva a vörös, a kék és a zöld színkomponens is, így ezek kombinációjából összesen 16.777.216 szín állíthaó elő). A HDR tartalom ezzel szemben a sima HDR formátumnál 10 bites, a HDR+ és Dolby Vision tartalomnál 12 bites. Előbbi esetén 1024 féle fényárnyalat jeleníthető meg, és összesen kb. 1 milliárd szín, míg utóbbi esetén 4096 fényárnyalat, és összesen kb. 69 milliárd szín. Na most egy felvétel hiába van HDR kamerával rögzítve, 10 vagy 12 bitesben, ha a megjelenítő (monitor, TV, projektor) nem képes annyiféle árnyalatot megjeleníteni, akkor elvesznek a felvételkor nyert részletek a képről. Egy LCD megjelenítő pl. elég nehezen birkózik meg a HDR tartalom helyes megjelenítésével. Mivel vannak HDR minősített megjelenítők, elvileg képesek rá, de nem egyszerű. A local dimming, vagy az OLED viszont nagyon sokat segít ezen.

Új hozzászólás Aktív témák