- Google Pixel topik
- Samsung Galaxy A52 5G - nem csak egy G-vel több
- iPhone topik
- Huawei P40 Pro - kilökték a célegyenesben
- Honor Magic6 Pro - kör közepén számok
- OnePlus Nord 3 - kapcsoljuk északot
- Xiaomi Mi 8 - így csinálunk csúcsmodellt Mi
- Xiaomi 13T és 13T Pro - nincs tétlenkedés
- Milyen okostelefont vegyek?
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
Hirdetés
-
Ellopták a Tesla akkumulátor-titkait
it Beperelte egy korábbi beszállítóját a Tesla, és azzal vádolja, hogy üzleti titkokat lopott a Tesla akkumulátorgyártási technológiájával kapcsolatban.
-
AI-t kap a Toughbook is
ph A Panasonic híres strapanotebook-szériája a Meteor Lake processzoroknak köszönhetően szolgált rá a megnevezésre.
-
Fülhallgatók is érkeztek a Reno12 szériával
ma És persze az Oppo okosórája is, lásd előző bejegyzés. A muzikális élményt az Enco X3i és az Enco Air4 Pro szolgáltatja.
-
Mobilarena
OLED Televíziók - témaösszefoglaló
Új hozzászólás Aktív témák
-
hunspikey
őstag
Ez egyébként számomra felfoghatatlan, hogy miért kell ilyen PCs hardware egy picit több pixelhez.
Azért a 4k csak négyszer annyi infó mint a fullHD, a 8 bit / csatorna helyett a 10 bit / csatorna meg még egy picivel több - az egyik 24 bit RGB színmélység a másik 30 - na bumm.
Szerintem még éretlenek a szoftveres algoritmusok az a baj. Ha belegondolsz - egy középszerű androidos telefon tud 4k-t visszajátszani, igaz egyenlőre 8 bit / csatornásat.
Egyébként sokat merengtem azon hogy a HDR hogy is működik.
Ugye van egy sokkal nagyobb dinamika tartománya a kijelzőnek, mert teszem azt a plazmákkal ellentétben mondjuk fel tud menni az OLED akár 700 nitre is fényességben
De ennek ellenére nem az a cél gondolom, hogy az általános jeleneteknél vakuljunk meg, tehát pl esti mozizásnál a normál fényességű jelenetek teteje valahol akkor is 120-150 nitnél lesz. Tehát ide rakják a normál dinamikát - és gondolom én efölé a HDR rész - azaz pl csúcsfények, vagy extra fényes felületek.
De hogy van az eldöntve, hogy egy eredendően nem HDR-ben tárolt originálból - pl vegyük a Samsara-t ami ugye 70 millis negatívra volt rögzítve eredetileg. Tehát az anyag valós dinamikája a gradációja ezen médium által van megszabva, azaz pl ezt moziban le lehetne vetíteni és kész - annyi - nem HDR mert a film nem az - max átfog 10 blendét. Ebből hogy lesz HDR? Vesznek egy nem lineáris - iszonyatosan torzított transzfergörbét és aszerint átkódolják az anyagot, hogy ami mondjuk a rögzített utolsó egy blende legyen a digitális HDR anyagban a 300-700 nites tartomány? A normál alsó 9 blende mondjuk meg legyen 300 nit alatt mind?
Érdekes dolgok ezek. Szerintem alapvetően az a baj, hogy HDR anyagot HDR-ben kell rögzíteni - hiszen így van meg a nagy dinamika a forrásanyagodban - ez nem olyan mint a 3D - ezt utólag nem lehet valósághűen konvertálni, hiszen az eredeti rögzítésekor kiégett fényes részek nem jönnek vissza illetve a sötét bedőlt részek sem lesznek sosem láthatóak - pont úgy nem ahogy nem lehet valós HDR-t konvertálni egy expoziciójából egy digitális kamerának.
A whisky skót, a kávégép olasz, a TV meg Oled, épp egy LG77G3