Keresés

Új hozzászólás Aktív témák

  • XMI

    csendes tag

    válasz #96241664 #15 üzenetére

    Hogy mennyi esik le a pixelszéleken, az leginkább gyártástechnológia-függő. Gondolom a Samsung akkor lép egy szorzótényezővel följebb felbontásban, amikor elég vékonyra tudják csinálni ahhoz, hogy ne takarjon ki számottevően. Meg mostanában valamelyik gyártónál volt szó mikrolencsés felület meg hasonló megoldásokról, amivel próbálják ellensúlyozni ennek a hatását.
    A raw összehasonlításnál egy csomó egyéb paraméter bejátszik, amit nem feltétlen kötnek a vevő orrára.
    Én pl pont múlt héten próbáltam S10 és S20FE fő (12MP-es sima bayer) kameráját hasonlítgatni gyenge fényviszonyok mellett raw-ban. Meglepő módon az S10-es 1/2.55"-os (F1.5) szenzora azonos beállítással lényegesen világosabb képeket produkált az S20 1/1.72"-osnál (F1.8). Az S10 objektív 0.3FÉ előnye ennyi különbséget messze nem indokolt volna. De persze a nagyobb szenzor zajszintje (ahogy várható) alacsonyabb volt. Arra tudok gondolni, hogy az azonos ISO beállítás egyszerűen nem ugyanazt jelenti a két gépen. Így viszont nagyon macerás összehasonlítani, a zajszintet precízen meg kéne határozni, hogy a dinamikatartomány kiszámolható legyen. Az S20FE-n quad bayer-es kamera sajnos csak az előlapon van (de minek...), 1/3.24"-os 32MP-es, képminőségben nyilván összehasonlíthatatlan hátsó kamerával.
    Tldr, arra akartam utalni, hogy meglepően nehéz ezeket a szenzorokat korrektül összehasonlítani.

    Átlagolásnál biztosan jobb mondjuk egy spektrális noise gate (nem tudom mi ennek a helyes magyar megnevezése) zajelnyomás, ami az oversampling-et kifejezetten jól tudja használni.

    BTW: simán el tudom képzelni, hogy a binninget a camera app ténylegesen csak videofelvételnél kapcsolja be, normál fényképnél kiolvassa a teljes szenzort és utána skáláz le.

  • XMI

    csendes tag

    válasz #96241664 #9 üzenetére

    "pedig a pixel binning miatt gyakorlatilag nem jár kompromisszummal, előnye van csak"

    Ez azért ebben a formában nem teljesen igaz:

    - Minden szenzornál pixelenként van valamennyi dead zóna, ahol nem érzékeny, lényegében egy keret a fényérzékeny terület körül. Ha egy összefüggő pixeled van, akkor 1x a keret vastagsága jön le, ha 4 pixelt binnelsz, akkor függőlegesen és vízszintesen is 2x-2x keretvastagság esik le 9-nél 3-3x, és így tovább. Ugyanakkora területen egy összefüggő pixelnek összesen mindig nagyobb fénygyűjtő felülete lesz, mint sok kicsi összebinneltnek. BSI szenzoroknál a keret lényegesen kissebb, mint FSI-nél, de nem nulla.
    - A binnelés olyan, mintha átlagolással próbálnál zajt csökkenteni. Hatásos, de vannak lényegesen jobb zajszűrő algoritmusok is. Minél több különálló pixeladat áll rendelkezésre, annál hatékonyabban tudják elkülöníteni a zajt a hasznos képtartalomtól. Összességében jobban jársz, ha a teljes felbontású képet kiolvasod, zajszűröd, majd csak utána skálázod le.
    - A quad-bayer, nona-bayer, 16x-bayer (secdeca?) színszűrő egy szűkséges rossz velejárója a binnelésnek, mert nem binnelhetsz össze különböző színű subpixeleket. Az effektív színfelbontás ennél a 200Mpixeles, 16x-bayer szenzornál kb 3Mpixel piros-kék és talán 8Mpixel zöld színben. Ok ennél valamelyest bonyolutabb a helyzet, de a lényeg, hogy 4-4 összefüggő színhiányos sor és oszlop van egymás mellett, ami bezoomolt képnél már nagyon sok.

    Igazából a binningnél szinte minden esetben jobb lenne egy sima bayer mintás érzékelő, amit a képprocesszor teljesen kiolvasna, teljes felbontásban feldolgozna, majd csak a legvégén skálázna le. Egyedül a videonál van előnye, mert sok megapixelt kiolvasni hosszú idő, emiatt csúnya rolling shutter lenne.

Új hozzászólás Aktív témák