Befutott az iOS 13.2 és a DeepFusion képfeldolgozás

Sokkal több részletet ígér a többelemes DeepFusion mód mostoha fényviszonyok között a korábbiaknál, ám csak az iPhone 11 széria tulajdonosai örvendezhetnek.

Szinte mellékesen említette meg az Apple a három iPhone 11 bemutatásakor, hogy az ősszel érkezni fog egy új képfeldolgozó algoritmus, ami félhomályban és sötétben ígér drámai minőségjavulást a részletekben, amelyek a magas érzékenység és a zajszűrés miatt egyébként elvesznének. Igaz, a szériával már az első naptól kezdve elérhető volt az éjjeli mód a főkamerához, a kilenc képből dolgozó DeepFusion azonban most futott be az iOS 13.2-es frissítéssel egyetemben.

Szobabelsős két a DeepFusion képfeldolgozással
Szobabelsős két a DeepFusion képfeldolgozással (forrás: The Verge) [+]

Az efféle AI-alapú feldolgozás egyébként nem új: a Huawei és a Google után ma már számos gyártó beveti több-kevesebb sikerrel, az Apple itt látható példái pedig aláhúzzák, hogy valóban működőképes a dolog. Érdemes tudni, hogy mivel a feldolgozás eséllyel hardverszinten történik, egyelőre biztosan csak az iPhone 11 szériával érhető el ez a fejlett algoritmus, amit nem kell külön kiválasztani, szituációtól függően az automatika maga kihasználja a benne rejlő lehetőségeket.

Szobabelsős két a DeepFusion képfeldolgozással
Szobabelsős két a DeepFusion képfeldolgozással (forrás: The Verge) [+]

A The Verge szerint jelenleg a fő- és zoomkamerára érhető el ez a feldolgozás, ami annyiból sajnálatos, hogy este éppen az iPhone Prókra fért volna rá a többelemes feldolgozás, amit egy P30 Pro ügyesen megold, de egy Mi 9 Google Camera eredményei is jelentősen javítanak a szimpla exponálás minőségén. A fenti példák remek részletességén túl a dinamika és a fehéregyensúly is rendben van, persze igyekszünk majd élesben kipróbálni, hogy mindig ennyire ütősek-e az eredmények a mindennapokban.

  • Kapcsolódó cégek:
  • Apple

Hirdetés