Szoftver, AI
Már Android 16-tal előre telepítve érkezik a vásárlókhoz a Pixel 10-es széria, az új rendszerrel pedig a Material 3 Expressive felhasználói felületen keresztül léphetünk interakcióba. A UI egyelőre Pixel-exkluzív, a szoftveres támogatás pedig hét év hosszúságú a teljes 10-es szériára a Google ígérete szerint. Ez magába foglalja a főverzió-frissítéseket, biztonsági patcheket, valamint a Pixel drop nevű, jellemzően új funkciókat hozó frissítéseket is.
Túlzás lenne azt állítani, hogy teljesen megváltozik a Material 3 Expressive hatására a felhasználói felület, de azért vannak jelentősebb újítások. Az egész felület élőbbnek hat, nem csak az animációk minősége, de amiatt is, ahogy például a használt gombok, mozdulatok hatására a megérintett terület környékén is látható a visszahatás. Ami feltűnik, hogy bizonyos helyeken nagyobbak lettek a gombok, a feliratok, például az órákban, a Gmailben, de újdonság az is – legalábbis a Pixeleken –, hogy a vezérlőközpont gombjait át lehet méretezni. A gombok formája pedig reflektál arra, hogy egy funkció aktív-e: egyenes szélek jelzik, ha igen, lekerekített szélek, ha nem.
A főképernyőn kisebb lett az Áttekintés (At a glance) widget, így végre egy sorral több ikont lehet kipakolni. Vannak új háttérképek, illetve új háttérkép szerkesztési opciók is. Ezeket az Effektusok menüpont alatt találjuk, legjobban olyan képekkel működik, amin emberi arcot vagy állatot észlel a rendszer, ezek köré lehet formákat kitenni. Beállítható az is, hogy az aktuális időjáráshoz passzoló animációt játszon le a Pixel a háttérképen, és olyan is van, hogy 3D-s effektet adjon a képhez. Természetesen maradt az AI háttérkép-generátor meghatározott promptokból való választási lehetőségekkel. Ezek egy része érkezik a korábbi Pixel telefonokra is egyébként frissítéssel.
A legnagyobb hangsúlyt az AI kapta a Google bemutatóján, és bár a hardvert meg tudjuk vásárolni Magyarországon is, amin elfutnak az olyan új funkciók, mint a Magic Cue, ha magyarul használjuk a rendszert, mégis bukó egy csomó funkció. Nem elérhető a hívásfordítás, nem elérhető a Magic Cue, nem elérhető a Fotókban a szöveges prompt alapú képszerkesztés. Négyből három nagy újdonság. A Magic Cue lényege az lenne, hogy nagyrészben a Gemini Nanora hagyatkozva lokálisan figyelné és kontextusában értelmezné, mit csinálunk, és kontextusnak megfelelően proaktívan közreműködne. A Google példái között olyanok szerepelnek, hogy ha egy légitársasággal beszélünk telefonon, akkor a Magic Cue automatikusan fel tudja kutatni a Gmailben a kapcsolódó e-mailek között a regjegyünkre vonatkozó infókat és meg tudja őket jeleníteni a hívási képernyőn. Ha RCS csevegésben valaki mondjuk időponttal kapcsolatban kérdezne minket, a Magic Cue automatikusan átfésülné a Gmailt és a Google Naptárat részletekért. Ha valahol olyat észlel, hogy azt írják nekünk, ne felejtsünk el valamit, automatikusan felajánlaná, hogy egy Keep emlékeztetőt készít róla. Ha megnyitnánk a térképet, akkor a korábbi screenshotok, keresések alapján automatikusan felajánlaná az azokban szereplő helyszíneket, ha talált. Na, ezek közül magyarul semmi nem működött, és az amerikai sajtó tesztjeit olvasva igazából sokból még nem maradunk ki, mert azt írják, náluk sem megy normálisan. A 9to5Google cikke szerint például a térképes javaslat egy nap késéssel dobta fel a tesztet írónak a keresett múzeum címét a Magic Cue-ban.
A promptalapú AI képszerkesztés elvileg a későbbiekben minden Google Fotók felhasználónál elérhető lesz, természetesen online. A lényege az (és ez az amerikai sajtóban látottak alapján működik is már), hogy nem kell kézzel kijelölni például a képről leradírozni kívánt tárgyat, elég beírni szövegesen. Vagy ha élőbbé akarjuk tenni a képet a színek szaturációját emelve, nem kell ehhez különböző csúszkákat húzogatni a szerkesztőben, elég szövegesen beírni, hogy legyenek kirobbanó színek a képen. De van generatív része is ennek, olyan parancsokat is adhatunk, hogy rajzoljon oda valamit a Google AI motorja. Ilyenkor, illetve a kamerában a 30x nagyítás felett működésbe lépő AI zoom használatakor a kép metaadatai közé beégeti a C2PA tanúsítványt a Pixel, mellyel jelzi, mesterséges intelligencia működött közre a fotó elkészítésében. Bár nevezhetünk egyáltalán egy ilyet fotónak?
Kamerasegéd (forrás: Mobilaréna) [+]
Ugyanez a kérdés felmerült bennem a Kamerasegéd kapcsán is. Ez megy magyarul is, a kamera alkalmazás keresőjében a jobb felső sarokban lehet bekapcsolni. Lokálisan fut, elemzi a kamera képét, majd az AI több ajánlást is tesz aszerint, amit a képen érzékelt. A témafelismerője hibátlan pontosságú. Ha kiválasztottuk, hogy melyik felajánlott téma tetszik a legjobban, négy lépésben végigvezet minket a gép a folyamaton, hogy a szerinte legjobb képet hogyan készíthetjük el. De igazából mi készítjük ezt a fényképet? Arra talán jó a Kamerasegéd, hogy megmutasson egy-két telefonban elérhető funkciót, mint mondjuk a portré mód, de félek, van egy olyan árnyalata is, mely megszünteti az igényt az eszköz funkcióinak vagy egy fénykép elkészítési folyamatának megtanulására és megöli az emberi spontaneitást, kreativitást.
További képek a Kamerasegéd funkcióról (forrás: Mobilaréna) [+]
Hasonlókép ambivalens érzéseim vannak a Professzionális felbontású zoom néven futó funkcióról is, ami 30x nagyítás felett kapcsol be, és utólagosan megpróbálja feljavítani a képet. Ahogy a Honor telefonoknál már láttuk, a Pixel is hozzákölt nem létező részleteket a fotókhoz amellett, hogy az élességet javítja és ráküld a képre egy rendkívül erős zajszűrést. A kérdés megint csak az, hogy igazából ez egy valódi fénykép-e vagy valami, amit egy fénykép alapján haluzott az AI? Példák a következő oldalon.
Ami elérhető, az a Pixel Napló és a NotebookLM. Előbbi naplóírást segítő alkalmazás, megadhatunk célokat, hozzáférést biztosíthatunk képeinkhez, és akkor a telefon javaslatokat tehet nekünk arról, hogy miről írjunk. De tényleg egy gép kell ahhoz, hogy megkérdezze, milyen illatok, látvány, hang vagy érzés okozott számunkra örömet az adott nap? A Napló exkluzív a Pixel telefonokra, a NotebookLM viszont elérhető más mobilokon is.
NotebookLM (forrás: Mobilaréna) [+]
A NotebookLM a Google által fejlesztett AI alapú kutatási- és jegyzet-asszisztens alkalmazás, dokumentumok, weboldalak, de akár YouTube videók is bedobhatók belé, azokat elemzi, és a lényeget röviden összefoglalva leírja vagy felolvassa. Nagyon durván jól működik magyarul, belinkeltem a Nothing Headphone (1)-ről szóló videónkat, másodpercek alatt összeszedte írásban pontosan, hogy mikről volt szó benne, és ezt követően a Studio funkcióval csinált a 25 perces videóból egy 19 perces (!) podcast beszélgetést, amiben egy AI generálta női hang és egy szintén AI generálta férfi hang párbeszédes formában dumált arról, amiket én egyedül elmondtam a kamerának. Félelmetes. Ami pozitív, hogy meg lehet osztani a Google Workspace részeként másokkal is jegyzetfüzeteinket, és támogatott a valós idejű együttműködés, az is pozitív, hogy elvileg a feltöltött adatok, dokumentumok privátak maradnak, új AI modellek tréningelésére nem fogja őket felhasználni a Google.
Ezek után az olyan meglévő funkciók, mint a dalfelismerő, vagy az Áttekintés érdekelnek még valakit? A szoftver, a felhasználói felület és a használati élmény terén a Pixel letisztult, egyértelmű és egyszerű, átgondoltnak és kiforrottnak érződik, ami a konkurens márkákról sokszor nem mondható el. Az itthon elérhető funkciók úgy működnek, ahogy hivatottak, a kérdés már csak az, hogy ti itt lesztek? kell-e nekünk ennyi AI, vagy ha igen, pont ezek kellenek-e, amiket a Pixel kínál?
A cikk még nem ért véget, kérlek, lapozz!