Google presenterte tre fremskritt i Android XR, med displaybriller til utviklere først.
ZDNETs gjennomgang beskriver en demonstrasjon i Googles Hudson River-kontor der et utviklerkit for Android XR-briller lot brukeren samtale med Gemini og få visuell assistanse, gyroskopisk navigasjon og kontekstuell oppsummering av omgivelsene. Google viser to brilletyper: lyd- og kamerabasert og en med innebygd skjerm for flytende grensesnitt, og kunngjorde at Developer Preview 3 av Android XR SDK med API-er slippes denne uken. I demonstrasjonen ble også funksjoner fra eksisterende Android-apper trukket inn, blant annet viste brillene informasjon fra Uber når testpersonen nærmet seg sjåføren. Samsung Galaxy XR fikk oppdateringer som PC Connect, travel mode og Likeness, mens Xreal-prosjektet Project Aura viste en komfortabel, skjermbasert løsning med omtrent 70 graders synsfelt, tinting og støtte for flere flytende vinduer og PC Connect; ZDNET-forfatteren anslår en mulig pris nær $1 000 ved lansering. Gemini ga kontekst og svar, et eksempel på kunstlig intelligens (KI) i grensesnittet, og ZDNET omtaler utviklingen som relevante AI-nyheter.
Dette er relevant for Norge fordi mange norske brukere og utviklere benytter Android-økosystemet; løsninger som bygger på Android XR kan dermed være av interesse for AI-Norge-miljøet og for norske aktører som utvikler eller bruker Android-apper.
Kilde: https://zdnet.com/article/android-xr-smart-glasses-hands-on | Sammendraget er KI-generert med OpenAI API og kvalitetssikret av redaksjonen i Ainy.no
