Google demonstrerte et utviklerkit for Android XR-briller med Gemini-assistent og flerdimensjonal integrasjon.
Under en demonstrasjon i Googles kontor fikk en journalist på seg et utviklerkit for Android XR og førte samtaler med Gemini, som bruker kunstlig intelligens (KI), mens han beveget seg i rommet. Demoene viste multimodal maskinvare som kombinerer kamera, skjerm og lyd, gyroskopisk navigasjon, visuell assistanse og integrasjon mot eksisterende Android-apper som Uber. Google beskriver Android XR i to formfaktorer — audio/kamera-only og skjermintegrert display — og sier Developer Preview 3 av Android XR SDK med API-er slippes denne uken. Demoene hadde enkelte feil og krasj, men ga et tydelig inntrykk av plattformens funksjonalitet; dette er relevante AI-nyheter.
Journalisten byttet også mellom Samsungs Galaxy XR, som har nye funksjoner som PC Connect, reisemodus og Likeness-avatar, og Xreal sitt Project Aura. Project Aura tilbyr om lag 70 graders synsfelt, en tinting-funksjon for økt lysstyrke, geststyring og støtte for flere flytende vinduer, og kjører på Android XR. Google og Xreal har ikke oppgitt offisiell lanseringsdato, men sier brillene kan komme sent neste år; prisforventningen fra demonstrasjonen var nær 1 000 dollar.
Norsk kontekst: Google fremhever at Androids etablerte økosystem og tredjepartsapper kan overføres til Android XR, noe som gjør plattformutviklingen relevant for norske Android‑utviklere og bedrifter som følger nye muligheter innen bærbare grensesnitt. AI-Norge vil kunne følge teknologisk utvikling og integrasjonsmuligheter.
Kilde: https://zdnet.com/article/android-xr-smart-glasses-hands-on-xreal-samsung | Sammendraget er KI-generert med OpenAI API og kvalitetssikret av redaksjonen i Ainy.no
