
Glöm nostalgi av Google Glass – ANROID AR är ett helt nytt odjur. Googles XR-plattform är utvecklat i nära samarbete med Samsung och är utformad för att vara ryggraden i nästa gen-bärbara, blandning av AR, AI och sömlös enhetsintegration. Till skillnad från Metas smarta glasögon i Ray-Ban, som främst fokuserar på ljud- och kamerafunktioner, satsar Google på ett mycket mer avancerat ekosystem.
Shahram Izadi, Googles ledning på projektet, nyligen Demoed enheten på Ted. Medan prototypen fortfarande saknar ett iögonfallande produktnamn, är dess tekniska ambitioner tydliga: en konventionell utseende ram som diskret innehåller ett mikrodisplay, kamera, batteri, högtalare och en robust AI-assistent. Inga synliga kablar, inga skrymmande moduler – bara en elegant formfaktor som avlastar tung beräkning till en parad smartphone.
Visning, optik och systemarkitektur
Under huven har Googles AR -glasögon en mikrodisplay inbäddad i den högra linsen, medan den vänstra främre armen diskret innehåller en kamera. Alla beräkningsintensiva uppgifter-till exempel AI-slutsatser och AR-rendering-laddas upp till den anslutna smarttelefonen. Denna arkitektur håller glasögonen lätt och energieffektiv.
- Relaterat: Den här funktionen sticker ut som min favorit efter att ha testat Apple Vision Pro
Gemini Memories: Contextual AI som faktiskt kommer ihåg
Den verkliga spelväxlaren? Googles Gemini AI, nu förstärkt med “minnen”-ett ihållande, kontextmedvetet lager som loggar och påminner om både visuell och hörselinformation. Till skillnad från traditionella assistenter svarar Gemini inte bara på frågor; Den observerar proaktivt index och hämtar data från din miljö.
- Beyond Ray-Ban: Samsungs nästa gen smarta glasögon siktar högre
I TED -demo identifierade Gemini boktitlar på en hylla och platsen för ett hotellnyckelkort – utan att bli uttryckligen uppmanad. Detta ihållande minneslager markerar ett stort språng i kontextuell datoranvändning och suddar gränsen mellan passiv observation och aktivt hjälp. Föreställ dig att fråga, “Var såg jag senast mitt pass?” och få ett exakt, visuellt svar. Det är visionen – och det är närmare än du kanske tror.
Flerspråkig behärskning: realtidstal och textöversättning
Google driver också gränser med Geminis språkfunktioner. Glasögonen kan känna igen och översätta text i realtid – ingen överraskning där – men hanterar också levande tal på flera språk, inklusive hindi och farsi. Detta är inte bara grundläggande översättning; Det är full duplex, kontextmedveten kommunikation, drivs av AI-modeller på enheten.
Visningsbegränsningar: där prototypen fortfarande är kort
Inte allt är marknadsklar ännu. Den nuvarande mikrodisplayen, även om den är funktionell, lider av ett begränsat synfält, kantförvrängning och låg ljusstyrka. Under demo verkade navigationskoder och 3D -stadskartor små och pixelerade – särskilt runt periferin.
Googles färdplan pekar tydligt på iterativa förbättringar i optik och rendering, men förvänta dig inte mirakel – åtminstone inte i den första kommersiella utgåvan.