¡Atención, fanáticos de la tecnología! Después de años de perfeccionamiento en sus laboratorios, Google se prepara para un regreso triunfal al mercado de las gafas inteligentes en 2026, revitalizando la audaz visión de los Google Glass.
Esta nueva generación no solo busca igualar el concepto original, sino superarlo. La clave está en una estrategia renovada que integra alianzas estratégicas y desarrollos de vanguardia. Hablamos de la incorporación del sistema operativo Android XR y el poderoso asistente de inteligencia artificial Gemini, diseñados para interactuar de manera fluida a través de la voz y la cámara.
Dos Propuestas para una Nueva Era Digital
Para el próximo año, Google planea lanzar al menos dos líneas de gafas inteligentes. Ambas compartirán la base de Android XR, el sistema operativo diseñado para experiencias inmersivas. La primera apuesta es un modelo enfocado en la experiencia auditiva. Este dispositivo permitirá a los usuarios interactuar con Gemini mediante comandos de voz, cámara y micrófono integrados, ideal para quienes buscan comunicación directa y sin distracciones visuales.
Por otro lado, el modelo más avanzado promete una experiencia visual revolucionaria. Se trata de unas gafas equipadas con una «pantalla monocular», una tecnología que proyecta información directamente en uno de los lentes. Gracias a los avances en microLEDs, obtenidos tras la adquisición de Raxium, Google garantiza una resolución asombrosa y colores vibrantes, creando la ilusión de una visualización flotante de datos.
Las demostraciones internas revelan capacidades impresionantes: desde reproducir música y atender videollamadas hasta tomar fotografías y editar escenas en tiempo real utilizando aplicaciones especializadas. Además, las gafas podrán mostrar notificaciones sincronizadas con otros dispositivos, como relojes inteligentes con Wear OS, permitiendo una conexión total.
La interacción se simplifica mediante gestos intuitivos, controles táctiles en las patillas o botones físicos discretamente ubicados. Un ejemplo es un botón de cámara en la parte superior y otro para encender/apagar la pantalla en la parte inferior, ofreciendo un control total al alcance de la mano.
Funcionalidades que Definen el Futuro
Las gafas con pantalla integrada de Google prometen transformar la manera en que navegamos por el mundo. Imaginen recibir indicaciones de navegación en tiempo real que se superponen a su campo de visión, o traducciones instantáneas mientras conversan en otro idioma. La recepción de notificaciones y el control multimedia se realizarán sin necesidad de sacar el teléfono del bolsillo.
Un ejemplo destacado es la integración con Google Maps Live View. Las indicaciones de ruta aparecerán sutilmente mientras caminas, y con un simple movimiento de cabeza, podrás acceder a un mapa interactivo que recuerda a los videojuegos. Empresas como Uber ya están desarrollando experiencias específicas, como guías visuales para ubicar puntos de encuentro en aeropuertos.
La interfaz de usuario ha sido diseñada con una filosofía de minimalismo y fluidez. Los paneles se inspiran en los conocidos widgets de Android y la estética de Material Design, asegurando una experiencia visualmente agradable y fácil de asimilar, minimizando la sobrecarga de información.
Para los desarrolladores, Google ha puesto a disposición kits y emuladores. Esto facilita la creación y optimización de aplicaciones para la plataforma Android XR, fomentando un ecosistema robusto desde el inicio, principalmente mediante la adaptación de aplicaciones móviles existentes.

Expansión del Ecosistema Inmersivo
Pero las novedades no terminan ahí. Junto con el anuncio de sus gafas, Google ha revelado nuevas funcionalidades para el visor Galaxy XR, desarrollado en colaboración con Samsung. Destaca la capacidad de conectarse a computadoras con Windows y un innovador «modo viaje» optimizado para su uso en aviones y automóviles, ampliando el alcance de su ecosistema inmersivo.
La compañía también ha mostrado prototipos de gafas binoculares con pantallas en ambos lentes, utilizando tecnología waveguide. Estos prototipos son capaces de reproducir videos en 3D nativo y mapas interactivos con zoom, señalando que la convergencia definitiva entre productividad y realidad aumentada sigue en desarrollo, prometiendo futuras sorpresas que continuarán redefiniendo nuestra interacción con la tecnología.
Fuente: Infobae