Durante la edición del Mobile World Congress 2026, el gigante tecnológico Google ha ofrecido un adelanto exclusivo de sus nuevas gafas inteligentes equipadas con el sistema Android XR. En este evento, los asistentes pudieron experimentar de primera mano las capacidades del dispositivo, que incluyen navegación asistida por Google Maps, funciones de audio y diversas interacciones inteligentes con el entorno físico.
Una plataforma impulsada por inteligencia artificial
El software que da vida a este dispositivo, Android XR, fue introducido oficialmente en octubre del año pasado, coincidiendo con la presentación del Galaxy XR de Samsung. Se trata de un ecosistema de realidad extendida diseñado para potenciar aplicaciones que utilizan la IA Gemini, permitiendo que los usuarios interactúen con información digital de manera fluida a través de visores y dispositivos vestibles.
A diferencia de los visores convencionales, Google ha enfocado sus esfuerzos en un diseño de gafas «elegantes y ligeras». Este concepto, que la firma ya había anticipado en diciembre, busca integrar la inteligencia artificial y la realidad mixta en el estilo de vida cotidiano de las personas de una forma menos invasiva y más estilizada.
Funcionalidades del prototipo con Gemini
En el marco de la feria tecnológica en Barcelona, se exhibió un modelo que incorpora una pantalla integrada en el cristal derecho para mostrar datos visuales. El hardware incluye los siguientes componentes esenciales:
- Cámaras frontales para el reconocimiento del entorno.
- Micrófonos de alta fidelidad.
- Altavoces integrados.
- Conectividad total con la IA Gemini.
La interacción comienza de forma sencilla: el usuario debe presionar la patilla derecha por unos instantes para activar a Gemini. A partir de ese momento, es posible entablar una conversación natural en múltiples idiomas. El sistema funciona mediante el reconocimiento visual; basta con observar un objeto o lugar para obtener información detallada.
Navegación y entretenimiento en tiempo real
Las capacidades del dispositivo son variadas. Por ejemplo, al mirar un edificio emblemático, la IA puede ofrecer datos históricos o curiosidades. Si se enfoca un cuadro, se obtiene información sobre el autor. En el ámbito de la movilidad, las gafas utilizan Google Maps para proyectar un mapa en la pantalla del cristal derecho, brindando instrucciones por audio mientras el usuario camina.
En cuanto al apartado musical, el sistema se integra con YouTube Music. Durante las pruebas, se sugirió a los usuarios mirar un disco y
«pedirle que reproduzca la canción más popular del disco»
. La inteligencia artificial analiza los datos de escucha en tiempo real para seleccionar el tema adecuado. Entre los álbumes utilizados en la demostración se incluyeron:
- Mayhem de Lady Gaga.
- Barcelona de Freddie Mercury y Montserrat Caballé.
- The Dark Side of the Moon de Pink Floyd.
Aunque por el momento estas gafas se encuentran en fase de prototipo y no se permitió la captura de material audiovisual durante el evento, Google confirmó que continúa trabajando intensamente para que este dispositivo de realidad extendida llegue al mercado global en un futuro cercano.
Fuente: Fuente