
el 15 de mayo, meta inauguró oficialmente el proceso de apertura del ecosistema de las gafas inteligentes ray‑ban display, otorgando pleno acceso a aplicaciones de terceros y lanzando simultáneamente importantes actualizaciones como la escritura manual neural, la grabación de pantallas y los subtítulos en tiempo real para las llamadas de voz. la empresa emitió un comunicado bajo el título «la espera ha llegado a su fin», lo que marca el paso definitivo de este dispositivo portátil a la etapa de co‑desarrollo con desarrolladores.
estas gafas inteligentes, lanzadas el otoño pasado a un precio de 799 dólares, inicialmente generaron dudas entre los usuarios debido a su funcionalidad cerrada y su limitación a las aplicaciones propias de meta. aunque su módulo micro‑hud y su pulsera neural destacaban por su tecnología avanzada, se veían restringidos por escenarios de uso demasiado limitados. sin embargo, esta situación ha cambiado por completo: meta no solo ha habilitado soporte nativo para ios y android, sino que también es compatible con aplicaciones web ligeras. gracias al recién publicado wearables device access toolkit, los desarrolladores pueden migrar rápidamente funciones móviles a la interfaz de las gafas utilizando swift o kotlin, integrando libremente texto, imágenes, botones interactivos y módulos de reproducción de video; mientras tanto, las aplicaciones web se construyen completamente con html, css y javascript, siendo accesibles al instante sin necesidad de instalación.
el dispositivo cuenta con un campo de visión óptico monocular de 20 grados y prioriza una lógica de presentación de información eficiente basada en el principio «mira y avanza», diferenciándose claramente de los visores ar que buscan una experiencia inmersiva. las aplicaciones compatibles se centran en escenarios ligeros y de alta eficiencia: resultados en tiempo real de eventos deportivos, seguimiento de vuelos, servicios básicos y herramientas, previsualización de contenido en streaming, así como juegos clásicos adaptados a pantallas pequeñas como ajedrez, snake y breakout. además, la aplicación de terceros «darkroom buddy», demostrada en vivo por el cto andrew bosworth, transforma el proceso tradicional de revelado de películas en una guía interactiva visual, mostrando el potencial expansivo del hardware en sectores específicos.
para los usuarios finales, la función de escritura manual neural ya está disponible en su totalidad. tras usar la pulsera neural correspondiente, los usuarios solo deben trazar letras en el aire y el sistema, mediante señales electromiográficas, las reconocerá y convertirá en texto, integrándose sin problemas en whatsapp, messenger, instagram y las aplicaciones de mensajería del sistema. la nueva capacidad de grabación de pantalla permite capturar simultáneamente imágenes reales y capas virtuales de la interfaz de usuario, abriendo nuevas posibilidades para la creación de contenido y la revisión de operaciones. los subtítulos para llamadas de voz ahora están disponibles en tres grandes plataformas —messenger, whatsapp e instagram—, permitiendo la transcripción instantánea de voz entre aplicaciones. el servicio de navegación peatonal se ha extendido a todo estados unidos y a ciudades europeas clave como londres, parís y roma; además, la pantalla principal ha sido renovada, integrando diversos widgets —como el clima, la agenda, alertas bursátiles y listas rápidas de spotify— para acceder con un solo toque a las necesidades más frecuentes.