Meta ha presentado mejoras significativas en sus gafas inteligentes Ray-Ban, aumentando sus capacidades de IA multimodal para una mejor interacción con el usuario.
Las características clave incluyen:
Función de memoria: Las gafas pueden 'recordar' indicios visuales y números específicos, permitiendo a los usuarios recuperar información más tarde.
Traducción en tiempo real: Las gafas admitirán traducciones en vivo en español, francés e italiano, demostradas con traducción de conversaciones sin problemas durante el evento.
Aplicación compañera de IA: Los usuarios pueden sincronizar traducciones con una aplicación compañera para una mayor utilidad más allá de las conversaciones directas.
Memoria fotográfica: Los usuarios pueden solicitar verbalmente a las gafas que recuerden lugares, como espacios de estacionamiento, mejorando la utilidad diaria.
Consultas contextuales: La IA puede responder a preguntas en tiempo real sin necesidad de una frase de activación, analizando simultáneamente entradas visuales y auditivas.
Funciones de accesibilidad: Los usuarios con discapacidad visual pueden conectarse con voluntarios para describir su entorno a través de una transmisión de video en vivo.
Nuevos diseños: Las gafas presentarán nuevos marcos transparentes y lentes de transición, disponibles a partir de 300 $.
Estos avances posicionan las Ray-Ban de Meta como una opción líder en tecnología portátil impulsada por IA.