Meta ha anunciado el lanzamiento de Aria Gen 2, la nueva generación de gafas inteligentes diseñadas para la investigación en percepción de máquinas, IA egocéntrica y robótica. Estas gafas forman parte de Project Aria, una iniciativa lanzada en 2020 que ha permitido a investigadores de todo el mundo desarrollar nuevas tecnologías en inteligencia artificial.
Las Aria Gen 2 destacan por su avanzado conjunto de sensores, que incluyen cámaras RGB, sensores de seguimiento ocular, micrófonos espaciales y un sensor PPG para medir la frecuencia cardíaca. Además, incorporan un micrófono de contacto en la almohadilla nasal para identificar la voz del usuario y diferenciarla del ruido ambiental. Gracias a su procesador de bajo consumo, las gafas pueden ejecutar en el dispositivo tareas como reconocimiento de voz, seguimiento de manos y SLAM (localización y mapeo simultáneo), sin necesidad de conexión a la nube.
Uno de los aspectos más innovadores de Aria Gen 2 es su uso en proyectos de accesibilidad. Meta ha colaborado con Envision, una empresa que desarrolla soluciones para personas con discapacidad visual, integrando su asistente Ally AI y tecnología de audio espacial para mejorar la navegación en interiores. Además, el kit de investigación Aria ha sido utilizado en el proyecto NavCog de la Universidad Carnegie Mellon, que busca facilitar el desplazamiento de personas ciegas o con visión reducida.
Se espera que para 2026, el 90% de las empresas que usan AR/VR en el entorno educativo lo hagan para mejorar la capacitación y el aprendizaje práctico, según PwC. Las gafas inteligentes de realidad aumentada, también conocidas como “Smart Augmented Reality (AR) Glasses”, crecerán más de un 48 por ciento anual hasta 2030, con aproximadamente 13,3 millones de unidades vendidas.
Se estima que la IA aportará hasta 15.7 billones de dólares a la economía global para 2030, aproximadamente el 14% del PIB global. La robótica, por su parte, ha experimentado avances significativos con la integración de IA y sensores avanzados. Los robots ya no solo ejecutan tareas preprogramadas, sino que ahora pueden aprender de su entorno, adaptarse a situaciones inesperadas y tomar decisiones en tiempo real.