El mayor reto de la realidad aumentada no es el renderizado, sino la accesibilidad. El ingeniero de software de Google Ohan Oda explora cómo convertir AR Lens de Google Maps en una experiencia útil para personas con discapacidad visual obligó al equipo a replantearlo todo: desde la fusión de sensores y las canalizaciones de detección de objetos hasta la retroalimentación por audio y el diseño de la interfaz. Lo que parecía un pequeño ajuste derivó en cambios profundos técnicos y organizativos.
La función, concebida inicialmente como visual first, tuvo que evolucionar hacia un sistema que priorizara contexto, precisión y latencia mínima. Esto implicó mejorar la alineación entre IMU, GPS y visión computacional, robustecer el reconocimiento en condiciones del mundo real, diseñar guías de audio claras y oportunas, y revisar patrones de interacción para reducir carga cognitiva. El resultado: una AR más inclusiva y fiable, capaz de orientar sin depender de lo visual.
La charla subraya que la accesibilidad auténtica en AR no se logra solo con buen código, sino derribando silos entre equipos de ML, hardware, UX y accesibilidad, con investigación con usuarios y ciclos de iteración constantes. Si quieres profundizar y conocer los detalles tras bambalinas, consulta la transcripción en InfoQ y mira la sesión completa aquí: ver en YouTube.
En Q2BSTUDIO ayudamos a las organizaciones a llevar estas lecciones a sus productos con aplicaciones a medida y software a medida centrados en las personas, integrando inteligencia artificial y agentes IA para empresas, reforzados por ciberseguridad de nivel empresarial, servicios cloud AWS y Azure, y analítica avanzada con servicios inteligencia de negocio y power bi. Descubre cómo aplicamos IA responsable y accesible en tus productos con nuestra oferta de inteligencia artificial, y acelera tu roadmap digital con nuestro desarrollo de aplicaciones y software a medida que convierte ideas en experiencias inclusivas, seguras y escalables.