Apple ha anunciado nuevas funciones de accesibilidad para sus dispositivos, destacando una herramienta innovadora que llegará a los Apple Vision Pro a finales de este año con la próxima actualización de visionOS.
Gracias al uso de cámaras integradas y aprendizaje automático, los Vision Pro podrán ampliar lo que ve el usuario y generar descripciones en tiempo real del entorno. Esta función permitirá identificar tanto objetos reales como elementos virtuales, lo que podría convertir al dispositivo en una herramienta de asistencia para personas con baja visión o ceguera.
Además, VoiceOver, la función de accesibilidad de Apple, también se integrará en los Vision Pro, permitiendo leer documentos, reconocer personas y objetos, y describir escenarios complejos sin necesidad de interacción manual.
Apple también anunció una nueva API que abrirá la cámara de los Vision Pro a desarrolladores, lo que permitirá crear aplicaciones más accesibles. Un ejemplo es la integración con plataformas como Be My Eyes, que ofrecen asistencia visual en vivo, conectando a los usuarios con voluntarios para obtener ayuda en tiempo real.
Como parte de un esfuerzo más amplio en accesibilidad, Apple presentó también una función que utiliza la tecnología de interfaces cerebro-computadora, integrando el protocolo Switch Control para controlar dispositivos mediante movimientos mínimos o incluso pensamientos. Esta tecnología fue desarrollada en colaboración con la empresa Synchron, conocida por sus implantes cerebrales que permiten seleccionar íconos en pantalla solo con la mente.
Con estas innovaciones, Apple reafirma su compromiso por hacer sus productos más accesibles, acercándose a una nueva era en la interacción entre personas y tecnología.