Apple anunció una nueva función que llegará para revolucionar la tecnología a nivel mundial y permitirá a muchos usuarios mejorar su accesibilidad: algunos dispositivos se podrán controlar tan solo con el movimiento de los ojos. Con la llegada de iOS 18, se lanzará Eye Tracking, la cual estará incluida en los iPhones y los iPads, y estará acompañada de otras innovaciones.
“Diseñado para usuarios con discapacidades físicas, Eye Tracking utiliza la cámara frontal para configurar y calibrar en segundos”, indicaron desde la compañía de la manzana. Además, su director ejecutivo Tim Cook afirmó que creen “profundamente en el poder transformador de la innovación para enriquecer vidas” y que están “continuamente superando los límites de la tecnología”.
Esta nueva herramienta ayudará a muchos usuarios con discapacidades físicas a facilitar su uso de los dispositivos gracias al seguimiento ocular, que se encuentra impulsado por los avances de la inteligencia artificial y dará la posibilidad de navegar en los distintos dispositivos con la simple utilización de los ojos.
Eye Tracking funcionará en aplicaciones de iOS y iPadOS, sin requerir hardware ni accesorios adicionales. Desde Apple informaron que “los usuarios pueden navegar a través de los elementos de una aplicación y usar Dwell Control para activar cada elemento, accediendo a funciones adicionales como botones físicos, deslizamientos y otros gestos únicamente con los ojos”.
También llegará Music Haptics, la cual ofrecerá una nueva forma para que las personas sordas o con dificultades de audición puedan experimentar la música. A su vez, aparecerá Vehicle Motion Cues, para ayudar a reducir el mareo cuando se utiliza el iPhone o el iPad dentro de un vehículo en movimiento, y otras funciones más relacionadas a la accesibilidad.
>> Leer más: Apple Vision Pro: qué es, cómo se usa y cuánto cuesta el nuevo chiche de la tecnología
En tanto, la directora senior de Políticas e Iniciativas de Accesibilidad Global de Apple, Sarah Herrlinger, aseguró que la empresa “abre cada año nuevos caminos en accesibilidad” y que “estas nuevas funciones tendrán un impacto en las vidas de una amplia gama de usuarios, proporcionando nuevas formas de comunicarse, controlar sus dispositivos y moverse por el mundo”.
Cómo funcionará el seguimiento ocular en iPhone y iPad
Eye Tracking será impulsado por la inteligencia artificial y ofrecerá a los usuarios una opción integrada para navegar en iPads y en iPhones con los ojos, sin necesidad de tocar las pantallas. Esta función utiliza la cámara frontal para configurar y calibrar en segundos, con el aprendizaje automático en el dispositivo, pero los datos utilizados se guardarán de forma segura sin ser compartidos con Apple.
Diseñado para mejorar la experiencia de los usuarios con discapacidades físicas, permitirá navegar a través de la aplicación y usar Dwell Control para activar cada elemento, con el acceso a funciones adicionales como botones físicos, deslizamientos y otros gestos únicamente con los ojos.
Apple reconocimiento iPad con los ojos.mp4
Qué es la tecnología háptica
La háptica hace referencia al sentido del tacto, a su percepción y manipulación de objetos. Por eso, Music Haptics brindará una nueva forma para que los usuarios con dificultades o nula audición puedan experimentar la música a través del iPhone.
>> Leer más: Estados Unidos demandó a Apple por monopolio en el mercado de los smartphones
Al activarse esta herramienta, Taptic Engine reproducirá toques, texturas y vibraciones relacionadas al audio de las canciones, ya que contará con millones de temas del catálogo de Apple Music y estará disponible como API para que los desarrolladores hagan que la música sea más accesible en sus aplicaciones.
Cómo reducirá el mareo Apple en vehículos en movimiento
Con la llegada del Vehicle Motion Cues, en Apple se vivirá una nueva experiencia que intentará reducir el mareo de las personas que se trasladan en vehículos en movimiento, debido a las investigaciones que demostraron que este problema es comúnmente causado por un conflicto sensorial entre lo que una persona ve y lo que siente.
La innovador herramienta utilizará sensores integrados al iPhone o iPad para reconocer cuándo un usuario se encuentra dentro de un vehículo en movimiento y activar su funcionamiento. La misma se puede configurar para activarse automáticamente o desactivarla en el Centro de control.