Apple presentó una nueva función que parece sacada de una película de ciencia ficción
Ahora controlar tu dispositivo con tan solo mirarlo es una realidad
Apple ha dado un paso significativo para mejorar la accesibilidad en sus dispositivos al anunciar una serie de nuevas funciones que llegarán a finales de este año. Entre estas innovaciones destaca Eye Tracking, una función que permitirá a los usuarios controlar el iPad y el iPhone únicamente con el movimiento de sus ojos. Esta característica, que no requiere hardware adicional, está diseñada para mejorar la experiencia de aquellos con discapacidades físicas, marcando un avance notable en la tecnología de asistencia.
Eye Tracking
Eye Tracking utiliza la cámara frontal del dispositivo para configurar y calibrar la función en cuestión de segundos. Gracias al aprendizaje automático en el dispositivo, todos los datos de seguimiento ocular se almacenan de forma segura y no se comparten con Apple.
Este sistema permite a los usuarios navegar por aplicaciones iPadOS e iOS de manera intuitiva, utilizando Dwell Control para seleccionar y activar elementos en la pantalla con solo mirar fijamente. Esto no solo facilita el acceso a las funciones básicas del dispositivo, sino que también permite realizar gestos complejos, como deslizar o pulsar botones físicos, ampliando significativamente la usabilidad del iPad y el iPhone para aquellos con movilidad limitada.
Music Haptics
Además del innovador Eye Tracking, Apple ha introducido Music Haptics, una nueva forma para que las personas sordas o con problemas de audición experimenten la música. Utilizando el Taptic Engine en el iPhone, esta función traduce la música en vibraciones táctiles, permitiendo que los usuarios sientan las texturas y ritmos de las canciones. Esta tecnología es compatible con millones de canciones del catálogo de Apple Music y estará disponible para desarrolladores a través de una API, lo que abre la puerta a una mayor accesibilidad en aplicaciones de terceros.
Atajos vocales
Otro avance significativo son los atajos vocales, que permiten a los usuarios crear sonidos personalizados para realizar tareas específicas en sus dispositivos. Esta función no solo facilita el uso diario del iPhone y el iPad, sino que también puede adaptarse a las necesidades individuales de los usuarios con discapacidades del habla. La función Listen for Atypical Speech emplea inteligencia artificial para mejorar el reconocimiento de voz para una gama más amplia de patrones de habla, lo que es particularmente útil para personas con condiciones como parálisis cerebral, esclerosis lateral amiotrófica (ELA) o aquellos que han sufrido un accidente cerebrovascular.
Vehicle Motion Cues
Para aquellos que experimentan mareo por movimiento al usar sus dispositivos en vehículos, Apple ha desarrollado Vehicle Motion Cues. Esta función utiliza puntos animados en los bordes de la pantalla para representar los cambios en el movimiento del vehículo, ayudando a reducir el conflicto sensorial que causa el mareo. Basándose en los sensores integrados del iPhone y el iPad, la función se activa automáticamente cuando se detecta que el usuario está en un vehículo en movimiento, pero también se puede activar o desactivar manualmente desde el Centro de control.
Estas nuevas funciones no solo reflejan el compromiso de Apple con la accesibilidad, sino que también demuestran el poder transformador de la tecnología para mejorar la vida de los usuarios. Tim Cook, director ejecutivo de Apple, enfatizó que la compañía ha defendido el diseño inclusivo durante casi 40 años, incorporando la accesibilidad en el centro de su hardware y software. Estas innovaciones son un testimonio de la dedicación de Apple para brindar la mejor experiencia posible a todos sus usuarios, independientemente de sus capacidades físicas o sensoriales.
Sigue leyendo:
– Apple reveló por qué no ha lanzado una Mac con pantalla táctil
– ¿Cuáles son las ventajas de las pantallas OLED y por qué Apple las uso en los nuevos iPad Pro M4?
– Polémica publicidad del nuevo iPad está generando problemas a Apple