Notebookcheck Logo

Apple las próximas funciones de accesibilidad de iPhones y iPads permitirán a los usuarios controlarlos con los ojos

Gracias a la próxima función de seguimiento ocular de Apple, cualquiera podrá controlar su iPad o iPhone sólo con los ojos. (Imagen vía Apple)
Gracias a la próxima función de seguimiento ocular de Apple, cualquiera podrá controlar su iPad o iPhone sólo con los ojos. (Imagen vía Apple)
Apple ha anunciado varias nuevas funciones de accesibilidad que llegarán a iOS y iPadOS. Entre ellas se encuentran el seguimiento ocular, que permitirá a los usuarios interactuar con un iPhone o iPad sólo con los ojos; los atajos vocales, que permiten a los usuarios personalizar los comandos de voz; y las señales de movimiento del vehículo, que pueden ayudar a reducir el mareo.

Apple ha anunciado la llegada de nuevas funciones a iOS y iPadOS destinadas a hacer los dispositivos más accesibles para todos, incluidas las personas con discapacidad.

Lo más destacado del nuevo conjunto de funciones es el seguimiento ocular. Haciendo honor a su nombre, esta función permite al iPhone o al iPad seguir la mirada del usuario. Cambiando el enfoque de su mirada, los usuarios podrán navegar por las aplicaciones e interactuar con ellas. La función permite a los usuarios imitar funciones como tocar elementos, desplazarse y otros gestos "únicamente con los ojos", según Apple.

Aunque una función similar ha estado disponible en otros dispositivos durante un tiempo, requería hardware adicional y software especializado. El seguimiento ocular no es específico de una aplicación y no requiere hardware adicional. Los dispositivos compatibles lo consiguen utilizando la cámara frontal y el "aprendizaje automático en el dispositivo", según Apple. La empresa afirma que todos los datos utilizados en esta función se mantendrán en el dispositivo y no se compartirán. La función podría resultar increíblemente útil para las personas con movilidad limitada, ya que les proporcionaría un método más sencillo de utilizar su dispositivo.

Music Haptics hace que un iPhone vibre en sincronía con el audio reproducido a través de la app Música de Apple, lo que, según Apple, "es una nueva forma de que los usuarios sordos o con dificultades auditivas experimenten la música en el iPhone". Aunque la función está diseñada actualmente para la app Música de Apple, la empresa lanzará una API para que los desarrolladores puedan conectarla a sus apps y activar la función.

Los atajos vocales permiten a los usuarios personalizar los comandos de voz. Con esta función, Siri puede entender señales verbales o sonidos no tradicionales para ejecutar atajos y otras tareas. En la misma línea, Escuchar habla atípica permite al dispositivo aprender cómo habla un usuario, lo que significa que aquellos con un habla afectada pueden entrenar a su teléfono para que les entienda mejor.

Las señales de movimiento del vehículo pueblan la pantalla del dispositivo con puntos en movimiento para indicar visualmente al usuario el movimiento del entorno, como cuando se viaja en coche. La función utiliza los sensores del iPhone o el iPad para animar los puntos en sincronía con el movimiento, ya sea de forma automática o a través de un conmutador que puede colocarse en el Centro de control.

CarPlay también recibe algunas nuevas funciones de accesibilidad, como el control por voz, los filtros de color para daltónicos y el reconocimiento de sonido, que puede indicar a los conductores sordos o con dificultades auditivas ruidos ambientales como sirenas o alarmas.

También hay actualizaciones de las funciones de accesibilidad existentes, sobre las que puede leer en la sala de prensa de Apple(enlace más abajo). Estas actualizaciones llegarán en algún momento a finales de este año.

Compre un iPad Apple (10ª generación) en Amazon.

Please share our article, every link counts!
Mail Logo
> Análisis y pruebas de ordenadores portátiles y móviles teléfonos > Noticias > Archivo de noticias > Archivo de noticias 2024 05 > Apple las próximas funciones de accesibilidad de iPhones y iPads permitirán a los usuarios controlarlos con los ojos
Sam Medley, 2024-05-16 (Update: 2024-05-16)