Apple presenta nuevas funciones de accesibilidad

Con motivo de la celebración del Día Mundial de Concientización sobre la AccesibilidadApple ha adelantado algunas de las tecnologías en las que está trabajando en este sentido, y que llegarán a sus distintos dispositivos a lo largo de este año. Y a la vista del Apple publicado por los de Cupertino, queda bastante claro que se lo han tomado muy en serio, con una plétora de propuestas de lo más interesantes, y que sin duda serán agradecidas por muchos usuarios.

Lo más destacable de lo anunciado hoy por Apple es, sin duda, una nueva función de subtítulos en vivo, que llegará a iOS, ipadOS y macOS, especialmente dirigida a personas con discapacidad auditiva. Su función, como ya habrás imaginado, es la de convertir voz en texto en tiempo real, y podrá emplearse en múltiples contextos, ya sea que estén en una llamada telefónica o FaceTime, usando un servicio de videoconferencia o de redes sociales, transmitiendo contenido multimedia o incluso, conversando con alguien a su lado.

Los subtítulos generados por este nuevo sistema distinguirán entre las distintas voces, en caso de que haya más de un interlocutor, y aclararán a cuál de ellos corresponde cada transcripción. Además, en el caso de uso de Live Captions para llamadas en un Mac, el sistema también ofrecerá la función inversa al usuario, es decir, que podrá escribir una respuesta, y la tecnología de texto a voz la «leerá» a la o las personas que estén participando en la llamada.

Otra función muy interesante, esta para los usuarios de dispositivos de Apple que cuenten con un sensor LiDAR, es un sistema de asistencia para invidentes y personas con discapacidad visual. El sensor, en combinación con la cámara y funciones de aprendizaje automático es capaz identificar las puertas, avisando al usuario de que se acerca a una de ellas. El asistente indicará distancia a la misma, si está abierta o cerrada, si cuenta con manilla, pomo o tirador y si se abre tirando o empujando. Además, reconocerá y leerá los signos y símbolos que se muestran alrededor.

Para los usuarios de Apple Watch también hay novedades, y es que se habilitará la posibilidad de hacer screen mirroring de la pantalla del reloj en la del iPhone, facilitando de este modo su manejo para personas que, por discapacidades motrices, tienen dificultades para poder manipular directamente el Apple Watch. De esta manera, esos usuarios podrán beneficiarse de las múltiples funciones de cuantificación del reloj, sin tener que enfrentare a las complicaciones que puede suponer su manejo.

También se añaden idiomas adicionales a Voice Over, la tecnología de Apple de lectura del contenido que se está mostrando en pantalla. Entre lo nuevos idiomas añadidos encontramos el catalán, el euskera y el español de Chile. Y para usuarios con discapacidades auditivas, el dispositivo aprenderá a reconocer diversos sonidos (desde una alarma hasta el timbre de la puerta) para avisar al usuario de los mismos.

Sin duda Apple ha hecho un gran trabajo, pues estas son solo las novedades más destacables al respecto. Ahora la clave es esperar a su llegada que esperamos que en general se produzca lo antes posible, ya que pueden marcar una importante diferencia para personas con diversos tipos de discapacidad.

x ¡Hola! ¿Cómo podemos ayudarte? Haz click para escribirnos.