Apple presenta nuevas funciones de accesibilidad, como voces personalizadas de texto a voz

Apple presenta nuevas funciones de accesibilidad, como voces personalizadas de texto a voz

Apple presentó hoy una vista previa de un conjunto de nuevas funciones para mejorar la accesibilidad cognitiva, visual y de voz. Se espera que estas herramientas lleguen a iPhone, iPad y Mac a finales de este año. Como líder establecido en accesibilidad de tecnología para el consumidor, Apple enfatiza que estas herramientas se construyen con aportes de comunidades con discapacidades.

Assistive Access, que llegará pronto a iOS y iPadOS, está diseñado para personas con discapacidades cognitivas. Assistive Access agiliza la interfaz del iPhone y el iPad, centrándose específicamente en facilitar hablar con los seres queridos, compartir fotos y escuchar música. Las aplicaciones Phone y FaceTime se fusionan en una sola, por ejemplo.

El diseño también se hace más digerible al incorporar íconos grandes, mayor contraste y etiquetas de texto más claras para que la pantalla se vea más simple. Sin embargo, el usuario puede personalizar estas funciones visuales a su gusto, y estas preferencias se aplican a cualquier aplicación compatible con Assistive Access.

Como parte de la herramienta Lupa existente, los usuarios ciegos y con problemas de visión ya pueden usar su teléfono para ubicar puertas, personas o letreros cercanos. Apple ahora presenta una función llamada Point and Speak, que utiliza la cámara del dispositivo y el escáner LiDAR para ayudar a las personas con discapacidad visual a interactuar con objetos físicos que tienen varias etiquetas de texto.

Créditos de la imagen: Manzana

Entonces, si un usuario con discapacidad visual quisiera recalentar alimentos en el microondas, podría usar Point and Speak para discernir la diferencia entre los botones «palomitas de maíz», «pizza» y «nivel de potencia»: cuando el dispositivo identifica este texto, lo lee. en voz alta. Point and Speak estará disponible en inglés, francés, italiano, alemán, español, portugués, chino, cantonés, coreano, japonés y ucraniano.

LEER  Primeras impresiones: Sí, Apple Vision Pro funciona y sí, es bueno.

Una característica particularmente interesante de la banda es Personal Voice, que crea una voz automatizada que suena como usted, en lugar de Siri. La herramienta está diseñada para personas que corren el riesgo de perder la capacidad de hablar debido a condiciones como la ELA. Para generar una voz personal, el usuario debe pasar aproximadamente quince minutos leyendo claramente mensajes de texto seleccionados al azar en su micrófono. Luego, mediante el aprendizaje automático, el audio se procesa localmente en su iPhone, iPad o Mac para crear su voz personal. Es similar a lo que ha hecho Acapela con su servicio «mi propia voz», que funciona con otros dispositivos de asistencia.

Es fácil ver cómo un repositorio de modelos de texto a voz únicos y altamente calificados podría ser peligroso en las manos equivocadas. Pero según Apple, estos datos de voz personalizados nunca se comparten con nadie, ni siquiera con la propia Apple. De hecho, Apple dice que ni siquiera conecta su voz personal a su ID de Apple porque algunos hogares pueden compartir una conexión. En cambio, los usuarios deben registrarse si quieren que una voz personal que crean en su Mac sea accesible en su iPhone, o viceversa.

LEER  La NASA y Boeing retrasan el primer vuelo de prueba tripulado de la cápsula Starliner... otra vez

En el lanzamiento, Personal Voice solo estará disponible para hablantes de inglés y solo se puede crear en dispositivos con Apple Silicon.

Ya sea que hable como Siri o como su gemelo de voz AI, Apple facilita la comunicación para las personas no verbales. Live Speech, disponible en todos los dispositivos Apple, permite a las personas escribir lo que quieren decir para poder decirlo en voz alta. La herramienta está disponible en la pantalla de bloqueo, pero también se puede usar en otras aplicaciones, como FaceTime. Además, si los usuarios necesitan repetir las mismas frases con frecuencia, como un pedido de café normal, por ejemplo, pueden almacenar frases predefinidas en Live Speech.

Las herramientas de texto a voz existentes de Apple también obtienen una actualización. Ahora, Voice Control incorporará la edición de texto fonético, lo que permitirá a las personas que escriben con su voz corregir errores rápidamente. Entonces, si ve que su computadora transcribe «excelente», pero quiso decir «gris», será más fácil hacer esta corrección. Esta función, Sugerencias fonéticas, estará disponible en inglés, español, francés y alemán por ahora.

Créditos de la imagen: Manzana

Se espera que estas funciones de accesibilidad se implementen en varios productos de Apple este año. En cuanto a sus ofertas existentes, Apple expandirá el acceso de SignTime a Alemania, Italia, España y Corea del Sur el jueves. Hora de inicio de sesión ofrece a los usuarios intérpretes de lenguaje de señas a pedido para los clientes de Apple Store y Apple Support.

LEER  Las comunidades de Reddit adoptan formas alternativas de protesta mientras la compañía amenaza con tomar medidas contra los moderadores

Más contenidos sobre empresas en América Latina

Deja una respuesta