Cada tercer jueves de mayo, el mundo celebra el Día Mundial de Concientización sobre Accesibilidad, o GAAD. Y, como se ha vuelto habitual en los últimos años, las principales empresas tecnológicas están utilizando esta semana como una oportunidad para compartir sus últimos productos de accesibilidad. Desde Apple y Google hasta Webex y Adobe, los jugadores más importantes de la industria han lanzado nuevas funciones para que sus productos sean más fáciles de usar. Aquí hay un resumen de las noticias de GAAD de esta semana.
Lanzamientos y actualizaciones de Apple
Primero: Apple. La compañía ya tenía una gran cantidad de actualizaciones para compartir, lo cual tiene sentido ya que generalmente publican las noticias más enfocadas en la accesibilidad en esta época cada año. Para 2023, Apple presenta Acceso asistido, una configuración de accesibilidad que, cuando está activada, cambia la pantalla de inicio del iPhone y el iPad a un diseño con menos distracciones e íconos. Puede elegir entre un diseño basado en filas o en cuadrícula, el último de los cuales dará como resultado una disposición de iconos grandes de 2×3. Puede decidir cuáles son, y la mayoría de las aplicaciones propias de Apple se pueden usar aquí.
Los íconos en sí son más grandes de lo habitual y cuentan con etiquetas de alto contraste que los hacen más legibles. Cuando hace clic en una aplicación, aparece un botón Atrás en la parte inferior para facilitar la navegación. Assistive Access también incluye una nueva aplicación de llamadas que combina las funciones de Phone y FaceTime en una experiencia personalizada. Los mensajes, la cámara, las fotos y la música también se han modificado para una interfaz más simple y todos cuentan con botones de alto contraste, etiquetas de texto grandes y widgets que, según Apple, «ayudan a los seguidores de confianza a personalizar la experiencia para la persona que apoyan». El objetivo es ofrecer un sistema que distraiga o confunda menos a aquellos que puedan encontrar abrumadora la interfaz típica de iOS.
Apple también lanzó Live Speech esta semana, que funciona en iPhone, iPad y Mac. Permitirá a los usuarios escribir lo que quieren decir y hacer que el dispositivo lo lea en voz alta. No solo funciona para conversaciones personales, sino también para llamadas telefónicas y FaceTime. También podrá crear accesos directos para las frases que usa con frecuencia, como «Oye, ¿puedo tomar un café con leche grande de vainilla?» o «Disculpe, ¿dónde está el baño?» La compañía también presentó Personal Voice, que le permite crear una voz digital que se parece a la suya. Esto puede ser útil para aquellos que corren el riesgo de perder la capacidad de hablar debido a condiciones que pueden afectar su voz. El proceso de configuración incluye «leer junto con mensajes de texto aleatorios durante unos 15 minutos en tu iPhone o iPad».
Para aquellos con problemas de visión, Apple está agregando una nueva función Point and Speak al modo de detección de la Lupa. Esto utilizará la cámara del iPhone o iPad, el escáner LiDAR y el aprendizaje automático en el dispositivo para comprender dónde ha colocado el dedo una persona y escanear el área de destino en busca de palabras, antes de leerlas al usuario. Por ejemplo, si sostiene su teléfono y señala diferentes partes de los controles de su microondas o lavadora, el sistema determinará cuáles son las etiquetas, como «agregar 30 segundos», «descongelar» o «iniciar».
La compañía hizo una serie de otros pequeños anuncios esta semana, incluidas actualizaciones que permiten que las Mac se emparejen directamente con audífonos Made-for-iPhone, así como sugerencias de voz para editar texto en escritura por voz.
Las nuevas herramientas de accesibilidad de Google
Mientras tanto, Google presenta una nueva herramienta de preguntas y respuestas visuales (o VQA, por sus siglas en inglés) en la aplicación Lookout, que utiliza inteligencia artificial para responder preguntas de seguimiento sobre fotos. Eve Andersson, líder de accesibilidad de la compañía y directora sénior de Products For All, dijo a Engadget en una entrevista que VQA es el resultado de una colaboración entre los equipos de Inclusión y DeepMind.
Para usar VQA, abrirá Lookout e iniciará el modo Foto para escanear una imagen. Después de que la aplicación te diga qué hay en la escena, puedes pedirles a los seguidores más detalles. Por ejemplo, si Lookout dice que la foto muestra a una familia haciendo un picnic, puede preguntar qué hora del día es o si hay árboles a su alrededor. Esto permite al usuario especificar cuánta información quiere de la imagen, en lugar de limitarse a la descripción inicial.
A menudo es difícil saber cuántos detalles incluir en la descripción de una imagen, ya que desea proporcionar solo lo suficiente para que sea útil, pero no tanto como para confundir al usuario. Por ejemplo, «¿Cuál es la cantidad correcta de detalles para dar a nuestros usuarios en Lookout?» dijo Anderson. «En realidad no sabes lo que quieren». Anderson agregó que la IA puede ayudar a contextualizar por qué alguien solicita una descripción o más información y proporcionar la información adecuada.
Cuando se lance en otoño, VQA podría ofrecer una forma para que el usuario decida cuándo pedir más y cuándo aprender lo suficiente. Por supuesto, dado que funciona con inteligencia artificial, los datos generados pueden no ser precisos, por lo que no hay garantía de que esta herramienta funcione a la perfección, pero es una forma interesante de poner el poder en manos de los usuarios.
Google también está expandiendo Live Captions para trabajar en francés, italiano y alemán a finales de este año, además de hacer que las etiquetas aptas para sillas de ruedas para lugares en Maps estén disponibles para más personas en todo el mundo.
Microsoft, Samsung, Adobe y más
Muchas empresas tenían noticias para compartir esta semana, incluida Adobe, que está implementando una función que utiliza inteligencia artificial para automatizar el proceso de marcado de archivos PDF que los hace más amigables para los lectores de pantalla. Esto utiliza Adobe Sensei AI y también indicará el orden de lectura correcto. Dado que esto realmente puede acelerar el proceso de etiquetado de archivos PDF, es probable que las personas y las organizaciones utilicen la herramienta para navegar a través de las existencias de documentos antiguos para hacerlos más intuitivos. Adobe también está lanzando PDF Accessibility Checker «para permitir que las grandes organizaciones evalúen rápida y eficientemente la accesibilidad de los archivos PDF existentes a escala».
Microsoft también tuvo algunas pequeñas actualizaciones para compartir, específicamente en torno a Xbox. Ha agregado nuevas configuraciones de accesibilidad a la aplicación Xbox en PC, incluidas opciones para deshabilitar imágenes de fondo y deshabilitar animaciones, para que los usuarios puedan minimizar los componentes potencialmente molestos, confusos o desencadenantes. La compañía también amplió sus páginas de soporte y agregó filtros de accesibilidad a su tienda web para facilitar la búsqueda de juegos optimizados.
Mientras tanto, Samsung anunció esta semana que agregará dos nuevos niveles de configuración de sonido envolvente a los Galaxy Buds 2 Pro, elevando el número total de opciones a cinco. Esto permitirá que aquellos que usan auriculares para escuchar su entorno tengan más control sobre qué tan fuerte quieren que sea. También podrán seleccionar diferentes configuraciones para oídos individuales, así como elegir niveles de claridad y crear perfiles personalizados para su audición.
También supimos que Cisco, la compañía detrás del software de videoconferencia Webex, se está asociando con la compañía de reconocimiento de voz VoiceITT para agregar transcripción para ayudar mejor a las personas que hablan de manera no estándar. Esto se basa en la función de traducción en vivo existente de Webex y utiliza la inteligencia artificial de VoiceITT para reconocer los patrones de habla de una persona para comprender mejor lo que quiere comunicar. Luego, basará y transcribirá lo dicho, y aparecerán subtítulos en la barra de chat durante las llamadas.
Finalmente, también vimos Mozilla Anuncian que Firefox 113 será más accesible Al mejorar la experiencia del lector de pantalla, mientras que Netflix dio a conocer el Un carrete de gritos que muestra algunas de sus últimas características de asistencia. y desarrollos durante el último año. en anunciarloNetflix dijo que si bien ha «hecho grandes avances en accesibilidad, [it knows] Siempre hay más trabajo por hacer».
Este sentimiento se aplica no solo a Netflix, ni solo a la industria tecnológica, sino también al mundo entero. Si bien es agradable ver a tantas empresas aprovechar la oportunidad esta semana para lanzar y resaltar funciones relacionadas con la accesibilidad, es importante recordar que el diseño universal no debe ni puede ser un esfuerzo de una vez al año. También me alegró ver que, a pesar del fervor actual en torno a la IA generativa, la mayoría de las empresas no parecían agregar la palabra de moda en cada función o anuncio útil esta semana sin una buena razón. Por ejemplo, Anderson dijo que «generalmente pensamos en las necesidades del usuario» y adoptamos un enfoque de problema primero en lugar de centrarnos en dónde aplicar el tipo de tecnología a la solución.
Si bien es posible que los anuncios sobre GAAD sean parte del juego de marketing y relaciones públicas, al final, algunas de las herramientas lanzadas hoy pueden mejorar la vida de las personas con discapacidades o necesidades diferentes. Yo llamo a esto una ganancia neta.
Todos los productos recomendados por Engadget son seleccionados por nuestro equipo editorial, independientemente de nuestra empresa matriz. Algunas de nuestras historias incluyen enlaces de afiliados. Si compra algo a través de uno de estos enlaces, podemos ganar una comisión de afiliado. Todos los precios son correctos en el momento de la publicación.
«Adicto a la música. Gurú del café. Especialista en zombis. Defensor de las redes sociales. Introvertido. Aficionado extremo a la comida. Evangelista del alcohol».