La función de Android permite a personas con discapacidad, operar mejor sus teléfonos inteligentes
Con una ceja levantada o una sonrisa, las personas con discapacidad física o del habla, ahora pueden operar sus teléfonos inteligentes de Android con manos libres, según Google.
Los usuarios pueden escanear la pantalla de su teléfono y seleccionar una tarea; ya sea sonriendo, levantando las cejas, abriendo la boca o mirando a la izquierda, derecha o arriba
Google lanzó dos nuevas herramientas que permiten que el aprendizaje automático y las cámaras frontales de los teléfonos inteligentes funcionen detectando los movimientos faciales y oculares.
«Para hacer que Android sea más accesible para todos, estamos lanzando nuevas herramientas que facilitan el control de su teléfono y la comunicación mediante gestos faciales», dijo Google.

Los Centros para el Control y la Prevención de Enfermedades estiman que 61 millones de adultos en Estados Unidos viven con discapacidades; lo que ha empujado a Google y a sus rivales Apple y Microsoft a hacer que los productos y servicios sean más accesibles para ellos.
«Todos los días, la gente usa comandos de voz, como «hey, Google»; o sus manos, para navegar en sus teléfonos», explicó el gigante tecnológico en una publicación de blog. «Sin embargo, eso no siempre es posible para las personas con discapacidades motoras y del habla graves».
Los cambios son el resultado de dos nuevas funciones. Una de ellas se llama «Interruptores de cámara»; que permite a las personas usar sus rostros en lugar de deslizar y tocar para interactuar con los teléfonos inteligentes.
Project Activate
El otro es Project Activate. Se trata de una nueva aplicación de Android, que permite a las personas usar esos gestos para desencadenar una acción; como hacer que un teléfono reproduzca una frase grabada, envíe un mensaje de texto o haga una llamada.
«Ahora, es posible que cualquier persona utilice movimientos oculares y gestos faciales personalizados; así utilizará su rango de movimiento, para navegar en su teléfono, sin manos ni voz», afirmó la compañia.
Apple, Google y Microsoft han implementado constantemente innovaciones que hacen que la tecnología de Internet sea más accesible para las personas con discapacidades; o aquellos que encuentran que la edad ha dificultado algunas tareas, como la lectura.
Los asistentes digitales controlados por voz integrados en los altavoces y los teléfonos inteligentes pueden permitir que las personas con problemas de visión o de movimiento le digan a las computadoras qué hacer.
Existe un software que identifica texto en páginas web o en imágenes y luego lo lee en voz alta; así como la generación automática de subtítulos que muestran lo que se dice en videos.
Una función -AssistiveTouch- que Apple incorporó al software que alimenta su reloj inteligente, permite que las pantallas táctiles se controlen mediante la detección de movimientos; como pellizcos con los dedos o con las manos.
Apple dijo en una publicación que «esta función también funciona con VoiceOver; para que pueda navegar por Apple Watch con una mano, mientras usa un bastón o lleva un animal de servicio».
El gigante de la informática Microsoft por su parte describe la accesibilidad como esencial para capacitar a todos con herramientas tecnológicas.
«Para permitir un cambio transformador, la accesibilidad debe ser una prioridad», citó. «Nuestro objetivo es integrarlo en lo que diseñamos para cada equipo, organización, aula y hogar».
Tomado de VOZDEAMERICA
CURADAS |Tu compañía en información