Ingenieros de la UA lanzan 'Omu', un intérprete virtual de lengua española a lengua de signos

5/02/2021 - 

ALICANTE. Un equipo de ingenieros de la Universidad de Alicante (UA) ha creado una aplicación de servicio de intérprete de lengua española a lengua de signos española. Su intérprete virtual, 'Omu', signa para todas aquellas personas sordas que requieran del servicio. Se puede usar tanto en formato presencial como en llamadas y videollamadas online. Pretende ser una iniciativa de cara a un mundo más accesible, teniendo la atención puesta en mejorar las condiciones de vida de las personas.  "Habla, escucha, signa". Este proyecto les llevó meses de diseño e implementación.

En concreto, se trata de un proyecto promovido por Óscar Plaza, Óscar Linares Pérez, Germán Fresneda Gomis, Manuel Font Rodríguez y Carlos Díez de Castro. El servicio de signado de voz a lengua de signos española usa un intérprete modelado en 3D y pretende hacer la vida más fácil a las personas sordas, sin necesidad de tener que ir acompañados de un intérprete a todas partes.  La iniciativa fue, además, premiada en la la Gala Impulso 2020 de la UA, el galardón a la Accesibilidad del Vicerrectorado de Estudiantes y Empleo, dotado con 1.000 euros. 

Esta aplicación se encuentra en la Unidad de Accesibilidad Digital de la Universidad de Alicanteun espacio para promocionar, concienciar y formar en tecnologías accesibles en un espacio que depende directamente del Gabinete del Rectorado. Un lugar para, según definieron desde la UA en su presentación, en noviembre de 2020, para "romper barreras digitales , crear directrices para la elaboración de contenido digital accesible, asesorar y formar a la comunidad universitaria en el uso de tecnologías accesibles y detectar oportunidades de emprendimiento a través de la investigación en accesibilidad, así como la creación de canales de comunicación para su divulgación". En este sentido han creado en su web un apartado para material de apoyo para la creación de documentos electrónicos accesibles y con todos los recursos accesibles disponibles.

El funcionamiento

A grandes rasgos, según expone el proyecto, el flujo que sigue el sistema pasa, primero, por grabación de voz, que se transcribe a texto y se procesa para obtener el lema de cada palabra. Una vez procesado, se clasifica cada palabra y se envía a una cola de acciones, las cuales están asociadas cada una a su respectiva animación.

Para la grabación de voz usaron una librería de JavaScript, mezclada con las funciones nativas del navegador para acceder al micrófono. Una vez se hace clic en "iniciar" pide permisos de acceso y se comienza a grabar y almacenar el audio.  Además, para transcribir la voz a texto usan un framework dedicado a la creación de bots con procesamiento de lenguaje natural avanzado.

Para procesar la grabación usan 'Rasa', una herramienta de código abierto de procesamiento de lenguaje natural, generalmente de usa para crear bots y asistentes virtuales; y Spacy, que es una librería de código abierto para python dedicada al procesamiento de lenguaje natural. Con esas dos tecnologías se formó el núcleo del intérprete virtual. 

Más tarde, el último paso del servidor fue la clasificación de palabras, cuyo orden en lengua de signos difiere al de la lengua española. Seleccionan las palabras asociadas a un signo de las que se tiene una animación creada. Finalmente se envían al usuario las palabras clasificadas y el texto original para mostrar como subtítulos. Una vez completado esos pasos, se realiza la parte de animación de las palabras clasificadas y el texto original, así como la subtitulación de este.

Equipos de innovación social

La Universidad de Alicante cuenta con diversos grupos de investigación que abarcan entre sus líneas de innovación temas relacionados con la diversidad funcional y las tecnologías accesibles. Por ejemplo, el Laboratorio de Investigación en Visión Móvil centra su investigación en visión artificial aplicada a dispositivos móviles. Una de sus principales líneas de investigación se centra en el desarrollo de aplicaciones móviles accesibles, como Navilens, SuperVision for Cardboard o Touch The Sound.

Por su parte, el Grupo de Procesamiento del Lenguaje Natural y Sistemas de Información ofrece buscadores especializados, sistemas de clasificación y extracción de información y aplicaciones que aprenden utilizando técnicas de Inteligencia Artificial y Procesamiento del Lenguaje Natural. Además, el grupo Edutic es interdisciplinar y comprometido con la educación inclusiva en niveles universitario o no universitario. El grupo de robótica y visión tridimensional centra su investigación en el desarrollo de productos y sistemas orientados a mejorar la calidad de vida de personas dependientes, mayores o con discapacidad. Sus dos últimos proyectos nacionales están dirigidos al colectivo de personas con daño cerebral adquirido. 

Noticias relacionadas

next
x