La inteligencia artificial hace accesible el teatro a personas sordas y ciegas

Una tecnologia que emplea inteligencia artificial hace posible que las personas con discapacidad auditiva y visual puedan disfrutar en el teatro de los espectáculos musicales. El sistema Stage-sync, desarrollado por investigadores de la Universidad Carlos III de Madrid, incluye un software que permite ver los subtítulos adaptados y a un intérprete de lengua de signos mediante realidad aumentada. Las personas ciegas también pueden escuchar la audiodescripción de forma individual

Buenos Aires-(Nomyc)-Una nueva tecnología del grupo de investigación del Laboratorio de la Universidad Carlos III de Madrid, España, “SoftLab de la UC3M” logró hacer accesible la comedia musical de Broadway “La Familia Addams” en el Teatro Calderón de Madrid, ara lo que fue necesaria la colaboración de la agencia creativa C&W, COMUNICAdos y Escena Global y que ha contado con el apoyo de la Consejería de Educación e Innovación de la Comunidad de Madrid.

Gracias a ello, las personas con discapacidad auditiva y visual pueden disfrutar de cualquiera de las representaciones de esta comedia musical desde el pasado 3 de diciembre, que fue el Día Internacional de las Personas con Discapacidad.

El sistema incluye un software que permite ver los subtítulos adaptados y a un intérprete de lengua de signos mediante realidad aumentada y las personas ciegas también pueden escuchar la audiodescripción de forma individual.

Además, la tecnología se sincroniza de manera automática con la obra, sin intervención humana, gracias a técnicas de inteligencia artificial que detectan en todo momento qué es lo que sucede en el escenario y después, el espectador recibe los contenidos de accesibilidad a través de la aplicación GoAll.

Tecnología que “aprende”                                                                                                                                                                                 Stage-sync es una tecnología que va aprendiendo a medida que se van realizando representaciones y se adapta a los cambios de ritmo y actores que se suelen producir en el teatro y al utilizar técnicas de aprendizaje profundo combinadas con procesamiento de audio consigue una sincronización perfecta entre la representación y los elementos de accesibilidad.

Además, con el sistema de visualización de realidad aumentada ya no es necesario incluir los subtítulos en la escenografía, sino que cada espectador puede verlos “integrados” en el espectáculo.

Según el responsable del SoftLab de la UC3M, Ángel García Crespo, hasta ahora “solo se producían esporádica y puntualmente unas pocas representaciones teatrales con este público objetivo en mente y no se incluía la lengua de signos”.

“Ahora ya es posible que todas las representaciones sean accesibles”, agrega.

El proyecto está financiado con el apoyo de la consejería de Educación e Investigación de la Comunidad de Madrid como parte de las ayudas del programa “Cheque Innovación”, un programa de ayudas cofinanciadas por el Fondo Europeo de Desarrollo Regional para incentivar el uso de los servicios de Innovación.                                                                                                                                                                             Nomyc-13-12-17

 

« Volver