NeuroSign, una solución que permite traducir la lengua de señas y que fue desarrollada por estudiantes de la Universidad Continental, fue la noticia que llamó la atención de diferentes medios de comunicación nacionales y regionales. Reproducimos aquí la nota publicada por el diario La República, tras una entrevista con ambos estudiantes.
Jóvenes peruanos crean el sistema NeuroSign, capaz de traducir el lenguaje de señas a voz
En el Perú, hay más de 232.000 personas con discapacidad auditiva, de las cuales una parte significativa utiliza la lengua de señas para comunicarse. En muchas ocasiones, sufren dificultades para interactuar debido a esta limitación, lo que termina impactando en su vida diaria y en su acceso a servicios públicos.
En este contexto, dos jóvenes peruanos han creado un sistema que es capaz de traducir los signos formados por las manos a voz en tiempo real. Se trata de NeuroSign, una herramienta que utiliza la inteligencia artificial para reconocer los mensajes y transformarlos en contenido audible.
Origen del proyecto
Néstor Ramos, estudiante de Ingeniería Industrial de la Universidad Continental, contó a La República que la idea surgió a partir de una experiencia propia que tuvo en febrero de 2025. «Estaba en una bodega cuando vi a una señora un poco desesperada. Me acerqué para ayudarla, pero empezó a hacer mímicas porque era sordomuda. De ahí me pregunté: ¿Cómo podría hacer para que las personas que desconocen este tipo de comunicación puedan entenderse con quienes sí lo utilizan por necesidad?», indicó.
El joven de 26 años llevó su inquietud a su centro de estudios y, tras aterrizarla, postuló su propuesta a un programa de apoyo a iniciativas innovadoras con fines sociales denominado FellowShip, a cargo del Laboratorio de Fabricación Digital (FabLab). Desde ese momento, empezó a desarrollarlo con la ayuda de Angie Herrera, ingeniera mecatrónica egresada del mismo recinto que trabaja en esta área de la institución.
Funcionamiento
NeuroSign —cuyo término nació de las palabras ‘neuronas’ y ‘sign’ (seña en inglés)— busca que los gestos captados por una cámara sean interpretados mediante inteligencia artificial (IA) y traducidos en mensajes de voz de fácil entendimiento mientras se proyectan en un holograma visual que tiene un tamaño de 30×50 centímetros.
Para lograrlo, sus impulsores vienen trabajando en diversas actualizaciones, como parte de la primera fase. “Ahora estamos entrenando la programación para que reconozca el lenguaje de ciertas palabras, entre ellas ‘hola’, ‘gracias’, ‘aplaudir’ y ‘pensando’. Hemos grabado videos haciendo las señas de diferentes formas y en ángulos distintos para que capte los frames y haga las conexiones de reconocimiento necesarias”, explicó Herrera.
Próximos desafíos
Lo siguiente que buscan lograr es que el sistema almacene más palabras, a través de un procesador más potente, y reducir el tamaño del holograma para hacerlo más transportable y que, en un futuro, pueda llegar a estudiantes con pérdida de audición en colegios públicos.
“Queremos ayudar a las personas sordomudas, darles mayor independencia y una facilidad de comunicación con quienes se relacionan. Que no los excluyan de diferentes áreas y puedan hacer su vida con más tranquilidad, sin la necesidad de tener un traductor”, señaló Ramos.





