Todo negocio comienza con una idea, pero el valor de esa idea se multiplica por mil si crea un impacto social significativo en la sociedad. Al igual que, dos estudiantes de BITS Goa (India), Aman Srivastav y Sanskriti Dawle desarrollaron un proyecto llamado 'Mudra' para personas con discapacidad visual. Mudra es una palabra sánscrita que significa postura o gesto; Mudra es un profesor de Braille que ayuda a las personas con discapacidad visual a aprender o leer el idioma Braille. Mudra funciona con Raspberry Pi y es un gran ejemplo de cómo una simple idea puede crear un gran impacto social. Aman y Sanskriti lo llamaron “ Annie: una maestra de Braille ”, por el nombre de Anne Sullivan (maestra de Helen Keller).
El braille es básicamente un sistema táctil para que las personas ciegas o con discapacidad visual lean y escriban. En el lenguaje braille, cada carácter y número está representado por la combinación de puntos en relieve en un bloque rectangular de seis puntos. Por ejemplo, si el punto superior izquierdo sobresale de los seis puntos, entonces representa el carácter 'A' y si dos puntos en relieve superior izquierdo representan 'B' y así sucesivamente. Y las personas con discapacidad visual pueden sentir estos puntos elevados tocándolos con los dedos.
En Project Mudra, seis pines están conectados a Raspberry Pi, que representa los seis puntos en Braille y estos pines van hacia arriba y hacia abajo para indicar cualquier carácter o número y el usuario puede sentirlos colocando sus manos sobre los pines. La API de Google Speech se utiliza para que el usuario también pueda escuchar la salida táctil como una voz. El software para el proyecto Raspberry se puede encontrar aquí en Mudra Git Repository.
Este profesor de Braille Dicta con tecnología Raspberry Pi tiene tres modos: modo automático, modo de exploración y modo de examen. En el modo automático, genera automáticamente la salida táctil en el hardware Braille para cada carácter y número en un bucle, y el carácter correspondiente también se puede escuchar con auriculares al mismo tiempo. En el modo de exploración, el usuario puede proporcionar manualmente la entrada de voz hablando, y se convertirá en texto mediante la API de Google Speech y se generará la salida táctil correspondiente. En el último modo, que es el modo de examen, se genera un carácter aleatorio en los pines y el usuario debe reconocerlo y pronunciarlo. Luego, la API de voz de Google convertirá la respuesta en texto y se verificará que la respuesta sea correcta.
Aman y Sanskriti han obtenido varios premios por este proyecto creativo y se ha presentado en muchas conferencias, incluida la famosa conferencia PyCon Python (2014, Montreal). Tienen un plan futuro para convertirlo en un Producto para la fabricación y ponerlo a disposición en el mercado comercialmente. Siga visitando su sitio web oficial ProjectMudra para obtener actualizaciones y sígalo en Twitter.