Tot negoci comença amb una idea, però el valor d’aquesta idea es torna mil vegades si crea un impacte social important a la societat. Igual, dos estudiants de BITS Goa (Índia), Aman Srivastav i Sanskriti Dawle van desenvolupar un projecte anomenat "Mudra" per a persones amb discapacitat visual. Mudra és una paraula sànscrita que significa postura o gest; Mudra és un professor de braille que ajuda les persones amb discapacitat visual a aprendre o llegir la llengua braille. Mudra funciona amb Raspberry Pi i és un gran exemple de com una idea simple pot crear un gran impacte social. Aman i sànscrits el van anomenar " Annie: A Braille Teacher ", amb el nom d'Anne Sullivan (professora d'Helen Keller).

El braille és bàsicament un sistema tàctil per llegir i escriure persones cegues o amb discapacitat visual. En llenguatge braille, cada caràcter i número està representat per la combinació de punts elevats en un bloc rectangular de sis punts. Igual que si el punt superior esquerre es planteja dels sis punts, representa el caràcter "A" i si dos punts elevats a la part superior esquerra representen "B", etc. I les persones amb discapacitat visual poden percebre aquests punts elevats tocant-los amb els dits.

A Project Mudra, hi ha sis pins connectats a Raspberry Pi, que representa els sis punts en braille i aquests pins van amunt i avall per denotar qualsevol caràcter o número i l'usuari els pot percebre posant les mans sobre els pins. L’API de Google Speech s’utilitza perquè l’usuari també pugui sentir la sortida tàctil com a veu. El programari per al Projecte Raspberry es pot trobar aquí al dipòsit Mudra Git.
Aquest professor de Raspberry Pi Powered Braille Dicta té tres modes: mode Auto, mode Browse i mode Exam. En mode automàtic, genera automàticament la sortida tàctil al maquinari Braille per a cada caràcter i número d'un bucle, i el caràcter corresponent també es pot escoltar mitjançant auriculars al mateix temps. Al mode de navegació, l'usuari pot proporcionar manualment l'entrada de veu parlant, i es convertirà en text mitjançant l'API de Google Speech i es generarà la sortida tàctil corresponent. En l'últim mode, que és el mode examen, es genera un caràcter aleatori als pins i l'usuari ha de reconèixer-lo i parlar-lo. A continuació, l'API de veu de Google convertirà la resposta en text i es comprovarà si la resposta és correcta.


Aman i Sanskriti han rebut diversos premis per aquest projecte creatiu i s’ha presentat en moltes conferències, inclosa la famosa conferència PyCon Python (2014, Mont-real). Tenen un pla futur per convertir-lo en un producte per a la fabricació i fer-lo disponible al mercat comercialment. Seguiu visitant el lloc web oficial de ProjectMudra per obtenir actualitzacions i seguiu-lo a Twitter.
