Chaque entreprise commence par une idée, mais la valeur de cette idée devient mille fois supérieure si elle crée un impact social significatif sur la société. Par exemple, deux étudiants de BITS Goa (Inde), Aman Srivastav et Sanskriti Dawle ont développé un projet appelé «Mudra» pour les personnes malvoyantes. Mudra est un mot sanskrit qui signifie posture ou geste; Mudra est un professeur de braille qui aide les personnes malvoyantes à apprendre ou à lire le braille. Mudra est alimenté par Raspberry Pi et est un excellent exemple de la façon dont une idée simple peut créer un grand impact social. Aman et Sanskriti l'ont nommé « Annie: un professeur de braille », d'après le nom d'Anne Sullivan (professeur d'Helen Keller).
Le braille est essentiellement un système tactile permettant aux personnes aveugles ou malvoyantes de lire et d'écrire. En braille, chaque caractère et nombre est représenté par la combinaison de points en relief dans un bloc rectangulaire de six points. Comme si le point supérieur gauche est surélevé des six points, alors il représente le caractère «A» et si deux points en haut à gauche en relief représentent «B» et ainsi de suite. Et les personnes malvoyantes peuvent sentir ces points en relief en les touchant avec les doigts.
Dans Project Mudra, six broches sont attachées à Raspberry Pi, qui représente les six points en braille et ces broches montent et descendent pour désigner n'importe quel caractère ou nombre et l'utilisateur peut les détecter en mettant ses mains sur les broches. L'API Google Speech est utilisée pour que l'utilisateur puisse également entendre la sortie tactile comme une voix. Le logiciel pour le projet Raspberry peut être trouvé ici sur Mudra Git Repository.
Ce professeur Braille Dicta alimenté par Raspberry Pi dispose de trois modes: mode automatique, mode navigation et mode examen. En mode automatique, il génère automatiquement la sortie tactile sur le matériel Braille pour chaque caractère et numéro dans une boucle, et le caractère correspondant peut également être entendu à l'aide d'un casque en même temps. En mode Parcourir, l'utilisateur peut fournir manuellement l'entrée vocale en parlant, et elle sera convertie en texte à l'aide de l'API Google Speech et une sortie tactile correspondante sera générée. Dans le dernier mode qui est le mode examen, un caractère aléatoire est généré sur les épingles et l'utilisateur doit le reconnaître et le prononcer. Ensuite, l'API vocale de Google convertira la réponse en texte et la réponse sera vérifiée pour son exactitude.
Aman et Sanskriti ont reçu plusieurs prix pour ce projet créatif et il a été présenté dans de nombreuses conférences dont la célèbre conférence PyCon Python (2014, Montréal). Ils ont un plan futur pour le convertir en un produit pour la fabrication et le rendre disponible sur le marché. Continuez à visiter son site officiel ProjectMudra pour les mises à jour et suivez-le sur Twitter.