On dirait des solaires classiques, sauf qu'elles sont tout sauf classiques. C'est un ingénieur aveugle qui travaille chez Microsoft qui a mis au point ces lunettes intelligentes décrivant l'environnement du malvoyant. Quand le porteur touche une branche, les lunettes prennent une photo de ce qu'il y a devant elles. Ensuite, dans une petite oreillette, une voix décrit précisément tout ce qu'il y a sur la photo. Mieux : des algorithmes rendent même possible le décryptage des émotions en analysant les expressions du visage. Saqib Shaikh, l'ingénieur aveugle de Microsoft qui a eu l'idée de ce dispositif d'audiodescription très élaboré, encore à l'état de prototype, espère commercialiser une première version très rapidement.

Sur le même sujet
Recherchez un article