La compañía japonesa Oton Glass está desarrollando un par de lentes con inteligencia artificial que usan una tecnología que pueden convertir texto en audio. Los lentes están destinados a ayudar a las personas con discapacidad visual o problemas de compresión en lectura de textos escritos. Lo cual, les proporcionan una forma de entender el texto que las rodea mediante el uso del sonido con mayor facilidad.
Llamado Oton Glass, estos lentes con inteligencia artificial o anteojos están destinados a traducir texto en audio utilizando dos cámaras y un auricular, ambos instalados en su marco.
Una compañía japonesa está desarrollando un par de gafas inteligentes que convierten las palabras en voz para aquellos que son disléxicos o que tienen dificultades para leer. Estos lentes con inteligencia artificial están en desarrollo desde el año 2012, y han sido incluidas en Campfire, la versión japonesa de Kickstarter. Todo esto con el objetivo de recaudar $ 93,500 para vender cada par por alrededor de $ 47.
Características de estos nuevos lentes con inteligencia artificial, japoneses
La mitad de la lente es un espejo que refleja los ojos del usuario de nuevo a la primera cámara, que rastrea el movimiento de los ojos. Esa cámara puede detectar el parpadeo, mientras que la otra captura el texto. Los usuarios utilizan los anteojos mirando el texto que no pueden leer y parpadeando para activar dichos artefactos.
Usando Raspberry Pi como la computadora de las gafas, las palabras capturadas se envían a un sistema en la nube Raspberry Pi, que procesa el texto y lo convierte en audio reproducido a través del auricular. Si el sistema de la computadora no puede identificar y convertir palabras. Las imágenes se envían a un trabajador remoto que puede descifrarlas, parte del desarrollo y la tecnología de estos lentes con inteligencia artificial.
El Oton Glass son anteojos con dos cámaras diminutas y un auricular a los lados. La mitad de la lente es un espejo que refleja el ojo del usuario para que la cámara que mira hacia adentro pueda rastrear los movimientos oculares y parpadee.
Los usuarios verán un texto y parpadearán para capturar una foto de lo que tienen delante, que se transmitirá a un sistema en la nube dedicado de Raspberry Pi, se analizará en busca de texto. Esto luego se convertirá en una voz que se reproducirá a través del auricular.
Un servicio de decodificación realmente caro
Si el sistema no puede leer esas palabras, un trabajador remoto estaría disponible para solucionarlo. Algunas de esas ideas suenan similares a Google Translate, que ya es capaz de tomar una foto y convertirla en voz con tecnología artificial.
Pero para usar la aplicación, todavía tiene que sacar su teléfono y deslizar sobre las líneas de texto, lo cual se siente un poco más antinatural que parpadear en el texto a través de sus gafas.
Sin embargo, dado lo rudimentario que suena la tecnología. Si el sistema de reconocimiento de texto no puede leer nada, es probable que el Oton Glass simplemente se reduzca a personas que descifran el texto. Todo esto podría reducirse a un servicio de decodificación realmente caro.
Hasta el momento, la compañía ha recaudado 1,236,500 yenes ($ 11,573.64) en Campfire, que es solo el 12 por ciento de su meta de 10,000,000 yenes. The Oton fue recientemente subcampeón en tercer lugar para el premio James Dyson en 2016.