CIENCIA

MIT creó un robot que mapea objetos 3D al tacto

Si bien la IA continúa avanzando rápidamente, todavía nos queda un largo camino por recorrer para desarrollar los sensores necesarios para traducir el mundo físico en datos que una computadora pueda comprender. Si bien la vista y el sonido tuvieron un poco de ventaja, nuestros otros sentidos tienen pocas aplicaciones prácticas en el mundo digital, pero ese no es el caso de los robots.

MIT creó recientemente un nuevo robot usando Sensores GelSight que le permiten ver los objetos que toca y crear un mapa 3D de la textura para comprenderla mejor. El video a continuación demuestra cómo la tecnología GelSight, que se usa típicamente para aplicaciones aeroespaciales, puede “ver” lo que toca.

GelSight ofrece sin duda un medio impresionante y detallado de traducir el mundo real a información digital. Pero eso no lo convierte en un robot inteligente, solo unos dedos muy informativos que requieren inteligencia para controlar. El MIT vio este potencial y creó un robot con un modelo de IA que se entrena a sí mismo sobre los objetos que toca utilizando mapas tridimensionales detallados generados por sus sensores GelSight. Si bien el robot en realidad no ve lo que toca en un sentido óptico tradicional, recibe tantos datos a través de sus sensores que puede traducir esos datos en información visual y aprender de ellos como cualquier red neuronal convolucional ordinaria orientada a imágenes ( CNN).

El robot del MIT fue entrenado en 12,000 grabaciones de video de datos táctiles del sensor GelSight, divididos en cuadros de imágenes fijas, de 200 objetos domésticos. Combinado con datos táctiles, esto permite al robot comprender los materiales que tocan sus sensores. en un conversacion con Engadget, CSAIL Ph.D. estudiante y autor principal de este proyecto, explicó lo que su sistema puede lograr ahora:

“Al mirar la escena, nuestro modelo puede imaginar la sensación de tocar una superficie plana o un borde afilado. Al tocar a ciegas, nuestro modelo puede predecir la interacción con el entorno simplemente a partir de sentimientos táctiles. Unir estos dos sentidos podría potenciar al robot y reducir los datos que podríamos necesitar para tareas que impliquen manipular y agarrar objetos “.

Aunque todavía está en sus primeras etapas, el sistema del MIT funciona bastante bien y eso se debe a su enfoque. Muchos investigadores y desarrolladores de IA tienden a crear modelos basados ​​en cómo funciona el cerebro humano, pero eso a menudo no tiene mucho sentido. En algunos casos, hacer queremos una IA que funcione como un ser humano porque su objetivo es aproximarnos o ayudarnos a aprender más sobre nosotros mismos mediante la simulación de procesos humanos. En la mayoría de los otros casos, sin embargo, abordar el desarrollo de la IA imponiendo un marco humano niega las muchas ventajas no humanas que el software y el hardware informático tienen para ofrecer.

El MIT eligió usar un sensor mucho más preciso y capaz de lo que cualquier humano puede aproximar y aprovechar la potencia computacional disponible para la IA. Al tomar decisiones que utilizan las ventajas inherentes de las computadoras, en lugar de forzar un enfoque humano, han creado un robot que tiene el potencial de superar a los humanos en tareas de identificación de toque ciego. En casos específicos, ya lo logra.

Si bien puede que no parezca el problema más importante a resolver, el tacto realmente juega un papel importante en la robótica. Las aplicaciones de nicho podrían aprovechar la capacidad robótica para sentir la diferencia entre el algodón y el nailon, pero las aplicaciones más amplias tienen mucho más que ofrecer. Para un robot sin sentido del tacto, todos los objetos se sienten igual. Es posible que pueda comprender algunas cosas visualmente, pero rara vez es lo suficientemente útil.

Piense en cómo le iría el día si todo lo que tocara se sintiera igual o, más exactamente, si no sintiera nada en absoluto. No sabría cuánta fuerza usar al conectar un cable. No tendría la capacidad de comprender las diferencias prácticas entre una imagen impresa de papel de lija y el papel de lija en sí.

Al proporcionar a un robot un sentido del tacto y la capacidad de aprender de él, ese robot puede emitir mejores juicios sobre los materiales que toca. Puede aprender más rápido y con mayor precisión que simplemente a partir de imágenes estándar. Luego, puede usar esa información para ajustar sus acciones de acuerdo con los materiales que maneja o, al menos, ese es el objetivo ideal para el futuro. Si los robots pueden entender el tacto, presentan menos riesgo de causar daños no intencionales. En este momento, si le encargaras a la mayoría de los robots inteligentes llevar un globo de agua, no sabrían cómo sostenerlo sin destruirlo. El sentido del tacto les da a los robots la capacidad, a través de un modelo de IA bien entrenado, de reconocer cómo manejar varios tipos de objetos y actuar en consecuencia.

Si bien el MIT solo ha creado los comienzos de un componente de robots mejores y más inteligentes, es otro buen paso en la dirección correcta. Un robot diseñado para comprender e incorporar los datos que adquiere a través del tacto tiene implicaciones mucho mejores para la seguridad general que uno que no lo hace. Son desarrollos como este los que crean salvaguardas contra posibles accidentes.

Crédito de la imagen superior: Foto de Franck V. en Unsplash

Publicaciones relacionadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar
Cerrar