Aprendizaje profundo con imágenes RGB-D: clasificación de objetos y estimación de la pose

Autores/as

  • Juan Cruz Gassó Loncan Instituto de Investigación y Desarrollo en Bioingeniería y Bioinformática, Facultad de Ingeniería de la Universidad Nacional de Entre Ríos, Entre Ríos - Argentina
  • Gerardo Gabriel Gentiletti Facultad de Ingeniería de la Universidad Nacional de Entre Ríos, Entre Ríos - Argentina

DOI:

https://doi.org/10.33414/rtyc.37.146-156.2020

Palabras clave:

Aprendizaje profundo, Visión robótica, RGB-D

Resumen

En el marco de la tesis de doctorado, se plantea como objetivo el desarrollo de una Interfaz Hombre-Máquina para comandar un brazo robótico asistencial de más de 6 grados de libertad. Se presenta el uso de técnicas de aprendizaje profundo para el reconocimiento de objetos y estimación de la pose a fin de poder interactuar con los mismos. Se implementaron 3 modelos de redes neuronales convolucionales multimodales para imágenes RGB-D de la base de datos BigBIRD, con tres salidas de clasificación: 22 Objetos - 5 Cámaras - 8 etiquetas de Rotación. Para el mejor de los modelos se alcanzaron valores de precisión de 96% para objetos, 98% para cámara y 56% para la rotación.

Descargas

Los datos de descargas todavía no están disponibles.

Descargas

Publicado

22-10-2020

Cómo citar

Gassó Loncan, J. C., & Gentiletti, G. G. (2020). Aprendizaje profundo con imágenes RGB-D: clasificación de objetos y estimación de la pose. Revista Tecnología Y Ciencia, (37), 146–156. https://doi.org/10.33414/rtyc.37.146-156.2020