Localización visual en robots de recursos computacionales limitados
Professor Advisor
dc.contributor.advisor
Ruiz del Solar, Javier
Author
dc.contributor.author
Mattamala Aravena, Matías Eduardo
Associate professor
dc.contributor.other
Tobar Henríquez, Felipe
Associate professor
dc.contributor.other
Martínez Carranza, José
Admission date
dc.date.accessioned
2019-04-11T13:55:25Z
Available date
dc.date.available
2019-04-11T13:55:25Z
Publication date
dc.date.issued
2018
Identifier
dc.identifier.uri
https://repositorio.uchile.cl/handle/2250/168075
General note
dc.description
Magíster en Ciencias de la Ingeniería, Mención Eléctrica.
Ingeniero Civil Eléctrico
es_ES
Abstract
dc.description.abstract
Este trabajo presenta un sistema de Localización y Mapeo Simultáneo (SLAM) de robots humanoides basado en la fusión del sistema ORB-SLAM con información propioceptiva. El objetivo es desarrollar una metodología que permita fusionar ambas informaciones de manera consistente y obtener una auto-localización métrica validada con datos de un robot real.
De modo de lograr este objetivo, se propuso una solución que contempla tres objetivos específicos: (1) desarrollar una plataforma de hardware y software que extienda las capacidades computacionales limitadas del robot NAO; (2) proponer una metodología teórica y práctica que permita fusionar la información de odometría propioceptiva del robot dentro de los procesos ejecutados por el sistema ORB-SLAM y (3) desarrollar un sistema de estimación de odometría netamente propioceptivo para el robot NAO.
Para la primer aparte se desarrolló una plataforma novedosa, llamada NAO Backpack, que se sujeta al NAO como una mochila y permite cargar un computador de tamaño reducido con mayor poder de cómputo que el NAO. El desarrollo además involucró el software que realiza la comunicación entre ambos con el popular framework de robótica ROS (Robot Operating System).
Para la segunda aparte se desarrolló una completa metodología que interviene varias etapas del sistema ORB-SLAM, incluyendo un thread adicional que fusiona la información propioceptiva del robot y genera mediciones de odometría que son propagadas al resto del sistema. Adicionalmente se presentó una solución para obtener la escala típicamente desconocida en sistemas de SLAM visual, se modificaron diversas etapas de las optimizaciones realizadas por el sistema original y se presentaron estrategias para mantener una hipótesis de auto-localización continua incluso en casos de fallas de la localización visual.
La última parte contempló el desarrollo de un sistema de odometría basado en un two-state implicit filtering (TSIF), que fusionaba sensores internos como unidades inerciales y encoders, además de considerar otros supuestos sobre la cinemática del robot.
El sistema fue validado con datos reales registrados utilizando un preciso sistema de captura de movimiento OptiTrack en ambientes cerrados, así como también en pruebas cualitativas desarrolladas en laboratorios del Departamento de Ingeniería Eléctrica. Los resultados demuestran la efectividad del enfoque presentado para localizar el robot de manera consistente y robusta en lugares desconocidos mediante la fusión de información visual y odométrica.