Seguimiento de Objetos Utilizando Información Multi-Sensorial y Cooperación entre Múltiples Robots
Professor Advisor
dc.contributor.advisor
Ruiz del Solar, Javier
es_CL
Author
dc.contributor.author
Marchant Matus, Román
es_CL
Staff editor
dc.contributor.editor
Facultad de Ciencias Físicas y Matemáticas
es_CL
Staff editor
dc.contributor.editor
Departamento de Ingeniería Eléctrica
es_CL
Associate professor
dc.contributor.other
Guerrero, Pablo
Associate professor
dc.contributor.other
Agusto Alegría, Héctor
Admission date
dc.date.accessioned
2012-09-12T18:18:16Z
Available date
dc.date.available
2012-09-12T18:18:16Z
Publication date
dc.date.issued
2011
es_CL
Identifier
dc.identifier.uri
https://repositorio.uchile.cl/handle/2250/104101
General note
dc.description
Ingeniero Civil Electricista
Abstract
dc.description.abstract
En esta memoria de título se desarrolla una metodología que permite realizar la estimación del estado cinemático de múltiples robots utilizando información de variados sensores y cooperación entre robots compañeros. Para que ello sea posible, se crea un sistema capaz de detectar robots en un ambiente dinámico y estimar su posición relativa. Además, se genera un sistema externo de detección y seguimiento de robots que permite evaluar las metodologías propuestas debido a su alta precisión. Esta memoria apunta a una mejora importante de la estimación del entorno utilizando información de otros agentes, fundamentalmente debido a la ampliación de la porción observable del entorno.
El primer tema abordado es la detección y la estimación de la posición de robots detectados. La información proveniente de una cámara se procesa en cada robot para generar detecciones de los objetos de interés. Además, se integran mediciones de sensores ultrasónicos para utilizar múltiples fuentes de información. Luego, se presenta una metodología de estimación de la posición relativa de objetos donde se utiliza la información proveniente de las percepciones propias y estimaciones realizadas por otros robots. Esta metodología utiliza como herramienta un algoritmo Bayesiano recursivo llamado Filtro de Kalman. Además, se soluciona el calce entre una nueva percepción recibida y un estimador, cuando se poseen objetos idénticos.
En la siguiente etapa, se crea un sistema que permite generar datos precisos acerca del estado real del entorno utilizando un sensor láser y un computador externo. De esta manera, se generan datos que permiten validar la metodología propuesta para la estimación cooperativa.
El correcto funcionamiento del sistema está sujeto al marco de trabajo actual, donde se poseen robots con un sistema visual ruidoso y con un campo visual limitado. Además, los robots poseen una baja capacidad de cómputo que no permite implementar algoritmos con alto consumo de recursos computacionales. Asimismo, se supone que los objetos se mueven sobre un plano geométrico y que el ruido existente se puede aproximar por una función de densidad de probabilidad Gaussiana.
Los resultados indican que el perceptor visual de robots utilizando estimadores geométricos de distancia posee un error de estimación media de $14[cm]$. De igual manera, el sistema de generación de datos de validación entrega datos de muy bajo error y desviación estándar, por lo que permite evaluar las metodologías propuestas. Los resultados del método de estimación cinemática indican una mejora de la estimación al integrar múltiples fuentes de información. Se logra realizar dos publicaciones a nivel internacional, una publicación aceptada en la conferencia RoboCup 2011 y otra en proceso de revisión en una de las conferencias más importante de robótica a nivel mundial IROS 2011.
Como trabajo futuro se propone generalizar el perceptor visual para situaciones más complejas donde se pueda detectar la orientación de los objetos. Además, se propone perfeccionar el sistema de generación de datos de validación para lograr una evaluación aun más confiable. Por último, se propone estimar y considerar la velocidad de los objetos para completar y mejorar la estimación del estado cinemático.