Show simple item record

Professor Advisordc.contributor.advisorRuiz del Solar, Javier
Professor Advisordc.contributor.advisorLeiva Castro, Francisco
Authordc.contributor.authorBrain De la Barra, Valentina Paz
Associate professordc.contributor.otherParra Tsunekawa, Isao
Associate professordc.contributor.otherRivera Serrano, Francisco
Admission datedc.date.accessioned2023-01-26T20:00:44Z
Available datedc.date.available2023-01-26T20:00:44Z
Publication datedc.date.issued2022
Identifierdc.identifier.urihttps://repositorio.uchile.cl/handle/2250/191815
Abstractdc.description.abstractUno de los grandes desafíos que posee la aplicación del aprendizaje reforzado profundo, es la falta de eficiencia de muestras durante el entrenamiento de un agente, en otras palabras, el agente requiere de muchas iteraciones para converger a un comportamiento deseado. Un enfoque utilizado para lidiar con este problema, es el de acelerar el aprendizaje de un agente mediante el uso de feedback correctivo junto con el uso de recompensas. Dada esta situación, se propone en este trabajo el incorporar una señal de retroalimenta- ción correctiva para mejorar la eficiencia del aprendizaje de la política o comportamiento de un agente, en particular, la eficiencia de muestras durante su entrenamiento. Para llevar esto a cabo, se busca implementar un algoritmo híbrido, compuesto por un algoritmo de aprendizaje reforzado profundo (DDPG) y un algoritmo de aprendizaje de má- quinas interactivo (D-COACH). Este será empleado sobre un agente robótico móvil, con el fin de llevar a cabo la tarea de navegación autónoma, más en especifico, la de planificación local en 2D, en un ambiente de simulación. El algoritmo híbrido propuesto, se contrasta con los algoritmos utilizados para su cons- trucción, DDPG y D-COACH, además de un algoritmo secuencial compuesto por ambos. Se compara la eficiencia de muestras entre estos algoritmos y el desempeño que logra cada uno, mediante una evaluación sobre el mismo ambiente de entrenamiento y validación en un ambiente nunca antes visto por el agente.es_ES
Patrocinadordc.description.sponsorshipProyecto FONDECYT 1201170es_ES
Lenguagedc.language.isoeses_ES
Publisherdc.publisherUniversidad de Chilees_ES
Type of licensedc.rightsAttribution-NonCommercial-NoDerivs 3.0 United States*
Link to Licensedc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/*
Keywordsdc.subjectAprendizaje de máquina
Keywordsdc.subjectAprendizaje reforzado profundo
Keywordsdc.subjectNavegación autónoma
Keywordsdc.subjectDeep learning
Keywordsdc.subjectDDPG
Keywordsdc.subjectD-COACH
Títulodc.titleAcelerando el aprendizaje reforzado de políticas de un agente móvil mediante retroalimentación correctivaes_ES
Document typedc.typeTesises_ES
dc.description.versiondc.description.versionVersión original del autores_ES
dcterms.accessRightsdcterms.accessRightsAcceso abiertoes_ES
Catalogueruchile.catalogadorgmmes_ES
Departmentuchile.departamentoDepartamento de Ingeniería Eléctricaes_ES
Facultyuchile.facultadFacultad de Ciencias Físicas y Matemáticases_ES
uchile.carrerauchile.carreraIngeniería Civil Eléctricaes_ES
uchile.gradoacademicouchile.gradoacademicoLicenciadoes_ES
uchile.notadetesisuchile.notadetesisMemoria para optar al título de Ingeniera Civil Eléctricaes_ES


Files in this item

Icon
Icon

This item appears in the following Collection(s)

Show simple item record

Attribution-NonCommercial-NoDerivs 3.0 United States
Except where otherwise noted, this item's license is described as Attribution-NonCommercial-NoDerivs 3.0 United States