Show simple item record

Professor Advisordc.contributor.advisorOrchard Concha, Marcos
Authordc.contributor.authorFabry Gil, Jorge Andrés
Associate professordc.contributor.otherSáez Hueichapan, Doris
Associate professordc.contributor.otherYuz Eissmann, Juan
Admission datedc.date.accessioned2022-12-28T12:48:27Z
Available datedc.date.available2022-12-28T12:48:27Z
Publication datedc.date.issued2022
Identifierdc.identifier.urihttps://repositorio.uchile.cl/handle/2250/191230
Abstractdc.description.abstractEn la presente tesis se estudia el uso de Random Ensemble Mixture de Deep Q-Network (REM), método de Reinforcement Lerning (RL) Off-policy en un entorno Offline. El aporte de esta tesis está en demostrar la factibilidad de utilizar esta metodología sobre bases de datos construidas por controladores aleatorios sobre una planta no lineal, mejorando la recompensa promedio. Previamente, se han utilizado algoritmos Off-policy para recorrer de forma efectiva la cadena de decisión de Markov. Para mejorar la generalización fuera de línea se utiliza REM, un robusto algoritmo de Q-learning (aprendizaje de la función de recompensa Q) el cual impone consistencia de las ecuaciones de Bellman en combinaciones convexas aleatorias de múltiples estimadores de la función Q. Como ambiente se utiliza un estanque cónico, representado en un ambiente virtual GYM (ambiente clásico para probar algoritmos de RL) y simulaciones en Python. Creando con estos tres bases de datos, dos generadas a partir de agentes DQN interactuando con el ambiente y una generada mediante el control de agentes controladores Proporcional, Integral y Derivativo (PID) sobre las simulaciones en Python. Con estas bases de datos se entrenan agentes, observando la capacidad de obtener mejores políticas finales y robustez frente a desperfectos y perturbaciones.es_ES
Patrocinadordc.description.sponsorshipFONDECYT 1210031es_ES
Lenguagedc.language.isoeses_ES
Publisherdc.publisherUniversidad de Chilees_ES
Type of licensedc.rightsAttribution-NonCommercial-NoDerivs 3.0 United States*
Link to Licensedc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/*
Keywordsdc.subjectAprendizaje de máquina
Keywordsdc.subjectDeep learning
Keywordsdc.subjectAprendizaje reforzado fuera de linea
Keywordsdc.subjectRainforcement Learning
Keywordsdc.subjectRandom Ensemble Mixture
Títulodc.titleAprendizaje reforzado fuera de línea en control no lineal de estanqueses_ES
Document typedc.typeTesises_ES
dc.description.versiondc.description.versionVersión original del autores_ES
dcterms.accessRightsdcterms.accessRightsAcceso abiertoes_ES
Catalogueruchile.catalogadorgmmes_ES
Departmentuchile.departamentoDepartamento de Ingeniería Eléctricaes_ES
Facultyuchile.facultadFacultad de Ciencias Físicas y Matemáticases_ES
uchile.titulacionuchile.titulacionDoble Titulaciónes_ES
uchile.carrerauchile.carreraIngeniería Civil Eléctricaes_ES
uchile.gradoacademicouchile.gradoacademicoMagisteres_ES
uchile.notadetesisuchile.notadetesisTesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctricaes_ES
uchile.notadetesisuchile.notadetesisMemoria para optar al título de Ingeniero Civil Eléctrico


Files in this item

Icon
Icon

This item appears in the following Collection(s)

Show simple item record

Attribution-NonCommercial-NoDerivs 3.0 United States
Except where otherwise noted, this item's license is described as Attribution-NonCommercial-NoDerivs 3.0 United States