Show simple item record

Professor Advisordc.contributor.advisorTobar Henríquez, Felipe
Professor Advisordc.contributor.advisorRuiz del Solar San Martín, Javier
Authordc.contributor.authorTagle Montes, Augusto
Associate professordc.contributor.otherFontbona Torres, Joaquín
Admission datedc.date.accessioned2025-06-02T20:50:53Z
Available datedc.date.available2025-06-02T20:50:53Z
Publication datedc.date.issued2025
Identifierdc.identifier.urihttps://repositorio.uchile.cl/handle/2250/205264
Abstractdc.description.abstractEn este trabajo, exploramos la aplicación de modelos de difusión al aprendizaje por refuerzo offline. En concreto, abordamos el problema del muestreo a partir del producto de una distribución de probabilidad no normalizada con una función escalar. Este problema engloba varios desafíos, incluidos los que se encuentran en el aprendizaje por refuerzo offline. Para abordar este problema, proponemos un método novedoso basado en modelar conjuntamente la distribución de probabilidad y la respectiva función escalar, con el mismo modelo de difusión. Mientras que los métodos anteriores utilizan una red neuronal externa, nuestro método requiere una configuración mínima que aprovecha las representaciones ocultas compartidas en el modelo de difusión. Proporcionamos un método de muestreo que garantiza la obtención de muestras de la distribución objetivo bajo el modelo de difusión óptimo. Evaluamos experimentalmente el método propuesto, demostrando resultados sólidos en el benchmark D4RL. Para introducir el método, presentamos una visión general en profundidad de los modelos de difusión y el aprendizaje por refuerzo, seguida de una revisión exhaustiva de los trabajos relacionados. Esperamos que esta tesis no solo presente las principales contribuciones de nuestro trabajo, sino que también sirva como una introducción a los modelos de difusión y al aprendizaje por refuerzo, así como una revisión exhaustiva de los trabajos fundamentales en este campo.es_ES
Patrocinadordc.description.sponsorshipEste trabajo ha sido parcialmente financiado por FONDECYT regular N° 1210606es_ES
Lenguagedc.language.isoenes_ES
Publisherdc.publisherUniversidad de Chilees_ES
Type of licensedc.rightsAttribution-NonCommercial-NoDerivs 3.0 United States*
Link to Licensedc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/*
Títulodc.titleControllable guidance in reinforcement learning using diffusion modelses_ES
Document typedc.typeTesises_ES
dc.description.versiondc.description.versionVersión original del autores_ES
dcterms.accessRightsdcterms.accessRightsAcceso abiertoes_ES
Catalogueruchile.catalogadorchbes_ES
Departmentuchile.departamentoEscuela de Postgrado y Educación Continuaes_ES
Facultyuchile.facultadFacultad de Ciencias Físicas y Matemáticases_ES
uchile.gradoacademicouchile.gradoacademicoMagisteres_ES
uchile.notadetesisuchile.notadetesisTesis para optar al grado de Magíster en Ciencia de Datoses_ES


Files in this item

Icon

This item appears in the following Collection(s)

Show simple item record

Attribution-NonCommercial-NoDerivs 3.0 United States
Except where otherwise noted, this item's license is described as Attribution-NonCommercial-NoDerivs 3.0 United States