Show simple item record

Professor Advisordc.contributor.advisorWeintraub Pohorille, Andrés
Professor Advisordc.contributor.advisorCarrasco Barra, Jaime
Authordc.contributor.authorSepúlveda Lillo, Fabián Ignacio
Associate professordc.contributor.otherVelásquez Silva, Juan
Admission datedc.date.accessioned2024-07-22T16:15:56Z
Available datedc.date.available2024-07-22T16:15:56Z
Publication datedc.date.issued2024
Identifierdc.identifier.urihttps://repositorio.uchile.cl/handle/2250/199665
Abstractdc.description.abstractEsta tesis aborda la aplicación del Aprendizaje por Refuerzo (Reinforcement Learning, RL) en la planificación de la cosecha forestal bajo condiciones de incertidumbre, un problema estocástico de alta dimensionalidad. Se centra en la variante de programación estocástica multietapa para la cosecha de celdas en un área forestal, caracterizada por decisiones secuenciales adaptativas frente a incertidumbres como fluctuaciones en los precios de la madera y la demanda del mercado, modeladas mediante un árbol de escenarios. El trabajo se enfoca en implementar y analizar técnicas avanzadas de RL, comparándolas con métodos tradicionales de optimización bajo incertidumbre. Se utilizan algoritmos como Deep Q-Networks (DQN), Dueling DQN, Double Dueling DQN y Proximal Policy Optimization (PPO), adaptándolos al contexto específico de la planificación forestal. Se busca evaluar la efectividad, eficiencia computacional y escalabilidad de estas técnicas en el sector, así como su robustez ante diferentes escenarios estocásticos. El enfoque metodológico incluye una revisión exhaustiva de la literatura en RL y su aplicación en problemas de alta dimensionalidad, una formulación detallada del problema forestal adaptado para RL y el diseño e implementación de los algoritmos mencionados. Se realizan experimentos y análisis para probar la viabilidad de RL en este contexto, destacando la capacidad de estas técnicas para adaptarse a la variabilidad y la incertidumbre inherentes a la planificación forestal. Los hallazgos subrayan la complejidad de aplicar RL en ambientes estocásticos, resaltando la necesidad de un diseño cuidadoso de la función de recompensa, el equilibrio entre exploración y explotación, y la precisión en la estimación de funciones de valor. Futuras investigaciones deberían enfocarse en mejorar la función de recompensa, refinar la búsqueda de hiperparámetros y explorar nuevas estructuras de redes neuronales para abordar la dinámica estocástica del problema.es_ES
Patrocinadordc.description.sponsorshipFondecyt 1220893/2023es_ES
Lenguagedc.language.isoeses_ES
Publisherdc.publisherUniversidad de Chilees_ES
Type of licensedc.rightsAttribution-NonCommercial-NoDerivs 3.0 United States*
Link to Licensedc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/*
Títulodc.titleReinforcement Learning para problema de planificación forestal con incertidumbre en precios y demandases_ES
Document typedc.typeTesises_ES
dc.description.versiondc.description.versionVersión original del autores_ES
dcterms.accessRightsdcterms.accessRightsAcceso abiertoes_ES
Catalogueruchile.catalogadorchbes_ES
Departmentuchile.departamentoDepartamento de Ingeniería Industriales_ES
Facultyuchile.facultadFacultad de Ciencias Físicas y Matemáticases_ES
uchile.titulacionuchile.titulacionDoble Titulaciónes_ES
uchile.carrerauchile.carreraIngeniería Civil Industriales_ES
uchile.gradoacademicouchile.gradoacademicoMagisteres_ES
uchile.notadetesisuchile.notadetesisTesis para optar al grado de Magíster en Gestión de Operacioneses_ES
uchile.notadetesisuchile.notadetesisMemoria para optar al título de Ingeniero Civil Industrial


Files in this item

Icon

This item appears in the following Collection(s)

Show simple item record

Attribution-NonCommercial-NoDerivs 3.0 United States
Except where otherwise noted, this item's license is described as Attribution-NonCommercial-NoDerivs 3.0 United States