Mostrar el registro sencillo del ítem

Profesor guíadc.contributor.advisorWeintraub Pohorille, Andrés
Profesor guíadc.contributor.advisorCarrasco Barra, Jaime
Autordc.contributor.authorSepúlveda Lillo, Fabián Ignacio
Profesor colaboradordc.contributor.otherVelásquez Silva, Juan
Fecha ingresodc.date.accessioned2024-07-22T16:15:56Z
Fecha disponibledc.date.available2024-07-22T16:15:56Z
Fecha de publicacióndc.date.issued2024
Identificadordc.identifier.other10.58011/j292-d636
Identificadordc.identifier.urihttps://repositorio.uchile.cl/handle/2250/199665
Resumendc.description.abstractEsta tesis aborda la aplicación del Aprendizaje por Refuerzo (Reinforcement Learning, RL) en la planificación de la cosecha forestal bajo condiciones de incertidumbre, un problema estocástico de alta dimensionalidad. Se centra en la variante de programación estocástica multietapa para la cosecha de celdas en un área forestal, caracterizada por decisiones secuenciales adaptativas frente a incertidumbres como fluctuaciones en los precios de la madera y la demanda del mercado, modeladas mediante un árbol de escenarios. El trabajo se enfoca en implementar y analizar técnicas avanzadas de RL, comparándolas con métodos tradicionales de optimización bajo incertidumbre. Se utilizan algoritmos como Deep Q-Networks (DQN), Dueling DQN, Double Dueling DQN y Proximal Policy Optimization (PPO), adaptándolos al contexto específico de la planificación forestal. Se busca evaluar la efectividad, eficiencia computacional y escalabilidad de estas técnicas en el sector, así como su robustez ante diferentes escenarios estocásticos. El enfoque metodológico incluye una revisión exhaustiva de la literatura en RL y su aplicación en problemas de alta dimensionalidad, una formulación detallada del problema forestal adaptado para RL y el diseño e implementación de los algoritmos mencionados. Se realizan experimentos y análisis para probar la viabilidad de RL en este contexto, destacando la capacidad de estas técnicas para adaptarse a la variabilidad y la incertidumbre inherentes a la planificación forestal. Los hallazgos subrayan la complejidad de aplicar RL en ambientes estocásticos, resaltando la necesidad de un diseño cuidadoso de la función de recompensa, el equilibrio entre exploración y explotación, y la precisión en la estimación de funciones de valor. Futuras investigaciones deberían enfocarse en mejorar la función de recompensa, refinar la búsqueda de hiperparámetros y explorar nuevas estructuras de redes neuronales para abordar la dinámica estocástica del problema.es_ES
Patrocinadordc.description.sponsorshipFondecyt 1220893/2023es_ES
Idiomadc.language.isoeses_ES
Publicadordc.publisherUniversidad de Chilees_ES
Tipo de licenciadc.rightsAttribution-NonCommercial-NoDerivs 3.0 United States*
Link a Licenciadc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/*
Títulodc.titleReinforcement Learning para problema de planificación forestal con incertidumbre en precios y demandases_ES
Tipo de documentodc.typeTesises_ES
dc.description.versiondc.description.versionVersión original del autores_ES
dcterms.accessRightsdcterms.accessRightsAcceso abiertoes_ES
Catalogadoruchile.catalogadorchbes_ES
Departamentouchile.departamentoDepartamento de Ingeniería Industriales_ES
Facultaduchile.facultadFacultad de Ciencias Físicas y Matemáticases_ES
uchile.titulacionuchile.titulacionDoble Titulaciónes_ES
uchile.carrerauchile.carreraIngeniería Civil Industriales_ES
uchile.gradoacademicouchile.gradoacademicoMagisteres_ES
uchile.notadetesisuchile.notadetesisTesis para optar al grado de Magíster en Gestión de Operacioneses_ES
uchile.notadetesisuchile.notadetesisMemoria para optar al título de Ingeniero Civil Industrial


Descargar archivo

Icon

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem

Attribution-NonCommercial-NoDerivs 3.0 United States
Excepto si se señala otra cosa, la licencia del ítem se describe como Attribution-NonCommercial-NoDerivs 3.0 United States