Show simple item record

Professor Advisordc.contributor.advisorThraves Cortés-Monroy, Charles
Authordc.contributor.authorMéndez Pérez, Felipe Andrés
Associate professordc.contributor.otherOrdónez Pizarro, Fernando
Associate professordc.contributor.otherWeber Hass, Richard
Admission datedc.date.accessioned2025-05-20T13:44:27Z
Available datedc.date.available2025-05-20T13:44:27Z
Publication datedc.date.issued2025
Identifierdc.identifier.urihttps://repositorio.uchile.cl/handle/2250/205007
Abstractdc.description.abstractLa estrategia de paradas en boxes es un factor determinante para el éxito en las carreras de Fórmula 1, un deporte que combina alta tecnología, decisiones en tiempo real y una competencia intensa. Esta investigación propone un modelo basado en aprendizaje por refuerzo profundo para optimizar dichas estrategias, abordando la complejidad inherente de las decisiones estratégicas durante las carreras. Utilizando datos históricos se desarrollaron modelos de predicción de tiempos de vuelta específicos para cada piloto y circuito, considerando escenarios como pista despejada, Safety Car (SC) y Virtual Safety Car (VSC). Estos modelos permiten simular y evaluar diferentes estrategias en función de variables críticas como la degradación de los neumáticos, las interacciones entre pilotos y los eventos imprevistos.\\ El enfoque metodológico integra el uso de algoritmos de optimización de políticas como Proximal Policy Optimization, así como métodos basados en valores como Deep Q-Learning. Además, el diseño del agente de aprendizaje por refuerzo incorpora un espacio de estados que incluye información detallada sobre el compuesto de neumáticos, la vida útil de los mismos, las condiciones de carrera, la posición relativa del piloto y las estrategias de los rivales.\\ Los resultados obtenidos a través de simulaciones mostraron que el agente propuesto supera significativamente a las estrategias convencionales, logrando un equilibrio óptimo entre el número de paradas en boxes y el rendimiento en pista. En particular, los modelos demostraron ser altamente adaptables a situaciones complejas, como cambios repentinos en las condiciones de carrera o la activación de SC y VSC, optimizando tanto el momento de las paradas en boxes como la selección de compuestos de neumáticos. Además, el estudio incluyó la comparación de diferentes funciones de recompensa, lo que permitió identificar aquellas que maximizaban el desempeño del agente en función de las prioridades estratégicas. Este enfoque se presenta como una herramienta para los equipos de Fórmula 1, ofreciendo una ventaja competitiva en la toma de decisiones estratégicas.\\ Este trabajo representa un avance en el campo de la optimización estratégica en deportes de motor, demostrando que el aprendizaje por refuerzo profundo es una herramienta poderosa para resolver problemas dinámicos y complejos en tiempo real.es_ES
Lenguagedc.language.isoeses_ES
Publisherdc.publisherUniversidad de Chilees_ES
Type of licensedc.rightsAttribution-NonCommercial-NoDerivs 3.0 United States*
Link to Licensedc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/*
Títulodc.titleAprendizaje por refuerzo profundo para la optimización de estrategias de paradas en boxes en la Fórmula 1es_ES
Document typedc.typeTesises_ES
dc.description.versiondc.description.versionVersión original del autores_ES
dcterms.accessRightsdcterms.accessRightsAcceso abiertoes_ES
Catalogueruchile.catalogadorchbes_ES
Departmentuchile.departamentoEscuela de Postgrado y Educación Continuaes_ES
Departmentuchile.departamentoDepartamento de Ingeniería Industrial
Facultyuchile.facultadFacultad de Ciencias Físicas y Matemáticases_ES
uchile.titulacionuchile.titulacionDoble Titulaciónes_ES
uchile.gradoacademicouchile.gradoacademicoMagisteres_ES
uchile.notadetesisuchile.notadetesisTesis para optar al grado de Magíster en Ciencia de Datoses_ES
uchile.notadetesisuchile.notadetesisMemoria para optar al título de Ingeniero Civil Industrial


Files in this item

Icon

This item appears in the following Collection(s)

Show simple item record

Attribution-NonCommercial-NoDerivs 3.0 United States
Except where otherwise noted, this item's license is described as Attribution-NonCommercial-NoDerivs 3.0 United States