Diseño de intervalos de predicción neuronales basados en deep learning y joint supervisión
Professor Advisor
dc.contributor.advisor
Sáez Hueichapan, Doris
Author
dc.contributor.author
Parra Flores, Sebastián Alfonso Iván
Associate professor
dc.contributor.other
Estévez Valencia, Pablo
Associate professor
dc.contributor.other
Sbarbaro Hofer, Daniel
Admission date
dc.date.accessioned
2021-08-23T21:58:43Z
Available date
dc.date.available
2021-08-23T21:58:43Z
Publication date
dc.date.issued
2021
Identifier
dc.identifier.uri
https://repositorio.uchile.cl/handle/2250/181417
General note
dc.description
Tesis para optar al grado de Magíster en Ciencias de la ingeniería, Mención Eléctrica
es_ES
General note
dc.description
Memoria para optar al título de Ingeniero Civil Eléctrico
Abstract
dc.description.abstract
En este trabajo se formulan nuevas metodologías para la construcción de modelos de intervalo, los cuales tienen como objetivo estimar la incertidumbre de un modelo predictivo por medio del cálculo de un rango de valores donde se espera encontrar el valor real de la señal. En particular, se propone una nueva función de costo para el entrenamiento de modelos de intervalo neuronales, denominanda Joint Supervision Selectivo, que presenta un bajo costo computacional y no posee problemas de convergencia en espacios de búsqueda complejos, con el objetivo de ser compatible con arquitecturas de Deep Learning y aprendizaje en línea. Adicionalmente, se propone una extensión de un modelo de intervalo neuronal existente para compatibilizarlo con sistemas difusos Takagi-Sugeno.
Ambas propuestas fueron probadas con simulaciones y comparadas con modelos del estado del arte, midiendo su error predictivo, porcentaje de cobertura y ancho de los intervalos, y el tiempo de entrenamiento. Los resultados mostraron que las arquitecturas de Deep Learning obtuvieron un menor error predictivo e intervalos más delgados sólo cuando fueron utilizadas en aplicaciones con espacios de búsqueda sencillos. También se apreció que el método neuronal propuesto logró menores tiempos de entrenamiento en implementaciones paramétricamente densas y demostró una mejor calidad de intervalo en aplicaciones con espacios de búsqueda complejos.