Professor Advisor | dc.contributor.advisor | Hitschfeld Kahler, Nancy Viola | |
Professor Advisor | dc.contributor.advisor | Estévez Valencia, Pablo Antonio | |
Author | dc.contributor.author | Intriago Chichanda, Jhon Alejandro | |
Associate professor | dc.contributor.other | Bustos Cárdenas, Benjamin Eugenio | |
Associate professor | dc.contributor.other | Acuña Leiva, Gonzalo Pedro Nolasco | |
Associate professor | dc.contributor.other | Tobar Henríquez, Felipe Arturo | |
Admission date | dc.date.accessioned | 2021-11-22T16:59:19Z | |
Available date | dc.date.available | 2021-11-22T16:59:19Z | |
Publication date | dc.date.issued | 2021 | |
Identifier | dc.identifier.uri | https://repositorio.uchile.cl/handle/2250/182802 | |
Abstract | dc.description.abstract | Las Redes Neuronales Spiking (SNNs) son una posible vía para acortar la distancia entre el aprendizaje profundo y la neurociencia. Estos modelos se consideran redes neuronales biológicamente plausibles porque intentan simular cómo las neuronas biológicas transmiten la información. Su implementación en hardware especializado ofrece un gran potencial de velocidad computacional. Sin embargo, es necesario mejorar su rendimiento con respecto a las redes neuronales recurrentes tradicionales tales como Vanilla Recurrent Neural Network (V-RNN), Long Short Term Memory (LSTM) y Gated Recurrent Unit (GRU). Para ello, abordamos algunas debilidades de estas redes desarrollando variantes basadas en principios de aprendizaje profundo y teoría de la información. En concreto, proponemos un nuevo método heurístico para estimar los parámetros que definen al modelo SNN. También añadimos memoria externa a estos para una comparación justa con los modelos tradicionales y, finalmente, adaptamos el método Information Bottleneck como criterio de optimización.
Estas mejoras propuestas se evaluaron con dos conjuntos de datos: El problema de los bits de paridad y el conjunto de datos Spiking Heidelberg (SHD). Nuestros principales resultados sostienen que el modelo SNN Recurrente (SRNN) mejorado logró un rendimiento similar al modelo GRU con menos parámetros en la clasificación del conjunto de datos SHD, en el que ambos modelos alcanzaron un 86\% de exactitud en promedio. Además, cuando se añadió Information Bottleneck como criterio de optimización, el modelo SRNN convergió más rápido que los modelos entrenados con entropía cruzada (Cross-Entropy). Nuestros resultados sugieren que el modelo SRNN inspirado en conceptos biológicos tiene un rendimiento similar al de las RNN tradicionales cuando las condiciones de evaluación son similares (por ejemplo, utilizando el mismo número de parámetros). Además, cuando las RNNs se entrenan utilizando técnicas de control de gradientes, estos modelos mejoran su rendimiento. | es_ES |
Patrocinador | dc.description.sponsorship | Secretaría de Educación Superior, Ciencia, Tecnología e Innovación, SENESCYT CONICYT, Fondecyt 1171678 | es_ES |
Lenguage | dc.language.iso | en | es_ES |
Publisher | dc.publisher | Universidad de Chile | es_ES |
Type of license | dc.rights | Attribution-NonCommercial-NoDerivs 3.0 United States | * |
Link to License | dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/3.0/us/ | * |
Keywords | dc.subject | Heurística | |
Keywords | dc.subject | Teoría de la información | |
Keywords | dc.subject | Redes neuronales (Ciencia de la computación) | |
Keywords | dc.subject | Aprendizaje profundo | |
Keywords | dc.subject | Redes Recurrentes | |
Keywords | dc.subject | Parity Bit | |
Título | dc.title | Development of spiking neural networks based on Deep Learning and information theory | es_ES |
Document type | dc.type | Tesis | es_ES |
dc.description.version | dc.description.version | Versión original del autor | es_ES |
dcterms.accessRights | dcterms.accessRights | Acceso abierto | es_ES |
Cataloguer | uchile.catalogador | gmm | es_ES |
Department | uchile.departamento | Departamento de Ciencias de la Computación | es_ES |
Faculty | uchile.facultad | Facultad de Ciencias Físicas y Matemáticas | es_ES |
uchile.gradoacademico | uchile.gradoacademico | Magister | es_ES |
uchile.notadetesis | uchile.notadetesis | Tesis para optar al grado de Magíster en Ciencias, Mención Computación | es_ES |