Modelos de atención neuronal para la representación de electroencefalogramas y la detección de eventos transitorios del sueño
Professor Advisor
dc.contributor.advisor
Estévez Valencia, Pablo
Author
dc.contributor.author
Vargas Estay, Alonso Ignacio
Associate professor
dc.contributor.other
Pérez Flores, Claudio
Associate professor
dc.contributor.other
Salas Fuentes, Rodrigo
Admission date
dc.date.accessioned
2024-04-30T19:38:34Z
Available date
dc.date.available
2024-04-30T19:38:34Z
Publication date
dc.date.issued
2023
Identifier
dc.identifier.other
10.58011/pvd8-en71
Identifier
dc.identifier.uri
https://repositorio.uchile.cl/handle/2250/198343
Abstract
dc.description.abstract
Los eventos transitorios del sueño, como los husos de sueño y los complejos-k, están asociados
a diferentes funciones cognitivas y al diagnóstico de diferentes enfermedades neurológicas.
Sin embargo, la detección de estos eventos implica una inversión importante en capital humano
experto y de tiempo para generar el etiquetado de estos eventos. Por lo tanto, existe una
motivación inherente a desarrollar detectores automáticos que tengan la capacidad aprender
de datos de Electro Encefalogramas (EEG) con eventos transitorios del sueño.
El modelo propuesto para desarrollar el detector automático es un modelo basado en
aprendizaje profundo, particularmente en atención neuronal. Los modelos de atención neuronal
(Transformers) han tenido gran éxito en el área de procesamiento de lenguaje natural
y, más recientemente, en el procesamiento de imágenes. Los Transformers pueden aprender
sobre el contexto de los datos no etiquetados previo a las etiquetas mismas, mejorando así
su desempeño. En este trabajo se proponen variaciones importantes en la arquitectura del
Transformer, agregando operaciones convolucionales que ayudan a llevar a cabo el procesamiento
de las señales EEG, las que a diferencia de las secuencias de texto, presentan un
largo considerablemente mayor. Además, como aprendizaje previo a la tarea de detección, se
utiliza una tarea de contraste para que así el Transfomer aprenda a contextualizar el EEG
con mejores representaciones iniciales. El aprendizaje por contraste resultó tener una mejora
en el F1-score de detecciones de eventos transitorios, permitiendo además tener desempeños
que alcanzan y en algunos casos superan el estado del arte.
es_ES
Patrocinador
dc.description.sponsorship
ANID – Programa Iniciativa Científica Milenio – ICN2021_004 y Fondecyt 1220829
es_ES
Lenguage
dc.language.iso
es
es_ES
Publisher
dc.publisher
Universidad de Chile
es_ES
Type of license
dc.rights
Attribution-NonCommercial-NoDerivs 3.0 United States