Show simple item record

Professor Advisordc.contributor.advisorBravo Márquez, Felipe
Professor Advisordc.contributor.advisorParra Santander, Denis
Authordc.contributor.authorAraneda Hernández, Mauricio Jesús
Associate professordc.contributor.otherBaloian Tataryan, Nelson
Associate professordc.contributor.otherGraells Garrido, Eduardo
Associate professordc.contributor.otherScheihing García, Eliana
Admission datedc.date.accessioned2023-10-24T17:51:52Z
Available datedc.date.available2023-10-24T17:51:52Z
Publication datedc.date.issued2023
Identifierdc.identifier.other10.58011/whvx-3b85
Identifierdc.identifier.urihttps://repositorio.uchile.cl/handle/2250/196193
Abstractdc.description.abstractLa Generación Automática de Música, y en particular, el Inpainting (o autocompletación contextual) de Partituras Musicales, es un tema fascinante en la investigación del Aprendizaje Automático, sin embargo, actualmente no es posible comparar los enfoques que resuelven esta tarea: las métricas, los conjuntos de datos y las representaciones de los datos difieren de un artículo a otro, lo que dificulta conocer el progreso de la comunidad. En este contexto, el desarrollo de un benchmark estandarizado para evaluar adecuadamente estos modelos sería de gran ayuda a efectos de análisis y reproducibilidad. En esta tesis discutimos cómo los diferentes modelos generan música y cómo podemos resolver este problema de evaluación con MUSIB: the Musical Score Inpainting Benchmark, nuestra propuesta de nuevo benchmark con condiciones estandarizadas. Para evaluar adecuadamente estos modelos proponemos dos conjuntos de métricas extendidas desde la literatura: Métricas de notas y Métrica de divergencia. La primera se basa en la comparación individual de los atributos de las notas, mientras que la segunda se basa en la comparación de las distribuciones entre el conjunto de datos original y los datos generados artificialmente. Nuestros experimentos sugieren hallazgos interesantes en relación con el estado del arte del inpainting de partituras musicales. 1) La reproducibilidad de los modelos no es del todo precisa, lo que demuestra que todavía se puede mejorar para que los modelos sean más reproducibles. 2) El rendimiento de los modelos depende en gran medida de la cantidad de datos de entrenamiento. 3) El rendimiento de todos los modelos varía según el conjunto de datos. 4) Todos los modelos aprenden algunos aspectos de la música mejor que otros (el ritmo por sobre el tono, por ejemplo). Este trabajo constituye la primera aproximación a la evaluacion estandarizada del inpainting musical, siendo un importante soporte para el estudio de la Generación Musical Automatizada.es_ES
Lenguagedc.language.isoenes_ES
Publisherdc.publisherUniversidad de Chilees_ES
Type of licensedc.rightsAttribution-NonCommercial-NoDerivs 3.0 United States*
Link to Licensedc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/3.0/us/*
Títulodc.titleMusib: Music inpainting benchmarkes_ES
Document typedc.typeTesises_ES
dc.description.versiondc.description.versionVersión original del autores_ES
dcterms.accessRightsdcterms.accessRightsAcceso abiertoes_ES
Catalogueruchile.catalogadorgmmes_ES
Departmentuchile.departamentoDepartamento de Ciencias de la Computaciónes_ES
Facultyuchile.facultadFacultad de Ciencias Físicas y Matemáticases_ES
uchile.titulacionuchile.titulacionDoble Titulaciónes_ES
uchile.carrerauchile.carreraIngeniería Civil en Computaciónes_ES
uchile.gradoacademicouchile.gradoacademicoMagisteres_ES
uchile.notadetesisuchile.notadetesisTesis para optar al grado de Magíster en Ciencias, Mención Computaciónes_ES
uchile.notadetesisuchile.notadetesisMemoria para optar al título de Ingeniero Civil en Computación


Files in this item

Icon
Icon

This item appears in the following Collection(s)

Show simple item record

Attribution-NonCommercial-NoDerivs 3.0 United States
Except where otherwise noted, this item's license is described as Attribution-NonCommercial-NoDerivs 3.0 United States