Please use this identifier to cite or link to this item:
http://cimat.repositorioinstitucional.mx/jspui/handle/1008/1133
Análisis de Datos Multimodales en Colecciones Musicales | |
Marco Tulio Pérez Ortega | |
Acceso Abierto | |
Atribución-NoComercial | |
COMPUTO ESTADÍSTICO | |
En la actualidad, la mayor parte de los datos usados para abordar distintas tareas de aprendizaje máquina, tanto supervisado como no supervisado, son multimodales, es decir, se componen de distintos elementos de información que pueden provenir de distintas fuentes. Aunque tradicionalmente se han analizado las diferentes modalidades por separado, han surgido diferentes metodologías de inteligencia artificial que permiten incorporar todas las modalidades de información de los datos, y por ésta razón, los modelos con datos multimodales se ha convertido en un campo de investigación muy activo actualmente. Para el análisis de colecciones musicales, el enfoque multimodal constituye un reto, debido a la compleja naturaleza de cada modalidad de información, sumado a la poca disponibilidad de recursos de uso libre. Para hacer frente a esta problemática, en ésta tesis creamos y analizamos un conjunto de datos multimodales compuesto por señales de audio, texto, imágenes y una matriz pista-tag con el fin de crear representaciones vectoriales que mejor representen cada pista en nuestro conjunto de datos. Para esto, usamos técnicas de aprendizaje profundo, procesamiento de señales y procesamiento de lenguaje natural. Finalmente verificamos el desempeño de éstas representaciones con tareas de clasificación de género, y recuperación de información, mostrando buenos resultados al compararlos con métodos reportados en la literatura. | |
01-12-2021 | |
Trabajo de grado, maestría | |
OTRAS | |
Versión aceptada | |
acceptedVersion - Versión aceptada | |
Appears in Collections: | Tesis del CIMAT |
Upload archives
File | Description | Size | Format | |
---|---|---|---|---|
MTY TE 12.pdf | 4.43 MB | Adobe PDF | View/Open |