Please use this identifier to cite or link to this item: https://hdl.handle.net/10316/102155
DC FieldValueLanguage
dc.contributor.advisorPaiva, Rui Pedro Pinto de Carvalho e-
dc.contributor.advisorPanda, Renato Eduardo Silva-
dc.contributor.authorLouro, Pedro Miguel Lima-
dc.date.accessioned2022-09-26T22:01:12Z-
dc.date.available2022-09-26T22:01:12Z-
dc.date.issued2022-09-15-
dc.date.submitted2022-09-26-
dc.identifier.urihttps://hdl.handle.net/10316/102155-
dc.descriptionDissertação de Mestrado em Engenharia Informática apresentada à Faculdade de Ciências e Tecnologiapt
dc.description.abstractA biblioteca de musical disponível digitalmente aos consumidores levou ao crescimante do campo científico de Recoonhecimento de Emoção em Música, devido à necissidade de organizar estas enormes coleções e prestar recomendações personalizadas para os ouvintes. A infância deste campo é dominada por metodologias de Aprendizagem Computacional Clássica utilizando elementos cuidadosamente desenhados para identificar as emoções percecionadas em peças musicais. Recentemente, registou-se um aumento de metodologias de Apredizagem Profunda no campo devido à sua abilidade de extrair elementos relevantes nestas peças, tornando o passo de desenhar elementos automático.Este trabalho contribuí para o campo oferecendo um conjunto alargado de experiências utilizando diversas metodologias avaliadas em dois conjuntos de dados: o conjunto de dados 4 Quadrant Audio Emotion Dataset (4QAED), previamente desenvolvido pela nossa equipa, e a sua extensão, cujos resultados são comparados de forma a estudar o impacto na performance.Obtivemos resultados acima do estado da arte. Nomeadamente, um F1 Score de 80.24\% utilizando um modelo híbrido, constituído por uma Rede Neuronal Convolucional, pré-treinado em amostras sintetizadas a partir de técnias de sintetização de dados áudio, uma Rede Neuronal Densa, pré-treinada em elementos extraídos desenhados à mão.O trabalho desenvolvido deu também alguma , incluindo continuar a explorar metodologias que utilizam Sintetização de Dados and utilizar a informação de múltiplas representações espectrais para lidar com o número reduzido de amostras disponíveis nos conjuntos de dados no estado da arte.pt
dc.description.abstractThe library of digital music available to consumers has pushed for the growth of the Music Emotion Recognition research field, due to the need of organizing these large collections and provide personalized recommendations to listeners. The infancy of this field is dominated by Classical Machine Learning approaches using carefully constructed features to identify the perceived emotions of music pieces. Recently, there has been an increase in Deep Learning approaches in the field due to the ability of extracting the underlying features in the pieces, making the feature design step of the previous approaches automatic.This work thus contributes to the field by providing an extensive set of experiments using a variety of approaches conducted on two datasets: the 4 Quadrant Audio Emotion Dataset (4QAED) dataset, previously developed by our team, and its extension, whose results are compared against for studying the impact in performance. We obtained results above the state-of-the-art. Namely, a 80.24\% F1 Score using an hybrid model, comprised of a Convolutional Neural Network, pre-trained on augmentated samples obtained using classical audio augmentation techniques, and a Dense Neural Network, pre-trained on extracted handcrafted features.The developed worked also gave some insight in some promising directions, include further exploring Data Augmentation approaches and leveraging the information from multiple spectral representation to deal with the low amount of samples available in current state of the art datasets.pt
dc.description.sponsorshipFCTpt
dc.language.isoengpt
dc.relationinfo:eu-repo/grantAgreement/FCT/6817 - DCRRNI ID/157404/PTpt
dc.rightsopenAccesspt
dc.rights.urihttp://creativecommons.org/licenses/by-nc/4.0/pt
dc.subjectRecuperação de Informação em Músicapt
dc.subjectReconhecimento de Emoção em Músicapt
dc.subjectAprendizagem Computacionalpt
dc.subjectAprendizagem Profundapt
dc.subjectSintetização de Dadospt
dc.subjectMusic Information Retrievalpt
dc.subjectMusic Emotion Recognitionpt
dc.subjectMachine Learningpt
dc.subjectDeep Learningpt
dc.subjectData Augmentationpt
dc.titleMERGE Áudio 2.0pt
dc.title.alternativeMERGE Audio 2.0pt
dc.typemasterThesispt
degois.publication.locationDEI - FCTUCpt
degois.publication.titleMERGE Áudio 2.0eng
dc.peerreviewedyes-
dc.date.embargo2022-09-15*
dc.identifier.tid203062582pt
thesis.degree.disciplineInformática-
thesis.degree.level1-
thesis.degree.nameMestrado em Engenharia Informáticapt
uc.degree.grantorUnitFaculdade de Ciências e Tecnologia - Departamento de Engenharia Informática-
uc.rechabilitacaoestrangeiranopt
uc.degree.grantorID0500-
uc.contributor.authorLouro, Pedro Miguel Lima::0000-0003-3201-6990-
uc.degree.classification18-
uc.date.periodoEmbargo0pt
uc.degree.presidentejuriSimões, Paulo Alexandre Ferreira-
uc.degree.elementojuriMacedo, Luís Miguel Machado Lopes-
uc.degree.elementojuriPaiva, Rui Pedro Pinto de Carvalho e-
uc.contributor.advisorPaiva, Rui Pedro Pinto de Carvalho e::0000-0003-3215-3960-
item.openairetypemasterThesis-
item.cerifentitytypePublications-
item.languageiso639-1en-
item.fulltextCom Texto completo-
item.grantfulltextopen-
item.openairecristypehttp://purl.org/coar/resource_type/c_18cf-
crisitem.advisor.researchunitCISUC - Centre for Informatics and Systems of the University of Coimbra-
crisitem.advisor.researchunitCISUC - Centre for Informatics and Systems of the University of Coimbra-
crisitem.advisor.parentresearchunitFaculty of Sciences and Technology-
crisitem.advisor.parentresearchunitFaculty of Sciences and Technology-
crisitem.advisor.orcid0000-0003-3215-3960-
crisitem.advisor.orcid0000-0003-2539-5590-
Appears in Collections:UC - Dissertações de Mestrado
Files in This Item:
File Description SizeFormat
PedroMiguelLimaLouro.pdf8.2 MBAdobe PDFView/Open
Show simple item record

Page view(s)

118
checked on Jul 3, 2024

Download(s)

80
checked on Jul 3, 2024

Google ScholarTM

Check


This item is licensed under a Creative Commons License Creative Commons