Detailed Information

Cited 0 time in webofscience Cited 0 time in scopus
Metadata Downloads

VCM과 Beat Tracking을 이용한 음악의 명암 분류 기법 개발Development of Music Classification of Light and Shade using VCM and Beat Tracking

Authors
박승민박준형이영환고광은심귀보
Issue Date
2010
Publisher
한국지능시스템학회
Keywords
Intelligent Musical Fountain; Support Vector Machine; Variance Considered Machines; Light and Shade; Emotion; Music Analysis
Citation
한국지능시스템학회 논문지, v.20, no.6, pp 884 - 888
Pages
5
Journal Title
한국지능시스템학회 논문지
Volume
20
Number
6
Start Page
884
End Page
888
URI
https://scholarworks.bwise.kr/cau/handle/2019.sw.cau/34715
ISSN
1976-9172
Abstract
최근 음악을 장르로 분류하는 다양한 연구가 진행되고 있다. 하지만 이러한 분류는 전문가들 마다 분류하는 기준이 서로 상이하여 정확한 결과를 도출하기가 쉽지 않다. 또한 새로운 장르 출현 시, 새롭게 정의해야하는 번거로움이 발생한다. 따라서 음악을 장르로 구분하기 보다는 감정단어들로 분류, 검색하여야 한다. 본 논문에서는 사람이 느끼는 감정 중, 밝음과 어두움을 기준으로 음악을 분류하려고 한다. 음악이 내포하고 있는 특성들에 VCM(Variance Considered Machines)을 적용하여 음악의 명암 분류 시스템을 제안한다. 본 논문에서 이용한 음악적 특성은 3가지이다. 설문조사를 통해 명암이 정의된 기준 음악을 음의 높고 낮음의 분포, 음색의 가늘고 굵음과 비트의 빠르기를 이용하여 VCM에 먼저 학습을 시킨 후, 학습된 VCM을 통하여 분류 되지 않은 음악을 정의하여 설문조사를 통한 결과와 비교 분석 하였다. 음 추출은 Matlab을 이용하여 샘플링된 음악을 일정한 간격으로 나누어 FFT를 통해 주파수 분석을 한 후 평균값을 그 구간의 대표음이라 가정하고 추출된 음들의 높낮이를 수치화 하여 전체 분포를 파악하였다. 음색 부분에서는 음 추출에서 사용된 주파수 영역에서 전체 주파수 누적분포의 차이를 이용하여 수치화 하였다. 이 세 가지 특성을 VCM에 적용하여 실험 결과와 설문 조사 결과 비교하여 보니 약 95.4%의 확률로 음악의 명암이 분리된 것을 확인 하였다.
Files in This Item
There are no files associated with this item.
Appears in
Collections
College of ICT Engineering > School of Electrical and Electronics Engineering > 1. Journal Articles

qrcode

Items in ScholarWorks are protected by copyright, with all rights reserved, unless otherwise indicated.

Altmetrics

Total Views & Downloads

BROWSE