在我的毕业设计中,我试图实时识别狗叫和鸟叫的声音(通过录制声音片段)。我使用MFCC作为音频特征。最初,我使用jAudio库从一个声音片段中提取了总共12个MFCC向量。现在,我正在尝试训练一个机器学习算法(目前我还没有决定使用哪种算法,但很可能是SVM)。声音片段的大小大约是3秒钟。我需要澄清一些关于这个过程的信息。它们是,
-
我应该使用基于帧的MFCC(每帧12个)还是基于整个片段的MFCC(每个声音片段12个)来训练这个算法?
-
在训练算法时,我应该将这12个MFCC视为12个不同的属性,还是将它们视为一个属性?
这些MFCC是片段的整体MFCC,
-9.598802712290967 -21.644963856237265 -7.405551798816725 -11.638107212413201 -19.441831623156144 -2.780967392843105 -0.5792847321137902 -13.14237288849559 -4.920408873192934 -2.7111507999281925 -7.336670942457227 2.4687330348335212
任何帮助都将非常受欢迎,以克服这些问题。我在Google上找不到好的帮助。:)
回答:
-
你应该按帧计算MFCC。因为你的信号随时间变化,对整个片段进行计算没有意义。更糟的是,你可能会发现狗和鸟的表示相似。我会尝试不同的帧长度。一般来说,它们将是毫秒级的。
-
它们都应该是独立的特征。让机器学习算法决定哪些是最好的预测因子。
请注意,MFCC对噪声敏感,所以首先要检查你的样本听起来怎么样。例如,Yaafe库提供了更丰富的音频特征提取选择,其中许多在你的情况下会更有用。具体是哪些?我发现以下特征在鸟叫分类中最有用:
- 谱平坦度
- 感知扩展
- 谱滚降
- 谱衰减
- 谱形状统计
- 谱斜率
- 线性预测编码(LPC)
- 线谱对(LSP)
你可能会发现这个项目很有趣,特别是我与Yaafe接口的部分。
过去我使用SVM,正如你计划的那样。现在我肯定会选择梯度提升算法。