TY -的A2 - Lv, Zhihan盟,任Guofeng盟,邵Guicheng AU - Fu,坚美PY - 2020 DA - 2020/09/26 TI - Articulatory-to-Acoustic转换使用BiLSTM-CNN Word-Attention-Based方法SP - 4356981六世- 2020 AB -近年来,随着人工智能(AI)的发展,人机交互技术,语音识别和生产要适应人工智能和人机技术的快速发展,这需要通过添加新的功能,提高了识别的精度融合特性,提高识别方法。针对开发新颖的识别功能和应用语音识别,本文提出了一种新的方法articulatory-to-acoustic转换。在这项研究中,我们已经将发音功能(即。,舌头和嘴唇的运动速度)(即声学特性。,第二个共振峰和Mel-Cepstra)。通过考虑图形表示发音器官的运动,本研究结合双向长期短期记忆(BiLSTM)卷积神经网络(CNN)和采用词在普通话中提取语义特征。在本文中,我们使用电磁articulography (EMA)数据库由太原理工大学设计,其中包含十人的299个双音节和汉语句子,并提取八维发音特点和维语义特征依赖word-attention层;然后,我们培训了200名样本和测试的99个样本articulatory-to-acoustic转换。最后,均方根误差(RMSE),意味着Mel-Cepstral失真(MMCD)和相关系数用于评估转换效应和与高斯混合模型(GMM)和BiLSTM递归神经网络(BiLSTM-RNN)。结果表明MMCD Mel-Frequency倒谱系数(MFCC)为1.467分贝,和RMSE F2为22.10赫兹。本研究的研究结果可用于融合的特性和语音识别,提高识别的准确性。 SN - 1076-2787 UR - https://doi.org/10.1155/2020/4356981 DO - 10.1155/2020/4356981 JF - Complexity PB - Hindawi KW - ER -