月旦知識庫
 
  1. 熱門:
 
首頁 臺灣期刊   法律   公行政治   醫事相關   財經   社會學   教育   其他 大陸期刊   核心   重要期刊 DOI文章
中文計算語言學期刊 本站僅提供期刊文獻檢索。
  【月旦知識庫】是否收錄該篇全文,敬請【登入】查詢為準。
最新【購點活動】


篇名
基於字元階級之語音合成用文脈訊息擷取
並列篇名
Character-Level Linguistic Features Extraction for Text-to-Speech System
作者 陳冠宏廖書漢廖元甫王逸如
中文摘要
優良的語言文脈訊息是語音合成的關鍵部分,傳統的文脈訊息都是依賴於自然語言處理(Natural Language Processing,NLP),即使用parser 分析文字。但是parser 設計困難無法專門為語音合成設計;所以我們想直接以字元為處理單元建立一個end-to-end 的語音合成系統, 在這想法下我們改用字元層級(character-level)的word2vec 與遞迴類神經網路,直接將輸入字元序列轉換成隱藏特徵向量當做語言合成的文脈訊息。最後我們利用一中英夾雜語音合成系統測試此想法,語音合成的實驗的結果表明,我們提出的方式的確比傳統使用parser 的方式有更好的性能。
英文摘要
High quality linguistic features is the key to the success of speech synthesis. Traditional linguistic feature extraction methods are usually relied on a word-level natural language processing (NLP) parser. Since, a good parser requires a lot of feature engineering to build, it is usually a genral-purpose one and often not specially designed for speech synthesis. To avoid these difficulties, we propose to replace the conventional NLP parser by a character embedding and a chacter-level recurrent neural network language model (RNNLM) module to directly convert input character sequences, character-by-character, into latent linguistic feature vectors. Experimental results on Chinese-English speech synthesis system showed that the proposed approach achieved comparable performance with transitional NLP parser-based methods.
起訖頁 71-84
關鍵詞 語音合成文脈訊息文字向量遞迴類神經網路語言模型Speech SynthesisLinguistic FeaturesWord2vecRNNLM
刊名 中文計算語言學期刊  
期數 201612 (21:2期)
出版單位 中華民國計算語言學學會
該期刊-上一篇 評估尺度相關最佳化方法於華語錯誤發音檢測之研究
該期刊-下一篇 融合多任務學習類神經網路聲學模型訓練於會議語音辨識之研究
 

新書閱讀



最新影音


優惠活動




讀者服務專線:+886-2-23756688 傳真:+886-2-23318496
地址:臺北市館前路28 號 7 樓 客服信箱
Copyright © 元照出版 All rights reserved. 版權所有,禁止轉貼節錄