月旦知識庫
 
  1. 熱門:
 
首頁 臺灣期刊   法律   公行政治   醫事相關   財經   社會學   教育   其他 大陸期刊   核心   重要期刊 DOI文章
ROCLING論文集 本站僅提供期刊文獻檢索。
  【月旦知識庫】是否收錄該篇全文,敬請【登入】查詢為準。
最新【購點活動】


篇名
ntust-nlp-1 at ROCLING-2021 Shared Task: Educational Texts Dimensional Sentiment Analysis using Pretrained Language Models
並列篇名
ntust-nlp-1 at ROCLING-2021 Shared Task: Educational Texts Dimensional Sentiment Analysis using Pretrained Language Models
作者 Yi-Wei WangWei-Zhe ChangBo-Han FangYi-Chia ChenWei-Kai HuangKuan-Yu Chen (Kuan-Yu Chen)
中文摘要
本研究為Rocling 2021共同任務:教育文本的維度式情感分析之成果報告。為了分析中文文本的情緒效價(Valence)與喚起程度(Arousal),本研究基於當前流行的預訓練語言模型BERT與近期基於全詞遮蔽(Whole Word Masking)進行的MacBERT,觀察模型在不同設定下的預測成果,並比較BERT與MacBERT在中文文本情緒預測效能的差異。我們發現,相較於BERT,MacBERT可以在驗證集上獲得些許的效能提升。因此,我們將數個使用不同訓練方法所得的預測模型進行預測結果平均,作為最終的輸出。
英文摘要
This technical report aims at the ROCLING 2021 Shared Task: Dimensional Sentiment Analysis for Educational Texts. In order to predict the affective states of Chinese educational texts, we present a practical framework by employing pre-trained language models, such as BERT and MacBERT. Several valuable observations and analyses can be drawn from a series of experiments. From the results, we find that MacBERT-based methods can deliver better results than BERT-based methods on the verification set. Therefore, we average the prediction results of several models obtained using different settings as the final output.
起訖頁 354-359
關鍵詞 情感分析預訓練語言模型BERTMacBERTSentiment AnalysisPre-trained Language ModelBERTMacBERT
刊名 ROCLING論文集  
期數 202112 (2021期)
出版單位 中華民國計算語言學學會
該期刊-上一篇 Extracting Academic Senses: Towards An Academic Writer’s Dictionary
該期刊-下一篇 ntust-nlp-2 at ROCLING-2021 Shared Task: BERT-based semantic analyzer with word-level information
 

新書閱讀



最新影音


優惠活動




讀者服務專線:+886-2-23756688 傳真:+886-2-23318496
地址:臺北市館前路28 號 7 樓 客服信箱
Copyright © 元照出版 All rights reserved. 版權所有,禁止轉貼節錄