月旦知識庫
 
  1. 熱門:
 
首頁 臺灣期刊   法律   公行政治   醫事相關   財經   社會學   教育   其他 大陸期刊   核心   重要期刊 DOI文章
ROCLING論文集 本站僅提供期刊文獻檢索。
  【月旦知識庫】是否收錄該篇全文,敬請【登入】查詢為準。
最新【購點活動】


篇名
ntust-nlp-2 at ROCLING-2021 Shared Task: BERT-based semantic analyzer with word-level information
並列篇名
ntust-nlp-2 at ROCLING-2021 Shared Task: BERT-based semantic analyzer with word-level information
作者 Ke-Han LuKuan-Yu Chen (Kuan-Yu Chen)
中文摘要
本論文提出基於BERT架構之維度式情感辨識器,透過增加基於詞層級的資訊,我們的模型在「ROCLING 2021共享任務:教學文本之維度式情感辨識」四項指標中拿到了三項最佳成績。通過一連串的實驗,我們比較了不同預訓練方法對於結果的影響,也證明了我們基於預訓練模型所提出的方法,顯著的改進了模型的表現,最後我們針對實驗結果,提出關於模型和資料集的深入分析與討論。
英文摘要
In this paper, we proposed a BERT-based dimensional semantic analyzer, which is designed by incorporating with word-level information. Our model achieved three of the best results in four metrics on“ROCLING 2021 Shared Task: Dimensional Sentiment Analysis for Educational Texts”. We conducted a series of experiments to compare the effectiveness of different pre-trained methods. Besides, the results also proofed that our method can significantly improve the performances than classic methods. Based on the experiments, we also discussed the impact of model architectures and datasets.
起訖頁 360-366
關鍵詞 情感辨識預訓練語言模型BERTSemantic analysicPre-trained Language ModelBERT
刊名 ROCLING論文集  
期數 202112 (2021期)
出版單位 中華民國計算語言學學會
該期刊-上一篇 ntust-nlp-1 at ROCLING-2021 Shared Task: Educational Texts Dimensional Sentiment Analysis using Pretrained Language Models
該期刊-下一篇 CYUT at ROCLING-2021 Shared Task: Based on BERT and MacBERT
 

新書閱讀



最新影音


優惠活動




讀者服務專線:+886-2-23756688 傳真:+886-2-23318496
地址:臺北市館前路28 號 7 樓 客服信箱
Copyright © 元照出版 All rights reserved. 版權所有,禁止轉貼節錄