月旦知識庫
月旦知識庫 會員登入元照網路書店月旦品評家
 
 
  1. 熱門:
首頁 臺灣期刊   法律   公行政治   醫事相關   財經   社會學   教育   其他 大陸期刊   核心   重要期刊 DOI文章
國立成功大學圖書館館刊 本站僅提供期刊文獻檢索。
  【月旦知識庫】是否收錄該篇全文,敬請【登入】查詢為準。
最新【購點活動】


篇名
使用ChatGPT提升研究效率
中文摘要
談到大家熟悉的GPT-3和GPT-3.5,它們擁有約1,750億個參數。為了讓大家更直觀地理解這個數字的龐大,可以做一個不完全恰當的類比:將一個參數比作大腦中的神經元。一般來說,人類大腦約有860億個神經元,而大象則擁有約2,510億個神經元。因此,這些大型語言模型的參數量級與哺乳類動物大腦的神經元數量相當。
簡單來說,語言模型(Language Model)是一種可以預測下一個單詞的統計方法。它通過分析大量的文字數據,學習單詞之間的概率分布,從而能夠在給定一個句子的情況下,預測下一個單詞出現的可能性,專有名詞稱為「next-word prediction」。舉例來說,如果給語言模型輸入「Hello」,它會根據對語料庫的分析,預測下一個單詞出現的概率。例如,「Hello world」的概率可能為0.2,「Hello Kitty」的概率可能為0.1,「Hello, how are you?」的概率可能為0.7。最終輸出的單詞將從這些可能的單詞中根據概率進行抽樣。
起訖頁 1-11
刊名 國立成功大學圖書館館刊  
期數 202511 (34期)
出版單位 國立成功大學圖書館
該期刊-下一篇 生成式AI在圖書館策展行銷之應用
 

新書閱讀



最新影音


優惠活動




讀者服務專線:+886-2-23756688 傳真:+886-2-23318496
地址:臺北市館前路28 號 7 樓 客服信箱
Copyright © 元照出版 All rights reserved. 版權所有,禁止轉貼節錄