月旦知識庫 會員登入
|
元照網路書店
|
月旦品評家
熱門:
首頁
臺灣期刊
法律
公行政治
醫事相關
財經
社會學
教育
其他
大陸期刊
核心
重要期刊
DOI文章
首頁
臺灣期刊
公行政治
清流雙月刊
202507 (58期)
本站僅提供期刊文獻檢索。
【月旦知識庫】是否收錄該篇全文,敬請
【登入】
查詢為準。
最新
【購點活動】
篇名
深究DeepSeek背後的利與弊:為何開源式的混合專家架構不利於國家資訊安全之維護?
作者
譚偉恩
中文摘要
2025年1月,中國籍人工智慧公司DeepSeek正式推出其研發之旗艦級大型語言模型—R1,採用混合專家架構(Mixture-of-Experts, MoE),也就是讓使用者依舊在透過海量資料(big data)獲得所需資訊的前提下,僅動用部分參數就讓使用者得到接近GPT-4等級的回饋,卻毋庸消耗像GPT-4那麼多的運算資源。
起訖頁
17-22
刊名
清流雙月刊
期數
202507 (58期)
出版單位
法務部調查局
該期刊-上一篇
巨龍的新演算法:DeepSeek對臺灣半導體產業及國安的影響
該期刊-下一篇
從DeepSeek看AI大語言模型的開源閉源之戰
新書閱讀
最新影音
優惠活動