月旦知識庫
月旦知識庫 會員登入元照網路書店月旦品評家
 
 
  1. 熱門:
首頁 臺灣期刊   法律   公行政治   醫事相關   財經   社會學   教育   其他 大陸期刊   核心   重要期刊 DOI文章
清流雙月刊 本站僅提供期刊文獻檢索。
  【月旦知識庫】是否收錄該篇全文,敬請【登入】查詢為準。
最新【購點活動】


篇名
深究DeepSeek背後的利與弊:為何開源式的混合專家架構不利於國家資訊安全之維護?
作者 譚偉恩
中文摘要
2025年1月,中國籍人工智慧公司DeepSeek正式推出其研發之旗艦級大型語言模型—R1,採用混合專家架構(Mixture-of-Experts, MoE),也就是讓使用者依舊在透過海量資料(big data)獲得所需資訊的前提下,僅動用部分參數就讓使用者得到接近GPT-4等級的回饋,卻毋庸消耗像GPT-4那麼多的運算資源。
起訖頁 17-22
刊名 清流雙月刊  
期數 202507 (58期)
出版單位 法務部調查局
該期刊-上一篇 巨龍的新演算法:DeepSeek對臺灣半導體產業及國安的影響
該期刊-下一篇 從DeepSeek看AI大語言模型的開源閉源之戰
 

新書閱讀



最新影音


優惠活動




讀者服務專線:+886-2-23756688 傳真:+886-2-23318496
地址:臺北市館前路28 號 7 樓 客服信箱
Copyright © 元照出版 All rights reserved. 版權所有,禁止轉貼節錄