本文探討人工智慧的透明度義務,涵蓋倫理原則、法律規範與行業標準三大層面。隨著人工智慧技術發展迅速,透明度成為建立信任與責任歸屬的核心議題,不僅是技術問題,更關涉倫理價值與社會期望。國際間逐步形成以倫理原則為基礎,透過法律與軟法(如行業標準)共同構成的治理架構。其中,歐盟人工智慧法於2024年8月1日生效,為全球首部全面性AI法律,建立以風險為導向的分級管理機制,並對高風險系統設置詳細的透明度義務,如技術文件、使用說明與可追溯性等。本文擬以透明度為觀察核心,分析該法如何將倫理原則落實為法律義務,並檢視NIST 的風險管理框架(AI RMF)、ISO/IEC 42001等標準能否與之銜接。最後,應用上開分析所得到的觀察,對照我國人工智慧基本法草案,提出國際趨勢與我國制度設計上的差距與可參考之處。