採用何種路徑規範人工智能活動,是人工智能立法的核心問題。風險管理進路存在風險評估與分類困難、放任損害發生等問題,並非人工智能立法的當然選擇。與以往科技活動不同,人工智能活動既屬專精科技活動,又具有賦能科技活動屬性。以人工智能活動為規範對象的人工智能法不應以單一理論為指導,而應遵從科技法與應用法雙重定位。科技法定位下的《人工智能法》應尊重科技自主,將科技倫理內化於人工智能研發活動中,同時打破制度壁壘,設計促進型規則,助力人工智能科技的發展。應用法定位下的《人工智能法》則應關注科技賦能場景導致的功能異化現象,一方面借助抽象的權利義務工具,尤其是通過規定新型權利,構建彈性的規範框架,回應不同應用場景中的價值序列差異;另一方面應推行實驗主義治理,通過監管沙箱、授權性立法等設計,動態調整監管策略,滿足人工智能賦能應用活動的靈活治理需求。 |