中文摘要 |
隨著人工智慧技術的發展演算法日益影響人美生活的各個方面。技術在提高效率和提供便利的同時也引起人們美於被演算法“就治”問題的擔忙,在愈發緊張的人機關係中人突的倫理訴求回啊不能。回應倫理訴求的根本在於建立人機信任。而人機信任的基礎是人工智慧演算法的可歸責性,因此通過法律規制人工智慧演算法成為必要。而現有法律關於演算法責任的規制存在諸多不足改革的方向是構建以演算法解釋為核心的演算法歸責模式。通過觀察中國、美國和歐洲三個樣本,可以發現三個經濟體的立法並未就演算法責任作規定,因而未能有效回應人工智慧演算法的倫理訴束。最讓人期待但卻不無遠憾的是,歐裡的GDPR規定了不具約束力的演算法“解釋權”。GDP的止步之處正是我們構建演算法解釋機制的起點。由權利人中心轉為責任人中心角度觀之,以“演算法解釋又務”替代“演算法解釋杈利”表述似乎更為準確。蜜於既有權利已基本涵蓋演算法倫理訴求因此在演算法解釋的法律構建過程中,重點不在賦權而是歸責,即在相失立法中增加、明確人工智慧演算法控制方的解釋義務。 |