人工智慧在我國的大規模部署帶來了歧視數位化的法律風險。個體層面由內隱偏見驅動的無意識歧視和社會層面由結構性不平等驅動的系統性歧視,或影響人工智慧的開發設計,或干預資料生成、採集和利用,在問題建構、資料理解、特徵選擇等環節將偏見和結構性不平等嵌入人工智慧,誘導其輸出歧視性結果。面對數位時代更加隱蔽且廣泛的歧視,我國基於責任規則、資訊約束和平權行動構建的既有禁止歧視法律體系陷入歸責不能、約束失效等困境。治理人工智慧的歧視需要實現反歧視法律數位化轉型,以演算法解釋化解資訊單向透明趨勢,以演算法審核抑制代碼歧視風險,以非歧視準則規範人工智慧開發、利用行為。此外,還需借助數字平權行動,推動社會權力結構變遷,消除滋長歧視的結構性不平等。 |