隨著AI科技的發展必然引起對於AI倫理準則的探討,嚴格而言,對於AI倫理至今並未有決定性的定義,然而在眾多所擬的現今AI倫理準則或原則之中,AI「公平性」無疑地必定會被提及,蓋因AI所依存的現實數據資料或因偏跛的學習資料而造成機械學習上的演算偏誤(Algorithmic bias),將使結果的公正性受到質疑挑戰到社會的正義,例如路透社於2018年10月的一則報導中指出,自2014年美國亞馬遜(Amazon)使用AI篩選履歷都呈現AI偏好挑選男性爲職員的性別差別歧視之結果,而連續三年因無法妥善改良此一AI偏誤,故於2017年被時終止AI人資系統的計畫,也因此引發了從AI應用於勞動場域的人事評價到金融領域的信用評價、司法上的量刑等判斷上的「歧視」問題之探討。 |