美國司法領域的人工智慧(AI),特別是演算法風險評估工具(ARAIs),正被廣泛應用於審前(pretrial)和量刑(sentencing)決策。支持者認為AI可提高效率、降低成本、增強公共安全及潛在減少人類偏見。然而,其應用面臨重大風險,包括源於歷史數據的演算法偏見(尤其對少數族裔造成不公平),以及如威斯康辛州最高法院Statev.Loomis案所示,因缺乏透明度引發的正當程序問題。此外,法官可能過度依賴AI建議,導致程序公平性受損。為應對這些挑戰,美國各州正積極立法,要求政府使用AI時進行清單登記、影響評估或成立研究機構。為確保司法AI的負責任使用,本文強調需採納以人為本的監督模式(如人在迴路/人在環路)、獨立外部審查(如審計和影響評估),並加強法律專業人士的培訓,以共同維護司法公正和公共信任。 |