作為全球第一部人工智能系統立法的歐盟《人工智慧法》採用基於風險的規制方法,將人工智能的風險劃分為不可接受風險、高風險、有限風險和最低風險四個等級。基於風險的規制方法符合人工智能技術多樣性和應用廣泛性的特徵,能夠形成全過程、敏捷性和多主體參與的風險治理格局,有助於實現人工智能安全與發展的利益平衡。高風險人工智能是人工智能風險治理的重要抓手,需要從應用類型、應用領域、應用影響等三個方面識別高風險人工智能的基本概念。提供者與使用者是人工智能產業鏈中的重要主體,應當明確各自的風險管控義務。對於高風險人工智能,不宜將人工智能本身作為責任承擔的主體,提供者、使用者仍是第一責任人,在此基礎上,需要合理配置相應的民事責任、行政責任和刑事責任規則。 |