數據是支撐生成式AI技術發展的核心要素,但由於數據本身的易變性與流動性強,在數據流轉的過程中不可避免地會涉及數據投毒、數據竊取、數據偽造等刑事風險,因而在生成式AI技術發展的過程中,數據刑事風險的預防與規制便尤為重要。ChatGPT具備超強的學習能力、創造能力及交互能力,故而將其作為生成式AI的典型代表具有相當的普適性與實踐價值。由ChatGPT的運轉原理可以預測,生成式AI運行過程中可能牽涉的數據刑事風險主要包括國家主權數據安全風險、個人信息數據安全風險及商業秘密數據安全風險三大類型。通過分析這些風險在生成式AI運行中的具體表現形式,可以得知風險源主要來自運營方的原始數據導入及用戶方的後期數據輸入,因此應當圍繞二者導入國家、企業二元層次的規制體系,切斷來自於二者的危險流,從而達到規避與治理生成式AI數據刑事風險的最終目的。 |