中文摘要 |
自從人工智慧(artificial intelligence)機器人聊天程式「ChatGPT」於2022年11月間問世之後,此等利用大型語言模型(large languagemodel,LLM)所建構之生成式(generative)人工智慧即開始出現爆發式成長,透過以人類自然語言對話模式進行學習,ChatGPT已經可以從事甚為複雜之語文作業,從進行日常對話到撰寫文稿、劇本,不一而足。論者甚至開始憂心生成式AI進行學習之技術已經處在「黑箱(black-box)狀態」,亦即研究者已無法完全確認生成式AI能夠成功學習甚至自主建構回答問題的原因為何,亦無從確認生成式AI持續進行學習後,其運作會發生何種後果。但是可以預見的是,AI應用所呈現的「進步」結果不免反映人類心智能力之若干侷限,也讓論者開始擔憂AI造成之歧視與不平等問題,各國與國際組織亦開始著手構思AI的管制框架。 基於上述問題意識,本文共分五個主要部分進行討論:第一部分介紹AI的定義與技術內涵,並說明前述LLM的性質,第二部分則綜合整理目前聯合國體系、歐洲對於AI管制的原則及相關立法。第三部分是從美國哲學家Hubert I. Dreyfus對AI的批判觀點出發,論證有關AI的發展與應用,仍需要重視其中人類行動者與環境互動的角色,因此在建構管制規範時,應該考量AI應用環境中的社會權力結構。第四部份係從女性主義知識論的立場分析前述社會權力結構的本質及其對性與性別關係之影響,並以前述ChatGPT的應用為例,檢視ChatGPT目前呈現的性別觀點。第五部分則從前揭分析提出本文對理想AI管制框架的初步建議。 |