國內外人工智能監管現狀
人工智能具有復雜性、不可預測性、自主性、缺乏透明度等特征,由此帶來數據爬取、算法偏見、歧視內容、科技倫理等各種議題,給人工智能的發展帶來巨大挑戰。如何在促進創新和保護公眾利益之間取得平衡,成為各國監管機構面臨的共同挑戰。
1. 歐盟:強監管策略
歐盟強調個人基本權利的保護以及維護歐盟內部市場的統一。2021年4月,歐盟提出《人工智能法案》草案,計劃在2024年開始執行對人工智能產品的強制監管?!度斯ぶ悄芊ò浮犯鶕煌踩a風險等級,將人工智能系統分為以下四個類別,并采取不同的監管措施:
歐盟委員會、歐洲理事會和歐洲議會計劃于今年4月份進行《人工智能法案》細節的談判,但ChatGPT的出現很可能會推遲談判的時間。其爭議的焦點在于生成式AI系統是否應該被列在“高風險”名單,以及監管是否會阻礙人工智能的創新發展。
意大利監管機構在2023年2月宣布取締一款美國研發的聊天機器人“Replika”,理由是它不符合透明度要求,非法處理個人數據,違反了歐盟《通用數據保護條例》。3月31日,意大利個人數據保護局宣布,從即日起禁止使用ChatGPT,并限制OpenAI公司處理意大利用戶信息,同時個人數據保護局開始立案調查。
美國發布的人工智能監管文件較少,更多依靠地方自治、行業規則和個人訴訟等方式解決生成式AI帶來的問題,監管導向以促進人工智能發展為主要目標。
2020年1月,白宮科技政策辦公室發布《人工智能應用監管指南》,該指南關注到AI系統在整個設計、開發、部署和操作過程中對算法和數據保護不足的風險,并提出一系列風險評估與管理方案,但其重點仍為確保監管規則不阻礙人工智能的發展。2022年10月,白宮科技政策辦公室發布《人工智能權利法案藍圖》,其目的是支持制定政策和實踐,列出了美國公眾應該享有的五項核心權利保護:不受不安全或低效系統所害、不受算法和系統歧視、個人隱私受到保護、知曉人工智能系統的使用并理解人工智能如何和為何產生最后的結果、有權選擇不使用人工智能技術。2023年1月,美國商務部NIST發布《人工智能風險管理框架》,該框架將可信度考量納入設計、開發、使用和評估AI產品、服務和系統中,并基于其他機構的AI風險管理工作,確保制定過程的公開、透明,增強人工智能可信度,降低人工智能技術應用的風險。
英國傾向于依靠部門監管機構,建立一個靈活和有利于創新的監管框架,以促進技術進步并保持人工智能全球領先的地位。3月29日,英國政府發布針對人工智能產業監管的白皮書,提出AI治理的五項原則:安全性和穩健性、透明度和可解釋性、公平性、問責制和管理,以及可競爭性。未來,監管機構將基于五項原則向相關組織發布實用指南并推動立法。
總體而言,美國和英國對人工智能的監管相對寬松,鼓勵創新,避免過度干預人工智能產業發展。
3. 中國:兼顧安全與發展
中國在人工智能方面陸續出臺多部政策文件,早期以人工智能產業促進為主,部分地方政府先試先行,提出人工智能治理的具體規范。近年來逐步關注人工智能倫理道德、算法治理及行業應用安全。
在促進人工智能產業發展方面,中國發布了多個產業政策文件,包括《新一代人工智能發展規劃》《促進新一代人工智能產業發展三年行動計劃》和《國家新一代人工智能創新發展試驗區建設工作指引》等。地方層面,深圳和上海等先后出臺《深圳經濟特區人工智能產業促進條例》和《上海市促進人工智能產業發展條例》,積極推進人工智能與經濟、生活、城市治理等領域深度融合,促進鼓勵人工智能創新發展。
在倫理道德方面,2022年3月,中辦國辦印發《關于加強科技倫理治理的意見》,對科技倫理治理作出頂層設計和系統部署,解決AI帶來的社會規范失序、倫理道德等問題。2023年4月,科技部就《科技倫理審查辦法(試行)》公開征求意見,提出從事人工智能等科技活動的單位,研究內容涉及科技倫理敏感領域的,應設立科技倫理(審查)委員會,對涉及數據和算法的科技活動,應符合國家有關數據安全的規定。
在算法治理方面,2021年9月國家網信辦等印發《關于加強互聯網信息服務算法綜合治理的指導意見》,首次明確了加快構建算法安全監管體系的要求。同年12月,網信辦等發布《互聯網信息服務算法推薦管理規定》,要求算法推薦服務提供者保護用戶權益、履行算法備案等義務并特別強調未成年人保護。
在行業應用安全方面,2022年11月,國家網信辦等聯合發布《互聯網信息服務深度合成管理規定》,該規定明確生成式AI應用服務提供者、技術支持者和服務使用者等各方的法定義務。4月11日,國家網信辦發布《生成式人工智能服務管理辦法(征求意見稿)》,從國家層面支持人工智能技術發展,對提供生成式人工智能產品或服務的提供者以及用戶均做出詳細規定。一是提供者應保證內容真實準確、尊重社會公德、公序良俗,訓練數據應合法合規,人工標注規則應清晰、具體、可操作,不得利用算法、數據、平臺等優勢實施不公平競爭;二是對用戶來說,要求提供真實身份信息。
總體而言,中國對人工智能采取發展與安全并重的策略,在大力促進人工智能技術應用的同時,也從多維度、多層級、多領域探索人工智能的治理之道。
探索人工智能監管
當前,不少人工智能公司擔心ChatGPT會引發更高的監管要求。根據行業機構appliedAI的調查顯示,51%的從業者預計,受歐盟《人工智能法案》的影響,公司的人工智能研發將放緩。人工智能是科技強國必爭之地,我國在進行人工智能監管時,保護公眾利益的同時又不過度限制人工智能的創新發展顯得尤為重要。
第一,推動形成具有廣泛共識的國際人工智能治理框架和標準規范。政策制定過程應鼓勵公私合作,積極吸收學術界、產業界和民間社會的意見,以更好地了解技術趨勢和行業需求,制定切實可行的政策,促進人工智能的發展和創新。同時,鼓勵跨國界的交流合作,在充分尊重各國人工智能治理原則和實踐的前提下,推動形成具有廣泛共識的國際人工智能治理框架和標準規范。
第二,對AI系統分類監管。歐盟發布的《人工智能法案》將AI系統分為四個類別進行治理的方式值得借鑒。分類監管是一種基于風險的監管形式,強調的是監管不應以消除所有潛在損害為目標,而應關注潛在不利后果的概率及影響。針對不同風險程度的人工智能應用采取相應的監管措施,這樣可以在保護公眾利益的同時促進人工智能的創新發展。
第三,政策保持靈活性的同時守住安全底線。針對人工智能領域快速變化的環境,政策制定者應具備靈活性和適應性,隨時根據評估結果進行調整,以確保政策不會對創新產生不利影響。同時,守住安全的底線不能動搖,在人工智能的技術與場景中,同樣需要秉持發展與安全并重的理念,確保各項技術行穩致遠。