李松在大會發言中指出,作為最具代表性的顛覆性技術,人工智能在給人類社會帶來潛在巨大發展紅利的同時,其不確定性可能帶來諸多全球性挑戰,甚至引發根本性的倫理關切。國際社會普遍擔心,如不加以規范,人工智能技術的誤用濫用將損害人的尊嚴和平等、侵犯人權和基本自由、加劇歧視和偏見、沖擊現有法律體系,并對各國政府管理、國防建設、社會穩定乃至全球治理產生負面影響。
李松介紹,就人工智能生命周期監管、研發及使用等一系列問題,中方在文件中提出以下主張:
一是人工智能治理應堅持倫理先行,通過制度建設、風險管控、協同共治等推進人工智能倫理監管。二是應加強自我約束,提高人工智能研發過程中算法安全與數據質量,減少偏見歧視。三是應提倡負責任使用人工智能,避免誤用、濫用及惡用,加強公眾宣傳教育。四是應鼓勵國際合作,在充分尊重各國人工智能治理原則和實踐的前提下,推動形成具有廣泛共識的國際人工智能治理框架和標準規范。
會后李松接受媒體采訪時表示,中國始終積極倡導“以人為本”和“智能向善”原則,主張增進各國理解和互信,確保人工智能技術發展安全、可靠、可控,在人工智能領域推動構建人類命運共同體。中國建設性參與了《特定常規武器公約》框架下“致命性自主武器系統”政府專家組進程,去年12月就規范人工智能軍事應用問題提出立場文件,此次進一步就人工智能倫理問題提出立場文件,旨在促進各國對有關問題的理解和重視,更好賦能全球可持續發展,增進全人類共同福祉。中方愿同國際社會一道,不斷完善和加強人工智能領域全球治理,積極構建人類命運共同體。