近日,國家網信辦發布《生成式人工智能服務管理辦法(征求意見稿)》(以下簡稱《辦法》),向社會公開征求意見。自去年以來,生成式人工智能快速走紅,席卷文本、圖像、音頻、視頻等各類媒介場景,成為全社會關注的焦點。
生成式人工智能服務以其優異的知識表現、流暢的語言交互和媒介輸出,引發了各界的使用和“嘗鮮”熱潮。今天生成式智能服務背后的核心技術是大規模預訓練模型(以下簡稱“大模型”)。熱潮之下,大數據和大模型驅動形成的內容生產模式給科研、生活和倫理帶來巨大沖擊。
大模型與人類歷史上其他科技發明的不同之處在于,發明者第一次無法完全理解人類創造物的具體運行機制,即“黑盒效應”。大規模深度神經網絡在訓練和使用中,存在結果的不可解釋性和不穩定性,這是造成今天倫理焦慮的核心根源。然而這并不能改變大模型作為技術發明的工具屬性。在實踐上,對待工具有三個層面的要點:以工具視之、以工具用之、以工具治理之?!耙怨ぞ咭曋币髲闹行?、客觀的角度看待新事物?!耙怨ぞ哂弥痹谟谧畲笙薅劝l揮其優點,規避其缺點?!耙怨ぞ咧卫碇钡囊x則在于將規劃和治理目標放在技術使用的行為與場景,而非技術本身。
《辦法》的發布無疑是在“以工具治理之”層面邁出了堅實的一步。我國針對語言生成技術和應用的倫理探索和法規規制起步早、發展快。早在2019年年末,北京語言大學、中國中文信息學會等單位向工業界和學術界發布了面向智能內容生成的倫理規制宣言——《推進智能寫作健康發展宣言》。2022年,國家網信辦、工信部、公安部聯合發布《互聯網信息服務深度合成管理規定》。而今天,《辦法》的起草完成,在過去學術界和司法界探索實踐的基礎上,綜合考慮了近期技術發展與初步應用的特點,與網絡安全法、數據安全法等法律相協調,構筑了深度生成服務的管理體系。
用戶隱私、內容歧視和模型研發是當前深度生成應用的三個重要法規風險點?!掇k法》明確,國家支持人工智能算法、框架等基礎技術的自主創新、推廣應用、國際合作?!掇k法》集中瞄準技術應用問題,從明確條件要求、劃定責任主體等幾個方面為行業劃定底線。生成內容本身應符合公序良俗和國家法律法規,技術提供方擔負內容責任,使用方則應被充分告知其責任,應充分了解智能技術的界限和風險?!掇k法》對隱私信息這一備受關注的倫理風險點也作出了回應,要求提供方對此做好預防和反饋響應機制。數據資源和預訓練模型是生成技術的基礎,對此《辦法》也要求在技術服務成形的前序階段就進行法規管制,不得含有違法和有違公序良俗的內容。
法規體系逐步建立是數智時代社會治理的先聲與實踐。大模型結合大數據,是可預見的未來智能技術落地范式。治理應用、梳理資源是營建生成式智能技術健康生態的重要抓手,這兩者也將成為數智時代最重要的政策研究話題。在更高的層面上,人機共生時代的我們還需要關注機器的行為,構建機器行為學,對其語言、傳播和物理世界的行為進行研究和探索,以最大程度保障數智時代的社會福祉,收獲人機共生的時代紅利。(作者:饒高琦,北京語言大學中國語言政策與標準研究所研究員)