隨著ChatGPT在行業(yè)內(nèi)外引發(fā)越來越多的擔憂,監(jiān)管部門一致認為,指望開發(fā)商自我監(jiān)督是不夠的。負責任的人工智能系統(tǒng)可以帶來巨大的好處,但前提是我們要解決它們的潛在后果和危害。為了讓這些系統(tǒng)發(fā)揮全部潛力,公司和消費者需要能夠信任它們。
美國國家電信和信息管理局(NTIA)希望了解是否可以采取措施來保證人工智能系統(tǒng)是“合法、有效、合乎道德且安全的,并且在其他方面值得信賴”。歐洲各國政府也正在將人工智能的監(jiān)管提上議程。法國隱私監(jiān)管機構(gòu)CNIL表示,已收到多起關于ChatGPT的投訴,并正在調(diào)查這些投訴。西班牙數(shù)據(jù)保護機構(gòu)AEPD也表示,已要求歐洲數(shù)據(jù)保護委員會評估圍繞OpenAI的人工智能聊天應用程序ChatGPT的隱私問題。
各種利用生成式人工智能技術的應用和系統(tǒng)大量涌現(xiàn),但算法背后的安全性、公平性,可信性、隱私保護和風險等方面得引導和規(guī)范應該來說是滯后的。4月11日國家網(wǎng)信辦發(fā)布的一份《生成式人工智能服務管理辦法(征求意見稿)》中提出,利用生成式人工智能產(chǎn)品提供聊天和文本、圖像、聲音生成等服務的組織和個人,包括通過提供可編程接口等方式支持他人自行生成文本、圖像、聲音等,承擔該產(chǎn)品生成內(nèi)容生產(chǎn)者的責任;涉及個人信息的,承擔個人信息處理者的法定責任,履行個人信息保護義務。這是國家首次針對現(xiàn)下爆火的生成式人工智能產(chǎn)業(yè)發(fā)布規(guī)范性政策。
從技術角度看起來這份征求意見稿非常專業(yè),給開發(fā)和利用AIGC加上了“護欄”,要求清晰合理,這將有利于引導和規(guī)范AIGC技術朝正確的軌道發(fā)展。
規(guī)范AI生成內(nèi)容服務 明確責任人
該辦法闡明我國對AIGC的態(tài)度為積極支持、引導AIGC發(fā)展,并使得AIGC可以發(fā)揮更大的社會和商業(yè)價值。要求AIGC服務及生成內(nèi)容“符合社會主義的價值觀”、防止出現(xiàn)民族、信仰等歧視、尊重商業(yè)道德、尊重他人合法權(quán)益、“防止生成虛假信息”等。其中,價值觀及防止歧視為應有之意,“防止生成虛假信息”判定難度較高,但對于提升AIGC所產(chǎn)生數(shù)據(jù)資產(chǎn)價值提升具有比較深遠的意義。同時,該辦法也確認AIGC服務提供者為最主要的責任人,也就是說即使服務提供者是內(nèi)容的“搬運工”也要承擔主要責任。并且,在提供前需根據(jù)規(guī)定向網(wǎng)信部門進行安全性申報和備案、變更、注銷等手續(xù)對用戶進行實名制驗證違規(guī)生產(chǎn)內(nèi)容應在3個月內(nèi)進行優(yōu)化、防止再次生成違反本規(guī)定按照網(wǎng)絡安全法等相關法律和行政規(guī)范進行處罰。
我國進入“生成式AI”立法新階段
《征求意見稿》的出臺標志著我國進入“生成式AI”立法新階段,盡管國內(nèi)大模型研究和商業(yè)應用仍處于發(fā)展初期,但監(jiān)管立法來得很快,對比全球政府的監(jiān)管行動,中國無疑走在了前面。
在各行業(yè)運用AIGC服務的同時要樹立安全意識與責任意識,在國防等重要信息部門慎重選擇使用“生成式AI”服務,預防數(shù)據(jù)泄露、數(shù)據(jù)造假等事件的發(fā)生。作為政府層面首次出臺生成式AI產(chǎn)業(yè)的規(guī)范性政策文件,在內(nèi)容生成、數(shù)據(jù)來源、下游應用等多方面進行了明確約定,有助于國內(nèi)“生成式AI”產(chǎn)業(yè)中長期健康有序發(fā)展。
《征求意見稿》指明未來人工智能的發(fā)展方向,為約束“生成式AI”盲目爆發(fā)式發(fā)展奠定了法律基礎。但是意見稿出臺時間比較短,內(nèi)容相對簡單,覆蓋廣度相對較弱,在未來一定還會出臺相關的法律法規(guī)體系。除了法律、法規(guī)的制約以外,相關單位在人才選擇和培養(yǎng)方面要更加注重道德約束,為我國生成式人工智能服務未來發(fā)展提供良好的外部環(huán)境。