中央政法委機關(guān)報法治日報社主辦

您所在的位置:首頁  > 名家說法

生成式AI監(jiān)管新規(guī)的哪些細節(jié)值得關(guān)注

2023-04-17 17:31:39 來源:法治日報·法治周末

《法治周末》記者 仇飛

隨著人工智能技術(shù)的不斷發(fā)展,AIGC已經(jīng)成為了一種新型的內(nèi)容創(chuàng)作方式。為了確保AIGC服務(wù)的質(zhì)量和可信度,網(wǎng)信辦發(fā)布了《生成式人工智能服務(wù)管理辦法(征求意見稿)》,對AIGC服務(wù)進行了規(guī)范。

從百度的文心一言到阿里的通義千問,國內(nèi)各大廠相繼發(fā)布生成式人工智能產(chǎn)品。生成式人工智能技術(shù)是一項正在快速發(fā)展的技術(shù),它可以通過算法、模型、規(guī)則等方式生成各種類型的文本、圖片、聲音、視頻、代碼等內(nèi)容。這種技術(shù)的應(yīng)用前景非常廣泛,包括自動化生成內(nèi)容、智能化問答、自動化翻譯等領(lǐng)域。然而,生成式人工智能技術(shù)也面臨著一些挑戰(zhàn),其中包括知識產(chǎn)權(quán)、安全、倫理和數(shù)據(jù)等問題。針對這些挑戰(zhàn),最重要的立法措施《生成式人工智能服務(wù)管理辦法(征求意見稿)》(以下簡稱《意見稿》)出臺。這份意見稿對人工智能生成內(nèi)容、主體責(zé)任、訓(xùn)練數(shù)據(jù)和數(shù)據(jù)處理等方面都做出了規(guī)定,旨在保障生成式人工智能技術(shù)的合規(guī)性和安全性。

然而,也有學(xué)者提出,當(dāng)然人工智能產(chǎn)業(yè)剛剛起步,業(yè)界還不清楚究竟會出現(xiàn)哪些問題,又需要設(shè)置哪些規(guī)則。在這種情況下,過于超前的立法反而可能會阻礙技術(shù)的發(fā)展和創(chuàng)新。例如,《意見稿》提到:“提供生成式人工智能服務(wù)應(yīng)當(dāng)按照《中華人民共和國網(wǎng)絡(luò)安全法》規(guī)定,要求用戶提供真實身份信息。”對此,北京大學(xué)法學(xué)院薛軍教授指出:“生成式人工智能服務(wù),在特定情況下更類似于搜索服務(wù),本質(zhì)是一種智能檢索,應(yīng)當(dāng)允許用戶以游客的身份使用。比如,必應(yīng)搜索引擎遷入了ChatGPT問答模型,普通游客都可以瀏覽使用。這樣,也可以更好保護用戶的隱私,方便網(wǎng)民使用?!?/p>

在生成內(nèi)容方面,《意見稿》提到:“利用生成式人工智能生成的內(nèi)容應(yīng)當(dāng)真實準確,采取措施防止生成虛假信息”,確立了內(nèi)容真實性的要求。這一規(guī)定目前受到頗多爭議。從實踐的角度來看,生成內(nèi)容的真實準確性與生成式人工智能的技術(shù)原理是互相沖突的,人工智能生成內(nèi)容并不是從知識庫中搜索并拼湊出結(jié)果,生成結(jié)果是通過計算機算法得來的。所以對于生成信息的真實準確性,會存在一些不可避免的技術(shù)限制。以ChatGPT為例,當(dāng)問到AI不知道的問題時,AI會“一本正經(jīng)的胡說八道”。真正的人工智能一定會犯錯,因為它學(xué)習(xí)了很多知識,機器在推理過程中會產(chǎn)生突變。立法需要給予一定的包容空間,像看待人類學(xué)習(xí)進化一樣去看待生成式人工智能的發(fā)展。

中國社會科學(xué)院大學(xué)法學(xué)院副教授、互聯(lián)網(wǎng)法治研究中心執(zhí)行主任劉曉春表示:“大模型服務(wù)提供者有責(zé)任積極采取與技術(shù)發(fā)展水平相適應(yīng)的風(fēng)險預(yù)防措施,及時響應(yīng)監(jiān)管要求,對權(quán)利主體提出的合理訴求給出及時的回應(yīng)。如果按照規(guī)定執(zhí)行,可以明確大模型服務(wù)提供者的具體治理義務(wù),在其盡到與技術(shù)發(fā)展水平相應(yīng)的義務(wù)的情況下,給予一定的免責(zé)規(guī)則?!?/p>

在訓(xùn)練數(shù)據(jù)方面,《意見稿》對預(yù)訓(xùn)練數(shù)據(jù)提出了更多的要求,要求保證訓(xùn)練數(shù)據(jù)的“真實性、準確性、客觀性、多樣性”。

清華大學(xué)中國發(fā)展規(guī)劃研究院執(zhí)行副院長董煜指出,大模型離不開數(shù)據(jù)的訓(xùn)練,如果對于訓(xùn)練數(shù)據(jù)作出過于嚴苛的規(guī)定,將阻礙大模型的發(fā)展速度。數(shù)據(jù)訓(xùn)練的規(guī)模會決定人工智能生成內(nèi)容的質(zhì)量,數(shù)據(jù)的數(shù)量和質(zhì)量比算法和模型更重要,美國可以做出ChatGPT,很大程度上在于美國對于全世界數(shù)據(jù)的收集和掌握。從歐盟、美國、韓國、日本等國家針對預(yù)訓(xùn)練數(shù)據(jù)合法性的要求來看,為了支持大模型的發(fā)展,他們允許使用各種出版物對生成式人工智能訓(xùn)練數(shù)據(jù)進行分析。因此,如果由于真實性、版權(quán)等問題無法使用相關(guān)訓(xùn)練數(shù)據(jù),將對人工智能技術(shù)發(fā)展帶來很大的負面影響。

有學(xué)者提出,要求提供者保證訓(xùn)練數(shù)據(jù)的“真實性、準確性、客觀性、多樣性”,并不具有可操作性。訓(xùn)練數(shù)據(jù)來源非常復(fù)雜,且在大規(guī)模訓(xùn)練中才可能發(fā)揮作用,如果在使用訓(xùn)練數(shù)據(jù)前,先要審核一遍合法性,確實非常難以執(zhí)行。對于訓(xùn)練數(shù)據(jù)中是否包含侵犯知識產(chǎn)權(quán)的內(nèi)容的情況界定,存在很多模糊地帶,往往需要法院經(jīng)過專業(yè)判斷才能識別出來。同樣,“征得個人信息主體的同意”,也不具有可操作性。因為個人信息的范圍極其大,僅就排除“姓名”這一項個人信息而言就無法實施。姓名在模型訓(xùn)練中很難篩選出來,操作的難度很大。

此外,《意見稿》第十五條規(guī)定“對于運行中發(fā)現(xiàn)、用戶舉報的不符合本辦法要求的生成內(nèi)容,除采取內(nèi)容過濾等措施外,應(yīng)在3個月內(nèi)通過模型優(yōu)化訓(xùn)練等方式防止再次生成”。在當(dāng)前的社會和科技環(huán)境下,大型語言模型的參數(shù)規(guī)模在到達一個臨界值后,涌現(xiàn)能力變得越來越強。即使是OpenAI這樣的團隊,也很難解釋這樣的涌現(xiàn)現(xiàn)象。在這種情況下,人工智能基座大模型生成的內(nèi)容往往是難以精確預(yù)測和控制的,這是生成式人工智能方法的固有缺陷之一。

因此,清華大學(xué)人工智能研究院視覺智能研究中心主任鄧志東教授提出,“通過模型優(yōu)化訓(xùn)練的方式防止再次生成侵權(quán)內(nèi)容,在技術(shù)上非常難以實現(xiàn),而利用價值對齊的算法采取內(nèi)容過濾等措施或可實現(xiàn)。如果要求生成式人工智能產(chǎn)品服務(wù)提供方在收到侵權(quán)問題反饋時,第一時間過濾侵權(quán)內(nèi)容,并通過模型優(yōu)化訓(xùn)練,實際上是非常困難的,人工智能立法應(yīng)當(dāng)在智能涌現(xiàn)能力和安全性中找到平衡”。

責(zé)編:王碩

聯(lián)系我們 | 誠聘英才 | 廣告征訂 | 本站公告 | 法律聲明 | 報紙訂閱

版權(quán)所有 Copyrights ? 2014-2023 helpmore.com.cn ALL RIGHTS Reserved 《法治周末》

京ICP備10019071號-1 京報出證字第0143號

京公網(wǎng)安備 11010502038778號