中央政法委機(jī)關(guān)報(bào)法治日報(bào)社主辦

您所在的位置:首頁  > 互聯(lián)網(wǎng)事

利用AI造謠,服務(wù)提供者是否需要承擔(dān)責(zé)任?

2024-01-25 11:09:08 來源:法治日報(bào)·法治周末

《法治周末》記者 王京仔

四川公安查處2起利用AI文章生成軟件編造、傳播網(wǎng)絡(luò)謠言典型案例,重慶公布5起網(wǎng)絡(luò)謠言典型案件,2起利用AI生成文章造謠……近日,多地警方查處了一批利用AI編造謠言的案例。

隨著人工智能技術(shù)的發(fā)展,一些人為賺取流量,利用大模型等AI平臺(tái)或工具很容易就能生成虛假的文字、圖片甚至音視頻,極易制造網(wǎng)絡(luò)謠言。而這類利用AI生成內(nèi)容編造的謠言,打破了人們“有圖有真相”“眼見為實(shí)”的認(rèn)知,使得謠言更加難辨真?zhèn)巍?/p>

那么,利用AI生產(chǎn)的內(nèi)容是“原創(chuàng)”嗎?其生產(chǎn)內(nèi)容的版權(quán)歸屬誰?生成內(nèi)容被用作造謠,AI服務(wù)提供者需要承擔(dān)法律責(zé)任嗎?

利用AI造謠事件頻發(fā)

“未來兩年時(shí)間內(nèi),虛假或錯(cuò)誤信息將對全球構(gòu)成重大威脅。”近日,世界經(jīng)濟(jì)論壇公布的《2024年全球風(fēng)險(xiǎn)報(bào)告》指出,由AI產(chǎn)生的錯(cuò)誤和虛假信息正在成為一種風(fēng)險(xiǎn)。

對于這種風(fēng)險(xiǎn)的擔(dān)憂來自現(xiàn)實(shí),利用AI編造謠言的情況正在全球上演,我國也不例外。

2023年12月20日,一篇題為《12歲女生被8人輪流扇耳光3小時(shí),致耳膜穿孔》的文章發(fā)布在某平臺(tái),引發(fā)大量網(wǎng)民關(guān)注,也引起四川省德陽市羅江區(qū)警方關(guān)注。隨后,有網(wǎng)友舉報(bào)該文為虛假信息,幾小時(shí)后該文章被平臺(tái)下架。兩天后,羅江警方找到了始作俑者劉某群。

劉某群為了博取流量,獲得平臺(tái)瀏覽獎(jiǎng)勵(lì),將2023年12月實(shí)際發(fā)生在江西某地已被處理的“校園霸凌事件”截取相關(guān)圖片后,利用AI小程序自動(dòng)編輯功能,嫁接為發(fā)生在德陽某學(xué)校的“校園霸凌”虛假信息,制作了上述文章進(jìn)行發(fā)布。目前,德陽公安已經(jīng)依據(jù)治安管理處罰法對劉某群進(jìn)行行政處罰,并對其造謠賬號(hào)采取關(guān)停措施。

這樣的現(xiàn)象,出現(xiàn)在全國多地。據(jù)《法治周末》記者不完全統(tǒng)計(jì),自去年年末以來,就有四川、重慶、河南、江西、福建等地警方查處了一批利用AI工具編造謠言的案件;而在此前,還有山東、江蘇、浙江、湖南、甘肅等多地警方也查處過相關(guān)案件。

北京嘉濰律師事務(wù)所律師趙占領(lǐng)向記者表示,“AI造假”問題確實(shí)正在成為網(wǎng)絡(luò)環(huán)境發(fā)展和治理的一大風(fēng)險(xiǎn)。

AI生成內(nèi)容的版權(quán)歸屬

為了流量和利益制造網(wǎng)絡(luò)謠言,已經(jīng)成為互聯(lián)網(wǎng)的一大“毒瘤”。但AI技術(shù)的發(fā)展,使得這些“有心人”編造謠言變得更容易。通過各種AI工具,他們就能輕易甚至一鍵生成想要的虛假文字、圖片、音視頻。

那這些利用AI生成的內(nèi)容受到著作權(quán)法的保護(hù)嗎?其版權(quán)歸屬于誰?

2023年,北京互聯(lián)網(wǎng)法院對全國首例AI生成圖片著作權(quán)案,作出一審判決,對于我國人工智能產(chǎn)業(yè)發(fā)展具有積極意義。

李某認(rèn)為劉某未經(jīng)其許可使用涉案圖片,且截去了自己的署名水印,嚴(yán)重侵害了其享有的署名權(quán)及信息網(wǎng)絡(luò)傳播權(quán)。北京互聯(lián)網(wǎng)法院認(rèn)定,李某在涉案圖片生成過程中,通過設(shè)計(jì)提示詞、設(shè)置參數(shù)的方式對生成圖片的畫面元素和畫面布局進(jìn)行具有個(gè)性化的選擇和安排,能夠體現(xiàn)出原告的獨(dú)創(chuàng)性智力投入,享有涉案圖片的著作權(quán)。劉某的行為侵害了署名權(quán)和信息網(wǎng)絡(luò)傳播權(quán),判決其賠禮道歉并賠償原告經(jīng)濟(jì)損失500元。一審宣判后,雙方均未上訴。

中國社會(huì)科學(xué)院大學(xué)互聯(lián)網(wǎng)法治研究中心執(zhí)行主任劉曉春告訴記者,根據(jù)上述一審判決,如果在使用AI工具生成圖片等內(nèi)容的過程中,人有相應(yīng)的自主選擇,包括在操作AI工具過程中人特定的智力投入,也可以認(rèn)定是獨(dú)創(chuàng)性,使用者從而對生成的作品主張版權(quán)。

“很多學(xué)者有不同觀點(diǎn),認(rèn)為實(shí)質(zhì)上生成內(nèi)容是AI完成的,人只是給了一些指令。”劉曉春直言,對于AI生成內(nèi)容的版權(quán)問題,目前還存在較大爭議,并無定論。

在劉曉春看來,使用者在指令過程中獨(dú)創(chuàng)性生成的內(nèi)容,獲得著作權(quán)法上的保護(hù)沒有太大障礙。但她強(qiáng)調(diào),如果人的投入不足以構(gòu)成一個(gè)創(chuàng)作的構(gòu)成部分的話,沒有明顯的智力過程,那這部分AI生成的內(nèi)容不應(yīng)該受到著作權(quán)法的保護(hù),例如,一兩條簡單指令就生成的圖片等。

服務(wù)提供者對內(nèi)容的義務(wù)和責(zé)任

“AI造假”使得網(wǎng)絡(luò)謠言更加難辨真假,那么,AI服務(wù)提供者對于生成內(nèi)容的真實(shí)性是否負(fù)有義務(wù)?如果相關(guān)內(nèi)容被用作造謠,提供者是否承擔(dān)責(zé)任?

2023年1月正式實(shí)施的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》(以下簡稱《規(guī)定》)明確,深度合成服務(wù)提供者對使用其服務(wù)生成或者編輯的信息內(nèi)容,應(yīng)當(dāng)采取技術(shù)措施添加不影響用戶使用的標(biāo)識(shí),并依照法律、行政法規(guī)和國家有關(guān)規(guī)定保存日志信息;深度合成服務(wù)提供者提供智能對話、智能寫作等模擬自然人進(jìn)行文本的生成或者編輯,合成人聲、仿聲等語音生成或者顯著改變個(gè)人身份特征的編輯,人臉生成、人臉替換、人臉操控、姿態(tài)操控等人物圖像、視頻生成或者顯著改變個(gè)人身份特征的編輯等深度合成服務(wù)時(shí),可能導(dǎo)致公眾混淆或者誤認(rèn)的,應(yīng)當(dāng)在生成或者編輯信息內(nèi)容的合理位置、區(qū)域進(jìn)行顯著標(biāo)識(shí),向公眾提示深度合成情況。

同年8月施行的《生成式人工智能服務(wù)管理暫行辦法》(以下簡稱《辦法》)也規(guī)定,提供者應(yīng)當(dāng)按照《規(guī)定》對圖片、視頻等生成內(nèi)容進(jìn)行標(biāo)識(shí)。

劉曉春表示,法律上AI服務(wù)的提供者有對生成內(nèi)容進(jìn)行標(biāo)識(shí)的要求,我國也正在抓緊進(jìn)行相應(yīng)的執(zhí)法、標(biāo)準(zhǔn)等配套工作。國家從技術(shù)規(guī)范方式做好標(biāo)識(shí)要求,實(shí)際上一定程度能從源頭上防止造假、謠言問題。對于有風(fēng)險(xiǎn)的一些合成,人工智能的提供商有責(zé)任去強(qiáng)制進(jìn)行顯性標(biāo)識(shí)。對于平臺(tái)而言,如果明知是虛假內(nèi)容、謠言還去傳播或縱容傳播,肯定要承擔(dān)相應(yīng)的責(zé)任;如果是在不知道或沒有辦法明確知道的情況下,出現(xiàn)了舉報(bào)或有理由能夠發(fā)現(xiàn)這是合成內(nèi)容的情況下,也需要采取相應(yīng)的措施。

趙占領(lǐng)也指出,人工智能服務(wù)提供者除了標(biāo)識(shí)的基本義務(wù)以外,提供者包括AI平臺(tái)經(jīng)營者發(fā)現(xiàn)違法或侵犯他人權(quán)益內(nèi)容,也應(yīng)當(dāng)采取停止生成、停止傳輸、消除等處置措施,同時(shí)采取優(yōu)化訓(xùn)練等措施去整改,并向有關(guān)部門進(jìn)行報(bào)告。若提供者已經(jīng)盡到標(biāo)識(shí)義務(wù),使用者利用其他技術(shù)手段消除標(biāo)識(shí),對生成內(nèi)容進(jìn)行傳播誤導(dǎo)了公眾或損害了他人合法權(quán)益,則提供者或平臺(tái)就沒有責(zé)任了,主要是使用者責(zé)任。

同時(shí),《辦法》規(guī)定,“提供者應(yīng)當(dāng)依法承擔(dān)網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任,履行網(wǎng)絡(luò)信息安全義務(wù)”。趙占領(lǐng)認(rèn)為,《辦法》雖然沒有明確說明提供者、經(jīng)營者必須保證生成結(jié)果的真實(shí)性、合法性,但規(guī)定了AI工具的提供者要對內(nèi)容承擔(dān)生產(chǎn)者責(zé)任,這意味著,如果生成的內(nèi)容不真實(shí)或者侵犯他人合法權(quán)益,提供者本身需要承擔(dān)相應(yīng)的責(zé)任。

在趙占領(lǐng)看來,對人工智能服務(wù)提供者要求網(wǎng)絡(luò)信息內(nèi)容生產(chǎn)者責(zé)任是較為嚴(yán)格且籠統(tǒng)的,未來需要進(jìn)一步對政策進(jìn)行細(xì)化,不宜把所有內(nèi)容都讓其承擔(dān)生產(chǎn)者責(zé)任。例如,縮小提供者的責(zé)任范圍,明確在哪些情況下對于內(nèi)容負(fù)有相應(yīng)責(zé)任。因?yàn)樵诂F(xiàn)有技術(shù)條件下,即使ChatGPT也很難完全做到生產(chǎn)的內(nèi)容真實(shí)、準(zhǔn)確、合法。

“規(guī)定太嚴(yán)技術(shù)上做不到,規(guī)定寬松容易生產(chǎn)虛假、違法內(nèi)容,這是一個(gè)兩難的問題;同時(shí),生產(chǎn)內(nèi)容在脫離了平臺(tái)控制能力范圍外,如何進(jìn)行識(shí)別、監(jiān)管也是一個(gè)難題?!壁w占領(lǐng)直言,短期內(nèi)很難解決這些難題,需要依靠技術(shù)和產(chǎn)業(yè)不斷發(fā)展,監(jiān)管逐步去摸索相應(yīng)措施,再去完善相關(guān)規(guī)定。

責(zé)編:仇飛

聯(lián)系我們 | 誠聘英才 | 廣告征訂 | 本站公告 | 法律聲明 | 報(bào)紙訂閱

版權(quán)所有 Copyrights ? 2014-2024 helpmore.com.cn ALL RIGHTS Reserved 《法治周末》

京ICP備10019071號(hào)-1 京報(bào)出證字第0143號(hào)

京公網(wǎng)安備 11010502038778號(hào)