中央政法委機關報法治日報社主辦

您所在的位置:首頁  > 法治中國

人工智能產(chǎn)業(yè)發(fā)展的合規(guī)風險

2024-07-11 11:03:59 來源:法治日報·法治周末

伴隨人工智能產(chǎn)業(yè)發(fā)展而來的刑事合規(guī)風險,有因人工智能企業(yè)內(nèi)部員工“內(nèi)鬼”造成計算機信息系統(tǒng)安全風險,也有因生成式人工智能數(shù)據(jù)投喂造成的個人信息泄露、知識產(chǎn)權風險,更有甚者利用AI產(chǎn)品當作犯罪工具

《法治周末》記者 孟偉

在當今科技浪潮的推動下,人工智能產(chǎn)業(yè)的市場規(guī)模持續(xù)擴大,為社會帶來了前所未有的變革和機遇,越來越多的企業(yè)紛紛投入大量資源進行研發(fā),推動了技術的不斷創(chuàng)新和突破。然而,伴隨其蓬勃發(fā)展,一系列合規(guī)風險也逐漸浮出水面,值得我們高度關注。

前不久,在“2024全球數(shù)字經(jīng)濟大會”人工智能產(chǎn)業(yè)發(fā)展與知識產(chǎn)權保護專題論壇上,北京市人民檢察院副檢察長祁治國發(fā)布了《關于人工智能產(chǎn)業(yè)發(fā)展刑事合規(guī)風險提示》(以下簡稱《風險提示》)。這些問題的產(chǎn)生有因人工智能企業(yè)內(nèi)部員工“內(nèi)鬼”造成計算機信息系統(tǒng)安全風險,也有因生成式人工智能數(shù)據(jù)投喂造成的個人信息泄露、知識產(chǎn)權風險,更有甚者利用AI產(chǎn)品當作犯罪工具。

海量訓練數(shù)據(jù)面臨隱私保護、著作權保護風險

生成式人工智能模型想要達到理想的訓練效果,一般需要海量的訓練素材作為支撐,這些素材除了公共信息外,可能涉及公民個人信息或受到版權保護的作品數(shù)據(jù)。在AI訓練階段使用數(shù)據(jù)的合法性就可能存在風險。

此次發(fā)布的《風險提示》中,祁治國就提到一則相關事例。某科技公司數(shù)據(jù)分析師為改進公司用于身份識別相關的人工智能模型算法時,非法購買含有姓名、住址、聯(lián)系方式等公民個人信息。祁治國表示,該案涉及公民個人信息保護風險。

這類風險在生成式人工智能領域中早已存在。

2023年6月,OpenAI(美國人工智能研究公司)就曾遭到一批匿名人士起訴,稱OpenAI從互聯(lián)網(wǎng)上竊取了3000億個單詞,它們來自“書籍、文章、網(wǎng)站和帖子——包括未經(jīng)同意獲得的個人信息”。同年12月,美國報業(yè)巨頭《紐約時報》向OpenAI及其投資人微軟公司提起侵犯版權訴訟,指控這兩家機構未經(jīng)許可就采集該報數(shù)百萬篇文章以訓練人工智能。

中國政法大學數(shù)據(jù)法治研究院教授、聯(lián)合國高級別人工智能咨詢機構中方專家張凌寒在接受《法治周末》記者采訪時表示,一些公司和個人對隱私保護的法律法規(guī)不夠重視,或者對相關法律規(guī)定不夠了解,導致違法行為的發(fā)生,“人工智能模型尤其是身份識別相關的模型需要大量的高質(zhì)量數(shù)據(jù)進行訓練和優(yōu)化。為了提高模型的準確性和實用性,開發(fā)者往往需要多樣化和大量的個人信息數(shù)據(jù)。合法途徑獲取大量高質(zhì)量的個人信息數(shù)據(jù)成本高、難度大。例如,數(shù)據(jù)的合法獲取需要滿足隱私保護法規(guī)的要求,可能需要獲得數(shù)據(jù)主體的同意,還需要支付相應的費用。數(shù)據(jù)分析師和相關開發(fā)人員可能受到業(yè)績壓力和商業(yè)利益的驅(qū)動,選擇鋌而走險非法獲取數(shù)據(jù),以快速改進模型性能”。

北京航空航天大學法學院教授裴煒告訴記者,“訓練人工智能需要海量的數(shù)據(jù)進行投喂,人工智能企業(yè)獲得外部數(shù)據(jù)一般需要通過合作協(xié)議、授權等方式正規(guī)獲取,但更多可能是通過一些權屬不明,甚至是違法的方式去獲取數(shù)據(jù)”。

裴煒稱:“隨便將個人信息拿去做模型訓練可能會對公民個人信息產(chǎn)生一定的侵犯,如果數(shù)量比較大也會落入刑法的相應的保護范圍之內(nèi)。”

北京盈科(上海)律師事務所數(shù)智化建設委員會副主任李悅告訴記者:“為保障生成式人工智能服務的安全,我國發(fā)布了《生成式人工智能服務安全基本要求》,其中對語料的來源、內(nèi)容、標注等方面進行規(guī)定,確保語料不包含違法不良信息,且在使用包含個人信息的語料時需獲得對應個人的同意?!?/p>

張凌寒建議:“公司和員工應加強對相關法律法規(guī)的學習,增強法律意識,確保數(shù)據(jù)處理的合法合規(guī)性。建立合規(guī)機制。公司應建立完善的合規(guī)機制和數(shù)據(jù)處理流程,確保數(shù)據(jù)收集、使用、存儲等環(huán)節(jié)符合法律要求。嚴格審查數(shù)據(jù)來源,確保數(shù)據(jù)的合法性,不從非法渠道獲取數(shù)據(jù)。采用匿名化、去標識化等技術手段,在確保數(shù)據(jù)可用性的同時保護個人隱私。定期開展員工培訓,增強員工的隱私保護意識和合規(guī)操作能力?!?/p>

不法分子利用AI實施犯罪的風險

隨著人工智能技術的不斷突破,AI換臉、AI語音學習技術已經(jīng)逐步成熟,甚至用一部手機花幾分鐘時間就可以實現(xiàn)。便捷的技術也使得一些不法分子動起了歪腦筋。

此次《風險提示》中就包含一起不法分子利用社交軟件收受他人非法提供的、承載人臉信息的不特定女性的照片,再通過深度偽造技術、AI軟件,將不特定女性的照片制作成淫穢物品販賣牟利。

2023年5月24日,中國互聯(lián)網(wǎng)協(xié)會發(fā)文提示“AI換臉”新騙局,利用“AI換臉”“AI換聲”等虛假音視頻,進行詐騙、誹謗的違法行為屢見不鮮。

2023年8月,浙江省杭州市蕭山區(qū)人民檢察院訴虞某某個人信息保護民事公益訴訟案(以下簡稱虞某某案)中,被告通過互聯(lián)網(wǎng)學習掌握“AI換臉”軟件使用方法后,于2021年至2022年8月間,利用“AI換臉”軟件,將從互聯(lián)網(wǎng)等渠道收集到的被不特定人臉信息與部分淫穢視頻中的主體人臉信息進行替換合成,制作生成的偽造視頻、圖片,并創(chuàng)建了多個社交群組發(fā)布大量淫穢視頻、圖片。甚至還提供換臉視頻定制服務,根據(jù)客戶提供的他人面部視頻或照片素材及要求,制作換臉視頻,從中收取出售費、服務費等6萬余元,侵害不特定人群的個人信息權益。

張凌寒介紹:“AI根據(jù)真人照片制作淫穢物品屬于深度偽造。深度偽造是一種能夠?qū)⑷说拿娌勘砬楹吐曇襞c另一個人的圖像和聲音結合起來,從而創(chuàng)造出虛假的視頻或音頻的人工智能技術。深度偽造風險必然隨著人工智能技術的發(fā)展而出現(xiàn),人工智能技術越先進,生成物越接近用戶的設想。人工智能模型降低了文字、圖像、聲音、視頻等的形成和傳播門檻,很容易被用作詐騙、誣陷造謠、制作淫穢物品等違法犯罪活動?!?/p>

華南理工大學法學院副教授葉竹盛表示,“偽造不特定女性的淫穢物品進行傳播,對不特定女性的名譽、人格尊嚴以虛構事實的方式進行貶損,甚至可能涉及侮辱罪或者網(wǎng)絡尋釁滋事罪”。

葉竹盛指出:“對于既可以服務于合法的目的,也有可能會被濫用實施違法犯罪的行為的人工智能模型、產(chǎn)品,開發(fā)企業(yè)應當識別,監(jiān)測和禁止用于違法犯罪目的的行為。如果企業(yè)沒有盡到合規(guī)義務的話,相應所產(chǎn)生的違法犯罪的責任與后果,企業(yè)就有可能要承擔共犯的責任,或者刑事責任?!?/p>

裴煒坦言:“人工智能極有可能會被犯罪分子利用成為犯罪工具,在法律層面應該明確合理使用的范圍,避免人工智能的濫用?!蓖瑫r,她還提出,人工智能也有可能被當作新的犯罪目標,被投喂污染的數(shù)據(jù),對人工智能技術產(chǎn)出進行干擾,使它的技術可靠性存疑影響到后續(xù)的應用。對此類情況,法律應有相應的保護,對攻擊人工智能的行為予以制裁。

張凌寒強調(diào):“人工智能企業(yè)不僅需要履行網(wǎng)絡信息安全義務,對其所開發(fā)應用生成內(nèi)容的合法合規(guī)性負責,還需對其在提供業(yè)務過程中發(fā)現(xiàn)的違法內(nèi)容及時采取措施切斷傳播,并向有關主管部門報告。因此,在現(xiàn)有的技術水平之下,服務提供者應當盡最大可能預見到生成式人工智能可能引發(fā)的危害結果,并采取相應的反制措施,阻止危害結果的發(fā)生?!?/p>

李悅表示,為避免人工智能產(chǎn)品被不法分子利用后被追究刑事責任,開發(fā)此類產(chǎn)品的人工智能企業(yè)要對自己進行先行保護,“除了加強審核外,還要進行算法備案或大模型備案?!痘ヂ?lián)網(wǎng)信息服務深度合成管理規(guī)定》中有明確要求算法備案,要提交敏感詞屏蔽清單,如果后期發(fā)現(xiàn)有他人利用該產(chǎn)品進行涉黃等行為,企業(yè)可以以此減輕部分風險”。

“內(nèi)鬼”給企業(yè)造成風險

人工智能企業(yè)員工的行為,也會給企業(yè)帶來數(shù)據(jù)安全問題。

《風險提示》發(fā)布了這樣一起案例:某人工智能企業(yè)服務運維管理人員利用企業(yè)服務器算力資源優(yōu)勢和工作便利,在未經(jīng)授權的情況下,在100多臺服務器上安裝“挖礦”程序,通過占用、消耗服務器算力資源獲取比特幣等虛擬貨幣,嚴重影響企業(yè)正常經(jīng)營。

張凌寒告訴記者,“這種利用‘挖礦’行為會消耗大量計算資源,使系統(tǒng)、軟件、應用服務運行緩慢,個人電腦或服務器一旦被‘挖礦’程序控制,則會造成數(shù)據(jù)泄露或感染病毒,容易引發(fā)網(wǎng)絡安全問題”。

《風險提示》中還有一起涉及商業(yè)秘密和著作權的保護事例:某數(shù)據(jù)科技公司員工離職后,未經(jīng)公司許可擅自在與原公司有競爭的新公司使用原公司人工智能芯片軟件,在對軟件升級改造后用于經(jīng)營。

記者了解到,2023年年底,上海警方偵破了一起侵犯芯片技術商業(yè)秘密案。2021年2月,某科技公司原高管張某、劉某等人為牟取非法利益,在離職后設立某某科技公司。隨后,上述張某、劉某以支付高薪、股權利誘等方式,誘導多名原權利公司研發(fā)人員跳槽至其公司,并指使這些人員在離職前通過摘抄、截屏等方式非法獲取某公司芯片技術信息。這些芯片技術信息隨后被抄襲、運用于張某公司設計的同類型芯片上,嫌疑人和涉案公司企圖以此非法牟利。經(jīng)鑒定,侵權芯片技術有40個技術點、權利公司商業(yè)秘密的密點之間具有90%以上同一性,構成實質(zhì)性相同。

2023年4月19日,張某、劉某等4名主要犯罪嫌疑人已因涉嫌侵犯商業(yè)秘密罪被警方依法執(zhí)行逮捕,其余10名犯罪嫌疑人已被依法取保候?qū)彙?/p>

葉竹盛表示:“在實踐中此類行為經(jīng)常發(fā)生,但侵犯商業(yè)秘密罪在辦理過程中有較大的舉證難度,此類案件的辦案量并不大?!?/p>

裴煒將這種行為稱為“內(nèi)鬼”,這些涉及內(nèi)部員工違規(guī)、違法使用人工智能企業(yè)涉及知識產(chǎn)權、個人信息方面的資產(chǎn)所產(chǎn)生的違法行為還是比較普遍的。在此類情況中,企業(yè)的權益受到了不當侵害,也是受害方。

從企業(yè)防范內(nèi)部工作人員實施違法犯罪行為的角度來看,裴煒建議:“企業(yè)要建立內(nèi)部保護機制。在以往的司法案例中,此類情況需要企業(yè)論證自己的人工智能技術是否受到商業(yè)秘密的保護,并采取了有效的保密措施,因此進行有效的內(nèi)部管控尤為重要。”

責編:戴蕾蕾

聯(lián)系我們 | 誠聘英才 | 廣告征訂 | 本站公告 | 法律聲明 | 報紙訂閱

版權所有 Copyrights ? 2014-2023 helpmore.com.cn ALL RIGHTS Reserved 《法治周末》

京ICP備10019071號-1 京報出證字第0143號

京公網(wǎng)安備 11010502038778號