人工智能的發(fā)展,與知識產(chǎn)權(quán)發(fā)生著緊密的關(guān)系。圖為今年上海舉行的世界人工智能大會中主題為“交響”的AIGC藝術(shù)展。 資料照片
我國目前的生成式人工智能技術(shù)創(chuàng)新還處在初級階段,法律法規(guī)的制定應當給科技創(chuàng)新留有一定的發(fā)展空間,對產(chǎn)品在研發(fā)階段的數(shù)據(jù)合法性要求,應當根據(jù)數(shù)據(jù)類型和基本倫理要求,采取開放包容的規(guī)范原則。解決生成式人工智能所涉及的知識產(chǎn)權(quán)難題,需要使用多種制度工具,建立多元化解決機制,打造一套綜合性解決方案。
生成式人工智能數(shù)據(jù)合法性
成為焦點問題
近期國家互聯(lián)網(wǎng)信息辦公室發(fā)布的《生成式人工智能服務管理暫行辦法》(下稱《辦法》)第七條規(guī)定:“生成式人工智能服務提供者應當依法開展預訓練、優(yōu)化訓練等訓練數(shù)據(jù)處理活動,使用具有合法來源的數(shù)據(jù)和基礎模型;不得侵害他人依法享有的知識產(chǎn)權(quán);涉及個人信息的,應當取得個人同意或者符合法律、行政法規(guī)規(guī)定的其他情形;……”該條款的主要目的是規(guī)范生成式人工智能服務提供者數(shù)據(jù)來源的合法性問題,這也是當前全球范圍內(nèi)生成式人工智能數(shù)據(jù)合法性的焦點問題。
數(shù)據(jù)來源合法性是生成式人工智能產(chǎn)品合規(guī)的必要條件,若數(shù)據(jù)來源不合法不合規(guī),該產(chǎn)品將無法進入市場應用階段。但是,如果在生成式人工智能研發(fā)階段就嚴格執(zhí)行合法性標準,就會限制大數(shù)據(jù)的廣泛采集,阻礙研發(fā)進程,影響高品質(zhì)、高智能產(chǎn)品的誕生。所以,《辦法》第三條也提出了“堅持發(fā)展和安全并重、促進創(chuàng)新和依法治理相結(jié)合的原則,采取有效措施鼓勵生成式人工智能創(chuàng)新發(fā)展,對生成式人工智能服務實行包容審慎和分類分級監(jiān)管”的基本原則。
我國要在生成式人工智能這一領域有所突破創(chuàng)新,一定要有相對寬松的法律政策環(huán)境和技術(shù)生態(tài)建設,吸取傳統(tǒng)信息產(chǎn)業(yè)領域軟件和芯片技術(shù)“受制于人”窘境的教訓,利用我國獨有的數(shù)據(jù)紅利以及政策環(huán)境,快速形成自主可控的生成式人工智能基礎技術(shù)體系。
生成式人工智能所涉及的
知識產(chǎn)權(quán)風險
生成式人工智能數(shù)據(jù)訓練的需求,體現(xiàn)在數(shù)據(jù)數(shù)量、多樣性、質(zhì)量、領域特定性、多模態(tài)性、實時性、長期演進性、平衡性、合規(guī)性以及多語言性等方面。滿足這些需求,可以幫助生成式人工智能模型更好地適應各種場景和任務,提高其性能和可應用性。
生成式人工智能的數(shù)據(jù)來源合法性,主要是指生成式人工智能收集的數(shù)據(jù)是否以合法、正當?shù)姆绞饺〉?,是否無損數(shù)據(jù)權(quán)益人的權(quán)益,是否取得相關(guān)知識產(chǎn)權(quán)所有者的同意,在處理個人信息時是否取得了個人信息主體或其他數(shù)據(jù)權(quán)利人的同意等。
生成式人工智能的數(shù)據(jù)來源主要分為兩個部分:第一部分為生成式人工智能的訓練數(shù)據(jù)庫,內(nèi)容幾乎涵蓋所有能收集到的人類數(shù)字化信息,包括公共數(shù)據(jù)、網(wǎng)絡信息(文本、圖片、音視頻)、數(shù)字化圖書、自媒體對話數(shù)據(jù)集、報刊雜志、科學論文等;第二部分為生成式人工智能在服務用戶的過程中所收集和輸出的信息,也就是人工智能合成數(shù)據(jù)。第一部分的數(shù)據(jù)收集往往可能遭遇知識產(chǎn)權(quán)瓶頸;第二部分的數(shù)據(jù)收集的傳統(tǒng)知識產(chǎn)權(quán)風險較少。
數(shù)據(jù)庫訓練的不同來源有不同的知識產(chǎn)權(quán)法律風險,可歸納為以下三個方面:一是來自于公有領域的內(nèi)容,本身已經(jīng)不存在著作權(quán)財產(chǎn)權(quán)保護問題,但會涉及署名權(quán)、修改權(quán)等人身權(quán)問題;二是通過與著作權(quán)人一對一簽訂授權(quán)協(xié)議或者通過著作權(quán)集體管理機構(gòu)合法授權(quán)獲得的內(nèi)容,但這部分內(nèi)容通常也難以做到百分百的準確授權(quán);三是利用“爬蟲”技術(shù)爬取的網(wǎng)絡信息,這也是生成式人工智能技術(shù)最常用的數(shù)據(jù)收集手段,其爬取的內(nèi)容受網(wǎng)絡爬蟲協(xié)議條款約束,應視其具體使用目的和對象判斷是否合法,若出于商業(yè)產(chǎn)品開發(fā)使用目的,一般會受到限制。
在訓練數(shù)據(jù)庫的輸入階段和輸出階段,最大的著作權(quán)侵權(quán)風險是侵犯復制權(quán)和改編權(quán)。在輸入階段,如果將大量受著作權(quán)保護的作品用來訓練人工智能,這本身看似出于學習目的,實則最終服務于商業(yè)目的,很難使用現(xiàn)有的著作權(quán)合理使用制度規(guī)避侵權(quán)責任。在輸出階段,如果生成的內(nèi)容與原作品在表達上構(gòu)成實質(zhì)性相似,則可能侵犯復制權(quán);如果在保留原作品表達的基礎上形成了新的表達,則可能涉及改編權(quán)問題。
美國對人工智能研發(fā)過程中的知識產(chǎn)權(quán)問題,目前采取相對統(tǒng)一的價值指導和原則性規(guī)定予以處理,尚未出臺具體規(guī)范。出于推動人工智能創(chuàng)新、審慎立法、防止法律與技術(shù)進步脫節(jié)等考量,美國對人工智能的規(guī)制采取“先產(chǎn)業(yè)發(fā)展后立法”模式,即在AI研發(fā)過程中不提及版權(quán),而是依賴于社會輿論、企業(yè)自覺、司法和行政系統(tǒng)的事后回應來解決知識產(chǎn)權(quán)爭議。2023年7月,美國七大AI企業(yè)與拜登政府簽署協(xié)議,承諾采取自愿監(jiān)管措施管理AI技術(shù)開發(fā)的法律風險,包括展開安全測試、為AI生成內(nèi)容添加數(shù)字水印、制定透明的隱私與知識產(chǎn)權(quán)保護政策等。
多元化解決生成式人工智能的
知識產(chǎn)權(quán)難題
解決生成式人工智能所涉及的知識產(chǎn)權(quán)難題,需要使用多種制度工具,建立多元化解決機制,打造一套綜合性解決方案。
借用早期互聯(lián)網(wǎng)治理規(guī)則
生成式人工智能的發(fā)展可類比互聯(lián)網(wǎng)治理,引入類似合理使用原則、避風港機制等規(guī)則。
合理使用原則:擴展著作權(quán)法中的合理使用原則,明確生成式人工智能在數(shù)據(jù)訓練和輸出過程中的合理使用標準。鼓勵AI開發(fā)者在使用受版權(quán)保護的數(shù)據(jù)時,使其行為符合合理使用的要求,如非商業(yè)性用途、適度復制、不侵犯原作品的市場價值等。美國《版權(quán)法》采用“四要素分析法”來判斷合理使用,把人工智能使用作品解釋為訓練數(shù)據(jù)的“轉(zhuǎn)換性使用”,美國的司法實踐已經(jīng)作了探討。我國《著作權(quán)法》規(guī)定了“個人使用”、“適當引用”和“科學研究”等合理使用情形,但目前生成式人工智能的商業(yè)性應用難以符合這些規(guī)定。此外,還可適當擴展爬蟲技術(shù)使用的合理性,特別是對公開的網(wǎng)絡信息內(nèi)容,只要其屬于通過搜索爬蟲、在遵守爬蟲協(xié)議的前提下獲取的數(shù)據(jù),則均可視為來源合法的數(shù)據(jù)。在這個過程中,爬蟲技術(shù)無法識別被抓取內(nèi)容的著作權(quán)問題,事實上,爬蟲海量抓取時也無法逐一獲得版權(quán)授權(quán)(類似搜索引擎)。如果事后有權(quán)利人主張權(quán)利,可再根據(jù)具體情景判定善意侵權(quán)責任。
避風港機制:避風港機制建立在網(wǎng)絡服務提供商和內(nèi)容平臺與用戶之間共同承擔責任的基礎上。類比到生成式人工智能領域,可以探索建立AI開發(fā)者與用戶之間的責任分擔機制。避風港機制要求網(wǎng)絡服務提供商和內(nèi)容平臺主動采取措施來監(jiān)測和清除違法內(nèi)容。在生成式人工智能的發(fā)展中,開發(fā)者應當建立有效的自我監(jiān)管機制,定期自查模型的輸出內(nèi)容,以確保符合合規(guī)要求。類似避風港的投訴處理機制也可以在生成式人工智能的領域內(nèi)建立。允許用戶和權(quán)利人向AI開發(fā)者提出投訴,并及時處理和回應投訴,有助于解決潛在的違法和侵權(quán)問題。避風港機制還要求網(wǎng)絡服務提供商和內(nèi)容平臺公布其對違法內(nèi)容的審核標準和處理措施。在生成式人工智能的發(fā)展中,開發(fā)者應當公開透明地向用戶和社會說明模型輸出內(nèi)容的規(guī)范和審核機制。
通過集體管理組織解決授權(quán)難題
著作權(quán)集體管理是目前法律框架下解決大量權(quán)利許可的一種比較可行的辦法,也是國際通行的做法。我國目前已有音樂、音像、文字、攝影和電影五個著作權(quán)集體管理組織。人工智能研發(fā)機構(gòu)可以通過這些著作權(quán)集體管理組織對特定作品進行著作權(quán)集體授權(quán)。我國《著作權(quán)集體管理條例(修訂草案征求意見稿)》第四條也有提及。
在生成式人工智能訓練數(shù)據(jù)的著作權(quán)授權(quán)過程中,AI開發(fā)者可以通過著作權(quán)集體管理組織獲得某一領域的作品授權(quán),充分發(fā)揮著作權(quán)集體管理的保障效能,減少開發(fā)者的數(shù)據(jù)合法性風險。即使在無法判斷某一作品權(quán)利人是否系著作權(quán)集體管理組織會員的情況下,也可以通過延展代理機制保證權(quán)利人的獲酬機會,表達人工智能服務提供者尊重著作權(quán)的善意。
利用開放授權(quán)的數(shù)據(jù)資源
開放授權(quán)機制源于計算機軟件領域的開源許可證,是一種對世的著作權(quán)開放授權(quán)聲明,通過許可證約定使用者的權(quán)利和義務,目的是打破一對一的低效授權(quán)。在遵循許可證條件的情況下,使用者可以自由、免費地使用和修改作品。這種開放授權(quán)機制后來擴展到文檔、圖片、音視頻領域。知識共享許可協(xié)議(Creative Commons license,簡稱CC協(xié)議)為傳統(tǒng)作品的版權(quán)授權(quán)開辟了一條新路。
開放授權(quán)的共同點是:承認著作權(quán),要求署上原作者或著作權(quán)持有人的姓名,這是授權(quán)最基本的限制;允許免費的私人使用和商業(yè)使用;允許使用者修改及修改后再發(fā)布;免責聲明:原作者或著作權(quán)持有人不承擔作品使用后的風險及產(chǎn)生的后果;終止授權(quán):一旦違反開放授權(quán)條件時,終止一切授權(quán),回歸傳統(tǒng)的知識產(chǎn)權(quán)保護。
以主流的深度學習框架為例,目前,人工智能軟件技術(shù)開發(fā)都使用開源許可證,主要有MIT許可證、BSD許可證、Apache許可證等。訓練數(shù)據(jù)庫也應多使用開源資源,并推動更多科學作品的開放授權(quán),推動生成式人工智能輸出數(shù)據(jù)的開放許可。
利益平衡是我國知識產(chǎn)權(quán)法律體系的一項重要原則。人工智能訓練數(shù)據(jù)合法性問題,本質(zhì)上是個人利益與公共利益沖突的體現(xiàn)。如果缺少利益平衡原則,在利益分成時容易產(chǎn)生分歧。在公共利益方面,公眾受益于智能科技產(chǎn)品服務,由此享受到整體社會福祉的提升。同時,得益于傳統(tǒng)知識產(chǎn)權(quán)體系的保障,創(chuàng)作者能夠獲得足夠的法律保護,其知識產(chǎn)權(quán)價值能夠保持長期穩(wěn)定,知識產(chǎn)權(quán)成果能夠在市場流通賦值。當人工智能時代到來,傳統(tǒng)的知識產(chǎn)權(quán)規(guī)則再一次遇到挑戰(zhàn),必須隨著利益再平衡的需求進行調(diào)整。唯有如此,才能實現(xiàn)《辦法》的發(fā)展目標,推動人機良性互動的社會發(fā)展。
(張平 作者為北京大學法學院教授)
免責聲明:本網(wǎng)轉(zhuǎn)載自其它媒體的文章,目的在于弘揚科技創(chuàng)新精神,傳遞更多科技創(chuàng)新信息,并不代表本網(wǎng)贊同其觀點和對其真實性負責,在此我們謹向原作者和原媒體致以敬意。如果您認為本站文章侵犯了您的版權(quán),請與我們聯(lián)系,我們將第一時間刪除。