ChatGPT之類的生成式人工智能為研究人員和創(chuàng)作者提供了無數(shù)可能性,但也引發(fā)了一些風(fēng)險,比如侵犯版權(quán)的問題。當(dāng)人工智能從網(wǎng)絡(luò)抓取信息來回答用戶的問題時,這些信息實際上屬于其他創(chuàng)作者。這可能給二次使用這些信息的人帶來風(fēng)險。而且,抓取的信息原本可能是不準(zhǔn)確的。今天,我們將探討由人工智能生成的書面內(nèi)容,以及內(nèi)容創(chuàng)作者需要了解的事項。
探索新領(lǐng)域:版權(quán)
一位名叫Daniel Restrepo的律師指出,在知識產(chǎn)權(quán)(IP)和生成式人工智能(generative AI)監(jiān)管方面存在利益沖突,“版權(quán)旨在鼓勵創(chuàng)作者與公眾分享新穎的想法?!?但是,“在推動和促進(jìn)AI和機器學(xué)習(xí)的發(fā)展可以產(chǎn)生巨大利益?!?Restrepo補充說,“除了ChatGPT自身的新穎之處,AI對企業(yè)、政府管理和國家安全都具有重要價值。
問題在哪里呢? Restrepo指出:“如果我們不給AI生成的內(nèi)容,尤其是為AI設(shè)計者提供知識產(chǎn)權(quán),那么當(dāng)內(nèi)容進(jìn)入公共領(lǐng)域時,他們面臨的風(fēng)險將更加顯著?!?另一名律師肯寧頓·格羅夫指出,還有一些其他棘手的問題,比如根據(jù)美國版權(quán)局最近提供的指南,當(dāng)AI生成的內(nèi)容源自未經(jīng)授權(quán)的受版權(quán)保護材料時,創(chuàng)作者存在潛在的侵權(quán)風(fēng)險。由于AI系統(tǒng)在互聯(lián)網(wǎng)和數(shù)字平臺上獲取信息以回應(yīng)用戶查詢,它們可能無意間使用其他創(chuàng)作者擁有的受版權(quán)保護的內(nèi)容,有時甚至直接照搬了信息。這引發(fā)了對AI開發(fā)者和依賴AI生成信息的用戶侵權(quán)的擔(dān)憂。
此外,一篇博客《包含人工智能生成材料的美國版權(quán)指南》中提到,版權(quán)注冊有一些要求:“在注冊包含人工智能生成材料的作品時,創(chuàng)作者必須在注冊申請中說明使用了人工智能。這個說明有助于版權(quán)辦公室評估人類作者在作品中的貢獻(xiàn)?!?br />
當(dāng)然,登記作品并非強制性的,版權(quán)在創(chuàng)作時會自動產(chǎn)生(盡管在侵權(quán)情況下,創(chuàng)作者可能無法獲得懲罰性賠償)。然而,生成式人工智能的運作方式并非許多人所想象的那樣簡單。
理解生成式人工智能的工作原理
這就像一個大學(xué)生寫論文,老師要求他用自己的話總結(jié)幾篇研究,并結(jié)合這些資料表達(dá)自己的理解。這和在網(wǎng)上購買論文或復(fù)制文章的學(xué)生有所不同,后者顯然構(gòu)成了抄襲。因為生成式人工智能的工作方式,解決生成內(nèi)容的抄襲和版權(quán)問題會相當(dāng)困難?!耙驗樗鼈兪巧尚聝?nèi)容,而不是簡單地復(fù)制,要證明它們侵犯了別人的權(quán)利非常難。”
從理論上來說,生成的內(nèi)容算是個改編作品。它是從很多很多作品中汲取靈感的,所有這些作品都對最終的輸出有一點點貢獻(xiàn)。這不是說法律手段不能找到一些侵權(quán)行為,但風(fēng)險相當(dāng)小?!?當(dāng)然,對于寫作的人來說,有一些工具,比如Grammarly的查重工具或者老師使用的Turnitin,可以識別抄襲。還有一些工具,比如OpenAI的AI文本分類器,可以幫助判斷一段文本是人寫的還是機器生成的。
生成式人工智能準(zhǔn)確嗎?
生成式人工智能的風(fēng)險在于它的表達(dá)能力太強了,它輸出的結(jié)果看起來就像是一個能力很強的人說出來的,或者是他創(chuàng)造的。這也讓人很容易忽略一些微小的問題。比如說,你用GenAI翻譯患者治療疾病的說明,可能會有一些細(xì)節(jié)上的錯誤,但因為整體看起來沒問題,所以沒人會注意到??扇绻@導(dǎo)致了患者受到傷害,那責(zé)任應(yīng)該落在誰身上呢?目前所有GenAI工具的服務(wù)條款都說得很明白,它們的輸出并不提供任何實用性的保證,這就意味著用它們的人要對一切負(fù)責(zé)。僅僅說“我覺得應(yīng)該沒問題”是解決不了問題的。已經(jīng)出現(xiàn)一些關(guān)于不準(zhǔn)確信息的訴訟案例,但未來很可能會有更多情況,就像因為使用了GenAI卻沒有充分監(jiān)管而被起訴的組織一樣。
另外,AI系統(tǒng)的固有特性也帶來了不準(zhǔn)確性的風(fēng)險,因為它們是在有限的數(shù)據(jù)集上訓(xùn)練的。以ChatGPT為例,是在2021年的數(shù)據(jù)上訓(xùn)練的。雖然GPT-4已經(jīng)提醒了用戶這一點,但系統(tǒng)可能采用已經(jīng)被證明不正確的舊知識,問題就變得復(fù)雜了。比如系統(tǒng)描述某人是一個被定罪的兇手,但在訓(xùn)練后的某個時間點,該人被證明是清白的。這種風(fēng)險甚至存在于非人工智能生成的內(nèi)容中,因為人類在研究時可能會漏掉一些事實。但是,生成式人工智能可能會讓這個問題更加突出。
因此,在探索這項技術(shù)時,內(nèi)容創(chuàng)作者需牢記三個關(guān)鍵要點:首先,將生成式人工智能視為輔助寫作的工具,而非替代品;其次,務(wù)必仔細(xì)核查事實;最后,對于任何依賴生成式人工智能輸出內(nèi)容的創(chuàng)作,即便只是在很小程度上,都應(yīng)使用能夠減少潛在侵犯版權(quán)風(fēng)險的工具進(jìn)行檢查。
本文來自Information Today官網(wǎng),由新宇智慧編譯,有刪減。