ChatGPT之類的生成式人工智能為研究人員和創(chuàng)作者提供了無數(shù)可能性,但也引發(fā)了一些風(fēng)險(xiǎn),比如侵犯版權(quán)的問題。當(dāng)人工智能從網(wǎng)絡(luò)抓取信息來回答用戶的問題時(shí),這些信息實(shí)際上屬于其他創(chuàng)作者。這可能給二次使用這些信息的人帶來風(fēng)險(xiǎn)。而且,抓取的信息原本可能是不準(zhǔn)確的。今天,我們將探討由人工智能生成的書面內(nèi)容,以及內(nèi)容創(chuàng)作者需要了解的事項(xiàng)。
探索新領(lǐng)域:版權(quán)
一位名叫Daniel Restrepo的律師指出,在知識(shí)產(chǎn)權(quán)(IP)和生成式人工智能(generative AI)監(jiān)管方面存在利益沖突,“版權(quán)旨在鼓勵(lì)創(chuàng)作者與公眾分享新穎的想法。” 但是,“在推動(dòng)和促進(jìn)AI和機(jī)器學(xué)習(xí)的發(fā)展可以產(chǎn)生巨大利益?!?Restrepo補(bǔ)充說,“除了ChatGPT自身的新穎之處,AI對(duì)企業(yè)、政府管理和國(guó)家安全都具有重要價(jià)值。
問題在哪里呢? Restrepo指出:“如果我們不給AI生成的內(nèi)容,尤其是為AI設(shè)計(jì)者提供知識(shí)產(chǎn)權(quán),那么當(dāng)內(nèi)容進(jìn)入公共領(lǐng)域時(shí),他們面臨的風(fēng)險(xiǎn)將更加顯著?!?另一名律師肯寧頓·格羅夫指出,還有一些其他棘手的問題,比如根據(jù)美國(guó)版權(quán)局最近提供的指南,當(dāng)AI生成的內(nèi)容源自未經(jīng)授權(quán)的受版權(quán)保護(hù)材料時(shí),創(chuàng)作者存在潛在的侵權(quán)風(fēng)險(xiǎn)。由于AI系統(tǒng)在互聯(lián)網(wǎng)和數(shù)字平臺(tái)上獲取信息以回應(yīng)用戶查詢,它們可能無意間使用其他創(chuàng)作者擁有的受版權(quán)保護(hù)的內(nèi)容,有時(shí)甚至直接照搬了信息。這引發(fā)了對(duì)AI開發(fā)者和依賴AI生成信息的用戶侵權(quán)的擔(dān)憂。
此外,一篇博客《包含人工智能生成材料的美國(guó)版權(quán)指南》中提到,版權(quán)注冊(cè)有一些要求:“在注冊(cè)包含人工智能生成材料的作品時(shí),創(chuàng)作者必須在注冊(cè)申請(qǐng)中說明使用了人工智能。這個(gè)說明有助于版權(quán)辦公室評(píng)估人類作者在作品中的貢獻(xiàn)?!?br />
當(dāng)然,登記作品并非強(qiáng)制性的,版權(quán)在創(chuàng)作時(shí)會(huì)自動(dòng)產(chǎn)生(盡管在侵權(quán)情況下,創(chuàng)作者可能無法獲得懲罰性賠償)。然而,生成式人工智能的運(yùn)作方式并非許多人所想象的那樣簡(jiǎn)單。
理解生成式人工智能的工作原理
這就像一個(gè)大學(xué)生寫論文,老師要求他用自己的話總結(jié)幾篇研究,并結(jié)合這些資料表達(dá)自己的理解。這和在網(wǎng)上購(gòu)買論文或復(fù)制文章的學(xué)生有所不同,后者顯然構(gòu)成了抄襲。因?yàn)樯墒饺斯ぶ悄艿墓ぷ鞣绞?,解決生成內(nèi)容的抄襲和版權(quán)問題會(huì)相當(dāng)困難?!耙?yàn)樗鼈兪巧尚聝?nèi)容,而不是簡(jiǎn)單地復(fù)制,要證明它們侵犯了別人的權(quán)利非常難?!?
從理論上來說,生成的內(nèi)容算是個(gè)改編作品。它是從很多很多作品中汲取靈感的,所有這些作品都對(duì)最終的輸出有一點(diǎn)點(diǎn)貢獻(xiàn)。這不是說法律手段不能找到一些侵權(quán)行為,但風(fēng)險(xiǎn)相當(dāng)小。” 當(dāng)然,對(duì)于寫作的人來說,有一些工具,比如Grammarly的查重工具或者老師使用的Turnitin,可以識(shí)別抄襲。還有一些工具,比如OpenAI的AI文本分類器,可以幫助判斷一段文本是人寫的還是機(jī)器生成的。
生成式人工智能準(zhǔn)確嗎?
生成式人工智能的風(fēng)險(xiǎn)在于它的表達(dá)能力太強(qiáng)了,它輸出的結(jié)果看起來就像是一個(gè)能力很強(qiáng)的人說出來的,或者是他創(chuàng)造的。這也讓人很容易忽略一些微小的問題。比如說,你用GenAI翻譯患者治療疾病的說明,可能會(huì)有一些細(xì)節(jié)上的錯(cuò)誤,但因?yàn)檎w看起來沒問題,所以沒人會(huì)注意到。可如果這導(dǎo)致了患者受到傷害,那責(zé)任應(yīng)該落在誰身上呢?目前所有GenAI工具的服務(wù)條款都說得很明白,它們的輸出并不提供任何實(shí)用性的保證,這就意味著用它們的人要對(duì)一切負(fù)責(zé)。僅僅說“我覺得應(yīng)該沒問題”是解決不了問題的。已經(jīng)出現(xiàn)一些關(guān)于不準(zhǔn)確信息的訴訟案例,但未來很可能會(huì)有更多情況,就像因?yàn)槭褂昧薌enAI卻沒有充分監(jiān)管而被起訴的組織一樣。
另外,AI系統(tǒng)的固有特性也帶來了不準(zhǔn)確性的風(fēng)險(xiǎn),因?yàn)樗鼈兪窃谟邢薜臄?shù)據(jù)集上訓(xùn)練的。以ChatGPT為例,是在2021年的數(shù)據(jù)上訓(xùn)練的。雖然GPT-4已經(jīng)提醒了用戶這一點(diǎn),但系統(tǒng)可能采用已經(jīng)被證明不正確的舊知識(shí),問題就變得復(fù)雜了。比如系統(tǒng)描述某人是一個(gè)被定罪的兇手,但在訓(xùn)練后的某個(gè)時(shí)間點(diǎn),該人被證明是清白的。這種風(fēng)險(xiǎn)甚至存在于非人工智能生成的內(nèi)容中,因?yàn)槿祟愒谘芯繒r(shí)可能會(huì)漏掉一些事實(shí)。但是,生成式人工智能可能會(huì)讓這個(gè)問題更加突出。
因此,在探索這項(xiàng)技術(shù)時(shí),內(nèi)容創(chuàng)作者需牢記三個(gè)關(guān)鍵要點(diǎn):首先,將生成式人工智能視為輔助寫作的工具,而非替代品;其次,務(wù)必仔細(xì)核查事實(shí);最后,對(duì)于任何依賴生成式人工智能輸出內(nèi)容的創(chuàng)作,即便只是在很小程度上,都應(yīng)使用能夠減少潛在侵犯版權(quán)風(fēng)險(xiǎn)的工具進(jìn)行檢查。
本文來自Information Today官網(wǎng),由新宇智慧編譯,有刪減。