久久久久久精品无码不卡顿AV,色婷婷精品久久二区二区蜜臂av,国产美女一级做受视频,啊灬啊灬啊灬快灬高潮了女

中文
搜索

關(guān)于AI生成內(nèi)容與版權(quán)的重要注意事項

發(fā)布時間: 2024年03月21日瀏覽量:

ChatGPT之類的生成式人工智能為研究人員和創(chuàng)作者提供了無數(shù)可能性,但也引發(fā)了一些風(fēng)險,比如侵犯版權(quán)的問題。當(dāng)人工智能從網(wǎng)絡(luò)抓取信息來回答用戶的問題時,這些信息實際上屬于其他創(chuàng)作者。這可能給二次使用這些信息的人帶來風(fēng)險。而且,抓取的信息原本可能是不準(zhǔn)確的。今天,我們將探討由人工智能生成的書面內(nèi)容,以及內(nèi)容創(chuàng)作者需要了解的事項。




探索新領(lǐng)域:版權(quán)


一位名叫Daniel Restrepo的律師指出,在知識產(chǎn)權(quán)(IP)和生成式人工智能(generative AI)監(jiān)管方面存在利益沖突,“版權(quán)旨在鼓勵創(chuàng)作者與公眾分享新穎的想法?!?但是,“在推動和促進(jìn)AI和機器學(xué)習(xí)的發(fā)展可以產(chǎn)生巨大利益?!?Restrepo補充說,“除了ChatGPT自身的新穎之處,AI對企業(yè)、政府管理和國家安全都具有重要價值。


問題在哪里呢? Restrepo指出:“如果我們不給AI生成的內(nèi)容,尤其是為AI設(shè)計者提供知識產(chǎn)權(quán),那么當(dāng)內(nèi)容進(jìn)入公共領(lǐng)域時,他們面臨的風(fēng)險將更加顯著?!?另一名律師肯寧頓·格羅夫指出,還有一些其他棘手的問題,比如根據(jù)美國版權(quán)局最近提供的指南,當(dāng)AI生成的內(nèi)容源自未經(jīng)授權(quán)的受版權(quán)保護材料時,創(chuàng)作者存在潛在的侵權(quán)風(fēng)險。由于AI系統(tǒng)在互聯(lián)網(wǎng)和數(shù)字平臺上獲取信息以回應(yīng)用戶查詢,它們可能無意間使用其他創(chuàng)作者擁有的受版權(quán)保護的內(nèi)容,有時甚至直接照搬了信息。這引發(fā)了對AI開發(fā)者和依賴AI生成信息的用戶侵權(quán)的擔(dān)憂。



此外,一篇博客《包含人工智能生成材料的美國版權(quán)指南》中提到,版權(quán)注冊有一些要求:“在注冊包含人工智能生成材料的作品時,創(chuàng)作者必須在注冊申請中說明使用了人工智能。這個說明有助于版權(quán)辦公室評估人類作者在作品中的貢獻(xiàn)?!?br />
當(dāng)然,登記作品并非強制性的,版權(quán)在創(chuàng)作時會自動產(chǎn)生(盡管在侵權(quán)情況下,創(chuàng)作者可能無法獲得懲罰性賠償)。然而,生成式人工智能的運作方式并非許多人所想象的那樣簡單。



理解生成式人工智能的工作原理


目前人們對生成式人工智能的運作方式存在許多誤解,很多人認(rèn)為它就像一個龐大的搜索引擎,檢索和復(fù)制存儲在網(wǎng)絡(luò)空間的內(nèi)容。 但實際情況并非如此,首先,生成式人工智能(也稱為GenAI)系統(tǒng)并不儲存大量的訓(xùn)練數(shù)據(jù)。而且,它們并不能簡單地復(fù)制接受訓(xùn)練的內(nèi)容,而是必須基于這些統(tǒng)計信息生成新的東西。

這就像一個大學(xué)生寫論文,老師要求他用自己的話總結(jié)幾篇研究,并結(jié)合這些資料表達(dá)自己的理解。這和在網(wǎng)上購買論文或復(fù)制文章的學(xué)生有所不同,后者顯然構(gòu)成了抄襲。因為生成式人工智能的工作方式,解決生成內(nèi)容的抄襲和版權(quán)問題會相當(dāng)困難?!耙驗樗鼈兪巧尚聝?nèi)容,而不是簡單地復(fù)制,要證明它們侵犯了別人的權(quán)利非常難。”



從理論上來說,生成的內(nèi)容算是個改編作品。它是從很多很多作品中汲取靈感的,所有這些作品都對最終的輸出有一點點貢獻(xiàn)。這不是說法律手段不能找到一些侵權(quán)行為,但風(fēng)險相當(dāng)小?!?當(dāng)然,對于寫作的人來說,有一些工具,比如Grammarly的查重工具或者老師使用的Turnitin,可以識別抄襲。還有一些工具,比如OpenAI的AI文本分類器,可以幫助判斷一段文本是人寫的還是機器生成的。

生成式人工智能準(zhǔn)確嗎?


對于那些利用生成式人工智能寫作的人來說,可能面臨的問題不僅僅是抄襲,更可能是準(zhǔn)確性的問題。

生成式人工智能的風(fēng)險在于它的表達(dá)能力太強了,它輸出的結(jié)果看起來就像是一個能力很強的人說出來的,或者是他創(chuàng)造的。這也讓人很容易忽略一些微小的問題。比如說,你用GenAI翻譯患者治療疾病的說明,可能會有一些細(xì)節(jié)上的錯誤,但因為整體看起來沒問題,所以沒人會注意到??扇绻@導(dǎo)致了患者受到傷害,那責(zé)任應(yīng)該落在誰身上呢?目前所有GenAI工具的服務(wù)條款都說得很明白,它們的輸出并不提供任何實用性的保證,這就意味著用它們的人要對一切負(fù)責(zé)。僅僅說“我覺得應(yīng)該沒問題”是解決不了問題的。已經(jīng)出現(xiàn)一些關(guān)于不準(zhǔn)確信息的訴訟案例,但未來很可能會有更多情況,就像因為使用了GenAI卻沒有充分監(jiān)管而被起訴的組織一樣。



另外,AI系統(tǒng)的固有特性也帶來了不準(zhǔn)確性的風(fēng)險,因為它們是在有限的數(shù)據(jù)集上訓(xùn)練的。以ChatGPT為例,是在2021年的數(shù)據(jù)上訓(xùn)練的。雖然GPT-4已經(jīng)提醒了用戶這一點,但系統(tǒng)可能采用已經(jīng)被證明不正確的舊知識,問題就變得復(fù)雜了。比如系統(tǒng)描述某人是一個被定罪的兇手,但在訓(xùn)練后的某個時間點,該人被證明是清白的。這種風(fēng)險甚至存在于非人工智能生成的內(nèi)容中,因為人類在研究時可能會漏掉一些事實。但是,生成式人工智能可能會讓這個問題更加突出。



因此,在探索這項技術(shù)時,內(nèi)容創(chuàng)作者需牢記三個關(guān)鍵要點:首先,將生成式人工智能視為輔助寫作的工具,而非替代品;其次,務(wù)必仔細(xì)核查事實;最后,對于任何依賴生成式人工智能輸出內(nèi)容的創(chuàng)作,即便只是在很小程度上,都應(yīng)使用能夠減少潛在侵犯版權(quán)風(fēng)險的工具進(jìn)行檢查。

本文來自Information Today官網(wǎng),由新宇智慧編譯,有刪減。
相關(guān)新聞