玉林实硕医疗科技有限公司

美國NMA正式發布,ChatGPT等生成式AI監管原則

近日,美國新聞/媒體聯盟(The News/Media Alliance,簡稱“NMA”)代表近2000家印刷和數字媒體出版商正式發布了,生成式AI監管原則。


(資料圖片僅供參考)

據悉,本次AI原則包括知識產權、透明度、問責制、公平、安全和設計6大部分,適用于文本、視頻、圖片、音頻等其他格式的AI生成內容。這也是美國第一家權威機構正式發布的生成式AI監管原則。

該監管原則對于AI廠商、知識產業、用戶來說是一個三贏的局面。AI廠商在該原則指導下,可以明確產品安全優化目標;新聞、媒體等產業的知識產權得到了有效保護,不會被生成式AI打破原有生態;用戶在使用ChatGPT等生成式AI產品時,可以進一步降低安全風險。(文件地址:https://www.newsmediaalliance.org/ai-principles/)

為什么發布AI原則

NMA表示,隨著ChatGPT等生成式AI在全球范圍內火爆出圈,其用戶群體呈指數級增長,并對傳統的新聞、媒體產業造成了巨大沖擊。

例如,傳統出版商在制作文本內容時需要投入大量時間、金錢和人力才能完成,而像ChatGPT這樣的生成式AI產品,可能2分鐘就能生成1000字的內容,嚴重破壞了知識產業競爭的生態。

此外,ChatGPT的訓練數據是基于傳統出版商的內容,有知識產權侵權的行為。在生成的內容方面,也充斥著大量虛假、暴力、歧視等非法內容。

因此,NMA發布了這一監管原則并要求文本、視頻、圖片、音頻等其他生成式AI廠商按照該原則來開發、優化產品。不過,隨著AI技術發展的深入,監管原則也會發生改變。

下面「AIGC開放社區」為大家介紹AI監管原則的內容。

知識產權

生成式AI的開發者和部署者,必須尊重創作者對其內容的權利:這些權利包括版權,提供給內容創建者和所有者的,所有其他法律保護,以及出版商對訪問和使用其內容施加的合同限制或通過其在線服務條款。

開發者和部署者以及參與起草有關生成式AI的法律和政策的立法者、監管者,必須堅定不移地尊重這些權利,并承認創作者專有內容的價值。

開發者和部署者不應在未經許可的情況下使用人類作者的IP(Intellectual Property,知識產權)。如果使用人類作者的知識產權需要給予公平的補償。

專業新聞因其可靠性、準確性、連貫性和及時性數據價值很高,可以提升生成式AI產品的內容輸出質量。如果在沒有許可的情況下,生成式AI廠商就使用這些IP是一種偷竊行為。

使用出版商的IP需要明確許可:大多數出版商的條款和條件未授權生成式AI產品,使用出版商內容進行培訓、展示和商業化。

生成式AI系統開發者和部署者不得在未經明確授權的情況下爬取、攝取或使用人類作者的專有內容,需要與出版商簽訂正式使用協議。

應制定行業標準以允許自動檢測權限,以區分爬取或抓取內容的潛在用途。這些標準和使用協議還可以解決其他問題,例如,歸屬、貨幣化、責任和衍生用途等。

版權法必須保護而不是傷害內容創作者:合理使用原則并不能證明,生成式AI產品未經授權使用出版商內容、檔案和數據庫是正當的。未經明確許可,任何以前或現在使用此類內容均違反版權法。

文本和數據挖掘版權保護的例外情況,應嚴格針對有限的非營利和研究目的進行調整,這些目的不會損害出版商或成為未經授權使用的途徑,否則需要獲得許可。

美國還在這一領域做出了國際法承諾,保護其跨多個部門的基于知識產權的業務,這些承諾必須在其AI方法中得到維護。

透明度

生成式AI廠商應該對出版商透明:出版商有權知道誰復制了其內容,以及他們將其用于什么目的。NMA呼吁制定強有力的法規和政策,在出版商行使其權利所需的范圍內強加透明度要求。

出版商有合法權益來確定他們的哪些內容已經在生成式AI系統中使用過。生成式AI廠商必須明確披露,是用于非營利、研究、教育、第三方開發的數據集或商業化應用程序等,不得用于逃避透明度義務或版權責任。

生成式AI廠商應對用戶透明:用戶和出版商之間的關系,對于新聞媒體和信息內容部門的可持續性至關重要。用戶需要明確知道信息來源,例如,哪些文本內容是AI自動生成的,并向用戶展示原始數據來源。

此外,生成式AI產品的透明度也有助于防止誤用,以及錯誤和虛假信息的傳播。同樣,可以幫助生成式AI評估偏見、歧視、低俗等內容。

問責制

生成式AI廠商應該對其產品負責:生成式AI廠商對競爭、新聞和創意內容的完整性,以及公眾對新聞和創意內容的信任構成風險。AI 應用程序生成的內容將虛假或不準確的信息歸于出版商這是不負責任的行為。因此,不應免除生成式AI的部署者對其輸出的責任,這樣做會給生成式AI產品,提供傳統出版商無法與之競爭的不公平優勢,并增加不受約束的權力對公眾和機構造成危險。

公平

生成式AI廠商不應用冒險的行為創造不公平的競爭結果:監管機構應確保生成式AI產品的設計、部署和使用符合競爭法和原則。開發人員和部署人員還應盡最大努力確保生成式AI模型不被用于反競爭目的。

生成式AI廠商未經內容所有者的明確許可,而將其內容用于生成式AI產品訓練,應被視為違反競爭法的證據。監管機構應對生成式AI產品的其他反競爭用途保持警惕。

安全

生成式AI產品應該是安全的并尊重用戶隱私:生成式AI產品(包括模型)的設計應尊重用戶的隱私。早期跡象表明,生成式AI產品將加劇數字平臺收集大量用戶隱私數據的趨勢。

生成式AI系統設計、訓練和使用中,對個人數據的收集和使用應盡量減少,并應以易于理解的方式向用戶披露,以便用戶能夠對如何使用其數據換取AI服務做出知情判斷。用戶應被告知并有權阻止出于訓練或收集個人數據的目的。

設計

上面討論的所有原則都應該納入到生成式AI產品、模型的設計中,作為設計的重要元素。而不是在第三方提出索賠時,才被重視進行亡羊補牢。

關于NMA

新聞/媒體聯盟是一家總部位于美國華盛頓的非營利組織。在過去100多年的時間,該組織通過合并美國新聞協會,美國雜志媒體協會等機構不斷壯大。目前成員有近2000家不同的印刷、數字出版商。

本文來源:AIGC開放社區,原文標題:《美國NMA正式發布,ChatGPT等生成式AI監管原則》

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: