歐盟達成《人工智能法》協議,為生成式AI設立版權規則 熱點聚焦
當地時間4月27日,經過幾個月的緊張談判,歐洲議會成員已經彌合分歧,就《人工智能法(The AI Act)》提案達成臨時政治協議,要求部署ChatGPT等生成式人工智能工具的公司披露用于開發其系統的受版權保護的材料。該協議為可能是世界上第一部綜合性人工智能法律的《人工智能法》出臺鋪平道路。
(資料圖片僅供參考)
在定于5月11日進行的關鍵委員會投票前,提案文本可能仍需在技術層面上進行細微調整,6月中旬預計將進行全體投票。
最后一刻的變化:生成式人工智能監管
《人工智能法》預計將成為歐盟一項具有里程碑意義的立法,已經醞釀了兩年多。立法者提議根據他們認為的風險級別對不同的人工智能工具進行分類,從最低到有限、高和不可接受。使用這些工具的政府機構和企業將根據風險級別承擔不同的義務。
該法案范圍廣泛,將管轄所有人工智能產品或服務的提供方,涵蓋可以生成內容、預測、建議或影響環境的決策的系統。
除了企業對人工智能的使用外,法案還將研究公共部門和執法部門使用的人工智能,并與《通用數據保護條例 (GDPR)》等法律協同工作。與人類互動、用于監視目的或生成“深度偽造”內容的人工智能系統的使用者將面臨嚴格的透明度義務。
直到最后一刻,歐盟立法者還在對提案中一些最具爭議的部分進行討論。
“通用目的人工智能系統(General Purpose AI System)”是立法者提出的一個類別,用于解釋具有多個應用程序的人工智能工具,例如ChatGPT這樣的生成式人工智能模型。如何處理 “通用目的人工智能系統”一直是討論中爭論激烈的話題。歐洲議會確認了之前的提案,即對“通用目的人工智能系統”的一個子類別——基礎模型施加更嚴格的要求 。根據要求,開發ChatGPT等生成式人工智能工具的公司必須披露他們是否在系統中使用了受版權保護的材料。
協議達成前夕唯一重要的變化就是關于生成式人工智能模型,“這些模型的設計和開發必須符合歐盟法律和基本權利,包括表達自由?!?/p>
《人工智能法》還禁止“有目的的”操縱?!坝心康牡摹边@個詞有爭議,因為可能難以證明故意性,但仍被保留下來。
另外,在執法、邊境管理、工作場所和教育領域,法案要求禁止使用AI驅動的情緒識別軟件。
歐盟立法者對預測性警務(predictive policing)的禁令從刑事犯罪擴展到了行政犯罪,其依據是荷蘭兒童福利丑聞,該丑聞中成千上萬的家庭因有缺陷的算法而被誤判為欺詐。
高風險分類變化
許多人工智能工具可能被認為是高風險的,例如用于關鍵基礎設施、執法或教育的工具。它們比“不可接受”低一級,因此不會被完全禁止,但需要在操作中保持高度透明。高風險人工智能的使用者可能需要完成嚴格的風險評估,記錄他們的活動,并向當局提供數據以供審查。這可能會增加公司的合規成本。
最初的提案將某些關鍵領域和用例的人工智能解決方案自動歸類為高風險,這意味著供應商必須遵守更嚴格的制度,包括對風險管理、透明度和數據治理的要求。歐洲議會引入了一個額外的層次,使這些類別的人工智能模型只有在對健康、安全或基本權利構成重大風險的情況下才會被視為高風險。
重大風險被定義為“由于其嚴重性、強度、發生的概率和影響的持續時間而具有重大意義的風險,并且能夠影響一個人、多個人或一個特定群體”。
根據綠黨的要求,用于管理能源網或水系統等關鍵基礎設施的人工智能,如果帶來嚴重的環境風險,也將被歸類為高風險。
此外,中左翼立法者還爭取到了一個規定:根據《數字服務法》(DSA)的定義,超大型在線平臺的推薦系統將被視為高風險。
歐洲議會議員為高風險人工智能模型的提供者處理敏感數據(如性取向或宗教信仰)以檢測負面偏見的過程,納入了額外的保障措施。此外,評估必須發生在受控環境中。敏感數據不能被傳輸給其他方,并且必須在偏見評估后被刪除。提供者還必須記錄數據處理發生的原因。
《國家法律評論》4月26日報道稱:“《人工智能法》將產生全球性的影響,因為它將適用于在歐盟提供或使用人工智能系統的組織;以及位于第三國(包括英國和美國)的人工智能系統的提供者或使用者,如果這些人工智能系統產生的輸出在歐盟使用。”
本文來源:澎湃新聞,原文標題:《歐盟達成《人工智能法》協議,為生成式AI設立版權規則》
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。關鍵詞: