玉林实硕医疗科技有限公司

重磅!Open AI發布ChatGPT 安全方法

4月6日凌晨,Open AI在官網發布了《Our approach to AI safety》,以確保安全、可靠地為全球用戶提供ChatGPT服務。(地址:https://openai.com/blog/our-approach-to-ai-safety)


(資料圖)

目前,ChatGPT的安全問題受到了全球多數國家的高度關注。意大利則直接禁用ChatGPT,歐洲多數國家也開始紛紛重視ChatGPT是否侵犯數據隱私等。一時間生成式AI的數據安全成為熱門話題。

Open AI在這關鍵節點發布安全方法,這對其未來發展乃至整個AIGC行業都起到了關鍵的保護和穩定軍心的作用。

構建安全、可靠的AI產品

Open AI表示,在發布任何新系統之前,會進行嚴格的測試。聘請外部專家提供反饋,通過人工反饋強化學習等技術改進模型的行為,并構建廣泛的安全和監控系統。

例如,Open AI的最新模型GPT-4完成訓練后,花了6個多月的時間在整個組織內開展工作,以使其在公開發布之前更安全、更一致。

Open AI認為,強大的人工智能系統應該接受嚴格的安全評估。需要監管以確保采用此類做法,Open AI將積極與政府合作,以制定此類監管的最佳框架。

從實踐中學習、優化、改善

Open AI正在努力在部署前預防可預見的風險,但是,在實驗、研發的過程中得到的反饋是有限的,盡管進行了嚴謹、廣泛的測試仍然無法預測人們使用ChatGPT所產生的各種意外后果。所以,從實踐項目中學習、優化和改善產品,成為重中之重。

Open AI通過自己的服務和API,以幫助開發人員可以將最強大的大語言模型直接集成到產品中。這可以使得Open AI能夠監控濫用行為并采取行動,并不斷構建完善的緩解措施,保證Open AI的產品被用在安全、合規的項目上。

隨著全球用戶使用的深入,這促使Open AI需要制定更細致、周全的對策來應對各種可能出現的危險。

保護兒童

保護兒童的安全一直是Open AI的重點工作。Open AI要求人們必須年滿 18 歲,或在父母同意的情況下年滿13歲才能使用Open AI的產品。Open AI正在研究驗證選項。

Open AI不允許其產品用于生成仇恨、騷擾、暴力或成人內容等。與GPT-3.5相比,Open AI最新的模型GPT-4響應,非法內容請求的可能性降低了82%,并且已經建立了一個強大的系統來監控濫用情況。GPT-4現在可供 ChatGPT Plus 用戶使用,Open AI希望隨著時間的推移讓更多人可以使用它。

尊重隱私

Open AI的大型語言模型是在廣泛的文本語料庫上訓練的,這些文本包括公開可用的、許可的內容以及由人工審閱生成的內容。

Open AI不會使用數據來銷售服務、做廣告或建立人們的檔案——會通過使用數據使大語言模型對人們更有幫助。例如,ChatGPT 通過與人類之間進行的對話,以進一步培訓和改善產品。

雖然Open AI的一些訓練數據包括可在公共互聯網上獲得的個人信息。但只是希望大語言模型了解世界,而不是了解個人。因此,Open AI努力在可行的情況下,從訓練數據集中刪除個人信息,微調模型以拒絕對私人個人信息的請求,并對個人提出的從數據庫中刪除其個人信息的請求做出回應。

提高生成數據準確性

大型語言模型根據之前的訓練模式預測下一個單詞、句子或長文。但在某些情況下,可能會出現數據不準確的情況。

提高生成數據的準確性,是OpenAI和許多其他AI開發人員的重點正在取得進展。通過用戶對被標記為不正確的主要數據源的 ChatGPT 輸出的反饋,GPT-4產生真實數據的性能比GPT-3.5高了40%。

持續的研究和參與

OpenAI認為,解決AI安全問題的實際方法是投入更多時間和資源來研究有效的緩解和對齊技術,并測試它們在現實世界中的濫用情況。

雖然OpenAI等了6個多月才部署GPT-4以更好地了解其功能、優勢和風險,但有時可能需要比這更長的時間來提高AI系統的安全性。

因此,政策制定者和 AI 供應商需要確保AI的開發和部署在全球范圍內得到有效管理,這樣就沒有人會為了取得成功而偷工減料。這是一項艱巨的挑戰,需要技術和制度創新,但OpenAI會全力以赴做出最大努力去改善。

本文作者:?AIGC開放社區?,來源:AIGC開放社區,原文標題:《重磅!Open AI發布ChatGPT 安全方法》

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: