AI應該如何被監管?業內辯論升級,谷歌和OpenAI存嚴重分歧|焦點
隨著ChatGPT大火帶來的AI熱潮,如今,如何監管AI技術成為市場熱議的話題。
(相關資料圖)
一份最新的文件顯示,谷歌和OpenAI這兩大AI領域的領導者對政府應如何監管人工智能持有相反的看法。
OpenAI首席執行官Sam Altman最近一直在鼓吹由政府來監管AI技術,甚至提到要建立一個類似國際原子能機構的政府間組織來監管AI,而且他認為,該機構應該專注于監管AI技術,以及為使用該技術的實體頒發許可。但谷歌則不希望AI監管一切都由政府統領,該公司更傾向于“多層次、多利益相關者的AI治理方法”。
AI領域的其他人,包括研究人員,也表達了和谷歌類似的觀點,稱政府部門對AI進行監管可能是保護邊緣化社區的更好方式——盡管OpenAI認為技術進步太快無法采用這種方法。
谷歌稱:
在國家層面,我們支持中心輻射式方法——由美國國家標準與技術研究院(NIST)等中央機構通知部門監管機構監督AI實施——而不是一個“人工智能部門”。AI將在金融服務、醫療保健和其他受監管的行業帶來前所未有的挑戰,這些挑戰將由具有這些行業經驗的監管機構來應對,而不是一個新的、獨立的部門來監管。
華盛頓大學計算語言學實驗室教授兼主任Emily M. Bender說:
我完全同意所謂的AI系統不應該在沒有某種認證程序的情況下部署。但是這個過程應該取決于系統的用途?,F有的監管機構應保持其管轄權和決定權。
谷歌的這一觀點與OpenAI和微軟偏愛更集中的監管模式形成鮮明對比。微軟總裁Brad Smith表示,他支持組建一個新的政府機構來監管人工智能,而OpenAI 的創始人們也公開表達了他們的愿景,即組建一個類似國際原子能機構的組織來監管AI。
谷歌全球事務總裁Kent Walker表示,他“不反對”由新監管機構監督大型語言模型許可的想法,但表示政府應該“更全面地”看待這項技術。
谷歌和微軟在監管方面看似相反的觀點表明人工智能領域的爭論越來越多,爭論遠遠超出了技術應該受到多少監管的范疇。
今年5月,美國副總統哈里斯在會見了AI界重要公司的領導人后稱,這項技術“有可能極大地增加對安全和安保的威脅,侵犯公民權利和隱私,并侵蝕公眾對民主的信任和信心”。
她補充說,企業有責任遵守現有的法律,以及“倫理、道德和法律責任,以確保其產品的安全和保障”。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。關鍵詞: