環球今亮點!急于應戰ChatGPT不管倫理道德?谷歌內測員工稱Bard是“病態的騙子”、答復可能讓人喪命
上月谷歌正式公測人工智能(AI)聊天機器人Bard,這一正面對抗ChatGPT的重大行動背后可能有隱患。媒體發現,為了在AI競賽中不落于人后,谷歌在推出Bard時并沒有遵循以往的道德倫理承諾。
在Bard公測前,谷歌要求員工做內部測試。媒體稱,相關截圖顯示,內部討論時,有一名谷歌員工得出了Bard是個“病態的騙子”這種結論,另一人形容Bard令人感到尷尬。
(資料圖片)
具體到Bard的回答方面,一名參與內測的谷歌員工稱,Bard給出的飛機如何著陸建議往往會導致墜機。另一人稱,Bard給出的水肺潛水答復可能導致潛水者受重傷、甚至喪命。
去年12月,在ChatGPT橫空出世后不久,谷歌管理層就發出了“紅色代碼”(red code)級別的警告。此前媒體稱,谷歌CEO Sundar Pichai要求谷歌旗下產品盡快接入生成式AI,該警報催生了谷歌內部數十個生成式AI集成計劃,谷歌聯合創始人Sergey Brin甚至親自下場給Bard寫代碼。還有媒體提到,在員工中測試Bard也是紅色代碼計劃的一部分。
本周三媒體指出,2021年,谷歌曾承諾,要將研究AI倫理道德的團隊成員擴大一倍,而且要投入更多資源評估AI技術的潛在危害。但去年11月ChatGPT問世后大受歡迎,谷歌在此后幾個月內竭力將ChatGPT同類的生成式AI融入旗下所有重要產品。谷歌這種明顯加快步伐的變化可能產生深遠的社會影響。
媒體提到,一些曾在谷歌工作和目前還為谷歌效力的員工透露,去年12月拉響“紅色警報”后,谷歌高層領導改變了風險偏好,他們認定,盡管還需要讓道德團隊參與其中,但只要將新產品稱為“實驗”,公眾就可能原諒產品的缺點。
上述員工稱,此前谷歌承諾強化的道德規范工作團隊現在被剝奪了權力,士氣低落。負責新產品安全和道德影響的員工被告知,不要妨礙、或試圖扼殺一切正在開發的生成式AI工具。
谷歌本周三回應媒體稱,負責任的AI(responsible AI)仍然是公司的首要任務。“我們將繼續投資一些團隊,他們致力于將我們的AI原則應用于我們的技術?!?/p>
至少目前看來,谷歌在AI道德方面還有所警惕。
華爾街見聞上月提到,從谷歌員工處獲悉,谷歌給Bard加入了很多responsible AI方面的工作,在正式發布公測前,谷歌耗費大量時間做出了完備的合規測試。從這個角度看,相比ChatGPT的驚艷表現,多數用戶評價Bard平淡無奇可能是谷歌有意為之。換句話說,谷歌認為Bard可以“無聊”,可以出錯,但不能“越界”。
上周日,谷歌的CEO Sundar Pichai警告,如果對AI部署不當,可能造成非常嚴重的危害。盡管存在緊迫感,Pichai仍警告企業不要被卷入到競爭態勢中。他認為,社會還沒有為AI的快速發展做好準備,因此需要更強有力的監管。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。關鍵詞: