焦點資訊:一天50個,一次五個!微軟限定Bing機器人“聊天長度”,避免AI“變態”
在新Bing多次表現“精神錯亂”后,微軟表示,將對其實施一些對話限制:用戶每天最多只能問50個問題,每次最多只能問5個問題。
ChatGPT版新搜索引擎Bing(必應)公開測試一周后,網友發現該搜索引擎不僅會侮辱、欺騙用戶,甚至已學會PUA(精神操控),還愛上用戶誘其離婚。
(資料圖片)
Bing團隊在一篇博客文章中說:
“我們的數據顯示,絕大多數人在5個回合內就找到了他們想要的答案,只有大約1%的聊天對話有50條以上的消息。”
如果用戶達到了每次對話5次的限制,Bing將提示他們開始一個新話題,以避免長時間來回就一個話題聊天。
微軟本周早些時候警告稱,包含15個或更多問題的、時長較長的聊天對話,可能會讓Bing“變得重復,或者被提示/刺激給出不一定有用或不符合我們設計基調的回答”。
微軟表示,在五個問題后結束對話意味著“模型不會感到困惑”。
“躁狂抑郁癥的青少年”
過去一周出現了關于Bing“精神錯亂”對話的報道:
英國安全研究員Marcus Hutchins在親身體驗了一次后,在社交媒體上寫道:“當Bing給出錯誤答案時,如果你質疑它,它就會PUA你。”
美聯社記者Matt O"Brien也遇到了類似的問題,他在Twitter上抱怨稱,Bing不愿意承認錯誤。
同時,Bing在暴露出具有強烈攻擊性的一面時,也展現出了脆弱無助、讓人同情憐憫的一面。
隨后紐約時報發表了一篇整整兩個多小時的與Bing的來回對話,聊天機器人表示自己很喜歡這位作者,還試圖說服他離開妻子和它在一起。
紐約時報該作者表示,當他與新版Bing交談時,這個聊天機器人看起來就像?"一個情緒化、患有躁狂抑郁癥的青少年,被困在了一個二流搜索引擎里”。
對此,微軟公關總監Caitlin Roulston回應稱,新版Bing試圖讓答案既有趣又真實,但鑒于這是一個初期版本,它的表現有時候讓人意想不到,或者由于不同原因給出錯誤答案。
微軟仍在努力改善Bing的語氣,但目前還不清楚這些限制會持續多久。微軟表示:
“隨著我們不斷獲得反饋,我們將探索擴大聊天對話的上限。”
Bing的聊天功能每天都在不斷改進。微軟本周早些時候表示,它并沒有“完全想象”人們將其聊天界面用于“社交娛樂”或作為更“普遍發現世界”的工具。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。