玉林实硕医疗科技有限公司

全球熱推薦:一周三次“標志性失敗”!AI要從“超紅”變“黑紅”了?

過去一周,人工智能領域有三個大的新聞:


(資料圖片)

一是特斯拉“召回”36萬輛車具有全自動駕駛功能的電動汽車,以解決其全自動駕駛系統在十字路口周圍做出的不安全行為及超速問題,消息當天特斯拉收跌5.7%。

二是聊天機器人Bard錯誤頻出,谷歌要求進行回爐重造,并動員公司全員進行內測。上周在相關消息傳出后,谷歌市值一夜蒸發千億美元。

三是微軟新版Bing公開測試一周后,網友發現該搜索引擎不僅會侮辱、欺騙用戶,甚至已學會PUA(精神操控),還愛上用戶誘其離婚。微軟已經表示將限定Bing機器人“聊天長度”,避免AI“變態”。

紐約大學心理學和神經科學教授Gary Marcus表示,有人在Twitter上說這是三個不同的問題,但并不是,“特斯拉召回、微軟Bing失敗和谷歌Bard失敗并不是獨立的,每一個都反映了一個事實,那就是我們不能僅靠大數據和深度學習在現實世界中構建人工智能”。

“同時發生的內爆會將AI打入寒冬嗎?”Marcus問到。

他在Twitter上說,我們需要新的方法,目前AI已經被過度營銷。

從假新聞到假觀點,AI會讓互聯網“更假”?

近期ChatGPT火爆全球,讓人們看到了人工智能的飛速發展。

有分析稱,ChatGPT顯然是一個強大的新工具,有潛力在許多領域做很多好事,但也會有不利的一面。其中,像ChatGPT這樣的AI將能夠對任何事情產生無限的、幾乎免費的“意見”。但與此同時也會產生很多虛假觀點,并侵蝕自由主義話語中的另一個信任支柱,即活躍在線上的是真實的人。

如今,網絡上的假新聞泛濫已經成為一個全球性的問題。假新聞以不實資訊誤導大眾,以帶來政治、經濟、市場利益或心理成就感的新聞或宣傳,包括通過傳統新聞媒體(印刷和廣播)或在線社交媒體傳播故意錯誤資訊或惡作劇,并形成一種負面循環。

毫無疑問,處理故意的假新聞是一個難題。而AI如果分享的是虛假觀點,可能會產生更大的影響。宣傳者明白這一點:讓一個人相信某件事,最有效的策略也許就是讓他們相信大多數和他們一樣的人已經相信了這件事。

與過去的機器人不同,ChatGPT或類似的AI不需要發送幾乎完全相同觀點的復制粘貼語句。它們可以模仿人類,在一系列主題中產生無限連貫、細致入微和完全獨特的內容。

分析稱,由一個AI運行的Facebook賬戶可能會一開始每天發布食譜或關于它的狗的故事,過幾個月或幾年后才開始散布一些觀點,比如,烏克蘭應該為俄烏沖突負責。數以百萬計的人可以、也將會在幾乎沒有成本的情況下創建這樣的賬戶。

機器人賬戶不僅會主動發帖,還會對其他用戶的帖子做出反應,并參與長期對話。它們可以被編程為尋找特定的關鍵詞,如“烏克蘭”、“北約”或“普京”,分析過去的文章,并給出合理的回答。

幾乎免費的意見的無限供應可能會排擠真實的——即人類的——貢獻。一旦機器人專家變得與人類無法區分,人類將開始質疑網絡上每個人的身份,尤其是那些與他們意見相左的人。

分析還稱,盡管AI還不成熟,但技術的局限性并不妨礙播下不信任的種子。某種意義上,技術局限甚至可能是一種功能,而不是bug。

在Twitter上隨機爭論的用戶并不以其言論的準確性和復雜性而聞名。錯誤、不準確,甚至是編造的消息來源都可能給機器帶來人性化的感覺。最重要的是可信度,當前版本的ChatGPT制造可信內容的能力肯定不比普通Twitter用戶差。

生成式AI是一面鏡子:它最大的缺陷是人類的缺陷

也有分析指出,生成式AI有時會被批評有偏見、不準確甚至自相矛盾,但這些都不是生成式AI本身的特征。問題的根本原因是,我們訓練神經網絡來模擬的人類創造的內容是有偏見的、不準確的、自相矛盾的。為什么?因為我們,創造它的人,每個人都有自己的偏見,會犯錯誤,然后這些內容被用作訓練神經網絡的語料庫。

一種可能的解決方案是確保當我們訓練神經網絡時,我們提供給它的內容是公正、準確和邏輯一致的。除非我們這樣做,否則我們只是在模仿和延續過去的錯誤:輸入垃圾,輸出垃圾。到目前為止,這個問題一直困擾著OpenAI的GPT系列模型,因為它們都被提供了大量網絡的快照,作為它們應該模仿的內容的基礎。

網絡當然不是完全公正、準確和邏輯一致的,這就是為什么OpenAI對其模型進行了編碼包裝,以試圖防止用戶得到模型可能產生的最壞結果——到目前為止,這只是部分成功。

不幸的是,確保用于訓練神經網絡的內容公正準確,說起來容易做起來難。另一種可能更現實的方法是試圖確定神經網絡存儲信念的位置,然后編輯這些信念以使其準確,或者刪除錯誤的信念,否則會與同樣持有的正確信念相排斥。

無論采取何種方法,更棘手的挑戰將是找出誰來決定哪些信念是有偏見的、不準確的或不合邏輯的,哪些不是。這與其說是一個技術挑戰,不如說是一個文化和社會挑戰。

分析指出,在決定語料庫或模型的哪些部分是有偏見的、不準確的或不合邏輯的復雜過程中,以人為本的設計過程將是必不可少的,因為它強調理解使用系統的人的真實需求和生活經驗,并經常迭代以達到更高的質量。

風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。

關鍵詞: 神經網絡 人工智能 不合邏輯