解鈴還須系鈴人?ChatGPT開發者放出AI內容識別工具,但稱失敗率高達3/4
(相關資料圖)
隨著ChatGPT爆火,AI生成內容也引發了諸如版權、學術倫理等擔憂。對此,ChatGPT背后的初創公司以彼之矛攻彼之盾,推出AI生成內容識別工具,但也坦言稱這款工具“并不可靠”。
周二,ChatGPT開發公司OpenAI推出了一個分類器(classifier)來區分人類寫的文本和來自各類AI(不僅僅是ChatGPT)寫的文本。
據OpenAI,其人工智能分類器在近四分之三的時間里無法檢測到機器人編寫的文本,因此它不應被用作主要的決策工具,而應作為確定一段文本來源的補充方法。
在對英文文本的識別測試中,這款分類器僅將26%的人工智能生成文本正確地識別為 "可能是人工智能寫的"。人類寫的文本也會被分類器“錯誤但自信地”標記為人工智能所寫,將人類寫的文本錯誤地標記為人工智能寫的的情況有9%。
據介紹,該分類器對短文(低于1000個字符)的識別非常不可靠,分類器的可靠性通常隨著輸入文本的長度增加而提高,但更長的文本也會被分類器錯誤地標記。
OpenAI建議只對英語文本鑒別使用該分類器,它在其他語言中的表現明顯更差,而且它在代碼識別上也不可靠。
OpenAI表示,分類器雖然不可能可靠地檢測出所有人工智能寫的文本,但該工具補充了教育工作者、雇主和其他人用來確定文本來源的方法,為一些錯誤行為提供參考,例如使用人工智能工具進行學術不端行為等。
自去年11月推出以來,ChatGPT病毒式地橫掃各行各業,能夠在幾秒鐘內就幾乎任何主題產生聽起來像人類的文章、詩歌、劇本和推銷文案,甚至能夠幫程序員寫代碼,幫學生寫論文。此外,ChatGPT還存在被濫用來傳播錯誤信息和編寫垃圾郵件的可能。
一些學校已經開始禁止學生使用ChatGPT,在很多互聯網大廠,ChatGPT也遭到了封殺。
根據用戶的反饋,OpenAI希望改進這個工具。該公司表示,已與美國教育工作者接觸,討論ChatGPT的功能和局限性。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。