今日關注:新華社:今天,聊聊ChatGPT
新聞分析:ChatGPT,變革與風險?
美國人工智能公司OpenAI的大語言模型ChatGPT在推出約兩個月后,1月已達到1億月活躍用戶,成為歷史上增長最快的消費者應用程序。相關專家預計,ChatGPT不僅是新一代聊天機器人的突破,也將為信息產業帶來巨大變革,但由此帶來的學術造假、技術濫用、輿論安全等風險亦不容忽視。
(資料圖片僅供參考)
新一代操作系統平臺的雛形
多語言撰寫充滿想象力的詩歌,編寫可運行的程序,快速生成論文摘要,自動制作數據表格,糾正文章中的語法和表達錯誤,把一周大事寫成新聞綜述……ChatGPT不僅能理解很多人類問題和指令,流暢展開多輪對話,也在越來越多領域顯示出解決多種通用問題的能力。
ChatGPT還輕松通過一些對人類難度較高的專業級測試:它新近通過了谷歌編碼L3級(入門級)工程師測試;分別以B和C+的成績通過了美國賓夕法尼亞大學沃頓商學院MBA的期末考試和明尼蘇達大學四門課程的研究生考試;通過了美國執業醫師資格考試……業界形容它的誕生是人工智能時代的“iPhone時刻”,意味著人工智能迎來革命性轉折點。
“ChatGPT的成功不應僅僅被看作新一代聊天機器人的突破,而應該重視其對人工智能乃至整個信息產業帶來的革命?!北本┲窃慈斯ぶ悄苎芯吭涸洪L黃鐵軍接受記者專訪時說,人工智能領域的過去十年是深度學習的十年,但產業總體上并沒有出現移動互聯網和云計算級別的爆發,“ChatGPT的出現,具有劃時代意義,大模型+ChatGPT已形成新一代操作系統平臺的雛形”。
黃鐵軍說,ChatGPT在技術路徑上采用了“大數據+大算力+強算法=大模型”路線,又在“基礎大模型+指令微調”方向探索出新范式,其中基礎大模型類似大腦,指令微調是交互訓練,兩者結合實現逼近人類的語言智能。ChatGPT應用了“基于人類反饋的強化學習”訓練方式,用人類偏好作為獎勵信號訓練模型,促使模型越來越符合人類的認知理解模式。
“這樣的AI可幫助人類進行真實創造,尤其是幫助人類提高創造效率,比如提高獲取信息的效率或提出新穎想法,再由人解決其真實性問題。創造效率的提高將產生巨大效益和多方面影響,可以改變世界信息化格局?!敝袊茖W技術大學機器人實驗室主任陳小平對記者說。
引發新一輪人工智能科技競賽
ChatGPT的問世正在人工智能領域引發新一輪科技競賽。北京時間2月8日凌晨,微軟推出由ChatGPT支持的最新版本必應搜索引擎和Edge瀏覽器,宣布要“重塑搜索”。微軟旗下Office、Azure云服務等所有產品都將全線整合ChatGPT。
北京時間2月7日凌晨,谷歌也發布了基于谷歌LaMDA大模型的下一代對話AI系統Bard。同一天,百度官宣正在研發的大模型類項目“文心一言”,計劃在3月完成內測,隨后對公眾開放。阿里巴巴、京東等中國企業也表示正在或計劃研發類似產品。
人工智能大模型領域的全球競爭已趨白熱化。黃鐵軍認為,ChatGPT未來有望演變成新一代操作系統平臺和生態。這種變革似移動互聯網從個人電腦到手機的轉化,大部分計算負荷將由大模型為核心的新一代信息基礎設施接管。這一新范式將影響從應用到基礎設施各層面,引發整個產業格局的巨變,大模型及其軟硬件支撐系統的生態之爭將成為未來十年信息產業焦點。
值得注意的是,ChatGPT有時會“一本正經地胡說八道”,存在事實性錯誤、知識盲區和常識偏差等諸多問題,還面臨訓練數據來源合規性、數據使用的偏見性、生成虛假信息、版權爭議等人工智能通用風險。多家全球知名學術期刊為此更新編輯準則,包括任何大型語言模型工具都不會被接受為研究論文署名作者等。
“學術論文的署名作者須滿足至少兩個條件,其一是在論文工作中做出‘實質性貢獻’,其二是能承擔相關的責任。目前這兩個條件ChatGPT(以及其他AI系統)都不滿足?!标愋∑秸f。
ChatGPT也有應用在輿論信息戰方面的潛力。加拿大麥吉爾大學研究團隊曾使用ChatGPT前代模型GPT-2閱讀加拿大廣播公司播發的約5000篇有關新冠疫情的文章,然后要求其生成關于這場危機的“反事實新聞”。連OpenAI也警告使用ChatGPT的用戶,它“可能偶爾會生成不正確的信息”,“產生有害指令或有偏見的內容”。
“針對這些問題,需要我們在發展技術的同時,對于ChatGPT應用邊界加以管控,建立起對人工智能生成內容的管理法規,對利用人工智能生成和傳播不實不良內容進行規避。同時加強治理工具的開發,通過技術手段識別人工智能生成內容。這對于內容檢測和作品確權,都是重要前提?!北本┤鹑R智慧科技有限公司副總裁唐家渝說。
本文來源:新華社,原文標題:《今天,聊聊ChatGPT》。
風險提示及免責條款 市場有風險,投資需謹慎。本文不構成個人投資建議,也未考慮到個別用戶特殊的投資目標、財務狀況或需要。用戶應考慮本文中的任何意見、觀點或結論是否符合其特定狀況。據此投資,責任自負。