在發(fā)展中治理完善人工智能大模型

來源:經(jīng)濟日報

新一輪科技革命和產(chǎn)業(yè)變革迅猛發(fā)展,數(shù)字技術(shù)、智能經(jīng)濟與數(shù)字化產(chǎn)業(yè)成為催生新產(chǎn)業(yè)、新業(yè)態(tài)、新模式的重點領域。發(fā)布僅6個月的ChatGPT,已掀起全球人工智能(AI)產(chǎn)業(yè)的大模型熱潮。在日前舉辦的中國人工智能產(chǎn)業(yè)年會中,AI大模型帶來的安全挑戰(zhàn)和發(fā)展機遇成為與會專家熱議話題。


【資料圖】

賦能千行百業(yè)

ChatGPT在與人類對話、寫作文、寫代碼等方面令人驚艷的表現(xiàn),是AI大模型GPT通過大算力、大規(guī)模訓練數(shù)據(jù)突破自然語言處理瓶頸的結(jié)果。但大模型本身并不是新鮮事物,AI大模型也不止GPT這一條路線,很多科技巨頭近幾年都在“煉”大模型,且各有積累。這也是ChatGPT走紅之后,各巨頭短短數(shù)月內(nèi)就紛紛推出競品的原因。

“以ChatGPT為代表的多模態(tài)通用大模型,將深刻變革各行各業(yè)?!彪娮涌萍即髮W教授、考拉悠然科技有限公司聯(lián)合創(chuàng)始人沈復民說,行業(yè)人工智能可有效推動技術(shù)與市場供需平衡,將是人工智能產(chǎn)業(yè)化的最大機遇。人工智能技術(shù)落地行業(yè)時,需要克服開發(fā)效率低、落地成本高、場景復雜多元等難題。

沈復民所在的研發(fā)團隊獲得了2022年度吳文俊人工智能科學技術(shù)獎自然科學一等獎。據(jù)他介紹,團隊開發(fā)了為垂直行業(yè)賦能的多模態(tài)AI操作系統(tǒng),基于行業(yè)多模態(tài)大模型、多模態(tài)融合分析、機器視覺等核心AI算法支持,可以讓企業(yè)擺脫繁雜的算法、算力、數(shù)據(jù)整合工作,快速孵化行業(yè)大模型,高效率應用到工業(yè)制造、城市治理、消費、能源、交通、建材等業(yè)務場景。

“通用對話技術(shù)是人工智能領域最具挑戰(zhàn)性的方向之一,也被認為是通用人工智能的必備能力。如今備受關注的對話式人工智能,其背后就有通用對話技術(shù)。”百度首席技術(shù)官、深度學習技術(shù)及應用國家工程研究中心主任王海峰說。中國人工智能產(chǎn)業(yè)年會期間,由他帶領團隊完成的“知識與深度學習融合的通用對話技術(shù)及應用”成果,獲2022年度吳文俊人工智能科技進步獎特等獎。

公開資料顯示,這一研究項目已獲授權(quán)發(fā)明專利82項,發(fā)表高水平論文36篇,在國際權(quán)威評測中獲世界冠軍11項。目前項目成果實現(xiàn)了大規(guī)模產(chǎn)業(yè)應用,已支持5億智能設備,服務超過10億用戶,覆蓋包括通信、金融、汽車、能源等20多個行業(yè)。

爭取“主動安全”

技術(shù)是把雙刃劍。人工智能大模型能力越大,一旦濫用帶來的危害也就越大。當前,ChatGPT等工具被用于生成假新聞、假照片、假視頻,甚至實施詐騙等犯罪行為,引發(fā)人們對大模型安全性的擔憂。

西北工業(yè)大學教授王震是網(wǎng)絡空間智能對抗應用研究領域的專家,他認為,要用人工智能驅(qū)動網(wǎng)絡空間智能對抗。比如,用人工智能檢測、識別有害信息,搭建“主動安全”的智能防御網(wǎng)。

“只有在AI發(fā)展過程中,我們才能面對問題、解決問題,并找到機遇?!蔽浵伡瘓FAI風險管理負責人楊舟表示,在AI管理中,安全事件對日常風險管理至關重要。“我們需要重視和預測相關事件,分析安全問題,避免發(fā)展帶來的風險?!?/p>

了解機理是安全管理的基礎。不過,大模型的“智能涌現(xiàn)”目前還是個難以解釋的黑箱,沒有人能理解、預測或可靠地控制這些大模型,甚至模型的創(chuàng)造者也不能。開發(fā)出ChatGPT的公司OpenAI,也為大模型做了大量價值敏感設計和道德嵌入工作,但仍然存在明顯的漏洞和局限。

“雖然大模型的能力在不斷變強,但如果不對其進行專門的安全性訓練或安全性加固,其脆弱性不會得到任何改善。”瑞萊智慧公司首席執(zhí)行官田天認為,人工智能大模型的安全性面臨很多挑戰(zhàn)。

“大模型是人工智能發(fā)展的轉(zhuǎn)折點,研究人員需要進一步了解這些大模型為何具備類人思考的能力?!毕愀劭萍即髮W教授馮雁表示,ChatGPT最初只作為科研項目發(fā)布,但通過加入人機交互界面,迅速變成網(wǎng)紅產(chǎn)品。其爆紅帶來的倫理問題始料未及,也給生成式人工智能的管理提出了挑戰(zhàn)?!爸挥姓嬲拈_源,才能共同研究,理解大模型存在的問題和產(chǎn)生的根源,更好地進行管理?!?/p>

“商湯一直是開源開放的貢獻者和支持者,但在開源上我們要謹慎一些,特別是目前對于大模型而言,安全防護體系還未健全。”商湯科技人工智能倫理與治理研究主任胡正坤說,在智能時代把底層模型開源,不見得安全,因為在開放能力的同時,也在開放薄弱點,而薄弱點有可能被不法分子利用。

亟需深度治理

專家們對未來的人工智能長遠治理做出種種設想。

“不能把價值設計看成治理的唯一路徑?!睆偷┐髮W應用倫理學研究中心教授王國豫認為,針對現(xiàn)階段人工智能治理的局限性,可從三方面采取措施。一是充分評估數(shù)據(jù)和模型的倫理影響和風險點;二是從流程方面,不僅要考慮通用模型,還要把通用模型納入到社會生態(tài)系統(tǒng)、社會政治經(jīng)濟系統(tǒng)來考慮;三是探索倫理方法,充分探索“價值敏感設計”“負責任創(chuàng)新”等倫理方法在通用模型語境下的可行性。

中國社會科學院哲學所科技哲學研究室主任、研究員段偉文表示,需要警惕機器對人類思維的馴化。比如,有的人不擅社交,可能用人工智能生成對話的方式幫他社交聊天,這樣的對話機制會反過來馴化人類。他建議加強人類和人工智能的交互和溝通,不僅要了解人類怎么去修機器,也要研究機器如何影響人類。

中科院自動化研究所研究員曾毅期待構(gòu)建人工智能的道德直覺,“為機器人立心、為人工智能立心”是重要的長遠工作目標?!皬娀瘜W習的獎懲只是加加減減,它不是真正對道德的理解,除非人工智能實現(xiàn)基于自我的道德直覺。缺乏自我的人工智能無法擁有真正的道德直覺,做真正的道德決策。我們在做一個基于類腦的脈沖神經(jīng)網(wǎng)絡構(gòu)建創(chuàng)生的人工智能引擎,希望讓它像兒童一樣去學習,獲得自我感知?!痹阏f。

“從要求人工智能大模型合乎倫理,到真正構(gòu)建有道德的人工智能?!痹惚硎荆磥硗ㄓ萌斯ぶ悄芎统壷悄艿膫惱戆踩珕栴},要從現(xiàn)在就開始關注和準備。 (經(jīng)濟日報記者 佘惠敏)

標簽:

推薦

財富更多》

動態(tài)更多》

熱點