生成式AI引發(fā)治理新思考

來源:科技日報

過去幾個月,ChatGPT為人工智能技術按下加速鍵。這個聊天程序證明了超大參數(shù)模型和通用型人工智能的可行性,谷歌、亞馬遜等巨頭紛紛推出自主研發(fā)的相關平臺,國內也已有十數(shù)家企業(yè)在該領域有所布局。

它們被統(tǒng)稱為“生成式人工智能”。簡單來說,這種AI可以通過算法生成新內容,包括圖像、文字、音樂,甚至視頻、代碼等。


(相關資料圖)

這令人興奮也不乏擔憂。數(shù)據(jù)安全、個人隱私、信息造假、算法歧視……各國監(jiān)管部門對一系列潛在風險反應迅速,動作不斷。

3月底,意大利個人數(shù)據(jù)保護局宣布暫時禁止使用ChatGPT,歐盟多個國家跟進,醞釀具體監(jiān)管措施。美國商務部4月公開征求意見,討論新人工智能模型在發(fā)布前是否應經過認證程序等內容。我國國家網信辦也于近日發(fā)布《生成式人工智能服務管理辦法(征求意見稿)》,針對準入門檻、數(shù)據(jù)來源、標注規(guī)則等作出明確規(guī)定。

風險到哪里?監(jiān)管到哪里

“相比以往的AI技術,生成式AI可以直接利用自然語言和計算機進行交互,使用門檻低,生成內容質量高。”世輝律師事務所合伙人、律師王新銳對科技日報記者表示,“這讓其一旦被濫用或誤用,迷惑性比以往的人工智能技術更強,潛在損害也更大。并且它有可能成為一種影響各行業(yè)的底座型技術。”

除了涉及數(shù)據(jù)安全、個人信息保護等傳統(tǒng)問題,中國互聯(lián)網協(xié)會研究中心副主任吳沈括強調,生成式AI也給內容治理、社會運行產生沖擊和影響,這給現(xiàn)有的治理體制機制的敏捷性、覆蓋性和穿透性帶來很大挑戰(zhàn)。

據(jù)王新銳介紹,目前,意大利、西班牙、德國、加拿大、英國等國家出于數(shù)據(jù)和隱私保護的考慮對ChatGPT及其開發(fā)者展開調查,此外,域外有可能將ChatGPT等生成式AI列入高風險人工智能清單,希望通過立法防范其風險。

吳沈括表示,前述主要國家對于生成式AI的監(jiān)管依然從經典的數(shù)據(jù)治理、數(shù)據(jù)安全的角度切入,在他們看來,生成式AI的核心邏輯在于海量數(shù)據(jù)的匯集、加工、處理以及豐富的運算輸出,因此,采取數(shù)據(jù)治理的思路順理成章。

但回到我國,僅從數(shù)據(jù)治理出發(fā)還不夠,“我們的關切涉及內容治理、消費者權益、透明度、公平性、知識產權保護等各個方面,基本覆蓋了目前與生成式AI相關的主要風險類型,故而采取的是一種風險預防、風險干預的多層次綜合治理思路?!眳巧蚶ㄕf。

建構多方參與的治理生態(tài)

技術大步向前,如何平衡技術創(chuàng)新和政策管理,考驗各方智慧。

“一方面,我們需要加強數(shù)據(jù)隱私和個人信息安全的保護,對生成式AI從訓練到投入使用的全生命周期的個人信息的處理和數(shù)據(jù)保護作出規(guī)范。另一方面,從生成式AI可能帶來的風險出發(fā),在現(xiàn)有法律框架上進一步建立健全生成式AI產業(yè)各方主體治理框架和問責機制,落實生成式AI相關主體的權利義務?!蓖跣落J說,下一步需要進一步細化落實平臺合規(guī)機制、加強科技倫理要求、確保算法安全并建立健全問責機制、促進高質量數(shù)據(jù)合法合規(guī)地流通共享。

吳沈括提出,治理規(guī)則的明確性和確定性需要不斷提升,努力打造實時、敏捷、全面的監(jiān)管機制,最大限度發(fā)揮監(jiān)管的引導作用及紅線保護的根本價值。

生成式AI爆火,涉及諸多利益訴求及關切。對此,王新銳建議,需要充分觀察產業(yè)界和監(jiān)管機構、大眾媒體的互動,建立多方參與的治理機制。同時,加強公眾教育和參與,提高公眾對生成式AI的認識和理解,共同推動生成式AI的健康發(fā)展。

標簽:

推薦

財富更多》

動態(tài)更多》

熱點