探展WAIC |專訪柏睿數(shù)據(jù)董事長劉睿民:Data+AI智能算力底座將助力解決“千模時代”算力需求

來源:藍鯨財經(jīng)

7月7日,柏睿數(shù)據(jù)董事長兼首席科學(xué)家劉睿民在世界人工智能大會中的區(qū)塊鏈+WEB3新發(fā)展論壇發(fā)表題為“分布式數(shù)據(jù)庫智能算力底座賦能金融WEB3.0”的演講,分享智能算力底座如何促進金融賦能實體經(jīng)濟。


【資料圖】

柏睿數(shù)據(jù)為國內(nèi)目前僅看到的推出全內(nèi)存分布式計算引擎的智能數(shù)據(jù)算力公司,目前已處于上市輔導(dǎo)階段。劉睿民是國內(nèi)資深的數(shù)據(jù)庫研發(fā)領(lǐng)軍專家,自2014年開始成立團隊致力于研發(fā)國內(nèi)首個大規(guī)模并行MPP內(nèi)存數(shù)據(jù)倉庫引擎。后成功其中,以MLOPS為方法論的數(shù)據(jù)智能開發(fā)平臺,包括LLMOps平臺(大模型開發(fā)運維平臺)、Rapids VectorDB(向量數(shù)據(jù)庫)等產(chǎn)品,覆蓋從數(shù)據(jù)采集、存儲、計算分析到模型訓(xùn)練、部署、應(yīng)用的全生命周期解決方案。近期,柏睿數(shù)據(jù)全球創(chuàng)新賦能中心在上海浦東新區(qū)授牌,也與多家海內(nèi)外創(chuàng)新主體聯(lián)合組建國際AI創(chuàng)新聯(lián)合體。

劉睿民在接受藍鯨財經(jīng)專訪時舉例,算力基座就相當(dāng)于引擎,數(shù)據(jù)就像油,AI、web3等訓(xùn)練、推理、使用數(shù)據(jù)庫的框架都需要靠底層算力。柏睿數(shù)據(jù)自主研發(fā)打造的Data+AI智能算力底座,融合大數(shù)據(jù)、人工智能、數(shù)據(jù)計算加速加密等技術(shù),能夠滿足產(chǎn)業(yè)智能下大規(guī)模的數(shù)據(jù)實時計算需求,并向云端演進,讓算力不再成為Web3.0發(fā)展的瓶頸。

藍鯨財經(jīng):作為已經(jīng)深耕分布式數(shù)據(jù)庫十年的企業(yè),是否會覺得大眾對AI、Web3的關(guān)注將帶領(lǐng)行業(yè)迎來全盛年代?

劉睿民:現(xiàn)在所說的千模萬模,基本上都是在應(yīng)用領(lǐng)域,因為我們是做基礎(chǔ)領(lǐng)域,所以說最后無論呈現(xiàn)模式是什么,都要用同樣的東西,就是算力。

現(xiàn)在市場需求量的急速擴張,很多人的困擾是模型已經(jīng)搭建好了,但無法進行訓(xùn)練。我們其實是從國產(chǎn)的角度來做數(shù)據(jù)庫,我們主要研發(fā)大內(nèi)存的全內(nèi)存分布式計算引擎。當(dāng)前算力的不足是一個關(guān)鍵問題,其中一項卡脖子的因素是英偉達的A100H100卡,由于禁運很多單位無法獲得這個昂貴的卡。而我們的全內(nèi)存分布式計算引擎通過軟硬件協(xié)同打通,可以達到196GB的內(nèi)存容量,相比之下,幾年前我們能夠?qū)崿F(xiàn)單板達到1TB內(nèi)存的規(guī)模。從行業(yè)角度來看,我們是國內(nèi)目前僅看到的專注于全內(nèi)存分布式計算引擎的公司,國外也只有五六家。國內(nèi)的用戶往往在買GPU時會有各種限制,這也面臨一些問題。像英偉達等公司,首先推出的是一款爆款產(chǎn)品。這種產(chǎn)品可能價格較高,但隨后會推出其他評級較低但價格更為實惠的產(chǎn)品版本。這些版本在性能方面可能達到原產(chǎn)品的六七成,但價格僅為原產(chǎn)品的十分之一。

因此,我們提供相對廉價的算力解決方案,直接利用內(nèi)存進行訓(xùn)練,創(chuàng)新解決算力問題。

藍鯨財經(jīng):柏睿數(shù)據(jù)推出的大模型開發(fā)運維平臺LLMOps平臺和其他產(chǎn)品如何助力Web3.0場景的落地?

劉睿民:LLMOps平臺賦能了應(yīng)用端的開發(fā)階段,使用者無需從頭開始開發(fā),而是可以借助平臺提供的基礎(chǔ)底層,通過簡單的拖拉拽操作來建立大模型。這意味著用戶只需要很少的代碼就能完成模型的建立。目前,LLMOps平臺在海外的客戶中使用較多,因為海外客戶相對成熟一些。而國內(nèi)客戶由于接觸國外平臺的機會較少,所以對LLMOps的了解還不夠。在人工智能領(lǐng)域,我們主要吸引了海外客戶的關(guān)注,比如新加坡的客戶。國內(nèi)的用戶也對我們的產(chǎn)品感興趣,但由于國外資源相對不易獲取,所以在某種程度上有些滯后。

這方面目前主要客戶是國外的人工智能公司,國外人工貴,他們需要將人工智能應(yīng)用落地到工業(yè)領(lǐng)域中,比如機器人優(yōu)化、港口調(diào)度等場景中的優(yōu)化問題。過去,他們通常通過編寫代碼來實現(xiàn)這些優(yōu)化場景,但現(xiàn)在情況不同了。他們可以在LLMOps平臺上進行拖拉拽式建模和試算,然后部署到計算機集群上進行計算。他們可以選擇連接到不同的平臺,如谷歌、AWS或微軟的集群。對于這些客戶來說,LLMOps的優(yōu)勢在于低門檻的使用和加速功能的提供。

藍鯨財經(jīng):是否意味著未來高自動化、低代碼化的公司會越來越多,這將成為必然發(fā)展趨勢?

劉睿民:這是必然的。隨著人工智能的發(fā)展,越來越多的任務(wù)和工作將被自動化取代,包括編寫簡單的代碼。這并不意味著復(fù)雜的編程工作將完全消失,但對于一般的程序員來說,未來可能會面臨挑戰(zhàn)。因此,自動化和低代碼的趨勢將成為主流,這是一種正常的發(fā)展過程。在未來的三到五年內(nèi),簡單的編程工作可能會變得相對無關(guān)緊要。

藍鯨財經(jīng):如何理解在WEB3.0特定應(yīng)用場景中,"FPGA計算引擎+配套軟件"如何提供比SmartNIC、GPU和AI大模型加速芯片等通用芯片更強大的專業(yè)計算能力?

劉睿民:舉例來說,GPU的功能原本是用于打游戲的,它的功能并非專為人工智能而設(shè)計,有段時間甚至被用來挖礦。這只是因為大家沒有一個芯片來運行更復(fù)雜的計算。無論后面的應(yīng)用場景是什么,通用的東西其實是雙精度運算,就是浮點運算。

我們現(xiàn)在把浮點運算的算法都放到了FPDA卡上,配上大內(nèi)存,然后內(nèi)存板和內(nèi)存板之間的通訊,通過我們?nèi)珒?nèi)存的分布式計算引擎連接在一起,這樣的話用戶就能夠調(diào)動比如說1TB甚至幾個TB的內(nèi)存。

在某種程度上,以后有一種專門運用于AI計算的芯片將成為必然。以前科學(xué)計算,尤其是超級計算中,開始使用了GPU,并建立了一個完整的生態(tài)系統(tǒng)。后來,GPU被應(yīng)用于人工智能的訓(xùn)練中,導(dǎo)致我們陷入了這樣一個循環(huán)。

所以,這是一個逐漸發(fā)展的過程,不是說有很多選擇可以做。事實上,在進行雙精度計算時,以前并沒有其他選擇,也沒有其他人在這個領(lǐng)域有大量研究?,F(xiàn)在雖然有了這樣的選擇,但限制還是很多。

藍鯨財經(jīng):柏睿數(shù)據(jù)對于數(shù)據(jù)隱私和安全方面有哪些保障措施和技術(shù)手段?

劉睿民:我們使用的是國密,技術(shù)路線類似于隱私計算,公司只有一個鎖芯,鑰匙是掌握在用戶手里的。“鎖芯”的安全性、穩(wěn)定性越高,“鎖”就越安全,數(shù)據(jù)就越安全。RapidsDB 總體代碼自研率高達99.32%,通過中國信通院、金融信創(chuàng)生態(tài)實驗室、國家密碼管理局商用密碼產(chǎn)品等多項國家級測試認(rèn)證,并在運營商、金融、電力、政務(wù)、醫(yī)療等多個行業(yè)成功落地應(yīng)用,安全性遙遙領(lǐng)先。

標(biāo)簽:

推薦

財富更多》

動態(tài)更多》

熱點