發布時間:2023-04-18 14:18:54
成都市(shì)新都區(qū)不鏽鋼回收電話13981937861,成都91污污污廢舊物資回收有限公司長期回收空調、變壓器、配電(diàn)櫃、電腦、廢鐵、廢銅、電子電器、電線電纜、廢舊金屬、廢舊等(děng)物資,聯係(xì)電(diàn)話:13981937861,18980010174。
AI大模型技術應用爆(bào)發,雲市(shì)場也在加速變革。
4月18日,火山引擎在其舉辦的“原動(dòng)力大會”上發布自研DPU等係列雲產品,並推出新版機器學習平台:支持(chí)萬卡級大模型訓練、微(wēi)秒(miǎo)級延遲網(wǎng)絡,讓大模型訓練更穩更快。火山引擎總裁譚待表示,AI大模型有巨(jù)大潛力和創新空間,火山引擎會(huì)服務客戶做好大模型,共同推動各行業的智能化升級(jí)。
“國內有數十家做大模型的企業,大多已經在火山引擎雲上”,譚(tán)待認為,大模型不會一家獨(dú)大。與其他雲廠商力推自家大(dà)模型不同的是,火山引擎將接入多家(jiā)大模型(xíng)深度合作,為企業和消費者提供更(gèng)豐富的AI應用。
會上,火山引擎宣布與字節(jiē)跳動國(guó)內業務並池。基(jī)於內外統一的雲原生基礎架構(gòu),抖(dǒu)音等業(yè)務的空閑計算資源可(kě)極速(sù)調(diào)度給火山引擎客戶使用(yòng),離線(xiàn)業務資源分鍾級調度10萬核CPU,在線業務資源也可潮汐複用,彈性計算搶占式實例的(de)價格最高可(kě)優惠80%以上。
讓大模型訓練快速跑(pǎo)起來
自(zì)2022年底發布以來,ChatGPT成為(wéi)人類曆史上最快獲得上億用戶的(de)消費級互(hù)聯網應用(yòng)。最新的GPT-4大模型,更是在法律、數學(xué)、生物(wù)學等多項測試中超過90%人類(lèi)。
譚(tán)待表示,國內很多科技公司投入到大模型建(jiàn)設中,他們有優秀的技術團(tuán)隊(duì),也有(yǒu)豐富的行業知識(shí)和創新想法,但往(wǎng)往(wǎng)缺乏經過大規模場景(jǐng)實踐的係統(tǒng)工程能力。火山引擎要做的就是為大模型客戶(hù)提供高穩定性和高性價比的AI基礎設施。
據悉,火山引擎機器學習(xí)平台經過抖音等海量用戶(hù)業務長期打磨,支持單任務萬卡級別的超大規模分布式並行訓練場景。GPU彈(dàn)性計算實例可靈(líng)活調度資源,隨(suí)用隨取,最高(gāo)可以為客戶節省70%的算力(lì)成本。
字節跳(tiào)動副(fù)總裁楊震原認為,業務創新需(xū)要試錯,試錯要大膽、敏捷,但試錯也一(yī)定要控製成本。通過潮汐、混部等方(fāng)式(shì),火山引擎實現資源的高利用率和極低成本。以抖音(yīn)推薦係統為例(lì),工程師用15個月的樣本訓練某個模型,5小時就能完成訓練,成本隻有5000元。火爆全網的抖(dǒu)音“AI繪畫”特效,從(cóng)啟動到上(shàng)線(xiàn)隻用一(yī)周多時間,模型由一名算法工程師完成訓練。
圖:字節跳動副總裁楊震原分享抖音的機器學習(xí)實踐
MiniMax是目前國內(nèi)少數已經(jīng)推出自研大模(mó)型產品的AI技術公司,擁有(yǒu)文本(běn)、視覺、聲音三種通用大模型引(yǐn)擎能力。據MiniMax聯合創始人楊斌介紹,MiniMax與火山引擎合作建立了超大規模實驗平台,實(shí)現千卡級常態化訓練;超大規模推理平台有萬(wàn)卡級算力池,支撐單日(rì)過(guò)億次調用。在火山引擎的雲上(shàng),MiniMax大模型業務實現快速突破。
譚(tán)待透露,火山(shān)引(yǐn)擎的大模型雲平台獲得智譜AI、昆侖萬維等眾(zhòng)多企業的良好(hǎo)反饋(kuì)。國內大模型領域,七成以上(shàng)已是火山(shān)引(yǐn)擎(qíng)客戶。
向“多雲多模型”架構演進
有評論稱,大模型將成為雲廠商彎道超車的機(jī)會。譚待(dài)對此表示,大模型還在發展初期,麵臨數據安全、內容安全、隱私保護、版(bǎn)權保護等許多問(wèn)題需要努力解決。但可以預見,大模型將帶動雲上AI算力急劇增長,AI算力的工作負載與通用算力的差距會越來越小,這(zhè)會為各家(jiā)雲廠商帶來新的機會,同時也會(huì)對數據中心、軟硬件棧、PaaS平台帶(dài)來新的挑戰。
以數據(jù)中心的算力結構為例,譚待表(biǎo)示:“大模型需要大算力,虛擬(nǐ)化會帶來資源損耗,規模越(yuè)大就損耗越多。未(wèi)來(lái)3年內,大規模的(de)算力中心,都(dōu)將形成‘CPU GPU DPU’的混合算力結構,CPU負責通用計算,GPU負責AI計算,DPU負(fù)責資源卸載、加速和隔離,提升資源效率”。
此次原動力大會上,火山引擎發布了新(xīn)一代自研DPU,實現計算、存儲、網(wǎng)絡的全組件卸載,釋放更多資源給(gěi)業務負(fù)載。火山引擎盡管是“最年輕”的雲廠商,其自研DPU已達到業界領先水(shuǐ)平,網絡性能高達5000萬pps轉發能力、延遲(chí)低至20us。基於自研DPU的各類計算實例性能也有顯著(zhe)提(tí)升,例(lì)如適用於大模型分(fèn)布式(shì)並(bìng)行訓練場景的GPU實例(lì),相較上一代實例集群(qún)性能最高提升3倍以上。
自動駕(jià)駛公司毫末智行與火山引擎合作打造智算中心,為DriveGPT自動駕駛生成(chéng)式預訓練模型提供強大的算力支持。毫末智行CEO顧維灝介紹,DriveGPT使用(yòng)量產車4000萬公裏的人(rén)駕數據訓練,參數規(guī)模達1200億,對自動駕駛認(rèn)知決策模型進(jìn)行持續優化。
譚待表示,在大模型及下(xià)遊應用(yòng)發展推動下,無論傳統(tǒng)企業還是初創企業,對AI算力都有迫切需求,企業使用多家雲服務將成(chéng)為(wéi)常態。同時,各行業有(yǒu)自己高(gāo)質(zhì)量的私有語料,大模型不會一(yī)家獨大,而是會在千行百業生長,形成多(duō)模型共(gòng)生甚(shèn)至協作的生態。“未來將是‘多雲多模型’的時代”,譚待稱。
圖(tú):火山引擎總裁譚待宣布(bù)支持“多雲(yún)多模型(xíng)”的未來架構(gòu)
火山引擎也順勢推出(chū)了分布式雲原生平台、多雲安全、多雲CDN、veStack混合雲平台等係列產品,支持客戶更好(hǎo)地使用多家(jiā)雲服務。“字節跳動用過全球(qiú)幾乎每一朵公有雲,以及大多數CDN,形成一套完整(zhěng)的分布式雲管理體係和架構實踐”,譚待堅信火山引擎是最懂多雲和分布式雲的雲服務商(shāng),這些技術能力都會毫無保(bǎo)留地提供給客戶。
楊震原進一步表示,火山引擎對內(nèi)對外提供統一的產品,抖音、今日(rì)頭條等APP開屏都加上了“火(huǒ)山引擎提供計(jì)算服務”。楊震原(yuán)說:“數字化時代,機器學習可以智能、高效地(dì)圍繞目標解決問題。數字化的下一步是智能化,我們在機器學習方麵的技術積累(lèi)和經驗,都會通過火(huǒ)山引擎提供給(gěi)外部客戶,幫助更多企業做好智能化”。