您的位置:首頁 > 財經(jīng) >

西安交大校企聯(lián)合具身智能機器人研究院公布人形機器人矩陣

30日從西安交通大學(xué)獲悉,由優(yōu)艾智合與西安交通大學(xué)聯(lián)合創(chuàng)立的具身智能機器人研究院29日首次對外公布團隊打造的人形機器人矩陣,并亮相其中一款輪式人形機器人——巡霄。

此次研究院公布的人形機器人系列包含7款產(chǎn)品,根據(jù)應(yīng)用場景的差異形成不同的機器人定位,涵蓋雙足、輪式、四足、履帶式等形態(tài)。其中,“巡霄”針對大面積復(fù)雜室內(nèi)場景,擁有長續(xù)航和高靈活性的特點,基于優(yōu)艾智合在半導(dǎo)體和能源領(lǐng)域的場景積淀,已應(yīng)用于半導(dǎo)體制造Sub-FAB運維及能源行業(yè)配電間操作等領(lǐng)域。

優(yōu)艾智合-西安交大具身智能機器人研究院公布人形機器人矩陣。優(yōu)艾智合-西安交大具身智能機器人研究院供圖

基于場景適應(yīng)性特征,優(yōu)艾智合-西安交大具身智能機器人研究院團隊構(gòu)建了“一腦多態(tài)”的具身智能大模型,采用多模態(tài)通用基座大模型+“一腦多態(tài)”端側(cè)具身模型的混合架構(gòu),并完成場景應(yīng)用初步驗證。

其中,基座大模型采用VLM(多模態(tài)大模型)和MoE(混合專家)架構(gòu),基于多模態(tài)預(yù)訓(xùn)練數(shù)據(jù)集和“Data Ocean”海量專家級真實訓(xùn)練數(shù)據(jù)集完成對復(fù)雜任務(wù)的場景感知和通用語言理解,將復(fù)雜指令導(dǎo)入到端側(cè)具身模型中完成高頻的實時控制和質(zhì)量在線評估?;诙嗄B(tài)基座大模型,融合行業(yè)知識圖譜,團隊構(gòu)建了面向工業(yè)智能制造、智慧巡檢、生活服務(wù)等泛化場景的Agent聚合應(yīng)用平臺。

在“一腦多態(tài)”端側(cè)具身模型架構(gòu)下,團隊融合強化學(xué)習(xí)、模仿學(xué)習(xí)和深度學(xué)習(xí)等關(guān)鍵技術(shù),打造了多模態(tài)交互、視覺語義感知和行為推理決策的具身“大腦”MAIC(Mobile AI Comprehension),形成立體感知、全身關(guān)節(jié)控制、靈巧操作的端到端控制具身“肢體”,和基于多模態(tài)傳感融合的針對不同場景的多態(tài)“移動”能力。

具身大模型打通了從專業(yè)數(shù)據(jù)-推理決策-實時控制-場景閉環(huán)-持續(xù)學(xué)習(xí)的全鏈條具身智能生態(tài),推動具身智能規(guī)?;瘧?yīng)用的創(chuàng)新發(fā)展。

優(yōu)艾智合是國內(nèi)頭部移動操作機器人企業(yè),在半導(dǎo)體智能制造及能源巡檢等領(lǐng)域保持市場領(lǐng)先。2024年11月,優(yōu)艾智合與西安交通大學(xué)聯(lián)合創(chuàng)立具身智能機器人研究院,布局具身智能技術(shù)前瞻,探索具身智能場景應(yīng)用。

基于優(yōu)艾智合在工業(yè)領(lǐng)域的技術(shù)與市場積淀,研究院發(fā)布的人形機器人系指向泛化工業(yè)場景應(yīng)用前瞻,加速具身智能規(guī)模化工業(yè)應(yīng)用的到來。

標簽:

相關(guān)閱讀