具身智能工業(yè)場景需求明確,擴大應用場景處理復雜數(shù)據(jù)是發(fā)展重點
未來要提高機器人在更多行業(yè)的泛化能力
編輯部 發(fā)自 凹非寺
量子位 |?公眾號 QbitAI
具身智能,無疑是2024最熱科技話題之一。
很多人會好奇,有著超級AI大腦的機器人,何時能夠參與到我們的日常生活當中?什么時候才能給我們建立一個真實的物理世界模擬器?
現(xiàn)在,國內具身智能創(chuàng)新應用引領者云深處,在MEET 2025智能未來大會上分享了自己的觀點:
具身智能提高了傳統(tǒng)機器人的泛化能力,處理真實環(huán)境中的復雜數(shù)據(jù)仍是未來訓練重點。
目前具身智能行業(yè)處于L2級,工業(yè)場景中的需求非常明確。
云深處科技公司成立于2017年,專注于具身智能的研發(fā)與應用,擁有超過15年的腿足機器人研發(fā)經(jīng)驗,其產(chǎn)品已在電力、消防、救援、建筑、安防等多個行業(yè)中實現(xiàn)商業(yè)化應用。
在MEET 2025智能未來大會上,量子位邀請到了云深處科技公司的聯(lián)合創(chuàng)始人兼CTO李超,探討了云深處科技公司旗下機器人產(chǎn)品的發(fā)展歷程、目前具身智能行業(yè)的發(fā)展重點、未來公司的商業(yè)和技術方面的規(guī)劃等話題。

MEET 2025智能未來大會是由量子位主辦的行業(yè)峰會,20余位產(chǎn)業(yè)代表與會討論。線下參會觀眾1000+,線上直播觀眾320萬+,獲得了主流媒體的廣泛關注與報道。

核心觀點梳理
- 多模態(tài)數(shù)據(jù)及真實性(To-Real問題)仍是制約具身智能進一步發(fā)展的關鍵因素之一。
- 類似于自動駕駛的分級標準,具身智能也呈現(xiàn)出從L0到L4的不同級別,目前基本處于L2階段。
- 行業(yè)內對具身智能的未來充滿樂觀,預計將在工業(yè)及其他非家用場景中率先實現(xiàn)大規(guī)模商業(yè)化應用。
- 云深處通過對具體場景做適配、并對模型能力進行約束,已實現(xiàn)強化學習算法的產(chǎn)品化落地。
以下是李超在MEET大會現(xiàn)場圓桌論壇的QA實錄,為了完整體現(xiàn)他的思考,在不改變原意的基礎上,量子位對問答部分進行了編輯整理,希望能給你帶來更多啟發(fā)。
提高傳統(tǒng)機器人智能泛化能力
量子位:云深處很早開始就直奔具身智能終點,做仿生類形態(tài),你們是怎么思考這個問題?
李超:云深處科技從今年開始專注具身智能的技術創(chuàng)新與行業(yè)引領,客觀來說我們云深處是具身智能第一批受益者,也真實產(chǎn)生了一些市場價值。
我們最早是做機器狗的,幾年前,這些機器狗很多是基于模型進行控制,它的泛化能力和適應性沒有現(xiàn)在這么好。

這兩年我們在這方面持續(xù)投入,去年整個團隊就已經(jīng)在做跟訓練相關的具身智能,去年開始我們的四足機器人有了很好的應用,今年開始規(guī)模化應用。
我們有面向一些消防場景,還有救援的、特種的,包括電力巡檢等,具身智能給機器人賦予了靈魂,有了這個靈魂加持,加上機器人的應變能力本身也很強,目前已開始實現(xiàn)一年增長兩三倍的規(guī)模化應用。
到明年還會有更多應用,面向更開放的環(huán)境,陸陸續(xù)續(xù)會在一些民用的場景有更好的應用。

量子位:具身智能這個概念來自于艾倫·圖靈,是他在半個世紀以前開始定義或者構想的事情,到現(xiàn)在我們才真正定義元年,云深處當時是看到什么趨勢,或者產(chǎn)業(yè)內有什么樣技術或者要素變化,讓你們覺得可以開始做具身智能了?
李超:具身這個概念早些年其實我不太熟悉,云深處團隊,包括浙大團隊,最早是把學習引入到機器人控制中。
我們在2019年時其實就做了這個工作——多專家系統(tǒng),也登上Science Robotics子刊。

但是這里面的工作,是不是真的能超過以前的一些算法,能否實現(xiàn)產(chǎn)品化落地,才是更加重要的部分。云深處花了三年時間才真正把強化學習的東西做落地。
機器人在應用的時候要基于具體的一個場景做適配,對它的能力要進行一定*約束。
我們現(xiàn)在感覺,智能模型的能力有點太強了,如果放在機器人身上,能力會超出我們之前的預期。
核心的一點是,以前早期的機器人是基于規(guī)則的控制,但現(xiàn)在基于訓練的方法,能力極大超出了我們認知的邊界,而且還在不斷進化。
隨著機器人能力的增加,以前我們覺得只能在固定場景下應用,但今年在完全開放的環(huán)境里效果也可以非常棒。
我們上月發(fā)布的輪足形態(tài)機器人山貓,對這個行業(yè)來說是有顛覆性的,尤其是對未來二、三十公斤以下的移動平臺來說。

它可以用最好的能力解決各種小場景下突破性的問題,是一個極大的提升,它相當于一個有生命的物理系統(tǒng),這是我們最大的感受。
重點是處理復雜真實場景中的數(shù)據(jù)
量子位:數(shù)據(jù)在你們的實踐落地過程中是一個關鍵挑戰(zhàn)嗎?
李超:目前客觀地說還不是,云深處有一個很重要的使命,讓AI+機器人的技術真正落地,產(chǎn)生價值。目前從我的角度看,除了數(shù)據(jù),還有技術的成熟度,商業(yè)的成本,包括部署等挑戰(zhàn)。
在機器人能力層面,云深處做本體和小腦會更多一點,在數(shù)據(jù)層面上,確實沒有遇到太多的障礙,因為數(shù)據(jù)沒有大模型用的這么多。未來要結合更復雜的場景空間和操作,到明年這方面應該是我們的一個挑戰(zhàn)。
量子位:對于如何處理真實數(shù)據(jù),像類似Sora的模型,或者Sim-To-Real的解決方法,您有什么看法?
李超:我們經(jīng)常困擾在To-Real這個事情里面,確實是問題很多。
剛才說到動畫的數(shù)據(jù),可能體現(xiàn)在一些色彩,真實的場景里面的數(shù)據(jù),還包括質感等更多方面,我們希望有更加多模態(tài)的。
比如像機器人在野外行駛的時候,看到一些草地,或者和雪地、水這些東西融合在一塊,對機器人來說如何做出通過與否的決策,這個是現(xiàn)在蠻大的一個挑戰(zhàn),這些都是To-Real的問題,我們每天都在解決這樣的問題。

工業(yè)生產(chǎn)場景中需求明確
量子位:像云深處這樣實踐者,你們會考慮把具身智能實踐按照一些能力技術的標準去劃分嗎?類比智能駕駛領域里面的L2—L5的劃分,你們會有類似的標準嗎?
李超:有,而且很明確,去年以前我們很多是L1,準確說是L0,因為有很多行業(yè)應用,比如消防和應急救援,還是人在操控。

現(xiàn)在我們用的最多的,工業(yè)巡檢場景下,在固定場景下、小范圍的L4,機器人自主去做決策,去做判斷,這是分行業(yè)的。
但是像山貓機器人在開放環(huán)境下,我們覺得目前是L2多一點點,大部分情況下它可以靠自己判斷去做,還有一半時間需要靠人做決策。
明年希望進化到L3級別,但對機器人來說場景太大了。

量子位:類比ChatGPT的發(fā)展軌跡的話,您覺得現(xiàn)在是具身智能的幾點0?
李超:我更樂觀一些,因為剛好處在這個行業(yè)里面,我們也解決了很多惡劣環(huán)境下的實踐。
第一個被改變的格局還不確定,有些公司太瞄準家用,家用是不是很快有這些需求還不確定。
但是我相信在工業(yè)生產(chǎn)中,很多場景已經(jīng)發(fā)生深刻的改變了,我處在這個圈子里面已經(jīng)感受很大了。

- 打臉!GPT-4o輸出長度8k都勉強,陳丹琦團隊新基準測試:所有模型輸出都低于標稱長度2025-01-15
- 好家伙,海螺直接拍了個AI版的《教父》2025-01-10
- 2025-01-08
- 用大模型吃瓜更智能了!阿里通義實驗室提出新時間線總結框架2025-01-07



