获项目资助博士研究生与多个研究团队合作在具身空间智能领域取得进展
2025/06/03
图 SpatialVLA:面向具身智能的3D空间智能通用操作模型
在国家自然科学基金青年学生基础研究项目(博士研究生,批准号:624B2044)的资助下,复旦大学计算机科学与技术学院博士研究生屈德林与上海人工智能实验室、中国电信AI研究院、上海交通大学、浙江大学、上海科技大学等研究团队开展交叉合作,在面向具身智能的通用机器人空间智能操作研究中取得进展。研究成果“SpatialVLA: Exploring Spatial Representations for Visual-Language-Action Models”被第21届Robotics: Science and Systems(RSS 2025)会议录用,项目代码与模型权重已经全面开源,截至2025年4月已获得15K的下载量。(开源项目:https://spatialvla.github.io;论文链接:https://arxiv.org/pdf/2501.15830)
与3D物理环境交互、适应不同机器人形态并执行复杂任务的通用操作策略,一直是机器人领域的长期追求。现有的通用操作模型局限于2D输入,缺乏鲁棒的3D感知能力,在面对单视角视差、光照变化和环境不一致等视觉外观变化时表现较差,限制了其在现实世界中的通用性。而人类本能地形成结构化的空间认知模型,轻而易举地在不同的场景中组织、操作物体。因此,当前面向具身智能的通用机器人领域的一个关键研究问题是如何有效地为视觉语言动作模型(VLA)赋予深刻的3D物理世界空间理解能力,即3D空间智能操作模型。
开发具有3D空间智能的通用机器人操作模型面临两个关键挑战:首先,由于相机传感器和安装位置(例如腕部安装与第三方视角)不同,机器人在各个形态下的观察数据缺乏3D对齐,造成了3D观察空间未同一校准的;其次,机器人表现出多样的动作特性,源自自由度、运动控制器、工作空间配置和任务复杂性的差异,使得学习通用空间动作变得复杂。为应对以上挑战,该文创新的提出了基于百万真机数据预训练的空间具身通用操作模型SpatialVLA(图),通过探索对齐的空间表示,将VLA模型赋予3D空间智能,全面探究空间表征在具身通用操作模型中的能力,在zero-shot泛化控制、场景高效微调、空间理解等多项评估中取得了较优的性能。
本研究成果创新地实现了具有真实3D空间智能的通用机器人操作模型,突破了视觉语言动作模型在复杂物理环境中的泛化性能瓶颈,将有效推动具身智能在工业服务、家庭助理等多样化场景的落地应用。
文章来源国家自然科学基金委员会,分享只为学术交流,如涉及侵权问题请联系我们,我们将及时修改或删除。
-
2025年两院院士增选有效候选人116
-
2025最新JCR分区及影响因子2461
-
好学术:科研网址导航|学术头条分641
-
2025年国际期刊预警名单发布!770
-
2025年中科院期刊分区表重磅发4295
-
中国科协《重要学术会议目录(202964
-
吉林大学校长张希:学术会议中的提1619
-
2025年国自然正式放榜!08-27
-
SCI论文中的数据引用,如何避免08-15
-
EI核心期刊和普通期刊有什么本质08-15
-
国内期刊EI与核心有什么区别?三08-15
-
怎么查找前几年的EI期刊源?科研08-15
-
如何准确验证论文是否被SCI收录08-15
-
机械类EI期刊投稿全攻略:从实验08-15
-
SCI论文DOI号查找全攻略:学08-15
-
亚太科学与工程研究所 23019
-
VEAEW 8192
-
上海远博志城经济咨询有限公司 8142
-
应用力学,机电一体化及智能化系统 21014
-
青海省海北州 18138
-
华北电力大学 18345
-
轻工业环境保护研究所 18137
-
丽江新云岭旅行社有限公司 18062
-
迈海材料基因组国际研究院 23026
-
北京中食高科农业科技发展中心 7991
-
广州市佰特会展有限公司 21195
-
AME2017组委会 2079
-
湖南师范大学生命科学学院 20944
-
上海来溪会务服务有限公司 2032
-
宁波德泰中研商务咨询有限公司 24102
-
中国民族卫生协会医院医师分会 23331
-
江苏省无锡市江南大学 24269
-
武汉英奇会展有限公司 8072
-
大连全顺会议服务有限公司 23129
-
香港维科信息产业研究中心 22926