【06-13】面向具身智能的三维内容生成:从物体到场景的生成路径
文章来源: | 发布时间:2025-06-13 | 【打印】 【关闭】
天基综合信息系统全国重点实验室2025年度鲁班论坛第9期
时 间:2025年6月13日(周五)14:30-15:30
地 点:中国科研实验室软件园区5号楼第三会议室
主讲人:盛律,北京航空航天大学,“卓越百人”副教授
报告摘要:
构建高精度、物理合理且可编辑的三维场景,对在真实三维数据稀缺瓶颈下实现“虚实融合”训练,提升具身智能体对复杂环境的理解与适应性有重要价值。本次汇报将分享利用扩散模型从单视图构建高精度、可编辑三维视觉内容的系列工作,从三维物体的高精度生成到三维场景的组合式高效生成,仅用单张图片就能构建具有逼真外观、几何准确和物理合理的可编辑三维场景。基于这些工作,进一步介绍面向复杂具身感知任务的学习框架RoboRefer,借助高精度的三维物体和可编辑三维场景构造海量数据,有效提升具身智能体对复杂动态具身感知任务的学习效率。
盛律,北京航空航天大学“卓越百人”副教授,入选小米青年学者和斯坦福2024年全球前2%顶尖科学家排行榜单。主要研究方向为三维视觉、多模态大模型和具身智能。在IEEE TPAMI/IJCV以及CVPR/ICCV/NeurIPS/ICLR/ECCV等重要国际期刊和会议发表论文超过60篇,Google Scholar显示被引用数超6800次。组织ICML 2024 Multimodal Foundation Models Meet Embodied AI和ICCV 2021 SenseHuman等多个国际会议研讨会。现任ACM Computing Surveys副编辑,CVPR、ECCV和ACM Multimedia领域主席,以及多个领域顶会顶刊审稿人和程序委员。任CCF和CSIG多个专委会执行委员,VALSE执行领域主席。主持或参与多项国家自然科学基金、科技部重点研发计划和省部级重点研发计划项目。