关闭广告

清华×生数研发国产视频具身基座模型Vidar,实现少样本泛化突破

网易科技报道2025-07-26 00:00:014872人阅读

7月25日,清华大学与生数科技联合发布模型。据介绍,作为视频大模型Vidu在智能领域延伸的重大突破,Vidar是全球首个基于通用视频大模型实现视频理解能力向物理决策系统性迁移的多视角具身模型。该模型创新性地构建了支持双臂协同任务的多视角视频预测框架,在保持SOTA性能的同时,展现出显著的少学习优势。

Vidar可在仅20分钟少样本训练下,泛化至全新机器人本体,完成多视角双臂操作任务,所需数据量约为行业领先的RDT的八十分之一,π0.5的一千两百分之一。相比以往依赖百万级动作数据的机器人控制模型,Vidar显著降低了数据门槛与训练成本。


该模型基于生数科技此前推出的视频大模型Vidu,在此基础上融入75万条双臂机器人具身数据,构建统一观测空间后进行预训练,并结合自动化动作采集与逆动力学解码器,实现从视频预测到动作控制的全链路闭环。

清华与生数科技团队还提出“任务无关动作数据”训练范式,通过ATARA方法自动采集机器人动作轨迹,仅需10小时,即可完成机器人动作空间泛化。配合高精度动作执行模型AnyPos,Vidar在实际任务中实现近100%成功率,精度远超当前行业基线33%~44%。


Vidar在VBench视频生成测试中,在主体一致性、背景还原与画面质量等维度均显著领先。结合测试时扩展机制(Test-Time Scaling),模型可根据具体任务智能调节生成预测,进一步提高真实场景下的执行稳定性。

研究团队表示,Vidar打破了现有VLA架构对特定机器人任务数据的依赖,首次构建了“通用视频-中等具身视频-少量本体数据”的三级训练框架,推动了具身智能向“虚实互通”的下一阶段演进。未来,Vidar可广泛应用于居家、医院、工厂等场景。

生数科技创始人兼首席科学家朱军教授表示:"我们致力于通过多模态大模型技术推动数字世界与物理世界的深度融合与协同进化。一方面,我们正在打造新一代数字内容创作引擎,让AI成为人类创意的延伸;另一方面,我们通过训练具身视频基座模型,实现虚拟与现实的深度交互。"(袁宁)

本文来自网易科技报道,更多资讯和深度内容,关注我们。

版权与免责声明:本文内容转载自其他媒体,目的在于传递更多信息,不代表本网观点或立场,不承担此类作品侵权行为的自己责任及连带责任。
猜你喜欢
精彩推荐

伊媒披露以试图暗杀伊朗总统细节:发射6枚导弹或炸弹

环球网资讯 浏览 976 07-14

全球关税违法+库克可能败诉

路财主 浏览 0 09-01

还清债务后,罗永浩为什么还要在B站“抛头露面”?

钛媒体APP 浏览 0 08-22

伊姐周六热推:电视剧《刑警的日子》;电视剧《执法者们》......

伊周潮流 浏览 2358 05-11

影石 Insta360 Go Ultra 运动相机渲染图曝光

IT之家 浏览 7123 07-31

30度高温天穿啥?叶童高圆圆的答案可以抄作业

黎贝卡的异想世界 浏览 9191 06-21

美军无人舰艇部队训练时翻船

国际在线 浏览 2 08-21

特朗普:美将向乌克兰提供"爱国者"导弹 欧盟承担费用

财联社 浏览 9441 07-15

Here we go!罗马诺:佛罗伦萨边锋布雷卡洛将加盟奥维耶多

懂球帝 浏览 418 08-21

7月小型SUV销量TOP20揭晓:仅两款破万 元UP夺冠

智车情报局 浏览 5202 08-19

美批准向土耳其出售导弹及相关部件 价值3.04亿美元

央视新闻客户端 浏览 1685 05-15

刀郎临沂演唱会太疯狂!12万人挤爆小城,酒店一房难求

娱乐白名单 浏览 1194 07-16

年度超值手机荣耀X70今日开售1399元起,七大旗舰技术断层领先

IT之家 浏览 6502 07-18

乌遭俄导弹袭击 泽连斯基喊话特朗普访乌

环球网资讯 浏览 9652 04-16

《披哥5》初舞台落幕,7个小队实力差距悬殊,0713战队杀疯了

娱乐圈笔娱君 浏览 1657 08-09

想买车的再等等 5款大六座SUV将上市 都有杀手锏

火星说车 浏览 2 09-14

银行新规出炉:单笔存取超5万,不再问来源或用途

密探财经 浏览 1891 08-12

贝瑞德再谈价格战:拒绝补贴利润陪跑 强力推进战略转型

网易汽车 浏览 6114 07-18

预售26.8万元起 智界R7黑曜套件版官图发布

车质网 浏览 0 08-21

“上交100亿美元,英特尔CEO保住工作了”

观察者网 浏览 1 08-23

MIT所长涉嫌图片操纵,《自然》发布关注声明

知识分子 浏览 0 09-29
本站所有信息收集于互联网,如本站收集信息侵权,请联系我们及时删除沪ICP备2023013132号-2