Isaac Lab机器人学习加速实操 → 1小时搞定2倍效率提升

2025-09-29AI工具

Image

各位跨境实战专家和创业者们,大家好!新媒网跨境获悉,英伟达(NVIDIA)最近在机器人领域又有了大动作,他们推出了Isaac Lab 2.3的早期开发者预览版。这可不是什么简单的版本迭代,里面藏着不少“黑科技”,能让咱们的机器人学习和部署变得更高效、更智能。

一直以来,直接在真实世界里训练机器人,成本高、速度慢,还容易出现“水土不服”的情况,换个环境就玩不转了。所以,咱们搞跨境的,追求的是效率和成本控制。这次Isaac Lab 2.3就提倡“先模拟后实战”的思路,大大降低了风险和投入,让机器人部署更安全、适应性更强。这不就是咱们常说的“磨刀不误砍柴工”嘛!

Isaac Lab 2.3这次更新,重点提升了人形机器人的能力。无论是整体协调控制、模仿学习还是移动行走,都有了显著进步。更让我眼前一亮的是,它大大增强了远程操控功能,现在支持Meta Quest VR和Manus手套等更多设备来收集数据。这对于咱们想快速构建演示数据集,简直是如虎添翼,能省下不少人力物力。此外,新版本还引入了基于运动规划的工作流程,专门用来生成机械臂操作任务的数据。大家可以看到,新版还增加了不少强化学习和模仿学习的示例,方便咱们上手。

精密操作,机器人的“绣花活儿”更顺手

在新版本中,英伟达为那些需要精细操作的任务,提供了更强的支持。比如,它引入了字典观测空间,让机器人能更好地感知周围环境和自身姿态。同时,像ADR(Automatic Domain Randomization,自动化域随机化)和PBT(Population Based Training,群体训练)这些高级技术也加持进来,让咱们的强化学习训练效率更高,机器人泛化能力更强。这些技术能让机器人在各种复杂场景下,像熟练工一样完成“绣花活儿”。

如果咱们想训练机器人进行这些精细操作,可以试试下面这条命令:

./isaaclab.sh -p -m torch.distributed.run --nnodes=1 --nproc\_per\_node=4 scripts/reinforcement\_learning/rsl\_rl/train.py --task Isaac-Dexsuite-Kuka-Allegro-Reorient-v0 --num\_envs 40960 --headless --distributed

除了传统的夹持器,Isaac Lab 2.3还新增了带吸盘夹持器的基准环境,这意味着咱们的机器人现在可以轻松应对吸盘和普通夹持器两种抓取场景了。之前版本只在直接工作流里支持表面夹持器,现在新版将CPU支持的表面夹持器扩展到了基于管理器的工作流,方便进行模仿学习。

要录制吸盘夹持器任务的演示数据,操作也很简单,用这条命令就行:

./isaaclab.sh -p scripts/tools/record\_demos.py --task Isaac-Stack-Cube-UR10-Long-Suction-IK-Rel-v0 --teleop\_device keyboard --device cpu

更多细节,大家可以去官方教程看看如何跟表面夹持器互动。

远程操控升级,体验更丝滑

远程操控,顾名思义,就是咱们通过输入设备,远程控制真实或模拟机器人进行操作。Isaac Lab 2.3这次对远程操控下了不少功夫,特别是对宇树G1机器人提供了支持,包括宇树三指手和Inspire五指手的精细动作映射。

精细动作映射(Dexterous retargeting)是啥意思呢?简单来说,就是把人手复杂的姿态,精准地转换成机器人手关节的位置。这样一来,咱们就能高效地把人类的技能“教”给机器人,特别是在那些需要手部与物体大量接触的任务中,能显著提升机器人的表现。它还能生成高质量的演示数据,训练出更稳健的机器人操作策略。

图1. IK控制器改进前机器人的可达空间

图2. IK控制器改进及腰部解锁环境增大了可达空间

新媒网跨境认为,这次版本还改进了所有双臂机器人(比如Fourier GR1T2和宇树G1)的上半身控制,通过优化Pink IK(逆运动学)控制器,让双臂机器人保持更自然的姿态,避免了不必要的肘部外展。新环境还允许机器人旋转躯干,大大增加了机器人的可达空间。端点执行器和目标端点的速度和误差也经过了额外调优。同时,UI界面也更人性化了,比如会弹出提示框,告知操作人员逆运动学控制器是否报错、关节是否达到极限等情况,数据收集完成时也会有提示。这些细节的优化,都能让咱们的实战体验更流畅。

避障运动规划,数据生成更智能

SkillGen是一个全新的工作流程,它能生成适应性强、无碰撞的机器人操作演示数据。它巧妙地结合了人类提供的子任务片段和GPU加速的运动规划,即使只有少量人工演示,也能让机器人学习真实世界中那些复杂的、需要大量接触的操作任务。

在Isaac Lab 2.3中,开发者们可以在Isaac Lab Mimic里使用SkillGen来生成演示数据。SkillGen厉害在哪儿呢?它能进行多阶段规划(比如靠近、接触、撤离),支持动态的物体附着和分离,并能管理好碰撞体,还能同步世界状态,确保在技能拼接时遵守运动学和避开障碍。

通过人工对子任务进行“开始”和“结束”的标注,可以将需要大量接触的技能与运动规划片段分开,这能保证后续轨迹合成的一致性,让结果更可复现。在之前的版本里,Isaac Lab Mimic主要用MimicGen来生成数据,现在SkillGen弥补了MimicGen的一些不足,新版让咱们可以自由选择SkillGen或MimicGen。

想用预先标注好的数据集来跑两个堆叠任务的流程,可以按下面的命令操作。数据集也是可以下载的。
这是运行普通方块堆叠任务的命令:

./isaaclab.sh -p scripts/imitation\_learning/isaaclab\_mimic/generate\_dataset.py \\
--device cpu \\
--num\_envs 1 \\
--generation\_num\_trials 10 \\
--input\_file ./datasets/annotated\_dataset\_skillgen.hdf5 \\
--output\_file ./datasets/generated\_dataset\_small\_skillgen\_cube\_stack.hdf5 \\
--task Isaac-Stack-Cube-Franka-IK-Rel-Skillgen-v0 \\
--use\_skillgen

这是运行箱中方块堆叠任务的命令:

./isaaclab.sh -p scripts/imitation\_learning/isaaclab\_mimic/generate\_dataset.py \\
--device cpu \\
--num\_envs 1 \\
--generation\_num\_trials 10 \\
--input\_file ./datasets/annotated\_dataset\_skillgen.hdf5 \\
--output\_file ./datasets/generated\_dataset\_small\_skillgen\_bin\_cube\_stack.hdf5 \\
--task Isaac-Stack-Cube-Bin-Franka-IK-Rel-Mimic-v0 \\
--use\_skillgen

图3. 使用SkillGen在Isaac Lab中生成自适应箱体堆叠任务数据

更多关于SkillGen的先决条件和安装信息,以及策略训练和推理,大家可以参考官方文档。

移动机器人也能“看清路”自主导航

除了操作,人形机器人和移动机器人更要在复杂动态的空间里安全穿梭。现在,通过Isaac Lab里的移动工作流,开发者们可以对NVIDIA COMPASS进行后训练。COMPASS是一个基于视觉的移动管线,能让不同类型的机器人在各种环境中实现自主导航。整个流程包括在Isaac Sim中生成合成数据(SDG),训练移动模型,最后部署到NVIDIA Jetson Orin或NVIDIA Thor平台。Cosmos Transfer技术还能优化合成数据,缩小模拟与现实之间的差距。

新媒网跨境了解到,结合NVIDIA Isaac的CUDA加速库,机器人能利用cuVSLAM知道自己的位置,用cuVGL构建地图,再通过COMPASS理解场景并生成行动,从而在不断变化的环境和障碍物中实时导航。COMPASS还能帮助开发者生成合成数据,用于训练像GR00T N. ADATA、UCR和Foxlink这样的高级视觉语言行动(VLA)基础模型。目前,这些公司都正在将COMPASS整合到他们的工作流程中。

“边走边做”,复合任务不再难

大家有没有想过,机器人能不能一边走路一边抓取物品?这就是“移动操作”(Loco-manipulation)——机器人协调地完成移动和操作,把两者作为一个整体任务来处理。这次的新工作流就能合成这种将操作和移动结合起来的机器人任务演示数据。它把导航功能与整体协调控制器(WBC)整合起来,让机器人能执行更复杂的序列任务,比如从桌子上拿起一个物体,穿过空间,再把它放到另一个地方。

这个系统通过随机化桌面取放位置、目的地和地面障碍物,来丰富演示数据。它将数据收集分解成取放环节和移动环节,这样就能用仅包含操作的人工演示,来大规模生成移动操作数据集,训练人形机器人完成复合任务。

下面是一个如何运行这种数据增强的例子。大家可以下载示例输入数据集。

./isaaclab.sh -p \\\\
scripts/imitation\_learning/disjoint\_navigation/generate\_navigation.py \\\\
--device cpu \\\\
--kit\_args="--enable isaacsim.replicator.mobility\_gen" \\\\
--task="Isaac-G1-Disjoint-Navigation" \\\\
--dataset ./datasets/generated\_dataset\_g1\_locomanip.hdf5 \\\\
--num\_runs 1 \\\\
--lift\_step 70 \\\\
--navigate\_step 120 \\\\
--enable\_pinocchio \\\\
--output\_file ./datasets/generated\_dataset\_g1\_navigation.hdf5

这个接口非常灵活,咱们可以根据自己的需求,切换不同类型的机器人,比如人形机器人或者带有用户选择控制器的移动机械臂。

图4. Loco-manipulation SDG,用于增强导航和操作轨迹

策略评估框架,让研发更高效

评估机器人学习到的技能,比如操作物体或穿行空间,如果只局限于真实硬件,效率是跟不上的。模拟仿真提供了一个可扩展的评估方式,可以针对各种场景、任务和环境进行测试。

但过去,从采样模拟资产,到设置和多样化环境,再到大规模评估的协调和分析,用户需要在Isaac Lab之外手动搭建很多组件,才能达到理想效果。这导致了搭建碎片化,扩展性受限,开销大,门槛也高。

为了解决这个问题,英伟达正与Lightwheel公司合作开发NVIDIA Isaac Lab – Arena,这是一个开源的策略评估框架,用于可扩展的基于模拟的实验。通过这个框架的API,开发者可以简化并执行复杂的大规模评估,无需从头构建系统。这意味着咱们能更专注于策略迭代本身,同时也能向社区贡献评估方法,加速机器人研究和开发。

这个框架提供了简化、可定制的任务定义,以及可扩展的指标、评估和多样化库。它利用Isaac Lab进行并行化、GPU加速的评估,并与数据生成、训练和部署框架协同工作,实现无缝的工作流程。

在此基础上,还有一个包含操作、移动和移动操作任务示例的库。英伟达还在与策略开发者、基准测试作者以及Lightwheel等仿真解决方案提供商合作,在这个框架上进行评估,同时将评估方法反馈给社区。
Policy evaluation framework software stack, including (bottom to top) NVIDIA Isaac Lab, Policy Evaluation Framework, Sample Tasks, and Community/Partner Benchmarks.
图5. Isaac Lab – Arena、策略评估框架和示例任务,实现可扩展和易于访问的评估

对于大规模评估,工作负载可以通过NVIDIA OSMO进行编排,这是一个云原生平台,可以在本地和云端计算上调度和扩展机器人和自主机器管道。Isaac Lab – Arena即将上线,值得期待。

硬件支持与生态圈

Isaac Lab 2.3目前支持NVIDIA RTX PRO Blackwell服务器和NVIDIA DGX Spark。这两款产品都搭载了NVIDIA GB10 Grace Blackwell超级芯片,为咱们的研究人员提供了出色的平台,无论是实验、原型开发,还是运行机器人开发的各项工作负载,包括训练、SDG、机器人学习和模拟,都能高效完成。

需要注意的是,在DGX Spark上,Isaac Lab 2.3暂不支持XR/AVP的远程操控和Isaac Lab Mimic中的模仿学习。对于人形机器人环境,开发者需要预先收集数据,而Franka环境则支持键盘和spacemouse等标准设备。

Agility Robotics、Boston Dynamics、Booster Robotics、Dexmate、Figure AI、Hexagon、Lightwheel、General Robotics、maxon和Skild AI等一众领先的机器人开发商,都在积极利用NVIDIA的库和开源模型,推动机器人技术的发展。这充分说明了英伟达在机器人领域的号召力和技术实力。

立即行动,开启你的机器人之路!

Isaac Lab 2.3通过增强人形机器人控制、扩展远程操控以简化数据收集、以及自动化生成复杂的操作和移动数据,极大地加速了机器人学习的进程。

想要第一时间体验Isaac Lab 2.3的早期开发者版本?赶紧访问GitHub代码库和官方文档吧!

别忘了,在2025年9月27日至10月2日,韩国首尔将举办CoRL和Humanoids大会,届时会有更多前沿研究展示。同时,大家也可以参加2025年BEHAVIOR挑战赛,这是一个评估机器人推理、移动和操作能力的基准测试,包含了50个家庭任务和10,000个远程操作演示。

持续关注咱们的资讯,订阅英伟达的通讯,在LinkedIn、Instagram、X和Facebook上关注NVIDIA Robotics。探索英伟达的文档和YouTube频道,加入NVIDIA开发者机器人论坛。想要开始你的机器人之旅,不妨参加免费的NVIDIA机器人基础课程。赶紧用NVIDIA Isaac库和AI模型,开始开发你的实体AI系统吧!

新媒网(公号: 新媒网跨境发布),是一个专业的跨境电商、游戏、支付、贸易和广告社区平台,为百万跨境人传递最新的海外淘金精准资讯情报。

本文来源:新媒网 https://nmedialink.com/posts/isaac-lab-boost-robot-learning-2x-1hr.html

评论(0)

暂无评论,快来抢沙发~
NVIDIA Isaac Lab 2.3发布早期开发者预览版,重点提升人形机器人能力,增强远程操控功能,引入SkillGen工作流程,实现避障运动规划,并支持COMPASS进行移动机器人自主导航。推出策略评估框架Arena,加速机器人研发,并支持NVIDIA RTX PRO Blackwell服务器和DGX Spark。
发布于 2025-09-29
查看人数 81
人民币汇率走势
CNY
亚马逊热销榜
共 0 SKU 上次更新 NaN:NaN:NaN
类目: 切换分类
暂无数据
暂无数据
关注我们
新媒网跨境发布
本站原创内容版权归作者及NMedia共同所有,未经许可,禁止以任何形式转载。