关键词:深度强化学习;机械臂抓取;主动感知;视点融合
摘 要:在复杂和不确定的现实场景中,被抓取物体的无序、遮挡和自遮挡关系阻碍了机器人完成场景感知和精确抓取。研究人员提出了主动视觉框架来增强场景感知能力,通过协同视点调整和抓取以完成抓取任务,旨在紧密堆叠的场景中更好地获得场景信息并分离对象。然而,目前大多数主动视觉与抓取动作都是自上而下的,这限制了机器人对场景的感知能力。本文提出了一种6自由度(DoF)姿态空间中主动视觉感知和抓取协同策略。该策略基于深度强化学习构建视点调整网络(VNet)、4DoF抓取网络(4GNet)和6DoF抓取网络(6GNet)来学习最优协作策略,并根据Q函数和约束选择合适的原始动作。为了将多个视点所捕获的信息融合,还提出了一种视点调整后场景融合方法,通过将多个视点捕获的场景信息集成到固定大小的高度图中来提高机器人的感知面积和质量。仿真结果表明,与自上而下的视点调整动作相比,单次视点调整的情况下,该方法获取到的场景面积增大了8.93%。为抓取提供了更全面的场景信息。在包含10个目标对象的杂乱场景中,抓取成功率达到了89.53%,与先进算法VPG相比,本文提出的方法在抓取成功率上提升了12.02%。
内 容:原文可通过湖北省科技资源共享服务平台(https://www.hbsts.org.cn/)获取