关键词:空间机械臂;;视触融合;;神经网络;;目标识别;;灵巧手
摘 要:为了解决由于视觉传感器视角单一、光线条件复杂导致的空间机械臂作业中相似目标识别较差的问题,提出一种基于CNN-GRU的视触融合目标识别系统。系统由机械臂、灵巧手和视觉传感器构成,实现了对目标物视觉和触觉信息的自主采样,并通过CNN-GRU网络提取视觉信息的空间特征和触觉信息的时序特征,有效利用多模态信息,提高目标识别的准确率。实验结果表明:在14种物品分类实验中准确率为97.8%,对比单一视觉CNN-V和触觉GRU-T网络分别提升16.3%和15.8%;同时,CNN-GRU在准确率和预测速度上明显优于传统最邻近算法和支持向量机算法。
内 容:原文可通过湖北省科技信息共享服务平台(http://hbstl.hbstd.gov.cn/webs/homepage.jsp)获取