视触觉传感器:打开人形机器人灵巧操作之门

2025-11-13 15:16:45
关注

视触觉传感器:打开人形机器人灵巧操作之门

近年来,人形机器人在交互与运动智能方面取得长足进步。人工智能与深度学习的发展,使其具备了更强的环境理解能力和动作执行能力。视觉、听觉及本体感知的持续优化,也为机器人智能的提升提供了坚实基础。

然而,当任务从大规模运动控制转向精细化末端操作时,技术挑战随之而来。问题的核心在于触觉感知能力的缺失。当前系统虽能通过视觉识别物体轮廓与位置,却无法捕捉操作过程中的关键物理信息,如力、振动、温度与纹理。

传统本体感知系统主要监测关节状态,如角度与扭矩,但难以准确反映执行器与环境之间微观层面的交互信息。触觉的缺失,导致机器人在接触瞬间失去反馈机制,难以完成安全、灵活且精准的复杂操作。

引入触觉感知,不只是扩展了机器人的感知维度,更重要的是使其能够识别物体的物理特性与环境状态。这包括物体的软硬度、表面纹理、受力分布以及滑动趋势。在非结构化抓取和精细操作等任务中,触觉信息将成为机器人实现“看得见”到“抓得稳、控得准”的关键。

视触觉传感器基础解析

传统触觉传感器在精度、分辨率及系统扩展性方面存在一定局限,难以满足复杂操作场景的需求。相比之下,视触觉传感器通过摄像头捕捉弹性材料在接触过程中的形变,将触觉信息转化为高分辨率的视觉信号,从而实现对多种触觉参数的精确测量。

1. 视触觉传感器的工作原理

视触觉传感器(Vision-Based Tactile Sensor,VBTS)基于光学成像原理工作。其核心是通过内置摄像头实时捕捉弹性材料在与物体交互时产生的形变,并将这些形变转化为高分辨率的视觉信号,实现对多种触觉属性的测量。

与传统单一维度力传感器不同,视触觉传感器可以同时感知法向力、剪切力、表面纹理及滑动趋势等多维信息。其感知能力接近人手触觉,为机器人在复杂操作任务中提供了关键的感知基础。

2. 视触觉传感系统组成

一个完整的视触觉系统通常由四个模块构成:接触模块、照明模块、图像采集模块以及信息处理模块。这四个模块协同运作,实现从物理接触到数据解析的闭环流程。

接触模块作为感知前端,通常由柔性透光材料构成,内部嵌有微米级标记点。当物体接触表面时,这些标记点会因形变而发生位移,从而转化为可识别的图像变化。

照明模块则负责提供稳定的光源,常采用LED阵列或光纤光源。均匀的光照有助于提升图像对比度,同时减少环境光干扰。

图像采集模块的核心为CMOS相机,用于捕捉接触表面的动态形变,并将其转化为数字图像数据。部分高阶系统还集成了事件相机或双目视觉,以适应特殊操作需求。

信息处理模块是整个系统的大脑,利用算法解析图像序列,提取触觉信息,并实现与控制系统的数据交互。

视触觉传感器的技术特征与挑战

视触觉传感器将光学成像与深度学习结合,通过摄像头捕捉接触过程中的形变,并借助算法建模从视觉信号中解析触觉参数。这一模式依赖高质量的训练数据与模型优化,因此前期数据采集与建模成本较高。

然而,由于其基于图像的感知机制,视触觉传感器在理论性能上限上远高于传统传感器,能够揭示更多关于接触过程的物理信息。

视触觉传感器具有以下核心优势:

  • 高分辨率:可提供微米级的表面纹理与几何信息,实现更精细的触觉感知。
  • 多模态感知:可同时测量法向与剪切力、压力分布、纹理等触觉参数。
  • 系统集成简便:依赖摄像头作为感知元件,避免了传统传感器复杂的布线与封装。
  • 抗干扰性强:光学信号采集方式使其对电磁干扰、温湿度波动等具有天然免疫力。
  • 与视觉AI兼容性强:输出为标准图像格式,便于与深度学习模型集成。

尽管优势明显,视触觉传感器仍面临若干技术挑战。例如,在复杂曲面集成时,受限于光学路径与视角,传感器难以在不牺牲性能的前提下实现微型化。此外,传感器对微细力及纳米级位移的响应能力有限,图像处理过程也存在一定的延迟问题,影响实时闭环控制。

主要企业与技术进展

1. GelSight

GelSight Inc. 成立于2011年,由MIT计算机科学与人工智能实验室(CSAIL)的Edward Adelson教授团队创立。公司专注于3D触觉传感技术,致力于将高精度表面测量与机器人触觉感知引入工业应用。

GelSight技术源于2009年Adelson教授团队提出的三色光视触觉感知方案。传感器通过红、绿、蓝三色LED光源照射接触材料,并通过内置摄像头捕捉形变图像,再通过计算机视觉算法将形变映射为触觉信息。

2013年,GelSight首次用于机器人触觉感知,建立了包含40类触觉纹理的数据集。2014年,团队推出了首个10微米级指尖视触觉传感器Fingertip GelSight。2022年,GelSight Inc. 推出了售价499美元的GelSight Mini,延续了此前小型化与高分辨率的思路。

GelSight Sensor与GelSlim Sensor对比(GelSight 2018论文)

2. 戴盟机器人

戴盟(深圳)机器人科技有限公司成立于2021年12月,总部设于深圳,2023年8月正式启动运营。公司专注于高精度多模态触觉感知、灵巧手设计与穿戴式遥操作系统。

戴盟机器人源自香港科技大学科研团队,由王煜教授与段江哗博士共同创立。王煜教授是机器人领域的国际权威,长期从事触觉感知与仿生设计研究;段江哗博士主导了全球首款毫米级视触觉传感器的开发。

2025年4月,戴盟机器人发布DM-Tac W视触觉传感器。该产品采用单色光图案追踪技术,结合几何标定与算法重建三维形变场,实现了高精度触觉成像。

DM-Tac W特点包括:

  • 超高密度感知:每平方厘米4万个感知单元。
  • 多维力测量:同步测量正压力与切向力。
  • 原创单色光技术:通过密闭光场中的形变捕捉与算法解析触觉信息。
  • 高实时性:触觉信号输出频率达120Hz。

3. 纬钛机器人

纬钛机器人成立于2024年1月,总部位于上海,由李瑞博士创立。李瑞博士毕业于MIT,师从Edward Adelson教授,参与开发了GelSight传感器。

公司致力于打造下一代类人智能机器人,重点发展高分辨率视触觉传感技术。其GF225传感器具备10微米级分辨率、多维力测量能力及强环境适应性,支持Linux SDK,便于与主流AI工具集成。

4. 一目科技

一目科技成立于2015年,总部设于美国硅谷,2016年在深圳设立子公司。公司专注于多模态感知与AI技术,构建“感知-计算-执行”全链路解决方案。

2025年IROS大会上,一目科技展示了自主研发的仿生视触觉传感器。该传感器采用人体指腹仿形设计,通过内置摄像头捕捉形变,并结合AI算法解析多维触觉信息。

其性能参数包括:微米级形变精度、0.005N力分辨率、8ms响应时间、最高120fps输出帧率。

5. 叠动科技

叠动科技成立于2025年4月,专注于视触觉传感器与MEMS技术融合。其毫米级高性能传感器已在第50届日内瓦发明展上获得金奖。

2025年7月,叠动科技宣布完成来自隆盛科技的战略融资。通过与隆盛科技的合作,叠动科技计划加速触觉传感器在工业、服务与医疗领域的应用。

原文标题:解锁人形机器人灵巧操作智能—— 视触觉传感器或许是关键钥匙

您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

广告
提取码
复制提取码
点击跳转至百度网盘