清华团队研发受鸽眼启发的传感器,突破机器人“类人触觉”难题

2026-01-23 20:46:46
关注

清华团队研发受鸽眼启发的传感器,突破机器人“类人触觉”难题

随着具身智能技术的持续演进,机器人与人类的交互场景愈发多样化,对机器人高级触觉感知能力提出了更高标准。然而,当前触觉传感系统在空间分辨率、多维感知能力以及信号解析方面,仍与人类的触觉系统存在显著差距。尽管视触觉传感器(visuotactile sensor)已能通过成像技术实现亚毫米级分辨率,但在多光谱感知等领域仍面临技术瓶颈(图1)。因此,如何突破触觉传感器的分辨率极限,提升多模态融合水平,并实现复杂触觉信号的有效解析,成为推动机器人“类人触觉”发展的关键科学问题。

图1.安装有多模态视触觉传感器的灵巧手渲染图

图2.生物启发原理及其应用场景

近日,清华大学深圳国际研究生院丁文伯副教授团队携手多家国内外科研机构,成功开发出一款受鸽眼结构启发的多模态高分辨率触觉传感器SuperTac(图2),标志着机器人触觉感知领域取得了重要进展。

图3.内部结构及功能表征

SuperTac通过融合中红外至紫外波段的多光谱成像技术与摩擦电信号感知机制,构建了由导电聚合物、荧光层、反射层及支撑层组成的多层超薄感知皮肤。该传感器不仅具备可调的力感知范围,还实现了微米级空间分辨率,并支持对力、位置、温度、接近度和振动等多模态参数的高精度测量。其对材料特性、表面纹理、滑动状态、碰撞行为及颜色等信息的识别准确率均超过94%(图3)。

图4.触觉感知模型及应用实验

图5.传感器实物图

图6.安装SuperTac的灵巧手

为了充分释放其多模态感知潜力,团队进一步构建了名为DOVE的触觉语言模型,该模型拥有8.5亿参数,能够有效解析丰富的触觉信息,使机器人具备接近人类的触觉感知与环境理解能力(图4)。目前,SuperTac(图5)已成功集成至机器人灵巧手系统中(图6),能够提供远程实时状态反馈,有望在智能制造、医疗护理及服务机器人等领域带来突破性应用。

相关研究成果以《仿生多模态触觉传感实现类人机器人感知》(Biomimetic Multimodal Tactile Sensing Enables Human-like Robotic Perception)为题,于2025年1月15日发表在《自然·传感器》(Nature Sensors)期刊。

清华大学深圳国际研究生院2025届博士毕业生李寿杰、2023级博士研究生吴同、2023级硕士研究生徐建乐为论文共同第一作者。通讯作者包括清华大学深圳国际研究生院副教授丁文伯、大连理工大学教授解兆谦、新加坡国立大学助理教授吴昌盛以及香港城市大学教授于欣格。研究团队还得到了清华大学深圳国际研究生院教授王学谦、博士后赵洪发与吕楚桥,上海大学副研究员叶林奇,加州大学伯克利分校博士后王子涵,以及多位在读与毕业研究生的大力支持。本研究受到国家重点研发计划、深圳市科技计划项目、广东省创新创业研究团队项目及清华大学深圳国际研究生院—深圳鹏瑞青年教师项目的资助。

您觉得本篇内容如何
评分

评论

您需要登录才可以回复|注册

提交评论

广告
提取码
复制提取码
点击跳转至百度网盘