- 开课提醒
- 1、触觉模态数据是人形机器人泛化的关键要素
- 2、视觉-触觉-语言-动作多模态感知模型VTLA-Model解析
- 3、基于视觉触觉双模态模型控制架构PX-Core
- 4、多维触觉人形机器人的精细操作任务展示
作为具身智能的重要载体,人形机器人要实现“类人化”,离不开具备丰富感知的灵巧双手。人类用手拿取物体时涉及到“触觉反馈”与“运动功能”两大能力,其中,触觉反馈包含运动觉与皮肤触觉。前者通过肌肉、肌腱和关节感知力量,后者通过皮肤感知接触状态、纹理、温度、摩擦力等物理特性。
比如,像我们生活中拿取物品、用筷子吃饭、开关门等都依赖于大量触觉反馈,一旦失去触觉,那这些日常操作都会变得异常困难。同样,机器人也需要 “触觉”,尤其对于配备“灵巧手”的人形机器人尤为重要。触觉感知被认为是人形机器人与物理世界交互的终极语言。
想象一下,当人形机器人在工厂搬运货物时。如果没有触觉,它可能会因为抓握力度不当导致货物掉落损坏;或在拿起一枚鸡蛋及其他易碎物品时,因为用力过猛将其捏碎。而有了触觉模态,机器人就能实时感知物体的质地、形状和重量,进而调整抓握的力度和方式,确保的抓取和搬运过程安全、稳定。
然而,目前人形机器人正面临着触觉模态极度稀缺的困境,这与触觉传感器研发难度大、成本高、感知维度低、使用寿命短等诸多瓶颈有关,也因此是中国35项“卡脖子”关键技术中排名第4位的关键性难题。
帕西尼发布了首款多维触觉人形机器人TORA-ONE,全身拥有53个自由度,配置多自由度灵活双臂和4指仿生灵巧手。双手搭载了2280个ITPU多维触觉传感单元,并部署了视觉-触觉-语言-动作多模态感知模型VTLA-Model与视触觉双模态模型的控制架构PX-Core。
目前,TORA-ONE可实现迅速捕捉丰富的环境信息,整合实时处理的视觉与触觉数据,优化机器人的操作策略,从而快速自主学习并适应不同环境,完成多种场景下的自由灵活操作。
7月2日晚7点,智猩猩开讲邀请到帕西尼开设「帕西尼公开课触觉感知专场」。帕西尼技术&销售商务中心VP 顾宏康将进行讲解,主题为《多维触觉技术让人形机器人真正感知世界》。
