分享
Scan me 分享到微信

以视觉导航为核心,又一AGV初创企业获千万级融资

克罗地亚初创公司Gideon Brothers宣布,完成由Pentland Group旗下的Pentland Ventures领投的第二轮265万欧元(合295万美元)的种子轮融资,并已开始进行大规模部署。

  近日,克罗地亚初创公司Gideon Brothers宣布,完成由Pentland Group旗下的Pentland Ventures领投的第二轮265万欧元(合295万美元)的种子轮融资,并已开始进行大规模部署。

  在这之前,Gideon Brothers曾通过天使融资筹集218万欧元(242万美元),其中包括2018年7月的76.5万美元。

  发展至今,AGV经历了四代更迭,AGV 1.0为磁条或导线导航;AGV 2.0依靠二维码导航;AGV 3.0为激光视觉SLAM/视觉SLAM多传感器融合导航;AGV 4.0则是复杂场景下的无人驾驶机器人。

  AGV3.0也有个名字,叫AMR。

  与其他AMR公司不同,Gideon Brothers依靠视觉而不是激光雷达来实现安全导航。机器人通过深度学习与立体相机的结合,提供了同时定位和地图绘制(SLAM)的功能。

  SLAM(SimultaneousLocalizationAnd Mapping),即同时定位与地图构建,SLAM技术对于机器人或其他智能体的行动和交互能力至为关键,因为它代表了这种能力的基础:知道自己在哪里,知道周围环境如何,进而知道下一步该如何自主行动。可以说凡是拥有一定行动能力的智能体都拥有某种形式的SLAM系统。

  在未来的各类SLAM算法导航中,基于激光雷达的激光SLAM和基于机器视觉的视觉SLAM(VSLAM)是两种研究最多、最可能大规模落地应用的SLAM,基本代表着第三代AGV导航技术的发展方向。

  在这两种SLAM导航方式中,目前应用较多的是激光SLAM,激光SLAM脱胎于早期的基于测距的定位方法(如超声和红外单点测距)。激光雷达距离测量比较准确,误差模型简单,在强光直射以外的环境中运行稳定,反馈信息本身包含直接的几何关系,使得机器人的路径规划和导航变得直观。激光SLAM理论研究也相对成熟,落地产品更丰富。

  VSLAM,它可以从环境中获取海量的、富于冗余的纹理信息,拥有超强的场景辨识能力。早期的视觉SLAM基于滤波理论,其非线性的误差模型和巨大的计算量成为了它实用落地的障碍。近年来,随着具有稀疏性的非线性优化理论(Bundle Adjustment)以及相机技术、计算性能的进步,实时运行的视觉SLAM已经不再是梦想。

  视觉SLAM算法门槛相对较高,首先图像处理本身就是一门很深的学问,基于非线性优化的地图构建上也是非常复杂和耗时的计算问题。实际环境中又需要通过优化和改进现有的视觉SLAM框架,比如加入光照模型、使用深度学习提取特征点以及使用单双目及多目融合视角等技术。

  这也是视觉SLAM进一步提升性能和实用性的必由之路。

  其次在定位精度方面,激光SLAM总体来讲较为缺乏回环检测的能力,累计误差的消除较为困难。而视觉SLAM使用了大量冗余的纹理信息,回环检测较为容易,即使在前端累计一定误差的情况下仍能通过回环修正将误差消除。

  最后相比于视觉SLAM,激光SLAM有一个最大的成本问题。激光雷达有许多档次,成本均高于视觉传感器。虽然激光雷达量产后成本可能会大幅下降,但还是很难降到同档次摄像头的水平。

  Gideon Brothers联合创始人兼首席执行官也表示,虽然激光雷达是一项很好的技术,但是2D雷达在现实使用中有较多的局限性。如果不考虑经济成本的话,3D雷达效果会更好。但是总体来说,摄像头视觉技术才是自主移动技术的未来,这同时也是客户的明确需求。

参与评论

【登录后才能评论哦!点击

  • {{item.username}}

    {{item.content}}

    {{item.created_at}}
    {{item.support}}
    回复{{item.replynum}}
    {{child.username}} 回复 {{child.to_username}}:{{child.content}}

更多精选文章推荐

泰伯APP
感受不一样的阅读体验
立即打开