今天老板L叫我去办公室,说跟我说个有意思的事,进去给我剥的石榴吃[苦涩]我蛮想吃的想着不好吐就不吃了,眼巴巴有点馋,因为剥好了,我的指甲现在剥不了
还想着有啥事我的小动作被发现了[单身狗][单身狗][单身狗]
原来是说前职场老板把我拉黑了[求饶]
害得L diss他一顿
明天再把我拉出来[裂开]
雨我无瓜好吗
你们互相扯皮别牵扯到我好吗哥哥们[裂开]
还想着有啥事我的小动作被发现了[单身狗][单身狗][单身狗]
原来是说前职场老板把我拉黑了[求饶]
害得L diss他一顿
明天再把我拉出来[裂开]
雨我无瓜好吗
你们互相扯皮别牵扯到我好吗哥哥们[裂开]
小区停了一排车,就因为我的奥迪a6l停在最后一辆给我把车锁了,物业凭什么锁车,谁给的权利,首先声明一下,这条道路不是消防通道,最基本的常识还是有,上次也被物业锁过一次,找他们理论半天闹得不愉快,今天又给我锁了,不是20元钱的事,主要气不过,今天就硬刚到底,不把锁锯开扔保安室门口就不是我的性格。
#飞机先生唠唠# 大家关心的问题都在这里,关于辅助驾驶的五问五答。
新出行飞凡 R7 群里几个关于辅助驾驶的问题,很有代表性,我把它罗列出来,和大家分享我的看法。
1、全融合方案是否能解决极端环境?
在算法上,全融合其实指的是前后算法的综合融合,这也是飞凡提出的。
但如果我们再细分到传感器上,全融合指的是多传感器硬件融合,所以理论是传感器性能越多融合出来的效果的会更好。还别说,真有传感器不是全融合的,比如 ME 或者集度的方案,摄像头、激光雷达等是相互独立存在的,互相验证冗余。不同路线有各自的优劣势这次我们不展开。
但能否应对极端环境,除了硬件,还需要看算法融合的能力。
简单识别雪糕筒这个案例,多传感器是如何把它识别出来的?
首先视觉能够探测到远方有一个雪糕筒,但距离、摆放位置甚至数量无法完整描述,甚至因为雪糕筒的朝向或者造型无法完全识别,这时激光雷达可以补上其他信息,例如距离、位置等,4D毫米波补充高度信息,最后输出一个完整的雪糕筒在你正前方 200 米的信息,融合效率越高识别越快,面对更为极端的环境更是,留给下游的制动或者变道的时间就越长。
所以传感器的性能越强大,算法也要 hold 得住传感器才行,才能发挥最佳作用,面对恶劣环境更是如此。
2、无激光雷达方案和激光雷达两套方案是否都能应对恶劣环境?那激光雷达是否目前意义不大?
激光雷达不受白天、黑夜或者逆光影响, 但确实会受到恶劣天气影响。飞凡搭载的 4D 毫米波就不受恶劣天气影响,可以互补。
4D 毫米波有个非常重要的作用,就是它在距离、速度以及水平方位角的基础上加入垂直信息,所以叫 4D。有了速度以及空间检测能力,它就多了几个优势,首先静止或者速度比较低的目标物检测能力提高,另外因为是电磁波感知所以不会受到恶劣天气影响,和摄像头、激光雷达成互补关系。
现在很多视觉算法或者激光算法会针对部分恶劣环境做优化,但在极恶劣天气还是建议大家无论是否带激光雷达都不建议开启辅助驾驶。
3、什么场景是激光雷达能判断的?
在传感器融合上其实没有划分激光雷达判断什么或者决定什么,多传感器融合是一个过程,输出的已经是一个结果,就像一场球赛,踢赢的不是靠某个人,关键靠团队、分工甚至有时候还是运气,所以很难划分哪个场景取决于谁。
另外不同工程师对激光雷达的依赖不同,有些工程师认为我只是在我视觉算法上加上激光雷达辅助,而比如很多 L4 工程师从底层架构就对激光雷达做了深度融合,不同技术框架有很大不同。
4、城市 NOA 下激光雷达是否是刚需?这会影响目前消费者是否会选择激光雷达版本。
我认为城市 NOA 两大刚需是地图和激光雷达,如果注重城市的同学建议直接选,在权重上地图的作用会胜于激光雷达,另外是否上高性能激光雷达或者是否标配,其实这和品牌的定位以及商业模式有很大关联。
还有一个核心是激光雷达和纯视觉是互斥的方案,所以如果选择激光雷达走向 城市 NOA 的车企,大家不用期待短期内基于它的视觉也能走到,这完全是两个路线,大家可以权衡。
5、针对鬼探头的场景,会优先哪个传感器判断,是否上了激光雷达会更好?前几天高架上的事故正是因为没有激光雷达导致事故发生。
静止物体的难是因为在第一阶段的辅助驾驶中,多传感器主要是视觉+毫米波为主,前者在高速下对异形物体、小物体识别难,另外高速状态下遇静止物体无法在短时间内完成识别、速度融合。而毫米波本身缺乏高度信息以及对金属目标物敏感,所以基本会对高速上的静止物体点云信息做直接过滤。
现阶段静止物体还难吗?
现阶段能确定的是传感器从硬件属性上已经解决了这个难题,也就是加上激光雷达对这些场景会更优,但它依旧具备一定难度。
除了感知,系统需要解决融合,还需要解决预测以及下游规控,这是一个全链路过程,传感器越多也意味着你的计算量越大,对融合以及决策效率要求更高,而且还要避免误识别。
但目前有例如理想、小鹏以及蔚来等着手在开发基于鬼探头等场景的 AEB ,针对特殊场景采用特殊方法,这个解决逻辑会更快,处理效果会更好。
新出行飞凡 R7 群里几个关于辅助驾驶的问题,很有代表性,我把它罗列出来,和大家分享我的看法。
1、全融合方案是否能解决极端环境?
在算法上,全融合其实指的是前后算法的综合融合,这也是飞凡提出的。
但如果我们再细分到传感器上,全融合指的是多传感器硬件融合,所以理论是传感器性能越多融合出来的效果的会更好。还别说,真有传感器不是全融合的,比如 ME 或者集度的方案,摄像头、激光雷达等是相互独立存在的,互相验证冗余。不同路线有各自的优劣势这次我们不展开。
但能否应对极端环境,除了硬件,还需要看算法融合的能力。
简单识别雪糕筒这个案例,多传感器是如何把它识别出来的?
首先视觉能够探测到远方有一个雪糕筒,但距离、摆放位置甚至数量无法完整描述,甚至因为雪糕筒的朝向或者造型无法完全识别,这时激光雷达可以补上其他信息,例如距离、位置等,4D毫米波补充高度信息,最后输出一个完整的雪糕筒在你正前方 200 米的信息,融合效率越高识别越快,面对更为极端的环境更是,留给下游的制动或者变道的时间就越长。
所以传感器的性能越强大,算法也要 hold 得住传感器才行,才能发挥最佳作用,面对恶劣环境更是如此。
2、无激光雷达方案和激光雷达两套方案是否都能应对恶劣环境?那激光雷达是否目前意义不大?
激光雷达不受白天、黑夜或者逆光影响, 但确实会受到恶劣天气影响。飞凡搭载的 4D 毫米波就不受恶劣天气影响,可以互补。
4D 毫米波有个非常重要的作用,就是它在距离、速度以及水平方位角的基础上加入垂直信息,所以叫 4D。有了速度以及空间检测能力,它就多了几个优势,首先静止或者速度比较低的目标物检测能力提高,另外因为是电磁波感知所以不会受到恶劣天气影响,和摄像头、激光雷达成互补关系。
现在很多视觉算法或者激光算法会针对部分恶劣环境做优化,但在极恶劣天气还是建议大家无论是否带激光雷达都不建议开启辅助驾驶。
3、什么场景是激光雷达能判断的?
在传感器融合上其实没有划分激光雷达判断什么或者决定什么,多传感器融合是一个过程,输出的已经是一个结果,就像一场球赛,踢赢的不是靠某个人,关键靠团队、分工甚至有时候还是运气,所以很难划分哪个场景取决于谁。
另外不同工程师对激光雷达的依赖不同,有些工程师认为我只是在我视觉算法上加上激光雷达辅助,而比如很多 L4 工程师从底层架构就对激光雷达做了深度融合,不同技术框架有很大不同。
4、城市 NOA 下激光雷达是否是刚需?这会影响目前消费者是否会选择激光雷达版本。
我认为城市 NOA 两大刚需是地图和激光雷达,如果注重城市的同学建议直接选,在权重上地图的作用会胜于激光雷达,另外是否上高性能激光雷达或者是否标配,其实这和品牌的定位以及商业模式有很大关联。
还有一个核心是激光雷达和纯视觉是互斥的方案,所以如果选择激光雷达走向 城市 NOA 的车企,大家不用期待短期内基于它的视觉也能走到,这完全是两个路线,大家可以权衡。
5、针对鬼探头的场景,会优先哪个传感器判断,是否上了激光雷达会更好?前几天高架上的事故正是因为没有激光雷达导致事故发生。
静止物体的难是因为在第一阶段的辅助驾驶中,多传感器主要是视觉+毫米波为主,前者在高速下对异形物体、小物体识别难,另外高速状态下遇静止物体无法在短时间内完成识别、速度融合。而毫米波本身缺乏高度信息以及对金属目标物敏感,所以基本会对高速上的静止物体点云信息做直接过滤。
现阶段静止物体还难吗?
现阶段能确定的是传感器从硬件属性上已经解决了这个难题,也就是加上激光雷达对这些场景会更优,但它依旧具备一定难度。
除了感知,系统需要解决融合,还需要解决预测以及下游规控,这是一个全链路过程,传感器越多也意味着你的计算量越大,对融合以及决策效率要求更高,而且还要避免误识别。
但目前有例如理想、小鹏以及蔚来等着手在开发基于鬼探头等场景的 AEB ,针对特殊场景采用特殊方法,这个解决逻辑会更快,处理效果会更好。
✋热门推荐